Sei sulla pagina 1di 41

1.

INTRODUZIONE STORICA ALLA PSICOLOGIA DEI PROCESSI


COGNITIVI

1. ORIGINI E SVILUPPO DELLA PSICOLOGIA SCIENTIFICA


Per affrontare il tema della nascita della Psicologia Scientifica bisogna partire dal
problema della definizione
della disciplina. Nella cultura occidentale le problematiche psicologiche hanno
attraversato tutta la riflessione
filosofica (a partire dai filosofi greci) e in parte quella scientifica. Il pensiero filosofico ha
affrontato i problemi
connessi alla “mente” partendo da due approcci distinti (problema ancora oggi in parte
irrisolto):
A. l’innatismo: esistono aspetti della mente umana che prescindono dall’esperienza e
sono patrimonio innato
dell’uomo. La punta estrema di questa concezione e’ il dualismo cartesiano (res
cogitans e res extensa). La
mente e’ intesa come una qualità innata e specifica dell’uomo e l’esperienza serve solo
a renderlo
consapevole di una conoscenza già presente nella mente a livello implicito (dottrina
delle idee innate).
B. l’empirismo: la mente umana può essere compresa solo attraverso le relazioni che si
instaurano con
l’ambiente e quindi con l’esperienza.

Un ruolo fondamentale per la nascita della Psicologia Scientifica ha avuto anche la


ricerca scientifica. In particolare il metodo scientifico formulato da Galileo e la teoria
dell’evoluzione di Darwin. Attraverso la ricerca scientifica si e’ esplicitato il problema
della forte influenza, nella cultura occidentale, della tradizione cristiana che, ponendo
l’uomo in una dimensione distinta dagli altri esseri viventi, nega ogni possibilità di
studiarlo come parte della natura. Solo con l’avvento dell’età moderna (XVII sec.), si
accantona la visione metafisica dell’uomo, permettendo che diventi oggetto di studio per
le scienze naturali. Si pongono così le basi culturali per lo sviluppo della Psicologia
Scientifica così come la intendiamo oggi: disciplina scientifica che supera la dicotomia tra
una visione metafisica dell’uomo e una visione che lo riduce ad un meccanismo
neurofisiologico, e approda a una visione integrata mente-corpo per spiegare i processi
mentali.
Convenzionalmente la data e il luogo di nascita della psicologia come scienza autonoma
coincidono con la creazione del primo laboratorio di psicologia sperimentale a Lipsia nel
1879, da parte di Wilhelm Wundt. Wundt ha sancito l’autonomia teorica del sapere
psicologico e ha definito un metodo di indagine rigoroso: il metodo sperimentale di
laboratorio – l’oggetto di studio deve essere l’esperienza mentale cosciente attraverso
l’analisi dei suoi contenuti elementari (elementismo) che, nelle loro associazioni
complesse, formano i contenuti di pensiero (associazionismo).
In seguito si sviluppano altri laboratori e nascono istituti di psicologia in tutta europa e
nel nordamerica. Nel corso del ‘900, si delineano anche orientamenti differenti: lo
strutturalismo, il funzionalismo, il comportamentismo, la fenomenologia, la psicoanalisi,
la psicologia cognitiva, il cognitivismo, la psicobiologia.

2. L’ORIENTAMENTO COMPORTAMENTISTA
Il comportamentismo può essere diviso in due periodi principali:

1
A. il comportamentismo classico (1913-1930) – il suo esponente principale è Watson,
psicologo
nordamericano che nel 1913 pubblica l’articolo Psychologist as the Behaviorist Views it.
I fondamenti teorici generali di questa scuola psicologica sono:
 necessità di abbandonare il terreno filosofico: la psicologia è una disciplina
scientifica, il cui obiettivo è la previsione e il controllo del comportamento e
procede attraverso il metodo sperimentale (ipotetico-deduttivo) senza fare
distinzione tra l’uomo e l’animale.
 rifiuto di qualsiasi riferimento ai processi mentali che determinano il
comportamento: i comportamentisti usano la metafora della mente come “black
box”- non essendo possibile indagare direttamente i processi mentali che
determinano il comportamento, la mente può essere concepita solo come una
scatola nera, che riceve stimoli dall’esterno e produce risposte comportamentali.
L’oggetto di studio dello psicologo e’ la relazione tra gli stimoli ambientali e le
risposte (modello stimolo-risposta), in quanto la spiegazione scientifica deve
limitarsi ai fenomeni che è possibile spiegare sulla base dei dati e della verifica
sperimentale. La psicologia diviene così la scienza che studia il comportamento. I
comportamenti umani hanno diversi livelli di complessità, ma secondo i
comportamentisti un comportamento complesso altro non è che la somma o la
combinazione di comportamenti più semplici.
 Sviluppo dell’uomo spiegato interamente sulla base delle modificazioni prodotte
dall’interazione con l’ambiente: la mente non e’ considerata dotata di fattori
ereditari innati, ma una tabula rasa , lo sviluppo cognitivo e’ il risultato della
modulazione che l’esperienza produce nei comportamenti. Il comportamento viene
letto come apprendimento, cioè come una catena di associazioni stimolo-risposta,
che valgono sia per gli apprendimenti semplici che per quelli complessi (es.
linguaggio).
 Possibilità di spiegare il comportamento umano attraverso la sperimentazione sugli
animali: se i comportamenti complessi sono la somma di comportamenti semplici è
possibile indagare alcune forme di apprendimento studiando gli animali.
È evidente la matrice fortemente riduzionista di questo modello: la mente viene vista
come una struttura passiva che riceve segnali dall’esterno e produce risposte
comportamentali in funzione dell’adattamento dell’organismo all’ambiente.
Il principale ambito di studio del comportamentismo è l’apprendimento (principio del
condizionamento).
B. il neocomportamentismo – si sviluppa a partire dagli studi di Skinner e Tolman che
introducono un’evoluzione del modello S-R, restituendo importanza alla dimensione
dell’organismo (modello S-O-R).

Il comportamentismo ha fornito contributi rilevanti anche alla psicologia applicata in


ambito pedagogico e sociale. Particolarmente rilevanti sono le ricerche di Bandura
(1969) sull’apprendimento mediante l’osservazione di modelli, che dimostrano la
possibilità di acquisire comportamenti sociali complessi sulla base di schemi imitativi e di
rinforzi. Nell’affermare la possibilità di apprendimento attraverso l’osservazione di
modelli sociali, Bandura fa riferimento al concetto di imitazione, che a sua volta rimanda
a processi cognitivi quali la percezione, l’attenzione, la memoria, il pensiero:
introducendo nella variabile organismo anche i processi cognitivi.., pone le basi del
passaggio dal comportamentismo al cognitivismo.

3.L’ORIENTAMENTO FENOMENOLOGICO
Prendendo le distanze dalla psicologia elementista di Wundt nasce la Scuola di Berlino, i
cui principali esponenti sono Max Wertheimer (1880-1943), Wolfgang Koehler (1887-

2
1967) e Kurt Kofka (1886-1941) che si occupano prevalentemente dello studio della
percezione. Dal punto di vista teorico i principali riferimenti sono Franz Brentano (1838-
1917) e William James (1842-1910). Secondo questi studiosi il fondamento della
conoscenza psicologica deve essere l’analisi dei processi psichici assunti nella loro
immediatezza qualitativa e fenomenologia. L’unitarietà dell’esperienza fenomenica (il
modo in cui il mondo degli oggetti percepiti si presenta alla coscienza) non può essere
spiegata però come pura somma di elementi, ma facendo riferimento alla relazione tra i
singoli elementi e al modo in cui interagiscono coi dati dell’esperienza. Nasce la
psicologia della Gestalt (forma) che parte dagli studi di Wertheimer sul movimento
stroboscopio e in particolare sul fenomeno del moto apparente. L’assunto di partenza è
che la realtà percettiva non equivale a quella fisica (es. melodia e accompagnamento).
La realtà fenomenica è considerata una configurazione globale (forma), dotata di
proprietà specifiche (qualità formali) a prescindere dalle caratteristiche dei singoli
costituenti. La psicologia, il cui oggetto di studio è la realtà fenomenica, deve dunque
analizzare i principi che regolano l’organizzazione secondo la quale gli elementi formano
un “tutto”, dando luogo ai percetti: l’oggetto della psicologia è la relazione che intercorre
tra i singoli elementi all’interno del campo percettivo (parallelismo col campo
magnetico). L’organizzazione del campo percettivo e’ regolata da precisi principi:
vicinanza, somiglianza, chiusura, buona continuazione, buona forma, pregnanza, destino
comune, esperienza passata. Le percezioni, non derivano quindi da aggregazioni
arbitrarie di singoli elementi, ma sono frutto di un’organizzazione regolata da vincoli
precisi, che determinano proprietà globali del percetto non riconducibili alla somma degli
elementi costitutivi. Per i gestaltisti, tra le leggi che regolano i processi percettivi e quelle
dei processi neurofisiologici esistono dei principi comuni. Comprendere le caratteristiche
strutturali e funzionali dei processi percettivi consentirebbe quindi di comprendere, dal
punto di vista dinamico e funzionale, i processi cerebrali. I gestaltisti hanno dato un
importante contributo anche allo studio del pensiero e dell’intelligenza: nella soluzione
dei problemi si deve partire dall’analisi delle relazioni intercorrenti tra gli elementi
disponibili all’interno del campo costituito dal problema.
La teoria della Gestalt possiede tuttora aspetti di grande rilievo: a. ha individuato alcuni
principi percettivi strutturali; b. ha posto l’attenzione sulla relazione tra processi cerebrali
e processi mentali.

4. LO STUDIO DEI PROCESSI COGNITIVI


Lo sviluppo della ricerca sui processi cognitivi si deve a due fattori: a. l’emergere dei
limiti del comportamentismo nell’affrontare temi come ragionamento, memoria,
percezione, ecc., non indagabili tramite il solo comportamento manifesto; b. nuove
acquisizioni in altri ambiti disciplinari, in particolare le neuroscienze, l’informatica e la
linguistica.
Lo studio scientifico dell’attività mentale deve comunque partire da comportamenti
espliciti per proporre costrutti ipotetici sui meccanismi mentali che li hanno generati.
Lo sviluppo del cognitivismo si articola in due periodi: la prima fase va dalla fine degli
anni ’50 alla metà degli anni ’80 e la seconda è costituita dalla ricerca sperimentale e
dalla riflessione teorica contemporanee.
Non esiste una “data di nascita” del cognitivismo, ma una concomitanza di eventi
importanti per la definizione di questo nuovo orientamento. Uno di questi è il congresso
al Massachusetts Institute of Technology di Boston (1956), in cui il confluire di
conoscenze provenienti da ambiti disciplinari differenti pone le basi per una ridefinizione
del sapere psicologico – in particolare sono cruciali i lavori di G. Miller, sulla memoria a
breve termine, A. Neswell e H. A. Simon, col modello General Problem Solving, N.
Chomsky, con la nuova teoria sullo sviluppo del linguaggio. Solo nel 1967 si ha però una
sintesi organica delle ricerche sui processi cognitivi: Cognitive Psychology di Ulrich

3
Neisser. In quest’opera il termine cognitivo indica tutti quei processi che comportano
elaborazioni, riduzioni, immagazzinamenti, recuperi ed altri impieghi dell’imput
sensoriale, anche quando hanno luogo in assenza di una stimolazione appropriata (vedi
immaginazione o allucinazioni).

4.1. Primo cognitivismo o teoria dell’elaborazione dell’informazione


Il cognitivismo punta alla comprensione di come i segnali provenienti dall’ambiente
vengano selezionati, elaborati e restituiti in termini di comportamento. Le informazioni
vengono elaborate e integrate con quelle già acquisite attraverso meccanismi di
retroazione (feedback) che consentono il monitoraggio continuo e flessibile del proprio
comportamento in base alle richieste dell’ambiente. Il cognitivista indaga gli stadi
dell’elaborazione nei processi di riconoscimento percettivo, memoria, uso del linguaggio,
ragionamento, ecc., (HIP=Human Information Processing), procedendo attraverso l’uso di
modelli, semplificazioni, quasi sempre traducibili graficamente, delle ipotesi di
funzionamento dei singoli processi. In questi modelli il flusso d’informazione viene
descritto come un processo lineare, in cui i passaggi avvengono in modo seriale (stretta
analogia tra il funzionamento della mente e quello del computer).
In Piani e strutture del comportamento (Miller, Galanter e Pribram–1960) il
comportamento è descritto come il prodotto dell’elaborazione di un determinato pattern
di informazioni utili alla soluzione di un problema: TOTE (Test: verifica degli elementi
disponibili nell’ambiente e valutazione della loro congruenza rispetto allo scopo –
Operate: se sono adatti passare al compimento dell’azione – Test: altrimenti ritestare la
situazione - Exit: concludere l’azione). In questo modo si può costruire un modello per
ogni specifico processo cognitivo.

4.2. Neocognitivismo.
È lo stesso Neisser, nel ’76, in Cognition and Reality a proporre una revisione dell’HIP
(limitato nel fornire una spiegazione completa dei comportamenti umani) partendo dalle
ricerche di Gibson sulla percezione. Gibson da un’interpretazione diversa del termine
informazione: non più la risultante dell’elaborazione che il sistema cognitivo opera sui
dati provenienti dall’esterno, ma qualcosa che e’ già presente nell’ambiente e che non
ha bisogno di alcuna interpretazione per essere colta (teoria della percezione visiva
diretta). L’attenzione si sposta dai processi all’interazione tra l’individuo e l’ambiente
(approccio ecologico) e il comportamento umano viene considerato nei suoi aspetti più
globali, tenendo conto dell’interazione fra variabili cognitive e non (fattori emozionali,
motivazione, caratteristiche dell’ambiente, feedback). L’approccio ecologico afferma il
carattere adattivo della mente in un organismo in continua interazione con l’ambiente e
mette in evidenza i limiti della metafora della mente come calcolatore.
Un’altra critica, mossa al primo cognitivismo, e’ quella di essere una forma più sofisticata
di comportamentismo: un sistema che accetta informazioni in entrata e produce una
risposta comportamentale; non è abbastanza considerato l’effetto di retroazione
dell’ambiente, che obbliga a modulare la risposta.
Su queste basi, nel 1979, nasce la scienza cognitiva che si fonda sui contributi di tutte le
discipline che si occupano della mente umana: psicologia, intelligenza artificiale,
antropologia, filosofia, linguistica, neuroscienza (esagono cognitivo). In ambito
psicologico la metodologia privilegiata è quella della simulazione al computer dei
processi mentali.

4.3. Gli orientamenti attuali


Negli ultimi anni si e’ affermata un’ ottica più generale e unificatrice per lo studio dei
processi mentali e si e’ avviato un acceso dibattito su questioni epistemologiche: la

4
definizione di mente, il suo sviluppo e la sua natura, il rapporto mente-cervello, il
problema della coscienza.
In studi recenti, la mente viene intesa come qualità del cervello che emerge quando
l’organismo raggiunge livelli particolarmente complessi. Questa prospettiva deriva da
una teoria neodarwiniana del cervello: lo sviluppo del sistema nervoso centrale e’ inteso,
sia da un punto di vista ontogenetico che filogenetico, come un processo di selezione di
gruppi di neuroni, strettamente legato alla necessità del cervello di modificarsi in base
alle richieste ambientali. La comprensione dei processi mentali non può, dunque,
prescindere dalla conoscenza del funzionamento del sistema nervoso, a partire dalla sua
evoluzione. La dimensione evolutiva e dinamica delle strutture nervose fa cadere
definitivamente l’analogia cervello-computer. Le principali caratteristiche del sistema
nervoso sono infatti la sua estrema variabilità e flessibilità.
Nel tentativo di capire come lo sviluppo delle nostre competenze cognitive, sono stati
elaborati due modelli:
1. ad architettura verticale: gli stimoli sensoriali vengono elaborati da
moduli, strutture con elevata competenza e funzioni altamente specifiche, che
lavorano in autonomia, senza scambio di informazioni. Le informazioni vengono
integrate in un sistema centrale con caratteristiche diverse dai moduli.
2. ad architettura orizzontale: un unico meccanismo generale di
apprendimento opera a prescindere dal tipo di informazione. A favore di questa
concezione vi sono molti dati sperimentali che evidenziano la grande plasticità
del cervello, che rende possibile un continuo rimodellamento di reti e di circuiti
neuronali nuovi (es. recupero nei pazienti con lesioni neuropsicologiche).
La sempre maggiore conoscenza dei fondamenti biologici dei processi mentali ripropone
in modo più complesso le due questioni cardine del dibattito scientifico-psicologico: la
relazione fra mente e cervello e l’emergere della coscienza. Il problema cruciale resta
definire il rapporto tra processi mentali e realtà.

2.FARE RICERCA IN PSICOLOGIA:I METODI

La psicologia e’ la scienza che studia il comportamento, le azioni osservabili compiute da


un individuo e i processi mentali che se ne possono inferire. In quanto scienza, è
empirica, obiettiva (si basa su osservazioni oggettive), dispone di meccanismi di
autoregolazione (nuovi dati possono mettere in discussione i precedenti) ed e’ guidata
dal principio della parsimonia (privilegia la spiegazione più semplice). La ricerca
psicologica è fondata su regole precise che permettono la generalizzazione dei risultati:
lo psicologo cerca di risalire a una legge generale e di stabilire in quali condizioni sia
valida. La ricerca sperimentale parte sempre da un’ipotesi, che può essere confermativa
o esplorativa (a sec. che si preveda o meno la direzione che prenderà la ricerca).
Un’ipotesi può scaturire da studi precedenti o da un’intuizione (es. effetto Zeigarnik:
tendenza a ricordare meglio i compiti non portati a termine – la psicologa Bluma
Zeigarnik ebbe un’intuizione osservando un cameriere con una memoria prodigiosa, che
le spiegò che per ricordare a memoria tutte le ordinazioni le rimuoveva non appena le
avesse eseguite, tenendo a mente solo quelle ancora da eseguire). L’ipotesi va poi
verificata attraverso una serie di studi di laboratorio, seguendo le regole del metodo
sperimentale. Esistono anche altri metodi d’indagine: l’osservazione, il metodo
dell’inchiesta e quello dei test. La scelta del metodo dipende dal fenomeno che si
analizza e dalla natura del campione d’indagine.

1. CONCETTO DI VARIABILE

5
La variabile è un aspetto del comportamento o la caratteristica di una persona o di un
evento che ha la prerogativa di essere misurabile, in base ai valori che quella variabile
può assumere (es. la v. “sesso” ha solo due valori: maschio e femmina).
Le variabili si distinguono in base al tipo di misurabilità: le v. quantitative variano in
grandezza (es. tempi di reazione), le v. qualitative variano in genere (es. la professione),
le v. continue possono assumere qualsiasi valore in un insieme continuo (es. intensità di
uno stimolo acustico), le v. discrete o discontinue non prevedono valori intermedi (es. il
colore dei capelli).
Per quanto riguarda il ruolo delle variabili all’interno di un piano di ricerca, bisogna
distinguere tra v. indipendente (quella che lo sperimentatore controlla e manipola
direttamente) e v. dipendente (la misura del comportamento che e’ oggetto di studio).
Le variabili rimandano spesso a costrutti astratti (intelligenza, ansia, aggressività, ecc.)
che non sono direttamente osservabili ma che vengono inferiti dal comportamento. La
teoria di riferimento del ricercatore e le strategie che userà per misurare i costrutti
determineranno le modalità di operazionalizzazione delle variabili (es. in uno studio
sull’ansia da esame: se il ricercatore vuole dimostrare che sostenere un esame provoca
un aumento dell’ansia, l’operazione consiste nel misurare il costrutto; se intende
dimostrare che l’ansia influisce negativamente sul risultato dell’esame, l’operazione
consiste nel produrre il costrutto). La v. indipendente può essere manipolata dal
ricercatore. Ad es. se si studia il comportamento a seguito dell’assunzione di un farmaco,
si può dosare il farmaco o decidere di somministrarlo solo ad alcuni soggetti. Vi sono
però anche v. indipendenti che non si possono manipolare, ma solo controllare (sesso,
età, status socio-economico, ecc.). In sintesi, la v. indipendente è un fattore di cui si
vogliono calcolare gli effetti.

2. LA MISURAZIONE
Le variabili si misurano in maniera diversa a seconda delle loro caratteristiche. Le
misurazioni possono essere più o meno accurate (se misuro l’ansia da esame e divido gli
studenti in due categorie, ad es. ansiosi e non ansiosi, ottengo accorpamenti abbastanza
grossolani, se invece li classifico in base al punteggio di un test ottengo una quantità
maggiore di informazioni; nel primo caso mi limito a classificare, nel secondo effettuo
una reale misurazione).

2.1. Le scale di misurazione


La quantità di informazioni che si può ottenere da una variabile dipende dal tipo di scala
di misurazione a cui appartiene. Stevens ha proposto di utilizzare 4 livelli di misurazione
(scale):
1. scala nominale – classifica eventi e oggetti in categorie (es. settentrionali-meridionali).
Alle categorie si possono anche assegnare valori numerici, ma il valore è nominale, non
numerale.
2. scala ordinale – dispone gli oggetti e gli eventi in base alla loro grandezza, si stila una
graduatoria (es. una classifica del grado di simpatia dei colleghi). Gli intervalli tra valori
non sono regolari
3. scala a intervalli – gli intervalli tra i valori sono regolari, si stabilisce
convenzionalmente un punto zero da cui partire (es. la misuraz. del quoziente
intellettivo). Poiché lo zero non è assoluto non si può affermare però che un QI 140 sia il
doppio di un QI 70.
4. scala a rapporti – e’ caratterizzata da un punto zero reale e da differenze significative
tra i valori numerici (es. il peso, la lunghezza, il tempo). Le informazioni che si possono
raccogliere con questa misurazione sono estremamente dettagliate inoltre si può
affermare che un individuo che ha un tempo di reazione di 500 ms (millisecondi) impiega
effettivamente il doppio del tempo di un individuo che risponde in 250 ms.

6
3. OSSERVAZIONE E METODI OSSERVATIVI
La metodologia di ricerca si distingue in metodi sperimentali e metodi descrittivi. Tra gli
uni e gli altri cambia il controllo che il ricercatore esercita sulle variabili e sui soggetti. L’
esperimento di laboratorio offre il grado più elevato di controllo, ma non è sempre
utilizzabile: a volte è fondamentale che i soggetti vengano studiati in una situazione
naturale (es. gli stili di conversazione dei giovani in discoteca). L’osservazione è obiettiva
nella misura in cui viene condotta secondo procedure sistematiche, ripetibili e
comunicabili. In quanto metodo di ricerca implica la selezione di un fenomeno e la
raccolta di informazioni più accurata possibile. Esistono diversi tipi di osservazione: sul
campo, ma anche in laboratorio (si può scegliere di osservare un fenomeno in un
ambiente artificiale); può riguardare un’ampia gamma di fenomeni o aspetti specifici di
un fenomeno. La caratteristica fondamentale è la rinuncia al controllo delle variabili
indipendenti attraverso la manipolazione sperimentale. L’osservazione può essere
naturalistica o partecipante a seconda che l’osservatore sia o meno presente nel
contesto osservativo. Nel primo caso è essenziale che l’osservatore non sia visibile agli
oggetti della sua osservazione (es. scimpanzé nel loro habitat naturale). Numerosi
esempi di osservazione naturalistica ci vengono dalla psicologia sociale (vd. studi sul
comportamento delle persone per strada) in cui è fondamentale la non intrusività
dell’osservatore e addirittura la sua capacità di “mimetizzarsi” tra coloro che vuole
osservare. Il metodo osservativo non si esaurisce comunque nell’osservazione informale:
il ricercatore impiega tecniche sistematiche di raccolta e di registrazione dei dati.
Un’osservazione accurata richiede la definizione dell’oggetto di osservazione, ma anche
l’individuazione di categorie di comportamento che diventeranno focali
nell’osservazione. Queste categorie devono essere il più possibile specifiche ed esaustive
e rispettare il principio dell’esclusività (non devono sovrapporsi). Per es. per analizzare il
comportamento di un bimbo problematico a scuola, Thomas, Nielsen, Kypers e Becker
hanno utilizzato 9 categorie di comportamento (atteggiamenti scomposti, aggressività,
parlare, ecc.). L’aggressività è stata a sua volta definita come: colpire, spingere,
spintonare, pizzicare, schiaffeggiare, battere,ecc.
Il ricercatore deve poi stabilire il luogo, il numero, la durata delle sedute e la frequenza
con cui rilevare i comportamenti.
L’obiettività deve essere garantita dalla presenza di più osservatori indipendenti, dall’uso
di scale di valutazione o di schede di osservazione predefinite, dall’utilizzo di strumenti
tecnologici di rilevazione.

Il metodo osservativo presenta diversi limiti. Vasta ha analizzato le principali fonti di


errore, indicandone i correttivi: 1. la reattività dei soggetti (la tendenza a comportarsi in
maniera innaturale sapendo di essere osservati) si può risolvere usando metodi di
osservazione non invasivi (es. telecamere nascoste); 2. l’osservatore e’ influenzato dal
suo stile cognitivo, dalle sue caratteristiche personali e dalle sue aspettative (che
possono portarlo a dare maggiore rilievo agli elementi che le confermano). Per risolvere
questo problema colui che osserva non deve essere al corrente delle ipotesi di ricerca
(osservazione cieca). Inoltre e’ sempre preferibile utilizzare più osservatori indipendenti e
ritenere attendibili solo le osservazioni per le quali vi sia un alto grado di concordanza
(indice di agreement).

4. L’ESPERIMENTO DI LABORATORIO
Il livello più accurato di osservazione è l’osservazione controllata, principio cardine del
metodo scientifico. La migliore applicazione dell’osservazione controllata si ottiene con
l’esperimento di laboratorio in cui vi è la diretta manipolazione della v. indipendente da

7
parte del ricercatore (il ricercatore deve dimostrare che la v. indipendente A è l’unica
causa della v. dipendente B). In un esperimento di laboratorio ciascun valore delle v.
indipendenti si definisce condizione sperimentale. Un es. di questo tipo di relazione tra le
variabili è l’esperimento di Schachter sulla relazione tra ansia e affiliazione. L’ipotesi di
partenza era che gli stati d’ansia favorissero l’incremento delle tendenze affiliative.
Schachter indusse la variabile indipendente “ansia” nei soggetti preannunciando la
somministrazione di scosse elettriche e usò due condizioni sperimentali, “alta ansia” e
“bassa ansia”, dando ai due gruppi sottoposti all’esperimento informazioni più o meno
allarmanti. Poi informò i soggetti che avrebbero potuto attendere l’inizio dell’esperimento
in sale d’attesa separate o in una sala comune e chiese loro di esprimere le loro
preferenze su una scala a 5 punti, misurando in questo modo la tendenza affiliativa (v.
dipendente).
Un altro esempio: un ricercatore vuole dimostrare che una determinata sostanza chimica
facilita l’apprendimento nei topi. Potrebbe individuare due condizioni sperimentali come
“basso dosaggio” e “alto dosaggio”. Più frequentemente però si preferisce utilizzare un
gruppo di controllo, somministrando il trattamento solo a un gruppo (trattamento
si/trattamento no). Perché l’esperimento riesca i due gruppi devono avere le stesse
caratteristiche, è necessario quindi fare molta attenzione alla scelta dei soggetti.

4.1. Il campione
Nella descrizione di una ricerca una sezione è sempre dedicata al campione sul quale si è
svolto lo studio: un insieme di elementi di un certo tipo selezionati da un insieme più
ampio, da una popolazione o universo (es. piloti d’aereo, studenti, casalinghe, ecc.).
L’esperimento di laboratorio richiede che vi sia un’assegnazione casuale dei soggetti alle
diverse condizioni sperimentali, per limitare gli errori (es. nell’esperimento
sull’apprendimento dei topi, se gli animali fossero prelevati da due diversi recinti e
assegnati rispettivamente alla prima e alla seconda condizione sperimentale, il risultato
potrebbe essere influenzato dalle diverse condizioni di vita degli animali nei due recinti).
Quindi per estrarre un campione da una popolazione si selezionano casualmente alcuni
suoi elementi.

4.2. L’errore sperimentale


Si ha un errore sperimentale quando il mutamento della variabile dipendente è causato
da una qualsiasi altra variabile, diversa dalla v. indipendente (l’effetto si ottiene, ma vi è
confusione sulla causa). L’errore minaccia la validità interna dell’esperimento, la certezza
della relazione funzionale (di causa ed effetto) tra la v. indipendente e la v. dipendente
(es.: esperimento per valutare se le abilità di calcolo di due gruppi di bambini di terza
elementare possono essere incrementate con un apposito training, in cui la variabile
“giorno della settimana” si confonde con la variabile indipendente – p. 47).
Esistono due strategie di controllo dell’errore: 1. il controllo – consiste nel tenere
costante la variabile parassita (es. sottoporre i due gruppi ai test di abilità nello stesso
giorno della settimana e orario); 2. la randomizzazione - assegnare casualmente i
soggetti alle diverse condizioni sperimentali, in questo modo qualsiasi altra variabile
verrà distribuita.
Tornando al controllo, bisogna considerare il controllo dell’errore dovuto alle condizioni
sperimentali. Se, per esempio, si deve testare l’efficacia di un antidepressivo col metodo
trattamento si/trattamento no, per evitare che il gruppo sottoposto al trattamento sia
soggetto all’autosuggestione bisogna dare a uno dei due gruppi, a loro insaputa, un
placebo. In questo modo l’autosuggestione interviene su tutti e due i gruppi e abbiamo
annullato il peso di questa variabile. Si tratta di rendere ciechi i soggetti, non far sapere
loro a quale condizione sperimentale sono stati assegnati. Vi è però un'altra fonte di
errore. Se il medico che assegna i farmaci sa a chi somministra il farmaco e a chi il

8
placebo, potrebbe avere un atteggiamento diverso nei confronti degli uni e degli altri
pazienti, suggestionando a sua volta i pazienti. Ricorriamo allora al doppio cieco:
nemmeno il medico deve sapere se sta somministrando il farmaco vero o il placebo.
Con questi accorgimenti si annullano le fonti di errore nel caso in cui si lavori con gruppi
di soggetti indipendenti. Le cose si complicano se dobbiamo sottoporre gli stessi soggetti
a due compiti diversi: l’ordine di presentazione delle prove potrebbe inquinare
l’esperimento (es. pubblicità in cui si testano due prodotti). Per evitare questo
inconveniente si ricorre al bilanciamento del campione, si varia cioè la successione dei
compiti. Così si evitano, tra l’altro, le modificazioni dell’attenzione dovute
all’affaticamento.
Neutralizzando le variabili parassite, si assicura la validità interna di un esperimento. Va
considerata però anche la sua validità esterna, la possibilità cioè di generalizzare i dati di
una ricerca, di estendere i risultati ottenuti a contesti più ampi (es. se si accerta che in
un campione di studenti universitari esiste una relazione causale tra ansia e affiliazione,
ripetendo l’esperimento con altri gruppi di soggetti – operai, casalinghe, ecc. – si deve
riscontrare la stessa associazione causale tra le variabili indipendenti e le variabili
dipendenti considerate). Accanto alla validità esterna, vanno segnalate la validità di
costrutto, coerenza tra il modello teorico di riferimento e l’interpretazione che il
ricercatore da delle relazioni causali osservate, e la validità statistica, che serve a
stimare se e quanta parte della relazione tra le due variabili sia causale o casuale
(solitamente si considera verificata un’ipotesi quando la probabilità di errore è inferiore
al 5%).

4.3. I quasi-esperimenti
Certe volte non è possibile manipolare la variabile indipendente o controllare
l’assegnazione casuale dei soggetti alle condizioni sperimentali. In questi casi si parla di
quasi-esperimenti: essi si richiamano al metodo sperimentale senza soddisfarne tutte le
esigenze di controllo. Per estensione rientrano in questa categoria tutti gli esperimenti in
cui non sia possibile controllare tutti gli aspetti dell’esperimento stesso. Se, per esempio,
si deve verificare l’efficacia di un certo metodo di apprendimento sul ricordo della storia,
si dovrà per forza utilizzare la classe in cui è stato applicato e non si potrà scegliere un
campione a caso. Negli esperimenti sul campo spesso non si possono assegnare
casualmente i soggetti alle condizioni sperimentali e si svolgono dei quasi-esperimenti.
Queste limitazioni ricadono in genere sull’estendibilità dei risultati.

5. IL METODO DELL’INCHIESTA
Nell’ambito della ricerca non sperimentale occupa un posto a sé il metodo dell’inchiesta.
Questo metodo include varie tecniche di raccolta dei dati, in particolare le interviste e i
questionari. Rispetto all’osservazione o al metodo sperimentale, l’inchiesta appare un
percorso d’indagine meno tortuoso, anch’esso però presenta vantaggi e svantaggi. Il
ricercatore può raccogliere una grande quantità di informazioni su campioni anche molto
estesi in tempi relativamente brevi. Tuttavia dovrà affrontare problematiche come il
fattore di desiderabilità sociale (tendenza dei soggetti a dichiarare ciò che è socialmente
accettabile invece del loro reale pensiero). Il ricercatore esperto è in grado di
neutralizzare questa insidia ricorrendo a una serie di accorgimenti a partire dalla
costruzione degli strumenti che utilizzerà.

5.1. L’intervista
Le interviste possono essere classificate come strutturate (o standardizzate), semi-
strutturate e non strutturate. Nel primo caso, l’’intervistatore deve porre le domande così
come sono formulate nel modulo e rispettarne la successione. Nel secondo,
l’intervistatore è tenuto a fare un certo numero di domande specifiche, ma può anche

9
porne delle altre se questo è funzionale ad una migliore comprensione delle dichiarazioni
dell’intervistato. Nell’intervista non strutturata il ricercatore dispone di uno schema
guida, ma può introdurre tutte le variazioni che ritiene opportune.
L’intervista strutturata consente di ottenere risultati più omogenei e comparabili, anche
a distanza di tempo. Al polo opposto si colloca l’intervista non strutturata che
rappresenta però un utile strumento nelle mani di un ricercatore esperto, le risposte del
soggetto possono infatti costituire degli spunti per indirizzare la ricerca in una direzione
più interessante o per approfondire determinati aspetti.
Una particolare modalità di intervista è il metodo clinico. Si tratta di un’interazione
verbale “a catena” tra lo sperimentatore e il soggetto: il primo inizia ponendo una
domanda e ciò che chiederà successivamente dipenderà dalla risposta del soggetto
(metodo ampiamente utilizzato da Piaget coi bambini). Questa procedura mira non tanto
a registrare la prestazione del soggetto, ma a comprendere il come, quali sono i processi
mentali che lo inducono a scegliere un percorso solutorio e non un altro.
La scelta di un tipo di intervista rispetto ad un altro dipende da diversi fattori: gli obiettivi
che il ricercatore si pone, la complessità del fenomeno analizzato, il gusto personale del
ricercatore.
In ogni caso, è di fondamentale importanza valutare e minimizzare gli effetti che la
situazione o l’intervistatore possono esercitare sul soggetto. La “desiderabilità sociale”
non è l’unico fattore che può compromettere l’autenticità dei risultati di un’intervista. Un
altro problema può essere la relazione che si stabilisce tra l’intervistato e l’intervistatore:
il primo tenderà a cogliere ogni segnale di approvazione o disapprovazione
dell’intervistatore e a porre a sua volta domande. L’intervistatore dovrà quindi evitare di
essere eccessivamente espressivo, ma non dovrà nemmeno tenere un atteggiamento
troppo riservato, che potrebbe demotivare l’intervistato. È bene inoltre che
l’intervistatore tenga celato il suo punto di vista personale. Pur nel rispetto di queste
norme di base, l’intervistatore deve apparire abbastanza spigliato.
Un altro aspetto importante è la modalità di registrazione dei dati: in alcuni casi si
trascrivono semplicemente i dati salienti delle risposte; in altri si può utilizzare un
registratore o una telecamera. L’uso di questi dispositivi non sempre è ben accetto da
parte degli intervistati. Laddove sia possibile farvi ricorso, questi strumenti si rivelano
preziosi perché permettono di cogliere intonazioni, sfumature e enfasi (ma anche
espressioni e posture nel caso della telecamera), e di stimare pause e incertezze dei
soggetti.

5.2. Il questionario
Il questionario è un elenco di domande scritte che possono essere divise in due grandi
categorie: domande aperte (non hanno risposte prefissate) e domande chiuse (si deve
scegliere tra un certo numero di domande prefissate). Spesso i questionari contengono
entrambi i tipi di domanda.
La selezione delle domande da inserire in questionario deve rispettare una serie di
requisiti:
1. evitare le domande doppie - ogni domanda deve contenere un solo quesito
(chiedere di rispondere con un “si” o con un “no” alla domanda “Lei ritiene che i
suoi professori siano competenti e disponibili?” sarebbe un errore, i quesiti
andrebbero distribuiti su due domande).
2. non inserire domande che possano influenzare il soggetto ed evitare i termini che
non tutti conoscono.
3. per quanto riguarda le domande chiuse, le varie alternative devono essere
diverse l’una dall’altra e coprire tutte le possibilità (es. studente-lavoratore).
Per la formulazione delle domande chiuse si possono usare, oltre alle scale nominali, le
scale ordinali. Spesso infatti i questionari contengono affermazioni rispetto alle quali il

10
soggetto deve esprimere la sua posizione. A seconda che il ricercatore voglia sondare
abitudini, atteggiamenti o opinioni userà modalità di risposta riguardanti, ad esempio, la
frequenza (“spesso”, “qualche volta”, “quasi mai”) oppure l’accordo/disaccordo.
Uno dei metodi più usati per la misurazione degli atteggiamenti è la scala Likert, che
consente di misurare non solo la direzione di un’opinione e di un atteggiamento (es.
favorevole o contrario), ma anche la sua intensità (usando una scala a 5 o a 7 punti che
preveda le posizioni intermedie tra i due poli “favorevole”/”contrario” e tenga conto
anche delle posizioni neutrali: -3 -2 -1 0 +1 +2 +3).
Affinché un questionario sia ben fatto, non solo le domande che lo compongono devono
essere formulate in maniera univoca e precisa, ma devono essere ben esplicitate le
istruzioni per la sua compilazione.

6. IL METODO DEI TEST


Il test psicologico è uno strumento di misura che comprende prove di diversa natura che
consentono di ottenere una misura o almeno delle indicazioni su una o più caratteristiche
del soggetto. A. Anastasi lo definisce una “misurazione obiettiva e standardizzata di un
campione di comportamento”. Un test risponde al requisito dell’obiettività se la sua
somministrazione, la determinazione e l’interpretazione dei punteggi prescindono dal
giudizio soggettivo di chi lo somministra. La standardizzazione si riferisce all’uniformità
delle prove, delle condizioni di somministrazione e delle procedure di determinazione del
punteggio. I test devono inoltre essere sensibili, ossia possedere la capacità di
differenziare i soggetti in base a quello che stanno misurando (così come un termometro
deve essere in grado di distinguere i soggetti che hanno la febbre da quelli che hanno
una temperatura nella norma). Un test deve essere fedele (se ripetuto nelle stesse
condizioni e con gli stessi soggetti deve dare risultati molto simili. Un ultimo requisito di
un test deve essere la validità. La validità può essere di diversi tipi: a. la validità di
contenuto, garantita da una corretta campionatura del contenuto (es. un professore che
voglia testare la preparazione degli alunni alla fine del corso deve dare lo stesso spazio a
tutti gli argomenti trattati); b. la validità in rapporto al criterio o validità predittiva: per
valutare la capacità di un test di predire il comportamento di un individuo in determinate
situazioni, si assume come termine di paragone un criterio, una misura diretta e
indipendente di ciò che si vuole testare (es. in un test sul rendimento scolastico si
possono adottare come criterio le votazioni che gli studenti riporteranno alla fine
dell’anno), maggiore sarà la corrispondenza tra il risultato del test e il criterio, più
elevata risulterà la capacità predittiva del test; c. la validità concorrente: in questo caso
si mettono in relazione i risultati del test con quelli riportati dai soggetti in altre prove
che misurino lo stesso attributo (es. test sulla cecità per i colori confrontato coi risultati
di esami oculistici).
Per quanto riguarda i tipi di test, bisogna innanzitutto distinguere tra i test individuali e
quelli collettivi. Esistono poi test che servono a misurare abilità specifiche: test di profitto
scolastico, di personalità, ecc.
Oltre che per le finalità i test si differenziano per il formato, molti sono del tipo “carta e
matita”, ma ci sono anche quelli che richiedono l’impiego e/o la manipolazione di
materiali particolari (disegni, fotografie, cubi colorati, ecc.) o l’uso di apparecchiature
specifiche.
Uno stesso test può comportare prove di vario genere e l’impiego di differenti materiali.
Analogamente uno stesso attributo può essere valutato ricorrendo a tecniche differenti.

3.LA PERCEZIONE

11
Quale fiducia dare agli organi di senso e alla percezione, che si fonda sui dati da essi
rilevati?
Si tratta di un problema presente dal '600 (dalla nascita della scienza moderna con
Galileo). Sappiamo che i dati sensoriali non sono sempre veridici, ci sono infedeltà
percettive, distorsioni, mancate corrispondenze. Questa constatazione può condurre ad
una svalutazione dell'attività percettiva a causa di una falsa impostazione del problema:
ritenere cioè che lo scopo della percezione sia la registrazione accurata di ciò che è
presente nel mondo. Il problema si risolve a favore della fiducia nella percezione se la si
considera come un complesso meccanismo, preposto alla raccolta ed elaborazione, in
tempi molto brevi, di una grande quantità di informazioni utili e/o necessarie al sistema
cognitivo e a quello motorio per raggiungere i loro obiettivi, prima di tutto quello della
sopravvivenza.
La percezione è costituita da un insieme concatenato di processi di raccolta,
elaborazione, trasformazione e organizzazione delle informazioni disponibili
nell’ambiente. L’interazione col mondo è possibile solo attraverso l’attività percettiva e
questa può aver luogo solo se vi è la presenza contemporanea di 3 condizioni:
1. un pezzo di mondo che emetta e/o rifletta qualche tipo di energia: stimolo distale
2. un tipo di energia che sia in grado di modificare gli organi sensoriali di un essere
vivente: stimolo
prossimale (stimolazione dei recettori sensoriali periferici)
3.un sistema di elaborazione che sia in grado di decodificare e interpretare le
modificazioni che l’energia ha
prodotto negli organi di registrazione sensoriale: percetto (frutto dell’elaborazione
finale);
L’insieme dei percetti costituisce il nostro mondo fenomenico, che si distingue da quello
fisico (es. nel modo fisico il sole sta fermo e la terra si muove, nel mondo fenomenico è il
sole che sorge e tramonta).

3. ENERGIA E SENSAZIONE: LA PSICOFISICA


Il mediatore fra gli stati del mondo esterno e la nostra conoscenza di esso è l’energia a
cui il sistema percettivo è sensibile. Uno dei primi argomenti affrontati dalla psicologia
sperimentale fu lo studio delle relazioni che si instaurano tra l’intensità dell’energia che
colpisce gli organi di senso e l’intensità dell’esperienza sensoriale del percipiente.
Theodor Fechner definì “psicofisica” la disciplina che studia il rapporto fra il mondo degli
stimoli fisici e quello delle esperienze psicologiche da essi prodotte. Prima di Fechner, era
stato Weber a rendersi conto che il modificarsi della quantità di energia che colpisce gli
organi di senso non produce una modificazione equivalente della sensazione e che
quest’ultima non dipende solo dal modificarsi dell’intensità dello stimolo, ma dal livello
complessivo di energia che colpisce l’organo di senso in un dato momento (es.
lampadina da 10w in una stanza molto scura). La relazione tra intensità dello stimolo e
intensità della relazione non è lineare.
Per misurare le sensazioni, la psicofisica utilizza due criteri di misura: la soglia assoluta -
quantità minima di energia necessaria per produrre una sensazione - e la soglia
differenziale o differenza appena percepibile - variazione che deve subire l’intensità di
uno stimolo perché un soggetto ne colga il cambiamento.
Visto che la valutazione delle soglie è soggetta a oscillazioni e interferenze, in entrambi i
casi si è stabilito che la misura sia data dal valore che viene riconosciuto mediamente 50
volte su 100.
La differenza appena percepibile è una costante, che ha un valore specifico per ogni
modalità sensoriale (Costante di Weber), e che misura l'intensità di uno stimolo
dicendoci di quanto esso deve variare per essere percepito come diverso da un altro (ad
esempio per la pesantezza è 0.02).

12
La Costante di Weber non ci dice nulla però sulla variazione della sensazione.
Fechner scoprì che tra l'intensità dello stimolo e quella della sensazione vi è una
relazione per cui dall'una si può ricavare l'altra. Questa relazione è espressa dalla
formula: S = C log I (S= sensazione; C= costante relativa alla modalità sensoriale
considerata; log, logaritmo; I= misura fisica dell’intensità dello stimolo).
Stevens ha poi dimostrato che è possibile far valutare direttamente l’intensità delle
sensazioni alle persone chiedendo loro di associare una sensazione con un numero. Il
metodo della Magnitudo Estimation consiste nell’assegnare convenzionalmente un valore
numerico ad uno stimolo e, aumentando lo stimolo, chiedere al soggetto di valutare la
nuova intensità in rapporto alla prima.

4. INFORMAZIONE E ATTIVITA’ PERCETTIVA


Gli studi di psicofisica indagano i rapporti tra il mediatore energetico che riflette lo stato
del mondo osservato e gli organi di senso attivati da quel mediatore.
L’atto percettivo è il primo livello di interazione fra individuo e ambiente e ci rende
consapevoli non solo delle caratteristiche strutturali delle cose (forma, dimensione,
volume, posizione, ecc.), ma anche di aspetti del loro modo di essere rispetto a noi
(pericolosità, aggressività, disponibilità, attrazione, ripugnanza, ecc.).
Nel caso della visione, il mediatore è la luce. Ad oggi sul problema di come la luce riesca
a dar conto di aspetti della realtà così numerosi e diversi sono state avanzate solo delle
risposte limitate e parziali.
Sappiamo che il mediatore energetico, attraverso le sue modulazioni ordinate e mai
casuali, veicola informazione (ogni aumento di conoscenza con relativa diminuzione
dell’incertezza). L’attività percettiva raccoglie, da una stessa porzione di realtà,
informazioni diverse, spesso indipendenti tra loro, al servizio di due processi
fondamentali della nostra vita: l’attività cognitiva e l’attività motoria.

4.1. Quale informazione: dieci casi


Il nostro sistema percettivo procede in modo veloce e automatico, il più delle volte senza
che ne diventiamo consapevoli, alla selezione dell’informazione. Questo modo di
procedere rende impossibile stabilire a priori che cosa sia informativo e in che misura lo
sia. È quindi necessario predisporre delle condizioni osservative controllate per capire
quali elementi informativi il sistema percettivo estragga di volta in volta. Stabilendo per
convenzione che un cerchietto bianco su una superficie nera sia il primo livello
dell’attività percettiva da cui si intende partire, si apportano modifiche progressive per
verificare in che modo il nostro vissuto percettivo muti dopo ogni intervento:
1. presenza di un punto: su una superficie di colore uniforme si inserisce un pallino di
colore diverso. Il rendimento percettivo è un pallino chiaro su una superficie scura;
2. aggregazione di base: aggiungendo a caso un altro pallino, i due cerchietti tendono
a non essere visti come entità del tutto separate, ma come una coppia;
3. movimento apparente: se invece dei due pallini ci sono due punti luminosi, uno
acceso e l’altro spento, spegnendo il primo e accendendo il secondo in un
brevissimo intervallo di tempo, il rendimento percettivo sarà il movimento del
primo pallino, non lo spegnersi del primo e l’accendersi successivo dell’altro
(informazione percettiva di movimento);
4. distanza percepita in funzione della grandezza: modificando il diametro di uno dei
2 cerchi, si percepiranno 2 cerchi di misura diversa o 2 cerchi posti a distanze
diverse (informazione di distanza);
5. posizione non ordinata di punti e 1° livello di organizzazione: se su piano nero si
dispongono 4 pallini in ordine sparso, vedremo 4 pallini disposti casualmente. Se
però i pallini vengono allineati a 2 a 2 ed equidistanti sia verticalmente che
13
orizzontalmente, si vedranno i 4 punti collegati tra loro in una forma (informazione
di forma);
6. vincolo della vicinanza ordinata: aggiungendo alla figura precedente altri dodici
pallini, allineati in 4 righe e 4 colonne, la forma quadrata appare più strutturata e
unitaria (informazione di forma);
7. vicinanza, coesione e segregazione: se raddoppio la distanza tra le colonne della
figura precedente e dimezzo quella fra le righe, si percepiranno 4 colonne
indipendenti in luogo del quadrato (la vicinanza degli elementi veicola
un’informazione di appartenenza di un elemento ad una configurazione unitaria);
8. dalla superficie fronto-parallela alla profondità spaziale: partendo dalla figura del
punto 6 e riducendo in stadi progressivi la lunghezza di ogni riga di un valore
costante, la distanza tra le righe in modo progressivo dal basso verso l’alto e nello
stesso modo la misura dei pallini, otterrò la percezione di una superficie di pallini
bianchi sempre più inclinata in profondità (il “gradiente di tessitura” informa
sull’inclinazione di una superficie nella terza dimensione);
9. eguaglianza fisica ed eguaglianza fenomenica: in una griglia costituita
dall’alternanza di fasce orizzontali bianche e nere dello stesso spessore dispongo 4
serie di cerchietti della stessa tonalità di grigio, disposti a sinistra sulle fasce nere e
a destra su quelle bianche. Pur essendo dello stesso colore, i cerchietti di sinistra
appaiono di un grigio meno intenso (l’informazione in base alla quale viene
percepito un colore dipende dalla scena);
10. percezione della quantità in funzione dello spazio occupato: se dispongo 16
segmenti, fra loro paralleli ed equidistanti, in colonna su una superficie accanto ad
altri sedici segmenti uguali, ma disposti lungo una linea inclinata di 45°, quelli
inclinati appariranno più numerosi di quelli incolonnati (l’informazione sul numero
degli elementi di una collettività dipende dalla loro distribuzione nello spazio).
Nella maggior parte dei casi descritti il rendimento percettivo fa riferimento a delle
caratteristiche della figura che non emergono dalla sua descrizione fisico-geometrica e
perciò si deve ritenere che sia frutto del lavoro di elaborazione e organizzazione
dell’attività percettiva. In ognuno degli esempi riportati si è instaurato qualche tipo di
legame tra gli elementi della configurazione: l’informazione non risiede negli elementi di
una scena, ma nelle relazioni che si istituiscono fra gli elementi e fra le loro
caratteristiche.

4.2. Altre informazioni, altre relazioni


Chiusura: se in uno spazio rettangolare traccio 4 segmenti indipendenti questi non
provocheranno un mutamento della percezione di quello spazio. Se unisco i quattro
segmenti formando un quadrilatero, lo spazio verrà percepito in modo diverso: da una
parte dei segmenti la superficie appartiene al rettangolo includente, dall’altra al poligono
incluso che appare sopra al rettangolo. Il “chiudersi” del contorno del quadrilatero ha
prodotto una separazione e una duplicazione dello spazio da esso racchiuso che copre
quello del rettangolo sottostante. Il quadrilatero si separa dal rettangolo sfondo e il
margine appartiene sempre e solo alla figura, non delimita un foro nel rettangolo.
Affinché il contorno del poligono definisca un buco nel rettangolo bisogna far riferimento
a un alto fenomeno percettivo: il completamento amodale. Se aggiungo alle due figure
due trapezi (fig. 13 p. 77) uno all’esterno del rettangolo ed uno all’interno del
quadrilatero, allineati in posizione tale da dare l’impressione di “continuare sotto”, in
base al principio della “buona continuazione”, il rendimento percettivo sarà una figura
che si unisce sotto alla superficie rettangolare originaria che a questo punto risulterà
bucata.

14
Un altro esempio di completamento amodale, associato alla buona continuazione, è
costituito dalle linee di un intreccio (fig. 16 p. 81)
La buona continuazione o “continuità direzionale è uno dei fattori di organizzazione
figurale individuati nell’ambito della psicologia della Gestalt da Max Wertheimer, che da
lui prendono il nome di “fattori di Wertheimer (altri sono la vicinanza e la chiusura).

5. INDETERMINAZIONE GEOMETRICA E DETERMINATEZZA VISIVA


La figura 17a veicola, da un punto di vista geometrico, una figura ambigua: potrebbe
essere costituita da una losanga posta su un rettangolo oppure da due poligoni concavi
accostati. Per il sistema percettivo vi è invece solo la prima possibilità. Si tratta di un
caso di indeterminazione geometrica, ma non percettiva.
Il rendimento geometrico di una qualsiasi porzione di realtà osservata potrebbe essere,
dal punto di vista geometrico, il risultato di molteplici aggregazioni diverse degli
elementi presenti. Il più delle volte però il nostro vissuto è unico. Parliamo invece di
figure ambigue quando il sistema percettivo non riesce a decidere quale delle due o più
soluzioni possibili accettare in modo definitivo (gli esempi di figure ambigue sono molti:
forme bianche su sfondo nero – fig. 19; il cubo di Necker – fig. 20; coppa e profili – fig. 21;
ballerini e ballerine – fig. 22; ambiguità di figure non significative – fig. 23; moglie e
suocera – fig. 24; papero e coniglio – fig. 25). Le figure ambigue costituiscono una
dimostrazione che l’attività percettiva è un processo attivo, in cui l’elaborazione delle
informazioni continua anche dopo il raggiungimento di un primo rendimento accettabile.
A fronte di una stessa condizione stimolatoria, si generano sul versante percettivo due o
più rendimenti fra loro alternativi e sempre ben strutturati. È lecito pensare che il modo
di presentarsi dei dati osservati attivi più di un’elaborazione percettiva.

6. LA FIGURA IN RAPPORTO CON L’AMBIENTE CIRCOSTANTE


Ogni oggetto nell’ambiente naturale è di solito inserito in un contesto di riferimento che
ne definisce posizione, orientamento e dimensioni. La fig. 26 è un chiaro esempio di
come l’attività percettiva tenga conto innanzitutto delle relazioni intercorrenti fra ogni
oggetto presente in una scena e la scena nel suo insieme.

7. FATTORI FORMALI E TESTO SCRITTO


Nei testi scritti le lettere si susseguono da sinistra a destra raggruppandosi e
separandosi per formare le parole, ma anche per facilitare e accelerare la lettura.
Qualsiasi affaticamento percettivo sottrae risorse al processo di comprensione. È per
questo che i caratteri devono essere chiari, simili tra loro, ben allineati ed
opportunamente distanziati. La scrittura rispetta le proprietà formali che sono alla base
dell’organizzazione visiva, primi fra tutti i fattori di vicinanza, somiglianza e continuità di
direzione (un es. del ruolo dei fattori formali nella lettura di un testo è dato nella figura
27).

8. NASCONDERE, MOSTRARSI
I processi di unificazione-separazione su cui si basa l’organizzazione del nostro mondo
visivo, che rendono individuabili gli oggetti separandoli dallo sfondo, possono anche
funzionare al contrario, rendendo impossibile o difficoltoso il loro riconoscimento. Ne
abbiamo svariati esempi nel mondo animale, dove la vita di un animale nel proprio
ambiente può dipendere, a seconda delle circostanze, dal suo essere chiaramente
visibile (accoppiamento) o completamente invisibile (ricerca del cibo). Entrambi gli
obiettivi si ottengono grazie al funzionamento degli stessi processi percettivi,
innanzitutto in base alla relazione della figura con lo sfondo.
In ambito psicologico i primi esperimenti sul mascheramento vennero fatti da
Gottschaldt e successivamente da Kanizsa e da Vicario (fig. 29, 30 e 31). Tali esperimenti

15
mettono in evidenza che affinché si produca un mascheramento è necessario che alcune
delle caratteristiche figurali salienti entrino a far parte di un’altra figura diversamente
organizzata.
Il mimetismo animale obbedisce agli stessi principi che rendono possibile il
mascheramento di figure astratte: i fattori di organizzazione figurale e l’articolazione
figura-sfondo.

9. PERCEPIRE LA PROFONDITA’ E LA TRIDIMENSIONALITA’


Noi vediamo il distribuirsi di persone e cose nello spazio a distanze diverse (ampio
repertorio di metafore spaziali) e siamo certi di riuscire a valutare distanze, posizioni,
direzioni e orientamenti. L’ambiente naturale ci appare abbastanza stabile e ben
strutturato. Tuttavia il funzionamento della percezione della profondità spaziale ha
sempre posto notevoli problemi, a partire dall’individuazione delle informazioni utilizzate.
Il primo scoglio è quello della registrazione degli stimoli. I recettori retinici sono i
bastoncelli e i coni. I primi funzionano bene anche a bassi livelli di illuminazione, ma
sono poco sensibili ai colori. I secondi funzionano bene solo in condizioni di buona
illuminazione e sono sensibili ai mutamenti cromatici. Questi fotorecettori vengono
attivati nello stesso modo dalla luce riflessa da oggetti vicini o lontani. Si pone quindi il
problema di come venga recuperata, nel rendimento percettivo, la profondità spaziale.
Le soluzioni emerse si rifanno a due distinti ambiti teorici, quello definito “percezione
indiretta” e quello definito “percezione diretta”.

9.1. Percezione diretta e percezione indiretta


Berkeley, primo sostenitore della percezione indiretta, riteneva che la percezione della
profondità spaziale dipendesse dall’integrazione dei dati visivi bidimensionali con le
conoscenze acquisite attraverso altre modalità quali il tatto e il movimento.
Herman von Helmholtz definì inferenza inconscia quel processo che, sulla base
dell’esperienza passata e delle conoscenze acquisite, supplisce i dati incompleti raccolti
dagli organi di senso.
I fautori della percezione diretta si rifanno all’orientamento ecologico di Gibson secondo
il quale l’occhio raccoglie tutta l’informazione necessaria per raggiungere una percezione
esauriente dell’ambiente. Questa concezione si basa sull’idea che la luce deve essere
considerata un veicolo strutturato e ben ordinato di informazione. La luce riflessa dagli
oggetti e dalle superfici converge negli occhi dell’osservatore in un fascio di raggi che
formano angoli la cui ampiezza varia in funzione della distanza e della posizione delle
superfici da cui provengono. L’insieme di questi angoli è definito assetto ottico (una
fotografia in prospettiva è un esempio del fatto che anche su un piano bidimensionale
possono essere presenti informazioni di profondità spaziale). Quando all’assetto ottico si
accompagna il movimento si parla di flusso ottico (gli angoli ce si formano tra i raggi
riflessi dalla scena e convergono nell’occhio di chi guarda si modificano in continuazione
in maniera ordinata e coerente e quindi informativa).
Un altro approccio allo studio della percezione visiva diretta è il modello computazionale
di David Marr. Egli riteneva che la visione fosse un processo attivato attraverso diversi
stadi di processamento dell’informazione luminosa. Fondamentale in questa sequenza è
l’identificazione dell’oggetto osservato che inizia col riconoscimento dei suoi margini. I
margini però, nel processo visivo, cambiano e si spostano continuamente, a causa del
mutare dell’illuminazione e della posizione di chi sta guardando. Per determinare la
forma reale di un oggetto il sistema visivo deve essere in grado di ignorare i margini
creati dalle ombre o dalle variazioni di illuminazione e considerare solo i margini “veri”.
Per far ciò deve analizzare in tempo reale i cambiamenti attraverso processi
computazionali complessi. Il metodo di Marr si basa quindi su un modello di analisi
matematica delle variazioni di luce e ombra all’interno della scena visiva.

16
L’estrazione delle caratteristiche “margini” da un oggetto avviene anche servendosi di
proprietà visive dell’oggetto racchiuse dentro ai margini (zone chiare o scure, tessitura
della superficie, convessità, ecc.)

9.2. Gli indici della profondità


Gli indici della profondità sono tutti i dati che contribuiscono a determinare il rendimento
percettivo di profondità spaziale nella terza dimensione. Questi dati possono dipendere
dal funzionamento degli organi visivi, dalla struttura della scena o dell’oggetto osservato,
dalle condizioni di osservazione.
Gli indici di profondità che dipendono dagli organi visivi sono: accomodazione,
convergenza e disparità binoculare. L’accomodazione è il processo attraverso cui viene
modificata la curvatura del cristallino per consentire la messa a fuoco di oggetti che si
trovano a distanze diverse dall’osservatore. Durante questo processo avviene anche la
convergenza, ossia la rotazione degli occhi nella loro orbita, in modo da puntare
entrambi sull’oggetto osservato. Gli sforzi muscolari per regolare la curvatura del
cristallino e la convergenza costituiscono l’informazione sulla distanza dell’oggetto
osservato.
La disparità binoculare da luogo, a livello cerebrale, alla fusione in un’unica immagine
(stereopsi) delle due immagini, leggermente diverse, registrate da ciascun occhio
producendo una dislocazione in profondità.

9.3. Gli indici pittorici della profondità


Le informazioni sulla profondità spaziale si trovano anche nella struttura dell’oggetto
osservato. Si tratta degli indici pittorici di profondità (usati dagli artisti per produrre
effetti di tridimensionalità e profondità):
1. interposizione, anche detta sovrapposizione o occlusione, si ottiene frapponendo
un oggetto tra l’osservatore e un altro oggetto più lontano, di cui
nasconde una parte del contorno;
2. altezza nel campo visivo: ciò che si trova nella parte superiore del campo visivo
sembra più lontano;
3. orientamento delle ombre (oltre alle ombre proprie di un oggetto vi sono anche le
ombre portate, le ombre di un oggetto che la luce proietta su un altro oggetto);
4. prospettiva lineare e prospettiva aerea: si tratta, più che di un singolo indice, di un
sistema organico di accorgimenti e di regole geometriche che utilizza le
informazioni determinanti per la rappresentazione della profondità spaziale (fig.
35: le linee parallele in profondità convergono verso un unico punto, l grandezza
relativa di archi e colonne decresce progressivamente, il gradiente di tessitura del
pavimento s’infittisce verso il fondo, così come si riduce la distanza tra le colonne,
gli archi più lontani sono disegnati con tratto leggero e non ben definito);
5. grandezza relativa: gli oggetti più piccoli vengono considerati più lontani;
6. gradiente di tessitura: la microstruttura di ogni superficie riflette la luce in modo
diverso (sistematicamente e progressivamente più densa quanto più lontana da chi
guarda) a seconda del suo orientamento in profondità (fig. 36)

10. LE COSTANZE PERCETTIVE


Meccanismi di costanza sono stati chiamati quei processi che contribuiscono a
mantenere fenomenicamente immutate le caratteristiche degli oggetti (dimensioni,
forma, colore) nonostante le continue variazioni delle loro registrazioni ottiche. Ci sono
solo delle ipotesi sul loro funzionamento, ma è sempre più diffusa l’idea che siano
meccanismi iscritti nel nostro patrimonio genetico e non appresi.

17
Costanza di grandezza: quando ci avviciniamo o ci allontaniamo dalle cose le dimensioni
delle loro percezioni retiniche variano (fig. 37), noi però percepiamo immutata la
dimensione degli oggetti. Questo grazie ad un processo per effetto del quale le variazioni
registrate di grandezza sono viste come variazioni di distanza, mentre la grandezza
percepita rimane la stessa.
Per studiare quali siano le informazioni utilizzate dai meccanismi di costanza, Holway e
Boring condussero un esperimento: l’osservatore era posto all’intersezione di due lunghi
corridoi; un disco modificabile era posto a circa tre metri dall’osservatore in uno dei due
corridoi, mentre nell’altro corridoio venivano disposti dei dischi standard a distanze
comprese fra i 3 e i 36 metri; i dischi standard a maggior distanza erano più grandi, in
modo da proiettare sempre la stessa immagine retinica; il compito del soggetto era di
aggiustare le dimensioni del disco di confronto fino a farlo diventare delle stesse
dimensioni di quello standard.
Le valutazioni erano state fatte in diverse condizioni ambientali (disponibilità di
informazioni ambientali più o meno ampia) e i risultati misero in evidenza che una
drastica perdita di informazione ambientale riduce l’efficacia dei processi di costanza e
obbliga l’osservatore a dare maggior credito alla grandezza retinica.
Il risultato dell’esperimento mette quindi in evidenza la stretta relazione tra i processi di
costanza e la disponibilità di informazione ambientale.
Gli oggetti non verrebbero quindi visti come indipendenti gli uni dagli altri: il sistema
percettivo tiene conto,più che dei dati assoluti, delle relazioni che si determinano fra le
parti di una scena (fig. 38).
Costanza di forma: riguarda quei processi in cui i mutamenti di forma non vengono visti
come tali, ma come cambiamenti di orientamento dell’oggetto.
I processi di costanza sono collegati tra loro e funzionano nello stesso modo, resta da
indagare dove risieda l’informazione utilizzata dal sistema percettivo. Un modo per
ricavarla è l’analisi dell’indeterminazione ottica: la stessa proiezione retinica può essere
prodotta da un numero praticamente infinito di forme diverse sottese allo stesso angolo
visivo (fig. 39). Quasi sempre però il rendimento percettivo è uno solo: viene vista la
forma più semplice e lineare.

11. PERCEPIRE PER AGIRE E CONOSCERE


Gli occhi si muovono continuamente anche indipendentemente dal nostro volere. Ciò che
avviene sulla nostra retina è un susseguirsi di modificazioni instabili. Nonostante ciò gli
oggetti e gli ambienti ci appaiono stabili.
Oltre ai movimenti del nostro corpo, la retina registra anche il movimento degli oggetti.
Bisogna allora determinare quali i processi ci consentono di discriminare le
trasformazioni che avvengono sulla retina per effetto degli spostamenti dell’osservatore
e quelli dovuti alla dinamica degli oggetti. L’ipotesi è che esista un centro che controlla la
corrispondenza fra le variazioni della stimolazione retinica che ci si deve aspettare in
seguito ai movimenti del nostro corpo e quella che effettivamente si sta verificando. Nel
caso in cui vi sia corrispondenza, il centro di controllo annulla le informazioni di
movimento e la scena appare statica.
Recentemente ci si è resi conto che lo scopo dell’attività percettiva non è solo quello di
raccogliere informazioni cognitivamente utili. La percezione deve assolvere a due
funzioni diverse e complementari: raccogliere ed elaborare informazioni necessarie sia al
sistema cognitivo che al sistema motorio.
L’idea di una differente elaborazione dell’informazione visiva in funzione dello scopo è
stata confermata da alcune ricerche neuropsicologiche che hanno scoperto l’esistenza di
due sistemi funzionalmente distinti per la trasformazione dell’informazione spaziale.

18
12-13. VEDERE IL MOVIMENTO: IL MOVIMENTO APPARENTE E IL MOVIMENTO
INDOTTO
La capacità di percepire il movimento è fondamentale per la sopravvivenza ed è una
delle competenze più precoci sia nei bambini che nei cuccioli di molte specie animali.
Resta tuttavia da spiegare che cosa vediamo del movimento. Sappiamo che per la
percezione gioca un ruolo fondamentale la relazione tra l’oggetto osservato e l’ambiente.
Quest’idea dovrebbe valere in modo particolare per il movimento, dal momento che non
esiste il movimento in sé, ma sempre in relazione a qualcosa che rimane fermo.
Movimento apparente o stroboscopio: una serie di accadimenti vengono visti come
movimento quando l’accensione e l’estinzione di due punti luminosi avviene in un ambito
di precisi rapporti di spazio, di tempo e di energia. Gli esperimenti di Ternus (fig. 40 e 41)
mettono in luce come l’attività percettiva tenda a conservare il più possibile la stabilità di
un ambiente in cui avvengono continue trasformazioni e spostamenti.
Il movimento indotto si verifica quando il movimento di un elemento della scena
osservata viene attribuito ad un altro elemento (fig. 42). Ciò accade, secondo Duncker,
perché l’attività percettiva opera una separazione dei sistemi. Il movimento percepito
dipenderà dalla relazione che ogni oggetto intrattiene con quella parte di scena che
assume il ruolo di schema di riferimento. Lo schema di riferimento è sempre la regione
più grande e includente e automaticamente viene assunto come maggiormente stabile
(es. il sorgere e tramontare del sole).

14. LA LUCE, IL COLORE: POCHI ACCENNI


Alcuni aspetti della percezione di luce e colore (colore acromatico):
1. la luce: una piccola porzione del vasto spettro delle onde
elettromagnetiche è visibile e noi la chiamiamo luce. Per la fisica l’energia
elettromagnetica costituisce un fenomeno unitario che va considerato nel suo
insieme, il fatto che una sua parte giochi un ruolo così importante per gli esseri
viventi, non la rende diversa. La luce è quindi ritenuta un problema prettamente
psicologico;
2. che cos’è il colore: allo stesso modo della luce il colore è un problema
psicologico. Solo un numero limitato di esseri viventi è sensibile al colore. Il
colore esiste perché fra i fotorecettori ce ne sono alcuni che si attivano in
maniera differenziata per alcune lunghezze d’onda dello spettro visibile.
3. le parole della luce: l’essere umano in alcuni casi vede come diverse
superfici che riflettono quantità uguali di energia e viceversa, e in altri casi vede
uguali superfici che riflettono quantità uguali di energia (es. cartoncini grigi).
Bisogna allora determinare che cosa misura l’essere umano all’atto di percepire
il colore. Le dimensioni fisiche della luce sono la luminanza (quantità di colore
che colpisce una superficie) e la riflettanza (proprietà di una superficie di
riflettere una maggiore o minore quantità di luce). Le dimensioni fenomeniche
della luce sono la chiarezza o luminanza apparente (impressione che
l’osservatore ha dell’intensità e dei mutamenti nella luce che colpisce gli
oggetti) e la bianchezza o riflettanza apparente (l’impressione che l’osservatore
ha del diverso colore degli oggetti a parità di illuminazione).
4. costanza di colore: vediamo mantenersi costante la bianchezza di un
oggetto anche quando essa cambia per effetto di una diversa illuminazione;
5. contrasto di bianchezza: l’informazione su cui si basa il rendimento
percettivo della bianchezza di una data superficie è ricavata dal rapporto della
bianchezza di quella superficie con la bianchezza di quelle che la circondano
(Wallach – fig. 44).

19
4. ATTENZIONE E COSCIENZA

1. CHE COS’E’ L’ATTENZIONE


Definire l’attenzione è difficile perché si tratta di un insieme di fenomeni psicologici
molto diversi tra loro.
Un esempio: siamo per strada con un amico e notiamo un’amica comune tra i passanti,
chiediamo al nostro amico di prestare attenzione alla parte sinistra della strada vicino al
negozio di abbigliamento. Il nostro amico selezionerà l’informazione rilevante e non si
metterà a guardare i messaggi promozionali sulle vetrine. Avrà inoltre delle aspettative
sulle fattezze della persona che sta cercando e indirizzerà la sua ricerca verso quelle
caratteristiche. Improvvisamente però si sente il rumore di una frenata. Il nostro amico
sarà senz’altro distratto da questo nuovo evento.
Questo esempio presenta vari aspetti che la psicologia dell’attenzione cerca di spiegare:
 per individuare una persona tra la folla bisogna selezionare le informazioni più
rilevanti per questa ricerca: attenzione selettiva. Selezionare vuol dire ignorare
alcuni stimoli a favore di altri.
 Il nostro amico è stato distratto dal rumore della frenata: la nostra attenzione può
essere attratta, in modo automatico, verso eventi improvvisi.
 Per trovare una persona tra la folla dobbiamo mantenere l’attenzione su questa
ricerca per un tempo sufficiente. Rimanere concentrati su quello che stiamo facendo
è difficili e abbiamo l’impressione che sia necessario uno sforzo di volontà per farlo.
Questo fenomeno è indicato come attenzione sostenuta.
 Il nostro amico, mentre cercava la persona, continuava a camminare e a conversare
con noi: attenzione divisa. Non sempre però siamo in grado di svolgere più compiti
alla volta. Sembra che l’attenzione necessaria per svolgere un’attività dipenda dalla
nostra capacità, che può migliorare con la pratica (es: chi inizia a guidare
l’automobile ha bisogno di tutta la sua attenzione, successivamente riuscirà a
svolgere anche altre attività).
 L’attenzione nel controllo delle azioni è un altro tipo di attenzione e dipende dagli
scopi che perseguiamo e dalle priorità che attribuiamo alle nostre azioni.
Le nostre esperienze quotidiane evidenziano quindi diversi fenomeni attentivi
consapevoli. La ricerca ha però dimostrato l’esistenza anche di fenomeni attentivi
inconsapevoli.
La varietà dei fenomeni attentivi ha indotto gli studiosi ad analizzarli separatamente. In
base alle sue molteplici funzioni sono state distinte diverse tipologie di attenzione:
attenzione selettiva, processi di controllo, attenzione sostenuta e vigilanza.

2. CAPIRE L’ATTENZIONE: STRUMENTI E METODI


La psicologia dell’attenzione studia il comportamento e, in alcuni casi, le reazioni
fisiologiche, di soggetti istruiti a svolgere dei compiti in laboratorio nel tentativo di
descrivere che cosa succede nella mente dell’uomo fra la presentazione di uno stimolo e
la sua risposta. La maggior parte dei ricercatori usa la metodologia dei tempi di reazione
(TR): maggiore è il tempo che intercorre tra lo stimolo e la risposta, maggiore sarà
l’elaborazione richiesta. L’introspezione fornisce dati riguardanti i processi consapevoli
degli stati mentali, mentre i tempi di reazione consentono di esaminare sia l’elaborazione
mentale consapevole che quella inconsapevole. Per trarre informazioni utili dalla
metodologia dei TR bisogna usare materiale e compiti sperimentali molto semplici, che
richiedono la selezione della risposta da un insieme limitato di possibilità (altrimenti non
saremo in grado di sapere a quali operazioni mentali si riferisce il tempo misurato).

3. L’ATTENZIONE SELETTIVA

20
L’attenzione selettiva è la capacità di selezionare una o più fonti della stimolazione
interna o esterna, alla presenza di informazioni in competizione tra loro: la capacità di
concentrarsi su un oggetto e di elaborare in modo privilegiato le informazioni rilevanti
per gli scopi che perseguiamo (la percezione consapevole è sempre selettiva).
L’attenzione selettiva può riguardare diversi fenomeni: si può prestare attenzione
all’informazione in una data modalità sensoriale (visiva, acustica, olfattiva, gustativa,
propiocettiva), all’informazione presente in una certa zona (attenzione visiva spaziale),
ad un particolare oggetto, a specifiche caratteristiche, come il colore o la forma, a
elementi che appartengono a una determinata classe o categoria (es. persone o edifici),
a particolari movimenti del corpo (attenzione motoria).
Non solo l’attenzione si caratterizza diversamente a seconda della sua funzione, ma
anche all’interno dell’attenzione selettiva sono state individuate caratteristiche funzionali
specifiche.

3.1. Le funzioni dell’attenzione selettiva


Bisogna distinguere tra due approcci:
1. i processi di selezione sono la conseguenza di limiti del sistema cognitivo umano e
hanno la funzione di proteggerlo da un sovraccarico di informazioni;
2. l’attenzione selettiva ha la funzione di rendere possibili comportamenti coerenti,
flessibili e sensibili ai cambiamenti.
Il fatto che il sistema cognitivo umano sia a capacità limitata è un assunto largamente
condiviso (probabilmente per l’apparente evidenza del concetto o la credenza che non ci
possano essere spiegazioni alternative). In realtà, le ricerche cognitive non sono riuscite
produrre risultati chiari sull’esistenza di questo limite. Alcuni risultati empirici
dimostrano, infatti, che siamo in grado di mantenere informazioni indipendenti
provenienti da messaggi molto complessi e che cambiano di continuo senza per questo
ottenere interferenza: la nostra capacità di codifica , almeno in alcune circostanze, non
sembrerebbe limitata.
È stato ipotizzato che l’attenzione selettiva è attenzione per l’azione. La necessità di
eseguire azioni coerenti comporta che siamo in grado di distinguere quelle opportune.
Un meccanismo fondamentale per il controllo dell’azione è, quindi, la selezione di parte
dell’informazione disponibile e la sua separazione dalle altre presenti (es.
rappresentazione di una stanza: per arredarla/aula dove svolgere una lezione).
Selezioniamo l’informazione in base alle azioni che abbiamo intenzione di compiere. La
selezione tra fonti in competizione è essenziale per la coerenza necessaria alla
preparazione o pianificazione di tali azioni.

3.2. Selezione precoce o tardiva


Molta ricerca sull’attenzione selettiva si è concentrata sullo studio dei fattori che
determinano l’efficienza della selezione e su quanto estensivamente sono elaborati gli
stimoli ignorati. Negli anni ’50 e 60’ sono state proposte due importanti teorie: la teoria
della selezione precoce e quella della selezione tardiva. Entrambe queste teorie si
basano sull’ipotesi che la capacità selettiva dipenda da un meccanismo, filtro, che
permette il passaggio solo di una parte dell’informazione.
I primi studi sperimentali sono stati fatti sull’attenzione acustica, utilizzando il paradigma
dell’ascolto dicotico: al soggetto vengono presentati simultaneamente due messaggi ed
egli deve prestare attenzione solo ai messaggi presentati a un orecchio e ignorare gli
altri. Attraverso questi esperimenti è stato dimostrato che possiamo selezionare
l’informazione sulla base di determinate caratteristiche fisiche (es. timbro della voce) e
che è quasi impossibile ricordare il contenuto dei messaggi ignorati, mentre è semplice
riportare alcune semplici caratteristiche vocali (es. voce maschile o femminile).

21
Broadbent ne ha dedotto che gli stimoli a cui non prestiamo attenzione non sono
pienamente elaborati e che esiste un filtro selettivo che opera in base alle caratteristiche
fisiche degli stimoli. La selezione avverrebbe quindi prima della codifica semantica:
selezione precoce. Questo modello sostiene che l’informazione non rilevante non è
ulteriormente elaborata e quando prestiamo attenzione a più stimoli non siamo in grado
di identificarli simultaneamente. La selezione della risposta sarebbe un processo che
avviene per difetto: solo uno stimolo evoca un’azione.
Ricerche successive hanno dimostrato che spesso i soggetti riconoscono il loro nome,
anche se presentato all’orecchio a cui non prestano attenzione. Deutsch e Deutsch
hanno allora proposto la teoria della selezione tardiva: tutti i messaggi sono elaborati
fino alla codifica semantica. Secondo questa teoria il filtro selettivo opera solo nel
momento in cui si deve scegliere una risposta (meccanismi dell’attenzione selettiva
basati sui processi di selezione della risposta).
Nel 1974 Eriksen e Eriksen hanno introdotto un paradigma sperimentale per studiare
l’attenzione selettiva visiva. Il soggetto deve rispondere a due insiemi di lettere
premendo due tasti diversi. Ad esempio per le lettere H e K si deve premere un tasto e
per la S un altro. Il compito è rispondere, più velocemente possibile, alla lettera
presentata al centro di una stringa di 5. E’ risultato che la lettera H è riconosciuta più
difficilmente nella stringa SSHSS, che richiede risposte incompatibili, che nella stringa
KKHKK, in cui le risposte sono compatibili. L’origine di questo effetto di interferenza
sembra la competizione tra le risposte: se i distrattori, cioè gli stimoli a cui non si deve
prestare attenzione, non fossero stati analizzati almeno fino all’attivazione della risposta,
non vi sarebbe interferenza. L’identità degli stimoli ignorati è quindi disponibile al
sistema d’elaborazione. Eriksen e Eriksen sostengono che due o più stimoli possano
essere elaborati contemporaneamente ed iniziare ad evocare una risposta e che un
meccanismo decisionale determini poi la risposta. I due ricercatori hanno anche
dimostrato che l’attenzione visiva non è in grado di escludere l’elaborazione dei
distrattori se questi sono presentati vicino al bersaglio.
L’idea di base della teoria della selezione tardiva è che il riconoscimento di oggetti
familiari procede senza selezione e senza limiti di capacità. Si assume ce il processo
consapevole di selezione inizi solo dopo che quest’analisi è stata completata.
In realtà, gli stimoli a cui non si presta attenzione sono riferiti solo occasionalmente e
non da tutti.
In base a questo dato, Treisman sostiene che il filtro non sia del tipo tutto-o-niente, come
sostenuto da Broadbent e propone la teoria del filtro attenuato: il filtro riduce solamente
la forza delle informazioni a cui non si presta attenzione. Le informazioni rispondenti alle
aspettative, o personalmente rilevanti, hanno maggiore attivazione e quindi raggiungono
più facilmente la soglia della consapevolezza. Tuttavia, quando l’informazione
rappresenta un concetto associato ad altri appena attivati, oppure è particolarmente
interessante, anche una parziale attivazione può essere sufficiente per il riconoscimento.
Le teorie della selezione precoce o tardiva assumono che la codifica di attributi fisici sia
precedente a quella dell’identità categoriale o di altri attributi semantici. La ricerca più
recente ha dimostrato che queste assunzioni non sono giustificate e che la codifica
spaziale e semantica si fonda su sistemi paralleli funzionalmente distinti.

3.3. I meccanismi dell’attenzione selettiva


Oggi molti studiosi propendono per la selezione tardiva.
Come riusciamo ad avere una selezione efficiente? L’attenzione selettiva probabilmente
opera sia sull’informazione rilevante che su quella non rilevante attraverso l’attivazione
di due meccanismi:

22
a. un meccanismo di attivazione che opera sia sull’informazione rilevante che su
quella non rilevante, attraverso il quale si arriva fino alla codifica semantica
degli stimoli;
b. un meccanismo di inibizione attiva della risposta per l’informazione non
rilevante.
Le ricerche fin qui condotte hanno reso possibile differenziare le caratteristiche dei
processi di attivazione e inibizione. L’inibizione è un meccanismo attivo, decade
rapidamente ed è influenzato dal soggetto e dalle richieste del compito. L’attivazione è
un meccanismo più stabile e meno influenzabile dal soggetto e dalle richieste del
compito. L’attivazione si verifica quando si inizia ad avere accesso alla rappresentazione
mestica. L’inibizione comincia quando si selezionano i fattori a cui prestare attenzione.
Alla base dell’elaborazione dell’informazione vi è un’importante distinzione funzionale:
gli stimoli a cui si presta attenzione sono elaborati per essere utilizzati; gli stimoli a cui
non si presta attenzione sono elaborati in modo automatico, spesso non sono
consapevoli, né utilizzabili per la risposta o per il ricordo. Questa differente elaborazione
dell’informazione è funzionale ad un adeguato adattamento ambientale: la prima da
coerenza ai nostri comportamenti e la seconda svolge una funzione di monitoraggio
dell’ambiente, permettendoci di rilevare informazioni potenzialmente interessanti, anche
se non ricercate.

3.4. L’attenzione selettiva e la rappresentazione multipla delle informazioni


Alcuni dati sostengono la codifica indipendente dell’identità dello stimolo (cosa è) e della
sua posizione (dove è). Ad esempio gli studi fatti da Shallice e Warrington hanno
dimostrato che pazienti con tumore al lobo parietale sinistro erano in grado di leggere,
ma non di riconoscere la posizione delle singole lettere all’interno delle parole. Sembra
quindi che la codifica dell’identità sia separata dalla codifica degli attributi fisici dello
stimolo. Per spiegare come gli attributi che appartengono a uno stesso oggetto siano
combinati, Treisman ha proposto la teoria dell’integrazione delle caratteristiche.

3.5. La teoria dell’integrazione delle caratteristiche


In base a questa teoria, gli oggetti visivi richiedono due successivi stadi di elaborazione:
preattivo (permette la rilevazione delle diverse caratteristiche degli oggetti) e attentivo
(combina queste caratteristiche, determinando le percezioni). Questa teoria assume che
le caratteristiche semplici (colore, grandezza, orientamento e posizione) sono codificate
automaticamente, in parallelo e senza bisogno di attenzione focale. Tuttavia, se abbiamo
bisogno di sapere se c’è un oggetto con un particolare orientamento e colore, queste
caratteristiche, originariamente codificate in modo separato, devono essere congiunte.
La congiunzione può avvenire in due modi:
a. sulla base delle conoscenze immagazzinate;
b. questa teoria assume che lo spazio sia rappresentato tramite una mappa delle
posizioni e che gli oggetti siano rappresentati come punti nello spazio: l’attenzione
focalizzata su una particolare posizione permette il recupero delle caratteristiche attive
in quella posizione e crea una rappresentazione momentanea dell’oggetto (object file),
utilizzata per riconoscere l’oggetto e confrontarlo con le conoscenze immagazzinate.
A sostegno di questa teoria vi sono numerosi esperimenti, in particolare sui compiti di
ricerca visiva. Ad esempio, se un soggetto deve individuare la presenza di uno stimolo-
bersaglio fra stimoli distrattori, quando il bersaglio è definito da caratteristiche semplici
(colore: lettera rossa tra lettere blu) queste attirano automaticamente l’attenzione, senza
bisogno di una ricerca seriale dello stimolo-bersaglio tra gli stimoli-distrattori, quindi il
loro numero non avrà effetto sul tempo di ricerca; se però gli stimoli-bersaglio sono
definiti dalla congiunzione di più caratteristiche (es. lettera T blu presentata con altre T
rosse e L blu) è necessaria una ricerca seriale e i tempi di elaborazione aumentano in

23
funzione del numero degli stimoli-distrattori, suggerendo che l’integrazione delle
caratteristiche in oggetti sia un processo dipendente dall’attenzione.

3.6. L’attenzione visiva spaziale: selezione dell’informazione presente in


determinate posizioni
L’attenzione visiva spaziale, ossia l’abilità di selezionare particolari porzioni
dell’ambiente esterno, è stata una delle componenti dell’attenzione selettiva
maggiormente studiate. È stato dimostrato che gli indici spaziali sono tra i più efficaci nel
guidare l’elaborazione. L’attenzione può essere orientata nel campo visivo sia in modo
esplicito (movimenti della testa e degli occhi) che in modo implicito (essa non si rivolge
necessariamente nella direzione verso cui spostiamo lo sguardo).
L’attenzione visiva spaziale ha le seguenti caratteristiche:
 l’attenzione può essere diffusa - quando le risorse attentive sono distribuite su
tutto il campo visivo - o focale - quando si concentra su una limitata porzione
dello spazio;
 se l’attenzione è focale aumenta notevolmente la velocità di risposta per le
informazioni presenti in quella porzione di spazio;
 l’ampiezza del fuoco attentivo è variabile a seconda delle richieste del
compito;
 aumentando l’area del fuoco attentivo diminuisce l’efficienza di elaborazione;
 l’orientamento dell’attenzione può essere automatico o volontario.
L’orientamento automatico non può essere interrotto, non dipende dalle nostre
aspettative e non è soggetto a interferenza da parte di un secondo compito. Questo tipo
di orientamento svolge una funzione essenziale per un efficace adattamento ambientale
(ci permette di rilevare eventi ambientali potenzialmente interessanti, anche se non
previsti o ricercati). L’orientamento volontario ci permette di scegliere, fra i numerosi
eventi ambientali disponibili, quelli che ci interessano.
La attenzione focalizzata è più efficace e trae benefici nella velocità di elaborazione.
Inoltre è stato evidenziato che ha necessità di una soglia inferiore della stimolazione
sensoriale (anche uno stimolo poco saliente ha maggiore probabilità di essere rilevato) e
dà risposte più veloci, cioè tempi di reazione -TR- inferiori all’attenzione diffusa.

3.7. L’attenzione è orientata verso lo spazio o verso gli oggetti?


Alcuni studiosi sostengono che l’attenzione può essere rivolta verso specifici punti dello
spazio ambientale indipendentemente dal fatto che siano o meno occupate da oggetti
(space based view) e altri che può essere diretta solo verso oggetti e non verso regioni
del campo visivo (object based view). Un tipico esempio a sostegno della seconda
ipotesi è l’effetto Stroop: il compito è di denominare il colore dell’inchiostro con cui è
scritto il nome di un certo colore, gli stimoli possono essere incongruenti (parola verde
stampata in rosso) o neutri (stringa di X stampata in rosso); i tempi di reazione agli
stimoli incongruenti sono maggiori di quelli agli stimoli neutri. Questo dimostra che
quando l’informazione rilevante e quella non rilevante appartengono ad uno stesso
oggetto diviene particolarmente difficile filtrare l’informazione non rilevante. È quindi
possibile sostenere che l’attenzione probabilmente si dirige verso l’oggetto percepito.
Anche l’esperimento di Duncan costituisce un prova di questa ipotesi: gli stimoli sono
costituiti da de oggetti visivi, un rettangolo cui è sovrapposta una line diagonale. I
soggetti sono capaci di produrre simultaneamente giudizi che riguardano lo stesso
oggetto, mentre c’e’ una perdita di accuratezza quando si devono emettere giudizi che
riguardano i due oggetti. Questo risultato conferma che l’attenzione seleziona
l’informazione relativa ad un oggetto per volta, anche se i due oggetti occupano la
stessa posizione nello spazio visivo.

24
Studi recenti hanno dimostrato che i meccanismi attentivi basati sullo spazio o
sull’oggetto possono coesistere: sono scelti in base al compito che deve essere eseguito
(il meccanismo basato sullo spazio si attiva per le operazioni più semplici, come trovare
dov’è o se c’è un segnale, e quello basato sull’oggetto per quelle più complesse, come
riconoscere la forma).

4. I PROCESSI DI CONTROLLO VOLONTARI:LE FUNZIONI ESECUTIVE


Le nostre azioni sono orientate al raggiungimento di scopi. Spesso perseguiamo più
obiettivi contemporaneamente e la maggior parte delle nostre azioni si basa
sull’elaborazione di diverse componenti. È quindi necessario un sistema di controllo che
ci permetta di decidere quando e come realizzare i nostri scopi e che coordini le
componenti di elaborazione. Le funzioni esecutive consistono nel controllo volontario del
comportamento cognitivo e motorio. Per esempio: la quantità di attenzione è fornita in
base alle richieste di elaborazione; la sequenza di esecuzione di due o più compiti deve
essere coordinata; il passaggio da un compito all’altro deve poter essere controllato.
Altre situazioni che necessitano un controllo esecutivo sono quelle che richiedono a
correzione di errori, la produzione di sequenze di azione poco apprese o nuove, il
superamento di risposte abituali, la formazione di un’intenzione.
Esiste una distinzione fondamentale fra un sistema che controlla e una moltitudine di
processi che possono essere controllati. Questi ultimi non possono iniziare in modo
autonomo, ma sono attivati da stimoli esterni o dai processi di controllo. I processi di
controllo volontario, invece, non dipendono dalla stimolazione esterna.

4.1. Paradigmi di studio dei processi di controllo


Paradigma del doppio compito. Secondo la teoria del filtro di Broadbent (1958) esiste un
solo canale di elaborazione e quindi la combinazione di più compiti si ottiene passando
rapidamente da un compito all’altro.
In realtà alcune ricerche hanno dimostrato che due compiti complessi possono essere
affrontati contemporaneamente senza perdita di efficienza cognitiva (esperimento coi
pianisti), ma attualmente non si può essere assolutamente certi di tali risultati.
Sia Broadbent che Welford hanno suggerito l’esistenza di un sistema centrale che limita
la prestazione in condizioni di doppio compito (teorie strutturali). Welford ha condotto
degli esperimenti che dimostrano che quando due stimoli sono presentati in rapida
successione e il soggetto deve fornire una risposta veloce ad entrambi, i tempi di
reazione al secondo stimolo dipendono dal tempo che intercorre tra la presentazione del
primo e del secondo stimolo. Quando il secondo stimolo è presentato dopo un intervallo
molto breve, il tempo di reazione aumenta. Welford ha chiamato questo ritardo nella
risposta al secondo stimolo periodo psicologico refrattario. Questo fenomeno dimostra
l’esistenza di un limite nell’elaborazione dell’informazione: l’elaborazione del primo
stimolo deve essere completata prima di poter iniziare la selezione della risposta
successiva. Si tratta di limiti centrali nella capacità di elaborazione umana. Si definiscono
“centrali” perché non dipendono dall’elaborazione sensoriale degli stimoli, ma sono a
livello dello stadio decisionale della risposta (la seconda risposta per essere selezionata
deve aspettare che la prima sia selezionata).
Altri autori sostengono che la capacità di svolgere due o più compiti
contemporaneamente dipende dalla quantità di risorse disponibili (teorie delle risorse).
Alcuni ritengono che il sistema cognitivo umano disponga di un unico sistema di risorse,
altri che differenti tipi di risorse sono dedicate all’elaborazione di diversi generi di
informazioni. In questo caso non ci sarebbe un limite generale nella capacità di elaborare

25
più di un compito, ma limiti specifici che dipendono dal tipo di compiti coinvolti (e quindi
dalle risorse utilizzate).
La fondamentale differenza fra teorie strutturali e teorie delle risorse è che le prime
ritengono che l’attenzione possa essere rivolta verso un unico compito per volta, mentre
le seconde che l’attenzione possa essere divisa fra diversi compiti e quindi che l’uomo
sia in grado di distribuire, in modo flessibile, le risorse di elaborazione che ha a
disposizione. Secondo quest’orientamento le risorse saranno distribuite in base agli scopi
e alle priorità del momento. Questa capacità è una funzione esecutiva molto importante
perché permette una gestione del comportamento particolarmente flessibile.
Paradigma del cambio di compito. Nella vita quotidiana spesso dobbiamo passare
velocemente da un insieme di operazioni cognitive ad un altro. Un semplice approccio
sperimentale per comprendere quest’abilità è il paradigma del cambio di compito di
Monsell (2003). Ai partecipanti viene chiesto di eseguire due compiti. Stimoli diversi
richiedono risposte diverse e si deve passare ogni quattro stimoli da un compito all’altro.
Il cambio di compito è quindi prevedibile in anticipo dal soggetto. In genere i tempi di
reazione al primo stimolo della serie di 4 sono più lenti di quelli agli stimoli successivi.
Questo rallentamento rappresenta il costo cognitivo per passare da un compito all’altro.
La grandezza di questo costo tende a diminuire con l’aumentare dell’intervallo tra la
risposta del soggetto e la presentazione dello stimolo successivo. Secondo Rogers e
Monsell il costo totale del cambio di compito è dato dalla somma di un costo di origine
endogena (interna all’organismo) e di un costo di origine esogena (determinato dal
presentarsi dello stimolo). Il costo totale è dovuto al recupero delle conoscenze
necessarie per lo svolgimento del nuovo compito. I processi di cambio compito implicano
un’interazione tra le componenti di controllo endogeno ed esogeno che permette la
realizzazione di comportamenti flessibili e adatti al contesto ambientale.

4.2. Meccanismi e processi per il controllo volontario


Norman e Shallice sostengono l’esistenza di due modalità di controllo: una automatica e
l’altra volontaria.
I processi di controllo automatico sono attivati in situazioni abituali, quando il
comportamento consiste in sequenza di azione ben apprese, e consentono l’esecuzione
di più azioni contemporaneamente.
I processi di controllo volontario sono attivati in situazioni nuove o che richiedono azioni
intenzionali. Sono temporanei, facilmente modificabili, richiedono attenzione volontaria,
elaborazione sequenziale e sono limitati dalla nostra capacità attentava. I processi di
controllo volontario hanno la funzione di assicurare il massimo di flessibilità al nostro
comportamento, che altrimenti si limiterebbe ad attività stereotipate, e permettono di
interrompere e correggere sequenze d’azione già attivate.
Errori di attenzione (es. buttare via una cosa che serve e tenere quella che si voleva
buttare) si possono manifestare nella quotidianità di tutti noi. Questi errori possono
essere prodotti dall’inefficienza dei processi di controllo e monitoraggio del nostro
comportamento.
Spesso commettiamo errori di cattura: siamo concentrati su una certa sequenza d’azione
o di pensiero e, inconsapevolmente, eseguiamo un’azione abituale ma non appropriata
(es. vogliamo telefonare a un collega e stiamo pensando a cosa dirgli, e poi scopriamo di
aver fatto il numero di telefono di casa). Questo può accadere perché i gesti inizialmente
compiuti hanno dato inizio a una sequenza abituale di azioni. I processi di controllo
volontario possono quindi subire l’interferenza dei processi di controllo automatico.
Norman e Shallice (1986) ritengono che il controllo sulla realizzazione di sequenze di
azione e sull’integrazione delle componenti richieste per l’espressione di un
comportamento complesso è mediato da schemi, o rappresentazioni mnestiche,
gerarchicamente organizzati. In molte situazioni funzioniamo come se utilizzassimo un

26
pilota automatico, mediante schemi prestabiliti. In certi casi è però necessario trovare
delle risposte nuove e originali e quindi sarebbe deleterio usare schemi di azioni abituali.
In queste situazioni la selezione degli schemi deve essere modulata da un sistema di
controllo: Sistema Attentivo Supervisore (SAS). Questo sistema può aumentare il livello
di attivazione di un determinato schema, permettendogli di superare il livello di
attivazione degli altri nella competizione per il controllo dell’azione.

5. L’ATTENZIONE SOSTENUTA E LA VIGILANZA


È facile focalizzare l’attenzione per breve tempo su eventi salienti e prevedibili, mentre è
più difficile prestare attenzione, per lunghi periodi, ad eventi poco frequenti e
imprevedibili. L’attenzione sostenuta e la vigilanza riguardano l’abilità di raggiungere e
sostenere uno stato di allerta. La prima è la capacità di mantenere l’attenzione su eventi
critici per un considerevole periodo; la seconda è la capacità di monitorare nel tempo
eventi con bassa frequenza di accadimento.

1.1. Paradigmi di studio dell’attenzione sostenuta e della vigilanza


L’attenzione sostenuta è esaminata con compiti che richiedono risposte veloci per
almeno 20 minuti, o che richiedono alti livelli di vigilanza, ma poche risposte. In
generale abbiamo difficoltà a mantenere la nostra attenzione soprattutto in compiti
complessi e poco salienti, così come in compiti troppo semplici, poco interessanti e
monotoni.
Un tipico compito di vigilanza richiede di monitorare una serie di stimoli per individuare
l’elemento critico. I soggetti sono esaminati per periodi prolungati e lo stimolo da rilevare
appare raramente e in modo non prevedibile. La capacità di rilevare gli stimoli peggiora
entro i primi 15 minuti, se i segnali sono salienti e ben visibili. Quando i segnali sono
degradati, vi è un decremento della vigilanza anche entro i primi 5 minuti.
Inoltre, i compiti che richiedono elaborazione di stimoli visivi e tattili producono in genere
decrementi maggiori nella vigilanza rispetto agli stimoli acustici.

1.2. Meccanismi e processi dell’attenzione sostenuta e della vigilanza


Questi processi sono influenzati da diversi fattori:
 Livello di arousal (attivazione fisiologica): diminuisce in condizioni di
stimolazione sensoriale debole ed è facilitato dalle aspettative e dalle
situazioni che lo mantengono sollecitato (riposo, persone, rumore,
feedback…)
 Sensibilità del soggetto (capacità di rilevazione dello stimolo)
 Criteri decisionali utilizzati per la risposta (probabilità stimata di
comparsa dello stimolo): in molti casi il decremento della vigilanza nella
percentuale di rilevazione non riguarda una diminuzione dell’efficienza
percettiva, ma riflette il passaggio ad un criterio di risposta più
conservativo (più tempo passa tra uno stimolo-bersaglio e l’altro e più si
tende a diventare conservativi.

I fattori psicofisici che determinano la vigilanza di distinguono in due livelli. I fattori


di primo livello riguardano le proprietà fisiche dello stimolo (velocità, durata, ecc.). I
fattori di secondo livello riguardano caratteristiche del segnale che possono essere
inferite dal soggetto, sulla base della sua esperienza col compito (la probabilità del
segnale, la sua regolarità, ecc.).

6. ATTENZIONE E COSCIENZA

27
Gli stimoli a cui non prestiamo attenzione possono influenzare le nostre risposte
successive, quindi siamo in grado di elaborare informazioni anche se non dirigiamo la
nostra attenzione su di esse.
In effetti, gran parte dei processi cognitivi avviene senza che ne abbiamo
consapevolezza.
La psicologia di inizio ‘900 attribuiva un ruolo cruciale ai processi mentali consapevoli e
l’introspezione era considerata un metodo di indagine scientifica.
Successivamente il comportamentismo sostenne l’impossibilità di studiare
scientificamente la coscienza e bandì l’introspezione a favore dello sperimentalismo. Per
molti anni i contenuti della coscienza non sono stati più ritenuti un plausibile oggetto
d’indagine.
Con la rivoluzione cognitivista negli anni ’50, si torna a considerare la cognizione umana
come espressione di processi consapevoli e inconsapevoli, che possono essere indagati
col metodo sperimentale. Tuttavia, fino agli anni ’80, la coscienza era considerato uno
stato della nostra mente senza nessun ruolo causale nello svolgersi dell’attività mentale.
Solo la recente scoperta di numerose sindromi neuropsicologiche ha reso evidente la
necessità di fare della coscienza un costrutto teorico.

6.1. Paradigmi di studio dei processi consapevoli e inconsapevoli


I primi studi rilevanti in questo senso sono quelli sulla percezione subliminale, che
dimostrano che uno stimolo è in grado di influenzare il comportamento anche se è stato
presentato velocemente o a un livello d’intensità troppo basso perché il soggetto lo
identifichi consapevolmente. Fra i paradigmi di ricerca utilizzati vi è la tecnica del
mascheramento visivo. Ne è un esempio il paradigma del priming semantico in compiti
di decisione lessicale in cui si deve decidere, il più velocemente possibile, se una stringa
di lettere è o non è una parola. La stringa-bersaglio è preceduta da un prime, una parola
associata per significato all’eventuale parola dello stimolo-bersaglio. Un prime facilita la
decisione lessicale per le parole con significato associato (pane-burro). Nei paradigmi di
priming semantico mascherato, il prime non è percepito in maniera consapevole,
ciononostante continua ad agevolare la decisione lessicale, quando la parola appartiene
alla stessa area semantica.
Questo dimostra che l’elaborazione non consapevole di uno stimolo, presentato per un
tempo insufficiente per la sua percezione cosciente, influenza la prestazione successiva
che fa seguito all’elaborazione consapevole, fatta sotto il controllo dell’attenzione.

6.2. Problemi metodologici


I criteri utilizzati per determinare la consapevolezza del soggetto sono controversi. È
meglio determinare l’assenza di consapevolezza sulla base di compiti a scelta forzata,
che richiedono di indicare la presenza o l’assenza di stimolo. Gli esperimenti di Marcel
(1980) sono particolarmente convincenti perché dimostrano l’effetto di parole
mascherate, anche se il soggetto non è in grado di rilevarle.

6.3. Meccanismi e funzioni dei processi consapevoli e inconsapevoli


Alcuni dati supportano l’idea che i processi consapevoli siano qualitativamente differenti
da quelli inconsapevoli. Marcel ipotizzò che l’influenza del contesto sulla percezione degli
oggetti e degli eventi sia limitata solo alle informazioni percepite consapevolmente. Per
verificare la sua teoria utilizzò una versione modificata del compito di decisione lessicale
con priming semantico, utilizzando delle parole prime ambigue (ossia con più di un
significato). L’esperimento ha dimostrato che, in condizioni di non consapevolezza dello
stimolo prime, l’effetto di priming si verifica ugualmente, ma vengono attivati entrambi i
significati della parola ambigua. In questo caso il processo inconsapevole è automatico,

28
quindi veloce, ma non selettivo, a differenza del processo consapevole che è più lento
ma è strategico e quindi selettivo.
Una questione tuttora aperta è quella delle funzioni della consapevolezza. Se parte
dell’elaborazione umana è consapevole si potrebbe assumere che essa abbia una
qualche implicazione nell’adattamento dell’uomo all’ambiente. secondo alcuni autori,
invece, sebbene siamo consapevoli dei risultati dei processi, non abbiamo accesso
consapevole alle operazioni. Quindi la coscienza non ha alcun ruolo causale
nell’elaborazione cognitiva. Ciò che invece gioca un ruolo importante è l’attenzione
focale.
Spesso si confonde l’attenzione con la consapevolezza, ma l’attenzione non è sempre
necessaria perché il prodotto di un’elaborazione abbia accesso alla coscienza.
L’attenzione costituisce una via privilegiata alla coscienza, ma non è la sola. Ci sono casi
in cui ci può essere consapevolezza indipendentemente dall’attenzione (compiti di
ascolto dicotico, abilità ben apprese). Sembra che la consapevolezza giochi invece un
ruolo causale nel mediare l’inibizione: i processi inibitori necessitano che gli stimoli siano
presenti nella coscienza (per poter essere selezionati e inibiti).

5. APPRENDIMENTO

Il concetto di apprendimento si riferisce al cambiamento del comportamento di un


soggetto di fronte a una situazione stimolante, che viene sperimentata ripetutamente.
Quindi l’esperienza è la condizione necessaria affinché si verifichi un apprendimento.
Bisogna distinguere però i comportamenti nuovi manifestati da un soggetto che sono il
prodotto di un apprendimento dalle modificazioni del comportamento dovute ad aspetti
maturativi o a stati alterati temporanei (ad es. fatica, alcool, droghe ecc).
L’apprendimento non si riferisce solo ad acquisizioni di nuove conoscenze e capacità, ma
anche ad atteggiamenti, valori e abitudini, esso riguarda perciò tutta la sfera della
personalità e non solo l’ambito delle conoscenze e delle capacità esecutive.
L’apprendimento è stato studiato sia dal comportamentismo, che più recentemente dal
cognitivismo.
Il comportamentismo aveva alla base una concezione associazionista: l’apprendimento
avviene perché si fanno associazioni nuove tra stimoli e comportamenti di risposta. Vi è
una concezione di tipo sommatorio dell’apprendimento.
Secondo la concezione associazionista (e quindi del comportamentismo):
 Il soggetto è essenzialmente passivo: si limita a registrare gli stimoli
ambientali;
 Ciò che viene appreso è una copia dello stimolo presentato
 L’apprendimento viene misurato confrontando il comportamento dopo la
situazione di apprendimento con quello precedente.
 L’apprendimento viene valutato secondo i criteri della quantità e accuratezza
della performance (uniche misure scientificamente accertabili).

Da una concezione associazionista si passa a una concezione cognitivista, nella quale


l’apprendimento viene studiato come un processo di elaborazione intelligente degli
stimoli presenti nell’ambiente, un processo della memoria. Secondo questa concezione:
 L’apprendimento è un processo attivo: il soggetto interviene sull’ambiente
utilizzando diverse funzioni cognitive per elaborare gli stimoli nuovi;
 L’apprendimento è un processo costruttivo: essendo il frutto di un complesso
processo di elaborazione, implica la modificazione di strutture cognitive che non
necessariamente si esprimono in comportamenti espliciti;
 L’apprendimento è un processo interattivo

29
1. IL CONDIZIONAMENTO CLASSICO
Si parla di apprendimento tramite condizionamento quando i comportamenti o le
risposte vengono appresi in associazione alla comparsa di specifici stimoli. Nel caso del
condizionamento classico ci si riferisce esclusivamente a risposte fisiologiche di tipo
riflesso (es. la salivazione), cioè a comportamenti automatici. L’apprendimento consiste
nell’emettere queste risposte automatiche a seguito di stimoli “condizionati” (SC),
stimoli che per loro natura non sarebbero idonei a scatenarle.
La formulazione teorica del condizionamento classico si deve a Ivan Pavlov. Conducendo
degli studi sui processi digestivi dei cani, Pavlov si rese conto che i cani che erano stati
sottoposti a numerosi esperimenti, che comportavano la presentazione di cibo,
iniziavano a salivare prima di ricevere il cibo. I segnali che accompagnavano l’offerta del
cibo erano in grado di suscitare la risposta riflessa (salivazione) riferita al cibo.
Pavlov studiò questo fenomeno in numerosi esperimenti. Un tipico esempio è il seguente:
viene fatto suonare un campanello immediatamente prima che il cibo venga messo nella
bocca dell’animale; questa procedura viene ripetuta più volte fino a che l’animale non
inizia a salivare dopo il suono, anche in assenza del cibo.
Lo stimolo neutro (campanello) viene definito stimolo condizionato (SC), mentre lo
stimolo che naturalmente evoca il riflesso (cibo) viene definito stimolo incondizionato
(SI). La risposta originaria (data dal cibo) è la risposta incondizionata (RI), mentre la
risposta appresa è una risposta condizionata (RC).
Pavlov riuscì a dimostrare che uno stimolo inizialmente neutro, presentato per molte
volte in stretta contiguità temporale con uno stimolo che per sua natura evoca una
risposta riflessa (automatica) è in grado di evocare una risposta riflessa simile.
La procedura di apprendimento richiede ripetute prove ed è efficace solo se lo SC viene
presentato immediatamente prima dello SI.
Dopo un certo numero di prove nelle quali lo SC non sia seguito dallo SI, la risposta
acquisita si estingue gradualmente. Gli effetti del condizionamento permangono però a
qualche livello (se i cani, dopo l’estinzione della risposta acquisita, vengono sottoposti di
nuovo alla procedura di condizionamento, riapprendono più rapidamente).
Le variabili del condizionamento classico:
1. l’intensità e/o salienza degli SI e degli SC
2. l’intervallo di tempo che intercorre tra SC e SI (che deve essere molto breve)
3. la frequenza degli accoppiamenti degli stimoli: se anche lo SI non è frequente, ma
è sempre preceduto dallo SC, l’apprendimento sarà più rapido.

Con il condizionamento classico possono essere indotte anche risposte che si producono
a seguito di SI spiacevoli o dolorosi. In questo caso gli stimoli incondizionati sono
chiamati avversativi e sono caratterizzati da risposte riflesse differenti da specie a
specie. La procedura del condizionamento è identica a quella attuata con gli SI
desiderabili, talvolta però è sufficiente un singolo accoppiamento SC-SI per produrre il
condizionamento. In particolare negli esseri umani questo fenomeno si presenta legato
alle risposte emozionali (risposte emotive condizionate).
Dopo che uno SC è in grado di dare una risposta simile a quella dello SI senza che questo
compaia, è possibile che un altro stimolo neutro, accoppiato allo SC, diventi capace di
evocare la medesima risposta (stimolo di second’ordine e di terz’ordine). Un
condizionamento di questo tipo viene definito condizionamento di ordine superiore.

Generalizzazione e discriminazione
Per generalizzazione si intende quel fenomeno di estensione delle risposte condizionate
a tutti gli stimoli molto simili a quello condizionato (se un piccione è condizionato a
rispondere con una beccata a un suono a 100 Hz, risponderà in modo analogo anche ad

30
un suono a 99 Hz o a 101 Hz). Il processo di generalizzazione è automatico, la tendenza
a generalizzare è spontanea e presente in tutte le specie.
Se invece si vuole che l’apprendimento condizionato si riferisca ad uno specifico stimolo
e non a stimoli simili, occorre inibire la generalizzazione sottoponendo il soggetto a
un’ulteriore procedura di addestramento che viene definita condizionamento
discriminativo.
Le procedure del condizionamento classico e di quello discriminativi hanno dato
contributi molto importanti allo studio della psicologia animale, consentendo tra l’altro di
analizzare le capacità sensoriali e percettive delle singole specie.

Il condizionamento classico nell’uomo


Gli esempi di condizionamento classico nell’uomo riguardano soprattutto le risposte
emotive.
Esperimento di Watson e Rayner sul piccolo Albert (bambino di un anno): il bambino
amava giocare coi ratti bianchi del laboratorio e, in due occasioni, mentre giocava con
uno di questi animali, gli sperimentatori provocarono un forte rumore (SI). La reazione di
paura del bambino fu associata al ratto (SC) che aveva in mano e fu generalizzata ad
altri piccoli animali bianchi. In questo modo si era ottenuta una risposta emotiva
condizionata (fobia per i ratti bianchi).
Poiché le emozioni si esprimono sempre anche attraverso modificazioni automatiche di
tipo fisiologico, è sempre possibile condizionarle secondo il paradigma pavloviano.
Nell’uomo si riscontrano gli stessi effetti gi generalizzazione e discriminazione descritti
per gli animali, ma la generalizzazione del condizionamento sembra facilitata dalle sue
capacità cognitive.

2. IL CONDIZIONAMENTO OPERANTE
Secondo il condizionamento classico il soggetto è passivamente reattivo all’ambiente.
Tuttavia abitualmente noi dobbiamo apprendere dei comportamenti nuovi che
attivamente producano cambiamenti nelle nostre azioni, in funzione del raggiungimento
di uno scopo (il cane impara a grattare la porta per uscire). Le modificazioni del
comportamento che aumentano le capacità o le conoscenze in funzione di un’interazione
attiva e funzionale con l’ambiente vengono definite risposte strumentali (Skinner le
chiamerà risposte operanti). Il primo ad occuparsi di questo tipo di apprendimenti fu
Thorndike che individuò l’apprendimento per prove ed errori e fece molti studi sulle
modalità con cui i gatti riuscivano ad apprendere ad uscire da una gabbia, definita
gabbia-problema. Gatti deprivati del cibo da molte ore venivano inseriti uno per volta
nella gabbia-problema, fuori dalla quale era collocato del cibo. Il gatto faceva
immediatamente molti tentativi di uscire, facendo diversi movimenti, fino a che, in modo
casuale, urtava contro la leva che faceva sollevare lo sportello di uscita. Il gatto veniva
introdotto varie volte nella gabbia, nelle stesse condizioni, e ad ogni nuova prova
compiva sempre meno movimenti inutili, fino a che riusciva a compiere il solo
movimento utile.
In questo tipo di apprendimento non vi era un intervento intelligente dell’animale
(tentativi a caso).
La relazione tra tentativi casuali e azione efficace fu chiamata “legge dell’effetto”: le
azioni che producono effetti soddisfacenti hanno più probabilità di essere ripetute
quando si presenti la medesima situazione, mentre quelle che producono effetti
spiacevoli o inefficaci hanno progressivamente meno probabilità di essere ripetute.
Thorndike introduceva il concetto di motivazione: il successo che si ottiene attraverso un
comportamento agisce come premio e rinforzo per l’azione compiuta, che avrà così più
probabilità di essere ripetuta, rafforzando l’apprendimento. Al contrario, l’insuccesso
funziona come punizione e porta il soggetto a provare comportamenti differenti.

31
Thorndike verificò inoltre che la punizione è assai meno efficace nel diminuire la
probabilità che un comportamento si verifichi di quanto lo sia il premio nell’aumentare la
probabilità: il premio ha maggior potere della punizione.
Un corollario della legge dell’effetto è la legge dell’esercizio: un apprendimento per
prove ed errori sarà anche funzione della quantità di ripetizioni (l’esercizio è alla base di
questo apprendimento).
Anche questi apprendimenti sono suscettibili di generalizzazione (che Thorndike chiama
irradiazione dell’effetto) e possono essere condizionati alla discriminazione.

Skinner e l’apprendimento per condizionamento operante


Skinner definì risposte operanti i comportamenti che producevano un effetto
sull’ambiente e condizionamento operante il processo di apprendimento in base al quale
gli effetti di una risposta operante (ricompensa o punizione) determinano la probabilità
che quella risposta sia ripetuta.
Skinner ideò un dispositivo sperimentale detto Skinner box: una gabbia che all’interno
aveva una leva o una barra su cui l’animale poteva agire in modo da produrre un preciso
effetto (ricevere cibo o acqua). Il pavimento era elettrificabile in caso si volessero fornire
stimoli avversativi. Le risposte degli animali venivano registrate su una striscia di carta
scorrevole collegata alla gabbia. All’inizio di ogni sessione sperimentale gli animali erano
deprivati del cibo o dell’acqua, a seconda dello stimolo di rinforzo che si intendeva usare.
La prova consisteva nel creare le condizioni all’interno della gabbia affinché l’animale
premesse accidentalmente la leva. A seguito di questa azione si produceva un preciso
effetto: ricevere cibo o acqua. L’animale che, ad esempio, era deprivato di cibo tendeva
a ripetere l’azione che gliene procurava.
Nel condizionamento operante un apprendimento viene acquisito solo se il nuovo
comportamento viene seguito da un rinforzo. Si ha quindi una modificazione del
paradigma S-R in (S)-R-R (Risposta-Rinforzo). S è tra parentesi perché nella maggior
parte dei casi si tratta di un comportamento spontaneo messo in atto dal soggetto che
viene rinforzato, senza che ci sia uno stimolo precedente.
Quindi, se una risposta operante cessa di essere rinforzata, la sua frequenza diminuisce
gradualmente.
I rinforzi non sono più necessari quando i comportamenti diventano automatizzati o
diventano abitudini e, affinché si estinguano, bisogna procedere ad un nuovo
condizionamento di comportamenti incompatibili.

I rinforzi
I rinforzi sono quegli stimoli o effetti che seguono una risposta e che determinano la
probabilità che si ripeta.
Tipi di rinforzo:
 Rinforzi primari e secondari (in base ai bisogni su cui agiscono)
 Rinforzi Positivi e Negativi (in base alla valenza che hanno per il soggetto): il
rinforzo negativo è ciò che aumenta la possibilità di far cessare uno stimolo
negativo (imparare a evitare o interrompere qualcosa di spiacevole), non vanno
confusi con le punizioni.
 Rinforzi Continui o Parziali ( in base alla frequenza di somministrazione-
sempre o a intermittenza): Skinner dimostrò che lo schema a rapporto variabile
è in assoluto il più efficace.
Funzione dei rinforzi:
 I rinforzi positivi (ricompense) sono necessari per apprendere

32
 I rinforzi negativi sono necessari per apprendere a evitare una situazione
spiacevole per il soggetto tramite evitamento/fuga o interruzione stimolo
doloroso.
 La punizione è utile per inibire un comportamento indesiderato, ma non lo
estingue. Skinner riteneva che un metodo assai più efficace della punizione per
inibire un comportamento indesiderato fosse quello di rinforzare positivamente
un comportamento con esso incompatibile (comportamento alternativo). È
sempre necessario valutare se il soggetto conosca o no un comportamento
alternativo a quello indesiderato. Infatti se una punizione viene ripetuta molte
volte, senza che il soggetto abbia un’alternativa, l’inibizione si generalizza.

Variabili nel condizionamento operante:


 La forza o la salienza dei rinforzi o delle punizioni;
 L’intervallo di tempo
 La frequenza delle conseguenze.

Il modellamento
Nel condizionamento operante il rinforzo viene dato solo dopo che il comportamento è
stato emesso, ma non è sempre possibile che i soggetti siano in grado di emettere
spontaneamente quel comportamento (es. comportamenti complessi o il caso in cui i
soggetti siano animali o bambini piccoli). In questi casi si procede per approssimazioni
successive: rinforzando ogni comportamento che si approssima alla risposta desiderata
(modellamento). Quando il soggetto da la risposta desiderata, questa diventa l’unica
premiata.

Condizionamento operante nell’uomo


Molti dei comportamenti umani, consapevoli o inconsapevoli, sono prodotti e modulati da
condizionamenti operanti. La maggior parte degli esseri umani viene condizionata con
rinforzi secondari. Il principio di Premack estende il valore del rinforzo anche alle attività:
un’attività piacevole può agire da rinforzo per un’attività spiacevole (andare a una festa
dopo aver finito i compiti).
Anche le applicazioni cliniche del condizionamento operante sono molto importanti. Nella
terapia del comportamento si lavora abitualmente sul processo di rinforzo per portare i
pazienti a modificare i comportamenti indesiderati.

3. IL COMPORTAMENTISMO INTENZIONALE DI TOLMAN


Fin qui il comportamento viene rigidamente interpretato come risposta osservabile a
stimoli di varia natura.
Alcuni psicologi comportamentisti sostenevano, invece, l’esistenza di costrutti mentali
ipotetici in grado di spiegare e prevedere più adeguatamente il comportamento (teoria
S-O-R). Tolman propose la teoria del comportamentismo intenzionale.
La teoria di Tolman si fonda su alcuni assunti di base:
 L’apprendimento si manifesta solo se c’è uno scopo per compiere l’azione
appresa, il che presuppone un’intenzione da parte del soggetto;
 Esistono delle variabili interferenti o intervenienti, responsabili della
mediazione tra la situazione stimolante e la risposta dei soggetti (es.
caratteristiche dei soggetti, natura dei bisogni, ecc.), che non sono indagabili
direttamente, ma vanno tenute in conto come costrutti ipotetici

33
Tolman riuscì a dimostrare come i soggetti nel mettere in atto un comportamento,
utilizzano i dati presenti nell’ambiente e la sua organizzazione spaziale, costruendosi nel
corso dell’esperienza una rappresentazione mentale dell’ambiente (mappa cognitiva).
Dimostrò inoltre ce i soggetti scelgono di eseguire quelle azioni che permettono loro di
raggiungere lo scopo nel modo più breve e facile (principio del minimo sforzo).
Labirinto di Tolman: alcuni ratti furono messi in un labirinto al termine del quale era
collocato del cibo. Tre percorsi alternativi permettevano di raggiungere la meta. I ratti
furono addestrati a percorrere questo labirinto e si osservò che, quando tutte e tre le vie
erano aperte i ratti sceglievano la più breve. Se veniva bloccato il percorso più breve, i
ratti tornavano indietro e sceglievano il secondo il lunghezza. Quando il primo percorso
era bloccato nel tratto finale, comune al primo e al secondo percorso, gli animali
tornavano indietro e imboccavano il terzo. Evidentemente avevano in mente
l’organizzazione spaziale del labirinto ed erano in grado di valutare che se il blocco era in
quel punto la scelta del secondo percorso non li avrebe comunque portati alla meta
(comportamento intelligente).

Un altro fenomeno importante scoperto da Tolman fu quello dell’apprendimento latente:


gli animali imparano l’organizzazione spaziale del loro ambiente attraverso
l’esplorazione, anche senza rinforzi; tuttavia questi sono necessari affinché
l’apprendimento venga manifestato.
Labirinto a T di Tolman: l’esperimento consisteva nel mettere tre gruppi di ratti in un
labirinto molto complesso, con differenti modalità di rinforzo. Il primo gruppo veniva
introdotto nel labirinto una volta al giorno e, all’uscita non riceveva alcuna ricompensa. I
ratti, col passare dei giorni diminuivano di poco i loro errori e vagavano per il labirinto. Il
secondo gruppo veniva introdotto quotidianamente nel labirinto e all’uscita riceveva del
cibo. Nel corso dei giorni, gli animali riducevano gli errori, uscendo dal labirinto sempre
più in fretta. Il terzo gruppo fu trattato come il primo per 10 giorni, ma all’undicesimo
giorno fu ricompensato con del cibo. I ratti di questo gruppo si comportarono per 11
giorni come quelli che non avevano ricevuto ricompensa e, alla dodicesima prova si
comportarono come quelli del secondo gruppo.
Nel caso dell’ultimo gruppo, il rinforzo non era necessario per apprendere, ma per
manifestare un apprendimento.

4. L’APPRENDIMENTO NELLA TEORIA DELLA GESTALT

Gli psicologi della Gestalt erano interessati soprattutto alle leggi generali che governano
la percezione umana e i processi di soluzione dei problemi. L’apprendimento era
considerato un fenomeno secondario, derivato dai primi due. I gestaltisti attaccarono
Thorndike, sostenendo che la casualità della soluzione del problema da parte degli
animali da lui studiati era dovuta alla condizione sperimentale che non consentiva
all’animale di esprimere un comportamento intelligente.
Gli esperimenti di Koehler sugli scimpanzé erano tesi a dimostrare come questi animali
realizzassero degli apprendimenti per intuizione (insight), utilizzando procedure
intelligenti di analisi dell’ambiente per raggiungere lo scopo.
Apprendimento per insight: Koehler mise alcune banane fuori dalla gabbia ad una
distanza superiore alla lunghezza del braccio dell’animale. All’interno della gabbia mise
un bastone. Lo scimpanzé faceva un primo tentativo di raggiungere la banana col braccio
e, non riuscendoci, ispezionava l’ambiente fino a che non individuava il bastone, con il
quale faceva un secondo tentativo, raggiungendo la meta.
I compiti sperimentali venivano via via complicati, ma gli scimpanzé riuscivano sempre
a risolvere il problema. Koehler ne dedusse che i tentativi erano intelligenti nella misura
in cui l’animale, messo in una condizione problematica, esaminava le condizioni

34
dell’ambiente, quindi selezionava gli elementi pertinenti all’ipotesi di soluzione
organizzandoli in una nuova totalità dotata di significato.
Una volta trovata la soluzione gli animali, quando venivano posti in una condizione
analoga, ripetevano con successo l’azione utile (ripetizione del comportamento definita
apprendimento per insight).
L’assunto dei gestaltisti è che l’apprendimento è guidato e determinato dalle leggi della
percezione.

5. APPRENDIMENTO SOCIALE O OSSERVATIVO


Questo autore è fondamentale perché fa da ponte tra la concezione comportamentista e
quella cognitivista.
Bandura fa infatti riferimento all’apprendimento tramite rinforzo, ma è il primo autore
che introduce i processi cognitivi come condizione per apprendere attraverso l’imitazione
di un modello sociale.
La teoria dell’apprendimento sociale sostiene che gran parte del comportamento umano
si ottiene in modo indiretto, osservando le risposte fornite da un altro soggetto e
cercando di imitarlo (studi sui bambini piccoli).
Fattori che determinano l’efficacia dell’apprendimento imitativo:
 Attenzione
 Processi di rappresentazione in memoria di ciò che è stato osservato
 Capacità di riproduzione motoria
 Rinforzo (Bandura come Tolman riteneva che il rinforzo fosse legato
all’esecuzione della risposta più che all’apprendimento): i comportamenti del
modello rinforzati positivamente vengono meglio appresi.
Anche il valore attribuito al modello può essere un elemento importante di rinforzo.

5. L’APPRENDIMENTO NELLA PROSPETTIVA COGNITIVISTA


L’approccio cognitivista prende distanza dai modelli associazionisti del
comportamentismo spostando la centralità dal concetto di associazione a quello di
rappresentazione, come in parte anticipato da Tolman con il concetto di mappe cognitive.
L’innovazione principale del cognitivismo è quella di esaltare il ruolo attivo del soggetto
nella elaborazione della realtà circostante, dando maggior rilievo ai processi interni di
elaborazione e rappresentazione.
E’ bene notare, tuttavia, che con l’affermarsi del cognitivismo lo studio
dell’apprendimento subisce una radicale trasformazione rispetto alla tradizione
precedente.
APPRENDIMENTO COME PROCESSO. Se nella prospettiva comportamentista
l’apprendimento viene studiato attraverso il comportamento manifesto e trattato come
un fenomeno ‘unitario’, nella nuova prospettiva cognitivista si osserva una
frammentazione dell’ambito di indagine e l’apprendimento viene ridefinito in relazione
alle diverse componenti cognitive coinvolte. In particolare, si verifica una forte
associazione tra lo studio dell’apprendimento e quello della memoria, in quanto, per
poter imparare, è innanzitutto necessario saper codificare, immagazzinare, integrare e
ricordare un’informazione. Diventa particolarmente importante in questo contesto il
concetto di schema (cfr CAP. 6), inteso come struttura di conoscenza che guida il
processo di elaborazione e viene a sua volta aggiornato in base alle nuove informazioni
in entrata, in un processo costruttivo e dinamico. La modalità attraverso la quale le
conoscenze già possedute da una persona (schemi, concetti, teorie ecc.) influenzano
l’acquisizione di nuove conoscenze viene definita “top-down” (dall’alto al basso),
viceversa, la modalità in cui invece è la realtà percepita che attiva processi cognitivi di
apprendimento o revisione di schemi precedenti è definita “bottom-up” (dal basso verso
l’alto). L’APPRENDIMENTO COINVOLGE MOLTI PROCESSI COGNITIVI Imparare a leggere,

35
per esempio, implica l’integrazione di abilità linguistiche, mnestiche e percettive; saper
guidare un’automobile significa avere buone abilità di integrazione visuo-motoria, e
capacità attentive; l’apprendimento in ambito scolastico richiede sia competenze
specifiche, come il calcolo e la lettura, sia competenze generali, come quelle di applicare
strategie, fare inferenze e mettere in atto processi di astrazione.
Un altro aspetto che è bene ricordare è che il primo approccio allo studio
dell’apprendimento in ambito cognitivista, che aveva come oggetto lo studio
dell’elaborazione umana dell’informazione (paradigma dello Human Information
Processing), è stato fortemente influenzato dalla metafora mente-computer.
MODELLI HIP. Questo ha portato tra gli anni ’70 e ’80 allo sviluppo di modelli di
apprendimento, articolati in una serie di passaggi (regole di produzione) rigidi, con
strutture gerarchice simili a quelle di un programma implementabile in un computer. Un
importante punto di svolta nello studio dell’apprendimento e dei processi cognitivi più in
generale è costituito dall’introduzione della teoria modulare di J.A.Fodor (1983, 2001).
MODELLI MODULARI. è importante richiamare l’importanza per la spiegazione del
funzionamento della mente, della distinzione di base proposta da Fodor, tra abilità
specifiche, definite ‘modulari’, e abilità generali legate ai processi di pensiero superiori.
Vengono postulati dei moduli che ricevono informazioni dai sistemi sensoriali. Le
elaborano ad un primo livello, e sono descritti come innati, altamente specializzati ed
efficienti, poco flessibili ma molto veloci nell’elaborazione delle informazioni ed
“informazionalmente incapsulati” (non hanno cioè accesso ai contenuti e alle
informazioni provenienti da altri moduli). Viene postulato inoltre un processore centrale,
più lento nei processi di elaborazione ma più flessibile, che riceve dati dai moduli ed ha
la funzione di integrare e interpretare le informazioni specifiche. Più recentemente, il
modello modulare ha dato origine a critiche e revisioni, in parte da parte dello stesso
Fodor (2001). Mike Anderson (1992), nel modello della Minima Architettura Cognitiva,
introduce il concetto più flessibile di ‘processori specifici’ (ad esempio, per la
comprensione dello spazio) che mantengono la specificità funzionale dei moduli, ma non
sono completamente isolati rispetto al funzionamento cognitivo generale. Le facoltà
orizzontali, deputate all’integrazione delle informazioni che derivano dai processori
specifici, sarebbero invece determinate da un Meccanismo di Processamento di Base
(BPM) che si esprime primariamente in termini di velocità di elaborazione e può variare
da individuo a individuo dando origine a differenze individuali in termini di abilità
intellettive. Una lentezza di funzionamento del BMP potrebbe quindi, in alcuni casi,
ostacolare lo sviluppo dei processi specifici, che da esso in parte dipendono. La
distinzione tra abilità specifiche e generali, ha influito fortemente sugli studi nell’ambito
dell’apprendimento, sia in ambito teorico che clinico. La dislessia, ad esempio, è oggi
definita come un Disturbo Specifico dell’Apprendimento, e si sostiene che il deficit alla
base sia di tipo modulare, primariamente fonologico, ma con possibili alterazioni anche
nell’elaborazione visiva (Vellutino, Fletcher, Snowling, Scanlon, 2004). I dislessici hanno
una difficoltà specifica nel riconoscimento ed elaborazione delle lettere in forma scritta, i
grafemi, ma non presentano alcun tipo di deficit nelle funzioni cognitive generali. Questa
distinzione ha importanti implicazioni sia in ambito terapeutico, sia in termini di
comprensione del disagio per il soggetto e i familiari. Avere difficoltà a scuola per via di
un deficit specifico sul quale si può intervenire, è una situazione più gestibile rispetto a
quella in cui si attribuisce al soggetto mancanza di volontà o scarsa intelligenza, come
avveniva un tempo quando non si era in possesso di tali conoscenze. In sintesi possiamo
concludere che l’approccio cognitivista ha completamente modificato l’oggetto di studio
nell’ambito della psicologia dell’apprendimento.

6. MEMORIA

36
La memoria è costituita da un insieme di componenti e di processi responsabili sia
dell’elaborazione dell’informazione che del suo immagazzinamento e del suo recupero.
La memoria non può essere pensata come un archivio: gli eventi originali vengono
continuamente rielaborati e riorganizzati.

LA MEMORIA

I PROCESSI DELLA MEMORIA


1. ELABORAZIONE (processing)
2. IMMAGAZZINAMENTO (encoding)
3. RECUPERO (RICORDO/retrieval/remembering)
4. OBLIO (forgetting)

1- ELABORAZIONE
In queste operazioni sono coinvolte anche l'attenzione, la percezione, il
ragionamento.

-A- QUALITA' DELL'ELABORAZIONE


Intenzionale
Incidentale
Implicita

-B- OPERAZIONI

a) Ripasso:
- Reiterazione (rehearsal) o Ripasso di mantenimento (nella Memoria di lavoro).
- Ripasso elaborativo, utilizza delle strategie di comprensione e integrazione
con altre conoscenze.

b) Profondità di elaborazione
Elaborare significa dare un significato all'informazione e connetterla con le
conoscenze preesistenti.
La profondità dipende da quanto l'elaborazione si sposta dalle caratteristiche
percettive
(elaborazione superficiale), alle caratteristiche concettuali (elaborazione
profonda).
La scelta del grado di profondità dell'elaborazione dipende dagli scopi delle
attività che si devono svolgere (es. correzione di bozze, riconoscimento di una
rima, comprensione di un testo ecc.).

c) Organizzazione
Imposta dal soggetto
Imposta dal materiale

-ALCUNI TIPI DI ORGANIZZAZIONE (STRATEGIE)

37
La categorizzazione: un processo guidato dai concetti che la persona
possiede.
Es. lista di parole (treno, canarino, pera, nave, banana, cane…), le parole si
ricordano meglio se si accorpano in base alla categoria (mezzi di trasporto,
frutta, animali…)

L’organizzazione tematica: processo che utilizza le conoscenze che la


persona possiede, per creare dei legami tra i singoli elementi da ricordare,
anche costruendo brevi storie.
Esempio sulla lista precedente: A Messina il treno è stato caricato
sulla nave, la signora che era nel mio scompartimento aveva una
gabbia con un canarino che mangiava un pezzetto di pera, mentre al
cane cercava di dare un boccone della sua banana.

Le Mnemotecniche: strategie che seguono regole precise, che vanno seguite


in modo sistematico, la loro utilità consiste nel dare una organizzazione a
materiale non organizzato.
Alcune si basano sull’uso delle immagini come ad esempio il metodo dei loci, la
formazione di immagini bizzarre interattive, ecc.
Altre invece si basano sul linguaggio, come gli acronimi:
Es. FIAT (Fabbrica Italiana Automobili Torino)
gli acrostici
Es. FREUD (Fare Ridere E’ Un Dono),
le rime
Es. 30 giorni ha novembre con april giugno e settembre, di 28 ce n’è uno, tutti
gli altri ne han 31

C- EFFETTO DEL CONTESTO (ambientale, cognitivo, emozionale)

Il contesto viene elaborato insieme all’informazione (principio di


specificità di codifica)
Nel termine contesto rientrano:
a) L’ambiente fisico
b) Gli elementi associati allo stimolo che vengono percepiti insieme a
questo
c) Lo stato emozionale
d) Le conoscenze attivate, i pensieri, le considerazioni fatte durante la
percezione dello stimolo (contesto cognitivo)

2- IMMAGAZZINAMENTO (storage)

LA RAPPRESENTAZIONE DELLE CONOSCENZE

Modelli a rete

I concetti sono organizzati in una struttura gerarchica a rete, che rispetta


l'organizzazione logica di inclusione delle categorie. (Collins e Quillian 1969).

La distanza tra concetti può non rispettare l'ordine logico-gerarchico, ma


piuttosto rispettare criteri psicologici che non sempre coincidono con quelli
logici.(Rips, Shoben e Smith 1973).

38
Le distanze associative sono diverse anche tra esemplari di una stessa
categoria in base al criterio della tipicità (Rosh 1975,1978)

Modello di rete semantica


Le tracce mnestiche sono organizzate in un reticolo, di cui rappresentano i
nodi, le associazioni tra i nodi rappresentano i legami. La distanza associativa
tra nodi riflette la facilità con cui l'attivazione si propaga da un'informazione
all'altra.
Principio di propagazione dell'attivazione

Modelli che ipotizzano SCHEMI

Gli schemi
a) comprendono un nucleo fisso (valore di default) e componenti variabili

b) possono essere inseriti gli uni negli altri gerarchicamente

c) rappresentano la conoscenza a qualsiasi livello di astrazione

d) sistemi di accettazione delle informazioni

e) guidano la percezione e il riconoscimento

3-RECUPERO DELL’INFORMAZIONE (RICORDO – RETRIEVAL)

RICORDO LIBERO

RICORDO GUIDATO

RICONOSCIMENTO

4- OBLIO

Cause:

a) interferenza (proattiva o retroattiva)


b) ripasso insufficiente
c) disturbi organici (amnesie)

il trascorrere del tempo influenza a seconda di come è stato vissuto il tempo


(pieno o vuoto) e a seconda della quantità di ripassi o ripensamenti che sono
stati fatti dell’informazione.

39
ARCHITETTURA DELLA MEMORIA

MODELLO RECENTE (1994- TULVING E SCHACTER)

MEMORIA A BREVE TERMINE


MBT

MEMORIA DI LAVORO (WORKING 1-Ciclo fonologico (materiale verbale)


MEMORY- WM): 2-Taccuino visuo-spaziale (immagini
4 componenti: visive e spaziali)
3 sottosistemi che trattengono 3- Buffer episodico (azione di
l’informazione e 1 processore (insieme integrazione)
di processi cognitivi esecutivi e di -4-Esecutivo Centrale, si tratta di un
controllo) insieme di processi esecutivi
, (programmazione, controllo
attenzione, recupero informazioni da
MBT e MLT a seconda delle necessità
dei compiti da eseguire, esecuzione
compiti, controllo automatismi, ecc
MEMORIA A LUNGO TERMINE 1- SISTEMA PROCEDURALE
MLT
4 sistemi
2- SISTEMA DI RAPPRESENTAZIONE
PERCETTIVA- PRS
3-SISTEMA SEMANTICO
4- SISTEMA EPISODICO.

Studiare bene la Memoria di Lavoro e le sue componenti .


Per i contenuti dei sistemi di memoria e le loro definizioni vedi il testo.
In particolare vedere la memoria a lungo termine di eventi che può essere
semantica se l’evento è definito nel tempo e nello spazio (Kennedy è stato
ucciso a Dallas nel 1963) ma può essere episodica quando l’evento è stato
direttamente vissuto dal soggetto (ho visto ieri un documentario sull’uccisione
di Kennedy a Dallas).

40
41