2
Un altro punto fondamentale del pensiero di Popper, e molto utile alla psicologia, è quello
che riguarda la critica all’empirismo. Le osservazioni, pur avendo un ruolo importante nello
sviluppo scientifico, non devono essere il punto di partenza di una teoria per poi svilupparsi
attraverso il metodo induttivo. La ricerca scientifica inizia dai problemi, la loro soluzione dalle
capacità dello scienziato di formulare ipotesi. Le osservazioni servono come mezzo di verifica di
tale ipotesi. Secondo Popper, infatti, il metodo induttivo non esisterebbe.
Kuhn, invece, afferma che, mentre le scienze naturali, come la fisica, la chimica o la
biologia, sono sostenute da un paradigma specifico e allo stesso tempo comune, evidenziabile in
modelli strutturali generalmente accettati dalla comunità scientifica, la psicologia non avrebbe
ancora raggiunto tale status. La psicologia, secondo Kuhn, si troverebbe in uno stato pre-
paradigmatico, non essendo provvista dell’apparato metateorico, teorico e metodologico condiviso
di cui si avvalgono le altre discipline.
2. La psicologia
Nel mondo prescientifico le cause di un fenomeno venivano ricercate all’interno del
fenomeno stesso in virtù di quello che viene definito animismo. Il grande passaggio di Galileo è
stato quello di spostare il locus esplicativo all’esterno del fenomeno stesso, in modo da poter
costruire un esperimento che sostenesse l’indagine empirica di ciò che poteva causare il fenomeno.
Se applichiamo questo metodo alla scienza psicologica dobbiamo dire che il suo obiettivo è
descrivere, spiegare e prevedere le relazione funzionali che si possono stabilire tra la condotta
di un individuo e l’enorme serie di variabili esterne ad esse che la possono influenzare. Tale
relazione è stata descritta dalla funzione riportata nella formula:
C = f (S)
dove S rappresenta l’insieme degli eventi stimolo ambientali che possono “colpire” un soggetto nel
corso della sua vita.
Il modello derivato da tale relazione è stato poi sottoposto a numerose critiche: è passivo,
riduttivistico, meccanicistico, periferalista, appare debole sul piano teorico e incapace di fornire
un’interpretazione del comportamento. Un altro modo di descrivere le relazioni comportamento-
ambiente è il seguente:
C = f (S ↔ O)
dove il comportamento risulta funzione dell’interazione di un organismo con il suo ambiente.
Se si sostituisce ulteriormente alla funzione lineare un concetto di campo multiplo che
sottolinea le relazioni reciproche, si ottiene:
C ↔ (S ↔ O)
3
Secondo questo diagramma, il comportamento non è solo funzione di una relazione
interattiva organismo-ambiente (rappresentata dalla ↔ tra S e O), ma è esso stesso agente di
cambiamento di tale relazione con un meccanismo a feed-back. In altre parole, il comportamento di
un individuo (inteso come unità biopsichica individuale, unica e irripetibile) è funzione
dell’interazione che egli instaura con l’ambiente (inteso come l’insieme di caratteristiche specifiche
e situazionali con cui un organismo entra in rapporto funzionale). Ma oltre che funzione, è
contemporaneamente parte attiva di questa interazione, nella misura in cui rientra in relazione
concorrendo a modificare sia l’ambiente stimolo, sia l’organismo, sia la loro reciproca relazione. In
sintesi, il comportamento è continuamente”effetto” dell’interazione organismo-ambiente e “causa”
del loro modificarsi. Viceversa, le modifiche di organismo e ambiente sono “causa” delle modifiche
di comportamento ed “effetto” di esse.
Il termine “interazione” dovrebbe sgombrare il campo da un equivoco ricorrente quando si
parla di teorie comportamentiste, quello di considerare il soggetto come un recettore passivo di
stimolazioni. Le risposte di un essere umano sono quelle che caratterizzano la specie e tali risposte
sono in interazione continua con gli stimoli interni ed esterni che costituiscono l’ambiente
funzionale di un individuo. L’ambiente è composto di stimoli specifici e fattori situazionali: solo gli
stimoli che interagiscono con un soggetto possono essere considerati appartenenti all’ambiente
funzionale, anche se ovviamente ogni stimolo può essere descritto in base alle sue dimensioni
fisiche, chimiche, sociali, ecc. I fattori situazionali vengono definiti come le condizioni di
contesto che modificano le proprietà funzionali di tutti gli stimoli e le risposte che prendono
parte all’interazione. In tal modo si creano costellazioni di interazioni che hanno caratteristiche di
unicità, in quanto unica è la storia della genetica e personale di ognuno. Queste costellazioni di
interazioni tra persona e ambiente considerate in una dimensione dinamica vengono definite da
Novak transizioni. Il prodotto delle interazioni si riorganizza continuamente e l’individuo e le
condizioni ambientali si modificano reciprocamente. Lo sviluppo unico e personale di ognuno è
determinato da interazioni che coinvolgono sia fattori filogenetici, sia autogenetici, e i prodotti di
queste interazioni interagiscono tra di loro.
Riassumendo il sistema persona-ambiente si riorganizza continuamente, in quanto sistema
dinamico, in funzione delle interazioni reciproche.
I sistemi che costituiscono l’universo possono essere quindi analizzati a diversi livelli di
complessità. Per esempio, il comportamento umano si può analizzare al livello di individuo in
relazione al suo ambiente (livello di analisi psicologico), oppure a un livello più basso,
considerando l’azione dei suoi sistemi biologici, o ancora più in basso, l’azione dei suoi elettroni o
neutroni. Secondo Novak, è importante ricordare che tutti i livelli di questi sistemi sono presenti
simultaneamente.
5
Chi si sofferma al livello di analisi più basso viene accusato di riduzionismo → spostare
l’analisi e la spiegazione di un fenomeno a un livello inferiore. In psicologia, per esempio, il
riduzionismo si verifica quando si tenta di spiegare il comportamento solo in termini di meccanismi
fisiologici o genetici, ignorando le interazioni con l’ambiente o i meccanismi psicologici.
Il riduzionismo può essere positivo se riesce a fornire spiegazioni utili per accedere a un
livello di analisi superiore, ma anche negativo quando ci si concentra troppo sulle parti e si perdono
di vista le caratteristiche necessarie del tutto.
Il modello antiriduzionista sceglie di cercare le spiegazioni allo stesso livello degli eventi
che si vogliono spiegare: le spiegazioni degli eventi psicologici vanno quindi ricercate nelle
relazioni funzionali con altri eventi psicologici, anche se questo non comporta l’esclusione o la
sottovalutazione delle relazioni esistenti a e fra livelli differenti.
Le interazioni individuo-ambiente possono essere analizzate a livelli differenti. Questo
approccio sistemico è compatibile con l’utilizzo di un modello dinamico che enfatizza le
modificazioni progressive nelle interazioni tra la persona e l’ambiente. La questione però rimane
aperta: Come possiamo porre in relazione stimoli e risposte con la cultura e la società? Osservando
le interazioni come cose che accadono simultaneamente a livelli sistemici differenti (Horowitz). Per
la nostra analisi, possiamo scegliere un solo livello o muoverci attraverso più livelli per una più
ampia comprensione dei fenomeni complessi. Muovendoci a livelli superiori, accresciamo
l’ampiezza della nostra comprensione del fenomeno, muovendoci a livelli inferiori diventiamo più
precisi. Nella scienza è quindi possibile collocare i livelli di analisi lungo un continuum rispetto a
queste due dimensioni: la precisione (precision) e l’ampiezza (scope). Questa flessibilità dell’unità
di analisi può esporci al rischio di vaghezza e imprecisione: è possibile innescare una regressione
ad infinitam, l’analisi degli elementi di un sistema (contesto) rimanda ad altri elementi, ad altri
sistemi e così via.
Il criterio per uscire da questo circolo vizioso, che è il criterio per stabilire la “verità dei
fatti”, è essenzialmente pragmatico: l’azione scientifica è guidata e verificata dalla “previsione e dal
controllo” degli eventi che sono oggetto del suo studio. Questa visione del mondo risulta
estremamente attraente e funzionale per analizzare sistemi complessi e altamente variabili senza
cadere nello schematismo e nella rigidità.
4. Descrizione e spiegazione
Descrizione e spiegazione sono due obiettivi della scienza.
● Descrivere → delineare, fare un rendiconto. È uno dei primi traguardi. Agli esordi di
una scienza è importante descrivere adeguatamente le caratteristiche e la natura dei
fenomeni studiati. Quando, però, una scienza è matura e consapevole delle
6
caratteristiche del suo oggetto di studio, l’obiettivo spesso si sposta verso il tentativo
di spiegare i fenomeni.
● Spiegare → rendere chiara una causa o una ragione. Consente la previsione e il
controllo.
“Spiegare significa stabilire relazioni funzionali tra classi di eventi che possono
essere generalizzate a dati diversi da quelli serviti per l’originaria formulazione,
allo scopo di prevedere e controllare classi di eventi futuri”
Quando vi è una relazione coerente tra due fattori, che si evidenzia attraverso reazioni
reciproche, si dice che i due fattori sono correlati. Novak utilizza l’esempio della correlazione
positiva che c’è tra la quantità di tempo speso nella lettura di storie da parte dei genitori e la
successiva capacità di lettura dei loro bambini: più tempo i
genitori dedicano alla lettura, maggiore sarà il punteggio che i loro bambini otterranno nelle prove
di lettura; è possibile prevedere se avranno buoni risultati.
MA anche se i due fattori sono correlati, ciò non implica che l’uno abbia causato l’altro.
Non è possibile concludere che la lettura di storie da parte dei genitori causi il livello di lettura
conseguito dai bambini; magari alcuni sono più predisposti. La correlazione non implica la
causalità. Come è possibile allora determinare se vi sia una relazione di causa ed effetto? I
ricercatori conducono esperimenti per indagare se i cambiamenti di una variabile controllino le
modifiche dell’altra variabile. In pratica, la previsione e il controllo di un fenomeno costituiscono
una spiegazione adeguata nella scienza. Non è sufficiente la mera descrizione dei cambiamenti
continui del comportamento; come scienziati, si desidera anche spiegare la causa di quelle
modificazioni. Secondo Novak, una descrizione illustra semplicemente lo status delle cose,
mentre una spiegazione afferma relazioni di causa ed effetto tra i fenomeni oggetto di studio e
gli eventi che li provocano.
Esempio. I bambini in età prescolare “non possono stare tranquilli e ascoltare una storia
lunga, perché possiedono uno span di attenzione limitato”. Sembra che il concetto di “span di
attenzione limitato” spieghi perché i bambini si irritino e guardino altrove. Tuttavia, non è una
spiegazione accettabile, ma circolare: i bambini guardano altrove dopo un breve periodo di tempo
perchè hanno uno span di attenzione limitato e sappiamo che hanno uno span di attenzione limitato
perché dopo poco tempo guardano altrove.
Una spiegazione è vera quando ci permette di prevedere e controllare il comportamento,
quindi non “perché” un comportamento si verifica, ma “in quali condizioni” si verifica.
7
5. Modelli e metafore
La descrizione e la spiegazione (interpretazione) della realtà, in psicologia come in altre
scienze, richiedono spesso l’introduzione di modelli al fine di evidenziare le variabili di
maggiore rilievo e i meccanismi attraverso i quali esse interagiscono.
Secondo Reese (1993) è opportuno tenere in considerazione cinque punti fondamentali
che definiscono la natura e la funzione dei modelli:
1. un modello è una rappresentazione della realtà, non una sua descrizione: è una
metafora e non un’affermazione fattuale;
2. i modelli possono collocarsi a diversi livelli, da quelli che forniscono una visione
onnicomprensiva della realtà, a quelli altamente specifici che si occupano di porzioni
ristrette della realtà;
3. ogni modello specifico deriva da quello immediatamente più generale, nel senso che
i concetti del primo sono categoricamente fissati dal secondo;
4. un modello è formalmente distinto da una teoria, ma, da un punto di vista funzionale,
fa parte dei suoi assiomi. Il modello, cioè, illustra come applicare la teoria: tuttavia, è
l’applicazione della teoria che è esplicativa e non l’illustrazione dell’applicazione.
Un modello è quindi esplicativo solo nel senso ristretto di metafora o di analogia;
5. un modello si distingue da una teoria perché quest’ultima è descrittiva e quindi
falsificabile, mentre il modello, in quanto formulazione metaforica, è più o meno
utile, ma non può essere falsificato.
Quindi, ogni modellizzazione comporta una metafora, utile alla descrizione del processo.
Una metafora trasferisce il significato o gli attributi di termine a un altro; una proposizione
metaforica è una “sostituzione” basata sulla somiglianza. Funzione del linguaggio metaforico è
generalmente quello di fornire un supporto concreto che faciliti la visualizzazione di un’idea astratta
e ne migliori la comprensione. C’è però il rischio che tale linguaggio venga frainteso, cioè
comunichi qualcosa di diverso dall’obiettivo per cui era stato progettato.
Nella scienza si possono distinguere due differenti impieghi della metafora:
1. ha solo lo scopo di evidenziare e di rendere più chiari i processi in esame e
quindi non è essenziale alla comprensione del processo;
2. il processo in studio viene a identificarsi con la descrizione metaforica
proposta; in questo caso la metafora è veramente essenziale alla
comprensione del processo che spiega, in quanto è parte costitutiva del
processo stesso.
8
Per una formulazione scientifica è preferibile che il livello di descrizione metaforico non si
identifichi con il processo stesso.
6. Teorie
Per organizzare il pensiero, noi elaboriamo teorie: servono principalmente a imporre una
certa coerenza alle nostre innumerevoli osservazioni. Secondo Kerlinger una teoria scientifica è
“un insieme interrelato di concetti, definizioni e proposizioni che forniscono una visione
sistematica dei fenomeni specificando le relazioni tra le variabili con lo scopo di spiegare e
prevedere i fenomeni”.
Le teorie però non si limitano a questo: tentano anche di fornire una spiegazione degli
eventi in termini di causa-effetto, stimolano nuove ipotesi di ricerca, ma allo stesso modo
influenzano il modo in cui gli scienziati interpretano i dati. Nella scienza non esistono quindi verità
assolute, ma punti di vista diversi che rappresentano le chiavi di lettura della realtà (Novak). Questa
è la visione relativistica della scienza e suggerisce che le asserzioni scientifiche sono impregnate
delle idee degli scienziati.
“La spiegazione deve sempre scaturire dalla descrizione, ma la descrizione da cui essa
scaturisce conterrà sempre caratteristiche arbitrarie” (Bateson)
Thomas ha individuato 9 criteri per la valutazione della “bontà” di una teoria:
1. Precisione → una teoria è valida se riflette accuratamente i fatti del mondo;
2. Chiarezza → una teoria viene enunciata in modo chiaro e comprensibile;
3. Prevedibilità → oltre a spiegare perché si sono verificati gli eventi passati,
consente di prevedere accuratamente gli eventi futuri;
4. Applicabilità → offre una guida pratica nella soluzione dei problemi
quotidiani;
5. Coerenza interna → i suoi termini e concetti sono abbastanza efficaci da
poter essere utilizzati sempre con coerenza;
6. Falsificabilità → è falsificabile e confutabile;
7. Parsimonia → è più valido un approccio che per spiegare i fenomeni si basi
sul minor numero possibile di osservazioni e richieda i meccanismi più
semplici;
8. Produttività → stimola la creazione di nuove tecniche di ricerca e la
scoperta di nuove conoscenze;
9. Persuasività → spiega il suo oggetto nel modo più vicino al nostro buon
senso, coerente con le nostre opinioni preesistenti.
9
7. La ricerca
Gli eventi del mondo che osserviamo possono entrare in diverse categorie e assumere,
all’interno di tali categorie, diversi valori. Tutti i fenomeni osservabili e cui possono essere attribuiti
valori differenti sono potenziali variabili. La prima distinzione fondamentale è tra:
➔ variabili indipendenti: manipolate dallo scienziato
➔ variabili dipendenti: i loro valori variano in funzione delle variazioni dei valori
delle variabili indipendenti
Lo sperimentatore agisce quindi sulla variabile indipendente per osservare i cambiamenti
che questa induce sulla variabile dipendente.
10
2. Scale ordinali: dispongono oggetti o fenomeni in base al loro ordine di grandezza. La
regola per assegnare valori numerici in una scala ordinale prevede che la posizione in una
scala ordinale del valore numerico sulla scala deve corrispondere al grado del valore
dell’attributo. Tale scala non permette di stabilire la distanza tra un valore e l’altro.
3. Scale a intervalli: le differenze tra valori numerici hanno un significato e devono
corrispondere a differenze psicologiche tra gli eventi o gli oggetti (es. il quoziente
intellettivo: le differenze tra le persone sono rappresentate in modo significativo dalle
differenze tra i valori di QI; tra una persona con QI di 120 e una persona con QI di 100 ci
siano 20 punti sulla scala QI, ma non si può affermare che una persona con QI di 100 abbia
intelligenza doppia rispetto a una persona con QI di 50).
4. Scale a rapporti: sono caratterizzate da un punto 0 significativo e in esse il rapporto tra due
punti o due valori è indipendente dall’unità di misura scelta (es. pesi, volumi, lunghezze). In
psicologia, una variabile misurabile con questa scala potrebbe essere il livello di scolarità
prendendo come unità di misura l’anno scolastico: un laureato ha un livello di scolarità di
almeno 16 anni, un diplomato di 13. In questo caso la differenza tra due valori, ad esempio
13 e 16, corrisponde realmente a 3 anni di differenza e chi ha 16 anni di scolarità ha il
doppio di scolarità di chi ne ha 8. Il punto 0 corrisponderebbe alla mancanza assoluta di
istruzione scolastica e il risultato non cambierebbe se prendessimo come unità di misura i
mesi.
7.3. La validità
Lo scopo di una ricerca scientifica è quello di trarre conclusioni sulle relazioni di causa
effetto tra le variabili prese in esame. I due quesiti fondamentali ai quali si deve dare risposta
durante la progettazione di una ricerca riguardano:
1. potenziali minacce alla validità della ricerca che si sta per compiere;
2. mezzi e le operazioni necessarie per neutralizzare tali minacce, procedimenti che nel
loro insieme vengono definiti “controllo”.
Validità = insieme di condizioni che permettono allo sperimentatore di trarre conclusioni
esatte e corrispondenti alla realtà, sui risultati della ricerca.
Sono cinque i tipi di validità che devono essere considerati:
1. Validità interna: il grado di certezza con il quale il ricercatore può escludere interpretazioni
alternative alle sue conclusioni. Deve dimostrare che la relazione individuata tra variabile
indipendente e variabile dipendente è vera, cioè la variabile indipendente, e solo quella, ha
causato una variazione della variabile dipendente. La più pericolosa minaccia alla validità
interna di una ricerca è la confusione delle variabili, cioè la presenza di variabili nascoste o
11
non prese in considerazione e che possono influenzare la variabile dipendente (es. quando
non è possibile controllare la variabile indipendente e i soggetti vengono selezionati in
quanto appartenenti a una certa categoria come il sesso dei soggetti, l’età o la condizione
socioeconomica).
2. Validità di costrutto: in psicologia, più che in altre scienze, l’oggetto della ricerca è un
costrutto, cioè un termine astratto che sta ad indicare una caratteristica, un complesso, una
capacità della vita psichica. Esempi sono l’intelligenza, l’ansia, l’obbedienza,
l’autoefficacia, ecc. Tali costrutti non sono direttamente osservabili, ma vengono inferiti a
partire dal comportamento. Per esempio, l’ansia è un costrutto psicologico che gli psicologi
inferiscono da alcuni indicatori osservabili, come il ritmo cardiaco, la sudorazione, ecc.
L’individuare degli indicatori osservabili di un costrutto non osservabile significa rendere il
costrutto operazionale: questo processo costituisce il passaggio dalla teoria alla pratica
perché indica quegli elementi che portano dal livello astratto (il costrutto) al livello
misurabile. La validità di costrutto quindi consiste nella corretta corrispondenza tra
elementi utilizzati nel processo sperimentale e costrutto teorico di riferimento.
Interrogarsi sulla validità di costrutto significa escludere altre possibili spiegazioni teoriche
ai risultati ottenuti.
3. Validità esterna: riguarda l’applicabilità dei risultati ottenuti a un’altra situazione, con
soggetti, tempi e luoghi diversi. Consiste quindi nel poter generalizzare le conclusioni. La
validità esterna è essenzialmente legata al campionamento dei soggetti, cioè a quel processo
di scelta dei soggetti di ricerca.
4. Validità statistica: riguarda la probabilità che la relazione tra variabile indipendente e
quella dipendente sia effettiva e non dovuta al caso. Attraverso l’uso di appropriati test
statistici, i ricercatori stabiliscono se i risultati ottenuti hanno una bassa probabilità di essersi
verificati per caso. Per poter applicare tecniche statistiche ai dati sperimentali occorre
definire in partenza le ipotesi di ricerca che andranno poi verificate. Il ricercatore deve cioè
trasformare la domanda da cui è partita la sua ricerca in un’ipotesi statistica. Le ipotesi
statistiche si esprimono in:
a. ipotesi nulla (H0) → gli effetti della variabile indipendente sulla variabile
dipendente sono nulli;
b. ipotesi alternativa (H1) → la variabile sperimentale, o indipendente, ha avuto un
effetto, ovvero ha prodotto un cambiamento nel gruppo sperimentale.
Date le ipotesi statistiche, si definiscono anche gli errori in cui lo sperimentatore
può incorrere:
12
1. errore di tipo I → respingere l’ipotesi nulla quando questa è vera, cioè
considerando significativo l’effetto della variabile indipendente quando
invece non lo è;
2. errore di tipo II → accettare come vera l’ipotesi nulla quando invece è falsa,
considerando nullo l’effetto della variabile indipendente quando invece tale
effetto è significativo.
7.4. Il controllo
Controllo = qualsiasi mezzo impiegato per neutralizzare le possibili minacce alla
validità di una ricerca. Nel concetto di controllo, si distinguono due aspetti, la cui azione
complementare garantisce la validità della ricerca:
➔ esperimento di controllo: consiste nell’utilizzare un secondo gruppo di soggetti
chiamato gruppo di controllo, del tutto omogeneo al gruppo sperimentale al fine di
verificare l’efficacia della variabile indipendente. Può agire in tre modalità:
13
◆ confronto tra il rendimento del gruppo sperimentale in cui la variabile
indipendente viene manipolata, con quello del gruppo di controllo in cui la
variabile indipendente non viene manipolata. (es. ai soggetti del gruppo
sperimentale viene somministrato un farmaco, agli altri no)
◆ confronto tra il rendimento del gruppo sperimentale, che riceve un livello di
trattamento, con il rendimento del gruppo di controllo, che riceve un diverso
livello di trattamento: in questo caso la variabile indipendente viene
manipolata dallo sperimentatore in entrambi i gruppi, ma a due livelli diversi
(es. si somministra il farmaco ai due gruppi ma con un dosaggio diverso)
◆ confronto tra i rendimenti ottenuti dallo stesso gruppo sperimentale
sottoposto a differenti livelli della stessa variabile indipendente. Questa
situazione è chiamata condizione di controllo in quanto lo stesso gruppo
funge da controllo a se stesso. Si parla di esperimenti entro i soggetti, in
quanto le differenze tra i trattamenti sono esaminati entri i singoli soggetti;
nei casi precedenti invece, in cui differenti condizioni sono esaminate tra
soggetti diversi, si parla di esperimenti tra i soggetti.
➔ controllo sperimentale: modalità con cui lo sperimentatore cerca di limitare o
controllare le fonti di variabilità nella ricerca; permette quindi di affermare che i
cambiamenti della variabile dipendente sono dovuti esclusivamente alla
manipolazione della variabile indipendente e non all’intervento di altre variabili
esterne. Il tipo di controllo sperimentale più generale è la definizione dell’ambiente o
setting, generalmente riprodotto in laboratorio, tenendo sotto controllo variabili
estranee. Il laboratorio permette inoltre di tenere costanti tutte le variabili che non
sono eliminabili dallo sperimentatore.
14
l’interazione con il mondo sulla base di queste verbalizzazioni dà come risultato le conseguenze
specificate dalla verbalizzazione.
Queste regole hanno importanti proprietà specifiche:
➔ precisione = il numero di modi in cui un evento può essere spiegato con un set di
concetti analitici (meno sono, meglio è);
➔ ampiezza = il numero di eventi che possono essere spiegati con un set di concetti
analitici (più sono, meglio è);
➔ profondità = la connessione e la mancanza di contraddizione tra approcci ben
stabiliti in domini differenti della scienza;
➔ unità analitica = il risultato di regole verbali, prevedere, influenzare, descrivere,
interpretare, capire, ecc.
Sebbene la conoscenza scientifica sia legata alla conoscenza empirica, essa rimane una
forma di conoscenza verbale. Ma come generiamo e costruiamo queste verbalizzazioni scientifiche?
Sono le metafore radice che forniscono le basi per generare le teorie e i sistemi teorici, e i
criteri di verità che forniscono le basi per la valutazione delle teorie e dei sistemi teorici
all’interno della metafora radice stessa.
Nella psicologia, gli obiettivi pratici dell’impresa sono la predizione e l’influenzamento
degli eventi psicologici di importanza pratica: sono quindi finalità analitiche. Le proprietà
specifiche della scienza sono fondamentali per la psicologia.
15
8.1. La scienza come base della psicologia applicata
Gli psicologi hanno bisogno di una conoscenza scientifica che li informi su cosa fare per
essere efficaci con le specifiche persone e all’interno degli specifici contesti con cui essi lavorano.
Questa conoscenza deve spiegare come cambiare le cose che sono accessibili allo psicologo in
modo che possano essere ottenuti risultati migliori.
Gli psicologi necessitano una conoscenza che abbia ampiezza, poiché spesso si trovano a
dover fronteggiare situazioni nuove con inusuali combinazioni di caratteristiche.
Modelli ampi e teorie sono necessari nel contesto della pratica perché forniscono una base
per l’uso della conoscenza quando ci si confronta con una nuova situazione o un nuovo problema, e
suggeriscono in che modo sviluppare nuovi tipi di tecniche pratiche. La teoria e i modelli rendono
la conoscenza scientifica più insegnabile.
La conoscenza è migliore se acquisita attraverso regole attentamente testate e sistematizzate
basandosi sull’esperienza verificabile. Quest’approccio è di aiuto specialmente quando il compito è
complesso e gli esiti probabilistici.
La storia del genere umano mostra come la scienza sia unica a livello di efficacia nel creare
una conoscenza progressiva verbalmente espressa.
Quando la scienza e l’esperienza diretta confliggono, spesso la scienza è una scelta
lungimirante: come strumento per creare conoscenza che permetta di creare nuove conoscenze, la
nostra esperienza come specie umana mette al primo posto la conoscenza scientifica.
16
CAP. 2 - GLI ELEMENTI DELLE INTERAZIONI
17
2. L’oggetto dell’analisi: il comportamento e le sue caratteristiche
L’aspetto fondamentale che caratterizza la psicologia è quello di essere la scienza che studia
il comportamento umano. Quando si affronta lo studio del comportamento è necessario tenere
presente due aspetti:
1. Il comportamento è un evento globale: implica e coinvolge tutti gli aspetti della
persona (es. quando un uomo rischia di essere investito, prova emozioni di paura, si
attivano i circuiti cerebrali relativi alla memorizzazione, comportamento verbale,
ecc.).
2. Il comportamento è un evento incarnato: comportarsi è una caratteristica
ineliminabile degli esseri viventi. Se ogni comportamento è comunicazione, e non è
possibile non comunicare, allora non è possibile non comportarsi.
Comportamento è quindi ogni interazione di un individuo con i propri simili e con
l’ambiente circostante; per ossimoro comprende quindi tutte le manifestazioni umane, osservabili e
non. L’oggetto dell’osservazione non è fisso e immutabile, e la soglia di osservabilità di un evento
varia a seconda di almeno tre fattori: il contesto dell’osservazione, le caratteristiche dell’osservatore
e gli strumenti tecnologici dell’osservazione.
I comportamenti possono essere descritti lungo due dimensioni o assi di un continuum:
l’asse innato-appreso e l’asse semplice-complesso. L’incrocio tra questi due assi dà vita a quattro
tipologie di comportamenti possibili:
1. Comportamenti innati-semplici (es. riflesso di suzione del bambino)
2. Innati-complessi (es. linguaggio delle api o comportamento delle formiche)
3. Appresi-semplici (es. abilità grossomotorie)
4. Appresi-complessi (es. il linguaggio umano)
18
I comportamenti innati sono caratterizzati dalla loro automaticità, non richiedono sforzo nè
tempo per essere migliorati. Ma lo svantaggio risiede nella loro rigidità che non consente modifiche
a livello individuale, ma solo a livello di specie.
I comportamenti appresi sono dispendiosi in termini di energia e tempo e soggetti ad
errore, ma sono più flessibili e modificabili dall’individuo.
Gli assi descritti non vanno intesi come un modello descrittivo statico, ma come espressione
di due continuum lungo le cui innumerevoli sfumature si va a collocare uno specifico
comportamento: non è statico. Ad esempio, il comportamento semplice innato di un neonato è in
evoluzione, con la crescita può passare sotto il controllo volontario del bambino.
19
L’evento psicologico è quindi funzione, per Kantor, di uno stimolo e una risposta della
storia individuale, della situazione ambientale in cui stimolo e risposta compaiono e del mezzo
attraverso cui organismo e ambiente vengono a contatto. La funzione-stimolo di un oggetto varia in
rapporto ai contatti che un organismo ha avuto con esso: dipende dalle risposte che in sua presenza
l’organismo ha emesso. Analogamente allo stimolo, la risposta non è un evento statico, ma il fattore
dinamico in una situazione complessa, uno degli elementi di una interrelazione psicologica.
Se stimolo e risposta sono interdipendenti, dovrebbe esistere qualche meccanismo che renda
possibile determinare quale funzione stimolo e quale funzione risposta entrino in gioco in un dato
momento. Kantor individua questo meccanismo in un evento evolutivo che inizialmente chiama
“biografia reazionale” e, successivamente, storia interazionale. La storia intercomportamentale di
un individuo si compone di due aspetti: da un lato lo sviluppo delle risposte e delle loro funzioni,
dall’altro lo sviluppo delle funzioni degli stimoli.
La storia interazionale è parte integrante di ogni evento psicologico e contribuisce a
determinare le caratteristiche funzionali della risposta e dello stimolo, definendo in tal modo i
significati degli atti.
Per riassumere: una risposta dipende dalla storia interazionale con lo stimolo, e la sua
funzione funzione può modificarsi al variare di quest’ultimo, anche se mantiene caratteristiche
motorie identiche rispetto alle precedenti.
Le caratteristiche ambientali, che egli definisce eventi situazionali, sono componenti
intrinseche all’atto interazionale e comprendono sia le condizioni fisiche dell’ambiente
(temperatura, luogo, ecc), sia quelle dell’organismo (fatica, alcool, stato di salute, ecc). Tali fattori
interessano l’individuo che agisce, lo stimolo e l’interazione nel suo complesso, determinando
pesantemente quali possibili funzioni dello stimolo e della risposta saranno messe in opera in quella
determinata situazione.
Infine, il mezzo di contatto è rappresentato dalle “periferiche” con cui un organismo entra in
rapporto con il mondo esterno, cioè i nostri sensi.
20
Particolare rilievo viene dato agli eventi situazionali perché sottolineano la visione
contestuale e interazionale della psicologia e permettono di considerare congiuntamente il soggetto
insieme con il suo ambiente.
21
È importante ricordare che lo stimolo è inteso come unità dinamica e non statica: uno
stimolo sonoro, ad esempio, è in realtà il passaggio da assenza di suono a presenza di suono.
22
4.2. Risposte e riflessi
La risposta (R) è un’azione che risponde a un evento precedente, ossia lo stimolo. Ma come
uno stimolo non è definito in termini di risposta, così una risposta non è definita come qualcosa
causata da stimoli.
Non esiste una singola risposta, esistono classi di risposte, cioè forme diverse di
comportamento che svolgono la stessa funzione. Non tutte le risposte di un organismo interessano
la psicologia: solamente quelle che rappresentano dei comportamenti, cioè costituiscono
l’interazione di una parte delle attività dell’individuo con una parte delle attività dell’ambiente.
Le modalità di produzione di una risposta si classificano in:
➔ Risposte elicitate: reazioni involontarie che seguono automaticamente alla
presentazione di uno stimolo (es. contrazione della pupilla, salivazione, riflesso di
difesa). Il legame causale tra stimolo e risposta è di tipo elicitante; uno stimolo
elicita, cioè produce, una specifica risposta. Il riflesso è una relazione funzionale
non appresa tra uno specifico stimolo e una specifica risposta. Non appreso significa
semplicemente che un organismo generalmente mostra la relazione senza
semplicemente una storia di apprendimento.
➔ Comportamenti emessi: non sono l’effetto in senso causale-deterministico di uno
stimolo ambientale specifico; bisogna considerare la storia di interazioni del
soggetto con l’ambiente fisico e sociale. Questo fa sì che in alcune situazioni siano
più probabili e frequenti che in altre. Comprendono tutta la gamma delle
manifestazioni umane e rappresentano il modo in cui un organismo agisce su e
modifica l’ambiente.
Anche se la risposta può essere definita in termine di azioni degli effettori di un organismo,
il termine si riferisce spesso all’effetto di tale azione sull’ambiente. Per questo motivo è necessario
introdurre il concetto di topografia della risposta → forma, durata, intensità e occorrenza di una
risposta.
23
Es. Fare una doccia a 28°: la valenza e quindi l’interazione di questo stimolo sul nostro
organismo sarà molto diversa a seconda che si verifichi a dicembre o ad agosto. Lo stimolo acqua è
fisicamente del tutto identico nelle due situazioni, ma la nostra reazione sarà diversa. Questo
permette anche di evitare la categorizzazione degli eventi stimolo in positivi e negativi; non
possono essere di per sé appetibili o avversivi, ma lo diventano in un determinato contesto.
24
nella percezione noi mettiamo insieme lo psichico con il fisico; può andare dallo psichico al fisico e
dal fisico allo psichico. Il modo tradizionale di raccontare la catena psicofisica è questo: partiamo
dalla mela, l’occhio invia dei segnali nervosi che arrivano alla corteccia occipitale dei due emisferi,
arrivano alla corteccia visiva del cervello e dopo di che vediamo la mela (per fare questo ci
vogliono 50/200 millisecondi, è un tempo piccolo ma non piccolissimo).
La catena psicofisica si divide in tre momenti:
stimolo distale → stimolo prossimale → percetto
➔ stimolo distale: evento o oggetto fisico che è all’origine del percorso causale che è
quello della percezione;
➔ stimolo prossimale: modificazione fisica del corpo del percepiente a seguito
dell’effetto esercitato dallo stimolo distale; in sintesi è la stimolazione che avviene
all’interno dell’organismo di senso;
➔ percetto: contenuto mentale che noi vediamo quando vogliamo vedere il mondo
esterno.
A prima vista il modello della catena psicofisica sembra molto ragionevole ma rileva
problemi insolubili: ad esempio, è molto dubbia la nozione di percetto; la divisione dei due stimoli è
arbitraria, perché tra i due esistono innumerevoli cause intermedie; inoltre, come si passa dallo
stimolo prossimale al percetto? E quale relazione esiste tra il percetto e lo stimolo distale?
Un altro termine che viene preso in esame è l’oggetto percepito che ammette molteplici
connotazioni:
➔ Oggetto fisico: descritto dalla scienza, costituito da campi di forza, legami
elettronici, particelle elementari, completamente descrivibile da equazioni
matematiche;
➔ Oggetto quotidiano: si incontra continuamente nell’esperienza quotidiana; costituito
da qualità familiari;
➔ Oggetto fenomenico: oggetto dell’esperienza in quanto esperienza, costituito solo
dalle sensazioni e percezioni;
➔ Oggetto percepito: attraverso l’oggetto fenomenico percepiamo qualcosa che
fenomenico non è perché attraverso la percezione di sensazioni arriviamo a percepire
il mondo esterno;
➔ Oggetto intenzionale: penso di vedere Claudio eppure mi sbaglio, ma per un attimo
ho creduto di averlo visto. L’oggetto intenzionale normalmente coincide con tutti gli
altri ma in casi particolari mostra la sua autonomia.
25
1.2. Sensazione e percezione
La relazione tra mondo esterno e mondo interno ha indotto a supporre un momento
intermedio tra la percezione e il mondo fisico: la sensazione. Secondo la tradizione, il mondo
esterno determina delle modifiche e questa modifica è la sensazione, che quindi è stata spesso
intesa come un’alterazione passiva del corpo a seguito del mondo esterno.
Il problema maggiore del termine è che si trova a cavallo tra il mondo fisico e il mondo
mentale. Dire che la sensazione non è altro che “un’impressione soggettiva immediata e semplice
che corrisponde ad una determinata intensità dello stimolo fisico” (Goldstein) è inutile in quanto
non ci dice nulla su come dovrebbe avvenire la corrispondenza tra stimoli fisici e quantità
soggettive semplici.
Nel momento in cui vogliamo comprendere i meccanismi che stanno alla base della
percezione, dobbiamo necessariamente prendere in considerazione la struttura sensoriale che rende
possibile la percezione del mondo esterno.
La tradizione assegna all’essere umano cinque sensi: la vista, l’udito, il gusto, il tatto e
l’odorato. L’esistenza di un senso dipende dall’avere una certa struttura sensoriale che ci permette
di essere sensibili a una certa categoria di fenomeni: per la vista, l’occhio ci permette di essere
sensibili ai fenomeni visivi; per l’udito, le orecchie ci permettono di essere sensibili alle onde di
pressione che trasmettono i fenomeni uditivi; per il tatto, la pelle; per l’odorato, il naso; per il gusto,
la bocca e la lingua.
In ognuno di questi casi, l’organo permette di essere sensibili a qualcosa perché contiene
delle cellule sensibili a certi fenomeni. La funzione dei recettori è quella di trasformare un certo
fenomeno fisico esterno in un segnale nervoso.
In realtà, il numero di tipi diversi di sensi è molto più grande a causa del fatto che esistono
tipi di recettori che non rientrano nell’elenco appena fatto:
➔ PROPIOCEZIONE: capacità di percepire la posizione dei nostri arti in movimento;
➔ SENSO CINESTETICO: rappresentato dalle strutture contenute nell’orecchio
interno dette labirinto, strutture che ci informano della nostra posizione nello spazio.
La sensazione è tradizionalmente distinta dalla percezione.
Normalmente si definisce la sensazione come una modificazione soggettiva che il corpo o
la mente subiscono a seguito di uno stimolo esterno.
La percezione è la ricostruzione oggettiva dello stimolo esterno che ha causato lo
stimolo soggettivo. Il corpo subisce degli stimoli da oggetti ed eventi esterni. in seguito a questi
stimolo il corpo si modifica, tali modifiche sono dette sensazioni. Da qualche parte le sensazioni
26
vengono organizzate insieme per ricostruire la natura dell’oggetto o eventi esterni. La ricostruzione
viene detta percezione.
27
➔ La psicofisica oggettiva secondo cui le sensazioni possono essere misurate in base
allo stimolo e alla via sensoriale seguita.
➔ La psicofisica soggettiva secondo cui i soggetto interviene attivamente nel processo
di misurazione dello stimolo, l’unità di misura diventa soggettiva.
28
➔ gli oggetti esistenti che non sono percepiti come reali perché non producono un
effetto comune → oggetti reali percepiti in maniera totalmente diversa. Es. Cervino
descritto in modo completamente diverso nei due versanti.
Da un punto di vista empirico, come possiamo distinguere due entità nel momento in cui
hanno gli stessi effetti? La causa è definita dall’effetto e l’esperienza non è composta da una causa
reale e da una sua apparenza, bensì causa ed effetto sono due modi di vivere dello stesso processo,
apparenza e realtà sono due prospettive limitate.
2. Modelli di percezione
La percezione deve spiegare come sia possibile che il soggetto faccia esperienza di ciò che è
altro da lui e si trova nel suo ambiente.
Per quanto riguarda i modelli abbiamo due grandi categorie:
➔ modelli indiretti: reputano che non si faccia veramente esperienza del mondo
esterno, ma di qualche altra cosa che sta tra il mondo esterno e noi
➔ modelli diretti: cercano di spiegare la percezione in un contesto ecologico-
relazionale che la vede come un processo che avviene tra soggetto e ambiente. Il
vantaggio è che non devono introdurre entità mentalistiche dubbie. Il loro svantaggio
è che riescono con difficoltà a spiegare situazioni quotidiane.
29
➔ percezione come generazione di attività fisico-chimiche-neurali isomorfe agli
stimoli percepiti;
➔ percezione come produzione di un modello a realtà virtuale del mondo esterno:
in questo caso si ricorre alle metafore erronee derivate dalle tecnologie più recenti
per giustificare un modelle empiricamente e teoricamente debole;
➔ percezione come produzione controllata di immagini mentali
30
In sintesi: il mondo è fatto di fenomeni fisici e oggetti. Quando il percipiente è posto di
fronte a tali oggetti, i suoi sensi producono atti sensoriali che sono diversi dalle proprietà reali
dell'oggetto, ma che costituiscono il primo livello della percezione. La mente, sulla base di
associazioni tra esperienze, deriva inconsciamente che quei dati sensoriali sono un certo oggetto
esterno che è il vero contenuto della percezione cosciente.
Abbiamo però 3 problemi:
➔ Problema empirico: la complicata spiegazione di questo approccio non è
empiricamente verificabile in quanto né i dati sensoriali, ne le inferenze inconsce
sono misurabili;
➔ Problema epistemico: il modello non è chiaro circa il modo in cui la mente inizia ad
associare dati sensoriali a oggetti esterni e inoltre non spiega come le interferenze
possano corrispondere a particolari contenuti mentali;
➔ Problema ontologico: legato alle numerose entità coinvolte che non sono facilmente
riducibili in termini fisici.
32
La chiave per risolvere il problema della percezione potrebbe consistere nel mettere in
dubbio una delle ipotesi sulle quali si fondano gran parte dei modelli di percezione indiretto: il
soggetto e il mondo percepito sono effettivamente entità separate e contrapposte oppure sono due
momenti di un medesimo insieme?
Il primo autore da prendere in considerazione è lo svizzero von Uexül. Secondo Von
Uexkul, ciascun individuo vive nel suo mondo personale. Confrontando organismi diversi,
esemplari di specie diversa potevano occupare lo stesso ambiente fisico ma avere
un’esperienza completamente diversa di esso.
La nozione di cross section sviluppata da Edwin Holt afferma che una cross section
somiglia al mondo personale, nel senso che consiste in una sezione dell’ambiente sulla base delle
caratteristiche particolari di un certo soggetto. Cos’è esattamente una cross section? Secondo Holt,
la coscienza è estesa sia nello spazio sia nel tempo: nello spazio, in quanto i suoi oggetti sono estesi
e la coscienza è parzialmente costituita da tali oggetti nella misura in cui tali oggetti sono percepiti
da essa; è estesa nel tempo nella misura in cui i suoi oggetti sono estesi nel tempo.
Possiamo concepire la cross section come una sezione dell’ambiente definita da una certa
relazione con il soggetto.
Nell’ambito della percezione ecologica, l’autore più importante è sicuramente Gibson, il
quale ha proposto un modello della percezione che rifiutava ogni ricorso all’informazione
interna al sistema. Secondo Gibson, ci sono due termini fondamentali da tenere in considerazione:
➔ affordance: esprime ciò che ogni elemento dell’ambiente consente all’agente in
termini di azioni. Un’affordance esprime un’indicazione in due direzioni, verso
l’ambiente e verso l’osservatore.
➔ informazione ambientale: ciò che si percepisce non è una creazione interna della
mente, ma qualcosa di già presente nell’ambiente. Secondo Gibson l’ambiente non è
ricostruito a partire da un’immagine mentale, ma è percepito direttamente.
L’informazione è là fuori, aspetta soltanto di essere raccolta (pick up). Come avviene questa
raccolta? Gibson sviluppa l’idea della risonanza tra un sistema e certi aspetti del mondo esterno.
L’informazione non sarebbe elaborata ma colta direttamente attraverso la risonanza tra un sistema
fisico e il suo ambiente. La risonanza tra un sistema e il suo ambiente può essere intesa in due modi:
➔ relazionale: il contenuto della percezione è creato dalla relazione tra un certo agente
e il suo ambiente. Non esiste autonomamente;
➔ oggettuale: l’informazione è presente comunque nell’ambiente e negli oggetti che
l’ambiente contiene. Non è derivata dall’interazione con l’agente.
33
2.7. Percezione attiva ed enattivismo
L’enattivismo ha proposto di considerare non solo l’esistenza di invarianti nell’ambiente,
ma anche l’insieme di combinazioni sensoriali-motorie tra l’organismo e quell’oggetto.
Secondo l’enattivismo, l’esperienza di un certo organismo è racchiusa dentro la “struttura
dinamica”, ovvero delle possibili combinazioni di percezioni-azioni, tra quell’organismo e
l’ambiente. L’esperienza corrisponde alla conoscenza sensoriale e motoria di un organismo nei
confronti del suo ambiente.
Noë afferma che la nostra capacità di percepire è costituita dalla nostra coscienza sensoriale-
motoria e dalla nostra possibilità di usarla.
L’appello all’azione quale principio esplicativo non è esente da dubbi: che rapporto esiste
tra la percezione attiva e la percezione ecologica? I due approcci non sono necessariamente
identici. Il ruolo assegnato all’azione è compatibile con un sistema computazionale classico basato
su rappresentazioni simboliche o pittoriche interne: il sistema potrebbe limitarsi a trarre vantaggio
da determinate azioni e movimenti per trarre interferenze e produrre rappresentazioni e mappe
interne più precise. Analogamente, un sistema ecologico potrebbe essere passivo nella misura in cui
l’informazione è considerata già presente e completa nel suo ambiente circostante.
Il mondo personale dipende dalle caratteristiche fisiche, sensoriali, cognitive di un
organismo.
Utilizzando opportuni strumenti, l’essere umano può modificare il proprio Umwelt. Ciò
permette alle persone di vivere in un mondo personale diverso.
Portando alle estreme conseguenze quest’idea di mondo persona, ognuno di noi è il proprio
mondo personale e la distinzione con il mondo esterno viene a cadere.
34
L’occhio è una struttura cava nella quale la luce può entrare soltanto da un foro collocato
sulla parte anteriore. Il motivo del foro è che in questo modo i raggi luminosi provenienti dal mondo
esterno possono passare solamente se incidenti sul forellino.
Già da questo semplice modello, vediamo che emergono alcuni problemi. Il primo è che, per
motivi tecnici e pratici, nel caso di strutture realizzate dall’uomo, il tipo di superficie più comune è
quello della superficie piana. Il secondo problema è che l’immagine è apparentemente rovesciata.
Il primo a porre in termini moderni il problema del ribaltamento dell’immagine del mondo
esterno è stato il matematico e astronomo Johannes Kepler. Egli stesso riconobbe che la spiegazione
della visione in termini di immagini otticamente catturate dall’occhio era gravemente insufficiente.
3.1.2. La retina
Durante il Rinascimento, si affermano nuove teorie della luce che propongono l’esistenza
di corpuscoli che trasmettono le proprietà della luce.
Fu Keplero a suggerire che sono i “razzi” di luce a entrare dentro l’occhio e non viceversa e
che l’occhio non ha una semplice struttura cava. Più o meno negli stessi anni, Galileo presenta la
sua teoria della Luna, ponendosi il problema della verità delle immagini passate attraverso una
lente. Sempre negli stessi anni, Scheiner si avvicina a questi problemi: studia anatomicamente
l’occhio e produce il primo modello corretto dell’occhio con l’asse ottico e il nervo ottico non
coincidenti.
Quello che avviene nella retina è che un tipo di fenomeno (la luce) viene trasformato in un
altro tipo di fenomeno (l’attività neurale). I due fenomeni sono diversi e quindi avviene un qualche
tipo di trasformazione (trasduzione). Eppure la percezione è sempre percezione di luce e non di
semplice attività neurale.
Da un punto di vista fisiologico, la retina ha una struttura rovesciata. La struttura
rovesciata fa sì che la luce debba attraversare tutti gli strati di cui è comporta prima di giungere
alla parte fotosensibile. Ciò ha due grossi svantaggi: la parte fotosensibile della retina è dalla parte
opposta rispetto a quella dove arriva la luce e i fasci neurali devono uscire “bucando” la retina (e
quindi provocando la macchia cieca).
La luce, dopo aver attraversato gli stati di cui è costituita la retina, giunge alla parte
fotosensibile della retina: i fotorecettori. Questi non sono altro che neuroni modificati: invece di
avere delle sinapsi sensibili alla presenza di neurotrasmettitori, sono sensibili a certi eventi chimici,
in questo caso alla luce. Contengono, infatti, delle sostanze chimiche in grado di reagire quando
colpite dalla luce e in grado di trasformare l’energia luminosa in attività chimica.
I fotorecettori sono di due tipi, denominati sulla base della loro forma:
➔ bastoncelli: responsabili della percezione dell’intensità luminosa, percentualmente
più numerosi in periferia rispetto alla parte centrale.
➔ coni: meno allungati, responsabili della percezione cromatica, molto più densi nella
parte centrale. Sono di tre tipi, ognuno dei quali è particolarmente sensibile a una
36
frequenza diversa delle onde elettromagnetiche. Questi tre tipi di coni corrispondono
ai tre colori primari (rosso, giallo, blu). Non percepiamo direttamente i colori, ma li
percepiamo come rapporto tra le quantità dei tre colori primari.
La retina non è soltanto di forma irregolare, ha una cattiva risoluzione in periferia ed è anche
cieca ai colori.
37
L’equivalente di un’onda, in un’immagine, è una superficie ondulata che oscilla
periodicamente in una certa direzione passando da valori chiari a valori scuri.
L’occhio umano non percepisce tutte le frequenze con la stessa precisione. La curva di
sensibilità umana è diversa per frequenze spaziali. In generale, quanto più un’immagine è ricca di
dettagli, quanto più utilizza le frequenze elevate.
3.2. Il colore
Che cos’è un colore? Non sono né una pura proprietà fisica del mondo, né una pura
proprietà psicologica o fenomenica.
Con Newton la teoria dei colori si intreccia con la teoria della luce. Fino a Newton i colori
erano legati agli oggetti o alle proprietà della mente che si rappresentava quegli oggetti. Tuttavia,
resta confuso il rapporto tra i colori e le sensazioni dei colori. Newton scrive che i colori
dell’oggetto non sono altro che una disposizione a riflettere questo o quel tipo di raggio più
copiosamente di altri; nei raggi, essi non sono che la loro disposizione a propagare questo o quel
moto nell’apparato sensoriale, e nell’apparato sensoriale essi diventano sensazioni di quei moti
sotto forma di colori.
38
bianco sotto luci diverse. Il problema è che la curva di riflettanza non è un evento fisico, ma un
modello astratto di una certa situazione.
3.3. Lo spazio
Lo spazio intorno a noi è una delle percezioni più immediate e più utili. Fin da bambini
siamo capaci di percepire la distanza e la posizione degli oggetti. Eppure pochissime delle
informazioni sensoriali che riceviamo sono esplicitamente spaziali: solo il tatto e la propriocezione.
40
4. Percezioni particolari
41
4.2. Illusioni e paradossi
Uno degli aspetti più divertenti della percezione è costituito dall’esistenza di situazioni che
sembrano mettere alla prova le capacità del nostro sistema visivo.
Generalmente queste situazioni sono dette illusioni, in quanto si ritiene che siano casi in cui
si percepisce qualcosa di diverso dall’oggetto esterno.
Si deve prestare attenzione alla differenza tra illusioni in quanto tali, costituite da situazioni
nelle quali il contenuto fenomenico è diverso da quello che ci si aspetterebbe in circostanze normali
e immagini “paradossali o impossibili” che sono perfettamente usuali da un punto di vista
fenomenico, ma conducono a interpretazioni o letture apparentemente paradossali.
42
CAP. 4 - APPRENDIMENTO: LA MADRE DELLE INTERAZIONI
UMANE
43
➔ conoscenza ottenuta per mezzo dello studio o dell’istruzione
➔ atto di acquisire una conoscenza o un’abilità
➔ modificazione comportamentale che ne consegue, o viene indotta da, una interazione
con l’ambiente e come risultato di esperienze che conducono allo stabilirsi di nuove
configurazioni di risposta agli stimoli esterni.
Queste tre definizioni mettono in luce almeno due diversi aspetti dell’apprendimento:
processo di interazione con l’ambiente, che può avvenire spontaneamente o essere prodotto
intenzionalmente, e le nuove acquisizioni cui questa interazione dà luogo.
Per una definizione classica di apprendimento ci rifacciamo a Hilgard e Bower (1975).
Secondo questi autori:
Il concetto di apprendimento si riferisce al cambiamento di comportamento di un soggetto di fronte
a una data situazione per il fatto che quella situazione sia stata sperimentata ripetutamente
ammesso che il cambiamento del comportamento non possa essere spiegato con tendenze innate
alla risposta, maturazione o stati temporanei del soggetto.
In un manuale di ispirazione cognitiva (Darley, Glucksberg, Kamin, Kinchla - 1984)
l’apprendimento è definito come l’insieme di quei comportamenti relativamente stabili nel
comportamento che sono le conseguenze delle passate esperienze. Questi cambiamenti hanno una
funzione adattiva.
Nel 1984 Catania nel suo volume ‘Learning’ afferma che una definizione di apprendimento
risulta tutt’altro che facile, in quanto l’apprendimento ha significato cose differenti in tempi diversi
e per persone diverse.
3. Apprendimento e cambiamento
Uno dei concetti perno dell’apprendimento è che l’apprendimento implica cambiamento.
Lungo una dimensione temporale, tra un comportamento considerato in due diversi momenti t 1 e
t2, si deve poter riscontrare una differenza, includendo nel termine differenza il fatto che al t2
compaia una comportamento che al t1 non esisteva.
Il processo di apprendimento non è direttamente osservabile, deve essere osservabile il
cambiamento. Vi sono due diversi modi per osservare questo cambiamento:
➔ confrontare la prestazione di un soggetto in due tempi diversi tra i quali viene fatta
agire una variabile che si ipotizza possa produrre il cambiamento;
➔ confrontare la prestazione di almeno due gruppi di soggetti, uno sperimentale
composto di individui che abbiano interagito con una specifica esperienza (la
variabile), l’altro di controllo composto di soggetti che non abbiano fatto analoga
esperienza.
44
Il secondo concetto perno dell’apprendimento riguarda la sorgente del cambiamento:
l’apprendimento deriva dall’esperienza con una determinata situazione: in altre parole, la
sorgente del cambiamento va ricercata nell’ambiente.
Come vi sono cambiamenti comportamentali che non hanno come loro sorgente
l’interazione ambientale, allo stesso modo vi sono cambiamenti che, non mantenendosi nel tempo,
non costituiscono apprendimento. Vi sono poi dei cambiamenti che non costituiscono
apprendimento in senso stretto, ma ne hanno le premesse:
➔ assuefazione: diminuzione dell’intensità della risposta riflessa al ripetersi dello
stimolo (es. la prima volta in aereo provoca una serie di reazioni fisiologiche di
disagio; è sufficiente volare con una certe continuità per fare l’abitudine anche a quel
tipo di sensazioni); ha un evidente valore adattativo, in quanto impedisce a un
organismo di passare la sua vita reagendo a stimoli inutili;
➔ sensibilizzazione: aumento di intensità della risposta riflessa al ripetersi dello
stimolo; (es. una puntura non è particolarmente dolorosa, ma neanche piacevole; se
la cura si protrae per alcuni giorni, si potrà facilmente constatare come le reazione di
contrazione muscolare che anticipano l’iniezione diventano ogni giorno più evidenti
e forti: l’organismo si è sensibilizzato anziché abituarsi alle iniezioni).
Entrambi questi processi si instaurano piuttosto rapidamente, ma si estinguono altrettanto
rapidamente. Il fatto di mantenersi per un periodo più o meno lungo, in ogni caso non per sempre,
permette di perdere la tesaurizzazione di quelle esperienze che non hanno un valore adattivo o
addirittura possono risultare dannose per l’organismo.
5. I parametri di misura
Il comportamento degli esseri viventi presenta alcune caratteristiche che lo rendono
peculiare rispetto all’oggetto di studio di altre scienze. I processi di analisi e misurazione
dell’apprendimento, pur essendo rigorosamente sperimentali, si devono adattare alla psicologia.
Il comportamento è un elemento dinamico che deve essere misurato e perciò quantificato.
Bisogna quindi trovare un’unità di misura o parametro, come per altre variabili fisiche.
In psicologia si è a lungo utilizzato il concetto di forza della risposta. Quest’ultimo non è
tuttavia una vera e propria variabile dipendente: è un costrutto ipotetico che risulta dalla somma
teorica di altri parametri.
➔ Ampiezza: misura quantitativa, fondamentale per il paradigma pavloviano (es.
quantità di saliva nell’esperimento di Pavlov).
46
➔ Latenza: tempo che intercorre tra la presentazione di uno stimolo e la comparsa di
una risposta.
➔ Velocità: misura la stessa cosa ma in modo inverso.
➔ Durata: lunghezza del periodo di tempo durante il quale viene attivato. Qualunque
apprendimento può essere misurato in termini di durata.
➔ Frequenza: probabilità che una risposta si verifichi in una certa unità di tempo ed è
quindi il parametro elettivo per la misura di comportamenti liberamente emessi
nell’ambiente. Permette di evidenziare con immediatezza i cambiamenti avvenuti sia
nel breve che nel lungo periodo. Specifica inoltre l’ammontare del comportamento
attivato, dandone una precisa stima quantitativa.
➔ Numero di tentativi o prove: quante volte un compito o un giudizio vengono
ripetuti prima che un soggetto li abbia appresi e sia in grado di padroneggiarli.
47
7. Le interazioni rispondenti
Il paradigma sperimentale per lo studio dell’apprendimento messo a punto da Ivan Pavlov è
definito anche come condizionamento classico, rispondente o pavloviano. È un esempio di
serendipia, cioè di scoperta casuale avvenuta mentre il ricercatore studia un altro fenomeno. Pavlov
infatti, studiando l’attività digestiva dei cani, si accorse di alcuni fenomeni inaspettati per indagare
i quali mise a punto il paradigma sperimentale del condizionamento.
L’interesse per i processi digestivi spinse Pavlov a sviluppare diversi metodi di ricerca: uno
di questi consisteva nello studio della secrezione salivare deviando il dotto di una ghiandola salivare
dall’interno della bocca all’esterno della guancia. Ciò consentì a Pavlov di raccogliere e misurare la
saliva man mano che veniva prodotta introducendo nella bocca dell’animale polvere di carne o
soluzione acida.
La risposta di salivazione al contatto con questi elementi è per l’animale una risposta
involontaria e automatica. La comparsa di tale riflesso non è soggetta ad alcuna condizione se non
quelle previste dalla natura nel corso dell’evoluzione: per tale motivo viene chiamata risposta
incondizionale.
Pavlov notò inoltre che l’animale iniziava a salivare molto prima che il cibo avesse
raggiunto il suo muso: la risposta di salivazione era elicitata dalla vista del cibo e addirittura
dall’apparire dell’uomo che solitamente lo portava. Questa non era una reazione naturale e innata:
l’effetto dello stimolo che precedeva il cibo poteva essere compreso solo sulla base dell’esperienza
individuale dell’organismo. In qualche modo uno stimolo originariamente insignificante aveva
assunto per l’animale sperimentale un nuovo significato: quello di segnale anticipatorio della
comparsa del cibo.
Inizialmente Pavlov accettò la definizione comune di secrezione psichica che veniva data a
questo fenomeno per indicare appunto l’origine non fisiologica ma psicologica ed esperienziale del
riflesso. Tuttavia egli abbandonò questa spiegazione e si pose di fronte al fenomeno in una
posizione di fisiologo puro, cioè di osservatore obiettivo e di sperimentatore che considera soltanto i
fenomeno esteriori e i loro rapporti secondo il metodo delle scienze naturali.
Ciò che Pavlov sviluppò per lo studio sperimentale di nuove acquisizioni stimolo-risposta è
facilmente descrivibile. Un cane viene portato in laboratorio e sistemato in un apparato
sperimentale. Quando l’animale, dopo che gli è stata deviata la ghiandola salivare verso l’esterno, si
è familiarizzato con la situazione sperimentale, ha inizio l’esperimento vero e proprio. Al cane
vengono presentati in successione, per un certo numero di volte, due stimoli:
➔ piccola porzione di carne in polvere > elicita automaticamente e naturalmente la
salivazione > stimolo incondizionato
48
➔ suono a frequenza stabile e controllata > nessun effetto sulla salivazione > stimolo
neutro o indifferente.
La neutralità si riferisce a una specifica risposta, in questo caso alla salivazione, e non a tutte
le possibili risposte dell’organismo.
I due stimoli vengono presentati all’animale affamato in sequenza e a intervalli irregolari per
un certo numero di giorni. Controllando tutte le altre variabili, cioè gli altri stimoli che avrebbero
potuto entrare in gioco, Pavlov intendeva dimostrare l’origine non psichica della “secrezione
psichica”: in altre parole voleva provare uno che uno stimolo originariamente indifferente per la
salivazione poteva acquistare la capacità di elicitare la stessa risposta di un altro stimolo.
Dopo un certo numero di accoppiamenti, lo stimolo originariamente inefficace, presentato
da solo, produceva la salivazione. A questo punto si è verificato il condizionamento.
Quattro sono gli elementi di base che compongono il quadro dell’esperimento pavloviano:
➔ stimolo incondizionale (SI): in grado di provocare una risposta specifica da parte
dell’organismo. L’aggettivo “incondizionale” indica che la sua efficacia è naturale,
innata ma non completamente sganciata da condizioni contestuali (es. l’animale deve
essere affamato, altrimenti il condizionamento non si verifica). Lo SI viene chiamato
anche rinforzo in quanto consente di stabilire e mantenere la nuova relazione
stimolo-risposta;
➔ stimolo condizionale (SC): in partenza è uno stimolo neutro (SN). Se associato più
volte a quello incondizionale dopo un certo numero di presentazioni riesce a svolgere
la stessa funzione dello stimolo incondizionale producendo la risposta specifica;
➔ risposta incondizionale (RI): risposta specifica prodotta da uno stimolo
incondizionale (nell’esperimento di PAvlov, la salivazione è prodotta dalla polvere
di carne);
➔ risposta condizionale (RC): risposta allo stimolo condizionale.
Il riflesso incondizionale è una correlazione permanente tra un agente esterno e una
risposta dell’organismo.
Il riflesso condizionale la formazione di un nuovo legame temporaneo fra uno degli
innumerevoli fattori ambientali percepiti e una determinata reazione presente nel repertorio
dell’organismo.
Il condizionamento può essere concettualizzato come un processo di transfer funzionale
dello stimolo in base al quale uno stimolo (psicologico) precedentemente neutro acquisisce
temporaneamente la capacità funzionale di produrre la risposta originariamente provocata da un
altro stimolo.
49
Pavlov pensava che la presentazione simultanea degli stimoli incondizionale e condizionale
producesse il condizionamento più rapido.
Vi è infine un altro tipo di condizionamento, il condizionamento retrogrado, consiste nel
presentare lo stimolo incondizionale prima dello stimolo condizionale, ma è poco efficace.
Si potrebbe andare avanti all’infinito, ma in realtà questi condizionamenti ulteriori sono
meno duraturi e più difficili da attuare.
Un particolare caso di condizionamento di ordine superiore è rappresentato dal secondo
sistema di segnalazione che Pavlov eredita da Vigotsky, psicologo russo. Il primo sistema di
segnalazione è quello che l’uomo condivide con gli animali, e consiste nei meccanismi di
condizionamento nell’interazione con l’ambiente. Ma l’uomo non interagisce solo con gli stimoli
fisico-chimici dell’ambiente, ma anche con quelli sostitutivi della realtà.
50
9. Le interazioni operanti
Gli esseri umani operano sull’ambiente per dominarlo, trasformarlo e adattarlo alle loro
necessità. Ogni azione svolta in tal senso ha qualche effetto sul mondo circostante, che a sua volta
retroagisce sull’organismo: le conseguenze di un comportamento possono modificare la probabilità
che il comportamento che le aveva prodotte si verifichi ancora. Le conseguenze possono rendere un
apprendimento o un comportamento già stabilizzato ancora più forte, cioè più probabile, o meno
forte, quindi meno probabile, oppure possono lasciarne inalterate la forza e quindi la probabilità.
L’uso finalizzato delle conseguenze, ovvero la somministrazione di ricompense o punizioni,
è una teoria antica che risale ai tempi di filosofi ed educatori come John Locke o S. Ignazio di
Loyola. Ma l’analisi sistematica e sperimentale del rapporto tra un comportamento e le
conseguenze prodotte dall’ambiente devono essere attribuite a Skinner. Tale analisi è
conosciuta con il nome di paradigma del condizionamento operante.
Il clima in cui prendono avvio le ricerche sull’apprendimento non poteva non suscitare una
reazione: ne fu portavoce principale Lloyd Morgan (1894) che formulò quello che è noto come
criterio di parsimonia: in nessun caso si può interpretare un’azione come il risultato dell’esercizio
di una facoltà psichica inferiore o superiore. Secondo Lloyd Morgan gli animali apprendono solo
per tentativi ed errori e ciò che appare come intelligenza è solo il frutto dell’esperienza passata.
Questo criterio riprende il principio di parsimonia, meglio conosciuto come “Rasoio di Occam”:
evitare le entità inutili, cercare la via più semplice e più descrittiva per andare a delineare cosa ho
davanti. Tra due spiegazioni, la più semplice è quella corretta.
In questo clima culturale iniziò i suoi esperimenti Thorndike, uno psicologo americano.
Egli collocò un gatto all’interno di una gabbia, dalla quale poteva scappare solo agendo sul
meccanismo di chiusura della porta. Il gatto era libero di emettere una serie di comportamenti,
alcuni dei quali portavano casualmente all’apertura della porta, oltre la quale si trovava il cibo.
Ripetendo più volte questa esperienza, il gatto arrivava sempre più velocemente all’uscita e
sembrava risolvere il suo problema ragionando come fanno gli uomini, magari più lentamente.
Thorndike postulò che questo miglioramento graduale era dovuto all’apprendimento. Secondo
lo stesso studioso, l’apprendimento è costituito da una connessione S-R e tale connessione si
stabilisce solo se la risposta produce un certo effetto sull’ambiente. Se l’effetto è soddisfacente,
la connessione S-R si consolida, il comportamento viene impresso e si ripresenterà in una
situazione analoga. Nel caso di un effetto insoddisfacente, la connessione si indebolisce,
l’apprendimento non si fissa e l’azione tende a decadere. Questa è la legge dell’effetto. Il lavoro di
Thorndike è il primo tentativo sistematico di studiare sperimentalmente i cambiamenti prodotti dalle
conseguenze del comportamento.
51
Nel 1930 Skinner pubblica una breve monografia sul comportamento alimentare dei ratti,
nella quale viene descritto un metodo sperimentale che, con poche modifiche, è diventato standard
per lo studio del comportamento. Il suo metodo di analisi prende il nome di condizionamento
operante. Secondo Skinner vi sono due diverse classi di comportamento:
➔ classe rispondente: comprende tutte le risposte, condizionate o incondizionate, che
sono elicitate da stimoli conosciuti;
➔ classe operante: comprende tutte le risposte che sono emesse più o meno
indipendentemente da stimoli identificabili. Il termine “operante” indica il fatto che
il comportamente opera sulle condizioni ambientali, generando conseguenze.
Il metodo messo a punto da Skinner per lo studio del comportamento operante è piuttosto
semplice: l’apparato sperimentale (Skinner box) è costituito da una gabbia, a prova di luce e
suono,in cui si trova una leva da premere, collegata con un meccanismo di erogazione programmata
di conseguenze (generalmente dispensatore di cibo o acqua o una sorgente di stimolazione
negativa), entrambi collegati a loro volta con un registratore cumulativo di risposte.
La procedura prevede dapprima l’acclimatamento dell’animale, che si abitua a mangiare
nella vaschetta che fa parte del meccanismo di erogazione del cibo. Dopo 24 ore di deprivazione di
cibo, il ratto viene posto nella gabbia: l’animale è libero di esplorare l’ambiente. Entro 10-15
minuti, questa esplorazione porta generalmente a una pressione casuale della leva: la pressione della
leva è accompagnata dalla comparsa di una pallina di cibo nella vaschetta. Accade poi solitamente
che il ratto, una volta mangiata la pallina, ricominci a curiosare per la gabbia, prema ancora la leva
e così via. Le pressione della leva diventano sempre più frequenti e l’intervallo che separa una
risposta da un’altra diminuisce progressivamente.
54
memoria? In che cosa consiste la capacità umana di ricordare, quali caratteristiche ha e come può
essere governata?
Nel corso di più di un secolo di ricerca, a partire dai primi studi sperimentali di fine
Ottocento, molte procedure sperimentali, modelli e teorie sono stati elaborati per indagare la
capacità di ricordare, per misurarne i limiti e descriverne il funzionamento. Questi modelli hanno
permesso di prevedere, con una certa approssimazione, il comportamento umano quando si tratta di
ricordare eventi o memorizzare informazioni. Sono stati sviluppati metodi e strumenti finalizzati a
semplificare la memorizzazione e migliorare le abilità che comunemente abbiamo.
2. Lo sviluppo dei modelli della memoria
Gli studiosi di diversa estrazione hanno provato, fin dall’antichità, a descrivere la memoria
umana. I primi a farlo furono Platone e Aristotele, mentre il primo ad applicare un metodo
scientifico allo studio di questo tema fu lo scienziato tedesco Ebbinghaus.
Platone nel IV sec. a.C. fu il primo a cercare di descrivere il fenomeno della memoria
umana e lo fece con l’uso di una metafora. Egli paragonava infatti la memoria alle tavolette di cera
usate all’epoca per scrivere: come lo stilo lasciava delle tracce o incisioni sulla cera delle tavolette,
così l’esperienza lascia tracce nella nostra memoria. Queste tracce divengono con il tempo meno
nitide, ma finché sono presenti possono essere lette, ovvero ricordate.
Aristotele introdusse nel III sec. a.C. una visione associazionistica della memoria,
sottolineando come le informazioni del mondo esterno si fissino in memoria formando tra loro dei
legami, cosicché il ricordo di un’esperienza ne richiama altre in base alla loro somiglianza o
contiguità.
Il primo studioso ad occuparsi della memoria con approccio psicologico e sperimentale fu
Ebbinghaus, sul finire del XIX secolo. Il suo libro Memory: A contribution to experimental
psychology del 1885 presenta i risultati di una lunga serie di esperimenti, miranti a dimostrare come
anche fenomeni mentali complessi, come appunto la memoria, potessero essere studiati
rigorosamente attraverso il metodo scientifico.
Gli esperimenti che Ebbinghaus condusse erano finalizzati a semplificare il più possibile il
processo della memorizzazione e del ricordo di eventi, così da osservarlo senza l’interferenza di
altri fenomeni. Per questo utilizzò come stimoli liste di trigrammi privi di senso (per esempio DAX,
BOK, YJQ). La sua sperimentazione prevedeva di scrivere una lista casuale di questi trigrammi e
quindi cercare di memorizzarla leggendola a voce alta, con la stessa inflessione, seguendo la
cadenza regolare di un metronomo. In seguito, a diversi intervalli di tempo, misurava quanti
trigrammi riusciva a ricordare e quanto tempo gli era richiesto per poter memorizzare nuovamente
gli altri.
55
Uno dei fenomeni da lui individuati è quello della cosiddetta curva dell’oblio che descrive
il decadimento autonomo della memoria, mostrando come esso sia molto rapido inizialmente e
rallenti poi fino a quasi stabilizzarsi.
Questa caratteristica curva di decadimento viene spesso citata per sottolineare l’importanza
della ripetizione regolare del processo di acquisizione, ossia dello studio ripetuto.
56
a questi studenti di ripetere questi trigrammi nella testa o ad alta voce successivamente alla
somministrazione del materiale, il ricordo decadrebbe ma viene tenuto vivido grazie al ripasso.
Fin dai suoi albori, dunque, la psicologia sperimentale si occupa del fenomeno della
memoria. Così William James nel 1890 distingue fra:
● memoria primaria, contenente le informazioni primarie della coscienza (a breve
termine)
● memoria secondaria, contenente informazioni non più presenti nella coscienza (a
lungo termine).
George A. Miller, nel 1955, mise invece in evidenza con i propri esperimenti il limite degli
elementi memorizzabili, che descrisse in un articolo dal titolo “Il magico numero sette, più o
meno due”: ciascun essere umano è in grado di memorizzare temporaneamente sette elementi
privi di significato, con una variazione massima, da persona a persona, di due elementi in più o in
meno.
Nel 1968 Richard Atkinson e Richard Shiffrin propongono un modello di
funzionamento del processo di memorizzazione, sviluppato in analogia con il funzionamento dei
computer.
Tale modello prevede che l’informazione ricevuta dagli organi di senso venga prima di tutto
immagazzinata in un registro sensoriale, di capacità illimitata ma a rapido decadimento; essa viene
poi immediatamente trasferita, attraverso i processi dell’attenzione, in un magazzino di memoria a
breve termine (MBT), che contiene al massimo sette tracce ed è anch'esso soggetto a decadimento;
57
da qui, nel tempo limite di 30 secondi circa, l’informazione passa al magazzino della memoria a
lungo termine (MLT), pressoché illimitato e capace di stivarla per diversi minuti o anche per anni.
Nel 1972 Endel Tulving distingue fra:
● memoria autobiografica o episodica, relativa a date ed eventi personali
● memoria semantica, indipendente dall’esperienza personale.
Entrambe fanno parte del più ampio insieme della memoria cosiddetta dichiarativa o
proposizionale, dal momento che consentono di definire gli eventi sotto forma di proposizione. Si
distinguono quindi da un altro tipo di memoria, quella procedurale, che riguarda tutte le
conoscenze che possediamo circa lo svolgimento di una particolare attività, senza essere
necessariamente consapevoli di come e quando le abbiamo apprese.
Sempre nel 1972, Fergus Craik e Robert Lockhart indagano su cosa caratterizza le
informazioni che riusciamo a iscrivere più profondamente nella nostra memoria. Dopo attenti studi,
proposero il modello della profondità di codifica o dei livelli di elaborazione. Il cuore del modello
consisteva nel ritenere che la persistenza maggiore o minore di una traccia in memoria dipenda
dalla profondità con cui lo stimolo è stato elaborato in fase di codifica. I livelli di elaborazione
possono riguardare, con un progressivo aumento di profondità, le caratteristiche fisico-sensoriali
dello stimolo, il riconoscimento dello stimolo o l’identificazione dello stimolo. Maggiore è la
profondità di elaborazione, più resistente sarà la traccia mnestica.
58
Queste informazioni possono essere processate a livello molto superficiale, ad esempio solo
visivamente, mentre un livello più profondo comprende non solo un’analisi visiva, ma anche una
fonetica e il livello ancora più profondo riguarda anche un’analisi semantica.
59
3.1. Immagazzinamento
Il fenomeno del ricordo ha inizio con un immagazzinamento, o registrazione, dello stimolo
da ricordare.
È interessante rilevare da subito come, in realtà, ciò che un individuo ricorda non è mai lo
stimolo stesso, quanto piuttosto la risposta dell’individuo allo stimolo. Se per esempio pensiamo
alla classica situazione sperimentale di memorizzare delle parole scritte in una lista, ciò che il
soggetto ricorda, ovvero ciò che è in grado di ripetere, è la lettura di quelle parole.
Questa risposta dell’individuo allo stimolo da ricordare viene detta codifica. Il modo in cui
lo stimolo, cioè l’informazione, viene codificata, ossia trattata dall’organismo, incide sulla capacità
di ricordarla.
L’informazione può essere codificata sulla base delle sue proprietà semantiche, visive o
fonologiche, contestuali o episodiche, temporali e così via. Diverse proprietà possono essere
combinate per la codifica di un’informazione oppure essa può essere molto semplice e basarsi su
una sola proprietà.
L’attività di codifica è il primo comportamento attivato dopo la percezione del
contenuto da apprendere e quindi è il primo momento del processo mnesico vero e proprio: essa
comprende la percezione dell’informazione e l’astrazione di una o più caratteristiche
dell’informazione necessarie a per un’appropriata categorizzazione. Definendola in termini
molto generali, si può dire che essa consista in un insieme di attività messe in atto al momento
dell’acquisizione e che implicano l’analisi, la discriminazione, la selezione, l’elaborazione o
trasformazione dello stimolo.
La codifica in memoria richiede l’uso di un certo codice o rappresentazione che può
essere di tipo visivo, acustico o semantico.
I diversi modi di codificare l’informazione possono essere confrontati sulla base delle
probabilità di ricordo che derivano dal loro impiego. Cermak e Craik hanno descritto diversi livelli
di processazione delle informazioni che comportano, in caso di processazione superficiale, una
minor possibilità di ricordo che nel caso di una processazione più profonda.
Non si tratta di una teoria esplicativa di come funziona il ricordo, bensì di un modello
descrittivo che sottolinea come un ragionamento più complesso e creativo aumenti le probabilità di
ricordare.
Ciò che è importante rilevare è che la capacità di ricordare è un comportamento attivo che
l’individuo emette fin dal primo contatto con lo stimolo da ricordare.
60
Ci sono comunque delle variabili da considerare, come ad esempio:
● il momento della giornata
● lo stato psicofisico
● l’influenza del contesto sull’attenzione (luogo)
● il metodo e gli strumenti utilizzati
● la concentrazione (tempi, rituali, ecc.)
● la motivazione
3.2. Mantenimento
La metafora dell’immagazzinamento e recupero dell’informazione prevede che, nel periodo
che intercorre fra l’interazione con lo stimolo e il momento in cui si ricorda, questa informazione
venga stivata da qualche parte.
Non è corretto pensare che lo stimolo esterno che colpisce i nostri sensi venga
effettivamente portato, copiato o fisicamente rinchiuso nell’organismo. Esso produce una reazione
attiva da parte dell’organismo, che viene appresa e che si riproporrà nel momento del ricordo.
La metafora quindi è piuttosto debole in questa fase. A questa debolezza si aggiunge il fatto
che l’informazione immagazzinata non è passivamente ospitata, bensì è soggetta ad un’elaborazione
che può trasformarla.
Quella del mantenimento può dunque essere considerata una fase attiva in cui il ricordo
dell’individuo è soggetto potenzialmente a ulteriori modificazioni nel corso del tempo.
61
Per capirla basta osservare la curva dell’oblio di Ebbinghaus: aveva fatto memorizzare a un
campione sperimentale di studenti dei trigrammi, ovvero gruppi di tre lettere senza alcun
significato, e verificato quanti di questi trigrammi venivano ricordati. Di fatto si osserva che il
ricordo istantaneo è quasi vicino al 100%, ma che dopo 20 minuti è sceso sotto il 60%: quando un
materiale è stato elaborato visivamente, non è stato codificato profondamente e soprattutto non è
stato ripetuto, il ricordo di esso diminuisce sempre più. Se invece veniva suggerito a questi studenti
di ripetere questi trigrammi nella testa o ad alta voce successivamente alla somministrazione del
materiale, il ricordo decadrebbe ma viene tenuto vivido grazie al ripasso.
3.3. Recupero
Rappresenta l’obiettivo finale del processo di memorizzazione. Una volta memorizzata
l’informazione, questa viene considerata disponibile in memoria. Essa può in seguito essere
ricordata oppure no: se viene ricordata si dice che è accessibile, nel caso contrario viene definita
inaccessibile.
Il momento del recupero è quello in cui l’individuo si trova a dover riprodurre ciò che ha
memorizzato. Per far ciò, egli ha bisogno di un nuovo stimolo, che assume la funzione di
suggeritore. È questo stimolo, o insieme di stimoli, a garantire l’accessibilità dell’informazione
memorizzata. Più le condizioni in cui si ricorda sono simili a quelle della situazione nel passato,
più semplice e veloce sarà ricordare.
Gli stimoli impiegati possono essere di diverso tipo e complessità. Per ricordarsi un nome
può essere sufficiente sentire l’iniziale. Per ricordarsi un percorso è spesso sufficiente ritrovarsi di
fronte allo stesso bivio e riconoscerlo. Ci sono casi in cui è necessario fare di più: per esempio, nel
corso di un’interrogazione, una definizione che la sera prima ricordavamo immediatamente, ora ci
sfugge. Solo riflettendo, ripensando a concetti ad essa collegati riusciamo infine a ricordarla. In
entrambi i casi, rimane fondamentale la funzione dello stimolo, o degli stimoli, che aiutano ad
attivarlo.
Un efficace metodo per allenare il ricordo sono le mappe mentali, rappresentazioni grafiche
dei concetti di apprendere. Si compongono di alcuni
elementi che le contraddistinguono:
● parole chiave
● rami curvi
● immagini
● colori
● collegamenti
62
Le mnemotecniche sono delle strategie mentali che favoriscono la memorizzazione di
nomi, numeri, azioni da compiere e singole informazioni. La strategia più semplice è ripete, ma ce
ne sono molte altre molto efficaci quando c’è una lista da ricordare o un ordine da rispettare. A
questo proposito, può essere molto utile il metodo dei loci: si sceglie un luogo familiare dove ci
sono degli elementi già conosciuti e a ciascun elemento si associa un argomento da ricordare.
L’associazione, quando dobbiamo richiamare alla mente una lista, viene semplice ricordando la
disposizione dello spazio scelto e degli elementi di quello spazio.
Altro metodo che può rivelarsi indispensabile per il ricordo sono gli acronimi e gli
acrostici: l’iniziale di ciascuna lettera ci riporta subito alla mente un argomento o una lista di nomi.
● U.S.A → United States of America
● Come Quando Fuori Piove → Cuori Quadri Fiori Picche
● Ma con gran pena le reti cadono giù → nomi delle Alpi: Marittime - Cozie -
Graie - Pennine - Lepontine - Retiche - Carnie - Giulie
La funzione dello stimolo ha due conseguenze rilevanti per la nostra capacità di gestire i
ricordi.
Da un lato diviene importante saper trovare, o costruire, lo stimolo adeguato a riattivare le
stesse reazioni che avevamo avuto nella situazione passata.
Dall’altro risulta cruciale prestare attenzione agli stimoli anche in fase di memorizzazione,
prevedendo quali di essi saranno d’aiuto al momento del recupero.
L’effettivo funzionamento del ricordo ha poco a che fare con l’uso di un magazzino di
merci, ma dipende piuttosto da come impariamo a comportarci e dalle situazioni e gli stimoli con
cui interagiamo.
63
1. Memoria iconica: si fonda su una proprietà dei nostri recettori sensoriali, che
dopo essere entrati in contatto con uno stimolo fisico continuano, per un brevissimo
periodo di tempo, a rappresentare lo stimolo, anche se esso non è più attivo. Per
esempio, dopo aver visto un’immagine proiettata e subito tolta, continuiamo a vedere
l’immagine per alcune frazioni di secondo anche se sullo schermo non esiste più.
2. Memoria a breve termine: si intende la capacità umana di ricordare informazioni
nei secondi successivi alla loro lettura. Miller aveva individuato la capacità di tale
memoria in un massimo di 5 informazioni più o meno 2 (il “magico numero
sette”).
Numerosi esperimenti hanno cercato di definire il funzionamento della memoria di
piccole porzioni di informazione per brevi periodi di tempo. Si è così visto che la
capacità di ricordare tali informazioni tende a diminuire rapidamente, fino a essere
quasi nulla dopo una ventina di secondi. I dati emersi dagli esperimenti mostrano
però un funzionamento non lineare. Diverse sono le variabili che sembrano influire
sul ricordo: la quantità di lettere o numeri da ricordare, il modo in cui l’informazione
è memorizzata e soprattutto la possibilità o meno di ripetere l’informazione nei
secondi successivi. Quest’ultima attività, chiamata rehearsal, può assumere diverse
forme, ma consiste sempre in un comportamento successivo all’acquisizione
dell’informazione e che influisce sulla capacità di ricordarla. Un tipico esempio
si ha quando dobbiamo ricordare un numero di telefono per il periodo che intercorre
fra la lettura e la sua composizione. Spesso, se il numero è memorizzabile (non
supera cioè le sette cifre), lo ripetiamo mentalmente o ad alta voce finché non lo
abbiamo digitato sulla tastiera.
Comportamenti come quelli del rehearsal ci permettono di estendere l’effettiva
capacità della memoria per diversi secondi.
3. Memoria a lungo termine: viene distinta da quella a breve termine per due
caratteristiche fondamentali.
Non ha limiti quantitativi, non c’è nessun “magico numero sette a limitare il
numero di informazioni che può essere memorizzato, che è quindi virtualmente
infinito. La memoria a lungo termine è costituita quindi da quei ricordi che possono
essere richiamati anche a distanza di moltissimo tempo dall’acquisizione.
Quando parliamo di memoria a lungo termine, non sarà più possibile , in sede
sperimentale, presentare ai soggetti una lista di item in un’unica occasione: diviene
necessario ripetere diverse volte la lettura delle informazioni, così da “mandarle a
64
memoria”, per poi studiare per quanto tempo si manterrà la capacità di ricordare e
dopo quanto svanirà.
Questa è la metodologia seguita fin dal principio da Ebbinghaus (vedi par.
precedente) negli studi che gli permisero di descrivere una curva dell’oblio. Questa
curva mostra come gran parte delle informazioni memorizzate sembri andare persa
rapidamente nei minuti e nelle ore successive all’acquisizione, mentre una
percentuale più bassa rimane disponibile anche a distanza di un mese (vedi figure
par. precedente).
La domanda di fondo è se la memoria vada persa da sé, con una sorta di decadimento
autonomo, oppure se la capacità di ricordare sia inibita da avvenimenti successivi.
Queste due ipotesi vengono definite rispettivamente teorie della traccia e teorie
dell’interferenza. Le spiegazioni basate su ipotesi di interferenza hanno sempre
predominato. La ricerca ha dimostrato infatti come molte variabili influiscano sulla
curva dell’oblio. La stessa capacità di ricordare un’informazione a distanza di tempo
varia significativamente in base al modo in cui tale ricordo viene misurato: se come
semplice ripetizione di quanto appreso, o come velocità nell’apprenderlo
nuovamente, o capacità di riconoscere le informazioni se ripresentate. Non si può
quindi, a oggi, individuare un’unica causa o meccanismo che spieghi l’oblio, ovvero
la progressiva perdita di certi ricordi. È però evidente come molte variabili, e tra
queste molti comportamenti del soggetto, sia precedenti sia successivi alla
memorizzazione, influiscano significativamente nel far perdere o nel far mantenere a
lungo la capacità di ricordare.
Numerosi sono invece i tipi di memoria che si possono distinguere in base al contenuto,
ovvero dalla forma assunta dal ricordare.
4.7. Metamemoria
L’atto di ricordare è un comportamento, e come tutti i comportamenti può essere appreso e
affinato. E’ possibile, per esempio adottare tecniche che consentono di aumentare la capacità e
durata della memoria a breve e a lungo termine. La metamemoria consiste nella capacità di
66
ragionare sulla propria memoria, ossia di comprendere le proprietà della nostra stessa
capacità di ricordare.
Il ricordare dipende in buona parte dalle circostanze in cui avviene: l’esito positivo o
negativo di precedenti esperienze in cui, in particolari situazioni, si è compiuta l’attività del
ricordare, ci porta a ripetere lo stesso tipo di attività (in caso di precedente esito positivo ) oppure
ad adottare un altro comportamento, per esempio sostituendo una memorizzazione a breve o a lungo
termine.
La metamemoria è quella capacità che ci consente di osservare il nostro stesso
comportamente e discriminare le diverse situazioni in cui è avvenuto, traendone insegnamento.
67
un’informazione per la prima volta o se l’avevamo precedentemente ricordata, anche se oggi non la
sapremmo più ricordare. Siamo inoltre in grado di distinguere fra ricordi del nostro passato e altri
fatti che sono congetture o interferenze tratte da quei ricordi.
Queste capacità discriminative sono probabilmente molto importanti per il funzionamento
del ricordo. Un caso tipico in cui esse si rivelano cruciali è quello degli studenti: uno studente che
non sia in grado di indicare correttamente se ha memorizzato efficacemente dei contenuti o se
invece non li ha memorizzati bene, commetterà degli errori nel decidere se studiare ancora e su
quali contenuti concentrarsi.
La capacità discriminativa sui propri ricordi è quindi uno strumento importante che merita di
essere allenato e perfezionato, in particolare per chi fa dello studio il proprio impegno principale.
69
CAP. 7 - INTERAZIONI NEL FUTURO: ATTEGGIAMENTI E
ASPETTATIVE
La psicologia ha cercato di spiegare i processi attraverso i quali ognuno di noi
percepisce la realtà, come si dà senso a ciò che si vede, come si costruiscono le rappresentazioni
del mondo dotate di significato per cercare di ridurre o evitare situazioni di incertezza, di dubbio, di
indefinitezza.
Questa esigenza di controllo degli eventi fa parte della natura umana. Rappresenta
l’esigenza di ridurre al minimo lo sforzo cognitivo che l’uomo compie nel relazionarsi
quotidianamente con il mondo. È per questo motivo che tendiamo a giustificare qualsiasi nostro
comportamento, anche il più strano, come dettato da precisi progetti e da chiari obiettivi.
Soprattutto riusciamo sempre ad attribuire una responsabilità, o ad individuare una
giustificazione per il comportamento altrui, anche se spesso in maniera del tutto soggettiva e
poco corrispondente con il punto di vista dell’altro.
Altro aspetto è che ognuno di noi presta attenzione in modo selettivo ad alcuni aspetti
dell’ambiente: non è possibile riuscire a considerare nel modo più esaustivo possibile tutte le
opzioni disponibili. Se io ho già uno stereotipo o un pregiudizio su un determinato argomento, è
probabile che le informazioni che io andrò a cercare saranno coerenti con quell’idea io già ho,
cercando di confermarla. Senza volerlo, presto più attenzione ad alcuni informazioni piuttosto che
ad altre. ( → euristica della disponibilità)
Quest’area di studi è stata definita come l’area della “cognizione sociale” e rappresenta una
delle più vaste di questa disciplina. Lo sviluppo di quest’area di studi sui processi di
rappresentazione ha avuto un certo impulso prevalentemente sulla metafora della mente come luogo
di elaborazione delle informazioni. Un numero cospicuo di studiosi ha cercato di individuare i
principi generali capaci di spiegare i comportamenti sociali.
Fortemente ispirati dal successo nell’età moderna delle idee del positivismo, questi
studiosi del comportamento sociale hanno cercato di individuare le leggi che governano la natura
attraverso un modello di studio pragmatico, fondato sulla consapevolezza che la realtà esterna
fosse conoscibile poiché è così come è data. Ciò consolida l’idea che la realtà esterna e il
comportamento umano possono essere conosciuti nella loro oggettività, soprattutto se analizzati
attraverso strumenti di osservazione rigorosi e attraverso la semplificazione di ciò che è
complesso e articolato nei suoi singoli elementi.
In questo tipo di analisi ritroviamo tutti i nuclei centrali del pensiero positivista: la possibile
semplificazione della realtà in elementi costituenti, la possibilità di leggere la realtà e i
70
comportamenti nella loro essenza oggettivata, la possibilità di studiare tali elementi attraverso la
rigorosa applicazione del modello di studio sperimentale, attraverso la quantificazione degli
elementi di base della realtà e la possibilità di accorpare questo insieme di conoscenze in un corpus
unico, risultato di assembramenti consecutivi al fine di poter giungere alla verità delle cose. L’uomo
e i suoi processi sono stati, pertanto, semplificati in processi razionali facilmente leggibili e
interpretabili con una lente di ingrandimento razionalizzante.
Questa ipersemplificazione rischia di promuovere una rappresentazione del comportamento
umano priva di quella dinamicità e di quei processi di influenzamento reciproco che stanno alla
base della complessità del comportamento umano.
Quello che sappiamo è che l’uomo di fatto è inserito in un contesto. Quando parliamo di
“interazioni umane” parliamo di processi di influenzamento reciproco (uomo-contesto e contesto-
uomo) che stanno alla base della complessità del comportamento umano.
Il senso e il significato che diamo alle cose guidano, a volte inaspettatamente, il nostro modo
di percepire la realtà e gli altri. Una realtà che non sembra più data una volta per tutte, ma costruita
di volta in volta dai processi di socializzazione, di simbolizzazione e dai significati che noi stessi gli
attribuiamo, un significato profondamente influenzato dal contesto culturale di riferimento. La
realtà quindi non è assoluta, ma la sua percezione può variare secondo il gruppo cui ogni
individuo appartiene.
Secondo Lewin (1935), le forze ambientali hanno un ruolo di grande rilievo nello
sviluppo dell’individuo e nella determinazione del suo comportamento, ma ciò che è importante
è la profonda relazione “causale circolare fra le une e le altre”.
L’ambiente esperito dall’individuo è visto potenzialmente diverso da persona a persona,
come per la stessa persona in momenti diversi. Viene così riconosciuto il ruolo attivo
dell’individuo nei processi di conoscenza e l’influenza del processo di significazione individuale
nella spiegazione della realtà, a sua volta culturalmente caratterizzato.
Bruner (1957) sosteneva che gli individue diventano artefici del loro ambiente sociale e
del contesto in cui vivono e percepiscono. Il comportamento del consumatore non è solo
determinato dai suoi bisogni e dalla sua dimensione biologica, ma è strettamente influenzato dal
contesto sociale e culturale in cui si muove.
72
cerchiamo argomenti a sostegno della decisione presa. Posso sceglierle tutte e tre o una più di
un’altra, ma comunque cercherò in tutti i modi di modificare la situazione in cui mi trovo per
riportare l’equilibrio.
73
1.1. Schemi e aspettative nella costruzione della realtà
Nelle interazioni un ruolo determinante è attribuito alle aspettative. Queste sono in grado di
guidare le nostre azioni, oltre che i processi di selezione delle informazioni e di percezione
della realtà.
L’attenzione favorisce l’accesso degli input verso i processi superiori di elaborazione di quei
contenuti che sembrano avere più pertinenza con le attese, con le abitudini, con i bisogni e con gli
scopi che l’organismo sta perseguendo in quel momento. L’influenza delle aspettative e questo
processo di influenzamento sui processi percettivi si rafforza in situazioni complesse e ansiogene.
La forza degli stereotipi e dei pregiudizi si intensifica quando ci si percepisce in difficoltà, o
quando la nostra attivazione fisiologica (arousal) supera un certo limite. Con il termine arousal
si intende l’intensità dell’attivazione fisiologica e comportamentale dell’organismo. Secondo la
Teoria dell’Arousal (Oliviero e Russo, 2009), quando l’organismo deve effettuare una
prestazione, occorre un’attivazione, come l’aumento della vigilanza e dell’attenzione
(attivazione del sistema nervoso centrale), la preparazione dei muscoli allo sforzo (attivazione del
sistema muscolo-scheletrico), l’attivazione del sistema cardiaco e respiratorio per la produzione
delle energie necessario per sostenere lo sforzo (sistema vegetativo simpatico) all’azione.
Secondo la legge di Yerkes e Dodson, un’attivazione fisiologica moderata favorisce un
buon livello di prestazione percettiva, attentiva, decisionale. Se l’attivazione fisiologica cresce,
la prestazione aumenta corrispondentemente, soprattutto se il compito risulta facile. Ciò però
avviene fino ad un certo punto e fino ad una certa attivazione fisiologica: oltre un certo livello di
attivazione fisiologica, la prestazione decresce.
74
Il fenomeno ci può spiegare come mai in situazioni particolarmente stressanti si è più
propensi a utilizzare schemi e stereotipi o perché si è più soggetti alla pressione alla
conformità, violando qualsiasi principio di logica “razionale”. In una logica di risparmio
energetico in situazione di grave attivazione fisiologica si investono poche energie per cercare le
informazioni lasciandosi guidare da schemi e pregiudizi.
Quando si parla di schemi intendiamo delle categorie di concetti, rappresentazioni
mentali e strutture di conoscenza più o meno condivise (stereotipi e pregiudizi) spesso create
in modo automatico, indispensabili per semplificare la realtà.
PRO CONTRO
● Risparmio di energie ● Rischio di ipersemplificazione della
75
realtà
● Classificazione della realtà ● Farsi guidare da pregiudizi e stereotipi
● Semplificazione della realtà
● Dare un senso all’enorme quantità di
informazioni a cui siamo esposti
● Previsione e controllo
L’uso degli schemi, o meglio, l’uso di categorie e concetti intesi come rappresentazioni
mentali e strutture di conoscenza più o meno condivisi, è indispensabile per semplificare la realtà
e dare senso all’enorme quantità di stimoli e informazioni.
76
Il processo decisionale è quindi coerente con il modello positivistico, caratterizzato dalla
possibilità di individuare leggi universali, razionalmente definibili, flussi decisionali
caratterizzati da processi lineari e deterministici. Eppure numerose ricerche hanno dimostrato
che il processo di decisione può avvenire attraverso diverse strategie. Alcune decisione sono prese
con un basso coinvolgimento emotivo, affettivo o cognitivo. Già nella seconda metà degli anni
Settanta è stato evidenziato che le persone molto spesso non sono affatto consapevoli dei processi
cognitivi che utilizzano nel formulare i propri giudizi e le proprie scelte (Nisbett, Wilson, 1977;
Postman, Bruner, McGinnies, 1948).
Anche il giudizio su di sé non sembra essere così lineare e logico come sembra. La
percezione del proprio modo di essere è strettamente legata alla relazione sociale influenzata da
questa.
Il proprio concetto di sé è il riflesso delle opinioni comunicate da altri per noi significativi.
La società offre uno specchio nel quale scopriamo la nostra immagine o auto-definizione. Dai
risultati di numerose ricerche risulta che la gente alimenta la propria autostima riponendo viva
fiducia nelle opinioni di chi giudica favorevolmente, piuttosto che a seguito di una precisa e
puntuale analisi delle informazioni su di sé.
Oltre alle opinioni di persone significative, il confronto sociale, studiato da Festinger nel
1954, ha un ruolo determinante nei giudizi su di sé. Il confronto sociale diviene pertanto il
principale sistema di discernimento di ciò che è vero e che è falso nella vita sociale.
77
Tuttavia affidarsi in maniera esclusiva alla rappresentatività ci conduce a commettere gravi peccati
contro la logica statistica soprattutto perché ci fa sovrastimare l’occorrenza di eventi improbabili.
Un’altra euristica è quella della disponibilità, secondo cui gli individui stimano la frequenza
oggettiva di determinati eventi sulla base della facilità a reperire informazioni disponibili. Ciò
significa che un individuo prova realmente a raccogliere le informazioni per risolvere il quesito e
per stimare la probabilità da associare a un evento, ma nel far ciò si basa sugli elementi
cognitivamente più disponibili: il sistema 1 recupera il numero di esempi disponibili su quella
domanda e si risponde in base a quelli. Più esempi troviamo riguardo un evento, più la categoria
sarà considerata grande; meno esempi troviamo, più la categoria sarà piccola.
Desideriamo valutare le dimensioni di una categoria o la frequenza di un evento, ma siamo
suggestionati dalla facilità con cui ci vengono in mente gli esempi (→ BIAS) → Resistere ai BIAS
è possibile, ma faticoso.
Fattori che rendono facile trovare esempi:
➔ Evento saliente che attira la nostra attenzione viene recuperato facilmente dalla
memoria
➔ Evento drammatico che incrementa temporaneamente la disponibilità della sua
categoria
➔ Esperienze personali che sono più disponibili degli episodi accaduti ad altri.
L’immediata ed effettiva disponibilità di informazioni affidabili su fatti ed eventi non
corrisponde alla corretta valutazione delle frequenze degli eventi stessi. In maniera del tutto
automatica, poiché guidati da questi processi di semplificazione, la probabilità soggettiva prende
il sopravvento su quella oggettiva.
L’euristica dell’ancoraggio postula che quando le persone devono esprimere un giudizio in
situazioni di incertezza, spesso riducono tale incertezza assumendo come punto di riferimento un
dato per loro sicuro, come per esempio un’esperienza passata o uno stereotipo. Questo dato funge
da ancoraggio per tutte le altre informazioni che verranno “accomodate” in modo da rimanere
pertinenti al dato iniziale.
Es. - Gandhi aveva più o meno di 144 anni quando morì?
- Quanti anni aveva Gandhi quando morì?
Il numero 144 (àncora) può influire sulla stima dell’età di Gandhi (79aa) → suggestione =
effetto priming che evoca selettivamente evidenze compatibili. Il sistema 1, quello veloce,
funziona attraverso i meccanismi associativi: 144 anni vuol dire uomo anziano, quindi se devo dare
una stima e non so da dove iniziare, mi àncoro all’unica informazione che ho disponibile. Ci sono
situazioni in cui l’ancoraggio appare ragionevole → àncora come indizio plausibile.
78
Le àncore casuali sono spesso altrettanto efficaci delle ancore potenzialmente informative
→ le ancore non producono i loro effetti perché le persone le ritengono informative!
Le euristiche sono quindi più rapide, più facili e più semplici, tali da condurre a soluzioni
mediamente corrette. Il problema è quel “mediamente”. Si tratta sempre di scorciatoie dettate
certamente dall’esperienza, dalla condivisione di credenze, dalla semplificazione che in un contesto
assai complesso, come la realtà circostante, sono molto utili ma rischiano di condurci a un’eccessiva
semplificazione e quindi all’errore.
Nella maggior parte delle volte questo avviene in maniera del tutto inconsapevole e
automatica. A volte sono proprio gli elementi più irrilevanti che influenzano il comportamento di
scelta dell’individuo. La scelta automatica guidata da un sentimento, da un’emozione, dall’esigenza
di soddisfare un bisogno o un’abitudine, non può che essere giustificata da argomentazioni spesso
lontane da una valutazione incapace di reggere a un’analisi razionale e oggettiva.
I processi automatici sono processi che si attivano senza l’intenzione della persona,
sfuggono al suo controllo. Al contrario, i processi controllati sarebbero processi meno efficienti
(dal punto di vista del dispendio di energia psichica) in quanto richiedono sforzo e tempo. Possono
essere disturbati da fattori personali e situazionali che vengono applicati intenzionalmente e
consapevolmente dall’individuo.
Significativi a questo riguardo sembrano la teoria della probabilità dell’elaborazione di
Pretty e Cacioppo e la teoria sull’elaborazione euristico-sistemica di Chaiken.
Secondo Pretty e Cacioppo il processo decisionale si sviluppa secondo due possibili vie:
➔ Centrale → attenta elaborazione cognitiva delle informazioni e delle alternative
secondo il modello razionale e lineare. Questo processo centrale, che richiede
energia e attenzione, in genere viene attivato in funzione anche delle peculiarità della
situazione e delle specificità della persona. Le persone motivate a elaborare
attentamente le informazioni della situazione o il messaggio pubblicitario tenderanno
ad attivare il percorso centrale soprattutto se sono e si percepiscono anche
competenti in materia, ovvero se hanno le competenze cognitive adeguate per
procedere a questo tipo di elaborazione.
➔ Periferica → minore impegno nell’elaborazione delle informazioni e della presa di
decisione. In questo caso, la decisione è presa in maniera quasi automatica, secondo
abitudini, o comunque facilmente determinata da pregiudizi, attese o influenze
esterne. Non vi è un’attenta riflessione sulle informazioni o sulle possibili
alternative. Quando la motivazione e la capacità cognitiva sono ridotte, è più
probabile che venga seguita la via periferica.
79
Quanto elaborato con il processo centrale è più persistente, più predittivo del
comportamento e più resistente alla persuasione.
80
Anche secondo Chaiken (1980) ogni individuo, nell’attribuzione di un significato a un
messaggio o a un prodotto, può utilizzare due diversi approcci o due diversi processi cognitivi:
81
L’elaborazione euristica di Chaiken è più circoscritta rispetto alla via periferica di cui hanno
parlato Pretty e Cacioppo perché la dimensione definita periferica faceva riferimento a tutto ciò che
non era elaborazione attenta e dettagliata delle informazioni secondo un processo cognitivo e
razionale.
Tale modello, però, prevede che i due processi siano mutamente escludenti: non si può
avere congiuntamente un processo periferico e un processo centrale. Invece il modello di Chaiken
prevede la possibilità che i due processi si verifichino contemporaneamente. Chi riceve il messaggio
può avere la motivazione e la capacità di seguire un’elaborazione sistematica e allo stesso tempo, se
sono disponibili, potrebbe lasciarsi guidare da pregiudizi o da processi euristici. Il giudizio finale e
il conseguente cambiamento dell’atteggiamento potranno essere influenzati in modo interattivo
dalle due modalità di elaborazione.
I processi decisionali automatici e controllati non possono essere intesi come distinti e
mutualmente escludenti.
I processi controllati hanno una parte di automatismi, così come gli automatismi hanno
elementi di consapevolezza. La complessità dei processi decisionali non solo deve fare i conti con la
presenza di processi non razionali o comunque non coscienti, ma anche con la compresenza di
processi automatici e processi cognitivi controllati.
In genere, i processi automatici sono quelli che vengono attivati immediatamente, che
forniscono una prima risposta che in seguito viene controllata e se necessario modificata attraverso
uno sforzo cognitivo e un maggiore tempo per l’analisi della situazione o del prodotto. Tra i fattori
82
capaci di stimolare un processo controllato e di stimolare un maggiore impegno energetico vi sono
alcuni elementi, come per esempio la presenza di nuove informazioni incongruenti con gli schemi
posseduti o con le aspettative, l’interesse della persona per eventuali giudizi esterni o la percezione
di dover rendere conto della scelta fatta ad altri o a se stessi: tutti fattori che stimolerebbero un certo
bisogno di accuratezza, mentre la dimensione temporale così come la stanchezza e la mancanza di
energie o interessi specifici sarebbero fattori che ostacolano l’applicazione di processi cognitivi
controllati.
Sia il modello della probabilità sia quello dell’elaborazione euristica sistemica
presuppongono che le persone siano sempre ed esclusivamente motivate a trovare soluzioni
razionali o comunque accurate e che i processi decisionali siano pur sempre caratterizzati da
processi “freddi” e logici. A volte il grado di logicità si riduce poiché ci lasciamo guidare da aspetti
superficiali e da un’analisi semplice della realtà, altre volte il grado di elaborazione è elevato. Si
tratta, comunque, di modelli che considerano esclusivamente la funzione cognitiva degli
atteggiamenti e della scelta di consumo, senza considerare la dimensione affettiva, emozionale e del
desiderio che hanno un ruolo determinante nella spiegazione dei processi di scelta.
Anche nella ricerca delle informazioni, la dimensione motivazionale e affettiva ha un ruolo
determinante. L’attenzione su un’area, un oggetto o una persona può essere influenzata dal piacere
di avere un contatto giusto con quell’oggetto o con quella persona, modificando anche il processo di
raccolta di informazioni. Anche la scelta di effettuare la ricerca delle informazioni utilizzando la
propria banca interiore (la memoria) o l’ambiente esterno dipende da processi affettivi e non solo da
motivi razionali.
La ricerca stessa delle informazioni, a volte, non risponde a principi logici e razionali. Ogni
individuo può distinguersi dall’altro anche in funzione dell’impegno e delle energie che investe per
cercare le informazioni in merito a un prodotto da acquistare.
84
determinate da comportamenti diversi da parte degli insegnanti proprio nei confronti di quegli
studenti ritenuti più bravi: gli insegnanti mostravano più attenzione a questi studenti, li stimolavano
con compiti più impegnativi, fornivano loro feedback più frequenti e positivi.
Ecco un chiaro esempio di profezia che si auto-avvera: le aspettative degli insegnanti
avevano determinato un cambiamento nei loro stessi comportamenti tanto da influenzare le
prestazioni reali degli studenti.
85
risolvere un soggetto osservatore è decidere se una particolare azione è causata da fattori interni e
disposizionali o indotta da fattori esterni o situazionali.
Secondo Heider nell’attribuzione di causa dei comportamenti sembra che vengano
privilegiate le spiegazioni in termini di caratteristiche disposizionali poiché più economiche (è più
facile attribuire le colpe alle persone che analizzare la complessità del sistema) In questo modo la
causa di un evento viene attribuita a un solo elemento: l’individuo e le sue presunte debolezze.
Il contributo di Heider relativo alle variabili disposizionali è stato per la psicologia sociale di
grande valore per aver introdotto e per aver dato il via a numerosi altri studi sui processi di
attribuzione.
Tra questi vi è il lavoro offerto da Kelley (1973; 1980), autore della teoria della
covariazione. Egli inizia il suo lavoro interrogandosi su quale sia l’informazione che le persone
usano per arrivare a un’attribuzione causale.
Secondo Kelley, le persone adotterebbero gli stessi processi che uno scienziato utilizza nel
suo laboratorio per dare spiegazione ai fenomeni. Se una condizione si presenta al soggetto
percipiente quando ha luogo un certo evento e non si presenta quando l’evento non ha luogo, costui
tende a concludere che la condizione causa l’evento. Per fare questo tipo di analisi, l’individuo si
serve di tre regole:
➔ specificità
➔ consenso
➔ congruenza
Supponiamo di dover decidere se andare in un ristorante a mangiare del buon pesce sulla
base delle informazioni che ci ha dato il nostro amico Luigi. Per decidere se andare in quel
ristorante per noi diventa importante valutare se il giudizio più che positivo di Luigi sia più
attribuibile alla reale qualità del ristorante o alla sua eccessiva gentilezza nel giudicare i ristoranti.
Per poter decidere, partiamo dalle informazioni che abbiamo:
● Luigi lavora spesso fuori ufficio e mangia molte volte al ristorante,
● se il giudizio di Luigi è stato espresso solo per quel ristorante (alta specificità)
● se Luigi non esprime così facilmente giudizi positivi
● se il suo giudizio è coerente nel tempo (Luigi torna in quel ristorante più volte e lo
giudica sempre positivamente - alta congruenza)
● se il suo giudizio coincide con quello del nostro amico Marco e altri nostri amici
(alto consenso)
86
Allora potremo essere certi che il giudizio dato da Luigi non attribuibile alla sua personale
predisposizione a giudicare positivamente i ristoranti, ma può essere ragionevolmente attribuibile
a una causa esterna ben precisa: la qualità del servizio di quel ristorante.
In genere usiamo le regole della specificità, del consenso e della congruenza per
l’attribuzione delle cause dei comportamenti degli altri.
In questi modelli di spiegazione dell’attribuzione di causa, e soprattutto nel modello di
Kelley, si concepisce la persona tanto razionale da individuare i processi attraverso cui si
dovrebbero compiere le attribuzioni causali accurate.
In pratica, l’evidenza empirica ha mostrato che i soggetti percepienti non seguono la logica
dello scienziato (modello di Kelley), ma piuttosto fanno attribuzioni in modo rapido, impiegano
molte meno informazioni e mostrando evidenti tendenze a servirsi di spiegazioni semplificate. Nei
processi attributivi entrano infatti in gioco errori o bias capaci di distorcere i processi che
dovrebbero essere, o che vorremmo che fossero, lineari e logici.
Tra questi bias, ricordiamo l’errore fondamentale di attribuzione in cui si sopravvalutano
le disposizioni e si sottovalutano le influenze situazionali come cause del comportamento.
Causa e caso
Tendiamo a cercare modelli. Pensiamo che la regolarità (FFFFFF) non compaia per caso ma
in conseguenza di una causalità meccanica. Non ci aspettiamo di vedere la regolarità prodotta da un
processo casuale.
La tendenza a vedere schemi particolari nella casualità è fortissima. Si tende a classificare
erroneamente un evento casuale come sistematico.
Cosa succede quando li scambiamo?
I dati…
Delle 1662 scuole della Pennsylvania, 6 su 50 degli istituti più prestigiosi è costituito da
piccole scuole
… L’intervento
Vengono investiti molti soldi per creare scuole piccole e per dividere quelle grandi.
Il risultato…
Rianalizzando i dati, si scopre che tendenzialmente le scuole più piccole
risultano essere peggiori (Di nuovo la legge dei piccoli numeri).
Riassumendo:
● Prestiamo più attenzione ai contenuti che all’attendibilità delle informazioni
87
● Cerchiamo di trovare coerenza nelle informazioni anche quando non c’è
● Molti eventi del mondo sono casuali e le spiegazioni causali di eventi casuali sono
irrimediabilmente sbagliate
88