Sei sulla pagina 1di 88

INTERAZIONI UMANE

CAP. 1 – SCIENZA E METODO


In questo capitolo si introdurranno i concetti fondamentali che riguardano la psicologia
partendo da una ri-definizione della materia in questione, questo per l’esigenza di mettere in chiaro
la differenza che intercorre tra la psicologia del senso comune e la psicologia scientifica che
affrontiamo.
Convenzionalmente si fa riferimento al 1879, data che segna l’istituzione del Laboratorio
di psicologia Sperimentale a Lipsia, per indicare il preciso momento storico in cui la
psicologia inizia a muovere i suoi passi come disciplina scientifica autonoma. L’esigenza di tale
autonomia partiva indubbiamente dalla volontà di indagare i processi psichici utilizzando parametri
di oggettività di cui si avvalevano già le altre scienze. E ciò era possibile solo liberandosi della
speculazione filosofica.
1. Il concetto di scienza e la sua evoluzione
Per parlare della nascita del pensiero scientifico, bisogna partire dai contributi
epistemologici che ha consegnato la filosofia classica fino ai giorni nostri, che hanno contribuito
alla nascita di tale pensiero in ambito psicologico.
Quanto più una scienza è giovane, minori saranno gli strumenti di analisi e maggiore dovrà
essere la riduzione del fenomeno da studiare; d’altra parte, più una scienza si evolve come corpus
teorico e come strumenti di indagine, più aumenta la sua capacità di gestire la complessità dei
fenomeni di cui si occupa.
Il concetto di scienza è sempre stato associato al concetto di verità. Secondo Aristotele,
il fine delle cosiddette “scienze teoriche” quali la filosofia, la fisica e la matematica, è la verità.
Questa tipologia di scienze riguarda ciò che avviene necessariamente sempre o per lo più nello
stesso modo. Questo significa che l’oggetto di queste scienze è qualcosa che non può essere diverso
da com’è e pertanto l’oggetto di esse risulta la verità. Lo strumento principale della scienza risulta
essere allora il sillogismo, attraverso cui si può giungere a una conoscenza dimostrativa “perché non
si avrà scienza se non si possiede la dimostrazione di esse”.
Il pensiero di Aristotele è prezioso anche per quello che egli afferma riguardo il processo
conoscitivo. Esso avviene attraverso la raccolta delle osservazioni delle “cose che appaiono”, che
comprendono sia le esperienze dei sensi, sia le informazioni precedentemente conosciute riguardo il
fenomeno. Questo punto è fondamentale perché introduce precocemente il carattere di
uniformità nella scienza, ovvero il principio di coerenza tra le varie discipline scientifiche.
1
Una figura importante nel quadro della rivoluzione scientifica è quella di Francis Bacon. Il
metodo induttivo di Bacone si contrappone a quello aristotelico in cui la natura non viene
conosciuta correttamente (interpretata) ma anticipata astrattamente attraverso il passaggio dal
particolare all’universale senza prendere in esame i vari livelli intermedi di generalizzazione
progressiva. L’anticipazione sta a indicare un’ipotesi non confermata tramite l’esperienza, mentre
l’interpretazione consiste nel “condurre gli uomini davanti ai fatti particolari e ai loro ordini”.
Galileo Galilei è colui che più di ogni altro ha contribuito alla riformulazione delle basi
metodologiche della scienza moderna. Egli riconosce un’assoluta validità alla matematica come
disciplina scientifica che comporta un’indiscussa oggettività ai fenomeni presi in esame. Egli si
dimostrò molto più aperto di suoi tanti contemporanei nell’affermare che alle “certe dimostrazioni”
matematiche dovessero aggiungersi “sensate esperienze”. L’esperienza non deve essere lasciata al
caso ma deve seguire precise procedure messe insieme da un metodo sperimentale. Egli è il primo
ad avvalersi di un metodo basato sulla formulazione di ipotesi e sulla verifica di tali ipotesi
attraverso l’esperimento richiamando la necessità di strumenti oggettivi. Tale necessità
rappresenta un preciso distacco dall’indagine aristotelica che Galilei indirettamente condanna
perché non quantificabile.
Newton elabora il concetto descrittivo di scienza prediligendo il metodo analitico rispetto
alla sintesi. Questo metodo non consiste nel mettere in ordine fatti assunti come cause, ma comporta
fare esperimenti e osservazioni al fine di trarre conclusioni per mezzo dell’induzione. Dal momento
che il punto di partenza del metodo newtoniano è l’esperienza, egli si pone in un’ottica di rifiuto
verso le teorizzazioni astratte. Se le ipotesi non provengono dall’esperienza non sono compatibili
con un metodo analitico a servizio dell’induzione.
1.1. La scienza moderna
L’abbandono del pretenzioso assunto dalla scienza come verità assoluta arriva al suo
culmine con Karl Popper. Secondo il filosofo viennese, una teoria, per quanto possa trovare
conferme, non è mai certa. Un’affermazione è scientifica solo quando è falsificabile, in altre
parole solo quando possono esservi dati sperimentali a sostegno o contro di essa. Questo lo porta ad
operare necessariamente una distinzione tra discipline propriamente scientifiche e quelle che lui
definisce pseudoscienze.
Una di queste è la psicanalisi. Il difetto a essa attribuita è, secondo Popper, quello di
spiegare tutto in modo circolare rendendo impossibile la falsificazione. Se prendiamo come
esempio l’interpretazione, è facile dimostrare come tale spiegazione possa essere difficilmente
sottoposta a confutata.

2
Un altro punto fondamentale del pensiero di Popper, e molto utile alla psicologia, è quello
che riguarda la critica all’empirismo. Le osservazioni, pur avendo un ruolo importante nello
sviluppo scientifico, non devono essere il punto di partenza di una teoria per poi svilupparsi
attraverso il metodo induttivo. La ricerca scientifica inizia dai problemi, la loro soluzione dalle
capacità dello scienziato di formulare ipotesi. Le osservazioni servono come mezzo di verifica di
tale ipotesi. Secondo Popper, infatti, il metodo induttivo non esisterebbe.
Kuhn, invece, afferma che, mentre le scienze naturali, come la fisica, la chimica o la
biologia, sono sostenute da un paradigma specifico e allo stesso tempo comune, evidenziabile in
modelli strutturali generalmente accettati dalla comunità scientifica, la psicologia non avrebbe
ancora raggiunto tale status. La psicologia, secondo Kuhn, si troverebbe in uno stato pre-
paradigmatico, non essendo provvista dell’apparato metateorico, teorico e metodologico condiviso
di cui si avvalgono le altre discipline.
2. La psicologia
Nel mondo prescientifico le cause di un fenomeno venivano ricercate all’interno del
fenomeno stesso in virtù di quello che viene definito animismo. Il grande passaggio di Galileo è
stato quello di spostare il locus esplicativo all’esterno del fenomeno stesso, in modo da poter
costruire un esperimento che sostenesse l’indagine empirica di ciò che poteva causare il fenomeno.
Se applichiamo questo metodo alla scienza psicologica dobbiamo dire che il suo obiettivo è
descrivere, spiegare e prevedere le relazione funzionali che si possono stabilire tra la condotta
di un individuo e l’enorme serie di variabili esterne ad esse che la possono influenzare. Tale
relazione è stata descritta dalla funzione riportata nella formula:
C = f (S)
dove S rappresenta l’insieme degli eventi stimolo ambientali che possono “colpire” un soggetto nel
corso della sua vita.
Il modello derivato da tale relazione è stato poi sottoposto a numerose critiche: è passivo,
riduttivistico, meccanicistico, periferalista, appare debole sul piano teorico e incapace di fornire
un’interpretazione del comportamento. Un altro modo di descrivere le relazioni comportamento-
ambiente è il seguente:
C = f (S ↔ O)
dove il comportamento risulta funzione dell’interazione di un organismo con il suo ambiente.
Se si sostituisce ulteriormente alla funzione lineare un concetto di campo multiplo che
sottolinea le relazioni reciproche, si ottiene:
C ↔ (S ↔ O)

3
Secondo questo diagramma, il comportamento non è solo funzione di una relazione
interattiva organismo-ambiente (rappresentata dalla ↔ tra S e O), ma è esso stesso agente di
cambiamento di tale relazione con un meccanismo a feed-back. In altre parole, il comportamento di
un individuo (inteso come unità biopsichica individuale, unica e irripetibile) è funzione
dell’interazione che egli instaura con l’ambiente (inteso come l’insieme di caratteristiche specifiche
e situazionali con cui un organismo entra in rapporto funzionale). Ma oltre che funzione, è
contemporaneamente parte attiva di questa interazione, nella misura in cui rientra in relazione
concorrendo a modificare sia l’ambiente stimolo, sia l’organismo, sia la loro reciproca relazione. In
sintesi, il comportamento è continuamente”effetto” dell’interazione organismo-ambiente e “causa”
del loro modificarsi. Viceversa, le modifiche di organismo e ambiente sono “causa” delle modifiche
di comportamento ed “effetto” di esse.
Il termine “interazione” dovrebbe sgombrare il campo da un equivoco ricorrente quando si
parla di teorie comportamentiste, quello di considerare il soggetto come un recettore passivo di
stimolazioni. Le risposte di un essere umano sono quelle che caratterizzano la specie e tali risposte
sono in interazione continua con gli stimoli interni ed esterni che costituiscono l’ambiente
funzionale di un individuo. L’ambiente è composto di stimoli specifici e fattori situazionali: solo gli
stimoli che interagiscono con un soggetto possono essere considerati appartenenti all’ambiente
funzionale, anche se ovviamente ogni stimolo può essere descritto in base alle sue dimensioni
fisiche, chimiche, sociali, ecc. I fattori situazionali vengono definiti come le condizioni di
contesto che modificano le proprietà funzionali di tutti gli stimoli e le risposte che prendono
parte all’interazione. In tal modo si creano costellazioni di interazioni che hanno caratteristiche di
unicità, in quanto unica è la storia della genetica e personale di ognuno. Queste costellazioni di
interazioni tra persona e ambiente considerate in una dimensione dinamica vengono definite da
Novak transizioni. Il prodotto delle interazioni si riorganizza continuamente e l’individuo e le
condizioni ambientali si modificano reciprocamente. Lo sviluppo unico e personale di ognuno è
determinato da interazioni che coinvolgono sia fattori filogenetici, sia autogenetici, e i prodotti di
queste interazioni interagiscono tra di loro.
Riassumendo il sistema persona-ambiente si riorganizza continuamente, in quanto sistema
dinamico, in funzione delle interazioni reciproche.

3. La scelta del livello di analisi


Si possono utilizzare diversi metodi per acquisire conoscenze rispetto ai fenomeni che ci
interessano: la scienza è uno di questi, ci permette di ottenere conoscenze in base a osservazioni
obiettive, fatte in modo che le persone con una percezione normale e poste nello stesso luogo e
nello stesso tempo arriverebbero allo stesso risultato. “Oggettività” non implica che lo scienziato si
4
distacca freddamente dall’oggetto, ma che delle persone che avessero guardato sopra le spalle dello
scienziato mentre faceva l’osservazione, avrebbero visto le stesse cose. (McBurney)
Dopo lo sviluppo del metodo scientifico nel Rinascimento, la scienza è diventata uno dei
modi più efficaci per comprendere il nostro mondo. Come la fisica, la chimica e la biologia sono
state in grado di svelare principi e leggi fondamentali circa i sistemi dinamici che le riguardano,
l’approccio delle scienze naturali sia il migliore per analizzare l’oggetto di studio della psicologia.
Collocare la psicologia nel contesto delle altre scienze è operazione necessaria per comprenderne la
posizione specifica. Secondo Novak, è possibile porre le varie scienze lungo un continuum, in base
alla complessità dei sistemi dinamici dei quali si interessano. A un estremo del continuum possono
essere collocati i sistemi dinamici che implicano le interazioni di particelle subatomiche,
all’altro capo i sistemi dinamici relativi ai processi di sviluppo della cultura e della società.

I sistemi che costituiscono l’universo possono essere quindi analizzati a diversi livelli di
complessità. Per esempio, il comportamento umano si può analizzare al livello di individuo in
relazione al suo ambiente (livello di analisi psicologico), oppure a un livello più basso,
considerando l’azione dei suoi sistemi biologici, o ancora più in basso, l’azione dei suoi elettroni o
neutroni. Secondo Novak, è importante ricordare che tutti i livelli di questi sistemi sono presenti
simultaneamente.

5
Chi si sofferma al livello di analisi più basso viene accusato di riduzionismo → spostare
l’analisi e la spiegazione di un fenomeno a un livello inferiore. In psicologia, per esempio, il
riduzionismo si verifica quando si tenta di spiegare il comportamento solo in termini di meccanismi
fisiologici o genetici, ignorando le interazioni con l’ambiente o i meccanismi psicologici.
Il riduzionismo può essere positivo se riesce a fornire spiegazioni utili per accedere a un
livello di analisi superiore, ma anche negativo quando ci si concentra troppo sulle parti e si perdono
di vista le caratteristiche necessarie del tutto.
Il modello antiriduzionista sceglie di cercare le spiegazioni allo stesso livello degli eventi
che si vogliono spiegare: le spiegazioni degli eventi psicologici vanno quindi ricercate nelle
relazioni funzionali con altri eventi psicologici, anche se questo non comporta l’esclusione o la
sottovalutazione delle relazioni esistenti a e fra livelli differenti.
Le interazioni individuo-ambiente possono essere analizzate a livelli differenti. Questo
approccio sistemico è compatibile con l’utilizzo di un modello dinamico che enfatizza le
modificazioni progressive nelle interazioni tra la persona e l’ambiente. La questione però rimane
aperta: Come possiamo porre in relazione stimoli e risposte con la cultura e la società? Osservando
le interazioni come cose che accadono simultaneamente a livelli sistemici differenti (Horowitz). Per
la nostra analisi, possiamo scegliere un solo livello o muoverci attraverso più livelli per una più
ampia comprensione dei fenomeni complessi. Muovendoci a livelli superiori, accresciamo
l’ampiezza della nostra comprensione del fenomeno, muovendoci a livelli inferiori diventiamo più
precisi. Nella scienza è quindi possibile collocare i livelli di analisi lungo un continuum rispetto a
queste due dimensioni: la precisione (precision) e l’ampiezza (scope). Questa flessibilità dell’unità
di analisi può esporci al rischio di vaghezza e imprecisione: è possibile innescare una regressione
ad infinitam, l’analisi degli elementi di un sistema (contesto) rimanda ad altri elementi, ad altri
sistemi e così via.
Il criterio per uscire da questo circolo vizioso, che è il criterio per stabilire la “verità dei
fatti”, è essenzialmente pragmatico: l’azione scientifica è guidata e verificata dalla “previsione e dal
controllo” degli eventi che sono oggetto del suo studio. Questa visione del mondo risulta
estremamente attraente e funzionale per analizzare sistemi complessi e altamente variabili senza
cadere nello schematismo e nella rigidità.

4. Descrizione e spiegazione
Descrizione e spiegazione sono due obiettivi della scienza.
● Descrivere → delineare, fare un rendiconto. È uno dei primi traguardi. Agli esordi di
una scienza è importante descrivere adeguatamente le caratteristiche e la natura dei
fenomeni studiati. Quando, però, una scienza è matura e consapevole delle
6
caratteristiche del suo oggetto di studio, l’obiettivo spesso si sposta verso il tentativo
di spiegare i fenomeni.
● Spiegare → rendere chiara una causa o una ragione. Consente la previsione e il
controllo.
“Spiegare significa stabilire relazioni funzionali tra classi di eventi che possono
essere generalizzate a dati diversi da quelli serviti per l’originaria formulazione,
allo scopo di prevedere e controllare classi di eventi futuri”
Quando vi è una relazione coerente tra due fattori, che si evidenzia attraverso reazioni
reciproche, si dice che i due fattori sono correlati. Novak utilizza l’esempio della correlazione
positiva che c’è tra la quantità di tempo speso nella lettura di storie da parte dei genitori e la
successiva capacità di lettura dei loro bambini: più tempo i
genitori dedicano alla lettura, maggiore sarà il punteggio che i loro bambini otterranno nelle prove
di lettura; è possibile prevedere se avranno buoni risultati.
MA anche se i due fattori sono correlati, ciò non implica che l’uno abbia causato l’altro.
Non è possibile concludere che la lettura di storie da parte dei genitori causi il livello di lettura
conseguito dai bambini; magari alcuni sono più predisposti. La correlazione non implica la
causalità. Come è possibile allora determinare se vi sia una relazione di causa ed effetto? I
ricercatori conducono esperimenti per indagare se i cambiamenti di una variabile controllino le
modifiche dell’altra variabile. In pratica, la previsione e il controllo di un fenomeno costituiscono
una spiegazione adeguata nella scienza. Non è sufficiente la mera descrizione dei cambiamenti
continui del comportamento; come scienziati, si desidera anche spiegare la causa di quelle
modificazioni. Secondo Novak, una descrizione illustra semplicemente lo status delle cose,
mentre una spiegazione afferma relazioni di causa ed effetto tra i fenomeni oggetto di studio e
gli eventi che li provocano.
Esempio. I bambini in età prescolare “non possono stare tranquilli e ascoltare una storia
lunga, perché possiedono uno span di attenzione limitato”. Sembra che il concetto di “span di
attenzione limitato” spieghi perché i bambini si irritino e guardino altrove. Tuttavia, non è una
spiegazione accettabile, ma circolare: i bambini guardano altrove dopo un breve periodo di tempo
perchè hanno uno span di attenzione limitato e sappiamo che hanno uno span di attenzione limitato
perché dopo poco tempo guardano altrove.
Una spiegazione è vera quando ci permette di prevedere e controllare il comportamento,
quindi non “perché” un comportamento si verifica, ma “in quali condizioni” si verifica.

7
5. Modelli e metafore
La descrizione e la spiegazione (interpretazione) della realtà, in psicologia come in altre
scienze, richiedono spesso l’introduzione di modelli al fine di evidenziare le variabili di
maggiore rilievo e i meccanismi attraverso i quali esse interagiscono.
Secondo Reese (1993) è opportuno tenere in considerazione cinque punti fondamentali
che definiscono la natura e la funzione dei modelli:
1. un modello è una rappresentazione della realtà, non una sua descrizione: è una
metafora e non un’affermazione fattuale;
2. i modelli possono collocarsi a diversi livelli, da quelli che forniscono una visione
onnicomprensiva della realtà, a quelli altamente specifici che si occupano di porzioni
ristrette della realtà;
3. ogni modello specifico deriva da quello immediatamente più generale, nel senso che
i concetti del primo sono categoricamente fissati dal secondo;
4. un modello è formalmente distinto da una teoria, ma, da un punto di vista funzionale,
fa parte dei suoi assiomi. Il modello, cioè, illustra come applicare la teoria: tuttavia, è
l’applicazione della teoria che è esplicativa e non l’illustrazione dell’applicazione.
Un modello è quindi esplicativo solo nel senso ristretto di metafora o di analogia;
5. un modello si distingue da una teoria perché quest’ultima è descrittiva e quindi
falsificabile, mentre il modello, in quanto formulazione metaforica, è più o meno
utile, ma non può essere falsificato.
Quindi, ogni modellizzazione comporta una metafora, utile alla descrizione del processo.
Una metafora trasferisce il significato o gli attributi di termine a un altro; una proposizione
metaforica è una “sostituzione” basata sulla somiglianza. Funzione del linguaggio metaforico è
generalmente quello di fornire un supporto concreto che faciliti la visualizzazione di un’idea astratta
e ne migliori la comprensione. C’è però il rischio che tale linguaggio venga frainteso, cioè
comunichi qualcosa di diverso dall’obiettivo per cui era stato progettato.
Nella scienza si possono distinguere due differenti impieghi della metafora:
1. ha solo lo scopo di evidenziare e di rendere più chiari i processi in esame e
quindi non è essenziale alla comprensione del processo;
2. il processo in studio viene a identificarsi con la descrizione metaforica
proposta; in questo caso la metafora è veramente essenziale alla
comprensione del processo che spiega, in quanto è parte costitutiva del
processo stesso.

8
Per una formulazione scientifica è preferibile che il livello di descrizione metaforico non si
identifichi con il processo stesso.

6. Teorie
Per organizzare il pensiero, noi elaboriamo teorie: servono principalmente a imporre una
certa coerenza alle nostre innumerevoli osservazioni. Secondo Kerlinger una teoria scientifica è
“un insieme interrelato di concetti, definizioni e proposizioni che forniscono una visione
sistematica dei fenomeni specificando le relazioni tra le variabili con lo scopo di spiegare e
prevedere i fenomeni”.
Le teorie però non si limitano a questo: tentano anche di fornire una spiegazione degli
eventi in termini di causa-effetto, stimolano nuove ipotesi di ricerca, ma allo stesso modo
influenzano il modo in cui gli scienziati interpretano i dati. Nella scienza non esistono quindi verità
assolute, ma punti di vista diversi che rappresentano le chiavi di lettura della realtà (Novak). Questa
è la visione relativistica della scienza e suggerisce che le asserzioni scientifiche sono impregnate
delle idee degli scienziati.
“La spiegazione deve sempre scaturire dalla descrizione, ma la descrizione da cui essa
scaturisce conterrà sempre caratteristiche arbitrarie” (Bateson)
Thomas ha individuato 9 criteri per la valutazione della “bontà” di una teoria:
1. Precisione → una teoria è valida se riflette accuratamente i fatti del mondo;
2. Chiarezza → una teoria viene enunciata in modo chiaro e comprensibile;
3. Prevedibilità → oltre a spiegare perché si sono verificati gli eventi passati,
consente di prevedere accuratamente gli eventi futuri;
4. Applicabilità → offre una guida pratica nella soluzione dei problemi
quotidiani;
5. Coerenza interna → i suoi termini e concetti sono abbastanza efficaci da
poter essere utilizzati sempre con coerenza;
6. Falsificabilità → è falsificabile e confutabile;
7. Parsimonia → è più valido un approccio che per spiegare i fenomeni si basi
sul minor numero possibile di osservazioni e richieda i meccanismi più
semplici;
8. Produttività → stimola la creazione di nuove tecniche di ricerca e la
scoperta di nuove conoscenze;
9. Persuasività → spiega il suo oggetto nel modo più vicino al nostro buon
senso, coerente con le nostre opinioni preesistenti.

9
7. La ricerca
Gli eventi del mondo che osserviamo possono entrare in diverse categorie e assumere,
all’interno di tali categorie, diversi valori. Tutti i fenomeni osservabili e cui possono essere attribuiti
valori differenti sono potenziali variabili. La prima distinzione fondamentale è tra:
➔ variabili indipendenti: manipolate dallo scienziato
➔ variabili dipendenti: i loro valori variano in funzione delle variazioni dei valori
delle variabili indipendenti
Lo sperimentatore agisce quindi sulla variabile indipendente per osservare i cambiamenti
che questa induce sulla variabile dipendente.

7.1. La manipolazione della variabile indipendente


Uno sperimentatore può manipolare la variabile indipendente in due modi:
➔ produrre direttamente i diversi valori della variabile indipendente (es.
somministrare diverse dosi dello stesso farmaco) - in questo caso si parla di veri
esperimenti in quanto consentono il massimo livello di interpretabilità dei risultati
poiché il ricercatore ha il pieno controllo della variabile indipendente
➔ variabile dipendente già presente in natura in una gamma di valori (es. studiare
un fenomeno in base al sesso o alla fascia di età in soggetti diversi) - si parla di quasi
esperimenti in in quanto non è possibile assegnare i soggetti alle varie condizioni
ma si deve selezionarli in gruppi già esistenti. La possibilità di controllo delle
variabili interne diminuisce e diminuisce di conseguenza anche la validità interna
dell’esperimento, perché una variabile indipendente non manipolata può nascondere
l’effetto di altre variabili non prese in considerazione dallo sperimentatore.

7.2. Le scale di misura


Per poter utilizzare le variabili, lo sperimentatore deve essere in grado di misurarle. La
misurazione consiste nell’assegnazione di valori numerici a eventi o oggetti secondo regole che
permettano di rappresentare importanti proprietà degli eventi o oggetti con proprietà del sistema
numerico. In base all’attribuzione di valori numerici ad una specifica variabile, si distinguono 4 tipi
di scale di misura:
1. Scale nominali: permettono di classificare oggetti e fenomeni in categorie. È il tipo più
semplice di scala perché si basa su una semplice regola di attribuzione di valori numerici a
oggetti o fenomeni: oggetti o fenomeni di uno stesso tipo ottengono lo stesso valore
numerico (es. sesso, orientamento sessuale o religioso).

10
2. Scale ordinali: dispongono oggetti o fenomeni in base al loro ordine di grandezza. La
regola per assegnare valori numerici in una scala ordinale prevede che la posizione in una
scala ordinale del valore numerico sulla scala deve corrispondere al grado del valore
dell’attributo. Tale scala non permette di stabilire la distanza tra un valore e l’altro.
3. Scale a intervalli: le differenze tra valori numerici hanno un significato e devono
corrispondere a differenze psicologiche tra gli eventi o gli oggetti (es. il quoziente
intellettivo: le differenze tra le persone sono rappresentate in modo significativo dalle
differenze tra i valori di QI; tra una persona con QI di 120 e una persona con QI di 100 ci
siano 20 punti sulla scala QI, ma non si può affermare che una persona con QI di 100 abbia
intelligenza doppia rispetto a una persona con QI di 50).
4. Scale a rapporti: sono caratterizzate da un punto 0 significativo e in esse il rapporto tra due
punti o due valori è indipendente dall’unità di misura scelta (es. pesi, volumi, lunghezze). In
psicologia, una variabile misurabile con questa scala potrebbe essere il livello di scolarità
prendendo come unità di misura l’anno scolastico: un laureato ha un livello di scolarità di
almeno 16 anni, un diplomato di 13. In questo caso la differenza tra due valori, ad esempio
13 e 16, corrisponde realmente a 3 anni di differenza e chi ha 16 anni di scolarità ha il
doppio di scolarità di chi ne ha 8. Il punto 0 corrisponderebbe alla mancanza assoluta di
istruzione scolastica e il risultato non cambierebbe se prendessimo come unità di misura i
mesi.

7.3. La validità
Lo scopo di una ricerca scientifica è quello di trarre conclusioni sulle relazioni di causa
effetto tra le variabili prese in esame. I due quesiti fondamentali ai quali si deve dare risposta
durante la progettazione di una ricerca riguardano:
1. potenziali minacce alla validità della ricerca che si sta per compiere;
2. mezzi e le operazioni necessarie per neutralizzare tali minacce, procedimenti che nel
loro insieme vengono definiti “controllo”.
Validità = insieme di condizioni che permettono allo sperimentatore di trarre conclusioni
esatte e corrispondenti alla realtà, sui risultati della ricerca.
Sono cinque i tipi di validità che devono essere considerati:
1. Validità interna: il grado di certezza con il quale il ricercatore può escludere interpretazioni
alternative alle sue conclusioni. Deve dimostrare che la relazione individuata tra variabile
indipendente e variabile dipendente è vera, cioè la variabile indipendente, e solo quella, ha
causato una variazione della variabile dipendente. La più pericolosa minaccia alla validità
interna di una ricerca è la confusione delle variabili, cioè la presenza di variabili nascoste o
11
non prese in considerazione e che possono influenzare la variabile dipendente (es. quando
non è possibile controllare la variabile indipendente e i soggetti vengono selezionati in
quanto appartenenti a una certa categoria come il sesso dei soggetti, l’età o la condizione
socioeconomica).
2. Validità di costrutto: in psicologia, più che in altre scienze, l’oggetto della ricerca è un
costrutto, cioè un termine astratto che sta ad indicare una caratteristica, un complesso, una
capacità della vita psichica. Esempi sono l’intelligenza, l’ansia, l’obbedienza,
l’autoefficacia, ecc. Tali costrutti non sono direttamente osservabili, ma vengono inferiti a
partire dal comportamento. Per esempio, l’ansia è un costrutto psicologico che gli psicologi
inferiscono da alcuni indicatori osservabili, come il ritmo cardiaco, la sudorazione, ecc.
L’individuare degli indicatori osservabili di un costrutto non osservabile significa rendere il
costrutto operazionale: questo processo costituisce il passaggio dalla teoria alla pratica
perché indica quegli elementi che portano dal livello astratto (il costrutto) al livello
misurabile. La validità di costrutto quindi consiste nella corretta corrispondenza tra
elementi utilizzati nel processo sperimentale e costrutto teorico di riferimento.
Interrogarsi sulla validità di costrutto significa escludere altre possibili spiegazioni teoriche
ai risultati ottenuti.
3. Validità esterna: riguarda l’applicabilità dei risultati ottenuti a un’altra situazione, con
soggetti, tempi e luoghi diversi. Consiste quindi nel poter generalizzare le conclusioni. La
validità esterna è essenzialmente legata al campionamento dei soggetti, cioè a quel processo
di scelta dei soggetti di ricerca.
4. Validità statistica: riguarda la probabilità che la relazione tra variabile indipendente e
quella dipendente sia effettiva e non dovuta al caso. Attraverso l’uso di appropriati test
statistici, i ricercatori stabiliscono se i risultati ottenuti hanno una bassa probabilità di essersi
verificati per caso. Per poter applicare tecniche statistiche ai dati sperimentali occorre
definire in partenza le ipotesi di ricerca che andranno poi verificate. Il ricercatore deve cioè
trasformare la domanda da cui è partita la sua ricerca in un’ipotesi statistica. Le ipotesi
statistiche si esprimono in:
a. ipotesi nulla (H0) → gli effetti della variabile indipendente sulla variabile
dipendente sono nulli;
b. ipotesi alternativa (H1) → la variabile sperimentale, o indipendente, ha avuto un
effetto, ovvero ha prodotto un cambiamento nel gruppo sperimentale.
Date le ipotesi statistiche, si definiscono anche gli errori in cui lo sperimentatore
può incorrere:

12
1. errore di tipo I → respingere l’ipotesi nulla quando questa è vera, cioè
considerando significativo l’effetto della variabile indipendente quando
invece non lo è;
2. errore di tipo II → accettare come vera l’ipotesi nulla quando invece è falsa,
considerando nullo l’effetto della variabile indipendente quando invece tale
effetto è significativo.

5. Validità ecologica: la generalizzabilità dei risultati di una ricerca anche a contesti


della vita quotidiana: i ricercatori si chiedono se quel fenomeno osservato nel setting
rigoroso e artificiale di laboratorio si comporta in modo analogo nel suo contesto
naturale. Questo venne distinto dal concetto di validità esterna a partire dagli anni
Cinquanta, quando Brunswick sostenne che il fenomeno della percezione, se
studiato nel contesto artificiale di un laboratorio, fornisce dati poco
rappresentativi di come la percezione opera nella vita reale.
Bronfenbrenner vede la validità ecologica come il grado in cui l’ambiente del
quale i soggetti hanno esperienza in una determinata ricerca scientifica ha le
caratteristiche che il ricercatore assume o suppone.
Non è sufficiente spostare il setting sperimentale al di fuori del laboratorio, in quanto
un soggetto può considerare un compito svolto in un ambiente naturale tanto
artificiale quanto un esperimento di laboratorio.

7.4. Il controllo
Controllo = qualsiasi mezzo impiegato per neutralizzare le possibili minacce alla
validità di una ricerca. Nel concetto di controllo, si distinguono due aspetti, la cui azione
complementare garantisce la validità della ricerca:
➔ esperimento di controllo: consiste nell’utilizzare un secondo gruppo di soggetti
chiamato gruppo di controllo, del tutto omogeneo al gruppo sperimentale al fine di
verificare l’efficacia della variabile indipendente. Può agire in tre modalità:
13
◆ confronto tra il rendimento del gruppo sperimentale in cui la variabile
indipendente viene manipolata, con quello del gruppo di controllo in cui la
variabile indipendente non viene manipolata. (es. ai soggetti del gruppo
sperimentale viene somministrato un farmaco, agli altri no)
◆ confronto tra il rendimento del gruppo sperimentale, che riceve un livello di
trattamento, con il rendimento del gruppo di controllo, che riceve un diverso
livello di trattamento: in questo caso la variabile indipendente viene
manipolata dallo sperimentatore in entrambi i gruppi, ma a due livelli diversi
(es. si somministra il farmaco ai due gruppi ma con un dosaggio diverso)
◆ confronto tra i rendimenti ottenuti dallo stesso gruppo sperimentale
sottoposto a differenti livelli della stessa variabile indipendente. Questa
situazione è chiamata condizione di controllo in quanto lo stesso gruppo
funge da controllo a se stesso. Si parla di esperimenti entro i soggetti, in
quanto le differenze tra i trattamenti sono esaminati entri i singoli soggetti;
nei casi precedenti invece, in cui differenti condizioni sono esaminate tra
soggetti diversi, si parla di esperimenti tra i soggetti.
➔ controllo sperimentale: modalità con cui lo sperimentatore cerca di limitare o
controllare le fonti di variabilità nella ricerca; permette quindi di affermare che i
cambiamenti della variabile dipendente sono dovuti esclusivamente alla
manipolazione della variabile indipendente e non all’intervento di altre variabili
esterne. Il tipo di controllo sperimentale più generale è la definizione dell’ambiente o
setting, generalmente riprodotto in laboratorio, tenendo sotto controllo variabili
estranee. Il laboratorio permette inoltre di tenere costanti tutte le variabili che non
sono eliminabili dallo sperimentatore.

8. Alcuni cenni sulla natura della scienza


La scienza è solo un modo di conoscere: è un’impresa umana che genera regole e che ha
come obiettivo lo sviluppo di affermazioni, progressivamente più organizzate, sulle relazioni tra gli
eventi che permettano agli obiettivi analitici di essere raggiunti con precisione, ampiezza e
profondità e basate sull’esperienza verificabile.
il prodotto della scienza sono regole verbali basate sull’esperienza che possono essere
condivise con altri. La fonte primaria di controllo sulle verbalizzazioni scientifiche è se

14
l’interazione con il mondo sulla base di queste verbalizzazioni dà come risultato le conseguenze
specificate dalla verbalizzazione.
Queste regole hanno importanti proprietà specifiche:
➔ precisione = il numero di modi in cui un evento può essere spiegato con un set di
concetti analitici (meno sono, meglio è);
➔ ampiezza = il numero di eventi che possono essere spiegati con un set di concetti
analitici (più sono, meglio è);
➔ profondità = la connessione e la mancanza di contraddizione tra approcci ben
stabiliti in domini differenti della scienza;
➔ unità analitica = il risultato di regole verbali, prevedere, influenzare, descrivere,
interpretare, capire, ecc.
Sebbene la conoscenza scientifica sia legata alla conoscenza empirica, essa rimane una
forma di conoscenza verbale. Ma come generiamo e costruiamo queste verbalizzazioni scientifiche?
Sono le metafore radice che forniscono le basi per generare le teorie e i sistemi teorici, e i
criteri di verità che forniscono le basi per la valutazione delle teorie e dei sistemi teorici
all’interno della metafora radice stessa.
Nella psicologia, gli obiettivi pratici dell’impresa sono la predizione e l’influenzamento
degli eventi psicologici di importanza pratica: sono quindi finalità analitiche. Le proprietà
specifiche della scienza sono fondamentali per la psicologia.

15
8.1. La scienza come base della psicologia applicata
Gli psicologi hanno bisogno di una conoscenza scientifica che li informi su cosa fare per
essere efficaci con le specifiche persone e all’interno degli specifici contesti con cui essi lavorano.
Questa conoscenza deve spiegare come cambiare le cose che sono accessibili allo psicologo in
modo che possano essere ottenuti risultati migliori.
Gli psicologi necessitano una conoscenza che abbia ampiezza, poiché spesso si trovano a
dover fronteggiare situazioni nuove con inusuali combinazioni di caratteristiche.
Modelli ampi e teorie sono necessari nel contesto della pratica perché forniscono una base
per l’uso della conoscenza quando ci si confronta con una nuova situazione o un nuovo problema, e
suggeriscono in che modo sviluppare nuovi tipi di tecniche pratiche. La teoria e i modelli rendono
la conoscenza scientifica più insegnabile.
La conoscenza è migliore se acquisita attraverso regole attentamente testate e sistematizzate
basandosi sull’esperienza verificabile. Quest’approccio è di aiuto specialmente quando il compito è
complesso e gli esiti probabilistici.
La storia del genere umano mostra come la scienza sia unica a livello di efficacia nel creare
una conoscenza progressiva verbalmente espressa.
Quando la scienza e l’esperienza diretta confliggono, spesso la scienza è una scelta
lungimirante: come strumento per creare conoscenza che permetta di creare nuove conoscenze, la
nostra esperienza come specie umana mette al primo posto la conoscenza scientifica.

16
CAP. 2 - GLI ELEMENTI DELLE INTERAZIONI

1. Il quadro di riferimento: la psicologia tra individuo e ambiente


Tradizionalmente, la psicologia ha concepito l’oggetto del proprio studio in termini di un
soggetto contrapposto al mondo esterno. La psicologia studiava solamente la mente, mentre le
scienze forti gli oggetti che compongono la realtà fisica. Questa separazione è però di ostacolo per
raggiungere una comprensione integrata e soddisfacente dell’individuo. Per questo, in questo
capitolo individuo e ambiente vengono definiti in termini di interazioni.
Il primo polo da cui partire è l’ambiente: per lungo tempo è stato considerato solo il luogo
in cui animali e uomini vivono e agiscono. Pur essendo evidente che i comportamenti erano diversi
a seconda dei luoghi-ambiente, non veniva stabilito alcun rapporto causale tra diversità di luoghi e
diversità di comportamenti. Il primo a riflettere su questo aspetto fu Cartesio: introdusse il concetto
di riflesso allo scopo di descrivere una relazione automatica e involontaria che non richiedeva la
partecipazione della mente. L’ambiente psicologico è quindi la somma totale di stimoli che
l’individuo riceve dal concepimento alla morte.
L’altro polo dell’interazione è l’organismo/individuo visto nella sua progressiva
evoluzione determinata dalla continua interazione con l’ambiente che ne influenza la struttura e la
funzione.
L’unità di analisi è la situazione interazionale o segmento comportamentale che consiste
in una situazione simbiotica e inscindibile tra stimoli, risposte e fattori del setting. Il
comportamento è inteso come l’insieme delle manifestazioni umane osservabili e non osservabili e
comprende emozioni, cognizione, azioni, ricordi, sensazioni fisiche, problem solving, linguaggio. Il
comportamento non è analizzato in sé, ma in quanto interazione e relazione.
Il metodo con cui le intenzioni saranno analizzate è quello scientifico, proprio delle scienze
naturali. Tuttavia, in psicologia le relazioni tra eventi nella spiegazione/previsione del
comportamento possono essere descritte in termini probabilistico-funzionali e non deterministico-
causali. Funzionale significa essere interessati alle funzioni psicologiche, intese come processi che
avvengono nell’interazione tra un essere umano e l’ambiente visti come un momento unitario e
reciproco di una interrelazione funzionale. Probabilistico, invece, significa che le componenti
necessarie ad un processo non ne garantiscono il successo in modo assoluto, per lo meno non nello
stesso modo lineare e meccanico con cui ha luogo un fenomeno elettrico o una reazione chimica.

17
2. L’oggetto dell’analisi: il comportamento e le sue caratteristiche
L’aspetto fondamentale che caratterizza la psicologia è quello di essere la scienza che studia
il comportamento umano. Quando si affronta lo studio del comportamento è necessario tenere
presente due aspetti:
1. Il comportamento è un evento globale: implica e coinvolge tutti gli aspetti della
persona (es. quando un uomo rischia di essere investito, prova emozioni di paura, si
attivano i circuiti cerebrali relativi alla memorizzazione, comportamento verbale,
ecc.).
2. Il comportamento è un evento incarnato: comportarsi è una caratteristica
ineliminabile degli esseri viventi. Se ogni comportamento è comunicazione, e non è
possibile non comunicare, allora non è possibile non comportarsi.
Comportamento è quindi ogni interazione di un individuo con i propri simili e con
l’ambiente circostante; per ossimoro comprende quindi tutte le manifestazioni umane, osservabili e
non. L’oggetto dell’osservazione non è fisso e immutabile, e la soglia di osservabilità di un evento
varia a seconda di almeno tre fattori: il contesto dell’osservazione, le caratteristiche dell’osservatore
e gli strumenti tecnologici dell’osservazione.
I comportamenti possono essere descritti lungo due dimensioni o assi di un continuum:
l’asse innato-appreso e l’asse semplice-complesso. L’incrocio tra questi due assi dà vita a quattro
tipologie di comportamenti possibili:
1. Comportamenti innati-semplici (es. riflesso di suzione del bambino)
2. Innati-complessi (es. linguaggio delle api o comportamento delle formiche)
3. Appresi-semplici (es. abilità grossomotorie)
4. Appresi-complessi (es. il linguaggio umano)

18
I comportamenti innati sono caratterizzati dalla loro automaticità, non richiedono sforzo nè
tempo per essere migliorati. Ma lo svantaggio risiede nella loro rigidità che non consente modifiche
a livello individuale, ma solo a livello di specie.
I comportamenti appresi sono dispendiosi in termini di energia e tempo e soggetti ad
errore, ma sono più flessibili e modificabili dall’individuo.
Gli assi descritti non vanno intesi come un modello descrittivo statico, ma come espressione
di due continuum lungo le cui innumerevoli sfumature si va a collocare uno specifico
comportamento: non è statico. Ad esempio, il comportamento semplice innato di un neonato è in
evoluzione, con la crescita può passare sotto il controllo volontario del bambino.

3. La dimensione temporale (storica) del comportamento


Nello studio del comportamento, è importante prestare attenzione anche alla storia non solo
psicologica, ma anche biologica dell’individuo, quella che Kantor chiama reactional biography.
La storia di una persona, cioè la successione di eventi con cui ha interagito biologicamente e
psicologicamente, fa sì che questa persona sia proprio questa e non un’altra ed è fondamentale
anche per la programmazione di eventi successivi.
Per Kantor, il comportamento è adattamento, cioè modificazione di un individuo nella
sua relazione con l’ambiente. Gli adattamenti, in base alla loro funzione, possono essere distinti
in manipolativi, affettivi, cognitivi e linguistici. Se intendiamo l’adattamento come interazione tra
individuo e ambiente, ammettiamo l’interdipendenza tra stimolo e risposta: se esiste una risposta,
deve esserci qualcosa a cui rispondere e uno stimolo esiste perché vi è una risposta ad esso. Essi
devono essere quindi concettualizzati e studiati come eventi reciproci di un campo, poiché qualsiasi
cambiamento dell’uno modifica profondamente anche l’altro.
Unità fondamentale della costruzione teorica kantoriana è ciò che viene chiamato
“segmento comportamentale”. Tale unità include i fattori che compongono un evento psicologico
e che operano in un campo, riassunti nella formula:
PE = f (sf, rf, h, s, m)
dove:
● PE = evento psicologico (psychological event)
● sf = funzione stimolo (stimulus function)
● rf = funzione risposta (response function)
● h = storia intercomportamentale (interbehavioral history)
● s = contesto o eventi situazionali (setting)
● m = mezzo di contatto (medium)

19
L’evento psicologico è quindi funzione, per Kantor, di uno stimolo e una risposta della
storia individuale, della situazione ambientale in cui stimolo e risposta compaiono e del mezzo
attraverso cui organismo e ambiente vengono a contatto. La funzione-stimolo di un oggetto varia in
rapporto ai contatti che un organismo ha avuto con esso: dipende dalle risposte che in sua presenza
l’organismo ha emesso. Analogamente allo stimolo, la risposta non è un evento statico, ma il fattore
dinamico in una situazione complessa, uno degli elementi di una interrelazione psicologica.
Se stimolo e risposta sono interdipendenti, dovrebbe esistere qualche meccanismo che renda
possibile determinare quale funzione stimolo e quale funzione risposta entrino in gioco in un dato
momento. Kantor individua questo meccanismo in un evento evolutivo che inizialmente chiama
“biografia reazionale” e, successivamente, storia interazionale. La storia intercomportamentale di
un individuo si compone di due aspetti: da un lato lo sviluppo delle risposte e delle loro funzioni,
dall’altro lo sviluppo delle funzioni degli stimoli.
La storia interazionale è parte integrante di ogni evento psicologico e contribuisce a
determinare le caratteristiche funzionali della risposta e dello stimolo, definendo in tal modo i
significati degli atti.
Per riassumere: una risposta dipende dalla storia interazionale con lo stimolo, e la sua
funzione funzione può modificarsi al variare di quest’ultimo, anche se mantiene caratteristiche
motorie identiche rispetto alle precedenti.
Le caratteristiche ambientali, che egli definisce eventi situazionali, sono componenti
intrinseche all’atto interazionale e comprendono sia le condizioni fisiche dell’ambiente
(temperatura, luogo, ecc), sia quelle dell’organismo (fatica, alcool, stato di salute, ecc). Tali fattori
interessano l’individuo che agisce, lo stimolo e l’interazione nel suo complesso, determinando
pesantemente quali possibili funzioni dello stimolo e della risposta saranno messe in opera in quella
determinata situazione.
Infine, il mezzo di contatto è rappresentato dalle “periferiche” con cui un organismo entra in
rapporto con il mondo esterno, cioè i nostri sensi.

4. La scatola degli attrezzi: gli elementi di base di una psicologia internazionale


Non tutti i termini devono essere necessariamente presi come entità reali. In molti casi si
tratta di concetti di che hanno soprattutto valore euristico nel tentativo, da parte della psicologia, di
evitare la solita contrapposizione tra soggetto e oggetto.
Tutti i comportamenti si manifestano in un contesto ambientale: il comportamento non si
esprime nel vuoto ma il ruolo e il valore attivo dell’ambiente sono una conquista recente.

20
Particolare rilievo viene dato agli eventi situazionali perché sottolineano la visione
contestuale e interazionale della psicologia e permettono di considerare congiuntamente il soggetto
insieme con il suo ambiente.

4.1. Le funzioni: tra ambiente e organismo


Ogni organismo che viva in un ambiente è sottoposto continuamente a forze che agiscono su
di esso. Tali forze sono in parte percepite dall’organismo attraverso i sensi sotto forma di variazioni
dell’ambiente stesso: uno stimolo (S) rappresenta dunque per l’organismo una variazione
percepibile dell’ambiente. Qualunque variazione ambientale che provochi un’attività nervosa
nell’organismo può essere uno stimolo.
Generalmente la variazione ambientale è sempre caratterizzata in termini fisico-chimici. In
psicologia, però, con il termine “stimolo” non ci si riferisce solo alla dimensione fisico-chimica,
quindi è più correttamente definito situazione stimolo o evento stimolo: uno stimolo è dunque un
evento fisico, organico o sociale che può essere studiato direttamente o indirettamente tramite
strumenti.
Non tutti gli stimoli producono effetti sul comportamento individuale, quindi non tutti
gli stimoli hanno funzione stimolo: la funzione stimolo è quindi la descrizione della specifica azione
di una parte dell’ambiente su un dato individuo. Lo stesso stimolo può assumere e svolgere funzioni
diverse per diversi individui, al contrario stimoli diversi possono svolgere la stessa funzione per più
individui. La funzione stimolo può essere genericamente predisposta o acquisita.
Si individuano classi di funzioni stimolo:
➔ Funzione elicitante: la sua prestazione produce nel soggetto una specifica reazione
automatica e involontaria.
➔ Funzione discriminativa: indica l’occasione socialmente o naturalmente opportuna
per l’emissione di un comportamento. Anche in questo caso, lo stimolo precede il
comportamento, ma non lo provoca, tutt’al più lo indirizza, lo rende più probabile in
determinate occasioni.
➔ Funzione rinforzante: rende più forte, cioè più frequente, più probabile una
risposta. Il comportamento che è successivamente seguito aumenta la sua frequenza.
➔ Funzione penalizzante: rende più debole, meno frequente, diminuisce le probabilità
che una risposta venga emessa in futuro.
Le variazioni possono essere sottili e appena percepibili, oppure molto evidenti. Quindi,
ogni volta che si parla di stimolo si fa riferimento a una classe di stimoli, cioè a una collezione di
eventi simili per l’aspetto fisico o per la funzione svolta nell’interazione con l’organismo.

21
È importante ricordare che lo stimolo è inteso come unità dinamica e non statica: uno
stimolo sonoro, ad esempio, è in realtà il passaggio da assenza di suono a presenza di suono.

22
4.2. Risposte e riflessi
La risposta (R) è un’azione che risponde a un evento precedente, ossia lo stimolo. Ma come
uno stimolo non è definito in termini di risposta, così una risposta non è definita come qualcosa
causata da stimoli.
Non esiste una singola risposta, esistono classi di risposte, cioè forme diverse di
comportamento che svolgono la stessa funzione. Non tutte le risposte di un organismo interessano
la psicologia: solamente quelle che rappresentano dei comportamenti, cioè costituiscono
l’interazione di una parte delle attività dell’individuo con una parte delle attività dell’ambiente.
Le modalità di produzione di una risposta si classificano in:
➔ Risposte elicitate: reazioni involontarie che seguono automaticamente alla
presentazione di uno stimolo (es. contrazione della pupilla, salivazione, riflesso di
difesa). Il legame causale tra stimolo e risposta è di tipo elicitante; uno stimolo
elicita, cioè produce, una specifica risposta. Il riflesso è una relazione funzionale
non appresa tra uno specifico stimolo e una specifica risposta. Non appreso significa
semplicemente che un organismo generalmente mostra la relazione senza
semplicemente una storia di apprendimento.
➔ Comportamenti emessi: non sono l’effetto in senso causale-deterministico di uno
stimolo ambientale specifico; bisogna considerare la storia di interazioni del
soggetto con l’ambiente fisico e sociale. Questo fa sì che in alcune situazioni siano
più probabili e frequenti che in altre. Comprendono tutta la gamma delle
manifestazioni umane e rappresentano il modo in cui un organismo agisce su e
modifica l’ambiente.
Anche se la risposta può essere definita in termine di azioni degli effettori di un organismo,
il termine si riferisce spesso all’effetto di tale azione sull’ambiente. Per questo motivo è necessario
introdurre il concetto di topografia della risposta → forma, durata, intensità e occorrenza di una
risposta.

4.3. Eventi situazionali


C’è un altro fattore che concorre a influenzare la relazione eventi stimolo organismo, cioè
gli eventi situazionali o di contesto. Ogni relazione stimolo-organismo ha luogo in un contesto che
influenza le interazioni che ivi hanno luogo, modificando la forza, la valenza e le caratteristiche
delle funzioni dello stimolo e della risposta implicati in quella interazione.

23
Es. Fare una doccia a 28°: la valenza e quindi l’interazione di questo stimolo sul nostro
organismo sarà molto diversa a seconda che si verifichi a dicembre o ad agosto. Lo stimolo acqua è
fisicamente del tutto identico nelle due situazioni, ma la nostra reazione sarà diversa. Questo
permette anche di evitare la categorizzazione degli eventi stimolo in positivi e negativi; non
possono essere di per sé appetibili o avversivi, ma lo diventano in un determinato contesto.

CAP. 3 - INTERAZIONI TRA SOGGETTO E AMBIENTE: LA


PERCEZIONE
La percezione è uno dei problemi più grandi della scienza e tuttora non si sa perché noi
percepiamo il mondo. Percezione è il termine che si dà alla capacità di portare dentro il mondo
esterno: attraverso la percezione, infatti, il soggetto fa esperienza del mondo. Tuttavia questo
non ci spiega cosa sia fare esperienza, come si possa farlo, che rapporto esiste tra soggetto e mondo.
Spesso la tradizione ha cercato di evitare gli aspetti più spinosi cercando di prendere in esame solo
aspetti ben conosciuti come la fisiologia e la fenomenologia.
In sintesi, lo studio della percezione ha dato luogo a 3 modelli ricorrenti:
➔ percezione come contatto diretto con il mondo esterno
➔ percezione come riproduzione interna del mondo esterno
➔ percezione come attività tra l’agente e il mondo

1. Elementi di base della percezione


A prescindere dal modello percettivo preferito, vi sono alcuni concetti di base che qualsiasi studioso
deve conoscere:
➔ separazione tra sensazione e percezione
➔ catena psicofisica
➔ legge di Fechner

1.1. La catena psicofisica


La catena psicofisica è costituita dalla successione di momenti che dal mondo esterno
giungono al contenuto mentale. È intesa come una catena di cause ed effetti che si imprimono
sul soggetto senza che questo abbia un ruolo attivo particolarmente significativo.
Es. Io vedo una mela (è una frase misteriosa perché noi non sappiamo esattamente cosa sia
l’io o il vedere; io è fisico, la mela è fisica; io vedo la mela va dallo psichico al fisico) non è fisico.
Il verme mangia la mela sono 3 elementi fisici che possiamo vedere.
Quando si spiega la catena psicofisica non si mette mai abbastanza in evidenza il fatto che

24
nella percezione noi mettiamo insieme lo psichico con il fisico; può andare dallo psichico al fisico e
dal fisico allo psichico. Il modo tradizionale di raccontare la catena psicofisica è questo: partiamo
dalla mela, l’occhio invia dei segnali nervosi che arrivano alla corteccia occipitale dei due emisferi,
arrivano alla corteccia visiva del cervello e dopo di che vediamo la mela (per fare questo ci
vogliono 50/200 millisecondi, è un tempo piccolo ma non piccolissimo).
La catena psicofisica si divide in tre momenti:
stimolo distale → stimolo prossimale → percetto
➔ stimolo distale: evento o oggetto fisico che è all’origine del percorso causale che è
quello della percezione;
➔ stimolo prossimale: modificazione fisica del corpo del percepiente a seguito
dell’effetto esercitato dallo stimolo distale; in sintesi è la stimolazione che avviene
all’interno dell’organismo di senso;
➔ percetto: contenuto mentale che noi vediamo quando vogliamo vedere il mondo
esterno.
A prima vista il modello della catena psicofisica sembra molto ragionevole ma rileva
problemi insolubili: ad esempio, è molto dubbia la nozione di percetto; la divisione dei due stimoli è
arbitraria, perché tra i due esistono innumerevoli cause intermedie; inoltre, come si passa dallo
stimolo prossimale al percetto? E quale relazione esiste tra il percetto e lo stimolo distale?
Un altro termine che viene preso in esame è l’oggetto percepito che ammette molteplici
connotazioni:
➔ Oggetto fisico: descritto dalla scienza, costituito da campi di forza, legami
elettronici, particelle elementari, completamente descrivibile da equazioni
matematiche;
➔ Oggetto quotidiano: si incontra continuamente nell’esperienza quotidiana; costituito
da qualità familiari;
➔ Oggetto fenomenico: oggetto dell’esperienza in quanto esperienza, costituito solo
dalle sensazioni e percezioni;
➔ Oggetto percepito: attraverso l’oggetto fenomenico percepiamo qualcosa che
fenomenico non è perché attraverso la percezione di sensazioni arriviamo a percepire
il mondo esterno;
➔ Oggetto intenzionale: penso di vedere Claudio eppure mi sbaglio, ma per un attimo
ho creduto di averlo visto. L’oggetto intenzionale normalmente coincide con tutti gli
altri ma in casi particolari mostra la sua autonomia.

25
1.2. Sensazione e percezione
La relazione tra mondo esterno e mondo interno ha indotto a supporre un momento
intermedio tra la percezione e il mondo fisico: la sensazione. Secondo la tradizione, il mondo
esterno determina delle modifiche e questa modifica è la sensazione, che quindi è stata spesso
intesa come un’alterazione passiva del corpo a seguito del mondo esterno.
Il problema maggiore del termine è che si trova a cavallo tra il mondo fisico e il mondo
mentale. Dire che la sensazione non è altro che “un’impressione soggettiva immediata e semplice
che corrisponde ad una determinata intensità dello stimolo fisico” (Goldstein) è inutile in quanto
non ci dice nulla su come dovrebbe avvenire la corrispondenza tra stimoli fisici e quantità
soggettive semplici.
Nel momento in cui vogliamo comprendere i meccanismi che stanno alla base della
percezione, dobbiamo necessariamente prendere in considerazione la struttura sensoriale che rende
possibile la percezione del mondo esterno.
La tradizione assegna all’essere umano cinque sensi: la vista, l’udito, il gusto, il tatto e
l’odorato. L’esistenza di un senso dipende dall’avere una certa struttura sensoriale che ci permette
di essere sensibili a una certa categoria di fenomeni: per la vista, l’occhio ci permette di essere
sensibili ai fenomeni visivi; per l’udito, le orecchie ci permettono di essere sensibili alle onde di
pressione che trasmettono i fenomeni uditivi; per il tatto, la pelle; per l’odorato, il naso; per il gusto,
la bocca e la lingua.
In ognuno di questi casi, l’organo permette di essere sensibili a qualcosa perché contiene
delle cellule sensibili a certi fenomeni. La funzione dei recettori è quella di trasformare un certo
fenomeno fisico esterno in un segnale nervoso.
In realtà, il numero di tipi diversi di sensi è molto più grande a causa del fatto che esistono
tipi di recettori che non rientrano nell’elenco appena fatto:
➔ PROPIOCEZIONE: capacità di percepire la posizione dei nostri arti in movimento;
➔ SENSO CINESTETICO: rappresentato dalle strutture contenute nell’orecchio
interno dette labirinto, strutture che ci informano della nostra posizione nello spazio.
La sensazione è tradizionalmente distinta dalla percezione.
Normalmente si definisce la sensazione come una modificazione soggettiva che il corpo o
la mente subiscono a seguito di uno stimolo esterno.
La percezione è la ricostruzione oggettiva dello stimolo esterno che ha causato lo
stimolo soggettivo. Il corpo subisce degli stimoli da oggetti ed eventi esterni. in seguito a questi
stimolo il corpo si modifica, tali modifiche sono dette sensazioni. Da qualche parte le sensazioni

26
vengono organizzate insieme per ricostruire la natura dell’oggetto o eventi esterni. La ricostruzione
viene detta percezione.

1.3. Leggi psicofisiche


La psicofisica ha tentato di dare delle misurazioni fisiche dei processi mentali, ad la
misurazione dell’intensità delle sensazioni e delle capacità di discriminare tra sensazioni diverse.
Parlare di misurazione della sensazione implica la definizione del concetto di soglia. La
principale distinzione che possiamo operare al concetto di soglia riguarda quella tra soglia assoluta
e soglia differenziale.
➔ Soglia assoluta: intensità minima di uno stimolo in grado di generare una
sensazione. Esistono 3 metodi principali per la sua misurazione:
◆ metodo dell’errore medio: il soggetto sperimentale modifica in senso
crescente e decrescente l’intensità dello stimolo;
◆ metodo dei limiti: non è il soggetto sperimentale che modifica l’intensità
dello stimolo, bensì lo sperimentatore: l’intensità viene modificata fino a
rendere lo stimolo appena (im)percettibile;
◆ metodo costante: vengono presentati al soggetto una serie di stimoli
preventivamente scelti dallo sperimentatore in base all’intensità;
➔ Soglia differenziale: differenza minima tra due valori di stimoli presentati in
successione o in contemporanea, differenza sufficiente per poter essere rilevata tale.
Ci sono due metodi per la misurazione:
◆ metodo delle serie continue ed ordinate: è lo sperimentatore che modifica
l’intensità dello stimolo, intensità che viene modificata fino a rendere lo
stimolo appena percettibile o appena impercettibile;
◆ metodo costante: viene presentato lo stimolo secondo una serie di valori
precedentemente fissati, in maniera casuale e per più sequenze. Il soggetto
sperimentale dovrà riferire se percepisce quello stimolo come
inferiore,uguale o superiore allo stimolo standard.
I momenti fondamentali nello studio della misurazione della sensazione sono stati tre:
➔ La legge di Weber-Fechner secondo cui dato uno stimolo R, la variazione DR dello
stimolo necessaria per generare una sensazione S è proporzionale a R e costante.
DR | R = K costante
La legge esprime che l’andamento della sensazione percettiva è proporzionale al
logaritmo dell’intensità fisica dello stimolo.

27
➔ La psicofisica oggettiva secondo cui le sensazioni possono essere misurate in base
allo stimolo e alla via sensoriale seguita.
➔ La psicofisica soggettiva secondo cui i soggetto interviene attivamente nel processo
di misurazione dello stimolo, l’unità di misura diventa soggettiva.

1.4. Costanze percettive


Uno dei principali problemi della percezione consiste nel trovare ciò che vi è di invariante
nel flusso degli stimoli. Ogni oggetto non si presenta mai identico: numerosi condizioni ambientali
continuano a modificarlo. Eppure riconosciamo senza problemi gli stessi oggetti o le stesse persone
anche in situazioni molto diverse. Il nostro sistema percettivo è in grado di annullare molte
differenze dovute a circostanze ambientali. Quindi è importante che il sistema percettivo sia in
grado di passare dai particolari variabili alla percezione delle costanti (invarianti) negli stimoli in
arrivo.
Esistono molti casi diversi di costanze percettive: la costanza della forma, del colore,
nell’identità di un oggetto.
Prendiamo in considerazione la costanza nella percezione dell’identità di un oggetto. Gli
oggetti mantengono la loro identità percettiva anche quando sono visti da punti di vista diversi.
Secondo il dualismo, si assume che gli oggetti esistono a prescindere dalla loro interazione con il
soggetto. Altri autori hanno sottolineato il fatto che l’esistenza degli oggetti dipende dal tipo di
interazione che possono avere luogo con gli agenti o, semplicemente, dalla loro capacità di produrre
effetti. Il ruolo della percezione diventa quello di ricostruire l’oggetto visto come una causa distale
che si assume esista indipendente dall’atto percettivo. È l’effetto che è responsabile per
l’attribuzione di esistenza della causa, ovvero dell’oggetto.
In realtà, non esiste alcun criterio per stabilire l’identità di un oggetto, se non quello di
verificare che produca lo stesso effetto. L’unità della causa è ipotizzata per giustificare l’unità
dell’effetto.
Questa soluzione può essere chiarita facendo due esempi:
➔ gli oggetti non esistenti che sono percepiti come reali solo perché producono effetti
comuni → oggetti virtuali e personaggi generati. Es. una palla che rimbalza sullo
schermo di un computer è solo una collezione di relazioni causa-effetto
immagazzinate in un calcolatore. Non esiste una palla, ma esistono solo una serie di
istruzioni separate. Poiché producono un effetto comune (attraverso l’interazione con
un utente umano), si assume percettivamente che debba esistere una causa comune
(una palla rimbalzante);

28
➔ gli oggetti esistenti che non sono percepiti come reali perché non producono un
effetto comune → oggetti reali percepiti in maniera totalmente diversa. Es. Cervino
descritto in modo completamente diverso nei due versanti.
Da un punto di vista empirico, come possiamo distinguere due entità nel momento in cui
hanno gli stessi effetti? La causa è definita dall’effetto e l’esperienza non è composta da una causa
reale e da una sua apparenza, bensì causa ed effetto sono due modi di vivere dello stesso processo,
apparenza e realtà sono due prospettive limitate.

2. Modelli di percezione
La percezione deve spiegare come sia possibile che il soggetto faccia esperienza di ciò che è
altro da lui e si trova nel suo ambiente.
Per quanto riguarda i modelli abbiamo due grandi categorie:
➔ modelli indiretti: reputano che non si faccia veramente esperienza del mondo
esterno, ma di qualche altra cosa che sta tra il mondo esterno e noi
➔ modelli diretti: cercano di spiegare la percezione in un contesto ecologico-
relazionale che la vede come un processo che avviene tra soggetto e ambiente. Il
vantaggio è che non devono introdurre entità mentalistiche dubbie. Il loro svantaggio
è che riescono con difficoltà a spiegare situazioni quotidiane.

2.1. Percezione come mimesi


Il modello percettivo più vicino al senso comune è forse quello della percezione mimetica o
della percezione come copia. Quando percepiamo il mondo come è perché il nostro sistema
percettivo crea una copia di ciò che ci circonda.
Il modello mimetico è molto versatile nello spiegare casi di percezione non veridica come
sogni e allucinazioni. Se il cervello normalmente crea un’immagine sensoriale del mondo esterno, è
facile pensare che tale capacità possa essere utilizzata per creare mondi non reali.
La visione canonicamente più denigrata di questo punto di vista è il modello della
percezione di Cartesio, a volte riferito come teatro cartesiano. Secondo la visione di tale modello
riceviamo degli stimoli attraverso i sensi e il nostro intelletto fa proprie delle idee che hanno la
stessa forma degli oggetti percepiti.
In tempi più recenti si possono ricondurre a questo modello le seguenti teorie:
➔ percezione come creazione di modelli del mondo esterno molto popolare
nell’ambito delle scienze cognitive (mentre per Cartesio le idee condividevano la
stessa forma del mondo, per le scienze cognitive i modelli descrivono il mondo);

29
➔ percezione come generazione di attività fisico-chimiche-neurali isomorfe agli
stimoli percepiti;
➔ percezione come produzione di un modello a realtà virtuale del mondo esterno:
in questo caso si ricorre alle metafore erronee derivate dalle tecnologie più recenti
per giustificare un modelle empiricamente e teoricamente debole;
➔ percezione come produzione controllata di immagini mentali

2.2. Percezione sensoriale


La nozione di sensazione, in senso proprio, è sostanzialmente abbandonata. Tuttavia nel
passato ha dato luogo ad almeno due importanti teorie percettive:
➔ Teoria delle energie specifiche (Muller), oggi completamente discreditata. La
qualità e il contenuto dell’esperienza erano creati dai nervi in entrata, ognuno
contraddistinto da una particolare energia specifica che corrispondeva a una certa
esperienza.
➔ Teoria dei dati sensoriali, sviluppata da diversi autori. Secondo loro, i dati
sensoriali sarebbero contenuti mentali creati dal soggetto che costituirebbero gli
elementi costitutivi della percezione. In questo senso, non sarebbe possibile accedere
direttamente al mondo esterno, ma soltanto a questo livello di dati sensoriali che fa
da tramite tra noi e il mondo che ci circonda. Quando guardiamo il mondo, non lo
vedremmo per quello che è, ma mediato attraverso i dati sensoriali.

2.3. Percezione come interpretazione


Nell’Ottocento si mise in discussione la visione cartesiana della percezione con la teoria
sviluppata da Herman von Helmholtz. Concetto chiave delle teorie di Von Helmholtz è
l’Anschauung, dove sensazione e immaginazione si integrano nella costruzione delle interazioni
percettive: senza rendersene conto, il soggetto elabora una percezione in parte fondata sul dato
sensoriale e in parte sull’esperienza passata che lo modifica. L’oggetto del mondo fisico è
semplicemente un insieme di sensazioni e l’esperienza passata che permette al soggetto di
riconoscere l’oggetto come invariato.
La teoria reputa che le sensazioni elementari, attraverso i processi di associazione e sulla
base dell’esperienza pregressa, permettano di interpretare i dati sensoriali in ingresso sotto forma di
oggetti esterni. Il processo percettivo è dunque una forma di interpretazione probabilistica dei dati
sensoriali in ingresso.
Secondo Helmholtz, l’esperienza passata fa sì che si tendano a correggere le percezioni
attuali, attraverso un atto di giudizio.

30
In sintesi: il mondo è fatto di fenomeni fisici e oggetti. Quando il percipiente è posto di
fronte a tali oggetti, i suoi sensi producono atti sensoriali che sono diversi dalle proprietà reali
dell'oggetto, ma che costituiscono il primo livello della percezione. La mente, sulla base di
associazioni tra esperienze, deriva inconsciamente che quei dati sensoriali sono un certo oggetto
esterno che è il vero contenuto della percezione cosciente.
Abbiamo però 3 problemi:
➔ Problema empirico: la complicata spiegazione di questo approccio non è
empiricamente verificabile in quanto né i dati sensoriali, ne le inferenze inconsce
sono misurabili;
➔ Problema epistemico: il modello non è chiaro circa il modo in cui la mente inizia ad
associare dati sensoriali a oggetti esterni e inoltre non spiega come le interferenze
possano corrispondere a particolari contenuti mentali;
➔ Problema ontologico: legato alle numerose entità coinvolte che non sono facilmente
riducibili in termini fisici.

2.4. Percezione e Gestalt


La psicologia sostiene che la percezione rappresenta qualcosa di superiore alla semplice
somma delle sensazioni.
La psicologia della Forma prende linfa dal concetto di Gestaltqualität elaborata da Von Ehrenfels,
secondo cui il tutto percettivo non può essere ridotto all’insieme di qualità provenienti dai
singoli elementi che lo compongono.
Tra 1915 e 1935 i gestaltisti rifiutarono di scomporre l’esperienza nelle sue componenti
elementari e focalizzarono la loro attenzione sul concetto di “tutto percettivo” come insieme non
separabile di eventi. Una psicologia fondata sull’atto, sull’intenzionalità intesa come atto che
rapporta il soggetto all’oggetto.
La forma non è soltanto una separazione ma costituisce l’essenza di quello che ci
circonda. La corrente che si è maggiormente occupata del problema della forma è la Gestalt, una
corrente di ricerca che ha tentato di superare i limiti del comportamentismo e del puro
fenomenismo.
Questa corrente sostiene che la percezione consista nell’afferrare certe caratteristiche salienti
dell’oggetto che contengono l’informazione sulla sua struttura globale, piuttosto che sulla
completezza o esattezza.
La Gestalt studia la forma in quanto tale e la pone nel punto di intersezione tra il soggetto e
l’oggetto.
Le leggi individuate dalla Gestalt:
31
➔ legge di prossimità: parti distinguibili che sono tra loro vicine tendono a essere
percepite come facenti parte di unità più grandi;
➔ legge di somiglianza: parti distinguibili più simili tra loro tendono a essere percepite
come facenti parti di unità più grandi;
➔ legge di continuità: di fronte a parti distinguibili la continuità in questo tipo di
progresso è sentita come un criterio per l’aggregazione;
➔ legge di chiusura: le forme chiuse hanno maggiore probabilità di essere percepite di
quelle aperte.

2.5. Percezione computazionale


Secondo il modello computazionale della percezione, il soggetto riceve, attraverso i
ricettori, non dati sensoriali, ma informazione: una lista di numeri. Questa informazione è l’esito
di una serie di complesse funzioni che dal mondo esterno, passando attraverso gli organi di senso,
danno luogo a una rappresentazione numerica compressa del mondo esterno.
Il campione di questo punto di vista è stato senza dubbio David Marr che ha proposto uno
schema a tre livelli per scomporre la ricostruzione della funzione inversa che dovrebbe
consentire di ricostruire il mondo esterno.
Nel caso della percezione visiva per Marr, il nostro cervello procede in questo modo:
➔ abbozzo primario: schema formato da linee, il sistema percettivo funziona sulla
base del riconoscimento e della registrazione delle frequenze spaziali procedendo in
maniera ordinale;
➔ abbozzo a due dimensioni e mezza: l’attività percettiva non esaurisce la totalità
delle informazioni generate dal confronto fra due superfici collocate a differenti
piani di distanza
➔ descrizione a tre dimensioni: l’oggetto viene identificato nella sua forma originale
ed è ricostruito sotto forma di modello tridimensionale inserito in uno spazio
cartesiano a tre dimensioni.
Si tratta di un modello che ha notevoli affinità logiche con le interferenze inconsce di
Helmholtz. Anche secondo il modello computazionale si ritiene che il sistema, a partire da un
materiale intermedio e attraverso operazioni mentali, possa giungere al contenuto percettivo.

2.6. Percezione ecologica


Altri autori hanno preso in esame la possibilità che la percezione sia esperienza diretta e non
mediata del mondo esterno. In effetti, ambiente e soggetto sono strettamente dipendenti.

32
La chiave per risolvere il problema della percezione potrebbe consistere nel mettere in
dubbio una delle ipotesi sulle quali si fondano gran parte dei modelli di percezione indiretto: il
soggetto e il mondo percepito sono effettivamente entità separate e contrapposte oppure sono due
momenti di un medesimo insieme?
Il primo autore da prendere in considerazione è lo svizzero von Uexül. Secondo Von
Uexkul, ciascun individuo vive nel suo mondo personale. Confrontando organismi diversi,
esemplari di specie diversa potevano occupare lo stesso ambiente fisico ma avere
un’esperienza completamente diversa di esso.
La nozione di cross section sviluppata da Edwin Holt afferma che una cross section
somiglia al mondo personale, nel senso che consiste in una sezione dell’ambiente sulla base delle
caratteristiche particolari di un certo soggetto. Cos’è esattamente una cross section? Secondo Holt,
la coscienza è estesa sia nello spazio sia nel tempo: nello spazio, in quanto i suoi oggetti sono estesi
e la coscienza è parzialmente costituita da tali oggetti nella misura in cui tali oggetti sono percepiti
da essa; è estesa nel tempo nella misura in cui i suoi oggetti sono estesi nel tempo.
Possiamo concepire la cross section come una sezione dell’ambiente definita da una certa
relazione con il soggetto.
Nell’ambito della percezione ecologica, l’autore più importante è sicuramente Gibson, il
quale ha proposto un modello della percezione che rifiutava ogni ricorso all’informazione
interna al sistema. Secondo Gibson, ci sono due termini fondamentali da tenere in considerazione:
➔ affordance: esprime ciò che ogni elemento dell’ambiente consente all’agente in
termini di azioni. Un’affordance esprime un’indicazione in due direzioni, verso
l’ambiente e verso l’osservatore.
➔ informazione ambientale: ciò che si percepisce non è una creazione interna della
mente, ma qualcosa di già presente nell’ambiente. Secondo Gibson l’ambiente non è
ricostruito a partire da un’immagine mentale, ma è percepito direttamente.
L’informazione è là fuori, aspetta soltanto di essere raccolta (pick up). Come avviene questa
raccolta? Gibson sviluppa l’idea della risonanza tra un sistema e certi aspetti del mondo esterno.
L’informazione non sarebbe elaborata ma colta direttamente attraverso la risonanza tra un sistema
fisico e il suo ambiente. La risonanza tra un sistema e il suo ambiente può essere intesa in due modi:
➔ relazionale: il contenuto della percezione è creato dalla relazione tra un certo agente
e il suo ambiente. Non esiste autonomamente;
➔ oggettuale: l’informazione è presente comunque nell’ambiente e negli oggetti che
l’ambiente contiene. Non è derivata dall’interazione con l’agente.

33
2.7. Percezione attiva ed enattivismo
L’enattivismo ha proposto di considerare non solo l’esistenza di invarianti nell’ambiente,
ma anche l’insieme di combinazioni sensoriali-motorie tra l’organismo e quell’oggetto.
Secondo l’enattivismo, l’esperienza di un certo organismo è racchiusa dentro la “struttura
dinamica”, ovvero delle possibili combinazioni di percezioni-azioni, tra quell’organismo e
l’ambiente. L’esperienza corrisponde alla conoscenza sensoriale e motoria di un organismo nei
confronti del suo ambiente.
Noë afferma che la nostra capacità di percepire è costituita dalla nostra coscienza sensoriale-
motoria e dalla nostra possibilità di usarla.
L’appello all’azione quale principio esplicativo non è esente da dubbi: che rapporto esiste
tra la percezione attiva e la percezione ecologica? I due approcci non sono necessariamente
identici. Il ruolo assegnato all’azione è compatibile con un sistema computazionale classico basato
su rappresentazioni simboliche o pittoriche interne: il sistema potrebbe limitarsi a trarre vantaggio
da determinate azioni e movimenti per trarre interferenze e produrre rappresentazioni e mappe
interne più precise. Analogamente, un sistema ecologico potrebbe essere passivo nella misura in cui
l’informazione è considerata già presente e completa nel suo ambiente circostante.
Il mondo personale dipende dalle caratteristiche fisiche, sensoriali, cognitive di un
organismo.
Utilizzando opportuni strumenti, l’essere umano può modificare il proprio Umwelt. Ciò
permette alle persone di vivere in un mondo personale diverso.
Portando alle estreme conseguenze quest’idea di mondo persona, ognuno di noi è il proprio
mondo personale e la distinzione con il mondo esterno viene a cadere.

3. Fisiologia della percezione: il caso della vista


Per fisiologia intendiamo quella serie di meccanismi fisici implementati dagli organi di
senso che rendono accessibile il mondo esterno ai processi cognitivi e mentali.

3.1. L’occhio: una camera oscura


L’occhio distorce, ribalta, deforma, modifica l’immagine esterna. Come il nostro cervello
sia in grado di farci percepire un modo uniforme, costante, regolare, è tutt’ora un mistero.
L’occhio è uno spazio chiuso con un’unica apertura di dimensioni variabili; la sua forma è
sferica, dovuta alla necessità di poter essere orientato rapidamente in tutte le direzioni. La forma e
struttura dell’occhio si sono posti come modello per la visione e per i fenomeni percettivi legati alla
visione.

34
L’occhio è una struttura cava nella quale la luce può entrare soltanto da un foro collocato
sulla parte anteriore. Il motivo del foro è che in questo modo i raggi luminosi provenienti dal mondo
esterno possono passare solamente se incidenti sul forellino.
Già da questo semplice modello, vediamo che emergono alcuni problemi. Il primo è che, per
motivi tecnici e pratici, nel caso di strutture realizzate dall’uomo, il tipo di superficie più comune è
quello della superficie piana. Il secondo problema è che l’immagine è apparentemente rovesciata.
Il primo a porre in termini moderni il problema del ribaltamento dell’immagine del mondo
esterno è stato il matematico e astronomo Johannes Kepler. Egli stesso riconobbe che la spiegazione
della visione in termini di immagini otticamente catturate dall’occhio era gravemente insufficiente.

3.1.1. La fallacia dell’immagine ribaltata e la retina


Fino al Seicento si riteneva che la maggiore difficoltà, in termini tecnici, fosse rappresentata
dalla parte ottica dell’occhio, ovvero la lente il modo in cui la lente modificava l’immagine. Dopo la
retina, si riteneva che l’immagine potesse risalire fino al soggetto, allo spirito, all’intelletto, alla
mente. Sempre in questo periodo, testimonianze grafiche dimostrano come il nervo ottico fosse
rappresentato come una struttura cava dentro la quale potesse transitare l’immagine catturata dagli
occhi.
Oggi sappiamo che non è così. L’immagine è acquisita dai fotorecettori che si trovano sulla
retina e, da qui, inviata attraverso le terminazioni nervose al nervo ottico. Quest’ultimo,
fuoriuscendo dalla retina, deve necessariamente farsi spazio tra i fotorecettori, creando di fatto un
punto cieco (macchia cieca, par. 3.1.3). Il punto dal quale escono le informazioni visive è quindi
privo di fotorecettori, al contrario della parte centrale. Per questo motivo non è casuale che il nervo
ottico fuoriesca in punto diverso dal centro della retina.
La retina è il foglio su cui è proiettata l’immagine del mondo esterno. Ha numerose e
importanti differenze:
➔ è grossolanamente circolare;
➔ non ha una densità uniforme, ma è costituita da una parte centrale ricchissima di
recettori, mentre la periferia ha un numero di recettori relativamente molto più basso;
➔ non vede colori e forme in modo omogeneo;
➔ ha una zona relativamente grande di cui siamo completamente inconsapevoli.
Aumentando il numero di recettori, aumenta anche il numero di segnali nervosi che devono
essere inviati al cervello. Il numero di segnali che procedono dall’occhio al cervello non è
esattamente uguale a quello del cervello, ma è proporzionale. Il nervo ottico è esattamente questo
fascio di nervi che trasmettono le informazioni dall’occhio al cervello. Se i recettori fossero troppi,
il numero di segnali da trasmettere aumenta, e corrispondentemente aumentano le dimensioni del
35
nervo ottico e quelle delle aree corticali cerebrali preposte a gestire quelle informazioni. Nell’occhio
non possono esserci troppi recettori.
E allora? La soluzione trovata dalla natura è quella di avere un occhio dotato di fovea,
ovvero di risoluzione variabile. Molto grande al centro, molto bassa in periferia. In questo modo si
possono avere i vantaggi di un grande campo visivo e di un’elevata risoluzione (solo al centro del
campo visivo).

3.1.2. La retina
Durante il Rinascimento, si affermano nuove teorie della luce che propongono l’esistenza
di corpuscoli che trasmettono le proprietà della luce.
Fu Keplero a suggerire che sono i “razzi” di luce a entrare dentro l’occhio e non viceversa e
che l’occhio non ha una semplice struttura cava. Più o meno negli stessi anni, Galileo presenta la
sua teoria della Luna, ponendosi il problema della verità delle immagini passate attraverso una
lente. Sempre negli stessi anni, Scheiner si avvicina a questi problemi: studia anatomicamente
l’occhio e produce il primo modello corretto dell’occhio con l’asse ottico e il nervo ottico non
coincidenti.
Quello che avviene nella retina è che un tipo di fenomeno (la luce) viene trasformato in un
altro tipo di fenomeno (l’attività neurale). I due fenomeni sono diversi e quindi avviene un qualche
tipo di trasformazione (trasduzione). Eppure la percezione è sempre percezione di luce e non di
semplice attività neurale.
Da un punto di vista fisiologico, la retina ha una struttura rovesciata. La struttura
rovesciata fa sì che la luce debba attraversare tutti gli strati di cui è comporta prima di giungere
alla parte fotosensibile. Ciò ha due grossi svantaggi: la parte fotosensibile della retina è dalla parte
opposta rispetto a quella dove arriva la luce e i fasci neurali devono uscire “bucando” la retina (e
quindi provocando la macchia cieca).
La luce, dopo aver attraversato gli stati di cui è costituita la retina, giunge alla parte
fotosensibile della retina: i fotorecettori. Questi non sono altro che neuroni modificati: invece di
avere delle sinapsi sensibili alla presenza di neurotrasmettitori, sono sensibili a certi eventi chimici,
in questo caso alla luce. Contengono, infatti, delle sostanze chimiche in grado di reagire quando
colpite dalla luce e in grado di trasformare l’energia luminosa in attività chimica.
I fotorecettori sono di due tipi, denominati sulla base della loro forma:
➔ bastoncelli: responsabili della percezione dell’intensità luminosa, percentualmente
più numerosi in periferia rispetto alla parte centrale.
➔ coni: meno allungati, responsabili della percezione cromatica, molto più densi nella
parte centrale. Sono di tre tipi, ognuno dei quali è particolarmente sensibile a una
36
frequenza diversa delle onde elettromagnetiche. Questi tre tipi di coni corrispondono
ai tre colori primari (rosso, giallo, blu). Non percepiamo direttamente i colori, ma li
percepiamo come rapporto tra le quantità dei tre colori primari.
La retina non è soltanto di forma irregolare, ha una cattiva risoluzione in periferia ed è anche
cieca ai colori.

3.1.3. La macchia cieca


La macchia cieca è il punto dove il fascio di nervi della retina si immerge dentro la
superficie retinica per spuntare nel nervo ottico e correre al cervello. La necessità di questo
foro è legata alla struttura “rovesciata” della retina, ovvero al fatto che i fotorecettori si trovano in
fondo alla retina.
Ogni occhio è cieco in un punto, non piccolo, sul lato esterno della retina. Noi siamo
inconsapevoli di tale “buco” sulla nostra retina.
La macchia cieca è congenita e fisiologica, nel senso che tutti gli esseri umani la
posseggono. È possibile avere altre “macchie cieche” dovute a patologie di vario tipo senza esserne
coscienti: tali aree sono dette scotomi.

3.1.4. Movimenti saccadici


Una delle caratteristiche più salienti della visione umana consiste nella visione foveale che
consente di avere un ampio campo visivo (circa 170°) e un’elevata acuità al centro.
Sfortunatamente in questo modo non è possibile vedere tutto il campo visivo alla stessa risoluzione.
Il motivo principale di questa cecità alla scarsa risoluzione della periferia visiva deriva dalla
capacità di muovere rapidamente gli occhi in modo da vedere tutto quello che ci interessa alla
massima risoluzione possibile. I movimenti degli occhi sono molto frequenti, in gran parte
inconsapevoli o automatici.
I movimenti degli occhi sono detti saccadici o più semplicemente saccadi. Sono movimenti
rapidi dei quali siamo del tutto inconsapevoli.
I movimenti saccadici giocano un ruolo decisivo nella percezione. Per vedere una scena
abbiamo bisogno di tempo di lasciare che i nostri occhi assaporino tutti i dettagli, permettendoci di
osservarla al meglio delle caratteristiche del nostro sistema visivo.

3.1.5. La frequenza spaziale


Una frequenza è qualcosa che si ripete rispetto a qualche cosa d’altro. Per esempio, nel
caso di un pendolo che oscilla, la sua frequenza corrisponde al numero di volte che tale movimento
si ripete rispetto a un’unità di tempo.

37
L’equivalente di un’onda, in un’immagine, è una superficie ondulata che oscilla
periodicamente in una certa direzione passando da valori chiari a valori scuri.
L’occhio umano non percepisce tutte le frequenze con la stessa precisione. La curva di
sensibilità umana è diversa per frequenze spaziali. In generale, quanto più un’immagine è ricca di
dettagli, quanto più utilizza le frequenze elevate.

3.2. Il colore
Che cos’è un colore? Non sono né una pura proprietà fisica del mondo, né una pura
proprietà psicologica o fenomenica.
Con Newton la teoria dei colori si intreccia con la teoria della luce. Fino a Newton i colori
erano legati agli oggetti o alle proprietà della mente che si rappresentava quegli oggetti. Tuttavia,
resta confuso il rapporto tra i colori e le sensazioni dei colori. Newton scrive che i colori
dell’oggetto non sono altro che una disposizione a riflettere questo o quel tipo di raggio più
copiosamente di altri; nei raggi, essi non sono che la loro disposizione a propagare questo o quel
moto nell’apparato sensoriale, e nell’apparato sensoriale essi diventano sensazioni di quei moti
sotto forma di colori.

3.2.1. Colori fisici e colori psicologici


Da un punto di vista fisico, i colori sono trasmessi dalla radiazione elettromagnetica, anzi,
da una ristretta gamma di frequenze della radiazione.
Ogni onda elettromagnetica è costituita da un fotone che si comporta in alcuni casi da
particella, in altri da onda. Ogni fotone corrisponde a una certa frequenza. Alternativamente, ogni
onda corrisponde a una lunghezza d’onda, ovvero l’inverso della frequenza.
Lo spettro elettromagnetico corrisponde alla totale gamma possibile di onde
elettromagnetiche e si estende da onde elettromagnetiche a frequenza quasi nulla fino a frequenza
quasi infinita.
Il visibile (e tutti i colori) è una minima, ma utile, parte di un continuum molto più ampio
nel quale siamo tutti immersi. A ogni frequenza dello spettro corrisponde un colore, ma non è vero
che i colori sono semplicemente delle frequenze dello spettro.
Ogni colore percepito non corrisponde a una singola frequenza, ma a una combinazione di
frequenze. Molti colori percepiti non hanno alcuna corrispondenza sullo spettro elettromagnetico.
Inoltre, molti colori percepiti corrispondono a una sovrapposizione di frequenze.
La curva di riflettanza esprime il modo nel quale un certo materiale riflette la luce
incidente. Questo tipo di proprietà è adatta a esprimere la percezione di un foglio bianco in quanto

38
bianco sotto luci diverse. Il problema è che la curva di riflettanza non è un evento fisico, ma un
modello astratto di una certa situazione.

3.2.2. Lo spazio dei colori


Il colore, dopo essere stato a lungo ritenuto una proprietà degli oggetti e delle superfici, a
seguito delle scoperte di Newton è stato attribuito alla proprietà della luce.
Secondo il modello correntemente prevalente dei colori, ogni punto di colore ha tre
dimensioni:
➔ intensità: più un colore è intenso, più sarà luminoso; meno è intenso, più è buio;
➔ tinta: il modello dello spettro dei colori è ordinato secondo un ordine ben preciso di
tinte, come rosso, arancio, giallo, verde, ciano, viola;
➔ saturazione: percentuale di colore pura contenuta in un punto di colore; più un
colore è saturo, più la sua tinta sarà viva; meno è saturo, più tenderà al
corrispondente valore di grigio.
Se ogni colore è definito da tre valori, allora possiamo costituire uno spazio tridimensionale
dei colori dove, a ogni punto, corrisponderà un colore diverso: questo spazio, detto spazio HSV può
essere costituito in vari modi.

3.3. Lo spazio
Lo spazio intorno a noi è una delle percezioni più immediate e più utili. Fin da bambini
siamo capaci di percepire la distanza e la posizione degli oggetti. Eppure pochissime delle
informazioni sensoriali che riceviamo sono esplicitamente spaziali: solo il tatto e la propriocezione.

3.3.1. La percezione della tridimensionalità


Noi non percepiamo direttamente in tre dimensioni: l’immagine retinica non è
tridimensionale. Utilizzando due occhi abbiamo la possibilità di sfruttare numerosi indizi che ci
forniscono informazioni circa la distanza reale dei punti dell’immagine.
Gli indizi di distanza possono essere raggruppati in due categorie:
➔ indizi diretti: misure più o meno dirette che possono essere fatte sfruttando le
caratteristiche del sistema visivo. Sono sostanzialmente tre e sono basati su
caratteristiche precise del sistema ottico-percettivo dell’osservatore:
◆ angolo di vergenza → ogni occhio vede il mondo dal suo punto di vista.
Essendo dotati di visione foveale (vediamo meglio al centro del campo
visivo) dobbiamo portare ciò che ci interessa vedere al centro del campo
visivo, sull’asse ottico. Per fare questo dobbiamo ruotare gli occhi. A seconda
della distanza di un oggetto varia l’angolo che si forma congiungendo i due
39
assi ottici: quest’angolo è detto angolo di vergenza. Questo ha molta
importanza nella fissazione attiva, ma non sembra costituisca un elemento
essenziale nella percezione della distanza;
◆ disparità → tipo di misura possibile grazie al fatto che gli esseri umani sono
dotati di visione stereoscopica (vedono gran parte del proprio campo visivo
da due punti di vista diversi, ognuna acquisita da un occhio). La
sovrapposizione dei campi visivi crea ordini di problemi alla percezione. Il
primo ordine consiste nella modalità attraverso la quale il cervello riesce a
integrare due campi visivi sostanzialmente diversi. Il meccanismo che integra
le immagini è detto processo di fusione. La misura di quanto un punto nel
mondo esterno produca due proiezioni diverse è detta disparità.
◆ messa a fuoco o accomodamento → per sfruttare maggiormente la luce, non
vediamo il mondo attraverso un forellino, ma attraverso una lente. Ogni lente
riesce a riflettere correttamente i raggi solo per una certa fascia di distanza
corrispondente alla profondità di campo della lente. Quanta più luce entra,
quanto più piccola è la profondità di campo. Anche nell’essere umano esiste
una profondità di campo e l’occhio si adatta per mettere a fuoco l’oggetto che
stiamo guardando. Questo tipo di adattamento è detto accomodamento. Non
sembra però che tale fenomeno sia utilizzato nel percepire fenomenicamente
la distanza degli oggetti.
➔ indizi indiretti: riguardano valutazioni empiriche che il soggetto impara a trarre
circa il contenuto dell’immagine. Sono relativi a caratteristiche apprese sulle
caratteristiche delle immagini a seguito della variazione della distanza.
Si parla di indizi perché il sistema visivo non ha elementi che consentano di determinare, in
modo assoluto e certo, la distanza dei vari punti del campo visivo.

40
4. Percezioni particolari

4.1. Articolazione figura-sfondo


Fu Rubin nel 1915 ad introdurre il concetto di articolazione figura-sfondo: questa è attiva
non solo nello spazio tridimensionale della nostra quotidianità, bensì anche nel più semplice spazio
a due dimensioni.
Ciò che possiamo evidenziare osservando una qualsiasi scena è che all’interno di essa sono
presenti più elementi e che tipicamente ognuno di essi assume un rilievo differente tale per cui
l’elemento maggiormente rilevante pone gli altri elementi in una condizione di minore concretezza.
L’elemento con maggiore limpidezza all’interno della scena prende il nome di figura, gli elementi
restanti prendono il nome di sfondo. La realtà è invece che lo sfondo ha una particolare importanza
definita schema di riferimento, con caratteristiche strutturali proprie e fondamentali nella
formazione del vissuto percettivo. Il fenomeno dell’articolazione figura-sfondo è rappresentato
dalle figure ambigue che cambiano drasticamente qualora lo sguardo del percipiente si posi su di
esse e vi resti per un tempo prolungato.
Le figure ambigue presentano alcune caratteristiche:
➔ possono produrre due o più esperienze percettive laddove lo sguardo dell’osservatore
si posa in maniera insistente su di esse;
➔ non presuppongono nessun cambiamento fisico dello stimolo ambientale, bensì
un’unica condizione di stimolazione porta a più elaborazioni percettive;
➔ innescano una fluttuazione, ossia un’inversione continua e alternata di figura e
sfondo, indipendente dalla volontà del percipiente;
➔ rendicontano lo stato di continua attività della percezione anche quando una prima
esperienza percettiva è stata delineata.

41
4.2. Illusioni e paradossi
Uno degli aspetti più divertenti della percezione è costituito dall’esistenza di situazioni che
sembrano mettere alla prova le capacità del nostro sistema visivo.
Generalmente queste situazioni sono dette illusioni, in quanto si ritiene che siano casi in cui
si percepisce qualcosa di diverso dall’oggetto esterno.
Si deve prestare attenzione alla differenza tra illusioni in quanto tali, costituite da situazioni
nelle quali il contenuto fenomenico è diverso da quello che ci si aspetterebbe in circostanze normali
e immagini “paradossali o impossibili” che sono perfettamente usuali da un punto di vista
fenomenico, ma conducono a interpretazioni o letture apparentemente paradossali.

4.3. La percezione amodale: vedere e pensare


La percezione amodale si ha ogni qual volta percepiamo qualche cosa senza che vi sia
alcun elemento sensoriale. Il caso più semplice è rappresentato dal “completamento”, ovvero da
quelle situazioni nelle quali la nostra percezione completa gli elementi effettivamente percepiti e
giunge alla percezione di qualcosa che non esiste. Ogni qual volta noi percepiamo un oggetto in
modo solo parziale, non ci limitiamo a percepire una parte, ma ne percepiamo l’intera figura.
Questo tipo di completamento è detto percezione amodale ed è stato diffusamente utilizzato nelle
arti visive.
A volte la percezione amodale diventa il contenuto della percezione e si pone con particolare
forza all’osservatore. In questo modo l’assenza di una parte di un oggetto diventa centrale per la
scena visiva e si lascia all’osservatore il compito di creare il contenuto percettivo.
La percezione amodale è un caso in cui il contenuto della percezione dipende fortemente
dalle aspettative e dalle esperienze passate. Mostra quanto la percezione abituale dipenda dal nostro
passato e dai processi cognitivi. Inoltre mette in evidenza il fatto che quello che percepiamo non è
necessariamente all’interno dei nostri sensi. Le informazioni che i sensi ricevono sono molto spesso
inferiori rispetto al contenuto effettivo della percezione.
RICORDA! ONTOLOGIA: il mondo così com’è FENOMENOLOGIA: il mondo come appare

42
CAP. 4 - APPRENDIMENTO: LA MADRE DELLE INTERAZIONI
UMANE

1. L’uomo che apprende


Dal momento della nascita tutta la vita rappresenta un apprendimento. La specie umana è
costituita di “apprendisti” incessanti e instancabili, che costruiscono momento dopo momento le
proprie abilità e conoscenze - il saper fare e il sapere come: gli esseri umani tramandano la cultura e
la civiltà grazie all’apprendimento. Non si pensi però che questo processo sia appannaggio
esclusivo della specie umana: tutti gli organismi apprendono contenuti ovviamente diversi in gradi
diversi. L’apprendimento avviene in modo semplice e continuo, attraverso interazioni a diverso
livello di complessità con l’ambiente che ci circonda.
Per lungo tempo l’apprendimento è stato considerato antiteticamente come il processo-
fattore antagonista a quello di trasmissione genetica. Questa posizione ha progressivamente perso
senso: la contrapposizione tra fattori ereditari e ambientali è stata del tutto superata in favore di una
visione interazionale. L’apprendimento implica un organismo che apprende e tale organismo, dal
punto di vista biologico come da quello psicologico, è il prodotto di processi genetici: in tale senso
ogni organismo è assolutamente unico, anche se ovviamente rappresenta il frutto della selezione
naturale.
I genetisti affermano che la variabilità genetica è sì altissima, ma che quella ambientale è
migliaia di volte superiore. In altre parole, data l’incostanza e la variabilità dell’ambiente da una
generazione all’altra, il processo di apprendimento garantisce la stabilità e la continuità
dell’evoluzione umana.

2. Apprendimento: una definizione


La maggior parte delle problematiche indagate dalla psicologia è stata già affrontata dalla
filosofia. La psicologia ha avuto il merito di aver portato l’apprendimento in laboratorio e di averlo
studiato sperimentalmente, scoprendo nuovi meccanismi e sistematizzando leggi, effetti e processi.
La psicologia ha una concezione differente dell’apprendimento rispetto a quella di altre
discipline: ciò che una persona apprende non rispecchia necessariamente un criterio di verità o di
utilità, né si configura sempre a livello consapevole o deliberato, né si traduce immediatamente in
un’azione.
Definire l’apprendimento è assolutamente complesso, in quanto abbraccia una grande
ampiezza di fenomeni. Consultando un dizionario della lingua inglese (Funk e Wagnallas, 1969),
alla voce learning troviamo:

43
➔ conoscenza ottenuta per mezzo dello studio o dell’istruzione
➔ atto di acquisire una conoscenza o un’abilità
➔ modificazione comportamentale che ne consegue, o viene indotta da, una interazione
con l’ambiente e come risultato di esperienze che conducono allo stabilirsi di nuove
configurazioni di risposta agli stimoli esterni.
Queste tre definizioni mettono in luce almeno due diversi aspetti dell’apprendimento:
processo di interazione con l’ambiente, che può avvenire spontaneamente o essere prodotto
intenzionalmente, e le nuove acquisizioni cui questa interazione dà luogo.
Per una definizione classica di apprendimento ci rifacciamo a Hilgard e Bower (1975).
Secondo questi autori:
Il concetto di apprendimento si riferisce al cambiamento di comportamento di un soggetto di fronte
a una data situazione per il fatto che quella situazione sia stata sperimentata ripetutamente
ammesso che il cambiamento del comportamento non possa essere spiegato con tendenze innate
alla risposta, maturazione o stati temporanei del soggetto.
In un manuale di ispirazione cognitiva (Darley, Glucksberg, Kamin, Kinchla - 1984)
l’apprendimento è definito come l’insieme di quei comportamenti relativamente stabili nel
comportamento che sono le conseguenze delle passate esperienze. Questi cambiamenti hanno una
funzione adattiva.
Nel 1984 Catania nel suo volume ‘Learning’ afferma che una definizione di apprendimento
risulta tutt’altro che facile, in quanto l’apprendimento ha significato cose differenti in tempi diversi
e per persone diverse.

3. Apprendimento e cambiamento
Uno dei concetti perno dell’apprendimento è che l’apprendimento implica cambiamento.
Lungo una dimensione temporale, tra un comportamento considerato in due diversi momenti t 1 e
t2, si deve poter riscontrare una differenza, includendo nel termine differenza il fatto che al t2
compaia una comportamento che al t1 non esisteva.
Il processo di apprendimento non è direttamente osservabile, deve essere osservabile il
cambiamento. Vi sono due diversi modi per osservare questo cambiamento:
➔ confrontare la prestazione di un soggetto in due tempi diversi tra i quali viene fatta
agire una variabile che si ipotizza possa produrre il cambiamento;
➔ confrontare la prestazione di almeno due gruppi di soggetti, uno sperimentale
composto di individui che abbiano interagito con una specifica esperienza (la
variabile), l’altro di controllo composto di soggetti che non abbiano fatto analoga
esperienza.
44
Il secondo concetto perno dell’apprendimento riguarda la sorgente del cambiamento:
l’apprendimento deriva dall’esperienza con una determinata situazione: in altre parole, la
sorgente del cambiamento va ricercata nell’ambiente.
Come vi sono cambiamenti comportamentali che non hanno come loro sorgente
l’interazione ambientale, allo stesso modo vi sono cambiamenti che, non mantenendosi nel tempo,
non costituiscono apprendimento. Vi sono poi dei cambiamenti che non costituiscono
apprendimento in senso stretto, ma ne hanno le premesse:
➔ assuefazione: diminuzione dell’intensità della risposta riflessa al ripetersi dello
stimolo (es. la prima volta in aereo provoca una serie di reazioni fisiologiche di
disagio; è sufficiente volare con una certe continuità per fare l’abitudine anche a quel
tipo di sensazioni); ha un evidente valore adattativo, in quanto impedisce a un
organismo di passare la sua vita reagendo a stimoli inutili;
➔ sensibilizzazione: aumento di intensità della risposta riflessa al ripetersi dello
stimolo; (es. una puntura non è particolarmente dolorosa, ma neanche piacevole; se
la cura si protrae per alcuni giorni, si potrà facilmente constatare come le reazione di
contrazione muscolare che anticipano l’iniezione diventano ogni giorno più evidenti
e forti: l’organismo si è sensibilizzato anziché abituarsi alle iniezioni).
Entrambi questi processi si instaurano piuttosto rapidamente, ma si estinguono altrettanto
rapidamente. Il fatto di mantenersi per un periodo più o meno lungo, in ogni caso non per sempre,
permette di perdere la tesaurizzazione di quelle esperienze che non hanno un valore adattivo o
addirittura possono risultare dannose per l’organismo.

4. L’apprendimento come processo adattivo


Il valore adattivo dell’apprendimento è stato messo in luce per primo da Darwin, il cui
modello è considerato il primo in assoluto.
Nella sua teoria dell’evoluzione della specie, l’apprendimento rappresenta uno dei due
meccanismi principali che assicurano la sopravvivenza di un organismo, in quanto permette di
adattarsi, di reagire in modo appropriato alle molteplici richieste di cambiamento provenienti
dall’ambiente.
Il secondo meccanismo è costituito dalla selezione delle caratteristiche che permettono
alla specia di adattarsi alle variazioni macroscopiche dell’ambiente. Ciò avviene attraverso la
sopravvivenza degli individui che posseggono, in base alla variabilità individuale, i caratteri che
meglio consentono la vita in quell’ambiente.
Nell’apprendimento entra in gioco un principio selezionista: vengono selezionate solo le
interazioni considerate positive (o adattive) per l’organismo. L’effetto di tale selezione è visibile
45
solo a medio-lungo termine. Queste acquisizioni, trasmesse poi alle generazioni successive, danno
luogo all’evoluzione culturale della specie. L’apprendimento è quindi il meccanismo individuale
attraverso cui si realizza l’evoluzione culturale, così come la riproduzione differenziale e dei diversi
genotipi è quello secondo cui si realizza l’evoluzione organica individuale. Ciò che è appreso non è
più messo in contrapposizione a ciò che viene trasmesso geneticamente.
Vi è però un problema del valore adattivo dell’apprendimento: il meccanismo
dell’apprendimento è adattivo nel senso che potenzialmente consente a un organismo di interagire
nel modo migliore con l’ambiente, tesaurizzando i miglioramenti acquisiti tramite l’esperienza.
Questo non implica però che vengano tesaurizzate solo le esperienze che conducono a un
miglioramento del singolo o della collettività.
L’analisi dell’apprendimento in termini darwiniani ci porta ad affermare che l’adattività sta
nel meccanismo della selezione: i cambiamenti possibili cioè i contenuti a disposizione della
selezione: i cambiamenti possibili, cioè i contenuti a disposizione della selezione, sono opera del
caso. Il concetto di caso è ambiguo: non tutti i cambiamenti di ordine mutazionale sono egualmente
probabili. Il caso crea le condizioni perché possa realizzarsi la scoperta di una nuova funzione
stimolo che provoca una risposta o favorisce l’emissione di un comportamento.
Il principio è selezionista in quanto una risposta viene scelta all’interno di una costellazione
di risposte possibili. L’apprendimento, quindi, non consiste nell’acquisizione di nuove risposte.
Ogni organismo può emettere solo le risposte caratteristiche della sua specie (es. l’uomo non potrà
mai acquisire il comportamento di volare). L’apprendimento consiste nello stabilirsi di nuove
configurazione di risposta, dove il termine deve essere sempre inteso come classi di risposte: è
proprio tramite queste nuove configurazioni di risposta che l’uomo riesce a “volare” in diversi
modi.

5. I parametri di misura
Il comportamento degli esseri viventi presenta alcune caratteristiche che lo rendono
peculiare rispetto all’oggetto di studio di altre scienze. I processi di analisi e misurazione
dell’apprendimento, pur essendo rigorosamente sperimentali, si devono adattare alla psicologia.
Il comportamento è un elemento dinamico che deve essere misurato e perciò quantificato.
Bisogna quindi trovare un’unità di misura o parametro, come per altre variabili fisiche.
In psicologia si è a lungo utilizzato il concetto di forza della risposta. Quest’ultimo non è
tuttavia una vera e propria variabile dipendente: è un costrutto ipotetico che risulta dalla somma
teorica di altri parametri.
➔ Ampiezza: misura quantitativa, fondamentale per il paradigma pavloviano (es.
quantità di saliva nell’esperimento di Pavlov).
46
➔ Latenza: tempo che intercorre tra la presentazione di uno stimolo e la comparsa di
una risposta.
➔ Velocità: misura la stessa cosa ma in modo inverso.
➔ Durata: lunghezza del periodo di tempo durante il quale viene attivato. Qualunque
apprendimento può essere misurato in termini di durata.
➔ Frequenza: probabilità che una risposta si verifichi in una certa unità di tempo ed è
quindi il parametro elettivo per la misura di comportamenti liberamente emessi
nell’ambiente. Permette di evidenziare con immediatezza i cambiamenti avvenuti sia
nel breve che nel lungo periodo. Specifica inoltre l’ammontare del comportamento
attivato, dandone una precisa stima quantitativa.
➔ Numero di tentativi o prove: quante volte un compito o un giudizio vengono
ripetuti prima che un soggetto li abbia appresi e sia in grado di padroneggiarli.

6. Lo studio fenomenico dell’apprendimento


L’apprendimento è un fenomeno unitario: non esistono tanti tipi di apprendimento, esiste
l’apprendimento. Questo non significa che vi siano un modo unico per apprendere o un unico modo
per studiare l’apprendimento. Vengono utilizzate determinate metodologie per portare alla luce i
risultati della ricerca. Ogni metodologia indica quindi una serie di dispositivi fondamentali utilizzati
dal ricercatore per produrre il fenomeno a cui è interessato.L’apprendimento è stato studiato
secondo paradigmi, il cui comune denominatore è stato, è sarà, quello di produrre e ottenere
specifiche modificazioni del comportamento. All’interno di ogni paradigma vengono studiati alcuni
fenomeni dell’apprendimento, più specificatamente si studiano i processi dell’apprendimento. La
caratteristica del metodo sperimentale è quella di raggiungere alcune conclusioni manipolando le
variabili (stimoli e risposte). Le manipolazioni dello sperimentatore in laboratorio costituiscono le
operazioni, i risultati che si manifestano nel comportamento dei soggetti rappresentano i processi.
L’apprendimento in laboratorio è provocato a fini di studio in una situazione semplificata e
controllata, l’apprendimento nella vita reale è complesso è sfuggente.

47
7. Le interazioni rispondenti
Il paradigma sperimentale per lo studio dell’apprendimento messo a punto da Ivan Pavlov è
definito anche come condizionamento classico, rispondente o pavloviano. È un esempio di
serendipia, cioè di scoperta casuale avvenuta mentre il ricercatore studia un altro fenomeno. Pavlov
infatti, studiando l’attività digestiva dei cani, si accorse di alcuni fenomeni inaspettati per indagare
i quali mise a punto il paradigma sperimentale del condizionamento.
L’interesse per i processi digestivi spinse Pavlov a sviluppare diversi metodi di ricerca: uno
di questi consisteva nello studio della secrezione salivare deviando il dotto di una ghiandola salivare
dall’interno della bocca all’esterno della guancia. Ciò consentì a Pavlov di raccogliere e misurare la
saliva man mano che veniva prodotta introducendo nella bocca dell’animale polvere di carne o
soluzione acida.
La risposta di salivazione al contatto con questi elementi è per l’animale una risposta
involontaria e automatica. La comparsa di tale riflesso non è soggetta ad alcuna condizione se non
quelle previste dalla natura nel corso dell’evoluzione: per tale motivo viene chiamata risposta
incondizionale.
Pavlov notò inoltre che l’animale iniziava a salivare molto prima che il cibo avesse
raggiunto il suo muso: la risposta di salivazione era elicitata dalla vista del cibo e addirittura
dall’apparire dell’uomo che solitamente lo portava. Questa non era una reazione naturale e innata:
l’effetto dello stimolo che precedeva il cibo poteva essere compreso solo sulla base dell’esperienza
individuale dell’organismo. In qualche modo uno stimolo originariamente insignificante aveva
assunto per l’animale sperimentale un nuovo significato: quello di segnale anticipatorio della
comparsa del cibo.
Inizialmente Pavlov accettò la definizione comune di secrezione psichica che veniva data a
questo fenomeno per indicare appunto l’origine non fisiologica ma psicologica ed esperienziale del
riflesso. Tuttavia egli abbandonò questa spiegazione e si pose di fronte al fenomeno in una
posizione di fisiologo puro, cioè di osservatore obiettivo e di sperimentatore che considera soltanto i
fenomeno esteriori e i loro rapporti secondo il metodo delle scienze naturali.
Ciò che Pavlov sviluppò per lo studio sperimentale di nuove acquisizioni stimolo-risposta è
facilmente descrivibile. Un cane viene portato in laboratorio e sistemato in un apparato
sperimentale. Quando l’animale, dopo che gli è stata deviata la ghiandola salivare verso l’esterno, si
è familiarizzato con la situazione sperimentale, ha inizio l’esperimento vero e proprio. Al cane
vengono presentati in successione, per un certo numero di volte, due stimoli:
➔ piccola porzione di carne in polvere > elicita automaticamente e naturalmente la
salivazione > stimolo incondizionato
48
➔ suono a frequenza stabile e controllata > nessun effetto sulla salivazione > stimolo
neutro o indifferente.
La neutralità si riferisce a una specifica risposta, in questo caso alla salivazione, e non a tutte
le possibili risposte dell’organismo.
I due stimoli vengono presentati all’animale affamato in sequenza e a intervalli irregolari per
un certo numero di giorni. Controllando tutte le altre variabili, cioè gli altri stimoli che avrebbero
potuto entrare in gioco, Pavlov intendeva dimostrare l’origine non psichica della “secrezione
psichica”: in altre parole voleva provare uno che uno stimolo originariamente indifferente per la
salivazione poteva acquistare la capacità di elicitare la stessa risposta di un altro stimolo.
Dopo un certo numero di accoppiamenti, lo stimolo originariamente inefficace, presentato
da solo, produceva la salivazione. A questo punto si è verificato il condizionamento.
Quattro sono gli elementi di base che compongono il quadro dell’esperimento pavloviano:
➔ stimolo incondizionale (SI): in grado di provocare una risposta specifica da parte
dell’organismo. L’aggettivo “incondizionale” indica che la sua efficacia è naturale,
innata ma non completamente sganciata da condizioni contestuali (es. l’animale deve
essere affamato, altrimenti il condizionamento non si verifica). Lo SI viene chiamato
anche rinforzo in quanto consente di stabilire e mantenere la nuova relazione
stimolo-risposta;
➔ stimolo condizionale (SC): in partenza è uno stimolo neutro (SN). Se associato più
volte a quello incondizionale dopo un certo numero di presentazioni riesce a svolgere
la stessa funzione dello stimolo incondizionale producendo la risposta specifica;
➔ risposta incondizionale (RI): risposta specifica prodotta da uno stimolo
incondizionale (nell’esperimento di PAvlov, la salivazione è prodotta dalla polvere
di carne);
➔ risposta condizionale (RC): risposta allo stimolo condizionale.
Il riflesso incondizionale è una correlazione permanente tra un agente esterno e una
risposta dell’organismo.
Il riflesso condizionale la formazione di un nuovo legame temporaneo fra uno degli
innumerevoli fattori ambientali percepiti e una determinata reazione presente nel repertorio
dell’organismo.
Il condizionamento può essere concettualizzato come un processo di transfer funzionale
dello stimolo in base al quale uno stimolo (psicologico) precedentemente neutro acquisisce
temporaneamente la capacità funzionale di produrre la risposta originariamente provocata da un
altro stimolo.

49
Pavlov pensava che la presentazione simultanea degli stimoli incondizionale e condizionale
producesse il condizionamento più rapido.
Vi è infine un altro tipo di condizionamento, il condizionamento retrogrado, consiste nel
presentare lo stimolo incondizionale prima dello stimolo condizionale, ma è poco efficace.
Si potrebbe andare avanti all’infinito, ma in realtà questi condizionamenti ulteriori sono
meno duraturi e più difficili da attuare.
Un particolare caso di condizionamento di ordine superiore è rappresentato dal secondo
sistema di segnalazione che Pavlov eredita da Vigotsky, psicologo russo. Il primo sistema di
segnalazione è quello che l’uomo condivide con gli animali, e consiste nei meccanismi di
condizionamento nell’interazione con l’ambiente. Ma l’uomo non interagisce solo con gli stimoli
fisico-chimici dell’ambiente, ma anche con quelli sostitutivi della realtà.

8. I riflessi condizionati in ottica evoluzionistica


Due sono le classi di risposte naturali che possono essere condizionate in modo pavloviano a
stimoli neutri. Vengono chiamate:
➔ riflessi difensivi: risposta che l’organismo produce in reazione a uno stimolo
potenzialmente nocivo che pertanto tende ad evitare. Lo stimolo viene chiamato
avversativo. La risposta consiste nel proteggere o allontanare il nostro corpo dallo
stimolo avversivo;
➔ riflessi consumatori: catene complesse di comportamenti diretti verso un oggetto o
un altro organismo con valore di sopravvivenza per il singolo o per la specie.
Qual è il significato adattivo in termini di apprendimento della scoperta pavloviana? Tutti
gli organismi sono in grado di modificare il comportamento per adattarlo alle modificazioni
ambientali. Queste modifiche avvengono in buona parte attraverso meccanismi omeostatici. Il
riflesso innato costituisce:
➔ adattamento dell’animale al presente, cioè allo stimolo che agisce in quel particolare
momento sull’animale stesso;
➔ storia filogenetica di un organismo, l’esperienza che si è venuta accumulando nel
corso dei secoli.
La funzione adattiva invece serve per preparare un determinato organismo al futuro e
ogni riflesso condizionale deve essere basato su un riflesso incondizionale che è biologicamente
e psicologicamente più forte. Ad esempio esiste l’Effetto Garcia, ovvero l’apprendimento
dell’avversione a un sapore. L’avversione può avvenire anche solo tramite una semplice
associazione mentale.

50
9. Le interazioni operanti
Gli esseri umani operano sull’ambiente per dominarlo, trasformarlo e adattarlo alle loro
necessità. Ogni azione svolta in tal senso ha qualche effetto sul mondo circostante, che a sua volta
retroagisce sull’organismo: le conseguenze di un comportamento possono modificare la probabilità
che il comportamento che le aveva prodotte si verifichi ancora. Le conseguenze possono rendere un
apprendimento o un comportamento già stabilizzato ancora più forte, cioè più probabile, o meno
forte, quindi meno probabile, oppure possono lasciarne inalterate la forza e quindi la probabilità.
L’uso finalizzato delle conseguenze, ovvero la somministrazione di ricompense o punizioni,
è una teoria antica che risale ai tempi di filosofi ed educatori come John Locke o S. Ignazio di
Loyola. Ma l’analisi sistematica e sperimentale del rapporto tra un comportamento e le
conseguenze prodotte dall’ambiente devono essere attribuite a Skinner. Tale analisi è
conosciuta con il nome di paradigma del condizionamento operante.
Il clima in cui prendono avvio le ricerche sull’apprendimento non poteva non suscitare una
reazione: ne fu portavoce principale Lloyd Morgan (1894) che formulò quello che è noto come
criterio di parsimonia: in nessun caso si può interpretare un’azione come il risultato dell’esercizio
di una facoltà psichica inferiore o superiore. Secondo Lloyd Morgan gli animali apprendono solo
per tentativi ed errori e ciò che appare come intelligenza è solo il frutto dell’esperienza passata.
Questo criterio riprende il principio di parsimonia, meglio conosciuto come “Rasoio di Occam”:
evitare le entità inutili, cercare la via più semplice e più descrittiva per andare a delineare cosa ho
davanti. Tra due spiegazioni, la più semplice è quella corretta.
In questo clima culturale iniziò i suoi esperimenti Thorndike, uno psicologo americano.
Egli collocò un gatto all’interno di una gabbia, dalla quale poteva scappare solo agendo sul
meccanismo di chiusura della porta. Il gatto era libero di emettere una serie di comportamenti,
alcuni dei quali portavano casualmente all’apertura della porta, oltre la quale si trovava il cibo.
Ripetendo più volte questa esperienza, il gatto arrivava sempre più velocemente all’uscita e
sembrava risolvere il suo problema ragionando come fanno gli uomini, magari più lentamente.
Thorndike postulò che questo miglioramento graduale era dovuto all’apprendimento. Secondo
lo stesso studioso, l’apprendimento è costituito da una connessione S-R e tale connessione si
stabilisce solo se la risposta produce un certo effetto sull’ambiente. Se l’effetto è soddisfacente,
la connessione S-R si consolida, il comportamento viene impresso e si ripresenterà in una
situazione analoga. Nel caso di un effetto insoddisfacente, la connessione si indebolisce,
l’apprendimento non si fissa e l’azione tende a decadere. Questa è la legge dell’effetto. Il lavoro di
Thorndike è il primo tentativo sistematico di studiare sperimentalmente i cambiamenti prodotti dalle
conseguenze del comportamento.

51
Nel 1930 Skinner pubblica una breve monografia sul comportamento alimentare dei ratti,
nella quale viene descritto un metodo sperimentale che, con poche modifiche, è diventato standard
per lo studio del comportamento. Il suo metodo di analisi prende il nome di condizionamento
operante. Secondo Skinner vi sono due diverse classi di comportamento:
➔ classe rispondente: comprende tutte le risposte, condizionate o incondizionate, che
sono elicitate da stimoli conosciuti;
➔ classe operante: comprende tutte le risposte che sono emesse più o meno
indipendentemente da stimoli identificabili. Il termine “operante” indica il fatto che
il comportamente opera sulle condizioni ambientali, generando conseguenze.
Il metodo messo a punto da Skinner per lo studio del comportamento operante è piuttosto
semplice: l’apparato sperimentale (Skinner box) è costituito da una gabbia, a prova di luce e
suono,in cui si trova una leva da premere, collegata con un meccanismo di erogazione programmata
di conseguenze (generalmente dispensatore di cibo o acqua o una sorgente di stimolazione
negativa), entrambi collegati a loro volta con un registratore cumulativo di risposte.
La procedura prevede dapprima l’acclimatamento dell’animale, che si abitua a mangiare
nella vaschetta che fa parte del meccanismo di erogazione del cibo. Dopo 24 ore di deprivazione di
cibo, il ratto viene posto nella gabbia: l’animale è libero di esplorare l’ambiente. Entro 10-15
minuti, questa esplorazione porta generalmente a una pressione casuale della leva: la pressione della
leva è accompagnata dalla comparsa di una pallina di cibo nella vaschetta. Accade poi solitamente
che il ratto, una volta mangiata la pallina, ricominci a curiosare per la gabbia, prema ancora la leva
e così via. Le pressione della leva diventano sempre più frequenti e l’intervallo che separa una
risposta da un’altra diminuisce progressivamente.

La conseguenza “cibo” rinforza il comportamento “pressione della leva”. In questo


paradigma abbiamo tre elementi principali:
52
1. operante → definito come la classe di risposte tra loro funzionalmente simili che
dipendono dalle stesse conseguenze;
2. conseguenze → seguono tale classe di comportamento e ne alterano la probabilità di
comparsa, aumentandone o diminuendone la frequenza di emissione rispetto al
livello operante o baseline;
3. stimolo discriminativo → presente quando un operante è seguito da determinate
conseguenze.
Questa triade si chiama contingenza a tre termini ed indica il rapporto di dipendenza
funzionale tra questi tre termini.

10. Le conseguenze del comportamento


Un rinforzatore è un evento-stimolo che ha come effetto quello di rafforzare un
comportamento. I rinforzatori possono essere classificati nel seguente modo:
➔ rinforzatore positivo: stimolo la cui erogazione rafforza il comportamento appena
emesso (es. un complimento, un bel voto, un cioccolatino, ecc.);
➔ rinforzatore negativo: stimolo che rafforza il comportamento appena emesso
mediante la sua rimozione (es. prendere un analgesico per combattere l’emicrania);
➔ rinforzatore primario o naturale: stimolo che senza bisogno di alcun intervento
artificiale umano ha la funzione rinforzante. Viene chiamato primario perché legato
ai bisogni primari, le necessità che devono essere soddisfatte affinché non si verifichi
una sofferenza dell’organismo;
➔ rinforzatore condizionato o secondario: rinforzatori che l’organismo incontra nel
corso della vita e quindi dell'apprendimento e hanno acquisito la funzione
rinforzante. Sono chiamati “secondari” perché non hanno base fisiologica per
l’organismo. Diventano rinforzatori per associazione spazio-temporale con quelli
primari. Si apprendono e sono frutto di contingenze naturali o causali.
Contribuiscono a dare flessibilità al comportamento (es. bisogni legati
all’educazione, alla cultura);
➔ rinforzatori generalizzati: sottoclasse di rinforzatori condizionati, collegati con più
di un rinforzatore primario;
◆ rinforzatori tangibili: esplorazione e interazione con il mondo fisico;
◆ rinforzatori sociali: attenzione, affetto approvazione;
◆ rinforzatori informazionali: feedback sulla qualità ed efficacia dei
comportamenti;
◆ rinforzatori simbolici: denaro, punteggi, valutazioni, titoli, onoreficenze;
53
➔ rinforzatore dinamico: non costituito da stimoli ambientali ma da comportamenti
dello stesso soggetto (preferenze), costituiti da iniziative o attività di vario genere
(es. fare una gita, andare a ballare, ecc.). La preferenza è influenzata dagli eventi
contestuali.

CAP. 5 - INTERAZIONI CON IL PASSATO


1. Il comportamento di ricordare
Con il termine “memoria” ci si riferisce a un insieme di processi che compongono la
capacità umana di ricordare, cioè di riattivare, delle conoscenze apprese in precedenza. A
un’analisi più attenta, però, ci si renderà conto di quanto la semplice etichetta “memoria” possa
essere soggetta a molte diverse letture, alcune addirittura in contrasto tra loro, e di come la capacità
di ricordare sia in realtà un insieme vasto, variegato e complesso di attività e fenomeni.
Mentre inizialmente abbiamo descritto la memoria come un insieme di processi, essa di
solito viene presentata come un magazzino di informazioni, un contenitore, qualcosa che potrebbe
occupare una posizione fisica nello spazio.
È questo un problema tipico in psicologia come in molte altre discipline che si trovano ad
affrontare oggetti di studio evanescenti. Si ricorre facilmente al paragone tra gli oggetti di studio e
altri oggetti propri della nostra esperienza di ogni giorno, costruendo metafore che consentano di
comprendere il funzionamento degli uni assimilandolo a quello, ben noto, degli altri.
Questa scorciatoia esplicativa ha spesso un forte valore euristico, dato che consente di
comprendere immediatamente le caratteristiche essenziali di un oggetto o fenomeno e in qualche
modo di capirne il funzionamento. Questa tendenza a pensare che le parole facciano sempre
riferimento a realtà non verbali, che il linguaggio si riferisca a eventi “reali” indipendenti dal
linguaggio stesso, è nota con il termine di reificazione.
Perché invece parlare di “processo del ricordare” è un po’ più utile? Innanzitutto, perché è
un processo, un qualcosa che avviene e sta avvenendo in questo momento, composto da una serie
di azioni che sono sotto il nostro controllo. Inoltre, pensandolo come un processo, è qualcosa che
possiamo allenare come un muscolo: allenandosi, i muscoli non diventano necessariamente più
grandi, ma diventano più resistenti ed efficienti; allo stesso modo funziona la nostra mente.
Altri problemi simili a quello della reificazione sono quello della vaghezza o
indeterminatezza dei termini adoperati e quello dell’ambiguità del linguaggio. Questi limiti propri
del linguaggio comune rischiano di far perdere di vista gli interrogativi che circondano il fenomeno
della capacità di ricordare e richiedono una risposta: che tipo di attività si nasconde dietro la

54
memoria? In che cosa consiste la capacità umana di ricordare, quali caratteristiche ha e come può
essere governata?
Nel corso di più di un secolo di ricerca, a partire dai primi studi sperimentali di fine
Ottocento, molte procedure sperimentali, modelli e teorie sono stati elaborati per indagare la
capacità di ricordare, per misurarne i limiti e descriverne il funzionamento. Questi modelli hanno
permesso di prevedere, con una certa approssimazione, il comportamento umano quando si tratta di
ricordare eventi o memorizzare informazioni. Sono stati sviluppati metodi e strumenti finalizzati a
semplificare la memorizzazione e migliorare le abilità che comunemente abbiamo.
2. Lo sviluppo dei modelli della memoria
Gli studiosi di diversa estrazione hanno provato, fin dall’antichità, a descrivere la memoria
umana. I primi a farlo furono Platone e Aristotele, mentre il primo ad applicare un metodo
scientifico allo studio di questo tema fu lo scienziato tedesco Ebbinghaus.
Platone nel IV sec. a.C. fu il primo a cercare di descrivere il fenomeno della memoria
umana e lo fece con l’uso di una metafora. Egli paragonava infatti la memoria alle tavolette di cera
usate all’epoca per scrivere: come lo stilo lasciava delle tracce o incisioni sulla cera delle tavolette,
così l’esperienza lascia tracce nella nostra memoria. Queste tracce divengono con il tempo meno
nitide, ma finché sono presenti possono essere lette, ovvero ricordate.
Aristotele introdusse nel III sec. a.C. una visione associazionistica della memoria,
sottolineando come le informazioni del mondo esterno si fissino in memoria formando tra loro dei
legami, cosicché il ricordo di un’esperienza ne richiama altre in base alla loro somiglianza o
contiguità.
Il primo studioso ad occuparsi della memoria con approccio psicologico e sperimentale fu
Ebbinghaus, sul finire del XIX secolo. Il suo libro Memory: A contribution to experimental
psychology del 1885 presenta i risultati di una lunga serie di esperimenti, miranti a dimostrare come
anche fenomeni mentali complessi, come appunto la memoria, potessero essere studiati
rigorosamente attraverso il metodo scientifico.
Gli esperimenti che Ebbinghaus condusse erano finalizzati a semplificare il più possibile il
processo della memorizzazione e del ricordo di eventi, così da osservarlo senza l’interferenza di
altri fenomeni. Per questo utilizzò come stimoli liste di trigrammi privi di senso (per esempio DAX,
BOK, YJQ). La sua sperimentazione prevedeva di scrivere una lista casuale di questi trigrammi e
quindi cercare di memorizzarla leggendola a voce alta, con la stessa inflessione, seguendo la
cadenza regolare di un metronomo. In seguito, a diversi intervalli di tempo, misurava quanti
trigrammi riusciva a ricordare e quanto tempo gli era richiesto per poter memorizzare nuovamente
gli altri.
55
Uno dei fenomeni da lui individuati è quello della cosiddetta curva dell’oblio che descrive
il decadimento autonomo della memoria, mostrando come esso sia molto rapido inizialmente e
rallenti poi fino a quasi stabilizzarsi.

Questa caratteristica curva di decadimento viene spesso citata per sottolineare l’importanza
della ripetizione regolare del processo di acquisizione, ossia dello studio ripetuto.

Quando un materiale è stato elaborato visivamente, non è stato codificato profondamente e


soprattutto non è stato ripetuto, il ricordo di esso diminuisce sempre più. Se invece veniva suggerito

56
a questi studenti di ripetere questi trigrammi nella testa o ad alta voce successivamente alla
somministrazione del materiale, il ricordo decadrebbe ma viene tenuto vivido grazie al ripasso.
Fin dai suoi albori, dunque, la psicologia sperimentale si occupa del fenomeno della
memoria. Così William James nel 1890 distingue fra:
● memoria primaria, contenente le informazioni primarie della coscienza (a breve
termine)
● memoria secondaria, contenente informazioni non più presenti nella coscienza (a
lungo termine).
George A. Miller, nel 1955, mise invece in evidenza con i propri esperimenti il limite degli
elementi memorizzabili, che descrisse in un articolo dal titolo “Il magico numero sette, più o
meno due”: ciascun essere umano è in grado di memorizzare temporaneamente sette elementi
privi di significato, con una variazione massima, da persona a persona, di due elementi in più o in
meno.
Nel 1968 Richard Atkinson e Richard Shiffrin propongono un modello di
funzionamento del processo di memorizzazione, sviluppato in analogia con il funzionamento dei
computer.

Tale modello prevede che l’informazione ricevuta dagli organi di senso venga prima di tutto
immagazzinata in un registro sensoriale, di capacità illimitata ma a rapido decadimento; essa viene
poi immediatamente trasferita, attraverso i processi dell’attenzione, in un magazzino di memoria a
breve termine (MBT), che contiene al massimo sette tracce ed è anch'esso soggetto a decadimento;

57
da qui, nel tempo limite di 30 secondi circa, l’informazione passa al magazzino della memoria a
lungo termine (MLT), pressoché illimitato e capace di stivarla per diversi minuti o anche per anni.
Nel 1972 Endel Tulving distingue fra:
● memoria autobiografica o episodica, relativa a date ed eventi personali
● memoria semantica, indipendente dall’esperienza personale.
Entrambe fanno parte del più ampio insieme della memoria cosiddetta dichiarativa o
proposizionale, dal momento che consentono di definire gli eventi sotto forma di proposizione. Si
distinguono quindi da un altro tipo di memoria, quella procedurale, che riguarda tutte le
conoscenze che possediamo circa lo svolgimento di una particolare attività, senza essere
necessariamente consapevoli di come e quando le abbiamo apprese.

Sempre nel 1972, Fergus Craik e Robert Lockhart indagano su cosa caratterizza le
informazioni che riusciamo a iscrivere più profondamente nella nostra memoria. Dopo attenti studi,
proposero il modello della profondità di codifica o dei livelli di elaborazione. Il cuore del modello
consisteva nel ritenere che la persistenza maggiore o minore di una traccia in memoria dipenda
dalla profondità con cui lo stimolo è stato elaborato in fase di codifica. I livelli di elaborazione
possono riguardare, con un progressivo aumento di profondità, le caratteristiche fisico-sensoriali
dello stimolo, il riconoscimento dello stimolo o l’identificazione dello stimolo. Maggiore è la
profondità di elaborazione, più resistente sarà la traccia mnestica.

58
Queste informazioni possono essere processate a livello molto superficiale, ad esempio solo
visivamente, mentre un livello più profondo comprende non solo un’analisi visiva, ma anche una
fonetica e il livello ancora più profondo riguarda anche un’analisi semantica.

3. Come funziona la memoria: la metafora dell’immagazzinamento e recupero


I numerosi modelli che si sono succeduti e accumulati spesso fanno uso di metafore:
paragonano, cioè, il funzionamento mentale ad altri esempi tratti spesso dal mondo fisico. Modelli
metaforici di questo tipo hanno essenzialmente finalità pratiche: servono cioè a indirizzare gli studi,
verificare l’effettivo funzionamento dei processi mnesici confrontandolo con le previsioni che il
modello stesso consente.
Tra i modelli che presentano un’efficace analogia di ciò che succede quando si ricorda, la
metafora dell’immagazzinamento e recupero dell’informazione è senz’altro quella che ha avuto
l’impatto maggiore sulla ricerca.
Secondo questa metafora, ciò che ricordiamo è stato innanzitutto immagazzinato nella
nostra mente, quindi mantenuto in essa per il periodo di tempo necessario e infine recuperato
al momento di ricordarlo.

59
3.1. Immagazzinamento
Il fenomeno del ricordo ha inizio con un immagazzinamento, o registrazione, dello stimolo
da ricordare.
È interessante rilevare da subito come, in realtà, ciò che un individuo ricorda non è mai lo
stimolo stesso, quanto piuttosto la risposta dell’individuo allo stimolo. Se per esempio pensiamo
alla classica situazione sperimentale di memorizzare delle parole scritte in una lista, ciò che il
soggetto ricorda, ovvero ciò che è in grado di ripetere, è la lettura di quelle parole.
Questa risposta dell’individuo allo stimolo da ricordare viene detta codifica. Il modo in cui
lo stimolo, cioè l’informazione, viene codificata, ossia trattata dall’organismo, incide sulla capacità
di ricordarla.
L’informazione può essere codificata sulla base delle sue proprietà semantiche, visive o
fonologiche, contestuali o episodiche, temporali e così via. Diverse proprietà possono essere
combinate per la codifica di un’informazione oppure essa può essere molto semplice e basarsi su
una sola proprietà.
L’attività di codifica è il primo comportamento attivato dopo la percezione del
contenuto da apprendere e quindi è il primo momento del processo mnesico vero e proprio: essa
comprende la percezione dell’informazione e l’astrazione di una o più caratteristiche
dell’informazione necessarie a per un’appropriata categorizzazione. Definendola in termini
molto generali, si può dire che essa consista in un insieme di attività messe in atto al momento
dell’acquisizione e che implicano l’analisi, la discriminazione, la selezione, l’elaborazione o
trasformazione dello stimolo.
La codifica in memoria richiede l’uso di un certo codice o rappresentazione che può
essere di tipo visivo, acustico o semantico.
I diversi modi di codificare l’informazione possono essere confrontati sulla base delle
probabilità di ricordo che derivano dal loro impiego. Cermak e Craik hanno descritto diversi livelli
di processazione delle informazioni che comportano, in caso di processazione superficiale, una
minor possibilità di ricordo che nel caso di una processazione più profonda.
Non si tratta di una teoria esplicativa di come funziona il ricordo, bensì di un modello
descrittivo che sottolinea come un ragionamento più complesso e creativo aumenti le probabilità di
ricordare.
Ciò che è importante rilevare è che la capacità di ricordare è un comportamento attivo che
l’individuo emette fin dal primo contatto con lo stimolo da ricordare.

60
Ci sono comunque delle variabili da considerare, come ad esempio:
● il momento della giornata
● lo stato psicofisico
● l’influenza del contesto sull’attenzione (luogo)
● il metodo e gli strumenti utilizzati
● la concentrazione (tempi, rituali, ecc.)
● la motivazione

3.2. Mantenimento
La metafora dell’immagazzinamento e recupero dell’informazione prevede che, nel periodo
che intercorre fra l’interazione con lo stimolo e il momento in cui si ricorda, questa informazione
venga stivata da qualche parte.
Non è corretto pensare che lo stimolo esterno che colpisce i nostri sensi venga
effettivamente portato, copiato o fisicamente rinchiuso nell’organismo. Esso produce una reazione
attiva da parte dell’organismo, che viene appresa e che si riproporrà nel momento del ricordo.
La metafora quindi è piuttosto debole in questa fase. A questa debolezza si aggiunge il fatto
che l’informazione immagazzinata non è passivamente ospitata, bensì è soggetta ad un’elaborazione
che può trasformarla.
Quella del mantenimento può dunque essere considerata una fase attiva in cui il ricordo
dell’individuo è soggetto potenzialmente a ulteriori modificazioni nel corso del tempo.

61
Per capirla basta osservare la curva dell’oblio di Ebbinghaus: aveva fatto memorizzare a un
campione sperimentale di studenti dei trigrammi, ovvero gruppi di tre lettere senza alcun
significato, e verificato quanti di questi trigrammi venivano ricordati. Di fatto si osserva che il
ricordo istantaneo è quasi vicino al 100%, ma che dopo 20 minuti è sceso sotto il 60%: quando un
materiale è stato elaborato visivamente, non è stato codificato profondamente e soprattutto non è
stato ripetuto, il ricordo di esso diminuisce sempre più. Se invece veniva suggerito a questi studenti
di ripetere questi trigrammi nella testa o ad alta voce successivamente alla somministrazione del
materiale, il ricordo decadrebbe ma viene tenuto vivido grazie al ripasso.

3.3. Recupero
Rappresenta l’obiettivo finale del processo di memorizzazione. Una volta memorizzata
l’informazione, questa viene considerata disponibile in memoria. Essa può in seguito essere
ricordata oppure no: se viene ricordata si dice che è accessibile, nel caso contrario viene definita
inaccessibile.
Il momento del recupero è quello in cui l’individuo si trova a dover riprodurre ciò che ha
memorizzato. Per far ciò, egli ha bisogno di un nuovo stimolo, che assume la funzione di
suggeritore. È questo stimolo, o insieme di stimoli, a garantire l’accessibilità dell’informazione
memorizzata. Più le condizioni in cui si ricorda sono simili a quelle della situazione nel passato,
più semplice e veloce sarà ricordare.
Gli stimoli impiegati possono essere di diverso tipo e complessità. Per ricordarsi un nome
può essere sufficiente sentire l’iniziale. Per ricordarsi un percorso è spesso sufficiente ritrovarsi di
fronte allo stesso bivio e riconoscerlo. Ci sono casi in cui è necessario fare di più: per esempio, nel
corso di un’interrogazione, una definizione che la sera prima ricordavamo immediatamente, ora ci
sfugge. Solo riflettendo, ripensando a concetti ad essa collegati riusciamo infine a ricordarla. In
entrambi i casi, rimane fondamentale la funzione dello stimolo, o degli stimoli, che aiutano ad
attivarlo.
Un efficace metodo per allenare il ricordo sono le mappe mentali, rappresentazioni grafiche
dei concetti di apprendere. Si compongono di alcuni
elementi che le contraddistinguono:
● parole chiave
● rami curvi
● immagini
● colori
● collegamenti

62
Le mnemotecniche sono delle strategie mentali che favoriscono la memorizzazione di
nomi, numeri, azioni da compiere e singole informazioni. La strategia più semplice è ripete, ma ce
ne sono molte altre molto efficaci quando c’è una lista da ricordare o un ordine da rispettare. A
questo proposito, può essere molto utile il metodo dei loci: si sceglie un luogo familiare dove ci
sono degli elementi già conosciuti e a ciascun elemento si associa un argomento da ricordare.
L’associazione, quando dobbiamo richiamare alla mente una lista, viene semplice ricordando la
disposizione dello spazio scelto e degli elementi di quello spazio.
Altro metodo che può rivelarsi indispensabile per il ricordo sono gli acronimi e gli
acrostici: l’iniziale di ciascuna lettera ci riporta subito alla mente un argomento o una lista di nomi.
● U.S.A → United States of America
● Come Quando Fuori Piove → Cuori Quadri Fiori Picche
● Ma con gran pena le reti cadono giù → nomi delle Alpi: Marittime - Cozie -
Graie - Pennine - Lepontine - Retiche - Carnie - Giulie
La funzione dello stimolo ha due conseguenze rilevanti per la nostra capacità di gestire i
ricordi.
Da un lato diviene importante saper trovare, o costruire, lo stimolo adeguato a riattivare le
stesse reazioni che avevamo avuto nella situazione passata.
Dall’altro risulta cruciale prestare attenzione agli stimoli anche in fase di memorizzazione,
prevedendo quali di essi saranno d’aiuto al momento del recupero.
L’effettivo funzionamento del ricordo ha poco a che fare con l’uso di un magazzino di
merci, ma dipende piuttosto da come impariamo a comportarci e dalle situazioni e gli stimoli con
cui interagiamo.

4. Diversi tipi di memoria


Molte sono le situazioni in cui il comportamento attuale può essere influenzato da
interazioni passate. Gli eventi ricordati possono essere di diverso tipo molto diverso. Possiamo
ricordarci di specifici avvenimenti, significati di parole, stimoli sensoriali, azioni compiuti da noi o
da altri e i contesti in cui tali azioni avvengono (ovvero le contingenze che le governano).
È logico attendersi che vi siano differenze nel modo in cui eventi diversi vengono ricordati,
che, cioè, esista un’altrettanta varietà di tipi di memoria.
Nell’organizzare e presentare questi modi di ricordare, ci rifaremo a due diversi criteri: uno
è quello della durata del ricordo, l’altro è quello del contenuto. In base al tempo che intercorre
tra l’interazione con lo stimolo e il successivo ricordo, tre sono le categorie che si possono
distinguere:

63
1. Memoria iconica: si fonda su una proprietà dei nostri recettori sensoriali, che
dopo essere entrati in contatto con uno stimolo fisico continuano, per un brevissimo
periodo di tempo, a rappresentare lo stimolo, anche se esso non è più attivo. Per
esempio, dopo aver visto un’immagine proiettata e subito tolta, continuiamo a vedere
l’immagine per alcune frazioni di secondo anche se sullo schermo non esiste più.
2. Memoria a breve termine: si intende la capacità umana di ricordare informazioni
nei secondi successivi alla loro lettura. Miller aveva individuato la capacità di tale
memoria in un massimo di 5 informazioni più o meno 2 (il “magico numero
sette”).
Numerosi esperimenti hanno cercato di definire il funzionamento della memoria di
piccole porzioni di informazione per brevi periodi di tempo. Si è così visto che la
capacità di ricordare tali informazioni tende a diminuire rapidamente, fino a essere
quasi nulla dopo una ventina di secondi. I dati emersi dagli esperimenti mostrano
però un funzionamento non lineare. Diverse sono le variabili che sembrano influire
sul ricordo: la quantità di lettere o numeri da ricordare, il modo in cui l’informazione
è memorizzata e soprattutto la possibilità o meno di ripetere l’informazione nei
secondi successivi. Quest’ultima attività, chiamata rehearsal, può assumere diverse
forme, ma consiste sempre in un comportamento successivo all’acquisizione
dell’informazione e che influisce sulla capacità di ricordarla. Un tipico esempio
si ha quando dobbiamo ricordare un numero di telefono per il periodo che intercorre
fra la lettura e la sua composizione. Spesso, se il numero è memorizzabile (non
supera cioè le sette cifre), lo ripetiamo mentalmente o ad alta voce finché non lo
abbiamo digitato sulla tastiera.
Comportamenti come quelli del rehearsal ci permettono di estendere l’effettiva
capacità della memoria per diversi secondi.
3. Memoria a lungo termine: viene distinta da quella a breve termine per due
caratteristiche fondamentali.
Non ha limiti quantitativi, non c’è nessun “magico numero sette a limitare il
numero di informazioni che può essere memorizzato, che è quindi virtualmente
infinito. La memoria a lungo termine è costituita quindi da quei ricordi che possono
essere richiamati anche a distanza di moltissimo tempo dall’acquisizione.
Quando parliamo di memoria a lungo termine, non sarà più possibile , in sede
sperimentale, presentare ai soggetti una lista di item in un’unica occasione: diviene
necessario ripetere diverse volte la lettura delle informazioni, così da “mandarle a

64
memoria”, per poi studiare per quanto tempo si manterrà la capacità di ricordare e
dopo quanto svanirà.
Questa è la metodologia seguita fin dal principio da Ebbinghaus (vedi par.
precedente) negli studi che gli permisero di descrivere una curva dell’oblio. Questa
curva mostra come gran parte delle informazioni memorizzate sembri andare persa
rapidamente nei minuti e nelle ore successive all’acquisizione, mentre una
percentuale più bassa rimane disponibile anche a distanza di un mese (vedi figure
par. precedente).
La domanda di fondo è se la memoria vada persa da sé, con una sorta di decadimento
autonomo, oppure se la capacità di ricordare sia inibita da avvenimenti successivi.
Queste due ipotesi vengono definite rispettivamente teorie della traccia e teorie
dell’interferenza. Le spiegazioni basate su ipotesi di interferenza hanno sempre
predominato. La ricerca ha dimostrato infatti come molte variabili influiscano sulla
curva dell’oblio. La stessa capacità di ricordare un’informazione a distanza di tempo
varia significativamente in base al modo in cui tale ricordo viene misurato: se come
semplice ripetizione di quanto appreso, o come velocità nell’apprenderlo
nuovamente, o capacità di riconoscere le informazioni se ripresentate. Non si può
quindi, a oggi, individuare un’unica causa o meccanismo che spieghi l’oblio, ovvero
la progressiva perdita di certi ricordi. È però evidente come molte variabili, e tra
queste molti comportamenti del soggetto, sia precedenti sia successivi alla
memorizzazione, influiscano significativamente nel far perdere o nel far mantenere a
lungo la capacità di ricordare.

Numerosi sono invece i tipi di memoria che si possono distinguere in base al contenuto,
ovvero dalla forma assunta dal ricordare.

4.4. Memoria procedurale e dichiarativa


Memoria procedurale e dichiarativa vengono distinte sulla base del tipo di contenuto
ricordato:
● procedurale → operazioni motorie o modi di fare le cose
● dichiarativa → di tipo verbale, ricordo di parole o fatti
Un classico esempio di memoria procedurale è rappresentato dal guidare un’auto: una
volta appreso come guidare, ciascuno di noi compie una serie di azioni anche complesse senza
bisogno di prestarvi attenzione.
All’interno della stessa categoria della memoria procedurale si possono distinguere:
65
● abilità discrete → riguardano movimenti puntuali (es. il cambio della marcia)
● abilità continue → riguardano serie di azioni ininterrotte (es. ruotare lo sterzo)
La distinzione si basa sull’osservazione che le abilità discrete sembrano più facili a
dimenticarsi, mentre quelle continue si fissano maggiormente nella memoria.

4.5. Memoria implicita ed esplicita


Esistono vari tipi di memoria che non possono essere espressi a parole. In questi casi non è
possibile dire con precisione ciò che si sa, poiché alcuni tipi di conoscenza non sono accessibili
verbalmente. La capacità di ricordare può essere osservata nelle azioni e nei non verbali
dell’individuo.
La distinzione che viene fatta in questi casi è fra memoria implicita ed esplicita. Gli
esperimenti mostrano, per esempio, come stimoli di tipo verbale proposti a persone afasiche (deficit
del linguaggio) abbiano un effetto sul loro comportamento seguente, e dunque vengano
implicitamente ricordati, anche se gli individui non sono in grado di ricordare esplicitamente ciò
che hanno letto, cioè di riferirlo verbalmente.

4.6. Memoria autobiografica e semantica


Parlando di memoria autobiografica, ci si riferisce alla capacità di ricordare fatti che ci
sono capitati in particolari luoghi. Questa è una capacità particolarmente sviluppata nell’essere
umano: noi tutti tendiamo a ricordare un avvenimento o uno stimolo in relazione alla situazione in
cui lo abbiamo incontrato.
Molti di noi sono per esempio in grado di ricordare nel dettaglio dove si trovavano e cosa
stavano facendo al momento del crollo delle Twin Towers a New York l’11 settembre 2001, se
hanno avuto occasione di assistervi in diretta televisiva. Si tratta quindi di ricordi che si sono fissati
nella nostra volontà, e nonostante siano, all’atto pratico, piuttosto insignificanti.
La facilità con cui siamo in grado di ricordare informazioni legate ai contesti della nostra
biografia rende difficile a volte distinguere un altro tipo di memoria, quella semantica, che è invece
relativa al significato e all’uso delle parole. Il significato delle parole viene appreso nel corso di
esperienze personali e ricordato in relazione a esse, come memoria autobiografica. Si parla
propriamente di memoria semantica, invece, quando si studia la capacità di ricordare il
significato di una parola o una frase indipendentemente dalla situazione in cui lo si è appreso.

4.7. Metamemoria
L’atto di ricordare è un comportamento, e come tutti i comportamenti può essere appreso e
affinato. E’ possibile, per esempio adottare tecniche che consentono di aumentare la capacità e
durata della memoria a breve e a lungo termine. La metamemoria consiste nella capacità di
66
ragionare sulla propria memoria, ossia di comprendere le proprietà della nostra stessa
capacità di ricordare.
Il ricordare dipende in buona parte dalle circostanze in cui avviene: l’esito positivo o
negativo di precedenti esperienze in cui, in particolari situazioni, si è compiuta l’attività del
ricordare, ci porta a ripetere lo stesso tipo di attività (in caso di precedente esito positivo ) oppure
ad adottare un altro comportamento, per esempio sostituendo una memorizzazione a breve o a lungo
termine.
La metamemoria è quella capacità che ci consente di osservare il nostro stesso
comportamente e discriminare le diverse situazioni in cui è avvenuto, traendone insegnamento.

4.8. Memoria di lavoro


Si pensi ad un cuoco in un fast food, che deve completare rapidamente un ordine per passare
poi al seguente: mentre cucina, concentrandosi sull’esecuzione della ricetta, non deve scordare gli
ordini a cui dedicarsi subito dopo.
Nel caso della memoria di lavoro, quindi, accanto alla capacità di ricordare, diviene
altrettanto importante la capacità di dimenticare selettivamente le informazioni non più
rilevanti.
Alcuni studi sembrano dimostrare che le persone che sono in grado di ricordare più
facilmente compiti non ancora completati rispetto ad ordini conclusi. Inoltre, se si chiede a un
soggetto di dimenticare alcuni item, gli sarà più facile ricordare gli altri presenti nella lista. Altri
studi invece sembrano dimostrare come, in effetti, se a un soggetto si chiede di cancellare dalla
propria memoria alcune informazioni, egli risulterà in seguito in grado di ricordare meglio quelle
stesse informazioni, quando gli saranno silenziosamente ripresentate.
Il funzionamento della memoria di lavoro sembra quindi avere piuttosto a che fare con la
capacità di discriminare fra informazioni utili e informazioni non più utili per i compiti in
esecuzione.

4.9. Ricordo discriminativo


Un altro significativo esempio di capacità discriminativa applicata al ricordo è rappresentato
dall’espressione “sulla punta della lingua” per indicare un ricordo sfuggente, ma abbiamo
comunque consapevolezza del fatto che ci manca poco per ricordarlo. Ne ricordiamo una parte ed è
molto probabile che, se vedremo la parola scritta, la riconosceremo immediatamente.
Numerose ricerche hanno indagato come le persone siano in genere in grado di stimare la
probabilità di ricordarsi qualcosa, sia nel momento in cui si trovano a doverla memorizzare, sia
quando devono ricordarla. Allo stesso modo, noi tutti siamo di solito in grado di dire se vediamo

67
un’informazione per la prima volta o se l’avevamo precedentemente ricordata, anche se oggi non la
sapremmo più ricordare. Siamo inoltre in grado di distinguere fra ricordi del nostro passato e altri
fatti che sono congetture o interferenze tratte da quei ricordi.
Queste capacità discriminative sono probabilmente molto importanti per il funzionamento
del ricordo. Un caso tipico in cui esse si rivelano cruciali è quello degli studenti: uno studente che
non sia in grado di indicare correttamente se ha memorizzato efficacemente dei contenuti o se
invece non li ha memorizzati bene, commetterà degli errori nel decidere se studiare ancora e su
quali contenuti concentrarsi.
La capacità discriminativa sui propri ricordi è quindi uno strumento importante che merita di
essere allenato e perfezionato, in particolare per chi fa dello studio il proprio impegno principale.

4.10. Memoria ed emozioni


Molti psicologi cognitivi si resero conto dell’importanza delle emozioni nella memoria,
fenomeno già riconosciuto dagli psicologi clinici e sociali. Il secondo fattore fu il miglioramento
delle procedure sperimentali che permisero di studiare l’umore e la memoria in laboratorio come
negli ambienti clinici. Il terzo motivo fu lo sviluppo di cornici teoriche che comprendevano
entrambe l’emozione e la cognizione, concetti a lungo evolutisi indipendentemente l’uno dall’altro.
La ricerca sui rapporti tra umore e memoria si è concentrata sullo studio di due fenomeni
specifici, denominati rispettivamente congruenza dell’umore e dipendenza dallo stato
dell’umore. I risultati ottenuti sono stati spesso discordanti, soprattutto per quanto riguarda la
dipendenza dallo stato. Il fenomeno della congruenza è stato al contrario replicato più volte con
successo, con solo poche eccezioni al quadro generale di riferimento.
Il fenomeno della congruenza dell’umore implica che l’efficienza dei processi
mnemonici sia influenzata dalla corrispondenza tra l’umore esistente e il tono affettivo dei
materiali da ricordare. L’ipotesi è che i soggetti che provano un determinato stato emotivo fanno
maggiore attenzione agli stimoli, eventi e oggetti emotivamente congruenti con esso. Per questo
motivo, una persona felice trova più attraenti e salienti stimoli piacevoli e quindi presta loro più
attenzione; paradossalmente, le persone tristi sembrano al contrario preferire tipi opposti di stimoli
che elaborano in modo più profondo.
La memoria è detta “dipendente dallo stato” (mood-dependent memory - MDM) se i
ricordi immagazzinati durante un particolare stato emotivo sono più facilmente recuperabili, in
seguito, quando si prova nuovamente quello stesso stato. In altre parole, se un individuo ascolta una
storia in un momento in cui è emotivamente triste o depresso, ricorderà più facilmente questo
quando si troverà nuovamente in uno stato di depressione o tristezza, piuttosto che durante uno stato
emotivo diverso.
68
La MDM differisce dalla memoria “umore-congruente” (MCM) perchè nella prima è
fondamentale la corrispondenza tra lo stato emotivo al momento dell’apprendimento e quello del
recupero, piuttosto che tra il materiale e lo stato emotivo corrente. La MDM è un caso specifico del
più generico “effetto del contesto” dimostrato in molte ricerche, nelle quali i soggetti dovevano
imparare e ricordare il materiale durante stati posturali o di arousal (attivazione emotiva generale)
diversi, durante stati di coscienza differenti indotti sperimentalmente, o durante momenti diversi del
giorno.

4.11. Memoria prospettica


Ricordare il futuro sembra a prima vista una contraddizione di termini, in realtà accade tutti i
giorni di farlo: ricordarsi di prendere una medicina la mattina, telefonare ad un amico nel
pomeriggio, ecc. Gli studiosi chiamano questo tipo di ricordo memoria prospettica.
Il termine risale a Meacham e Leiman (1975): con esso si intende il “ricordo di piani, delle
azioni e delle intenzioni da svolgersi nel futuro” e dimostra come essa sia una componente
fondamentale della giornata di ognuno di noi, scandita dal ritmo delle “cose da fare”.
La formazione dell’intenzione di compiere una determinata azione precede il momento in
cui l’azione programmata può essere messa in atto, un determinato intervallo trascorre tra la
codifica dell’intenzione prospettica e la sua effettiva realizzazione.
Mentre la MR (memoria retrospettiva) riguarda il ricordo di nozioni ed eventi accaduti in
passato, la MP (memoria prospettica) riguarda il ricordo di un’azione da mettere ancora in
pratica. Un’analisi meno superficiale mette in luce che i due tipi di memoria sono strettamente
collegati e, anzi, ogni compito di MP racchiude anche un processo di recupero dalla MR.
Una buona prestazione prospettica richiede sia di attuare l’intenzione al momento
opportuno, sia di compiere l’azione voluta: se il carico mnesico della componente retrospettiva è
alto, la probabilità di una buona esecuzione prospettica dipende anche dalla capacità del soggetto di
ricordare i contenuti.
Un esempio di questa situazione è ricordare a memoria la lista della spesa: il fatto di
fermarsi dopo il lavoro al supermercato, come si era in precedenza programmato, significa
l’intenzione prospettica è stata opportunamente messa in pratica. Ma può accadere di dimenticare di
comprare alcuni alimenti perché la componente retrospettiva (il contenuto della lista) richiede uno
sforzo di memoria superiore alle proprie capacità.

69
CAP. 7 - INTERAZIONI NEL FUTURO: ATTEGGIAMENTI E
ASPETTATIVE
La psicologia ha cercato di spiegare i processi attraverso i quali ognuno di noi
percepisce la realtà, come si dà senso a ciò che si vede, come si costruiscono le rappresentazioni
del mondo dotate di significato per cercare di ridurre o evitare situazioni di incertezza, di dubbio, di
indefinitezza.
Questa esigenza di controllo degli eventi fa parte della natura umana. Rappresenta
l’esigenza di ridurre al minimo lo sforzo cognitivo che l’uomo compie nel relazionarsi
quotidianamente con il mondo. È per questo motivo che tendiamo a giustificare qualsiasi nostro
comportamento, anche il più strano, come dettato da precisi progetti e da chiari obiettivi.
Soprattutto riusciamo sempre ad attribuire una responsabilità, o ad individuare una
giustificazione per il comportamento altrui, anche se spesso in maniera del tutto soggettiva e
poco corrispondente con il punto di vista dell’altro.
Altro aspetto è che ognuno di noi presta attenzione in modo selettivo ad alcuni aspetti
dell’ambiente: non è possibile riuscire a considerare nel modo più esaustivo possibile tutte le
opzioni disponibili. Se io ho già uno stereotipo o un pregiudizio su un determinato argomento, è
probabile che le informazioni che io andrò a cercare saranno coerenti con quell’idea io già ho,
cercando di confermarla. Senza volerlo, presto più attenzione ad alcuni informazioni piuttosto che
ad altre. ( → euristica della disponibilità)
Quest’area di studi è stata definita come l’area della “cognizione sociale” e rappresenta una
delle più vaste di questa disciplina. Lo sviluppo di quest’area di studi sui processi di
rappresentazione ha avuto un certo impulso prevalentemente sulla metafora della mente come luogo
di elaborazione delle informazioni. Un numero cospicuo di studiosi ha cercato di individuare i
principi generali capaci di spiegare i comportamenti sociali.
Fortemente ispirati dal successo nell’età moderna delle idee del positivismo, questi
studiosi del comportamento sociale hanno cercato di individuare le leggi che governano la natura
attraverso un modello di studio pragmatico, fondato sulla consapevolezza che la realtà esterna
fosse conoscibile poiché è così come è data. Ciò consolida l’idea che la realtà esterna e il
comportamento umano possono essere conosciuti nella loro oggettività, soprattutto se analizzati
attraverso strumenti di osservazione rigorosi e attraverso la semplificazione di ciò che è
complesso e articolato nei suoi singoli elementi.
In questo tipo di analisi ritroviamo tutti i nuclei centrali del pensiero positivista: la possibile
semplificazione della realtà in elementi costituenti, la possibilità di leggere la realtà e i

70
comportamenti nella loro essenza oggettivata, la possibilità di studiare tali elementi attraverso la
rigorosa applicazione del modello di studio sperimentale, attraverso la quantificazione degli
elementi di base della realtà e la possibilità di accorpare questo insieme di conoscenze in un corpus
unico, risultato di assembramenti consecutivi al fine di poter giungere alla verità delle cose. L’uomo
e i suoi processi sono stati, pertanto, semplificati in processi razionali facilmente leggibili e
interpretabili con una lente di ingrandimento razionalizzante.
Questa ipersemplificazione rischia di promuovere una rappresentazione del comportamento
umano priva di quella dinamicità e di quei processi di influenzamento reciproco che stanno alla
base della complessità del comportamento umano.
Quello che sappiamo è che l’uomo di fatto è inserito in un contesto. Quando parliamo di
“interazioni umane” parliamo di processi di influenzamento reciproco (uomo-contesto e contesto-
uomo) che stanno alla base della complessità del comportamento umano.
Il senso e il significato che diamo alle cose guidano, a volte inaspettatamente, il nostro modo
di percepire la realtà e gli altri. Una realtà che non sembra più data una volta per tutte, ma costruita
di volta in volta dai processi di socializzazione, di simbolizzazione e dai significati che noi stessi gli
attribuiamo, un significato profondamente influenzato dal contesto culturale di riferimento. La
realtà quindi non è assoluta, ma la sua percezione può variare secondo il gruppo cui ogni
individuo appartiene.
Secondo Lewin (1935), le forze ambientali hanno un ruolo di grande rilievo nello
sviluppo dell’individuo e nella determinazione del suo comportamento, ma ciò che è importante
è la profonda relazione “causale circolare fra le une e le altre”.
L’ambiente esperito dall’individuo è visto potenzialmente diverso da persona a persona,
come per la stessa persona in momenti diversi. Viene così riconosciuto il ruolo attivo
dell’individuo nei processi di conoscenza e l’influenza del processo di significazione individuale
nella spiegazione della realtà, a sua volta culturalmente caratterizzato.
Bruner (1957) sosteneva che gli individue diventano artefici del loro ambiente sociale e
del contesto in cui vivono e percepiscono. Il comportamento del consumatore non è solo
determinato dai suoi bisogni e dalla sua dimensione biologica, ma è strettamente influenzato dal
contesto sociale e culturale in cui si muove.

1. Il gioco razionale nella spiegazione della realtà: la dissonanza cognitiva


Leon Festinger è stato il primo ad occuparsi di alcuni processi di razionalizzazione e
giustificazione dei comportamenti descrivendo gli effetti della dissonanza cognitiva. Questa si basa
sulla premessa che gli atteggiamenti di un individuo sono tendenzialmente consonanti e che le sue
azioni sono di solito coerenti con gli atteggiamenti.
71
Il principio da cui parte Festinger è che l’individuo è prevalentemente caratterizzato da
coerenza e razionalità. Nel prendere qualsiasi decisione, come per esempio acquistare un prodotto,
l’individuo affronta una situazione di conflitto nella quale deve soppesare le valutazioni positive e
negative nei confronti delle diverse alternative.
Secondo Festinger, la dissonanza è psicologicamente scomoda o comunque è in grado di
creare un certo disagio a causa della tensione che deriva da una scelta che può essere in
contrasto con una valutazione. La dissonanza, intesa come incoerenza tra processi cognitivi o
come discordanza tra atteggiamento dichiarato e comportamento agito, provoca una
condizione di difficoltà che spinge l’individuo ad adottare tutte le possibili soluzioni e i filtri per
recuperare uno stato di coerenza, equilibrio e, conseguentemente, di benessere. Lo stato di
disagio provocato dalla dissonanza è probabilmente determinato dal fatto che siamo stati abituati a
percepirci coerenti con le nostre opinioni, equilibrati nei nostri comportamenti.
A fronte di tale disagio, l’individuo cerca di trovare specifici rimedi: la rivalutazione delle
proprie opinioni; la revoca delle decisioni (il che tuttavia non sempre è possibile); il cambiamento
dei propri atteggiamenti o delle convinzioni; la ricerca di nuove informazioni che dimostrino che il
comportamento agito, in fondo, non è così incoerente o sbagliato come sembra.
Ciò avviene attraverso quelli che vengono definiti i filtri cognitivi, che permettono di
raccogliere le informazioni coerenti con le proprie aspettative. L’uso di filtri per la selezione delle
informazioni può dare vita a una vera e propria forma di percezione difensiva, intesa come la
tendenza a non rilevare la presenza di stimoli ritenuti non graditi o minacciosi e spiacevoli: di fronte
a una scelta (es. acquisto di un’automobile) pur di evitare il disagio provocato dal recepire
informazioni contrastanti con la scelta fatta, non sarà difficile vedere il nostro acquirente
confrontarsi con chi ha fatto lo stesso acquisto, leggere e ricordare solo le informazioni che
convalidano e sostengono la scelta fatta, rinnegare o screditare tutte quelle informazioni, e/o le loro
fonti, che dimostrano di aver commesso un profondo errore di valutazione.
Ma da cosa dipende il grado di dissonanza cognitiva?
1. Importanza della decisione
2. Grado di attenzione della scelta rifiutata (se le opzioni hanno entrambe dei pro,
faccio più fatica)
3. Numero di elementi negativi della scelta effettuata (se nella scelta che scelgo, ho
comunque dei pro, faccio più fatica ad accettarla)
La cosa che accomuna tutti in caso di dissonanza cognitiva è il tentativo di uscire da
questa situazione in cui ci percepiamo incoerenti. Cerchiamo di modificare gli atteggiamenti,
evitiamo le informazioni dissonanti (es. copriamo le immagini sui pacchetti delle sigarette) e

72
cerchiamo argomenti a sostegno della decisione presa. Posso sceglierle tutte e tre o una più di
un’altra, ma comunque cercherò in tutti i modi di modificare la situazione in cui mi trovo per
riportare l’equilibrio.

Dove spesso sperimentiamo una situazione di dissonanza cognitiva è durante i processi


decisionali. Diversi studiosi hanno effettuato delle ricerche per andare a capire quali sono i processi
decisionali che regolano le scelte degli individui.
In una situazione di incertezza:
● utilizziamo delle scorciatoie cognitive per elaborare il problema (compiere una scelta
o prendere una decisione)
● trascuriamo la statistica
● non utilizziamo in modo efficace tutti i dati che abbiamo a disposizione
● i fattori emotivi interferiscono con le nostre decisioni
Il mio focus è selettivo per gli aspetti coerenti con quello che mi aspetto, coerente con le mie
abitudini, bisogni, obiettivi. Altra cosa che ha impatto su come costruisco la realtà è che l’influenza
delle mie aspettative e il processo di influenzamento sui processi percettivi si rafforza in situazioni
complesse e ansiogene.
Le aspettative sono studiate da moltissimo tempo perché spesso anche il risultato di un
intervento farmacologico è fortemente influenzato dalle aspettative. Nelle aspettative rientrano,
infatti, l’effetto placebo e nocebo. L’aspettativa è talmente potente che anche se il farmaco è privo
di principio attivo, mi porta a percepire quel farmaco come efficace. L’aspettativa che ho e che è
stata costruita modifica la mia percezione della realtà. Lo stesso vale per l’effetto nocebo.

73
1.1. Schemi e aspettative nella costruzione della realtà
Nelle interazioni un ruolo determinante è attribuito alle aspettative. Queste sono in grado di
guidare le nostre azioni, oltre che i processi di selezione delle informazioni e di percezione
della realtà.
L’attenzione favorisce l’accesso degli input verso i processi superiori di elaborazione di quei
contenuti che sembrano avere più pertinenza con le attese, con le abitudini, con i bisogni e con gli
scopi che l’organismo sta perseguendo in quel momento. L’influenza delle aspettative e questo
processo di influenzamento sui processi percettivi si rafforza in situazioni complesse e ansiogene.
La forza degli stereotipi e dei pregiudizi si intensifica quando ci si percepisce in difficoltà, o
quando la nostra attivazione fisiologica (arousal) supera un certo limite. Con il termine arousal
si intende l’intensità dell’attivazione fisiologica e comportamentale dell’organismo. Secondo la
Teoria dell’Arousal (Oliviero e Russo, 2009), quando l’organismo deve effettuare una
prestazione, occorre un’attivazione, come l’aumento della vigilanza e dell’attenzione
(attivazione del sistema nervoso centrale), la preparazione dei muscoli allo sforzo (attivazione del
sistema muscolo-scheletrico), l’attivazione del sistema cardiaco e respiratorio per la produzione
delle energie necessario per sostenere lo sforzo (sistema vegetativo simpatico) all’azione.
Secondo la legge di Yerkes e Dodson, un’attivazione fisiologica moderata favorisce un
buon livello di prestazione percettiva, attentiva, decisionale. Se l’attivazione fisiologica cresce,
la prestazione aumenta corrispondentemente, soprattutto se il compito risulta facile. Ciò però
avviene fino ad un certo punto e fino ad una certa attivazione fisiologica: oltre un certo livello di
attivazione fisiologica, la prestazione decresce.

74
Il fenomeno ci può spiegare come mai in situazioni particolarmente stressanti si è più
propensi a utilizzare schemi e stereotipi o perché si è più soggetti alla pressione alla
conformità, violando qualsiasi principio di logica “razionale”. In una logica di risparmio
energetico in situazione di grave attivazione fisiologica si investono poche energie per cercare le
informazioni lasciandosi guidare da schemi e pregiudizi.
Quando si parla di schemi intendiamo delle categorie di concetti, rappresentazioni
mentali e strutture di conoscenza più o meno condivise (stereotipi e pregiudizi) spesso create
in modo automatico, indispensabili per semplificare la realtà.

PRO CONTRO
● Risparmio di energie ● Rischio di ipersemplificazione della

75
realtà
● Classificazione della realtà ● Farsi guidare da pregiudizi e stereotipi
● Semplificazione della realtà
● Dare un senso all’enorme quantità di
informazioni a cui siamo esposti
● Previsione e controllo

L’uso degli schemi, o meglio, l’uso di categorie e concetti intesi come rappresentazioni
mentali e strutture di conoscenza più o meno condivisi, è indispensabile per semplificare la realtà
e dare senso all’enorme quantità di stimoli e informazioni.

2. Decisione e cognizione sociale


Alla base dei processi cognitivi vi è la consapevolezza che in fondo il sistema dell’Io è
caratterizzato da processi di semplificazione e di sintesi che sembrano guidati dal principio di
regolarità. È questa regolarità che può garantire la sicurezza di “prevedere” e gestire la complessità
del mondo e di contenerne la sua carica ansiogena.
In una situazione di incertezza:
● utilizziamo delle scorciatoie cognitive per elaborare il problema (compiere una scelta
o prendere una decisione)
● trascuriamo la statistica
● non utilizziamo in modo efficace tutti i dati che abbiamo a disposizione
● i fattori emotivi interferiscono con le nostre decisioni
Ancora oggi ci sono teorie e modelli in cui il flusso decisionale viene descritto secondo un
modello razionalistico, figlio dell’era positivistica. A volte il processo decisionale viene
rappresentato come un percorso caratterizzato, da una parte, da un insieme di variabili umane
come la personalità, la motivazione, la percezione, l’apprendimento e, dall’altra, da processi
razionali caratterizzati dalla valutazione cognitiva delle informazioni, dalla loro pesatura,
dalle scelte razionali e così via.
Le variabili come personalità e motivazione rischiano di essere percepite come variabili
di disturbo che alterano inspiegabilmente il processo razionale di scelta. Rappresentano
comunque elementi importanti ma sembrano essere considerati come un insieme indefinito di
variabili che sembrano non coincidere con il flusso più importante dove avviene la valutazione delle
informazioni.

76
Il processo decisionale è quindi coerente con il modello positivistico, caratterizzato dalla
possibilità di individuare leggi universali, razionalmente definibili, flussi decisionali
caratterizzati da processi lineari e deterministici. Eppure numerose ricerche hanno dimostrato
che il processo di decisione può avvenire attraverso diverse strategie. Alcune decisione sono prese
con un basso coinvolgimento emotivo, affettivo o cognitivo. Già nella seconda metà degli anni
Settanta è stato evidenziato che le persone molto spesso non sono affatto consapevoli dei processi
cognitivi che utilizzano nel formulare i propri giudizi e le proprie scelte (Nisbett, Wilson, 1977;
Postman, Bruner, McGinnies, 1948).
Anche il giudizio su di sé non sembra essere così lineare e logico come sembra. La
percezione del proprio modo di essere è strettamente legata alla relazione sociale influenzata da
questa.
Il proprio concetto di sé è il riflesso delle opinioni comunicate da altri per noi significativi.
La società offre uno specchio nel quale scopriamo la nostra immagine o auto-definizione. Dai
risultati di numerose ricerche risulta che la gente alimenta la propria autostima riponendo viva
fiducia nelle opinioni di chi giudica favorevolmente, piuttosto che a seguito di una precisa e
puntuale analisi delle informazioni su di sé.
Oltre alle opinioni di persone significative, il confronto sociale, studiato da Festinger nel
1954, ha un ruolo determinante nei giudizi su di sé. Il confronto sociale diviene pertanto il
principale sistema di discernimento di ciò che è vero e che è falso nella vita sociale.

3. L’uso delle scorciatoie: le euristiche


Le euristiche sono strategie di pensiero che consentono di formulare rapidamente un
giudizio sulla probabilità che qualche evento si verifichi o sulle caratteristiche di una persona
o di un prodotto.
Molti problemi conoscitivi che affrontiamo nella vita quotidiana sono strutturati in modo da
richiedere l’uso del ragionamento probabilistico. In realtà, le ricerche condotte sul modo in cui le
persone rispondono a questo tipo di quesiti indicano chiaramente che in molti casi non vengono
usate le leggi probabilistiche, ma vengono utilizzati i processi stereotipizzazione e di
semplificazione.
Una delle principali euristiche è quella della rappresentatività. Secondo questa strategia, o
meglio, scorciatoia, persone o prodotti vengono inscritti in una categoria concettuale tramite un
processo di valutazione della similitudine tra le loro caratteristiche principali e quelle
rappresentate dalla categoria.  Le predizioni che seguono l’euristica della rappresentatività a volte
sono precise (uno sportivo molto alto è probabile che giochi a basket piuttosto che a calcio…).

77
Tuttavia affidarsi in maniera esclusiva alla rappresentatività ci conduce a commettere gravi peccati
contro la logica statistica soprattutto perché ci fa sovrastimare l’occorrenza di eventi improbabili.
Un’altra euristica è quella della disponibilità, secondo cui gli individui stimano la frequenza
oggettiva di determinati eventi sulla base della facilità a reperire informazioni disponibili. Ciò
significa che un individuo prova realmente a raccogliere le informazioni per risolvere il quesito e
per stimare la probabilità da associare a un evento, ma nel far ciò si basa sugli elementi
cognitivamente più disponibili: il sistema 1 recupera il numero di esempi disponibili su quella
domanda e si risponde in base a quelli. Più esempi troviamo riguardo un evento, più la categoria
sarà considerata grande; meno esempi troviamo, più la categoria sarà piccola.
Desideriamo valutare le dimensioni di una categoria o la frequenza di un evento, ma siamo
suggestionati dalla facilità con cui ci vengono in mente gli esempi (→ BIAS) → Resistere ai BIAS
è possibile, ma faticoso.
Fattori che rendono facile trovare esempi:
➔ Evento saliente che attira la nostra attenzione viene recuperato facilmente dalla
memoria
➔ Evento drammatico che incrementa temporaneamente la disponibilità della sua
categoria
➔ Esperienze personali che sono più disponibili degli episodi accaduti ad altri.
L’immediata ed effettiva disponibilità di informazioni affidabili su fatti ed eventi non
corrisponde alla corretta valutazione delle frequenze degli eventi stessi. In maniera del tutto
automatica, poiché guidati da questi processi di semplificazione, la probabilità soggettiva prende
il sopravvento su quella oggettiva.
L’euristica dell’ancoraggio postula che quando le persone devono esprimere un giudizio in
situazioni di incertezza, spesso riducono tale incertezza assumendo come punto di riferimento un
dato per loro sicuro, come per esempio un’esperienza passata o uno stereotipo. Questo dato funge
da ancoraggio per tutte le altre informazioni che verranno “accomodate” in modo da rimanere
pertinenti al dato iniziale.
Es. - Gandhi aveva più o meno di 144 anni quando morì?
- Quanti anni aveva Gandhi quando morì?
Il numero 144 (àncora) può influire sulla stima dell’età di Gandhi (79aa) → suggestione =
effetto priming che evoca selettivamente evidenze compatibili. Il sistema 1, quello veloce,
funziona attraverso i meccanismi associativi: 144 anni vuol dire uomo anziano, quindi se devo dare
una stima e non so da dove iniziare, mi àncoro all’unica informazione che ho disponibile. Ci sono
situazioni in cui l’ancoraggio appare ragionevole → àncora come indizio plausibile.

78
Le àncore casuali sono spesso altrettanto efficaci delle ancore potenzialmente informative
→ le ancore non producono i loro effetti perché le persone le ritengono informative!
Le euristiche sono quindi più rapide, più facili e più semplici, tali da condurre a soluzioni
mediamente corrette. Il problema è quel “mediamente”. Si tratta sempre di scorciatoie dettate
certamente dall’esperienza, dalla condivisione di credenze, dalla semplificazione che in un contesto
assai complesso, come la realtà circostante, sono molto utili ma rischiano di condurci a un’eccessiva
semplificazione e quindi all’errore.
Nella maggior parte delle volte questo avviene in maniera del tutto inconsapevole e
automatica. A volte sono proprio gli elementi più irrilevanti che influenzano il comportamento di
scelta dell’individuo. La scelta automatica guidata da un sentimento, da un’emozione, dall’esigenza
di soddisfare un bisogno o un’abitudine, non può che essere giustificata da argomentazioni spesso
lontane da una valutazione incapace di reggere a un’analisi razionale e oggettiva.
I processi automatici sono processi che si attivano senza l’intenzione della persona,
sfuggono al suo controllo. Al contrario, i processi controllati sarebbero processi meno efficienti
(dal punto di vista del dispendio di energia psichica) in quanto richiedono sforzo e tempo. Possono
essere disturbati da fattori personali e situazionali che vengono applicati intenzionalmente e
consapevolmente dall’individuo.
Significativi a questo riguardo sembrano la teoria della probabilità dell’elaborazione di
Pretty e Cacioppo e la teoria sull’elaborazione euristico-sistemica di Chaiken.
Secondo Pretty e Cacioppo il processo decisionale si sviluppa secondo due possibili vie:
➔ Centrale → attenta elaborazione cognitiva delle informazioni e delle alternative
secondo il modello razionale e lineare. Questo processo centrale, che richiede
energia e attenzione, in genere viene attivato in funzione anche delle peculiarità della
situazione e delle specificità della persona. Le persone motivate a elaborare
attentamente le informazioni della situazione o il messaggio pubblicitario tenderanno
ad attivare il percorso centrale soprattutto se sono e si percepiscono anche
competenti in materia, ovvero se hanno le competenze cognitive adeguate per
procedere a questo tipo di elaborazione.
➔ Periferica → minore impegno nell’elaborazione delle informazioni e della presa di
decisione. In questo caso, la decisione è presa in maniera quasi automatica, secondo
abitudini, o comunque facilmente determinata da pregiudizi, attese o influenze
esterne. Non vi è un’attenta riflessione sulle informazioni o sulle possibili
alternative. Quando la motivazione e la capacità cognitiva sono ridotte, è più
probabile che venga seguita la via periferica.

79
Quanto elaborato con il processo centrale è più persistente, più predittivo del
comportamento e più resistente alla persuasione.

80
Anche secondo Chaiken (1980) ogni individuo, nell’attribuzione di un significato a un
messaggio o a un prodotto, può utilizzare due diversi approcci o due diversi processi cognitivi:

➔ Processo sistematico → richiede tempo e sforzo per elaborare attentamente la


situazione e le diverse alternative e un processo di elaborazione euristica che utilizza
semplici regole decisionali, apprese durante le esperienze precedenti o determinate
dalle influenze sociali, che richiede uno sforzo limitato.
➔ Elaborazione euristica → consente un risparmio energetico nell’elaborazione
dell’informazione in quanto utilizza strutture cognitive precedenti, aspettative e
credenze, opinioni e pregiudizi per elaborare le nuove informazioni.
Dovendo sovrapporre i due modelli decisionali misti, possiamo dire che il processo
sistematico corrisponde alla via centrale, mentre la via periferica comprende anche l’elaborazione
euristica.

81
L’elaborazione euristica di Chaiken è più circoscritta rispetto alla via periferica di cui hanno
parlato Pretty e Cacioppo perché la dimensione definita periferica faceva riferimento a tutto ciò che
non era elaborazione attenta e dettagliata delle informazioni secondo un processo cognitivo e
razionale.
Tale modello, però, prevede che i due processi siano mutamente escludenti: non si può
avere congiuntamente un processo periferico e un processo centrale. Invece il modello di Chaiken
prevede la possibilità che i due processi si verifichino contemporaneamente. Chi riceve il messaggio
può avere la motivazione e la capacità di seguire un’elaborazione sistematica e allo stesso tempo, se
sono disponibili, potrebbe lasciarsi guidare da pregiudizi o da processi euristici. Il giudizio finale e
il conseguente cambiamento dell’atteggiamento potranno essere influenzati in modo interattivo
dalle due modalità di elaborazione.
I processi decisionali automatici e controllati non possono essere intesi come distinti e
mutualmente escludenti.
I processi controllati hanno una parte di automatismi, così come gli automatismi hanno
elementi di consapevolezza. La complessità dei processi decisionali non solo deve fare i conti con la
presenza di processi non razionali o comunque non coscienti, ma anche con la compresenza di
processi automatici e processi cognitivi controllati.
In genere, i processi automatici sono quelli che vengono attivati immediatamente, che
forniscono una prima risposta che in seguito viene controllata e se necessario modificata attraverso
uno sforzo cognitivo e un maggiore tempo per l’analisi della situazione o del prodotto. Tra i fattori

82
capaci di stimolare un processo controllato e di stimolare un maggiore impegno energetico vi sono
alcuni elementi, come per esempio la presenza di nuove informazioni incongruenti con gli schemi
posseduti o con le aspettative, l’interesse della persona per eventuali giudizi esterni o la percezione
di dover rendere conto della scelta fatta ad altri o a se stessi: tutti fattori che stimolerebbero un certo
bisogno di accuratezza, mentre la dimensione temporale così come la stanchezza e la mancanza di
energie o interessi specifici sarebbero fattori che ostacolano l’applicazione di processi cognitivi
controllati.
Sia il modello della probabilità sia quello dell’elaborazione euristica sistemica
presuppongono che le persone siano sempre ed esclusivamente motivate a trovare soluzioni
razionali o comunque accurate e che i processi decisionali siano pur sempre caratterizzati da
processi “freddi” e logici. A volte il grado di logicità si riduce poiché ci lasciamo guidare da aspetti
superficiali e da un’analisi semplice della realtà, altre volte il grado di elaborazione è elevato. Si
tratta, comunque, di modelli che considerano esclusivamente la funzione cognitiva degli
atteggiamenti e della scelta di consumo, senza considerare la dimensione affettiva, emozionale e del
desiderio che hanno un ruolo determinante nella spiegazione dei processi di scelta.
Anche nella ricerca delle informazioni, la dimensione motivazionale e affettiva ha un ruolo
determinante. L’attenzione su un’area, un oggetto o una persona può essere influenzata dal piacere
di avere un contatto giusto con quell’oggetto o con quella persona, modificando anche il processo di
raccolta di informazioni. Anche la scelta di effettuare la ricerca delle informazioni utilizzando la
propria banca interiore (la memoria) o l’ambiente esterno dipende da processi affettivi e non solo da
motivi razionali.
La ricerca stessa delle informazioni, a volte, non risponde a principi logici e razionali. Ogni
individuo può distinguersi dall’altro anche in funzione dell’impegno e delle energie che investe per
cercare le informazioni in merito a un prodotto da acquistare.

4. Il ruolo delle emozioni e delle motivazioni nella percezione della realtà


Diversi studi hanno sottolineato l’influenza esercitata dalla motivazione o dall’accuratezza
sui processi cognitivi. La motivazione all’accuratezza o alla chiusura cognitiva determinano la
qualità e la quantità dell’attività cognitiva di un soggetto e del grado di impegno nella ricerca di
informazioni più dettagliate e nell’individuazione di possibili alternative nella scelta di un
particolare comportamento. Se la motivazione all’accuratezza spinge le persone ad adottare
strategie più onerose, la motivazione alla chiusura cognitiva spinge all’adozione di strategie
semplificatrici come l’uso delle euristiche.
Si tratta di un modo di reagire al contesto sociale dettato prevalentemente da una forma di
rigidità di pensiero e della riluttanza ad accettare punti di vista diversi dal proprio. La motivazione
83
alla chiusura può essere indotta da caratteristiche del contesto, oppure essere una caratteristica
disposizionale di un individuo. Essa determina la riduzione della ricerca di altre informazioni prima
di prendere una decisione, la formulazione di un numero inferiore di alternative, una maggiore
predisposizione a recepire le prime informazioni e un maggiore affidamento a pregiudizi e
stereotipi.

5. Le aspettative sono una semplice lettura della realtà o contribuiscono a


modificarla?
In alcuni casi, l’uso di schemi può portare alla formulazione di giudizi, convinzioni e
decisioni inadeguate se non addirittura dannose. Sulla base del processo semplificatore degli
schemi, nascono i pregiudizi, ovvero una forma di giudizio che anticipa, e quindi semplifica,
l’attribuzione di aspetti caratteriali alle persone. In questo caso si parla di stereotipo sociale
inteso come una forma di teoria implicita di personalità, condiviso all’interno di un gruppo di
persone e che riguardano il proprio o un altro gruppo.
A volte, pur di non mettere in discussione le proprie e rassicuranti certezze, si rischia di
considerarle valide anche di fronte a nuove e chiare informazioni. Per evitare la fastidiosa
sensazione di dissonanza cognitiva, è possibile riscontrare anche una forma di adattamento forzato
dei nuovi stimoli agli schemi preesistenti.
Si parla in questo caso di perseveranza degli schemi, che rischia di innescare un
meccanismo perverso definito profezia che si auto-avvera: secondo tale fenomeno, l’adozione di
uno schema per interpretare un fenomeno, un evento o il comportamento di una persona può
influenzare il nostro modo di relazionarci con quella persona tanto da creare i presupposti per la
conferma dello schema o del pregiudizio.
A tal proposito Rosenthal (1968) ha svolto una delle più note ricerche sull’influenza degli
schemi e dei pregiudizi. L’esperimento realizzato con il coinvolgimento di un gruppo di insegnanti
ha voluto analizzare il ruolo delle aspettative nei confronti dei propri studenti nell’influenzare e
determinare il comportamento e il rendimento degli studenti stessi. I due ricercatori fecero un
esperimento in una scuola elementare di San Francisco, sottoponendo un test di intelligenza ad
alcuni alunni. Selezionò poi casualmente alcuni studenti che vennero segnalati come “molto molto
intelligenti” anche se in realtà non era vero. Dopo un anno, Rosenthal tornò in quella scuola,
vedendo come quei bambini, che lui aveva segnalato casualmente come “molto molto intelligenti”
avevano votazioni migliori rispetto agli altri.
Le ricerche hanno dimostrato che il raggiungimento di una prestazione decisamente
superiore per quei ragazzi nei confronti dei quali si erano indotte delle aspettative più elevate furono

84
determinate da comportamenti diversi da parte degli insegnanti proprio nei confronti di quegli
studenti ritenuti più bravi: gli insegnanti mostravano più attenzione a questi studenti, li stimolavano
con compiti più impegnativi, fornivano loro feedback più frequenti e positivi.
Ecco un chiaro esempio di profezia che si auto-avvera: le aspettative degli insegnanti
avevano determinato un cambiamento nei loro stessi comportamenti tanto da influenzare le
prestazioni reali degli studenti.

5.1. La valutazione dell’ambiente e delle persone: l’attribuzione di causa


Il tema dell’attribuzione di causa è di grande interesse per la psicologia poiché fa riferimento
a un considerevole numero di studi e di ricerche sui processi attraverso i quali gli individui
giustificano i propri comportamenti sociali e i comportamenti altrui.
Per la descrizione di questo processo partiamo dai risultati di un’interessante ricerca
condotta da Duncan nel 1976 sulle percezioni e le spiegazioni della violenza che si verifica tra
individui della stessa razza e membri di razze diverse. Ai soggetti dell’esperimento fu mostrato
un filmato in cui due individui agivano in maniera sempre più aggressiva l’uno nei confronti
dell’altro, terminando la sequenza con la visione di uno dei due che dava una spinta all’altro. I
risultati dimostrano che quando la persona che agiva in maniera violenta era di pelle nera oltre il
70% scelse la categoria “comportamento violento” per descrivere ciò che avevano visto .
Quando invece la spinta veniva data dal bianco al nero, la percentuale scendeva drasticamente
13%. Chiedendo poi di spiegare tale comportamento, Duncan si rese conto che l’appartenenza ad
una razza era determinante nell’attribuzione di causa dei comportamenti osservati. Quando
colui che dava la spinta era nero, i soggetti affermavano che tale comportamento era strettamente
legato a fattori disposizionali, ovvero a caratteristiche di personalità, mentre nel caso in cui si
trattava di persona di razza bianca, nell’attribuzione di causa del comportamento violento, i
soggetti facevano riferimento maggiormente ad aspetti situazionali.
Tali risultati hanno stimolato un’innumerevole quantità di ricerche sull’attribuzione di
causa, dimostrando come lo stesso evento possa essere letto in maniera assolutamente differente
in funzione della persona che agisce, delle caratteristiche ad essa attribuite, del contesto, ecc.
I primi studi sull’attribuzione di causa sono stati realizzati da Heider (1958). Costui concepì
l’individuo come uno “scienziato ingenuo”, il cui compito è quello di collegare il
comportamente osservabile con cause non osservabili al fine di potere spiegare i fenomeni che
osserva. Nel pieno rispetto dell’immagine dell’uomo come individuo elaboratore di informazioni,
Heider considera l’individuo come proteso a raccogliere i dati necessari alla conoscenza di un certo
oggetto e a giungere a conclusioni logiche. Secondo questo autore, il compito principale che deve

85
risolvere un soggetto osservatore è decidere se una particolare azione è causata da fattori interni e
disposizionali o indotta da fattori esterni o situazionali.
Secondo Heider nell’attribuzione di causa dei comportamenti sembra che vengano
privilegiate le spiegazioni in termini di caratteristiche disposizionali poiché più economiche (è più
facile attribuire le colpe alle persone che analizzare la complessità del sistema) In questo modo la
causa di un evento viene attribuita a un solo elemento: l’individuo e le sue presunte debolezze.
Il contributo di Heider relativo alle variabili disposizionali è stato per la psicologia sociale di
grande valore per aver introdotto e per aver dato il via a numerosi altri studi sui processi di
attribuzione.
Tra questi vi è il lavoro offerto da Kelley (1973; 1980), autore della teoria della
covariazione. Egli inizia il suo lavoro interrogandosi su quale sia l’informazione che le persone
usano per arrivare a un’attribuzione causale.
Secondo Kelley, le persone adotterebbero gli stessi processi che uno scienziato utilizza nel
suo laboratorio per dare spiegazione ai fenomeni. Se una condizione si presenta al soggetto
percipiente quando ha luogo un certo evento e non si presenta quando l’evento non ha luogo, costui
tende a concludere che la condizione causa l’evento. Per fare questo tipo di analisi, l’individuo si
serve di tre regole:
➔ specificità
➔ consenso
➔ congruenza
Supponiamo di dover decidere se andare in un ristorante a mangiare del buon pesce sulla
base delle informazioni che ci ha dato il nostro amico Luigi. Per decidere se andare in quel
ristorante per noi diventa importante valutare se il giudizio più che positivo di Luigi sia più
attribuibile alla reale qualità del ristorante o alla sua eccessiva gentilezza nel giudicare i ristoranti.
Per poter decidere, partiamo dalle informazioni che abbiamo:
● Luigi lavora spesso fuori ufficio e mangia molte volte al ristorante,
● se il giudizio di Luigi è stato espresso solo per quel ristorante (alta specificità)
● se Luigi non esprime così facilmente giudizi positivi
● se il suo giudizio è coerente nel tempo (Luigi torna in quel ristorante più volte e lo
giudica sempre positivamente - alta congruenza)
● se il suo giudizio coincide con quello del nostro amico Marco e altri nostri amici
(alto consenso)

86
Allora potremo essere certi che il giudizio dato da Luigi non attribuibile alla sua personale
predisposizione a giudicare positivamente i ristoranti, ma può essere ragionevolmente attribuibile
a una causa esterna ben precisa: la qualità del servizio di quel ristorante.
In genere usiamo le regole della specificità, del consenso e della congruenza per
l’attribuzione delle cause dei comportamenti degli altri.
In questi modelli di spiegazione dell’attribuzione di causa, e soprattutto nel modello di
Kelley, si concepisce la persona tanto razionale da individuare i processi attraverso cui si
dovrebbero compiere le attribuzioni causali accurate.
In pratica, l’evidenza empirica ha mostrato che i soggetti percepienti non seguono la logica
dello scienziato (modello di Kelley), ma piuttosto fanno attribuzioni in modo rapido, impiegano
molte meno informazioni e mostrando evidenti tendenze a servirsi di spiegazioni semplificate. Nei
processi attributivi entrano infatti in gioco errori o bias capaci di distorcere i processi che
dovrebbero essere, o che vorremmo che fossero, lineari e logici.
Tra questi bias, ricordiamo l’errore fondamentale di attribuzione in cui si sopravvalutano
le disposizioni e si sottovalutano le influenze situazionali come cause del comportamento.

NOTE AGGIUNTIVE (SLIDE)

Causa e caso
Tendiamo a cercare modelli. Pensiamo che la regolarità (FFFFFF) non compaia per caso ma
in conseguenza di una causalità meccanica. Non ci aspettiamo di vedere la regolarità prodotta da un
processo casuale.
La tendenza a vedere schemi particolari nella casualità è fortissima. Si tende a classificare
erroneamente un evento casuale come sistematico.
Cosa succede quando li scambiamo?
I dati…
 Delle 1662 scuole della Pennsylvania, 6 su 50 degli istituti più prestigiosi è costituito da
piccole scuole
… L’intervento
Vengono investiti molti soldi per creare scuole piccole e per dividere quelle grandi.
Il risultato…
Rianalizzando i dati, si scopre che tendenzialmente le scuole più piccole
risultano essere peggiori (Di nuovo la legge dei piccoli numeri).
Riassumendo:
● Prestiamo più attenzione ai contenuti che all’attendibilità delle informazioni

87
● Cerchiamo di trovare coerenza nelle informazioni anche quando non c’è
● Molti eventi del mondo sono casuali e le spiegazioni causali di eventi casuali sono
irrimediabilmente sbagliate

Legge dei piccoli numeri


Sistema 1 → identifica automaticamente senza sforzo le connessioni CAUSALI tra eventi,
a volte anche quando la connessione è falsificata.
Sistema 1 → è inetto quando si trova di fronte a dati meramente statistici.
“Il Sistema 1 sa fare molto bene il suo mestiere (…), le sue predizioni a breve termine sono
di solito esatte e le sue reazioni alle difficoltà iniziali sono rapide e perlopiù appropriate. Esso è
però soggetto a bias, a errori sistematici che tende a commettere in circostanze specifiche” ?
(Kahneman, 2013)
I risultati estremi (sia massimi che minimi) si rinvengono più facilmente nei campioni
piccoli che non in quelli grandi. La spiegazione NON è causale.
Artefatti: osservazioni dovute interamente a qualche aspetto del metodo di ricerca (→
dimensioni del campione)
I risultati di campioni grandi sono più attendibili dei risultati di campioni piccoli.
I campioni grandi sono più precisi dei campioni piccoli.
I campioni piccoli danno risultati estremi più spesso dei campioni grandi.

88

Potrebbero piacerti anche