Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1
2
2
3
Thorndike
è considerato il pioniere dell’associazionismo. Egli eseguì alcuni famosi esperimenti
sui gatti —> Un gatto viene chiuso in una gabbia, la cui porta può essere aperta
attraverso una leva appesa al soffitto della gabbia. Dopo vari tentativi il gatto
imparerà a premere la leva e a fuggire quindi dalla gabbia. Questo è un
apprendimento graduale che procede per prove ed errori. Il gatto ha così appreso
un’associazione, ovvero una connessione tra lo stimolo (la leva) e la risposta (la
pressione esercitata sulla leva).
Skinner
È l’esponente di un approccio psicologico chiamato Comportamentismo, secondo cui
l’attività di pensiero costituisce una forma di comportamento controllato
dall’ambiente, come qualsiasi altra forma di comportamento, e credeva che la
caratterizzazione dell’attività del pensiero nei termini delle associazioni tra stimolo e
risposta fosse preferibile alla concezione non scientifica secondo la quale l’attività del
pensiero costituisce l’attività mentale.
Il comportamento è il prodotto dell’attività mentale e può essere analizzato più
efficacemente dell’attività mentale per mezzo dello studio delle relazioni tra stimolo
(S) e risposta (R).
Teoria della catena associativa
Gli individui sono capaci di eseguire sequenze molto rapide di risposte, ciascuna
risposta può diventare a sua volta lo stimolo per la risposta successiva. Però questa
teoria non può spiegare la preattivazione (priming) di una risposta. Può accadere che
una risposta si verifichi in una posizione della sequenza precedente a quella prevista
in base all’attivazione da parte dello stimolo immediatamente precedente. Ad
esempio, gli errori anticipatori. Una famosa classe di errori di questo tipo è chiamata
SPOONERISMO (esempio a pagina 24 del libro “processi cognitivi”)
Conclusione: é come se l’intera sequenza di parole fosse stata selezionata prima che
la frase venisse pronunciata.
Questo fenomeno sembra richiedere una procedura di pianificazione molto diversa
dal processo sequenziale da sinistra verso destra proposto dalla teoria (S-R).
Critica di Chosmky a Skinner:
Skinner sosteneva che il linguaggio può essere compreso per mezzo dei principi di
stimolo e risposta, mentre Chomsky sosteneva che quei principi non consentono, ad
esempio, di spiegare l’uso creativo del linguaggio. Infatti secondo Chomsky il
linguaggio deve essere considerato come un fenomeno controllato da un insieme di
processi centrali piuttosto che come un processo periferico che tratta le parole come
3
4
4
5
Secondo la legge della vicinanza : vengono unificati tra loro gli elementi più vicini.
Tendiamo infatti a vedere gli elementi di uno stimolo che si presentano vicini tra
loro come parte dello stesso oggetto, mentre quelli che sono distanti come oggetti
separati.
somiglianza: per la quale tendiamo a ritenere parte della stessa configurazione gli
elementi simili tra loro, mentre tendiamo a separare gli elementi dissimili . La legge
della somiglianza sostiene che tanto più 2 o più elementi sono tra di loro simili, per
forma, colore, dimensione e orientamento nello spazio ecc., tanto più essi tendono
ad essere assimilati l'uno con l'altro.
Gli psicologi della Gestalt credevano che l’influenza esercitata dai fattori appena
esplicati sulle parti di una configurazione costituisse il riflesso di una tendenza
naturale dell’esperienza verso la pregnanza. (Esperimento pag 27 del libro Processi
Cognitivi)
—> La tendenza verso la pregnanza. Per pregnanza si intende il fatto che vengono
percepite come figure quelle configurazioni che appaiono armoniche, simmetriche, e
semplici. Inoltre con il termine pregnanza intendiamo che l’organizzazione
dell’esperienza presente é più importante di quanto lo sia stato l’apprendimento
precedente. Quindi l’organizzazione degli elementi presenti neutralizza l’influenza
dell’esperienza passata.
Inoltre, il modo in cui percepiamo noi gli oggetti dipende, in parte, dal contesto nel
quale sono inseriti. (esperimento pagina 28 del libro Processi Cognitivi).
5
6
Articolazioni figure-sfondo
Un altro aspetto su cui la Gestalt si è soffermata è l’articolazione figura sfondo, che è
il caso più semplice di stratificazione di un’immagine. Particolarmente si è
concentrata su quali siano i principi che ci permettono all’interno di una
configurazione di percepire alcuni elementi come figure e altri invece come sfondo
amorfo e indistinto. Per questo motivo
Leggi dell’articolazione figura-sfondo
Tali psicologi hanno individuato delle leggi che determinano il modo in cui noi
individui andiamo a segmentare una figura
• Legge dell’Inclusione: secondo la quale se abbiamo una figura inclusa e una
includente percepiamo come figura la regione inclusa
• Area minore: qui vengono viste come figure le regioni di area minore rispetto
a quelle di area maggiore
• Larghezza costante: secondo tale legge siamo portati a codificare come figura
una forma regolare piuttosto che una irregolare in quanto ci risulta meno
faticoso
• Infine abbiamo anche quella che viene considerata come una sotto-legge,
ovvero la funzione univoca e unilaterale dei bordi, secondo la quale il
contorno apparterrebbe solamente a quelle regioni percepite come figure e
non allo sfondo
Tutte queste leggi sono espressione del principio di minimo per il quale il sistema
visivo tende a minimizzare l’organizzazione degli oggetti
Lei a lezione ci ha mostrato delle immagini che rappresentano esempi di queste ed
altre leggi, la prima è che:
eventi gli individui apprendono che gli elementi che li compongono sono tra loro
associati.
Asch mise a punto l’esperimento dei pattern (pag 30): Ai soggetti venivano presentati
pattern che sono unità oppure aggregati. Questi ultimi sono realizzati alternando la
disposizione spaziale degli elementi costitutivi delle unità. Ogni pattern viene
presentato per quattro secondi e il compito di soggetti é di rievocare i pattern
riproducendoli attraverso un disegno. Il risultato fu che le unità sono ricordate meglio
rispetto agli aggregati in quanto le unità sono configurazioni percettivamente
coerenti, mentre gli aggregati non sono percettivamente coerenti e per questa
ragione vengono ricordate con maggiore difficoltà.
Teoria del pensiero della Psicologia della Gestalt
Kohler, psicologo gestaltico, condusse un esperimento osservando il comportamento
di uno scimpanzé che non poteva raggiungere un oggetto desiderato, ovvero una
banana, senza aumentare in maniera artificiale l’estensione delle sue braccia. Per
poter raggiungere la banana lo scimpanzé avrebbe dovuto prendere un bastone e
usarlo come strumento per avvicinare a se la banana. Mentre gli associazionisti
tendevano a considerare la soluzione di problemi come il risultato di un processo di
prove ed errori, Kohler dal suo canto non negava che vi fossero prove ed errori, ma
credeva che prove ed errori rappresentassero l’aspetto meno importante del
processo attraverso il quale l’animale otteneva un insight ha proposto di requisiti del
problema: quando l’animale capiva quello che la situazione richiedeva, allora si
rendeva conto di quello che doveva essere fatto. A questo punto l’animale era in
grado di usare in maniera intelligente un bastone per colmare la lacuna (ovvero lo
spazio tra la posizione della banana e la massima estensione delle sue braccia).
L’insight rappresenta la consapevolezza improvvisa di ciò che deve essere fatto per
risolvere un problema.
8
9
altrimenti si ritorna alle fase operate fino a quando l’incongruità non viene
definitivamente rimossa. In conclusione il nostro comportamento è quindi regolato
dalle intenzioni che noi stessi ci imponiamo.
Le prime simulazioni su calcolatore
questo per quanto riguarda i nostri piani, ma come facciamo a sapere quali sono i
piani di un’altra persona?
Inizialmente si faceva ricorso ad alla cosiddetta tecnica del parlare ad alta voce, per
mezzo della quale si chiedeva a dei soggetti di descrivere ad alta voce quali fossero i
loro piani. Ben presto questa tecnica si rivelò essere fallibile o quanto meno si scoprì
che questa fosse una tecnica dai risultati troppo approssimativi e da qui nasce
l’esigenza di creare i cosiddetti programmi per calcolatore. Come si può dedurre
anche già da questa didascalia, i programmi per calcolatore sono ovviamente dei
programmi per computer programmati e quindi destinati ad una simulazione fedele
del comportamento degli individui. Per verificare se il programma è adatto a svolgere
questo tipo di compito bisogna prestare attenzione ai risultati, se infatti i risultati
ottenuti sono uguali a quelli prodotti dagli individui allora possiamo dire che il
programma rappresenta una teoria adeguata del comportamento dei soggetti., in
caso contrario bisognerebbe rivedere il programma e migliorarlo.
10
11
TEST DI TURING:
La più famosa simulazione su calcolatore viene fatta risalire al Test di Turing, il quale
propose un gioco di imitazione. Ammettiamo che in due stanze diverse ci siano da
una parte un essere umano e dall’altra un calcolatore. Il test consiste nel porre le
stesse domande ad entrambi per mezzo di un terminale, successivamente, dopo aver
ricevuto le risposte di entrambi lo scopo era quello di distinguere le risposte del
calcolatore da quelle del soggetto. Se le risposte ricevute fossero state combacianti,
significa che il calcolatore era stato programmato in modo tale da non far distinguere
le risposte, e ciò significa che rappresenta una teoria adatta alla simulazione del
comportamento umano in quella situazione specifica e quindi il programma
passerebbe quindi il test di Turing. Quest’ultimo ha dato poi il via a numerose
creazioni di programmi che avevano lo scopo di imitare il comportamento umano.
Questi programmi grazie al riconoscimento di quelle che sono definite parole chiave
generano delle risposte seguendo tutta una serie di regole. L’approccio
informazionale e i programmi per calcolatore sono stati poi oggetto di studio di
Neisser.
APPROCCIO DI NEISSER
Secondo Neisser, se programmati nel modo giusto i calcolatori ci permettono di
simulare in modo fedele le operazioni svolte dagli individui. Neisser ritiene che al pari
di un tecnico che vuole studiare i programmi di un computer uno psicologo studia i
processi cognitivi dell’uomo. Però bisogna saper ben distinguere i programmi per
computer dal computer stesso, perché i primi non sono delle macchine ma dei
programmi che eseguono una serie di istruzioni a partire dagli input ricevuti
dall’esterno e che sono destinati a svolgere determinate operazioni piuttosto che
altre. Quindi l’approccio informazionale, intende studiare il modo in cui siamo
programmati.
Quello su cui Neisser si sofferma maggiormente è il come il processo di elaborazione
dell’informazione si sviluppi a partire da uno stimolo iniziale, il suo studio infatti si
riversa nei confronti dell’icona, che è il primo stimolo che riguarda il nostro sistema
visivo. Per capire l’importanza di un’icona è necessario prendere in considerazione
l’esperimento condotto da Sperling. L’esperimento consiste nel presentare su uno
schermo per 50 millesimi di secondi una matrice di lettere che veniva fatta poi
scomparire per lo stesso tempo. Il compito richiesto ai soggetti sperimentali era
quello di ricordare il maggior numero di lettere, ma in questo modo i soggetti erano
in grado di riportare nemmeno la metà delle lettere. Cosi successivamente la matrice
di lettere veniva presentata accompagnata da tre diversi suoni, di diversa intensità,
quindi alta media e bassa, e ciascuno di essi indicava una diversa riga di lettere da
ricordare. In questo modo i soggetti anche quando le lettere non erano più presenti
11
12
sullo schermo in base al suono emesso erano in grado di ricordare tutte le lettere
della matrice. Questo sta ad indicare che vi è una copia dello stimolo visivo che
sopravvive anche quando lo stimolo non è più presente, e che dopo essere stata
immagazzinata può essere elaborata ulteriormente.
Riconoscimento di Pattern:
Il riconoscimento di configurazioni è un processo estremamente comune ed
importante, come ad esempio riconoscere una tazzina da caffè. Neisser chiama
questo processo riconoscimento di pattern, che implica una relazione tra percezione
e memoria. La mia percezione della lettera A, per esempio, deve in qualche modo
poter entrare in contatto con la traccia di memoria di A. Il processo attraverso il quale
una percezione entra in contatto con una traccia di memoria chiamato funzione di
Hoffding.
Neisser ha posto l’accento su due teorie:
1. Il confronto tra sagome: è possibile che all’interno della memoria siano
immagazzinate le sagome corrispondenti alle forme tipiche delle configurazioni che
vediamo. Il riconoscimento dovuto al confronto tra sagome è basato sul confronto tra
i pattern da riconoscere e la sagoma prototipico immagazzinata in memoria. una
lettera però può avere forme diverse. In base alla teoria del confronto fra sagome
possiamo riconoscere ciascuna di queste forme se vi è un’adeguata corrispondenza
tra essa e la forma prototipiche immagazzinata in memoria. il problema è quello di
spiegare come il confronto fra sagome possa essere applicato a sagome simili
piuttosto che a sagome identiche. Non è facile definire le caratteristiche che un
pattern deve possedere per essere sufficientemente simile ad una sagoma di
confronto così da rendere possibile il riconoscimento. Per questo motivo l’ipotesi del
confronto fra sagome stata spesso criticata.
Analisi delle caratteristiche: Le configurazioni sono identificate in base alle loro
caratteristiche. Le caratteristiche sono attributi, o proprietà come grandezza, colore,
forma e così via. È possibile che noi analizziamo le caratteristiche possedute da una
configurazione e che riconosciamo una configurazione se possiede le caratteristiche
richieste. Una delle teorie più influenti a riguardo è quella proposta da Selfridge =
Pandemonium idealizzato
Il modello pandemonium idealizzato é costituito da tre livelli: il livello inferiore
contiene i dati, ovvero l’immagine all’interno della quale un insieme di attributi viene
rappresentato. Il livello successivo contiene i demoni cognitivi, concepiti come piccoli
folletti che esaminano gli attributi dell’immagine. Ciascun demone cognitivo rileva
uno specifico pattern. Sei un demone cognitivo pensa di aver rilevato il pattern
12
13
CRITICA DI BROADBENT
Questi modelli degli stadi di elaborazione dell’informazione secondo Broadbent
hanno un’eccessiva linearità in quanto il flusso dell’informazione in questi modelli è
concepito come un flusso in una direzione soltanto, dallo stimolo in avanti. Un altro
limite riguarda il fenomeno delle differenze individuali: le stesse informazioni
possono essere elaborate in modi diversi da persone diverse. Un terzo limite riguarda
la nozione di stadio: è possibile che uno stadio di elaborazione inizi prima che un altro
venga completato? Broadbent risolve questi problemi proponendo un modello a
CROCE MALTESE in cui le informazioni vengono mantenute nel registro sensoriale
fino al momento in cui vengono rimpiazzati da nuove informazioni. La memoria di
lavoro astratta (simile alla MBT) e il magazzino associativo a lungo termine (simile alla
MLT) fanno parte di questo modello; il magazzino delle risposte motorie contiene
programmi di azioni pianificate o già eseguite. Questi sono quattro braccia della
Croce sono collegate ad un sistema di elaborazione centrale, che ha la funzione di
trasformare l’informazione proveniente da un braccio della croce in una forma che
13
14
può essere usata da un altro braccio della croce. L’informazione quindi può muoversi
in modi diversi attraverso il sistema.
APPROCCI ECOLOGICI ALLA PERCEZIONE
La teoria della percezione visiva di GIBSON
Gibson ritiene che l’informazione non sia qualcosa che viene elaborata dall’individuo
ma ritiene che sia semplicemente disponibile nell’ambiente e in quanto tale
l’informazione può essere raccolta dall’organismo. L’informazione non è formata da
una serie di segnali che devono essere interpretati ma da invarianti strutturali a cui è
soltanto necessario prestare attenzione.
Esempio di invariante strutturale: la faccia umana è soggetta ad una trasformazione
geometrica, nel corso del processo di invecchiamento, chiamata Strain (distorsione).
La capacità di percepire l’identità di un individuo dipende dall’abilità di utilizzare
un’invariante strutturale che si preserva nel corso del tempo.
Neisser integra l’approccio ecologico di Gibson con l’approccio informazionale. un
approccio ecologicamente valido deve dedicarsi allo studio dei processi cognitivi
all’interno di ambienti realistici e deve fare riferimento alle opportunità che si offrono
gli individui. Neisser ha proposto un modello circolare: la mappa cognitiva contiene le
nostre conoscenze enciclopediche. —> Queste conoscenze stabiliscono ciò che ci
aspettiamo di trovare nel mondo e rappresentano il nostro schema dell’ambiente
circostante. —> Le aspettative derivanti da queste conoscenze guidano la nostra
attività di esplorazione del mondo e del corso delle esplorazioni noi ci imbattiamo in
informazioni inaspettate. —> Queste informazioni possono modificare le nostre
credenze e le nostre aspettative.
In generale, individui esplorano attivamente il mondo in base alle loro aspettative e il
mondo modifica le aspettative degli individui. La nozione di schema fa riferimento ad
un piano, ad una struttura, che è un carattere astratto e che è una guida per l’azione.
CONNESSIONISMO:
Secondo questo approccio, l’informazione è costituita da elementi e da connessioni
fra questi elementi. I modelli connessionistici consentono l’elaborazione in parallelo
dell’informazione (ovvero molti connessioni possono essere attiva in maniera
simultanea) anziché soltanto quella seriale secondo cui soltanto una connessione può
essere attiva in un determinato momento. La differenza tra l’approccio
connessionista e quello informazionale sta nel fatto che il funzionamento di un
sistema connessionista non è regolato da particolari regole o procedimenti, piuttosto
la conoscenza è distribuita nella configurazione globale della forza delle connessioni
tra le unità che costituiscono il sistema. I modelli informazionali corrispondono al
14
15
15
16
l’osservatore reale (ad esempio un essere umano) in grado di utilizzarne una parte
soltanto.
Non tutto quello che c’è si vede: ad esempio la proprietà geometrica della
connessione è percepita soltanto in determinate condizioni, in altre non è rilevata
oppure risulta mascherata. (pag 51, libro psicologia generale).
Molti fenomeni importanti per lo studio scientifico della percezione hanno a che fare
con la contrapposizione tra quello che c’è nell’immagine (che è quindi disponibile
all’osservatore ideale) e ciò che viene effettivamente percepito (da un osservatore
reale).
Un altro esempio è quello dell’orientamento: la presenza di un segmento obliquo in
mezzo a tanti segmenti diritti salta all’occhio (pop up), mentre trovare un segmento
diritto in mezzo a tanti segmenti obliqui richiede un maggiore sforzo attentivo
(pagina 52, libro psicologia generale).
Inoltre scoprire da che parte sta il segmento diritto risulta via via più difficile man
mano che aumenta il numero di segmenti circostante, che fungono da elementi
distraenti. Ciò non accade per il segmento obliquo in mezzo a tanti segmenti diritti,
che viene scoperto in tempo costante, indipendentemente dal numero di elementi
distraenti. Questa viene definita asimmetria della ricerca visiva ed è dovuta al fatto
che scoprire un elemento deviante in un contesto normale è più facile che non
viceversa. L’effetto di asimmetria della ricerca indica che la percezione è organizzata.
Le configurazioni percettive possiedono una struttura gerarchica, nel senso che
alcune parti fungono da riferimento, o da ancoramento per altre. Nel dominio
dell’orientamento, il ruolo di sistema di riferimento è giocato dagli assi verticali e
orizzontali.
Infatti, una linea collocata sulla verticale o sull’orizzontale viene ristabilita e ogni
piccola deviazione appare come un disturbo da correggere, un’anomalia. Per i vari
gradi di obliquità invece, la nostra percezione è meno selettiva. L’ancoramento agli
assi verticale e orizzontale comporta un’importante conseguenza sulla percezione
degli angoli. Infatti, nel caso degli angoli, non è sufficiente che un angolo abbia 90°
perché ci appaia retto. Perché ciò accada l’angolo deve avere anche i lati allineati con
gli assi cardinali dello spazio visivo. L’effetto illustra una chiara differenza tra mondo
fisico e mondo fenomenico. Nel mondo fisico gli oggetti non cambiano il variare del
loro orientamento. Nel mondo fenomenico uno stesso oggetto, ad esempio l’angolo
di 90°, può apparire speciale oppure no in funzione dell’orientamento.
Struttura dello spazio visivo
Lo spazio percepito è strutturato intorno a due assi, verticale e orizzontale che
fungono da riferimenti cardinali. La stessa forma, che normalmente chiamiamo
16
17
quadrato, quando viene ruotata di 45° assume uno strano aspetto. Si può dire che è
la stessa forma? Non proprio. Bisogna dire che si tratta della stessa forma geometrica
ma non della stessa forma percepita: è necessario quindi distinguere tra forma
riferita a un osservatore ideale (in grado di rappresentarsi tutte le proprietà di un
oggetto) e forma riferita a un osservatore reale, il quale, a causa dei propri limiti e
delle proprie specificità, si rappresenta soltanto una parte di tali proprietà.
La percezione è una rappresentazione dotata di struttura, che non corrisponde alla
codificazione di tutti gli aspetti di una determinata configurazione,
indipendentemente dal contesto spaziale in cui questa è inserita. Ed è una
rappresentazione selettiva, che esalta alcuni aspetti a scapito di altri, producendo a
volte delle differenze non giustificabili in base alla geometria.
La percezione ha una natura categoriale legata al carattere selettivo
dell’appartenenza psicologica. Ad esempio il quadrato viene percepito come parte
del continuum dei rettangoli o viene percepito come parte del continuum dei rombi:
ma mai come parte di entrambi i continua simultaneamente. Si può ipotizzare che qui
sia operante come in tanti altri campi della percezione, un principio economico. La
verticale dello spazio percepito non possiede soltanto una direzione, ma anche una
polarità. La dicotomia diritto-storto fa riferimento alla direzione della verticale
percettiva mentre la dicotomia diritto-capovolto fa riferimento alla polarità sopra-
sotto (figura a pagina 55, libro psicologia generale).
Oggetti, immagini e percetti
Una teoria della percezione deve collegare appropriatamente almeno tre tipi di
entità:
• Gli oggetti fisici, che crediamo esistenti e dotati di proprietà materiali anche in
assenza di luce
• Le immagini che di tali oggetti possono essere raccolti in un qualsiasi punto di
un ambiente percorso dalla luce;
Gli oggetti percepiti, ovvero i percetti.
• Queste tre entità sono i costituenti fondamentali della catena psicofisica che
vincola l’osservatore al mondo esterno.
17
18
INDETERMINAZIONE OTTICA.
Spesso il nostro mondo fenomenico, cioè le cose cosi come noi le percepiamo, si
distingue da quello che è il mondo fisico. questo per dire che esistono degli
scarti, degli scollamenti, tra quello che noi percepiamo e quello che realmente
c’è nel mondo fisico, e ciò provoca dei problemi, tra i principali quello che
definiamo indeterminazione ottica, ovvero data un immagine non è possibile
ricostruire in modo certo lo stato di cose che l'ha determinata. Quello che si
intende per indeterminazione ottica è il fatto che non esiste una relazione
necessaria tra come sono effettivamente le cose nel mondo esterno e come
effettivamente noi le percepiamo. Quindi dato un oggetto l’osservatore entra in
contatto solo con l’ immagine di quell’oggetto, non direttamente con l’oggetto
stesso (vi è una mediazione ottica) e questo provoca appunto l’indeterminazione
ottica. le immagini contengono soltanto parte dell’informazione utile a
riconoscere in modo univoco gli oggetti fisici per questo il risultato finale viene
determinato dall’osservatore. La risposta al perché il problema di
indeterminazione ottica non si presenti costantemente nella nostra vita
quotidiana, è data dal fatto che il più delle volte soccorrono al problema delle
indeterminazioni ottiche le nostre conoscenze su come sono fatti solitamente gli
18
19
oggetti nel mondo, ad esempio come è fatta una sedia. quindi ci sono dei principi
organizzativi innati, quelli su cui insistite molto la psicologia della Gestalt, che ci
permettono di costruire una rappresentazione del mondo per quanto possibile
più vicina al vero.
Esempio per capire la catena psicofisica: davanti a me adesso percepisco una sedia:
un oggetto unitario, distinto da altri oggetti e dalla superficie su cui è posato, dotato
di una certa grandezza, una certa forma, un colore. Percepisco inoltre che potrei
sedermi sopra, o afferrare lo schienale in un certo punto e spostarlo. E naturalmente
riconosco che si tratta di un oggetto noto, di cui possiedo una categoria linguistica.
Una sedia, appunto. Ma cosa accade effettivamente quando percepisco una sedia? Il
riconoscimento degli oggetti avviene in modo quasi istantaneo -- e
straordinariamente accurato. Non c’è da stupirsi se facciamo fatica a renderci conto
di come la percezione sia invece il risultato di una complessa sequenza di eventi. Per
capirlo, riflettiamo su cosa accade quando, ad esempio, vediamo qualcosa. Per fare
questo, gli studiosi di percezione utilizzano il concetto di catena psicofisica. Torniamo
allora alla nostra sedia. Chiameremo ciò che vedo, il contenuto percettivo della mia
esperienza cosciente, come già detto sopra, usando il termine percetto. Il percetto è
l’esito finale della sequenza descritta dalla catena psicofisica. È quell’insieme unitario
di grandezza, forma, colore, eccetera che riconosco come “sedia” e che descrivo sulla
base della mia esperienza introspettiva -- che è privata ed accessibile direttamente
solo a me. Chiameremo invece l’oggetto fisico corrispondente, nelle sue
caratteristiche indipendenti da un organismo che le osservi, usando il termine stimolo
distale.
La distinzione fra percetto e stimolo distale rappresenta il primo passo per
comprendere la sequenza di eventi che porta a percepire la sedia. Il fatto che gli
studiosi di percezione operino una distinzione fra la sedia come percetto e la sedia
come stimolo distale è spesso fonte di confusione in chi si avvicina allo studio della
disciplina. In fondo, la sedia è sempre la sedia, o no? Noi la vediamo, col suo colore,
forma e tutto il resto proprio là fuori, nella nostra stanza. Non abbiamo certo
l’impressione che ve ne sia un’altra nella nostra testa. Eppure, in un certo senso, di
sedie ce ne sono due: una, soggettiva, che troviamo nella nostra esperienza
introspettiva, e una seconda, oggettiva, che possiamo descrivere indipendentemente
da un atto di osservazione. La prima esiste solo per me; la seconda è disponibile a
tutti.
Articolazione figura-sfondo
Nella comune osservazione visiva, gli spazi vuoti tra gli oggetti non vengono notati.
Noi vediamo gli oggetti come entità dotate di forma, mentre gli spazi intermedi ne
sono privi, salvo nel momento in cui riusciamo a portare la nostra attenzione sui vuoti
19
20
Unificazione percettiva
È una modalità di organizzazione sensoriale costituita da principi e proposti dalla
scuola della Gestalt. I Gestaltisti ipotizzano che siano tre le macrocategorie di
unificazione percettiva che guidano la nostra visione del mondo: In primo luogo
abbiamo i principi di raggruppamento che sono alla base della tendenza a
raggruppare stimoli isolati in insiemi dotati di significato sulla base dei principi di:
20
21
La teoria della Gestalt (merda) = Wertaimer., Kuler., Koffka., hanno identificano nel
principio del minimo e nella tendenza alla semplicità, una chiave per il superamento
dell’indeterminazione ottica. Secondo gli psicologi della gestalt la tendenza verso il
risultato più semplice riflette una proprietà intrinseca al sistema del funzionamento
visivo, indipendente alla particolare esperienza dell’osservatore.
La teoria di Helmotz: Uno dei capostipiti nello studio della percezione è lo psicologo
tedesco Helmoltz, il quale si caratterizza per il suo orientamento marcatamente
empirista. Orientamento empirista in quanto sostiene che quello che arriva a
configurarsi come percetto non è altro che la combinazione delle sensazioni
elementari. La percezione quindi, secondo Helmoltz, è dovuta soprattutto alla
capacità dei nostri sistemi sensoriali di collezionare degli stimoli esterni, quindi la
percezione è dovuta alla combinazione delle sensazioni elementari, però queste
sensazioni, questi dati che noi raccogliamo dal mondo esterno sono insufficienti. Egli
propone una diversa soluzione al problema dell’indeterminazione ottica: la sua
ipotesi è che la percezione sia il risultato di giudizi formulati inconsciamente, con cui
l’osservatore valuta la probabilità che nel mondo esterno esistano determinati
oggetti, sulla base dei dati contenuti nell’informazione ottica. (in molti casi i
fenomeni spiegati dalle teorie sono identici). Quindi Helmoltz risolve il problema dell'
indeterminazione ottica dicendo che sulla base di questi dati incompleti e
insufficienti e a volte come abbiamo visto addirittura fallibili, l'osservatore fa una
sorta di calcolo inconscio e quindi sulla base di questi dati valuta la probabilità che
l'assetto del mondo esterno sia di un tipo e non di un certo altro tipo. quindi fa delle
inferenze inconsce. Queste inferenze permettono di colmare le insufficienze che
sussistono a causa del problema dell’indeterminazione ottica all’interno del mondo
esterno. Un approccio completamente diverso anzi direi antitetico a quello di
Helmoltz è quello di Gibson. Gibson attribuisce il buon funzionamento dei processi
percettivi unicamente al mondo esterno. cioè al fatto che nel mondo esterno
l'informazione non è casuale ma è già articolata. quindi di fatto secondo Gibson,
l’informazione è già nell’ambiente e i nostri sistemi percettivi non devono far altro
che raccogliere queste informazioni. Gibson mette questa integrazione delle
informazioni questa coordinazione delle informazioni già nel mondo esterno.
Secondo Gibson l’utilizzo di situazioni semplificate può risultare fuorviante, poiché
21
22
facilmente un'immagine mentale sono quelle più concrete (tavolo), mentre definisce
astratte quelle parole che più difficilmente rispetto alle altre tendono a creare un
immagine mentale (intenzione), oppure come nel caso delle emozioni che Paivio
però ritiene un caso a parte perché pur non essendo concrete a volte sono in grado
di suscitare immagini mentali molto forti. Immaginabilità e concretezza, possono
essere misurate per mezzo di una scala a 7 punti, i cui estremi corrispondono a
"bassa immaginabilità" e "alta immaginabilità”, oppure a "bassa concretezza" e "alta
concretezza". immaginabilità e concretezza sono quasi sempre correlate.
23
24
Immagini bizzarre
La possibilità che le immagini bizzarre possano facilitare il ricordo è stata
ripetutamente studiata negli ultimi anni. È stato dimostrato che le immagini bizzarre
sono più efficaci delle immagini comuni. Einstein ha considerato una serie di possibili
spiegazioni per l’effetto bizzarria: una è che le immagini bizzarre producono tracce di
memoria dotate di distintività maggiore rispetto alle immagini comuni. È possibile
che le tracce di memoria prodotte dalle immagini bizzarre subiscono in misura
minore l’interferenza suscitate dalle altre tracce di memoria. Data la bassa frequenza
di immagini bizzarre nella vita di ogni giorno, la formazione di immagini bizzarre
potrebbe costituire un efficace strategia mnemonica.
In questo senso è stato effettuato un esperimento in cui bisogna nascondere un
oggetto per evitare che quell’oggetto venga trovato.
Risultato: ricordiamo un determinato luogo con maggiore difficoltà se é inverosimile.
Di conseguenza, la distintività costituisce un aiuto efficace per ricordare i singoli item
MA non è utile per ricordare le associazioni tra item (ad esempio: una collana
nascosta nel frigorifero rischiamo di non trovarla più perché la distintività del luogo è
irrilevante per il processo del ricordo: in effetti, collana e frigo non hanno
collegamento).
Ipermnesia
In alcune circostanze, tentativi ripetuti di rievocazione possono portare ad un
miglioramento della rievocazione: il miglioramento di rievocazione associata a
intervalli di ritenzione, cioè di ripetizione, crescente è detto IPERMNESIA. In un tipico
esperimento di Erdelyi i soggetti erano istruiti ad apprendere una lista di item e i
soggetti venivano divisi in tre gruppi: al primo gruppo veniva presentata una lista di
parole, al secondo gruppo venivano presentati i disegni degli oggetti nominati nella
lista, mentre al terzo gruppo veniva presentata la lista di parole, e i soggetti venivano
istruiti a formare delle immagini degli oggetti che erano nominati nella lista. Il
compito sperimentale era quello di cercare di rievocare 40 di 60 item che erano stati
presentati. I soggetti venivano istruiti a tirare ad indovinare, se non erano in grado di
ricordare un numero così alto di item: questa procedura è detta rievocazione forzata.
Il rendimento dei soggetti che avevano appreso le parole senza formare delle
immagini mentali non migliorava nel corso del tempo perché l’uso dei disegni e il
ricorso ad immagini mentali produceva inizialmente una rievocazione migliore e
successivamente l’ipermnesia.
Risultati: questi risultati indicano quanto siano importanti le immagini in generale, ma
anche quanto siano importanti per l’ipermnesia, la quale però non ha luogo se
qualcuno si limita ad aspettare passivamente che il materiale appreso riemerga
24
25
Sinestesia
La sinestesia si ha quando uno stimolo proprio di un senso, per esempio un suono,
suscita un’esperienza propria di un altro senso, per esempio un colore. Una delle più
comuni è la sinestesia cromatica che consiste nell’udire i colori, cioè nell’avere
l’esperienza di un colore in risposta a uno stimolo uditivo, ad esempio, una persona
può avere l’esperienza di un colore quando sente il nome di una persona.
Anche le persone che non hanno esperienze sinestetiche possono avere esperienza
di effetti che attraversano le varie modalità sensoriali. Secondo molti psicologi i
fenomeni sinestetici rivelano l’unità profonda dei sensi: è possibile che i nostri cinque
sensi si siano evoluti a partire da un solo senso primordiale, e che i fenomeni
sinestetici riflettano questa origine comune. Il fatto che un senso possa
rappresentare informazioni provenienti da un altro senso facilità gli usi figurati del
linguaggio, come la metafora. La sinestesia può anche influenzare il modo in cui
qualifichiamo le nostre esperienze: un esperimento ha mostrato che alcuni nomi di
colore sono usati più spesso di altri in una varietà di contesti come la poesia inglese o
i romanzi inglesi moderni. In nomi di colore usati più spesso sono quelli che
emergono prima nel linguaggio, come il nero: la parola “nero” ha un grande potere
sinestetico, rispetto a “rosa” che ha un uso sinestetico più limitato.
Rotazione mentale
Una delle dimostrazioni più famose della natura dinamica delle immagini è stata
fornita da Shepard. Ai soggetti vengono presentate 1600 copie di disegni. In alcuni
casi, i disegni di ciascuna coppia rappresentavano lo stesso oggetto, in altri
rappresentavano oggetti diversi. Le coppie di disegni che rappresentavano lo stesso
oggetto si differenziavano nei termini della rotazione angolare necessaria per
allineare le due rappresentazioni dell’oggetto. I soggetti dovevano decidere se i
disegni rappresentavano lo stesso oggetto oppure oggetti diversi. Risultati: i tempi di
reazione sono tanto più grandi quanto maggiore è la rotazione angolare necessaria
per allineare gli oggetti rappresentati. Secondo Shepard, i soggetti eseguono questo
compito sperimentale per mezzo di un processo di rotazione mentale. Forse i soggetti
immaginano di ruotare uno degli oggetti raffigurati per determinare se esso può
venire allineato con l’altro membro della coppia. Tanto più grande è la rotazione
angolare necessaria, tanto più grande è il tempo impiegato dei soggetti per eseguire
l’allineamento degli oggetti raffigurati.
25
26
26
27
3. Un’ultima possibilità è che parti diverse di una scena vengono disegnate come se
fossero percepite da punti di vista differenti
Immagini eidetiche
L’icona è un’istantanea delle informazioni contenute in uno stimolo visivo. Queste
informazioni persistono brevemente anche quando lo stimolo non è più presente. É
utile confrontare l’icona con un fenomeno connesso, quello delle immagini e
eidetiche. Come le immagini iconiche, le immagini eidetiche persistono anche dopo
che uno stimolo, ad esempio una figura, è venuto meno. Diversamente dall’icona,
che decade rapidamente, le immagini e eidetiche possono persistere per un minuto o
più.
Alcune caratteristiche delle immagini eidetiche sono:
- le descrizioni di un’immagine eidetica sono più rapide e più affidabili dei resoconti
basati sulla memoria
- Le immagini eidetiche sono molto più frequenti tra i bambini che non tra adulti
È bene specificare che le immagini eidetiche non sono immagini fotografiche, perché
non sono copie letterali della scena.
27
28
28
29
perché avevano utilizzato come supporto altre strategie cognitive, come ad esempio
l’uso di inferenze per analizzare le diverse parti di un oggetto, piuttosto invece che
fare riferimento esclusivamente ad una semplice rotazione mentale. Questo ci porta
quindi a pensare che l’uso che facciamo delle immagini mentali sia più simile a dei
processi di pensiero piuttosto che a processi percettivi.
1. inizialmente il navigatore crea una mappa mentale del territorio nel quale vuole
navigare.
3. Infine l’individuo sfrutta la mappa per fare delle inferenze che utilizzerà a sostegno
dei suoi spostamenti. Quindi la mappa guiderà il suo comportamento. Se il
ragionamento spaziale effettuato dall’individuo è adatto, allora quest’ultimo sarà in
grado di raggiungere la destinazione a partire dalla sua posizione.
Allo stesso modo i modelli mentali costituiscono delle utili rappresentazioni mentali
degli eventi che gli individui utilizzano per descrivere e prevedere gli eventi una vasta
gamma di eventi futuri. Inoltre ci permettono anche di effettuare delle inferenze
rispetto al comportamento delle cose in contesti sempre diversi. Però dai modelli
mentali non scaturiscono sempre inferenze giuste e questo può essere fonte di
errori.
Riconoscimento di oggetti
29
30
Oggetti e categorie
Riconoscimento di oggetti e percezione visiva sono due argomenti collegati perché
l'uno include l'altro. Percezione significa semplicemente dare un significato al frutto
delle nostre esperienze sensoriali, riconoscere, anche etimologicamente, significa
conoscere di nuovo, cioè rapportare ciò che è stato percepito a una qualche
conoscenza che è già nella nostra mente. il riconoscimento quindi da un lato è
collegato alla percezione visiva, dall'altro è collegato inevitabilmente a fenomeni di
categorizzazione. Quando noi riconosciamo l'oggetto, riportiamo l'oggetto percepito
ad una categoria più generale che è presente nella nostra memoria a lungo termine.
Questo rappresenta un vantaggio dal punto di vista cognitivo perché una volta
categorizzato quel singolo oggetto, come sedia, libro, tavolo o orologio, possiamo
attribuire a quell’oggetto tutte le operazioni che abbiamo imparato nel corso della
nostra esperienza vitale. Quindi riconoscere un oggetto significa principalmente
categorizzarlo, il che non è una cosa banale in quanto le radicalizzazioni sono
plurime (mobilio-sedia-sedia roccocò). Quindi categorizzare significa situare
quell’oggetto, che è stato percepito e riconosciuto, all’interno di una scala
gerarchica.(mammifero-animale-cane-bulldog). la mente umana quindi rappresenta
le categorie in maniera gerarchica. Una certa entità può venire riconosciuta come
appartenente alla categoria “penna” oppure alla categoria “penna stilografica”. Il
primo livello viene chiamato categoria di base, mentre il secondo categorie
subordinate. Il livello di gerarchia in cui si situa spontaneamente il riconoscimento
ha il nome di categoria di entrata ed è la chiave d’ingresso più facile e più
immediata ai processi di riconoscimento e categorizzazione. Le categorie di base,
sono quelle che vengono apprese per prime dai bambini durante il loro processo di
acquisizione linguistica. Spontaneamente se incontriamo un merlo lo associamo ad
una categoria di base (uccello), questo non capita per un esperto che lo colloca ad
una categoria subordinata, un merlo appunto. La categoria di entrata dipende da
quanto l’oggetto è tipico di una certa categoria.
Il riconoscimento permette di percepire le funzioni degli oggetti-> la distinzione fra i
diversi livelli a cui può avvenire il riconoscimento è importante perché le
informazioni connesse ai singoli livelli (o nodi) della gerarchia, possono essere anche
rappresentazioni sull’uso che di un oggetto potremmo fare. Inoltre riconoscere un
oggetto rappresenta anche un mezzo per associare l’oggetto con le rappresentazioni
che descrivono i suoi utilizzi (la penna, serve per scrivere). Le funzioni associabili agli
oggetti sono strettamente legate a livello a cui siamo in grado di categorizzarli. Le
funzioni di una penna sono disponibili per tutti noi, ma potrebbero non esserlo in
una cultura che non conosce la scrittura.
30
31
Queste sono alcune delle forme ipotizzate da Biederman, cioè quello che accade nel
processo del riconoscimento è una scomposizione dell'oggetto in forme primitive di
base. Come per esempio degli ovali, delle figure geometriche solide, dei segmenti,
dei cerchi e così via. Biederman ha fatto un vero e proprio catalogo di queste forme,
sono poco più di una quarantina, a seconda di quali di essi entrano in combinazione
tra loro e della disposizione relativa all’ interno di un oggetto di queste stesse forme,
può rappresentare una pluralità virtualmente infinita di oggetti. Quindi la
descrizione strutturale di cui parla Biederman è una descrizione strutturale in
termini di questi geoni. Una descrizione strutturale quindi è una descrizione
dell'oggetto che comprende due componenti fondamentali una lista dei geoni che
fanno parte di quell’oggetto e delle informazioni sulle loro relazioni spaziali.
Quindi il modello di Biederman contiene un principio di scomposizione interna degli
oggetti che invece è assente all’interno del modello di Marr. Il modello di Biederman
da un lato porta una semplificazione dal punto di vista strutturale, cioè il numero
degli elementi a cui bisogna far riferimento per riconoscere gli oggetti è
estremamente limitato, dall’altra parte però questa maggiore economia dal punto di
vista della struttura delle rappresentazioni in memoria viene controbilanciato da una
maggiore complessità di elaborazione.
33
34
CONCETTI (iphone)
Secondo la teoria classica dei concetti se noi percepiamo un evento come
appartenente ad una categoria, allora quell’evento verrà percepito come esemplare
di un concetto. Ciascun concetto è caratterizzato da attributi che possono assumere
valori diversi. Le relazioni che esistono tra attributi e concetti sono poi quelli che
vanno a definire un concetto.
Abbiamo da una parte quei concetti che si formano semplicemente grazie all’unione
di attributi, dall’altra invece ci sono categorie di concetti più complesse, come ad
esempio la categoria dei concetti disgiuntivi, dove in questo caso devono
necessariamente essere presenti due classi diverse di attributi che però insieme
vanno a definire un unico concetto. (cittadinanza americana, nonna materna, pastore
tedesco).
Facendo ancora riferimento alla classe di concetti più complessi emergono i concetti
relazionali, dove appunto, in questo caso, è proprio la relazione che sussiste tra gli
attributi ad assegnare ad un concetto la sua categoria di provenienza o appartenenza.
L’esempio emblematico che per eccellenza dimostra questo tipo di concetto è il
matrimonio in quanto rappresenta la relazione tra due individui. Esponente
principale nello studio dei concetti è Bruner il quale si focalizzò soprattutto sul
processo di formazione dei concetti, facendo diversi esperimenti nei quali
37
38
utilizzavano come stimoli le carte, se una di queste carte (quindi se uno stimolo)
rappresenta un esempio di un dato concetto, essa viene detta un caso positivo. Un
semplice concetto congiuntivo, per esempio, può essere definito in base all’attributo
nero e all’attributo quadrato. Ciascuna carta con questi due attributi è un caso
positivo del concetto. Se una carta non contiene gli attributi giusti, allora essa viene
detta un caso negativo. se un contributo è presente in tutti casi positivi del concetto,
allora possiamo concludere che questo è un attributo rilevante cioè la sua presenza è
necessaria affinché qualcosa possa essere considerato come un membro del
concetto. D’altra parte, invece, gli attributi che non ricorrono nei casi positivi del
concetto sono irrilevanti. Il processo di inclusione degli attributi ricorrenti e di
esclusione di attributi non ricorrenti costituisce un processo di astrazione. Gli attributi
ricorrenti formano un insieme che definisce il concetto.
Talvolta il processo di astrazione è paragonato a una sorta di fotomontaggio.
(sovrapporre i negativi dei ritratti dei membri della nostra famiglia appartenenti a
generazioni diverse, gli attributi ricorrenti o le caratteristiche dei membri individuali
della famiglia apparirebbero più scuri di quelli non ricorrenti e assumerebbero
maggior rilievo).
I soggetti usano una strategia per cercare di scoprire il concetto. La strategia è
chiamata focalizzazione conservativa perché i soggetti si focalizzano su di un attributo
soltanto e scelgono gli stimoli che variano solo sulla dimensione rappresentata da
questo attributo. Bruner e i suoi collaboratori hanno scoperto che i soggetti usano
varie strategie per cercare di risolvere questo problema. Strategie includono il
tentativo di indovinare il nucleo concettuale, la scansione simultanea e la scansione
successiva.
❖ Quando i soggetti tentano di indovinare il nucleo concettuale, essi scelgono gli
stimoli che differiscono dal caso positivo del concetto nei termini di più di un
attributo.
❖ La scansione simultanea viene eseguita quando i soggetti cercano di tenere a
mente tutte le possibili ipotesi per cercare di eliminarne quante più possibile
con ciascuna scelta. Questa strategia richiede un grosso sforzo mnemonico.
❖ La scansione successiva è meno impegnativa. I soggetti in questo caso,
formulano una sola ipotesi alla volta e cercano di verificarla con una serie di
scelte fino a che l’ipotesi corretta viene trovata.
Strategie di ricezione-> il processo di formazione dei concetti può essere studiato per
mezzo di una procedura che consente di mantenere l’ordine di presentazione degli
stimoli sotto il controllo dello sperimentatore. Nel caso di una strategia di tipo
olistico, i soggetti inizialmente assumono che il concetto sia definito in base a tutti gli
38
39
attributi presenti nel caso positivo del concetto che è stato presentato loro in
precedenza. Se lo stimolo successivo è coerente con quest’ipotesi, l’ipotesi viene
conservata. Altrimenti, viene formata una nuova ipotesi che tiene conto di ciò che le
nuove evidenze hanno in comune con l’ipotesi precedente. Nel caso di una strategia
di tipo elementaristico, l’ipotesi formulata inizialmente dei soggetti è definita nei
termini di un sottoinsieme degli attributi del caso positivo del contesto presentato in
precedenza.
Questa ipotesi viene mantenuta fino a quando vengono trovate evidenze
contrastanti. A quel punto, i soggetti modificano l’ipotesi in maniera tale da renderla
coerente con tutti gli stimoli visti sino a quel momento. Questa strategia pone un
pesante carico sulla memoria perché, per un’adeguata riformulazione dell’ipotesi,
tutti gli stimoli precedenti devono essere ricordati.
Apprendere regole complesse
le grammatiche a stati finiti sono dette anche diagrammi a rete ferroviaria . in una
serie di esperimenti, Reber e collaboratori hanno studiato il processo di
apprendimento di grammatiche artificiali. Reber ha distinto fra l’apprendimento
implicito e apprendimento esplicito. Supponiamo che ai soggetti appartenenti ad un
primo gruppo sperimentale vengono presentate delle sequenze di lettere e che
vengano istruiti a memorizzarne il maggior numero possibile. Ai soggetti compresi in
questo gruppo non viene spiegato che le sequenze di lettere sono state generate in
base ad una serie di regole.
(apprendimento implicito). Ai soggetti appartenenti ad un secondo gruppo
sperimentale, invece, viene spiegato che le sequenze di lettere sono state generate in
base ad una serie di regole e che il loro compito è quello di scoprire queste regole
(apprendimento esplicito) Reber ha scoperto che anche nella condizione di
apprendimento implicito i soggetti erano in grado di apprendere una notevole
quantità di regole grammaticali. In alcuni casi, inoltre, la condizione di
apprendimento implicito si era dimostrata persino più efficace della condizione di
apprendimento esplicito. Senza fare ricorso ad alcun processo di formulazione e
verifica, i soggetti nella condizione sperimentale di apprendimento implicito erano in
grado di estrarre la struttura della grammatica senza rendersene conto. questa
conoscenza, in ogni caso, rimaneva largamente una conoscenza tacita: i soggetti
sapevano qualcosa senza essere in grado di dire esattamente che cosa sapessero.
Il lavoro di Reber può fornirci indicazioni preziose a proposito del processo di
apprendimento di sistemi complessi di regole come, per esempio, quelli che stanno
alla base dei linguaggi naturali. Il processo di acquisizione del linguaggio non avviene
per mezzo di un’educazione formale delle regole grammaticali. I bambini sono in
grado di apprendere la struttura della grammatica senza sapere qual è questa
39
40
base alle esigenze richieste da una circostanza per poter realizzare un determinato
scopo, il quale definisce la categoria. Supponete di creare la categoria ad hoc di
quello che non si deve mangiare durante una dieta. L’attributo più rilevante per la
creazione di questa categoria è “cibo con molte calorie”. Inoltre secondo Rosh, gli
individui preferiscono classificare inizialmente gli oggetti per mezzo delle loro
categorie di base. Così, la prima risposta che viene in mente quando vediamo un
particolare tipo di mobile è che quel mobile sia una sedia. Però Barsalou ha notato
che la categoria ad hoc: legna da ardere in una situazione di emergenza può fare si
che una sedia venga classificata anche in modi diversi. tale capacità di classificare gli
oggetti in più modi, rappresenta un aspetto importante del pensiero creativo, che ci
permette di far fronte a problemi nuovi o anche vecchi in modo diverso. Per
definizione, le categorie ad hoc non sono presenti nella memoria prima del loro uso,
quindi sono le circostanze del momento che generano un’esigenza, la quale rende
possibile la creazione di una categoria ad hoc.
Lakoff e i modelli cognitivi idealizzati
Gli individui dispongono di modelli cognitivi idealizzati che vengono modificati per far
fronte a circostanze particolari: il principio del dominio dell’esperienza consente
l’associazione fra oggetti o eventi che sono in rapporto gli uni con gli altri in una
particolare cultura. Se ad essere impegnati nell’attività della caccia e della pesca sono
soprattutto gli uomini, allora gli uomini e la maggior parte degli animali tenderanno
ad essere classificati nella medesima categoria. Lakoff ha proposto due altri principi
più specifici ovvero il principio mito e credenza e il principio della proprietà
importante.
Il principio mito e credenza consente l’associazione fra oggetti che si trovano in
relazione gli uni con gli altri per effetto di miti o credenze. Le donne sono collegati al
sole in un mito e così pure al fuoco. Per questa ragione, le donne e il fuoco si trovano
nella medesima categoria. Il principio della proprietà importante afferma che, se un
oggetto possiede una proprietà particolarmente importante (per esempio, la
proprietà di essere pericoloso), questo oggetto può entrare a far parte di una classe
diversa da quella cui sarebbe normalmente assegnato. Il pesce rospo, per esempio,
potrebbe essere classificato nella prima categoria, con la maggior parte degli altri
pesci. Il pesce rospo, però, è pericoloso e per questa ragione finisce con l’essere
classificate nella seconda categoria. Le classificazioni inusuali vengono usate per far
risaltare oggetti o eventi che sono degni di particolare attenzione. Questo potrebbe
portare ad una situazione di confusione concettuale, perché i sistemi concettuali reali
sono molto complicati. In ogni caso i sistemi concettuali umani possiedono
dimensioni culturali storiche che non possono essere ignorate.
41
42
ATTENZIONE
L’attenzione è un processo di focalizzazione di uno stimolo tra tanti che l’ambiente ci
mette a disposizione. Quest’ultimo ci pervade continuamente da una moltitudine di
stimoli, e noi attraverso l’utilizzo di un filtro dobbiamo essere in grado di concentrare
la nostra attenzione su alcuni aspetti piuttosto che su altri, questo è quello che viene
definito fuoco dell’attenzione, ovvero la capacità di selezionare un elemento nello
spazio e sottoporlo ad altre trasformazioni. Per studiare i processi attentivi sono stati
sviluppati dei paradigmi sperimentali, il più famoso è quello proposto da Posner.
Attenzione spaziale. Paradigma della ricerca spaziale (posner)
Il fenomeno del “guardare con la coda dell’occhio” dimostra che in effetti è possibile
spostare l’attenzione nello spazio a prescindere dallo sguardo.
Posner , propose il paradigma del suggerimento spaziale, con lo scopo di studiare lo
spostamento dell’attenzione. Durante i suoi esperimenti i soggetti, si trovavano
dinnanzi allo schermo di un computer, e dovevano mantenere lo sguardo fisso su di
una crocetta posta al centro dello schermo, tale crocetta è stata definita come punto
di fissazione, ai lati della quale erano posti due quadrati. Il compito dei soggetti era
quello di premere il più velocemente possibile il tasto desto qualora lo stimolo target
si presentava nel quadrato di destra oppure il tasto sinistro nel caso in cui lo stimolo
si presentava a sinistra, però prima della comparsa del target, in corrispondenza della
crocetta appariva una freccia la quale aveva il compito di suggerire la posizione più
probabile in cui sarebbe apparso lo stimolo target. Ovviamente il suggerimento
rappresentava una probablità e non una certezza. Tutti i soggetti venivano sottoposti
a più prove, durante le quali il target appariva nella maggior parte dei casi nel
quadrato indicato dalla freccia (prove valide), mentre nelle rimanenti (prove invalide)
il target appariva nell’altro quadrato. I risultati di questo esperimento hanno
dimostrato che i soggetti rispondevano più velocemente al target nelle prove valide
che nelle prove invalide. l’attenzione a questo punto può essere metaforicamente
paragonata ad un fascio di luce che si muove nell’ambiente, andando ad illuminare
diverse zone nello spazio in momenti diversi.
Inoltre è possibile controllare le dimensioni del fuoco dell’attenzione non solo il suo
spostamento. Infatti alcune ricerche hanno confermato che è un osservatore può,
entro certi limiti, variare l’estensione dell’area occupata del fuoco dell’attenzione,
concentrando le risorse su di un’area più ristretta o distribuendole su una più ampia.
Quando il fuoco è ristretto, cioè quando l’attenzione è concentrata, la velocità di
42
43
45
46
percezione consapevole. Per escludere tale possibilità, sono stati condotti ulteriori
esperimenti in cui veniva usata la tecnica del condizionamento per produrre una risposta
fisiologica ad una parola cui era stata associata una lieve scarica elettrica. Quando tale
parola era presentata all’orecchio cui i soggetti non prestavano attenzione, essa evocava
comunque la stessa risposta fisiologica (prova indiretta), anche se poi i soggetti non erano
consapevoli di aver udito la parola. Lo stesso effetto è stato ottenuto anche con poche
parole associate semanticamente. Quest’ultimo risultato dimostra che l’elaborazione
inconsapevole del messaggio cui non si presta attenzione è alquanto sofisticata,
raggiungendo, di fatto, almeno il livello dell’estrazione del significato delle parole.
Il mascheramento visivo è una tecnica indiretta che ci consente di confermare se il processo
mentale che stiamo analizzando sia veramente inconsapevole o meno. Questa tecnica
consiste nel presentare uno stimolo target che viene fatto seguire da un altro stimolo che
ha lo scopo di nascondere il primo, rendendone difficile, se non impossibile,
l’identificazione. Il vantaggio di questa tecnica è rappresentato dalla possibilità di verificare
direttamente se la tecnica di mascheramento è andata a buon fine e se il target è stato
percepito consapevolmente, chiedendo al soggetto di identificarlo. Se le risposte non sono
fornite a caso, si può essere sicuri che eventuali prove di un analisi del target siano da
imputare a processi non consapevoli. In questo tipo di esperimenti si utilizza il fenomeno
del “priming” per ottenere prove indirette di un’analisi inconscia dell’informazione. Il
priming è un fenomeno di facilitazione prodotto da uno stimolo (prime) su uno stimolo
successivo (target). Ad esempio, le persone ci mettono meno tempo a decidere che la
parola target cane appartiene alla categoria “animali” se il prime è la parola “cavallo” e non,
poniamo, la parola “cavolo”. Il risultato interessante emerso è che se il prime viene
mascherato in modo che la sua identità non sia riconosciuta consapevolmente, l’effetto di
priming si ottiene ugualmente. Quindi una parola non percepita consapevolmente è
nondimeno in grado di influenzare una risposta consapevole. Dimostrazioni di un
elaborazione non consapevole si sono ottenute sia in condizioni sperimentali su soggetti
sani, che in pazienti neglect.
EFFETTO STROOP: L’effetto Stroop prende il nome dal suo fondatore e nasce
dall’idea di presentare degli stimoli che contenessero al proprio interno una
contraddizione di fatto. L’esempio più noto di questo esperimento consiste nel
presentare degli stimoli, ovvero delle parole scritte che indicano un colore, come ad
esempio la parola rosso, ma che però sono scritte con inchiostro di colore diverso da
quello indicato dalla parola stessa, ad esempio la parola rosso ma scritta con
inchiostro blu. Il soggetto sperimentale a questo punto deve pronunciare il colore
dell’inchiostro con cui è scritta la parola, nel nostro caso il blu, tralasciando
completamente il significato della parola. Come possiamo ben appurare anche solo
provando a svolgere noi stessi tale esperimento, questo rappresenta un compito
molto complesso per chiunque individuo alfabetizzato, in quanto non siamo in grado
di evitare di attivare in maniera automatica il significato della parola. Infatti è come
se fossimo continuamente distratti dalla tendenza a leggere i nomi dei colori mentre
cerchiamo di pronunciare il colore dell’inchiostro. Nell’effetto stroop emergono
quindi due tipi di informazione che sono tra di loro discordanti e che per questo
motivo producono un ritardo nell’elaborazione dei concetti, oltre che un
rallentamento dei tempi di reazione e questo porta a commettere diversi errori.
Queste due informazioni contrastanti sono da una parte quella che è definiamo
informazione rilevante, che risiede nel colore degli stimoli e dall’altra l’informazione
irrilevante che è data invece dal significato delle parole. Anche se ci sembrerà strano
l’effetto stroop è un processo automatico. I processi automatici sono altamente
autonomi e per questo è possibile svolgerli senza prestarci attenzione. Al contrario
invece ci sono attività a cui è necessario prestare molta attenzione affinchè vengano
48
49
svolti nel modo corretto, questi sono i processi controllati. È necessario precisare
che nessun processo nasce direttamente come automatico ma che lo diventa con il
tempo, per questo motivo l’effetto stroop è considerato un processo automatico.
Elaborazione preattentiva (Treisman) - attentiva
L’attenzione riguarda anche le proprietà degli oggetti o degli eventi. Esempio->
immaginiamo di cercare una matita rossa sulla nostra scrivania, la capacità di filtro
attentivo può essere focalizzata sul colore dell’oggetto. Il centro della nostra
scannerizzazione di pluralità di oggetti sono (in questo caso)quelli rossi.
Elaborazione preattentiva: le singole caratteristiche di uno stimolo vengono
elaborate prima, senza l’intervento dell’attenzione (colore selettivo rispetto ad altri
oggetti):
elaborazione attentiva: l’attenzione focalizzata interviene per combinare tra di loro le
diverse caratteristiche. Nel caso di una ricerca di un oggetto, combina la forma il
colore ecc.
di una figura in cui non sono presenti tutte e due le caratteristiche che sono presenti
nelle altre figure.Secondo la Treisman, prima di essere in grado di prestare attenzione
agli oggetti nell’ambiente, é necessario estrarre le loro caratteristiche costituenti.
Tale processo di estrazione delle caratteristiche é chiamato “elaborazione
preattentiva”: i processi pre attentivi estraggono le caratteristiche come la forma, il
colore ecc. degli eventi del mondo esterno. Le proprietà di base per mezzo delle quali
noi costruiamo gli oggetti percepiti corrispondono alle caratteristiche che emergono
spontaneamente da una configurazione (fenomeno chiamato POP up).
Il fuoco dell’attenzione-> la capacità del nostro sistema attentivo di selezionare un
elemento nello spazio o comunque un elemento nella situazione sotto osservazione
per sottoporlo ad ulteriori elaborazioni. Quindi è innanzitutto una capacità insita
all’attenzione che permette di concentrare le nostre risorse attentive su uno
specifico stimolo dell’ambiente tralasciando gli elementi irrilevanti.
il fuoco dell’attenzione ha dimensioni variabili può essere diretto verso un singolo
elemento ma può essere anche diretto verso più elementi. Quindi il fuoco può avere
delle dimensioni che sono sotto il dominio della scelta del soggetto che dirige la sua
attenzione verso un aspetto dello spazio.
Attenzione selettiva e attenzione divisa
l’attenzione selettiva, è quel tipo di attenzione che ci permette di utilizzare il
cosiddetto focus grazie al quale possiamo scegliere in forma cosciente uno solo tra
tanti elementi che si presentano come simultaneamente possibili. Questo implica
l’abbandono di tutti gli altri elementi per poter trattare più efficacemente con quello
selezionato. L’attenzione divisa, è la capacità opposta di dividere l’attenzione
prestando contemporaneamente attenzione a più cose. Inizialmente l’attenzione
selettiva fu studiata per mezzo del cosiddetto fenomeno del cocktail party, fenomeno
che attraverso questa metafora ci spiega che quando noi individui ci troviamo
all’interno di una festa nonostante siamo continuamente pervasi da una moltitudine
di stimoli siamo comunque in grado di scegliere a quale elemento prestare
attenzione, nonostante ci siano numerosi rumori. La traduzione sperimentale di
questo fenomeno è caratterizzata degli esperimenti di shadowing, o anche conosciuti
come paradigmi dell’ascolto dicotico, dove appunto a dei soggetti sperimentali
venivano presentati a ciascun orecchio messaggi diversi per mezzo di un paio di
cuffie, ad esempio da una parte veniva fatta ascoltare una sequenza di lettere e
dall’altra una sequenza di numeri. Il compito dei soggetti era quello di prestare
attenzione a soltanto una delle sequenze che stavano ascoltando e dovevano
pronunciarle nello stesso momento. L’esperimento rivelò che i soggetti non avevano
nessuna difficoltà a svolgere questo compito, e la spiegazione deriva dal fatto che gli
50
51
individui siano in grado di filtrare l’informazione. Per questo sono state sviluppate
diverse teorie definite a collo di bottiglia o del filtro, che posizionano in diversi punti
dell’elaborazione dell’informazione un filtro. La prima teoria a collo di bottiglia è stata
proposta da Broadbent, in questa teoria l’informazione viene selezionata a partire
dalle sue caratteristiche fisiche e non di significato. Abbiamo quindi due input uditivi
che si presentano al nostro sistema sensoriale, uno di questi lo acquisiamo in
maniera consapevole, l’altro invece lo registriamo inconsapevolmente. La
coesistenza di questi due stimoli però non dura a lungo in quanto subito dopo
troviamo il filtro che sopprime tutte le informazione eccetto quella a cui abbiamo
deciso di prestare attenzione che invece continua il suo percorso. Successivamente
abbiamo la fase di Detection Device, che ha il compito di rilevare l’informazione e
trasferirla nella memoria a breve termine, dove possiamo trovare le possibili
risposte comportamentali. Successivamente Anne Treisman, non essendo d’accordo
sul fatto che le informazioni venissero selezionate solo sulla base delle loro
caratteristiche fisiche ma anche sulla base del loro significato, propose una seconda
teoria a collo di bottiglia, ovvero la teoria di integrazione di caratteristiche. Anche in
questo caso abbiamo due input solo che in questo modello non sopravvive solo
un’informazione, ma entrambe solo che una procede in maniera più attenuata e
l’altra in maniera più evidente quindi c’è una selezione tardiva dell’informazione.
(Late Selection). Anche qui la fase successiva prevede un meccanismo di rilevamento
che trasferisce l’informazione nella memoria a breve termine, dove solo in questo
punto il messaggio viene filtrato. La terza teoria è quella di Deutsch e Deutsch. La
loro teoria è pienamente di “Late Selection” cioè di selezione tardiva, i due messaggi
continuano a coesistere fino alla fine, anche attraverso il meccanismo di memoria a
breve termine. La selezione avviene soltanto nel momento della risposta cioè il
momento in cui un sistema motorio deve dare una risposta. Ci sono dei dati che
dimostrano l’effetto di selezione precoce e selezione tardiva? Sì-> effetto Simon
(quadrato e rettango pulsanti destra e snistra e tempi di reazione)
viene rilevato l’oggetto di interesse alla periferia del campo visivo (con la coda
dell’occhio). Il nostro sguardo quindi si allinea con quel fenomeno o oggetto
ruotando il capo e l’occhio ecc… che iniziano quello stimolo rilevante
Orientamento implicito: ovvero quello rilevato dal paradigma di Posner dove tutte le
risposte date sono prove in cui il soggetto coglie un elemento nel campo visivo pur
mantenendo al vista su un punto di fissazione che è lontano rispetto agli elementi
che lampeggiano. Quindi l’orientamento implicito è caratterizzato da spostamenti
dell’attenzione in assenza di movimenti corporei (come esempio paradigma di posner
) di occhio o busto o testa … quindi lo sguardo fissa un punto dello spazio diverso
rispetto a quello dove si sta orientando l’attenzione
Tutti i tipi di orientamento dell’attenzione in realtà interagiscono tra di loro come
nella vita quotidiana che permette un controllo dell’ambiente (mai assoluto e totale)
nel migliore dei modi in base alle circostanze da parte dei soggetti
soggetti rilevavano gli errori in entrambe le sequenze con più facilità rispetto
alla condizione simultanea. I risultati dei loro esperimenti favoriscono l’ipotesi
che sia più facile dividere l’attenzione quando due compiti richiedono abilità
differenti, ad esempio un compito aritmetico e un compito grammaticale. È
necessario però ricordare che i processi differenti possono interferire gli uni
con gli altri a causa di ciò che viene chiamato cross talk (comunicazione
incrociata): se due processi sono costituiti da due sequenze di eventi, può
succedere che gli eventi appartenenti ad un processo possono interferire con
quelli appartenenti allo stesso processo. (esperimento p. 66, libro psicologia
dei processi cognitivi)
Errori di attenzione
Parlando di errori di attenzione possiamo distinguere tra le cadute di attenzione che
riscontriamo normalmente nella nostra quotidianità e gli errori di attenzione indotti
sperimentalmente. A proposito dei primi Norman sviluppa una teoria chiamata
schema di attivazione-produzione in grado spiegare i motivi per cui si verificano tali
errori. Con il concetto di schema facciamo riferimento a come noi individui
programmiamo le nostre azioni successive facendo riferimento alle esperienze
passate. Gli schemi sono molteplici e possono essere attivati anche più schemi
simultaneamente. L’esempio di Norman riguarda una sequenza di azioni prolungata
che pratichiamo normalmente tutti i giorni, come quando guidiamo l’auto nel tratto
di strada che va da lavoro a casa nostra. Nonostante si debbano attivare più azioni in
momenti diversi questo processo non richiede molta attenzione, eccetto in alcuni
momenti particolari come fermarsi al semaforo. Se però un giorno, a causa di una
richiesta particolare come ad esempio qualcuno che ci chiede di fare la spesa,
dobbiamo cambiare il nostro schema abituale, se non prestassimo attenzione
potrebbe capitare di mettere in pratica le nostre azioni abituali e andare dritti a casa
senza la spesa. Distinguiamo quindi diversi tipi di deficit attentivi:
• Abbiamo gli errori di modalità e descrizione che sono due sottoclassi della
prima classe di errori, e cioè quelli che si verificano quando formuliamo in
maniera sbagliata quello che è nostra intenzione fare. I primi, quelli di
modalità, hanno luogo quando facciamo qualcosa che invece sarebbe
opportuno mettere in pratica in una situazione diversa rispetto a quella in cui
ci troviamo. (ad esempio un individuo che tenta di togliersi gli occhiali anche
se in quel momento non li sta portando). I secondi invece, quelli di descrizione,
si verificano quando non abbiamo ben capito la situazione in cui ci troviamo.
(ad esempio un individuo che vuole fermare la macchina e sganciare la cintura
54
55
• La seconda classe di errori si verifica quando attiviamo uno schema nel modo
sbagliato. Fanno parte di questa categoria gli errori di cattura, i quali si
verificano quando uno schema per noi abituale cattura il nostro
comportamento sostituendosi ad uno schema non familiare (ad esempio
l’effetto STROOP)(oppure quando ci rechiamo in una stanza per prendere un
oggetto e ci ritroviamo lì senza ricordarcene l motivo)
- L’ultima classe di errori si verifica quando attiviamo lo schema giusto solo che
lo attiviamo nel momento sbagliato (esempio spoonerismo o errori di
anticipazione).
come abbiamo detto prima, oltre agli errori che si verificano in modo spontaneo
esistono delle situazioni create in laboratorio per lo studio dei deficit attentivi.
Una di queste situazioni sperimentali è l’attentional blink,
57
58
58
59
noi ha ricordi cosi chiari e precisi e per questo Paul insieme ad un collega ripresero
l’analogia del notes magico che fu proposta anni addietro da freud, un’analogia che
sicuramente ci aiuta in maniera elementare a comprendere quello che è il concetto di
schema. Il notes magico non è altro che un semplicissimo e comune giocattolo per
bambini. Esso si compone di un foglio di plastica trasparente che copre un secondo
foglio di carta cerata entrambi appoggiati su di uno strato di cera. Se qualcosa viene
scritto sul foglio di plastica trasparente leggiamo senza difficoltà ciò che è stato
scritto. Se però il foglio di plastica trasparente viene sollevato, ciò che è stato scritto
scompare. in questo caso il foglio di plastica trasparente rappresenta la percezione
transitoria di un evento, mentre quello che rimane impresso con il tempo sulla cera
può metaforicamente rappresentare la nostra memoria. Questa analogia è
sicuramente approssimativa infatti sarebbe assurdo se la memoria fosse una
struttura così poco organizzata e soprattutto cosi semplice. Il notes magico ci fa però
comprendere appieno la differenza tra tracce e schemi di memoria.
Le tracce di memoria sarebbero quindi delle copie ben precise e dettagliate delle
nostre esperienze precedenti, ipotesi che Neisser definisce ipotesi della riapparizione,
secondo cui un ricordo può scomparire e riapparire più volte. Al contrario invece
abbiamo la nozione di schema che si distacca da questa idea e sostiene piuttosto
quella dell’esistenza di frammenti che vengono utilizzati a sostegno di nuove
ricostruzioni.
FLASH DI MEMORIA . nao print
La teoria del Now Print è un modello sviluppato da Brown e Kulik e che nasce dal loro
tentativo di spiegare il processo di formazione di quelli che sono stati definiti come
flash di memoria, e cioè di quei ricordi che risultano essere particolarmente chiari e
vividi. la loro teoria ipotizza che l’informazione venga elaborata seguendo una serie di
passaggi. In primo luogo viene giudicato il valore di sorpresa di un evento, se si tratta
di un evento di routine, un evento che quindi accade spesso e al quale siamo
“abituati” è possibile che ad esso non venga rivolta alcuna attenzione, al contrario se
si tratta invece di un evento straordinario allora in quel caso gli verrà dedicata molta
attenzione. Può anche succedere che un evento che si è rivela traumatico non venga
per niente elaborato, e che ne risulti una totale amnesia. in secondo luogo viene poi
giudicata l’importanza di un evento, se l’evento viene giudicato sorprendente ed
importante allora si passa alla terza fase, dove c’è la costruzione del flash di memoria.
I Flash di memoria possono essere alcuni più vividi di altri e questo dipende sempre
da quanto sono stati giudicati sorprendenti e importanti gli eventi. Il quarto stadio è
quello della reiterazione in quanto gli individui tendono a pensare ai flash di memoria
più spesso rispetto ad altri ricordi e queste reiterazioni producono il quinto ed ultimo
stadio, e cioè quello dei resoconti dei flash di memoria ovvero il momento in cui
59
60
TEORIA DI BARTLETT
Bartlett nei sui esperimenti ha utilizzato una tecnica definita metodo delle
riproduzioni in serie. Secondo tale metodo ad un primo soggetto A, veniva data una
storia da ricordare. A metteva per iscritto tutto ciò che era in grado di ricordare di
quella storia e cosi la sua versione veniva poi fornita ad un secondo soggetto, B, il
quale cercava di rievocarla. E così via. Ciascun soggetto doveva rievocare la versione
della storia che era stata descritta dal soggetto precedente. Bartlett riteneva che le
trasformazioni che il racconto assumeva man mano da soggetto a soggetto
rivelassero ciò che accadeva alla memoria nel corso del tempo. Ciò che Bartlett notò
è che c’era una progressiva distorsione del racconto, e pian piano che la storia
avanzava da soggetto a soggetto, in ciascuna rievocazione si verificavano parecchie
omissioni rispetto al racconto originale e la storia veniva sempre più semplificata,
questo perché secondo Bartlett gli individui tendono a selezionare solo una parte del
discorso, quella che gli rimane più impressa e tendono invece ad ometterne un’altra
parte. Le omissioni sono il frutto di quello che definiamo come processo di
razionalizzazione, in quanto gli individui cercano di rendere il proprio racconto
quanto più coerente rispetto al proprio punto di vista.
Bartlett credeva che le trasformazioni ottenute usando questo metodo
rappresentassero fedelmente le trasformazioni che subiscono i nostri ricordi con il
passare del tempo. Per questo ritiene che ‘ il ricordo non è una semplice rieccitazione
di tracce isolate, fisse e senza vita, ma piuttosto una costruzione immaginativa
ottenuta per mezzo della relazione che si instaura tra il nostro atteggiamento nei
confronti di un’intera massa attiva di reazioni passate organizzate.’ Questa massa
attiva di reazioni passate organizzate è ciò che Bartlett chiama schema.
quindi definisce uno schema come una struttura organizzata che guida il nostro
comportamento, ma che è allo stesso tempo un modello flessibile che si adatta a
circostanze sempre diverse.
RICERCHE BASATE SULLA TEORIA DEGLI SCHEMI MNESTICI
Alba e Hasher hanno suggerito che le teorie basate sulla nozione di schema
61
62
62
63
63
64
È possibile che i soggetti astraggano queste semplici idee dalle frasi di acquisizione
per poi integrarle all’interno di una rappresentazione coerente, ma tutte le frasi
coerenti con queste idee tenderanno ad essere falsamente riconosciute come frasi
lette in precedenza.
LA TESTIMONIANZA
Loftus e Palmer hanno condotto un famoso studio sulla testimonianza oculare. Ai
soggetti viene mostrato il filmato di un incidente automobilistico e viene a loro posta
la domanda ‘ A che velocità andavano le macchine quando si sono urtate?’ Ad altri
soggetti il verbo urtate veniva sostituito con dei sinonimi come ‘scontrate, andate a
sbattere, entrate in collisione’. Si è notato che il termine scontrate provocava stime
della velocità di gran lunga superiori rispetto alle stime provocate dagli altri termini.
Due tipi di informazioni vengono immagazzinati in memoria ogni volta che si verifica
un evento complesso: l’informazione raccolta nel corso della percezione dell’evento
originario e l’informazione acquisita successivamente. Nel corso del tempo questi
due tipi di informazioni vengono integrati in modo tale da non poter più decidere a
quale di queste due fonti appartengano i singoli dettagli. Tutto quello che abbiamo è
un unico ricordo.
Loftus e Palmer hanno sostenuto che gli individui non sono in grado di determinare
da quale fonte si origina l’informazione fuorviante che è stata acquisita dopo
l’evento. Quest’informazione viene prodotta da una fonte differente dell’evento. Gli
individui non discriminano accuratamente tra i ricordi di eventi reali e i ricordi di
eventi immaginati. Se un evento viene immaginato in forma particolarmente vivida,
in seguito può essere difficile ricordare se quell’evento sia effettivamente accaduto o
no. Il processo per mezzo del quale gli individui distinguono tra eventi reali ed eventi
immaginari è chiamato prova di realtà. (reality monitoring)
Lindsay e Johnson hanno condotto invece un esperimento in cui viene mostrata una
fotografia di un ufficio ai soggetti. Dopo aver visto la foto, i soggetti leggono un brano
con la descrizione dell’ufficio. In una condizione sperimentale i soggetti vengono
sottoposti ad un test di riconoscimento→ i soggetti devono leggere una lista di parole
e indicare se ciascun item della lista era presente o meno nella fotografia; in un’altra
condizione sperimentale i soggetti vengono sottoposti ad un test di monitoraggio
delle fonti→i soggetti devono decidere se gli item della lista erano presenti nella foto,
nel brano o in entrambi. In generale i soggetti hanno la tendenza a considerare come
appartenenti alla foto alcuni item che in realtà sono presenti solo nel brano. Quindi
secondo Lindsay e Johnson gli errori compiuti nel corso della rievocazione sono
probabilmente dovuti più ad un’imperfezione del processo di recupero che ad
64
65
un’inesattezza del ricordo. Loftus e Hoffman hanno concluso che i soggetti sono
propensi ad accettare informazioni errate acquisite successivamente all’evento da
ricordare. Le informazioni fuorvianti tendono ad essere accettate dai soggetti
soltanto se i ricordi dell’evento originale sono poco buoni.
FALSE MEMORIES
Spesso capita di imbatterci in persone che sostengono di avere una memoria molto
ricca di particolari rispetto ad episodi ai quali hanno assistito o di cui sono stati
protagonisti, e che quindi ritengono di avere ricordi molto dettagliati di questi
ultimi, questo però va a cozzare con l’idea secondo cui la memoria di eventi sarebbe
più un processo di ricostruzione della realtà piuttosto che un copia fedele di eventi
A tal proposito si sono sviluppate nel corso degli anni due correnti di pensiero
divergenti tra loro
1. Abbiamo da una parte una scuola di pensiero secondo cui esistono delle
tracce di memoria e che queste sono migliori qualitativamente rispetto ai
ricordi veri e propri
2. Abbiamo invece dall’altra parte una scuola che sostiene l’esistenza di schemi
di memoria, secondo tale teoria tutte le informazioni che possediamo rispetto
agli eventi vengono sottoposte a processi di ricostruzione e rielaborazione
mediante degli schemi, cioè strutture di memoria e insieme di informazioni
rispetto alle conoscenze che abbiamo sulla realtà
- In questo caso se sopraggiungono informazioni ingannevoli durante il processo
di ritenzione il ricordo viene distorto,
- Questo succede soprattutto se i ricordi che abbiamo rispetto all’evento
originale non sono proprio limpidi ma al contrario sono accompagnati da
lacune, da vuoti, che quasi sempre andiamo a riempire con informazioni
fuorvianti per poter risolvere quelle discordanze o le omissioni dovute all’oblio
- Se invece la nostra memoria conserva delle immagini vivide rispetto ad un
ricordo, quasi come se ci fosse appena accaduto, paradossalmente ci
risulterebbe più difficile ricordare se questo sia effettivamente accaduto o
meno e se le cose siano successe in quel preciso ordine
traccia viene registrata ogni qualvolta l’evento si ripete. Hintzman distingue tra
memoria primaria che si riferisce a tutto ciò di cui gli individui hanno esperienza in un
dato momento, e memoria secondaria che si riferisce alle tracce di memoria che
sono state create dalle esperienze avute dagli individui. La memoria secondaria può
essere attivata per mezzo di un probe(un item di prova) a partire dalla memoria
primaria. Le tracce di memoria vengono attivate nella misura in cui esse sono simili al
probe. Si ritiene che le tracce di memoria attivate restituiscano un’eco alla memoria
primaria. L’eco è sostituita dai contributi di tutte le tracce di memoria che sono state
attivate. Una volta che una eco è stata esperita (sperimentata) nella memoria
primaria, essa lascia una traccia di sé nella memoria secondaria. In questo modo,
anche esperienze relativamente astratte possono essere rievocate direttamente.
FRAME/ GOFFMAN
Goffman ha analizzato i processi cognitivi all’interno dei rapporti sociali che hanno
avuto luogo in un contesto naturale. All’interno di uno scenario, una sequenza di
azioni può essere compresa come un combattimento ma, all’interno di un altro
scenario, lo stesso comportamento può essere compreso come un gioco. (definizione
di FRAME →La nozione di frame indica un insieme di principi di base che influenzano
e controllano il modo con cui gli individui vengono coinvolti in una situazione. Quindi
questa nozione è simile alla nozione di schema. Alla nozione di frame è attribuita una
struttura più precisa di quella che caratterizza la nozione di schema; NOTA BENE: la
nozione di frame non viene intesa come un amalgama slegato e accidentale di
elementi che possiedono una stretta relazione temporale ma è più chiaramente
costituita da un insieme di componenti essenziali, le quali possiedono un
arrangiamento definito e stabili relazioni reciproche.
Un insieme di scenari primari viene immagazzinato in memoria, questi scenari sono
degli strumenti che ci consentono di interpretare le situazioni in cui veniamo a
trovarci. Goffman usa il termine keying(accordare) per indicare il processo di codifica
degli eventi in base a scenari differenti. Un comportamento normalmente
interpretato all’interno dello scenario del combattimento, ad esempio, può essere
reinterpretato all’interno dello scenario che rappresenta l’attività del gioco.
Goffman ha descritto le diverse modalità (basic keys) in base alle quali questo
processo ha luogo.
Una di queste modalità è la simulazione→gli individui sono molto bravi nel fingere di
essere impegnati in un comportamento che potrebbe essere serio ma che viene
invece inquadrato come non serio[esempio: sceneggiature drammaturgiche].
66
67
Un’altra basic key è composta dai rifacimenti tecnici (technical redoings)→ i copioni
che definiscono una determinata attività vengono eseguiti al di fuori del loro
contesto usuale per scopi del tutto diversi da quelli relativi alla propria attività
originaria. Molte forme di addestramento hanno queste caratteristiche: nel corso del
processo di apprendimento è molto utile partecipare a simulazioni e sessioni di prova
prima che il comportamento venga eseguito all’interno di uno scenario primario
(questo processo di apprendimento è detto apprendimento mediante
sperimentazione). Goffman ci offre una ricca descrizione delle modalità per mezzo
delle quali gli eventi possono essere inquadrati[framed] o re-inquadrati[reframed]. Il
sistema di memoria costituisce un dispositivo flessibile che ci fornisce gli scenari per
mezzo dei quali gli individui possono interpretare le situazioni in cui vengono a
trovarsi.
MINSKY
L’idea di Minsky è che ogni esperienza percettiva attivi certe strutture che chiama
frame, strutture che abbiamo acquisito nel corso dell’esperienza passata. Tutti noi
ricordiamo milioni di frame, ciascuno dei quali rappresenta una situazione
stereotipica.
Un frame possiede diversi livelli di astrazione. Nel livello superiore (o più astratto) di
un frame sono contenute le caratteristiche relativamente costanti di una situazione
(es: entrare in un’aula e aspettarsi di trovare delle sedie]. I livelli inferiori e più
concreti di un frame sono quelli più variabili. Ai livelli inferiori di un frame, chiamati
terminali, vengono tipicamente assegnate delle opzioni per difetto. I frame sono
immagazzinati in memoria assieme a queste opzioni per difetto (es: quando
immaginiamo l’oratore di un corso universitario, immaginiamo anche gli abiti
indossati dall’oratore. Questi abiti sono delle opzioni per difetto.]
Fare ricorso alla memoria è necessario per due ragioni:
1. per adattare il frame alla situazione specifica in cui gli individui si trovano
2. per adattare i dettagli della situazione al frame.
I frame sono organizzati all’interno di sistemi, sono collegati gli uni agli altri e ciò che
succede in un frame può influenzare quello che ci aspettiamo possa succedere in un
altro. Uno scenario rappresenta una sequenza convenzionale di frame che
descrivono il corso usuale degli eventi .
Minsky propone l’esempio dello scenario della compravendita:
A possiede X e B possiede Y → B possiede X e A possiede Y
67
68
Lo scenario specifica come le relazioni tra i terminali di differenti frame mutano nel
corso del tempo.
Esistono diversi scenari. La struttura narrativa è un tipo di scenario che definisce
l’andamento tipico delle storie che noi raccontiamo. Una struttura narrativa è simile
ad uno script (copione).
SCRIPT. (merluzzo)
Script, letteralmente significa copione, ed è una struttura che descrive una sequenza
stereotipica di azioni che definisce una situazione ben conosciuta. [es: ristorante].
Schank e Abelson sono stati i primi ad utilizzare la nozione di script nella ricerca sulla
memoria e si interessarono al modo in cui questi script si presentavano in memoria.
In alcuni esperimenti veniva chiesto a dei soggetti di elencare tutte le attività
abituali che vengono comunemente svolte in alcune situazioni tipo, come andare dal
dottore o al supermercato.
Secondo Schank, la produzione degli script in memoria era dovuta all’organizzazione
in forma gerarchica di vari ricordi, da quello più concreto[specifico] a quello più
astratto[generale].
• I ricordi più concreti sono quelli che riguardano le esperienze specifiche e che
ci permettono di ricordare degli eventi imminenti. L’esempio più palese è
quello della visita ad uno studio dentistico: e cioè recarsi lunedì alle ore 15 dal
dentista per una pulizia dentale-. Questo tipo di ricordi non è molto duraturo.
un item però è molto più ricca se viene usata la reiterazione integrativa piuttosto che
la reiterazione di mantenimento.
Nel paradigma sperimentale Brown - Peterson ai soggetti vengono presentati una
serie di item e un numero. Dopo aver sentito il numero i soggetti contano a ritroso
per tre a partire dal numero stabilito [100-97-94 etc.]. Dopo un dato intervallo il
soggetto deve rievocare la serie di item[es: B, R, Q]. Risultato: la rievocazione è più
accurata se l’intervallo non è occupato dalla numerazione a ritroso.
Una variante di questo paradigma prevede che ai soggetti venga fatto credere che il
compito sperimentale sia di rievocare una sequenza di numeri. Nell’intervallo tra la
presentazione di item e la rievocazione i soggetti devono svolgere un compito
secondario (ripetere delle parole). Dopo alcune prove, ai soggetti viene chiesto di
rievocare le parole anziché i numeri. La ripetizione delle parole costituisce una
reiterazione di mantenimento. Questo paradigma è detto dei distrattori.
Secondo Greene la reiterazione di mantenimento produce dei cambiamenti di lungo
termine nelle tracce di memoria. Il modello di elaborazione dell’informazione di
Waugh e Norman suggerisce che alcune informazioni vengono trasferite nella
memoria a lungo termine come conseguenza della reiterazione, di qualunque tipo
essa sia.
COMPLESSITA’ DI RIELABORAZIONE E DISTINTIVITA’
Queste ricerche hanno portato allo sviluppo di due concetti: la complessità di
rielaborazione si riferisce alla quantità di elaborazione ulteriore effettuata
dall’individuo che produce materiali addizionali (compito assegnato a degli studenti
di continuare la frase ‘L’uomo affamato entrò nella sua automobile…’).
Il rendimento degli studenti potrebbe essere aumentato se venisse insegnato loro a
rielaborare il materiale. La distintività invece si riferisce alla precisione con la quale un
elemento è codificato (esempio: la codifica della parola cavolo come ‘’qualcosa di
commestibile’’ è meno distintiva della codifica della medesima parola come
‘’ortaggio’’. Gli eventi dotati di maggior carattere distintivo sono ricordati più
facilmente.
MEMORIA DI LAVORO (memoria a breve termine)
Lockhart e Craik hanno messo in relazione la loro teoria con il concetto di memoria di
lavoro di Baddeley. Secondo Baddeley, la memoria di lavoro è il sistema di memoria a
cui è affidato il compito di manipolare temporaneamente l’informazione.
Un’importante componente della memoria di lavoro è rappresentata da un sistema
esecutivo centrale che opera come quello del modello della croce maltese di
Broadbent. Questo sistema esecutivo centrale coordina l’informazione che viene
rappresentata all’interno di servosistemi come il taccuino visuo-spaziale[il sistema
70
71
Sistemi di memoria
L’idea del ricordo come viaggio mentale nel tempo mette in luce un aspetto
fondamentale del funzionamento della memoria umana: ciò che chiamiamo ricordo è
fatto di elementi diversi (immagini, suoni, odori, emozioni) che derivano dal
funzionamento di sistemi mnestici differenti ma in interazione tra di loro. Il collante
siamo noi stessi, é la nostra soggettività.
In un ricordo entrano in gioco il sistema di:
71
72
reti cerebrali che coinvolgono specifiche strutture neurali le quali, a loro volta,
sostengono specifici processi mnestici. Ogni struttura neurale svolge un ruolo
specializzato all’interno del sistema.
La strada verso il ricordo: codifica, ritenzione e il recupero
Perché possa esserci un ricordo, deve verificarsi una qualche forma di
apprendimento; l’informazione cioè deve essere acquisita.
Una volta che l’informazione é acquisita, essa deve essere mantenuta nella memoria
fino a che non ci serve. Infine, questa informazione viene usata, cioè —> noi
ricordiamo. Per fare ciò, ripeschiamo dalla nostra memoria l’informazione e la
riportiamo in uno stato attivo. Studiosi di memoria hanno identificato queste 3 fasi
del ricordo: codifica, ritenzione e recupero, e benché non si tratti di stadi
necessariamente separati che si verificano in sequenza, essi rappresentano bene
l’intero processo di memoria.
La fase di codifica: si riferisce al modo in cui la nuova informazione viene inserita in
un contesto di informazioni precedenti. Gli individui codificano gli eventi in modi
differenti.
(esempio: se dovete codificare la parola tavolo, potete farlo sia attraverso un codice
visivo che ne specifica l’apparenza (grandezza, forma) dell’oggetto tavolo, sia
attraverso un codice semantico che specifichi il significato della parola, comprese le
emozioni che questa parola generalmente suscita in voi (ma cosaa ahah)
La forza della traccia di memoria dipende dalla profondità della codifica: più profondo
è il livello di elaborazione dello stimolo, più è probabile che la traccia che si forma sia
duratura. La codifica semantica richiede un’analisi del significato che genera una
traccia più ricca ed elaborata, mentre la codifica delle caratteristiche fisiche dello
stimolo richiede un’analisi superficiale.
Una buona codifica non garantisce però che tutto quello che viene codificato venga
poi ricordato.
I processi che intervengono tra la fase di codifica e la fase di recupero (i cosiddetti
processi di ritenzione = ovvero il mantenimento dell’informazione in memoria)
determinano infatti importanti effetti sul ricordo.
Da cosa dipende la qualità della ritenzione? Secondo la teoria dei livelli di
elaborazione se si codifica l’informazione basandosi sul significato (elaborazione
profonda) si ottiene una migliore ritenzione. Generalmente, la strategia comune per
immagazzinare l’informazione è la ripetizione (tecnicamente, reiterazione).
Tuttavia le caratteristiche del contesto di recupero e la natura dei suggerimenti (CUE)
72
73
• tra i due esiste una relazione di tipo associativo (ad esempio, se incontro un
amico all’università improvvisamente mi ricordo che tempo prima gli ho
prestato un libro di testo, la traccia in memoria ha una relazione semantica con
l’informazione presente nell’ambiente)
• che le loro caratteristiche di superficie sono simili (come quando la traccia in
memoria conserva le stesse caratteristiche di apparenza dell’oggetto),
• o che vi è sovrapposizione di informazioni (quando lo stimolo al recupero è
identico con lo stimolo così come stato codificato).
In pratica, la qualità del ricordo dipende da come l’evento è stato codificato, dalla
forza della traccia e dalla presenza nel contesto indizi di recupero appropriati.
La durata dei ricordi: memoria sensoriale, memoria breve termine e memoria lungo
termine
Tutta la memoria potrebbe essere divisa in due grandi entità: una che ci permette di
ricordare un’informazione per un tempo molto breve ed una che ci permette di
conservare informazioni per tutta la vita. James distingueva tra una memoria
primaria, transitoria e fragile (memoria breve termine) che consisteva dei contenuti
della coscienza, e una memoria secondaria, permanente (la memoria lungo termine),
che conteneva informazioni che non erano presenti alla coscienza ma che potevano
essere riattivate all’occorrenza.
durata molto breve ( parliamo di circa poche frazioni di secondo) ed ha una natura
periferica, cioè riguarda soltanto le caratteristiche marginali di uno stimolo come la
forma fisica, mentre non riguarda la sua natura concettuale, ovvero il suo significato
e quindi la sua semantica.
Lo studio della memoria sensoriale o iconica può essere spiegato per mezzo
dell’esperimento condotto da Sperling. L’esperimento consiste nel presentare su uno
schermo per 50 millesimi di secondi una matrice di lettere che veniva fatta poi
scomparire per lo stesso periodo di tempo. Il compito richiesto ai soggetti
sperimentali inizialmente era quello di ricordare il maggior numero di lettere
possibile con una sola occhiata allo schermo. Questa è quella che definiamo tecnica
del resoconto totale, ma in questo modo le persone riuscivano a ricordare non più di
un quarto delle lettere viste, nonostante fossero comunque consapevoli di averne
viste più di quante erano stati in grado di rievocare. Cosi successivamente, Sperling,
decise di utilizzare quella che definiamo tecnica del resoconto parziale, dove si
richiedeva ai soggetti di rievocarne solo una parte. Quindi la matrice di lettere a
questo punto veniva presentata in tre gruppi e ciascuno di essi veniva accompagnato
da tre diversi suoni, di diversa intensità, quindi alta media e bassa, e ciascuno dei
quali indicava una diversa riga di lettere da ricordare. In questo modo i soggetti in
base alla tonalità che udivano erano in grado di rievocare le lettere corrispondenti a
quel suono. anche quando le lettere non erano più presenti sullo schermo in base al
suono emesso erano in grado di ricordare tutte le lettere della matrice. Questo sta ad
indicare l’esistenza di un magazzino di memoria dotato di carattere sensoriale, che
pur avendo enormi capacità, le informazioni decadono molto rapidamente. Neisser
definisce questo tipo di memoria, memoria iconica. Si tratta di sistemi di memoria
visiva e uditiva a brevissimo termine.
I risultati di Sperling rafforzarono l’idea che la nostra memoria fosse composta da
diversi sistemi, infatti negli anni 70 si faceva riferimento alla metafora secondo cui la
nostra mente era come un computer e si ipotizzava l’esistenza di 3 magazzini di
memoria: la memoria sensoriale, la memoria a breve termine e la memoria a lungo
termine. Secondo questo modello, la qualità del ricordo dipenderebbe dal tempo che
l’informazione trascorre nel magazzino a breve termine: più è lunga l’elaborazione a
breve termine più e probabile che il ricordo passi nel magazzino a lungo termine e
diventi permanente.
74
75
La memoria a breve termine ha una capacità ridotta, una durata di soli pochi
secondi, a meno che non venga messo in atto un processo in grado di mantenere
l’informazione per un periodo di tempo maggiore, ovvero il processo di reiterazione,
ed è infine un processo centrale (cioè interviene in una serie di processi che hanno
una natura di tipo concettuale). Come abbiamo detto la memoria a breve termine
ha una capacità molto limitata di mantenimento dell’informazione, e non solo dal
punto di vista temporale, ma anche dal punto di vista della quantità di informazione
che può trattenere, sono stimati infatti non più di 7 bit di informazione
contemporaneamente. La MBT è una sorta di magazzino che permette di depositare
e utilizzare in modo rapido le informazioni utili al compimento di scopi più
complessi. Parlando di memoria a breve termine facciamo riferimento ad un altro
sistema di memoria, ovvero la memoria di lavoro, anch’essa con il ruolo, durante lo
svolgimento di compiti cognitivi più complessi e articolati, di mantenere ed elaborare
le informazioni in oggetto. La memoria di lavoro rappresenta il nostro presente o
meglio ci aiuta a trasformare il passato in presente, riportando i ricordi ad uno stato
vivido. Anch’essa ha una capacità limitata e può mantenere l’informazione solo per
un breve periodo di tempo. Nell’ambito della psicologia cognitiva questi due sistemi
di memoria vengono utilizzati come sinonimi.
La mbt si divide in memoria visuo-spaziale, e memoria uditivo-verbale: la prima
riguarda gli stimoli visivi che durano circa due secondi, la seconda gli stimoli uditivi,
che durano invece dai 2 ai 20 secondi in base alle procedure di reiterazione che
vengono adottate. La MBT si articola quindi in due sottoinsiemi: Il circuito
fonologico che riguarda l’elaborazione e il mantenimento dell’informazione verbale
e acustica. È quel meccanismo che ci permette di ricordare temporaneamente una
sequenza di numeri. Il secondo sottosistema chiamato taccuino visuo-spaziale che
riguarda invece l’informazione visiva. I due sottosistemi, sono indipendenti l’uno
dall’altro ma interagiscono e collaborano insieme per mezzo di un meccanismo
chiamato esecutivo-centrale. Tale meccanismo ha il ruolo di controllare e
monitorare l’informazione proveniente dai due sottosistemi. La memoria di lavoro in
entrambi i casi ha due funzioni: la prima, quella con la funzione di magazzino, è una
funzione di tipo passivo, con lo scopo di conservare l’informazione per un certo
periodo di tempo mentre, l’altra, la seconda è una funzione di tipo attivo, e riguarda
la capacità di questo sistema di memoria di rinfrescare continuamente
l’informazione, che è quella che definiamo come capacità di reiterazione.
I sensi: memoria visuo-spaziale e memoria uditivo- verbale
75
76
una parola vecchia e ciò nonostante sono in grado di identificarla con maggiore
accuratezza rispetto ad una parola nuova. Le parole vengono preattivate senza che i
soggetti ne siano consapevoli. Schacter ha preferito l’espressione memoria implicita
all’espressione memoria senza consapevolezza. La memoria implicita ha luogo
quando l’informazione che è stata codificata nel contesto di un particolare episodio
viene in seguito espressa senza che ci sia un ricordo consapevole. Schacter ha notato
la rilevanza della psicosi di Korsakoff per lo studio della memoria. La psicosi di
Korsakoff è una forma di amnesia che si verifica come conseguenza dell’alcolismo
cronico. L’amnesia è un disturbo prodotto da lesioni cerebrali; coloro che sono affetti
da amnesia possono essere in grado di operare normalmente in diversi settori ma
sono incapaci di ricordare gli eventi accaduti in seguito all’insorgenza del disturbo.
Warrington ha dimostrato che i pazienti affetti da amnesia hanno un rendimento
migliore nei compiti che richiedono l’uso della memoria implicita e un rendimento
peggiore nei compiti che invece richiedono la memoria esplicita.
Tulving ha suggerito che è possibile che esista un altro sistema di memoria distinto da
quella episodica, chiamato sistema di rappresentazione percettiva che è ritenuto
responsabile degli effetti di priming. Secondo Tulving e Schacter, il sistema di
rappresentazione percettiva elabora l’informazione ad un livello più superficiale del
sistema di memoria episodica.
la distinzione tra memoria esplicita e implicita richiama un’ulteriore distinzione,
quella tra memoria incidentale e memoria intenzionale.
in che modo la volontà di ricordare incide ai fini del ricordo?
Memoria intenzionale-> ci permette di ricordare le informazioni che ci sembrano
rilevanti e di decidere di ricordarle in maniera intenzionale. Però queste
informazioni non sono le uniche ad essere memorizzate, restano in memoria molte
altre informazioni che si imprimono incidentalmente. Cioè si imprimono al di fuori
della nostra intenzione.
la memoria incidentale-> si verifica quando memorizziamo gli eventi senza la
volontà di farlo. l'apprendimento è involontario e il recupero è volontario. Esempio -
> non abbiamo volontariamente memorizzato la cena di ieri sera, ma il recupero è
volontario, cioè dobbiamo pescare nella memoria i ricordi relativi alla cena. Lo
studio della memoria incidentale si basa su compiti particolari. Come si fa a simulare
una situazione equivalente alla domanda che cosa hai mangiato ieri sera-> vengono
utilizzati 1) compiti di copertura cosiddetti perché coprono all’ individuo il compito
reale; 2) compiti di orientamento-> si intende l'orientamento del livello di codifica e
cioè questi esperimenti possono implicitamente o esplicitamente chiedere ai
78
79
79
80
possono variare notevolmente sia nella durata (pochi secondi, a minuti, a ore) sia nel
contenuto.
La terza fase si riferisce al tempo che deve essere impiegato per recuperare
un’intenzione. Di solito, il recupero dell’informazione è collegato a una situazione ben
precisa. E, quindi a tale scopo possiamo utilizzare una formula del tipo: “quando
compare il contesto X, allora posso compiere l’azione Y”.
Tra i fattori necessari affinché un’azione futura venga ricordata riscontriamo il
fenomeno definito come matching , ovvero il confronto(un matching) delle
caratteristiche codificate con quelle percepite.
La quarta fase riguarda la realizzazione dell’intenzione. Qui entra in ballo il concetto
di compliance <<adesione>>, cioè quello di portare a termine un compito nel modo
previsto. Si ha compliance solo se ci ricordiamo prima di tutto che qualcosa deve
essere fatto in un determinato momento, in cosa consiste questo qualcosa, e infine
se decidiamo volontariamente di svolgere l’azione. Se solo una di queste fasi manca,
ci sarà non-compliance e il compito non verrà svolto.
Inoltre ci sono altri fattori che possono causare una cattiva prestazione prospettica:
• la mancanza di abilità per poter affrontare il compito.
• L’interruzione di quell’azione da parte di altri eventi e a questo punto sarà
quindi necessario ripianificare l’azione, attraverso una nuova codifica.
La quinta fase riguarda la valutazione finale attraverso una procedura di confronto tra
l’intenzione inizialmente codificata e la situazione attuale, tale procedura può portare
a tre diversi risultati:
1. lo scopo è stato raggiunto
2. Lo scopo è stato parzialmente raggiunto
3. Lo scopo non è stato raggiunto
Memoria episodica
La memoria episodica si riferisce all’immagazzinamento e al recupero di eventi che
sono spazialmente localizzabili, temporalmente databili, ma soprattutto che sono
stati vissuti in prima persona. Riguarda infatti il ricordo di eventi autobiografici e
quindi le esperienze e i fatti vissuti in prima persona con le relative informazioni
spazio-temporali che permettono a questo sistema di memoria di ricordare dove e
quando è stata appresa la nuova informazione. La memoria episodica è organizzata
cronologicamente. A questo tipo di memoria è associata una coscienza autonoetica,
che rappresenta la consapevolezza di se stessi.
82
83
84
85
loro compito era quello di scrivere accanto a ciascuna delle nuove parole
l’appropriata parola della lista precedente. Ai soggetti venivano poi fornite 12 nuove
parole fortemente associate(suggerimenti forti) con le rimanenti 12 parole critiche. Il
compito dei soggetti era di associare una parola a ciascuna di queste nuove parole. A
questo punto i soggetti dovevano fare delle associazioni libere sulla base di tutti i 24
suggerimenti forti per il recupero: le parole generate dai soggetti in risposta ai
suggerimenti forti per il recupero erano le stesse che i soggetti avevano imparato in
risposta ai suggerimenti deboli per il recupero. Ciò significa che possono essere create
delle condizioni in cui le informazioni riguardanti una parola sono disponibili in
memoria in una forma sufficiente per la produzione di una risposta appropriata.
Secondo Tulving, la possibilità della rievocazione dipende dalla modalità della codifica
dato che la natura della codifica influenza la traccia di memoria prodotta dall’item.
Dato che le informazioni contenute nella non risultano utili ai soggetti per il recupero
di informazioni immagazzinate nella memoria episodica, si potrebbe concludere che i
due sistemi di memoria sono separati gli uni dagli altri.
Tulving ha ipotizzato l’esistenza di almeno tre sistemi di memoria volti
all’elaborazione di differenti tipi di informazioni: i sistemi di memoria episodica,
semantica e procedurale. La memoria procedurale è quel sistema di memoria
soggiacente alle esecuzioni che richiedono destrezza. ‘’Lo scopo di un compito
eseguito con destrezza viene ottenuto osservando un insieme di regole che non sono
conosciute, in quanto tali, da colui che le segue.’’ Le conoscenze di cui ci serviamo
quando andiamo in bicicletta sono conoscenze procedurali; la conoscenza
procedurale è una forma di conoscenza tacita: riguarda ciò che conosciamo senza
necessariamente essere consapevoli di cosa sappiamo. Se descriviamo (come fa
Polanyi) i principi seguiti dal ciclista, noi trasformiamo la conoscenza tacita in
conoscenza esplicita.
Se gli individui sono capaci di descrivere quello che sanno, allora fanno affidamento
alla loro memoria semantica che contiene le conoscenze esplicite a proposito di
come andare in bici, ad esempio. D’altra parte, la memoria procedurale contiene le
informazioni di cui facciamo effettivamente uso quando andiamo in bicicletta. La
memoria episodica contiene invece informazioni che rimandano a particolari
esperienze nel corso delle quali ci è capitato di andare in bicicletta. La memoria
episodica è un sottosistema della memoria semantica, la quale a sua volta è un
sottosistema della memoria procedurale.
La memoria procedurale è anoetica [priva di conoscenza] perché quando facciamo
uso di questo tipo di memoria, siamo consapevoli solo di ciò che caratterizza la
situazione immediata in cui ci troviamo.
85
86
86
87
89
90
Per quanto riguarda la prima caratteristica: mentre gli elementi delle categorie di
livello più basso condividono moltissime caratteristiche, tanto da rendere talvolta
difficile distinguere i singoli elementi, a mano a mano che ci si innalza nella struttura
le caratteristiche condivise dei membri della categoria tendono a diminuire.
Alcuni studiosi hanno ipotizzato che la mente umana utilizzi un meccanismo di
bilanciamento fra quantità di informazione rappresentata e quantità di elaborazione
chiamato principio di economia cognitiva, secondo cui le proprietà dei concetti sono
rappresentati a livello più alto possibile della gerarchia e vengono recuperate quando
necessario attraverso processi inferenziali.
(Ad esempio l’informazione che il canarino “é giallo” verrà rappresentata a livello del
concetto stesso, ma l’informazione che “ha il becco” verrà rappresentata a livello
superiore “uccello”, perché è una proprietà condivisa dai membri di tale categoria e
allo stesso modo, la proprietà “respira” sarà rappresentata all’ulteriore livello
categoriale “animale” perché è condivisa dai membri di tale categoria e così via…
Questa proposta relativa all’organizzazione mentale delle conoscenze ci permette di
fare una previsione empirica molto diretta: dovrebbe richiedere meno tempo
decidere che è un canarino giallo rispetto a decidere che ha il becco e respira.
Per quanto riguarda la seconda caratteristica, (la salienza cognitiva) dei livelli
gerarchicamente ordinati ve n’é uno che è privilegiato dal punto di vista cognitivo,
che Rosch ha denominato livello di base.
(Esempio: se vedo in un parco una signora con al guinzaglio qualche cosa che non
riesco a vedere molto bene, molto probabilmente identificherò quell’elemento come
“cane” e non ad esempio come “bassotto” o come “animale” o come “essere
vivente”, alternative tutte possibili ma psicologicamente meno adeguate.
È proprio questo il livello di base, quello che fornisce l’entrata cognitivamente più
economica nella memoria semantica, quindi è il livello in cui in genere avviene
l’identificazione di un elemento a seguito dell’interazione fra informazioni senso-
motorie messe a disposizione dei meccanismi sensoriali e le conoscenze pregresse
rappresentate nella memoria a lungo termine. Tale identificazione potrebbe
avvenire, in via di principio, a uno qualsiasi fra i possibili livelli, dal più generale altri
specifico. Tuttavia il livello di base é cognitivamente saliente perché il livello in cui
vengono rappresentati gli attributi più distintivi. Infatti, a livello subordinato la
differenza negli attributi distintivi è molto piccola.
(Ad esempio, solo alcuni esperti sanno riconoscere i sottotipi di bassotti, e in genere, i
bassotti sembrano molto simili gli uni dagli altri. D’altro canto la differenza negli
attributi distintivi é grande ai livelli superordinati: sono pochi gli attributi che
90
91
caratterizzano tutti gli elementi di tali livelli, particolarmente, come abbiamo detto,
nell’ambito visuo-percettivo.
NOTA BENE: Questo non significa che sia impossibile identificare un elemento agli
altri livelli. (Ad esempio: se la signora nel parco ha al guinzaglio un Fox Terrier e un
bassotto, e io voglio riferirmi a solo uno dei due, una strategia comunicativa efficace
mi farà usare il termine Fox Terrier anziché il termine ambiguo “cane” ma in questo
caso il livello di identificazione e denominazione sono funzionali alla necessità di
identificare in maniera non ambigua uno dei due cani). É semplicemente una
questione situazionale che lo rende necessario.
Dunque il livello di base è quello che:
1. Gli adulti usano spontaneamente nelle loro descrizioni
91
92
92
93
36. Per questo si ritiene che tutte le categorie siano rappresentate in base a due
meccanismi: nucleo concettuale e la funzione di identificazione. Il nucleo concettuale
rappresenta tutti i criteri che devono necessariamente essere presenti affinchè venga
determinata un’appartenenza categoriale mentre la funzione di identificazione è
costituita dall’insieme di procedure che permettono di attribuire un certo elemento a
una certa categoria.
(Ad esempio: la categoria delle nonne è costituita da tutte le persone che sono
“genitrice di un genitore“ (nucleo concettuale) e comprenderà donne di età avanzata
con i capelli bianchi, dolci e affettuose. Pertanto, se incontriamo una signora con le
caratteristiche “età avanzata, con i capelli bianchi dolce affettuosa”, tendiamo a
inferire che sia una nonna, anche se possiamo incorrere in uno dei due possibili
errori: 1. non identificare come nonna una donna giovanile bionda // 2. oppure
identificare come nonna una donna di età avanzata con i capelli bianchi che però non
ha mai avuto figli.
cosa che ancora non abbiamo detto è che la funzione di identificazione opera a livello
probabilistico.
Quanto più la funzione di identificazione può basarsi su attributi condivisi, tanto
maggiore sarà la facilità con cui un elemento verrà identificato come appartenente
ad una categoria. Quanto meno condivisi sono gli attributi, più difficile e più lento
sarà il processo di categorizzazione.
paziente può aggiungere le ali alla mucca o può affermare che la giraffa è un tipico
animale europeo, ma disegna adeguatamente un triciclo e afferma che la clessidra è
un orologio a sabbia composto da due contenitori comunicanti. Sono stati riportati
inoltre anche i casi di pazienti che mostrano un andamento opposto, cioè una
maggiore difficoltà con gli artefatti rispetto agli esemplari delle categorie naturali.
Questa doppia dissociazione permette di escludere che il disturbo evidenziato sia
imputabile al fatto che alcune categorie sono sempre e comunque più difficili, perché
intrinsecamente più complesse da elaborare rispetto ad altre. Inoltre sono stati
descritti disturbi anche più specifici, limitati ad esempio alla categoria della frutta o i
colori.
2.1 Il fenomeno della parola "sulla punta della lingua"
Il fenomeno della parola sulla punta della lingua è un fenomeno che colpisce la
nostra memoria semantica. Gli studi che riguardano tale effetto sono stati condotti
da Brown e McNeill per mezzo di un esperimento, nel quale chiedevano ad alcuni
soggetti di rievocare circa una cinquantina di parole a bassa frequenza, ciò che si
verificò durante questo esperimento è che la maggior parte dei soggetti pur
riuscendo a recuperare diversi aspetti della parola critica, come ad esempio la sua
iniziale, non erano in grado di pronunciarla. Talvolta i soggetti pronunciavano parole
simili a quella in oggetto pur essendo consapevoli di sbagliare, questo dimostra che
erano in grado di recuperare molte informazioni di quella parola prima di riuscire
effettivamente a rievocarla. Questa capacità di è stata definita utilizzando
l’espressione rievocazione generica. Secondo alcuni studi il fenomeno della parola
sulla punta della lingua si verificherebbe soprattutto in momenti di particolare stress.
Invece l’aspetto più curioso di questo fenomeno sembrerebbe essere che proprio
quando perdiamo le speranze e quindi non cerchiamo più di rievocare la parola
critica, questa spunterebbe all’improvviso. Questo è stato motivo di un ulteriore
interesse da parte degli psicologi i quali condussero un secondo esperimento nel
quale i soggetti venivano muniti di un diario, nel quale dovevano scrivere la parola
critica nelle successive quattro settimane qualora essa si ripresentasse. Al termine di
questo periodo il 95% delle paarole erano state rievocate, e nella maggior parte dei
casi la parola emergeva improvvisamente per mezzo di quello che definiamo
fenomeno di pop up. I dati dell’esperimento dimostrano anche che ci vuole più
tempo a trovare la parola sulla punta della lingua quando vi siano alternative
persistenti. → e cioè quando si presentano più e più volte alla nostra mente parole
scorrette. questo effetto può essere dovuto all’attivazione di parole alternative che
vanno ad interferire con la rievocazione della parola desiderata. Alcuni studiosi
ritengono che il fenomeno della parola sulla punta della lingua abbia luogo con parole
94
95
che non sono usate spesso o non sono state usate di recente, e che la connessione
tra il significato di una parola e la sua pronuncia possa essersi atrofizzata per effetto
del disuso.
Memoria semantica. La memoria semantica fa riferimento alle informazioni di
carattere generale che possediamo sul mondo. Tulving la paragona ad un dizionario
mentale che contiene parole, concetti e le loro relazioni. Sono stati sviluppati tre
diversi modelli della memoria semantica.
MODELLO A RETE GERARCHICA – (QUILLIAN)
il primo modello della memoria semantica è quello di Quillian e Collins, i quali si
erano proposti inzialnte di creare un programma per calcolatore (chiamato TLC) in
grado di capire il linguaggio naturale. Quest modello dal momento che connteneva
informazioni su concetti e le loro relazioni diventò anche un modello della memoria
semantica.
Il modello di Quillian e C. rappresenta la memoria semantica nei termini di una
grande rete gerarchica. La rete è costituita da tre tipi di elementi:
1) unità [si riferiscono a insiemi di oggetti e costituiscono i nodi della rete. I nodi
sono etichettati per mezzo di sostantivi (squalo, per esempio)]. In cima alla
rete abbiamo i nodi dal significato generico, le categorie sovraordinate, mentre
man mano che si scende nella rete riscontriamo le categorie subordinate.
2) le proprietà sono le caratteristiche funzionali delle unità, e sono etichettate per
mezzo di aggettivi o verbi (giallo o cantare]
3) puntatori [specificano le relazioni tra unità diverse e le relazioni tra le unità e le
proprietà (possono essere descritte per mezzo dei verbi essere, avere e potere)
In questo modello il recupero di informazioni dalla memoria semantica corrisponde
alla ricerca all’interno di una rete gerarchica: una forma semplice di ricerca, definita
feauture verification task, consiste nello stabilire il valore di verità di un enunciato
[Un pettirosso è un uccello(Vero o falso?)→per rispondere bisogna percorrere i vari
percorsi della rete per accertarvi se una relazione di questo tipo è presente nella rete
o meno. Se esiste, allora l’enunciato è vero. Il modello di Quillian implica che
maggiore è la distanza semantica (ossia la distanza tra i nodi utilizzati nella frase),
maggiore è il tempo impiegato dai soggetti per recuperare le informazioni
immagazzinate nel nodo superiore. Questo modello però non specifica chiaramente
la procedura necessaria per decidere che una frase è falsa. Quillian ha avanzato
l’ipotesi dell’interruzione condizionale, secondo cui la ricerca dovrebbe concludersi
quando emerge una contraddizione (esempio: se troviamo un percorso che va da –
95
96
97
98
98
99
101
102
102
103
104
105
scelse proprio di bere la coca-cola mentre soltanto una piccola minoranza decise di
prendere altri tipi di bevande. Questo dimostrerebbe che ci sono degli stimoli che
influenzano il nostro comportamento in forma non cosciente, ma la difficoltà da
parte degli psicologi nel comprendere se questa storia sia convincente o meno deriva
proprio dal fatto che anche se questo dato, subito dopo aver letto della leggenda,
sembra essere davvero eclatante e convincente in realtà non c’è nulla che confermi il
fatto che gli spettatori anche se non avessero visto per pochi millesimi di secondi la
bottiglia non avrebbero fatto ugualmente la stessa scelta. Quindi per capire se il
nostro comportamento potesse essere effettivamente influenzato da stimoli non
coscienti c’era il bisogno di sviluppare un vero e proprio paradigma sperimentale che
confermasse scientificamente questa tesi, quindi fu sviluppato il cosiddetto
paradigma del priming subliminale, proprio per affrontare casi di questo tipo in
laboratorio. Viene utilizzato il termine subliminale proprio per fare riferimento al
fatto che alcuni simboli che verranno poi utilizzati in questo tipo di esperimenti
risulteranno essere stimoli non coscienti.
Il paradigma prevede la presenza di due eventi che si susseguono. Quindi al soggetto
sperimentale, che si trovava in una stanza insonorizzata veniva presentato per pochi
millesimi di secondi su di uno schermo un’immagine chiave del primo evento (es.
figura di un osso), questo stimolo è definito stimolo prime, ed è preceduto o seguito
da altre figure prive di senso con lo scopo di occultare lo stimolo prime.
Successivamente, dopo un intervallo di tempo che non sempre era lo stesso, veniva
presentata senza particolari limiti di tempo, la figura chiave del secondo evento ( es.
un cane), definito stimolo target. Lo stimolo prime veniva presentato al soggetto in
forma inconsapevole quindi senza essere informato, e quando invece gli veniva
presentata la figura target egli doveva pronunciare nel minor tempo possibile il nome
o la categoria rappresentata dalla figura. Il tempo che intercorreva tra lo stimolo
target e la risposta del soggetto rappresenta la variabile dipendente
dell’esperimento. Mentre la variabile indipendente è costituita dalla relazione
concettuale che esiste tra stimolo prime e stimolo target. I risultati rivelano che i
tempi di reazione sono più brevi quando gli stimoli target sono preceduti da stimoli
prime concettualmente associati (osso – cane sono concettualmente associati),
mentre al contrario sono più lunghi se non sussiste nessun tipo di relazione
concettuale tra le immagini.
evento 1
evento 2
105
106
TEMPO
Però per capire se effettivamente lo stimolo prime non era stato assimilato in forma
cosciente venne proposto un test di riconoscimento: dove appunto al soggetto
veniva nuovamente esposta l’intera sequenza di stimoli che aveva visto durante
l’esperimento e gli veniva richiesto di identificare gli stimoli prime, e dato che i
partecipanti non riuscivano a riconoscerli possiamo affermare che gli esperimenti di
priming subliminale costituiscono la dimostrazione oggettiva che il nostro
comportamento viene involontariamente influenzato da stimoli di cui non siamo
coscienti.
Per poter spiegare questo effetto gli psicologi hanno preso in esame quelle funzioni
della memoria che sono coinvolte nell’elaborazione di quelli che sono gli stimoli visivi
e in questo caso sono tre:
Apprendimento
Per parlare di apprendimento è necessario fare riferimento ad un approccio teorico
chiamato comportamentismo il quale definisce l’apprendimento come l’insieme dei
cambiamenti osservabili nel comportamento di un individuo in seguito a dei
cambiamenti prodotti dalle circostanze in cui l’individuo si trova.
La teoria comportamentista si basa sul presupposto che solo ciò che è osservabile
può essere studiato, e di conseguenza solo il comportamento esterno (osservabile) di
un individuo può essere studiato, mentre il contenuto della sua mente e cioè i suoi
processi cognitivi non possono essere oggetto di indagine scientifica.
Il condizionamento classico
Le teorie comportamentiste nel condizionamento classico definiscono
l’apprendimento come la comparsa di un nuovo comportamento, semplice o
complesso che sia, che prima non esisteva e che poi persiste nel tempo.
Secondo il condizionamento classico le due condizioni necessarie affinché si crei
un’associazione tra stimolo e risposta sono la contiguità temporale tra le variabili e il
fatto che la connessione tra queste variabili venga ripetuta un numero sufficiente di
volte affinchè si mantenga nel tempo.
A riprova di ciò, Pavlov, condusse degli esperimenti studiando i processi digestivi di
cane, e cioè misurò la salivazione del cane in risposta a vari tipi di stimolazione
gustativa. Cosi scoprì che in realtà l’animale iniziava a salivare già alla sola vista dello
sperimentatore e quindi anche prima di ricevere la polvere di carne sulla lingua. A
questo punto si chiese, quindi, se fosse la vista dello sperimentatore a indurre la
107
108
salivazione. Per capirlo Pavlov decise di presentare al cane in maniera simultanea uno
stimolo neutro (SN), in questo caso si tratta di uno stimolo sonoro (il suono di un
campanello) insieme ad uno stimolo incondizionato (SI) che produceva appunto la
salivazione in maniera spontanea (la polvere di carne). La salivazione così indotta
viene chiamata risposta incondizionata (RI).
Lo scopo dell’esperimento era stabilire se, dopo un certo numero di volte che i due
stimoli venivano presentati simultaneamente, l’animale iniziasse a salivare anche con
il solo suono del campanello e in effetti, questo si verificò. Tale fenomeno fu spiegato
da Pavlov grazie allo stabilirsi di un’associazione tra lo stimolo (inizialmente neutro) e
la risposta di salivazione (inizialmente non condizionata). Tale procedura di
associazione, è stata poi definita di condizionamento.
Il condizionamento classico si è rivelato importante in quanto le connessioni tra
stimolo e risposta sono risultate poi spesso regolari nel tempo. Distinguiamo infatti
tre tipi di processi:
❖ il primo è il processo di rafforzamento, ovvero maggiore è la frequenza con cui
accoppiamo uno stimolo condizionato, stimolo incondizionato e risposta
condizionata, maggiore è la regolarità con cui si verificano le risposte
condizionate.
❖ Se invece lo stimolo incondizionato viene omesso ripetutamente, allora la
risposta condizionata tende a sparire (processo di estinzione).
❖ Però, l’estinzione non comporta la totale perdita di una risposta condizionata,
in quanto questa tenderà, dopo un certo periodo di tempo, a riapparire
spontaneamente (processo di recupero spontaneo).
Condizionamento classico e risposte emotive. Garsia.
il condizionamento classico inoltre permette di spiegare anche alcune manifestazioni
emotive nell’uomo. A tal proposito è noto l’esperimento del bambino Albert, il quale
cerca di afferrare un topolino bianco senza mostrare, inizialmente paura. Quando
però il bambino veniva spaventato ripetutamente da un forte rumore mentre giocava
col topolino (la coppia stimolo-rumore veniva ripetuta), Albert iniziava a manifestare
paura alla sola vista del topo bianco anche senza rumore. Secondo la teoria
comportamentista, molte forme fobiche nell’uomo nascono per mezzo di meccanismi
automatici come questo.
I riflessi condizionati hanno come peculiarità un forte valore adattivo. Un esempio è il
così detto effetto Garsia, cioè il processo attraverso il quale un individuo acquisisce
una certa avversione nei confronti di undato sapore. In questo caso è sufficiente
assumere del cibo avvelenato perché si instauri un’immediata avversione con esso, in
108
109
Il principio base è comunque ancora lo stabilirsi di una connessione tra stimolo (la
leva) e risposta (agire sulla leva) ma la connessione si stabilisce solo se si stabilisce
anche un’associazione tra la risposta e l’effetto che da essa consegue.
Skinner invece dedicò i suoi studi nei confronti di quei comportamenti che sono
messi in atto pur non essendo condizionati da alcuno stimolo. (Esempio: quando
suona il campanello e vai ad aprire la porta, non metti in atto un comportamento
(aprire la porta) che è condizionato allo stimolo (il suono del campanello), perché
puoi o non puoi aprire la porta. Il suono del campanello è considerato stimolo
discriminativo: é quel qualcosa presente nell'ambiente che ci "suggerisce" che se ci
comportiamo in un certo modo possiamo produrre un effetto attraverso un
109
110
111
112
sviluppo del linguaggio possiede delle caratteristiche che non possono essere
spiegate utilizzando la teoria del comportamento operante. Una di tali caratteristiche
è l’uso di ipercorrettismi, ossia l’uso di forme errate che però seguono l’uso una
regola di base non arbitraria (esempio: la coniugazione dei verbi irregolari al
presente= dicete anziché dite, o al passato dicerono anziché dissero). Una seconda
caratteristica riguarda la possibilità di creare un numero infinito di frasi, che non sono
mai state incontrate in precedenza.
Gli studi sul condizionamento classico ed operante si limitano ad esaminare la
relazione tra ambiente e comportamento e quindi non spiegano quali siano i processi
responsabili dell’apprendimento.
Secondo le teorie meccanicistiche, nel condizionamento l’apprendimento avviene per
mezzo di una connessione che si stabilisce tra stimolo e risposta, una risposta
automatica che si manifesta come un riflesso ad uno stimolo. Le teorie cognitiviste,
invece, ritengono che l’apprendimento non si manifesta necessariamente nell’ambito
dei comportamenti osservabili, ma su quello delle rappresentazioni mentali. un
esempio la chiusura degli occhi non avviene in modo automatico, immediato e in
riflesso della mano che sta per colpirci, ma dalla rappresentazione mentale della
relazione tra la mano e quello che può accadere quando la mano colpisce.
L’apprendimento per segnali
Tolman (cognitivista) condusse degli esperimenti, e notò come un’animale
apprendeva nel momento in cui si creava una rappresentazione mentale di una certa
situazione la quale guidava poi l’azione. Questa forma di apprendimento viene
considerata come l’apprendimento di un’aspettativa. Ad esempio: l’animale capisce
che il cibo, si trova sempre in una determinata postazione, perché quello è il luogo in
cui l’ha sempre trovato, quindi se il cane si reca in quel luogo e il cibo non c’è mostra
sorpresa. La sorpresa è segno della non corrispondenza tra ciò che l’animale si
aspettava di trovare e ciò che ha effettivamente trovato. Esempi come questo ci
fanno capire che si deve creare una rappresentazione mentale della situazione, una
rappresentazione mentale del tipo “nel luogo A c’è l’oggetto X” e poi da questa
rappresentazione ne scaturisce l’azione.
questo tipo di apprendimento è definito apprendimento latente, ovvero un tipo di
apprendimento che attraverso l’esperienza ci permette di costruire nuove strutture
cognitive, come ad esempio una mappa mentale di un luogo nuovo. L’esperienza
quindi ci aiuta a creare una nuova struttura mentale che abbia sia informazioni
spaziali ma anche informazioni di diversa natura. Quindi secondo la teoria cognitivista
la nascita di un comportamento osservabile è dovuta principalmente all’attivazione di
processi di conoscenza che non sono direttamente visibili. Al comportamento
112
113
osservabile che indica che l’apprendimento è andato a buon fine, è necessario che ci
sia anche una modifica dei processi di conoscenza che non sono osservabili, ma che
sono invece responsabili di quel comportamento osservabile.
Secondo Rescorla nel condizionamento classico l’individuo deve prima ricevere
informazione affinché ci sia apprendimento. Di conseguenza, l’apprendimento non
può essere considerato come un semplice processo in cui il controllo di una risposta
viene passato da uno stimolo all’altro, ma un processo che richiede l’intervento di
processi cognitivi di acquisizione e rappresentazione delle conoscenze. Per sostenere
la sua ipotesi, Rescorla condusse esperimenti in cui dimostrò che un animale sviluppa
una risposta di paura ad uno stimolo neutro (suono) solo nel caso in cui apprenda che
quello stimolo predice, la somministrazione di una scossa elettrica (esperimento pag
184, libro psicologia generale).
I risultati: dimostrano che non è necessario che ci sia contiguità temporale tra stimolo
neutro e stimolo incondizionato (come nel condizionamento classico), e allo stesso
tempo non è rilevante il numero di volte in cui la scossa sia preceduta dal suono, e
che assenza di suono implichi in modo inequivocabile assenza di scossa. Dunque
l’esperimento misura che gli animali si creavano una rappresentazione della
associazione tra i due stimoli, ossia un’aspettativa.
RAGIONAMENTO.
Il ragionamento è stato definito come un’attività mentale che sottopone a delle
trasformazioni l’informazione data (ovvero un insieme di premesse) così da poter
giungere a delle conclusioni. Anche il letteratura è stata data una definizione a questo
termine e corrisponde alla facoltà del nostro sistema cognitivo di generare delle
nuove rappresentazioni a partire da altre che abbiamo già in memoria. Quindi
quando ragioniamo non facciamo altro che creare contenuti nuovi partendo da altri
già esistenti.
Quando parliamo di un tipo di ragionamento che prevede l’utilizzo di premesse per
poter giungere a delle conclusioni, le due modalità più importanti sono il
ragionamento deduttivo e quello induttivo.
L’esempio emblematico e soprattutto più conosciuto per quanto riguarda il
ragionamento deduttivo è sicuramente il sillogismo aristotelico, dove appunto
riscontriamo due premesse, la prima è universale, la seconda invece è particolare,
ed entrambe sono affermative: “tutti gli uomini sono mortali, Socrate è un uomo” e
la conclusione a questo punto sarà necessariamente vera, cioè che “Socrate è
mortale”.
113
114
Il ragionamento deduttivo quindi parte da due o più premesse generali, quindi parte
dal generale, per giungere poi a delle conclusioni che sono particolari ma vere.
Quindi se le premesse sono vere e la modalità inferenziale, (cioè la modalità di
raggiungimento della conclusione a partire dalle premesse) è corretta dal punto di
vista formale allora le conclusioni sono necessariamente vere.
Al contrario invece il ragionamento induttivo segue un percorso opposto, e cioè
parte da premesse particolari per raggiungere a conclusioni generali. Quindi se la
premessa è ” tutti i cigni che io ho incontrato nella mia vita sono bianchi, raggiungo
induttivamente la conclusione che tutti i cigni sono bianchi”. Quindi in questo caso si
parte dal particolare e si arriva a conclusioni generali. Le conclusioni tratte dal
ragionamento induttivo non hanno il carattere di necessità delle conclusioni del
ragionamento deduttivo, ma hanno un carattere probabilistico e fallibile, il fatto che
io ho incontrato soltanto cigni bianchi non significa necessariamente che tutti i cigni
siano bianchi, probabilmente innalza la probabilità che questo sia vero.
114
115
che anche le loro converse sono vere, ovvero se nessun insetto è un mammifero, è
altrettanto vero che nessun mammifero è un insetto. Questa è la differenza con le
universali affermative.
3. Particolari affermative del tipo “Alcuni A sono B”, quindi “alcuni ragazzi sono
giocatori di calcio”. In questo caso rappresentando in termini insiemistici questo tipo
di proposizioni abbiamo un disegno con due insiemi che hanno un’intersezione, ci
sono dei giovani che non sono calciatori, ci sono dei calciatori che non sono giovani
e c’è l’intersezione formata appunto dai calciatori giovani. Anche in questo caso le
converse sono vere.
4. Particolari negative, del tipo “Alcuni A non sono B”, anche in questo caso
abbiamo un’intersezione cioè ci sono degli A dei B e degli A che non sono B. In
questo caso le converse non sono necessariamente vere. “Alcuni Studenti della 4B
non hanno gli occhi azzurri” questo non implica che alcuni studenti abbiano
necessariamente gli occhi azzurri. Quindi mente le universali negative e le
particolari affermative ammettono le converse le universali positive e particolari
negative non ammettono le converse.
Fonti di errore nel ragionamento sillogistico
Le fallace deduttive sono degli errori che si verificano durante il processo di
ragionamento e che sono causate da una premessa sbagliata, infatti uno dei motivi
per cui il ragionamento deduttivo risulta essere cosi complesso è proprio il fatto che
le premesse si prestano ad interpretazioni sempre diverse. In effetti il ragionamento
logico richiede di utilizzare solo quelle inferenze che sono coerenti con tutte le
possibili interpretazioni di un insieme di premesse, ma nella realtà, i nostri
ragionamenti, dipendono dalle interpretazioni soggettive e quindi dal modo in cui noi
individui codifichiamo tali premesse. Un’altra fonte di difficoltà nello svolgere
ragionamenti deduttivi, è rappresentata dalla difficoltà a distinguere validità e
veridicità di un sillogismo Quando dobbiamo giudicare la validità di un sillogismo, la
verità o la falsità di una premessa è del tutto irrilevante, la validità di un sillogismo
dipende soltanto dal fatto che la conclusione derivi necessariamente o meno dalle
premesse. Nonostante ciò noi abbiamo delle difficoltà a distinguerle. In questo modo,
può succedere che un sillogismo valido venga rigettato perché la sua conclusione non
viene considerata empiricamente vera, oppure che un sillogismo non valido venga
accettato perché la sua conclusione viene considerata empiricamente vera. Questo
effetto potrebbe essere chiamato “l’intrusione delle conoscenze che possediamo a
proposito del mondo” all’interno del processo di ragionamento.
115
116
Effetto atmosfera
Nel problema relativo all’indistinzione tra validità e veridicità, si avverte il fatto che il
contenuto reale degli argomenti interferisce con la capacità di ragionamento
astratta. Vale a dire se la conclusione che noi traiamo è una conclusione plausibile e
vera dal punto di vista del suo significato questo può portare a delle distorsioni del
ragionamento, cioè può portare a trarre delle conclusioni che sono di fatto vere ma
che non conseguono necessariamente dalle premesse. Vi è quello che chiamiamo
effetto atmosfera (EA) nelle prestazioni di ragionamento che traggono delle
conclusioni non necessariamente vere. Per effetto atmosfera intendiamo il fatto che
le premesse creano un atmosfera, un’aura di plausibilità o implausibilità che
condiziona il modo in cui noi raggiungiamo le conclusioni. C’è quindi una tendenza a
volte ad accettare un sillogismo che è plausibile ma non è valido, cioè non risulta
dall’applicazione corretta delle regole formali. Esempio: (in termini astratti le
premesse sono del tipo “alcuni A sono B” “alcuni B sono C”), se rivestissimo di
contenuto queste proposizioni astratte con “alcuni studenti sono maschi, alcuni
maschi sono biondi”. Se è vero che alcuni studenti sono maschi e che se alcune
persone di sesso maschile sono bionde allora è necessariamente vero che alcuni
studenti sono biondi. Il ragionamento non è formalmente corretto, ma interviene in
casi come questo l’effetto atmosfera, è plausibile trarre la conclusione che se la
prima e la seconda premessa sono vere è altrettanto verosimile, plausibile e vero
che la conclusione sia corretta, in questo caso parliamo di effetto atmosfera
POSITIVO. Il ragionamento non è formalmente corretto perché se cambiamo il
contenuto delle premesse raggiungiamo ad una conclusione assurda. Esempio:
“alcuni vermi sono viventi”,”alcuni viventi miagolano” la conclusione sarebbe che
alcuni vermi miagolano. Quindi ci rendiamo conto che il ragionamento non è
formalmente corretto, dato che si raggiungono conclusioni assurde. Oltre all’effetto
atmosfera positivo, esiste anche un effetto atmosfera che però si applica a
proposizioni che sono di tipo negativo e che quindi indirizzano sempre verso una
conclusione formalmente scorretta ma dal punto di vista del valore di verità è
plausibile o addirittura vera. Prendiamo in questo caso due universali una negativa e
l’altra affermativa, Nessun A è B tutti i B sono C quindi applicando una sorta di
proprietà transitiva potremmo trarre la conclusione che nessun A è C. esempio:
“Nessun cane è un uccello” “tutti gli uccelli sono alati” e quindi ”nessun cane è
alato”, anche in questo caso con proposizioni di questo tipo la conclusione sembra
scaturire correttamente dalle premesse e il risultato sembra essere che la
conclusione sia corretta, quindi gioca un effetto atmosfera negativo, ma cambiando
i contenuti delle premesse capiamo che il ragionamento è formalmente scorretto, ce
ne accorgiamo perché la conclusione risulterà assurda.
116
117
balene sono in via d’estinzione”. Queste due premesse sono quelle che mettono un
po’ in difficltà il modello in quanto sviluppano più modelli mentali diversi tra loro. Il
primo in cui abbiamo l’insieme dei cammelli, che viene separato dall’insieme delle
balene per mezzo di un segmento che li separa per differenziarli, e poi abbiamo la
seconda premessa “tutte le balene sono in via di estinzione” permette di aggiungere
un’altra informazione al modello mentale. Però affinchè tale modello sia corretto e
completo sarebbe necessario aggiungere anche in questo caso la parentesi quadra,
ma dato che non tutti sono in grado di costruire un modello mentale di questo tipo
la maggior parte delle persone conclude che i cammelli non sono animali in via
d’estinzione. Se invece la parentesi quadra viene correttamente aggiunta e quindi
non escludiamo che esistono anche altri animali compresi i cammelli che sono in via
di estinzione possiamo ricavare due conclusioni possibili: cioè che alcuni animali in
via di estinzione non sono cammelli, oppure che alcuni animali in via di estinzione
non sono balene.
Distorsioni dei modelli mentali e Fenomeno della pseudodiagnosticità (ananas)
Secondo la teoria dei modelli mentali, proposta dallo psicologo Johnson Laird, il
ragionamento comune non dipende dall’applicazione di regole formali, ma dalla
costruzione e manipolazione delle rappresentazioni (modelli) mentali delle possibilità
descritte dalle premesse. Secondo questa teoria, ragioni di economia cognitiva
portano le persone a rappresentare in modo esplicito solo ciò che è vero e non ciò
che è falso. I modelli mentali sono degli strumenti complessi, non si riducono a dei
rapporti biunivoci tra premessa e conclusioni, possono essere formati da molte
premesse, ma il rapporto tra premesse e conclusioni è reso fuorviante dal fatto che
questi modelli mentali sono incompleti, cioè sono dei modelli che non
rappresentano tutte le informazioni, ma solo una parte di esse. Questo è
particolarmente chiaro se prendiamo in considerazione un altro fenomeno che
appartiene alla fenomenologia dei modelli mentali, il fenomeno della
pseudodiagnosticità.
Il fenomeno della pseudodiagnosticità sta a significare che noi a volte facciamo
delle diagnosi di una situazione però trascuriamo alcune delle informazioni che
sarebbero utili per formulare tale diagnosi, quindi tendiamo a fossilizzarci soltanto
su una parte del problema, tralasciandone altre, perdendo la possibilità di trarre una
conclusione. Per studiare il fenomeno della pseudodiagnosticità sono state utilizzate
le due modalità di ragionamento condizionale, è il tipo di ragionamento che
utilizziamo più spesso nella nostra quotidianità, e forse il primo che incontriamo da
bambini, in quanto è il ragionamento del tipo “se” “allora”, “se A allora B”, cioè il
ragionamento dove abbiamo un antecedente e un conseguente, se l’antecedente è
118
119
vero il conseguente è vero. È un ragionamento che può assumere due forme diverse
ricavate dal latino, il modus ponens e il modus tollens. Il primo si basa
sull’affermazione dell’antecedente ed è caratterizzo da due premesse e una
conclusione necessaria, le due premesse sono: se A allora B, A, quindi B. se
riempiamo di contenuti se piove (A) allora la strada bagnata (B), piove (A), quindi la
strada è bagnata (B). il secondo invece, il modus tollens, si basa sulla negazione del
conseguente e anche in questo caso vi è una conclusione obbligatoria, la prima
premessa è sempre se A allora B, se piove la strada è bagnata, la seconda premessa
però è la negazione del conseguente, cioè NON B, la strada non è bagnata, allora
NON A, quindi non piove. Anche se da quanto abbiamo detto non sembra in realtà
modus tollens è tipo di ragionamento più difficile in quanto è molto più semplice per
noi individui trarre una conclusione basandoci sulla verità di una premessa piuttosto
che sulla falsità di una premessa. Ne scaturisce il principio di verità, ovvero quando
le premesse sono tante, noi dobbiamo trattenere nella memoria di lavoro tutte le
informazioni e quindi dato che la memoria di lavoro è una memoria limitata noi
tendiamo ad alleggerirla automaticamente trattenendo ciò che è vero ed
escludendo ciò che è falso. A differenza del modus ponens dove abbiamo la verità
dell’antecedente, nel modus tollens invece dobbiamo rappresentarci la falsità del
conseguente che è un’informazione più difficile da ricavare in quanto non è
immediata alla nostra memoria di lavoro.
Quindi, secondo la teoria dei modelli mentali, il ragionamento delle persone non
esperte dipende dal modo in cui vengono rappresentate e interpretate le premesse.
facciamo un esempio:
un ragazzo dice: “se il presidente è un corruttore, allora è pazzo”. Una ragazza invece
dice: “se il presidente è un ladro, allora è pazzo”. Sappiamo che uno dei due dice la
verità e l’altro no, e da queste affermazioni proviamo a trarre una conclusione. Sulla
La maggior parte delle persone conclude che il presidente è pazzo, in quanto è l’unica
info che hanno in comune entrambi i modelli. Questa però, in realtà, non è una
conclusione logicamente valida in quanto, se il ragazzo ha detto il vero, e la ragazza
ha detto il falso, il presidente è un corruttore, ma non è pazzo. Però se al contrario la
ragazza ha detto il vero, e il ragazzo ha detto il falso, allora il presidente è un ladro ma
non è un pazzo. Quindi la conclusione in entrambi i casi sarà che il presidente o è un
corruttore oppure un ladro, ma di certo non è un pazzo. Quindi, dalla
rappresentazione incompleta di due condizionali, noi tendiamo a trarre una
conclusione che sembra ovvia, ma che in realtà è solo un’illusione.
119
120
carta ha una vocale sul lato allora ha un numero dispari sull’altro”. In generale
dobbiamo girare le carte con i numeri dispari per falsificare la regola, mentre i
soggetti mostrano una tendenza alla conferma. Questo è un esempio di
ragionamento condizionale che richiede l’uso di proposizioni condizionali che hanno
la forma “se… allora” e che sono costituite da un precedente da un conseguente.
L’antecedente segue il termine “se”, il conseguente segue il termine “allora”.
Una versione più realistica di questo problema è molto più facile da risolvere. Infatti i
soggetti giungono a conclusioni diverse quando devono risolvere una versione
astratta o una versione con credo dello stesso problema logico (effetto di contenuto).
Secondo Cosmides l’ipotesi che gli individui ragionino in base alle regole di un unico
sistema logico non è molto verosimile e ha rivelato che le prestazioni dei soggetti nei
problemi logici sono fortemente influenzate dal contesto, e che i soggetti usano
diverse procedure inferenziale per risolvere i compiti diversi e questo indica che non
vi è un singolo processo psicologico soggiacente ai processi del ragionamento.
Cosmides propone una teoria evoluzionista del ragionamento, attraverso la teoria del
contratto sociale, secondo cui la specie umana possiede una capacità innata di
ragionare sui contratti sociali, cioè sulle regole che stabiliscono scambi di benefici tra
individui. Quando gli scambi non sono simultanei alcuni individui possono
imbrogliare, tenendosi il beneficio ricevuto senza restituirlo successivamente. Gli
individui che non sono in grado di stabilire se sono stati imbrogliati hanno
ovviamente poche possibilità di sopravvivere. Bisogna quindi supporre che
l’evoluzione naturale abbia dotato la mente umana di un modulo che permette di
scoprire gli eventuali imbroglioni. La selezione naturale dunque, tenderebbe a
produrre procedure inferenziali per risolvere importanti e ricorrenti problemi
adattivi. (esperimento pagina 316, libro processi cognitivi).
La tavola di verità
Una tavola di verità costituisce un modo per rappresentare le varie combinazioni dei
costituenti (P, Q) delle proposizioni logiche. Il valore di verità di P può essere Vero (V)
o Falso (F), così come il valore di verità di Q.
• se entrambi p e q sono veri, allora la proposizione condizionale “Se p allora q”
è vera.
• se p è vero ma q è falso, allora la proposizione “se p allora q” è falsa.
• se p è falso ma q è vero, allora la proposizione “se p allora q” é vera.
• se p e q sono entrambe false la proposizione “se p allora q” rimane ancora
vera.
121
122
Ragionamento ricorsivo
Un processo che fa riferimento a se stessi viene detto ricorsiva. La ritorsione può
avere effetti interessanti su ragionamento ma talvolta produce forme maldestre di
pensiero e l’esempio più famoso è il paradosso del bugiardo: Epimenide di Creta
affermò che tutti cretesi sono dei bugiardi, e questa affermazione crea un circolo
vizioso dal quale non si può uscire. É un ragionamento improduttivo e fa riferimento
a sé stesso. Per uscire da questo circolo di pensiero improduttivo é necessario
spostarsi ad un livello di pensiero più generale: il pensatore deve essere in grado di
uscire dal sistema, essere in grado di ragionare al di fuori del sistema e non usare le
regole fornite all’interno del sistema. Prima di risolvere un problema, é importante
capire in che modo individui riescono a pensare a quelle che sono le proprietà di un
problema, così da potersi rendere conto del fatto che alcuni problemi sono insolubili.
(Storiella a pag 318, libro processi cognitivi).
Sistemi di deduzione di naturale
Rips ha analizzato i protocolli di verbalizzazione simultanea forniti da un gruppo di
studenti universitari a cui è stato assegnato il compito di risolvere il problema dei
cavalieri e dei furfanti. I risultati confermano che i soggetti si servivano di regole e di
deduzione, le quali sono parte di un sistema di deduzione naturale che fa uso di
proposizioni immagazzinate nella memoria di lavoro. Le proposizioni sono costruite
per mezzo di connettivi come “se… allora, e, oppure, non”. Il sistema fa uso di regole
di deduzione per trarre delle conclusioni a partire da queste proposizioni. Quando
una proposizione é la conseguenza necessaria di un’altra proposizione, si può dire
che la prima proposizione implichi la seconda. Dunque, un sistema di deduzione è un
insieme di regole inferenziali di base ed è costituito dagli elementari principi
inferenziali. Secondo Rips, I soggetti traggono delle inferenze e giungono alla
conclusione sulla base di queste e non tramite la costruzione di modelli mentali come
aveva ipotizzato Johnson Laird. Rips ha inoltre dimostrato che il numero di errori
compiuti dei soggetti e il tempo impiegato per risolvere il problema dei cavalieri di
furfanti dipendono dal numero di inferenze necessarie.
Condizionale descrittivo: Chiede un enunciato che descrive uno stato di cose, come:
“se c’è una A, allora c’è un 2”. Nella maggior parte dei contesti tale enunciato verrà
interpretato come l’indicazione che, in tutti i casi in cui vi sia una A, ci sarà anche un 2
(il problema delle carte di Wason). Un enunciato condizionale però può essere
interpretato anche in modo diverso: condizionale deontico= ovvero un enunciato che
si riferisce a ciò che si deve o si può fare, come “se fai l’azione P, devi soddisfare la
condizione Q”. Nella maggior parte dei contesti tale enunciato verrà interpretato
come l’indicazione di ciò che è vietato, cioè “fare l’azione P senza soddisfare la
122
123
(CACCA) INSAIG
Il contributo più produttivo allo studio dell’insight è stato dato dagli psicologi della
Gestalt, i quali per un certo periodo ne hanno fatto fulcro della loro ricerca. Per
spiegare questo concetto occorre prendere in considerazione un esempio che
Wertheimer ci mostra per esemplificare al meglio il concetto di “pensiero
produttivo”. A tal proposito viene richiesto di immaginare una finestra circolare
posta su di un altare la quale doveva essere decorata con dell’oro. L’area che doveva
essere ricoperta d’oro era già stata circoscritta da due linee verticali parallele e
tangenti al cerchio contenute in due semicerchi. La domanda posta ai soggetti
riguardava l’area dello spazio che esisteva fra il cerchio e le linee. I soggetti
cercarono di risolvere il problema in maniera meccanica come fosse un vero e
proprio problema di geometria, quindi cominciarono con il trovare l’area della
finestra attraverso la formula dell’area di un cerchio e risultò essere facile per loro
anche trovare l’area dei semicerchi. Ma non era questo il compito a loro richiesto.
Accadde quindi che un bambino senza avere alcuna nozione di geometria percorse
un ragionamento diverso, e cioè si accorse che i semicerchi nella parte superiore e
inferiore potevano essere inseriti perfettamente all'interno della finestra, e quindi
capì che l’area richiesta non era altro che una semplice area di un quadrato. Questo
dimostra che era proprio l’istruzione dei partecipanti più istruiti ad occultare la loro
capacità di vedere quello che invece era ovvio per una persona meno istruita.
Questo spiega il perché Wertheimer distingue due tipi di pensiero:
il primo è il Pensiero strutturalmente cieco: ovvero quel tipo di pensiero che noi
individui utilizziamo in modo meccanico sfruttando processi di pensiero che
124
125
Quindi ciò che vuole l’approccio produttivo non è altro che una completa
ricostruzione della situazione per poter procedere con la soluzione di quello
specifico problema. Gli psicologi della gestalt, invece, ritenevano che per quanto
concerne il pensiero strutturalmente cieco, che difficilmente si adatta a situazioni
nuove, la soluzione poteva essere trovata solo se accompagnate da un’insight.
Insight: letteralmente vuol dire visione interna. Rappresenta la consapevolezza
improvvisa di ciò che deve essere fatto per risolvere un problema. Percezione
improvvisa, netta ed immediata di fatti esterni ed interni. È la capacità di resettare i
processi di pensiero correnti fino a quel punto ed effettuare una vera e propria
ristrutturazione della situazione che porta poi alla soluzione del problema.
Questi particolari approcci possono essere applicati anche a quelle che sono
semplicissime situazioni della nostra vita quotidiana. Wertheimer studiò in
particolar modo i sillogismi in cui la prima premessa descriveva un fatto particolare
mentre l’altra premessa descriveva una verità generale. Ad esempio:
Gli insight non sono necessariamente piacevoli, infatti possono fare emergere come
in questo caso verità dolorose. E secondo Wertheimer questo è uno dei motivi per
cui spesso evitiamo di pensare in maniera produttiva.
differenziandoli tra quelli che ritenevano di poter risolvere da quelli che invece
ritenevano di non esserne capaci. Dopo aver fatto questa classificazione, i soggetti
cercavano di risolvere i problemi. Ciò che si verificò è che quello che i soggetti
avevano stimato si verificò nel caso dei problemi senza insight mentre nei problemi
con insight i risultati furono piuttosto imprevedibili. La spiegazione è che nel primo
caso i soggetti prevedono la soluzione del problema in quanto sono consapevoli
delle procedure da utilizzare in base alle loro conoscenze mentre questo non è
possibile che accada nel secondo caso in quanto il problema viene risolto grazie
all’improvviso emergere di conoscenze che i soggetti non sanno nemmeno di avere.
La sensazione di conoscenza e quella di vicinanza sono esempi di quella che
definiamo metacognizione, ovvero la consapevolezza che abbiamo del
funzionamento dei nostri processi cognitivi. Successivamente Lockhart e altri si
soffermarono su un ulteriore aspetto già messo in luce da Wertheimer, e cioè che la
maggiore difficoltà nei problemi con insight era proprio l’incapacità del soggetto di
rendersi conto in quel momento che la soluzione potesse essere scovata grazie a
qualcosa che già sa. Ciò che notarono questi studiosi è che la cernita delle
informazioni per risolvere i problemi era una scelta molto soggettiva e si
verificavano grandi differenze da soggetto a soggetto, e soltanto pochi erano capaci
di individuare le informazioni davvero pertinenti al problema, quelle essenziali.
Questa capacità è stata definita con il termine sagacia, ovvero la facoltà di vedere
dentro una situazione e differenziare gli aspetti importanti da quelli irrilevanti.
L’interesse di Lockhart fu proprio quello di creare una tecnica in grado di sviluppare
questa capacità nei soggetti. Quindi nei suoi esperimenti venivano presentati dei
problemi di insight sotto due diverse forme, ad un gruppo in forma dichiarativa e ad
un altro sotto forma di indovinelli. I risultati rivelavano che i problemi presentati al
gruppo sottoforma di indovinelli venivano risolti in forma maggiore degli altri in
quanto portavano i soggetti ad individuare l'informazione rilevante in misura
maggiore del formato dichiarativo.
5. Rigidità e atteggiamento mentale passivo
Gli esperimenti condotti da Luchins si possono annoverare tra le dimostrazioni più interessanti del
fatto che la ripetizione di un particolare processo di soluzione possa rendere un individuo incapace
di rendersi conto dell'esistenza di processi di soluzione alternativi. Una delle dimostrazioni fornite
da Luchins è quella dei problemi di travasi di liquidi. Immaginiamo di avere a disposizione tre
recipienti vuoti, A, B e C e una scorta d'acqua. Il nostro compito è quello di usare i tre recipienti
per ottenere un dato volume d'acqua. Negli esperimenti di Luchins e Luchins, ai soggetti veniva
fornita una serie di problemi che potevano essere tutti risolti con la stessa formula. B > A > 2C.
Dopo avere risolto cinque problemi usando la stessa procedura, i soggetti sviluppavano un set, o
Einstellung ("impostazione soggettiva"). Un set è un modo specifico di rispondere ad una data
situazione. Il fatto che i soggetti negli esperimenti di Luchins rispondessero in modo "meccanico"
128
129
era dimostrato dalle loro risposte al sesto problema. I soggetti non si rendevano conto che la
formula A > C fosse sufficiente a causa dell'Einstellung sviluppato nelle prove precedenti. L'effetto
Einstellung è ben fondato: in uno degli esperimenti, alcuni studenti venivano istruiti a risolvere i
problemi il più velocemente possibile. Dopo che i bambini avevano risolto una serie di problemi
usando lo stesso metodo per ciascuno di essi, veniva detto loro che alcuni dei problemi potevano
essere risolti per mezzo di un metodo più semplice e veniva chiesto loro di trovarlo. Nonostante
queste istruzioni, i bambini trovavano difficile scoprire una strategia nuova e solitamente
continuavano a risolvere i problemi per mezzo della procedura più complicata. I bambini quindi
risentivano dello stress prodotto dalla situazione. Quando i bambini vengono sollecitati ad operare
velocemente, essi non sono in grado di comportarsi in maniera flessibile e di evitare di rispondere
in modo rigido, meccanico. Langer ha suggerito che la distinzione tra flessibilità e rigidità dei
procedimenti di soluzione di un problema possa essere concettualizzata nei termini del concetto di
atteggiamento mentale attivo/passivo (mindfulness/mindlessness). Le persone che manifestano
l'Einstellung hanno un atteggiamento mentale passivo, cioè agiscono come se le situazione avesse
una sola interpretazione possibile. Avere una atteggiamento mentale attivo, invece, significa
impegnarsi nella ricerca di nuove possibilità. Langer e Piper hanno avanzato l'ipotesi che
l'atteggiamento passivo nella soluzione dei problemi potrebbe essere contrastato incoraggiando i
soggetti a pensare in termini relativi anziché assoluti. Per esempio, una descrizione che metta in
evidenza il fatto che gli oggetti possono avere usi alternativi potrebbe favorire un atteggiamento
mentale attivo. Langer e Piper hanno eseguito un esperimento in cui venivano mostrati ai soggetti
tre oggetti. A metà dei soggetti gli oggetti venivano descritti in maniera non-condizionale, ovvero
veniva presentata loro una definizione univoca per ciascun oggetto. Per esempio: "Questo
potrebbe essere un giocattolo di gomma per cani". Lo sperimentatore poi fingeva di avere bisogno
di una gomma per cancellare e chiedeva ai soggetti di aiutarlo. La risposta che indicava un
atteggiamento mentale attivo era che il giocattolo di gomma per cani poteva essere usato anche
come gomma per cancellare. La comprensione condizionale permette infatti agli individui di
evitare di rispondere meccanicamente. Anche se le descrizioni non-condizionali costituiscono un
modo economico per categorizzare gli oggetti, sembra che questo beneficio sia ottenuto al prezzo
di rendere gli individui incapaci di rendersi conto di nuove possibilità. Gick e McGarry hanno
sottolineato come la capacità di trasferire ciò che si è appreso in una situazione a un'altra
situazione sia legata all'aver fatto errori nella prima situazione. L'incapacità di risolvere il primo
problema di una serie portava a un maggior numero di soluzioni nel caso di un secondo, analogo
problema.
una grande differenza tra lo stato iniziale e lo stato meta. Questa è in effetti la
definizione stessa di problema: trovarsi in una data situazione e cercare di
raggiungere un'altra situazione (lo stato meta). Le procedure usate dal GPS per
ridurre le differenze tra lo stato attuale del problema e lo stato meta vanno sotto il
nome di analisi mezzi-fini (means-end analysis). Affinché il processo di soluzione
possa precedere è necessario individuare una serie di sottoscopi. Una volta
raggiunto un sottoscopo a partire dallo stato attuale, la differenza tra quest'ultimo e
lo stato meta è stata in parte ridotta. A questo punto, un altro scopo può essere
formulato, se necessario, e il raggiungimento di questo sottoscopo ridurrà
ulteriormente la distanza tra lo stato attuale e lo stato meta. Quando analizza un
problema il GPS crea una pila di scopi (goal stack). Lo stato meta è l'ultimo elemento
della pila, e i vari sottoscopi sono sovrapposti ad esso nell'ordine inverso a quello in
cui devono essere raggiunti. Questa è una procedura di soluzione più generale
rispetto a quella necessaria per risolvere il problema della torre di Hanoi. Simon ha
sostenuto che il GPS rappresenta una procedura generale per la soluzione di
problemi che può essere usata per risolvere problemi specifici. Il GPS è costituito da
una serie molto complessa di regole e di procedure applicabili ad una vasta gamma
di problemi.
6.3 I protocolli verbali nello studio della soluzione di problemi
Uno degli obiettivi della ricerca di Newell, Simon e Shaw è stato quello di scrivere
programmi per calcolatore capaci di simulare le procedure usate dagli esseri umani
per la soluzione di problemi. Per studiare la soluzione di problemi nell'uomo è stata
spesso usata la tecnica dei protocolli verbali. Ai soggetti viene chiesto di riferire
tutto ciò che passa loro per la mente, ovvero di pensare ad alta voce (thinking
aloud). Questa tecnica è stata chiamata verbalizzazione simultanea di Ericsson e
Simon, in quanto i soggetti devono esprimere verbalmente l'informazione nel
momento in cui prestano attenzione ad essa. E' necessario distinguere questo tipo di
verbalizzazione dalla verbalizzazione retrospettiva che si riferisce alle interviste in
cui i soggetti descrivono i processi cognitivi che hanno avuto luogo in un momento
temporale precedente. La verbalizzazione simultanea fa affidamento sulla memoria
a breve termine mentre la verbalizzazione retrospettiva fa uso della memoria a
lungo termine. La descrizione verbale così ottenuta è chiamata protocollo. Questi
protocolli, nonostante le numerose omissioni che li caratterizzano, ci consentono di
ottenere una grande quantità di informazioni. Insieme alle osservazioni dirette delle
mosse effettuate dai soggetti, questi protocolli possono fornire allo sperimentatore
una descrizione ragionevolmente completa del processo di soluzione del problema.
Newell ha fornito una serie di raccomandazioni che devono essere seguite affinché
132
133
133
134
rappresentazione anche sulla linea numerica mentale, dove appunto le quantità più piccole
sono rappresentate a sinistra e quelle più grandi a destra. Un’altra prova ancora più
schiacciante proviene dallo studio di pazienti affetti da neglect. Chi soffre di questa patologia
ha un disturbo attentivo a sinistra dopo aver subito una lesione al lobo parietale destro.
Infatti se chiediamo a uno di questi pazienti di indicarci il punto centrale di una semplice
linea questi lo indicheranno più spostato verso destra. Il compito di bisezione numerica è
piuttosto simile a questo, infatti veniva richiesto quale fosse il numero di mezzo fra due
numeri indicati da un esaminatore. I pazienti commettevano, anche in questo caso, lo
stesso errore che si verificava sulla linea reale. Ad esempio, tra 11 e 19, la risposta dovrebbe
essere 15 ma i pazienti rispondevano 17 o 18, cioè spostano a destra il punto di mezzo. Il
fatto che i pazienti commettano errori molto simili in entrambi i casi è una prova
abbastanza esplicita a favore dell'esistenza della linea numerica mentale.
Subitizing = abilità non verbale innata. È presente fin dalla nascita e sembrerebbe
essere un processo specializzato nella percezione a livello visivo permettendo una
precisa discriminazione di quantità relativa ad un piccolo numero di elementi senza
avvalersi del conteggio.
Il confronto di grandezze numeriche
La capacità di scegliere il più grande tra due numeri è apparentemente uno dei
compiti numerici più semplici, tuttavia è considerata il criterio di base per stabilire se
un individuo comprende significato dei numeri. I pazienti con lesioni celebrali che
hanno difficoltà a risolvere questo semplice compito sono anche detti
profondamente acalculici, cioè falliscono in una vasta gamma di compiti numerici. Il
confronto di grandezza numerica può essere eseguito utilizzando come stimoli
numeri arabi, le parole-numero, o anche degli insiemi di punti. In quest’ultimo caso la
grandezza dello stimolo può essere direttamente percepita. sono stati condotti degli
esperimenti sul confronto di grandezze numeriche e dall’analisi dei tempi di risposte
e degli errori si evince che le risposte sono tanto più rapide e più accurate quanto
maggiore è la differenza tra i due numeri. Questo fenomeno, noto come effetto di
distanza viene interpretato come una dimostrazione del fatto che le discriminazioni
tra gli elementi numerici sono tanto più facili quanto più le quantità da confrontare
sono distanti sulla linea numerica mentale.
Inoltre, i risultati ottenuti dimostrano l’esistenza del cosiddetto effetto di grandezza:
a parità di distanza tra i numeri da comparare, e risposte rallentano con l’aumentare
della grandezza dei numeri. Il compito di confronto di grandezze numeriche essere
utilizzato anche con varie specie di animali questi studi mostrano di risultati
135
136
calcolo e nella matematica. Sono stati fatti degli studi sulle persone considerati
calcolatori prodigio. A volte questi individui sono dei grandi matematici, ma in altri
casi possono essere degli idiots savants, individui con un’intelligenza molto inferiore
alla norma che sono però in grado, ad esempio, di riconoscere in pochi secondi se un
numero di cinque cifre è un numero primo ecc. in realtà, va ricordato che si è grandi
matematici sia i savants passano la maggior parte del loro tempo a fare matematica o
a giocare con i numeri o a risolvere i problemi. Sembra quindi che questa capacità
apparentemente sovraumana dipenda principalmente dalla grande quantità di
pratica.
non bisogna ignorare le basi biologiche, alcune persone soffrono infatti di discalculia
evolutiva, una difficoltà specifica con i numeri che si manifesta nei primi anni di
scuola. Difficoltà di questo tipo sembrano proprio dipendere da anomalie genetiche
che si riflettono sullo sviluppo del cervello.
Giudizio e decisione
Euristiche e biases cognitivi
Noi individui spesso utilizziamo le EURISTICHE, queste ultime sono delle regole
pratiche, che alcune volte ci permettono di ottenere i risultati desiderati ma che
invece possono essere ingannevoli in altre circostanze, in quanto si tratta di processi
che si discostano dai principi del ragionamento corretto, e per questo sono fonte di
errori. I BIASES COGNITIVI sono proprio gli errori causati dall’uso delle euristiche, ne
sono stati scoperti circa 30.
Parliamo di Statistica intuitiva
Quando proviamo a stimare la frequenza relativa di un evento. Per esempio, se
dobbiamo predire quante volte l’evento testa si verifica nel caso di 4 lanci di una
moneta non truccata. La credenza più comune è che quest’evento si verifichi 2 volte
su 4, quindi il 50% delle volte. Ma non dobbiamo sorprenderci se ciò non accade
dopo 4 lanci. In generale, nessun particolare campione di eventi rispecchia
fedelmente le proporzioni della popolazione totale.
LEGGE DEI GRANDI NUMERI-> specifica quanto spesso un evento si verifica a lungo
andare. Dato che a lungo andare le frequenze di teste e di croci devono essere
approssimativamente uguali, dopo una lunga sequenza di teste o croci siamo portati
ad aspettarci un cambiamento che compensi lo squilibrio precedente. Quello che
richiede la legge dei grandi numeri è che la proporzione di teste e croci approssimi a
0,5 in misura tanto maggiore quanto aumenta il numero di lanci. Le probabilità
associate all’esito di un particolare lancio sono indipendenti da quelle di qualunque
altro lancio. Credere altrimenti significa essere vittima di quelle che è chiamata
137
138
FALLACIA DEL GIOCATORE D’AZZARDO. In conclusione, è errato credere che sia più
probabile ottenere croce dopo una serie di lanci che hanno dato testa piuttosto che
dopo una sequenza diversa.
Euristica della rappresentatività e la legge dei piccoli numeri (fiore)
Noi individui spesso utilizziamo le EURISTICHE, queste ultime sono delle regole
pratiche, che alcune volte ci permettono di ottenere i risultati desiderati ma che
invece possono essere ingannevoli in altre circostanze, in quanto si tratta di processi
che si discostano dai principi del ragionamento corretto, e per questo sono fonte di
errori. Quando crediamo che un piccolo campione sia rappresentativo della
popolazione da cui è stato tratto facciamo affidamento a quella che Kahnemann e
Tversky definiscono come legge dei piccoli numeri. Questa credenza ci induce a fare
uso della cosiddetta euristica della rappresentatività. L’euristica della
rappresentatività ci porta a commettere diversi tipi di errori, tra cui quello che si
verifica quando noi individui dobbiamo scegliere se una sequenza di eventi è stata
prodotta in maniera casuale o meno. Alcune ricerche dimostrano che quando
lanciamo una moneta non truccata, una successione di lanci che da come risultati TT
CC TT CC, non appare del tutto casuale, poiché al suo interno viene riscontrato un
pattern ed è poco probabile che un pattern sia il risultato di un processo casuale e
non di una regola. Inoltre la Lopes ha fatto una distinzione tra quello che è un
processo casuale da uello che invece è considerato un prodotto casuale.
UN PROCESSO CASUALE: ad esempio può essere il lancio di una moneta non truccata,
può produrre delle sequenze che non sembrerebbero affatto casuali;
IL PRODOTTO DI UN PROCESSO CASUALE, può invece apparire non casuale. È
perfettamente possibile che il lancio di una moneta non truccata generi una
sequenza come quella descritta in precedenza, anche se la maggioranza degli
individui sicuramente non sceglierà questa particolare sequenza per rappresentare
un prodotto casuale.
Uno dei possibili effetti dell’euristica della rappresentatività-> fenomeno della mano
calda. Quando un giocatore realizza una serie di canestri senza commettere alcun
errore, gli spettatori percepiscono questo giocatore come un qualcuno che possiede
una mano calda, cioè realizzare una sequenza di canestri che difficilmente poteva
essere prodotta da un processo casuale. I dati presentati da alcuni ricercatori
indicavano che il 91% dei tifosi esaminati credeva che un giocatore abbia una
probabilità maggiore di realizzare un canestro se i suoi precedenti due o tre tiri sono
andati a segno. -> l’analisi non ha portato a questa conclusione. Questo significa che
la probabilità di fare canestro non è più grande dopo una serie di tiri riusciti di quanto
138
139
lo sia dopo una successione di tiri mancati. Se la probabilità di segnare è uguale a 0,5
per un giocatore, questa probabilità non aumenterà dopo che il giocatore ha segnato
un canestro e neppure diminuirà dopo che il giocatore ha mancato un canestro.
Perché avviene questo fenomeno? La credenza della mano calda potrebbe dipendere
dal fatto che le sequenze di eventi generate da un processo casuale non vengono
percepite in modo accurato. Nel caso della pallacanestro, per esempio, credere che
un giocatore abbia una mano calda può avere conseguenze negative. Questa
credenza potrebbe portare i giocatori a passare la palla ai giocatori con la “mano
calda” in misura maggiore rispetto agli altri giocatori. Dato che questo fenomeno non
esiste, questo non porta ad un miglioramento del rendimento della squadra.
L’ipotesi del flusso-> in certe circostanze i compiti sembrano svolgersi per loro propria
virtù, senza richiedere nessuno sforzo. L’esecuzione di un compito motorio
sufficientemente difficile con un livello di padronanza adeguatamente elevato può
creare le condizioni per il verificarsi del fenomeno del flusso.
(indagine sperimentale può fornire un contesto sufficientemente controllato perché il
comportamento in serie possa verificarsi).
Aggiustamento e ancoramento
Aggiustamento-> gli individui aggiustano le loro stime a seconda del numero iniziale
della sequenza. (la prima sequenza ha un numero iniziale maggiore rispetto alla
seconda , essa sembra produrre un risultato maggiore)
Ancoramento-> si può dire che le sequenze sono ancorate a valori diversi, e che
queste ancore creano l’illusione che le due moltiplicazioni producano risultati diversi.
In generale, quando vengono chieste delle stime di grandezza, i giudizi dei soggetti
tendono ad essere influenzati dal valore presentato inizialmente.
Euristica della disponibilità (nonno)
La disponibilità si riferisce alla facilità con la quale un item può venire in mente come
l’etichetta di una certa esperienza. E questo può influenzare le nostre decisioni. S
upponiamo che ci venga chiesto di giudicare la frequenza relativa con la quale lettere
diverse sono presenti nelle parole. La lettera R può essere la prima lettera di una
parola o la terza. È più probabile che una parola inizi con la lettera R o che sia la terza
lettera? I dati riportati indicano che il 69 % dei soggetti stimano che la lettera R sia
presente più spesso all’inizio di parola nella lingua inglese, in realtà è vero l’opposto.
Questo succede perché la rievocazione di parole come risata è più semplice rispetto
alla rievocazione di parole come corsista. Di conseguenza, le parole che iniziano con
139
140
140
141
Pensiero magico
Alcuni ricercatori hanno suggerito che almeno alcuni di questi Biases devono essere
considerati come il risultato della persistenza di un processo primitivo chiamato
pensiero magico. Il pensiero magico viene spesso ritenuto un esempio della
permanenza di aspetti infantili nella vita adulta. Molti psicologi dell’età evolutiva
credevano che i bambini e individui appartenenti a una cultura primitiva percepissero
gli oggetti in modo globale, o sincretico. Questo termine si riferisce al processo per
mezzo del quale gli eventi che appaiono anche superficialmente simili vengono
ritenuti collegati da una relazione causale. Benché il processo educativo consenta agli
individui di trascendere questa forma di pensiero, ci possono essere dei contesti
particolari all’interno dei quali essa può fare ancora sentire la sua presenza. La ricerca
classica sul pensiero magico è quella effettuata da Frazer. Egli credeva che le pratiche
magiche fossero regolate da due leggi. La prima è la legge della somiglianza: afferma
che le cose simili si influenzano reciprocamente. Cause ed effetti sono simili le une
agli altri. Le pratiche magiche basate sulla legge della somiglianza sono state
denominate magia omeopatica. Dal momento che le cose simili si influenzano
reciprocamente, gli eventi possono essere influenzati manipolando un oggetto simile
a quello che si desidera controllare.
La seconda legge è la legge del contagio: afferma che le cose che sono state una volta
in contatto le une con le altre continueranno in seguito ad esercitare un’influenza
reciproca. Le pratiche basate su questa legge costituiscono la magia del contagio. Ci
sono molti esempi di pensiero magico che noi potremmo considerare come
superstizione infantili. Nonostante questo, neppure noi siamo completamente
immuni da questa forma di pensiero. Una forma primitiva di pensiero come quella del
pensiero magico è ancora presente in noi in forma potenziale. Il nostro sviluppo non
è tale da averla superata completamente. Altri ricercatori hanno scoperto che ci sono
grandi differenze individuali nella suscettibilità al pensiero magico. Alcuni ricercatori
hanno notato il fatto che è più facile che un evento venga percepito come dotato di
un’influenza magica negativa piuttosto che positiva. Il contatto con un oggetto che
viene valutato negativamente e produce contaminazione molto più facilmente di
quanto il contatto con un oggetto valutato positivamente posso intensificarne il
valore (esempio spazzolino). Altri ricercatori hanno mostrato che le persone non
sono disposti a consumare una sostanza che abbia l’etichetta “non velenoso“. inoltre
aggiungono che molti prodotti hanno etichette che informano che cosa non sia
contenuto in essi, e suggeriscono che la tendenza a non tener conto delle indicazioni
su una forma di pensiero magico che potrebbe avere conseguenze negative.
142
143
Coincidenze significative
Una coincidenza significativa si verifica quando degli eventi sembrano essere
associati in maniera significativa anche se si verificano simultaneamente soltanto per
caso. È un’esperienza simile a quella del pensiero magico. Jung ha notato che per noi
è difficile credere che tali coincidenze accadono soltanto per caso. Coincidenze
significative possono verificarsi anche quando qualcuno legge il suo oroscopo o si
reca a farsi predire il futuro. Altri ricercatori hanno dimostrato che gli individui
giudicano le coincidenze che riguardano loro diversamente dal modo in cui giudicano
quelle che riguardano gli altri. Generalmente, i soggetti ritengono che le coincidenze
capitate a loro stessi sono più sorprendenti di quelle che capitano gli altri. Una
coincidenza è sorprendente nella misura in cui è personale. Gli individui tendono a
considerare le coincidenze accadute nel loro passato come fatti importanti e degni di
essere ricordati. Questo fenomeno è stato chiamato Bias egocentrico. Inoltre è stato
notato che questi possono essere interpretati in base ad euristica della disponibilità->
cioè le coincidenze significative accadute nel nostro passato costituiscono per cui
esperienza più disponibile e per questa ragione ne sopravvalutiamo il significato.
Quando consideriamo le coincidenze capitate agli altri, invece, confrontiamo le
coincidenze con le varie alternative possibili in quelle determinate circostanze. Nei
confronti delle coincidenze significative capitate agli altri tendiamo a comportarci in
maniera più obiettiva. noi tendiamo a sovrastimare il significato di ciò che
effettivamente è successo senza renderci conto del fatto che quello che ha avuto
luogo non è altro che una soltanto delle molte possibilità che si sarebbero potute
verificare.
Decisione
Le decisioni basate sull'intuito
Nella vita quotidiana si prendono continuamente delle decisioni. In alcuni casi, le decisioni
sono automatiche, come quando, ad esempio, prendiamo il nostro solito tubetto di
dentifricio dallo scaffale del supermercato. In altri casi, invece, prendere una decisione non è
semplice. Ad esempio, è probabile che abbiamo dovuto riflettere molto prima di scegliere il
nostro corso di laurea. In altri casi ancora, una decisione può essere così difficile da prendere
che il decisore si sentirà come paralizzato. Questo è il caso, ad esempio, delle scelte che
possono avere delle conseguenze rilevanti per la vita del decisore, come la decisione di
sottoporsi ad una operazione chirurgica impegnativa. In altri casi, infine, le scelte implicano
dei conflitti tra valutazioni di diversa natura. Ad esempio, è lecito decidere di sopprimere un
membro di una coppia di gemelli siamesi al fine di salvare l'altro? Un conflitto di decisione
può essere risolto in molti modi. Ci si può affidare al consiglio di un esperto, si può rimandare
la decisione, ci si può affidare al caso, oppure ci si può affidare al proprio intuito. Decidere
143
144
intuitivamente, in base al "sesto senso", pare essere una modalità di scelta molto usata. Non
solo le persone comuni, ma anche gli esperti prendono decisioni in questo modo. Il 24 aprile
1992, l'allora Presidente della Repubblica Cossiga nel corso di una conferenza stampa al
Quirinale fece la seguente affermazione: "L'intuito politico è un giudizio sintetico [...] se dessi
retta all'intuito mi dimetterei e lascerei al mio successore il compito di formare il nuovo
governo". Il giorno dopo, Cossiga dava le dimissioni dall'incarico: evidentemente, una tra le
decisioni più importanti nella politica italiana si è basata su un'intuizione.
3. I principi di coerenza descrittiva e procedurale. Teoria del prospetto.
Nell’ambito della scelta razionale riscontriamo il principio di coerenza descrittiva e il
principio di coerenza procedurale. Secondo il principio di coerenza descrittiva, quando
gli individui devono compiere un scelta ed esprimono una preferenza piuttosto che
un’altra, questa non dovrebbe scaturire dal modo in cui vengono descritte le opzioni.
Kahneman e Tversky, che sono gli esponenti più autorevoli nell’ambito della psicologia
della decisione e del ragionamento probabilistico, hanno inventato il cosiddetto
problema della “malattia asiatica” in base al quale a dei soggetti venivano presentate
delle coppie di opzioni, le quali opzioni descrivevano le stesse conseguenze solo che
venivano presentate ai soggetti in maniera diversa. Nella prima versione, le opzioni erano
descritte in termini di vite salvate (guadagni). Nella seconda opzione le stesse opzioni
erano invece descritte in termini di vite perdute (perdite). Nonostante il fatto che le due
descrizioni seppure diverse fossero equivalenti, le persone facevano delle scelte che
violavano il principio di coerenza descrittiva. Questo risultato era stato già anticipato
dalla teoria del prospetto, per mezzo della quale venivano analizzate le decisioni reali degli
individui e non quelle razionali. Infatti elemento fondamentale di questa teoria è la
funzione di valore soggettivo la quale si caratterizza di tre proprietà distinte:
1. la prima è definita avversione per le perdite, riguarda il fatto che una perdita ha un
effetto maggiore di un guadagno dello stesso livello. Con questo vogliamo dire che, ad
esempio, un aumento di prezzo provoca nel consumatore un fastidio maggiore del
piacere provato quando si riceve uno sconto di pari valore.
2. la seconda è che la curva dei guadagni è concava mentre quella delle perdite è
convessa. Ciò significa che i soggetti evitano di fare scelte rischiose nel dominio dei
guadagni e sono più propensi a rischiare nel dominio delle perdite
3. la terza è che i guadagni e le perdite sono definiti in base ad una operazione mentale
di codifica rispetto a un punto di riferimento
144
145
il secondo principio, quello di coerenza procedurale, sostiene che gli individui esprimono le
loro preferenze a prescindere dal modo in cui gli viene chiesto di esprimerle. Tale principio
interferisce con un meccanismo psicologico, detto "principio di compatibilità", secondo il
quale le persone danno più importanza alle caratteristiche positive delle opzioni, quando ne
devono scegliere una, mentre tendono a dare maggior peso alle caratteristiche negative,
quando ne devono rifiutare una.
3. Il principio di cancellazione
In base ad un altro principio, della scelta razionale, quello della cancellazione, la scelta
dovrebbe essere fatta in funzione di ciò che differenzia le opzioni e non di ciò che le
accomuna. Anche questo principio è molto intuitivo, oltre che razionale. Ad esempio, se
dobbiamo scegliere tra due automobili (A e B), che differiscono rispetto a certi attributi (ad
esempio, la prima automobile consuma di meno ma costa di più della seconda) ma non ad
altri (ad esempio, entrambe le automobili sono modelli del 1995 e di colore rosso), allora
sembrerà evidente che la scelta dovrà essere fatta rispetto ai primi e non ai secondi.
Tuttavia, anche questo principio, come quelli visti in precedenza, non risulta sempre
rispettato. Consideriamo il seguente problema, inventato da Kahneman e Tversky:
immaginiamo di dover comprare una giacca per 125$ e una calcolatrice per 15$. L'addetto al
reparto delle calcolatrici ci informa che la calcolatrice che vogliamo comprare è in vendita a
10$ in un altro negozio della stessa catena di centri commerciali, distanti 20 minuti di auto.
Siamo disposti a guidare fino all'altro negozio?
In questo scenario, la maggioranza delle persone accetta lo sconto. Consideriamo adesso
quest'altro scenario:
immaginiamo di dover comprare una giacca per 15$ e una calcolatrice per 125$. L'addetto al
reparto delle calcolatrici ci informa che la calcolatrice che vogliamo comprare è in vendita a
120$ in un altro negozio della stessa catena di centri commerciali, distanti 20 minuti di auto.
Siamo disposti a guidare fino all'altro negozio?
In questa versione del problema, la maggioranza degli intervistati non accetta lo sconto.
Eppure, evidentemente potremmo anche in questo caso risparmiare 5$ andando all'altro
negozio. Secondo Tversky e Kahneman il rovesciamento delle preferenze che si osserva in
questo problema dipende dal tipo di rappresentazione mentale che gli individui tendono a
costruirsi:
• la prima rappresentazione possibile, detta calcolo minimo, è quella in cui vengono
esaminate solo le differenze tra le opzioni, senza tener conto delle caratteristiche
comuni. E' la rappresentazione mentale del problema che deriva dall'applicazione del
principio di cancellazione. Se le persone adottassero questo tipo di contabilità mentale
145
146
146
147
147
148
148
149
Il primo contatto con una parola scritta avviene per mezzo dell’apparato percettivo
visivo ed è stato studiato per mezzo di una tecnica definita dei movimenti oculari.
Quando i nostri occhi osservano un testo scritto, lo fanno compiendo dei rapidi
movimenti oculari, chiamati saccadi, che per la loro rapidità (10/20 ms) permettono
di scavalcare anche più di dieci caratteri alla volta, e che per questo non danno la
possibilità di rilevare informazioni ortografiche.
Vi sono, tuttavia dei periodi di tempo tra un movimento e l’altro, le fissazioni,
durante i quali gli
occhi rimangono immobili e l’informazione può essere percepita dal sistema visivo.
La maggior parte delle parole viene fissata una sola volta e per periodi che variano
dai 50 ai 250 ms e
la velocità di riconoscimento dei caratteri varia a seconda della difficoltà del testo,
dalle abilità individuali e dalla presenza nel testo di snodi critici. A volte, poi, il
lettore torna su parti del testo già lette effettuando le cosiddette ricorsioni, che
segnalano l’esigenza del lettore di riesaminare parti del testo. È stato notato che a
volte le parole brevi, come i funtori grammaticali, vengono saltati perché meno
informativi rispetto alle parole contenuto (nomi, verbi), al contrario le parole più
lunghe e meno frequenti generalmente sono fissate più volte.
3.2 Tratti, lettere e parole
149
150
Dal punto di vista cognitivo, capire come avviene il riconoscimento di una parola
scritta significa comprendere il meccanismo secondo cui dapprima una sequenza di
caratteri grafici viene elaborata dal sistema visivo e poi la sua rappresentazione
percettiva viene confrontata con una o più forme di rappresentazione presenti nel
lessico mentale, come ad esempio la dimensione semantica che ci permette di
comprendere il significato di una parola. In un’ortografia di tipo alfabetico è
possibile distinguere molte informazioni dalla struttura interna
della parola analizzando tre livelli: tratti, lettere, parole.
I tratti, sono le caratteristiche fisiche che compongono le lettere dell’alfabeto. le
lettere sono costruite da tratti ortografici. La lettera A è formata da due segmenti
obliqui e uno orizzontale. I tratti interni alle lettere hanno un ruolo importante in un
compito di
riconoscimento di lettere.
Lettere. Nelle ortografie di tipo alfabetico anche le lettere sono considerate come
unità percettive di base nel riconoscimento di parole scritte. A tale livello, le lettere
sarebbero rappresentate come entità astratte, in modo indipendente dalla loro
manifestazione fisica. Lo stadio di riconoscimento delle lettere è intermedio tra
quello di riconoscimento delle caratteristiche e quello di riconoscimento della
parola. Uno studio a cura di Polk ha valutato l’attività neurale durante la visione di
stringhe di lettere e ha dimostrato che una specifica area dell’emisfero sinistro (il
giro fusiforme) risponde in maniera specifica alle lettere più che ad altri stimoli visivi
significativi. Si può quindi concludere che vi è una specializzazione neurale per il
riconoscimento delle lettere. Peressotti e Grainger suggeriscono che il sistema di
riconoscimento delle parole utilizza le informazioni sulla posizione delle lettere e che
tali informazioni si riferiscono alla posizione di una lettera rispetto alle altre.
Parole. Una volta che riconosciamo una parola scritta come forma visiva, diventano disponibili
diverse proprietà delle parole (sintattiche, semantiche, fonologiche, ecc.). Il riconoscimento delle
parole è indipendente dai processi di riconoscimento degli oggetti in genere: sono stati
documentati casi di pazienti con buone capacità di riconoscimento delle parole, ma con notevoli
difficoltà nel riconoscimento di oggetti (Rumiati). Esistono fondate prove sperimentali a favore del
ruolo giocato da tutti e tre i livelli.
Nel riconoscimento delle parole il problema è capire se i tre livelli ovvero tratti,
lettere e parole, intervengono all’interno del processo in questa precisa sequenza, o
se agiscono in modo interattivo. Sono state sviluppate prove a favore di
150
151
3.5 Altri effetti nel riconoscimento di parole. Fenomeni principali della lettura.
153
154
-un secondo effetto è invece il priming ortografico che si basa sulla presentazione di
una pima parola definita prime che viene fatta seguire ad una distanza di tempo che
varia in base alla situazione da una seconda parola bersaglio definita target. Queste
due parole sono tra loro associate per uno o più particolari aspetti, e lo scopo di
questo effetto è quello di osservare come grazie all’informazione che hanno in
comune queste due parole l’elaborazione della parola target risulta essere facilitata
- poi abbiamo l’effetto della regolarità che riscontriamo in particolar modo tra
parole a bassa frequenza d’uso, quindi sulle parole irregolari che quasi sempre
leggiamo peggio di quelle regolari. (come la parola in inglese pint (paint) che
significa pinta).
- la lunghezza. Quando riconosciamo una parola scritta la rapidità e la correttezza di
questo processo dipendono molto dalla lunghezza della parola e quindi dal numero
di lettere che la compongono. La lunghezza inoltre può essere misurata anche grazie
al tempo che impieghiamo per pronunciarla.
Quando scriviamo parole che conosciamo e che sono quindi rappresentate nel
nostro lessico mentale, recuperiamo l’informazione nel lessico ortografico che altro
non è che la componente che rappresenta le forme scritte delle parole.
Questo tipo di informazione ci serve poiché alcune parole irregolari, frequenti in
inglese, possono
essere scritte non correttamente se non si hanno informazioni precise sulla loro
forma ortografica.
Successivamente all’attivazione del L.O. è necessario l’intervento di un’altra
componente perché il
155
156
156
157
-ESISTE LA MORFOLOGIA?
La combinazione di unità che danno luogo a parole obbedisce agli stessi principi
della combinazione di unità che danno luogo a sintagmi e frasi?
Questo problema ha due versanti: quello SINTATTICO e quello FONOLOGICO.
La morfologia ha ragione di esistere se la formazione delle parole è spiegabile senza
tener presente questi due versanti o principi, altrimenti è inutile postulare un livello
di analisi aggiuntivo.
157
158
4.COMPOSIZIONE
Le RFL sono soggette a restrizioni :
non ogni affisso può unirsi ad ogni base ad esempio -ista si attacca a nomi e non a
verbi;
-tore si attacca a verbi, ma non a verbi in cui il soggetto non ha le caratteristiche di
agente. Queste sono restrizioni sintattiche e semantiche.
Restrizioni morfologiche->riguarda l’impossibilità di alcuni suffissi di apparire dopo
altri:
-zione non si attacca mai a verbi derivati con il suffisso -eggiare (danneggiazione:
NO)
Restrizioni fonologiche-> il prefisso -s non si attacca a basi che cominciano con
vocali ( Sutile-> NO-> inutile)
RFL sono dotate di un certo grado di produttività, cioè formare nuovi lessemi.
MORFOLOGY BY ITSELF
Aronoff-> la morfologia costituisce un livello autonomo di analisi, che media
l’informazione semantica e fonologica. L’unione di significato e significante non è più
vista come diretta ma come mediata dal livello morfologico , che è dotato di suoi
autonomi principi di organizzazione.
160
161
161
162
loro frequenza d’uso come è stato confermato dalle ricerche con pseudoparole
morfologiche formate da un suffisso reale e una radice inesistente (cempenista).
162
163
Esiste però la possibilità che una parola nuova, al nostro lessico, venga letta
ricorrendo ai suoi
costituenti morfologici conosciuti
Ad esempio una pseudoparola come donnista, che non esiste nel lessico interno,
potrebbe essere
letta solo per regola di conversione grafema-fonema, se non fosse possibile
scomporla in
morfemi(donn-ista), comportando una lettura più veloce e accurata.
È stato dimostrato che avvalersi della lettura morfo-lessicale è estremamente
efficiente nel caso di
combinazioni morfologiche nuove, rispetto a parole nuove in cui non è possibile
avvalersi della
struttura morfologica. La lettura morfo-lessicale si sviluppa già a partire dal secondo
ciclo di scuola
elementare.
9 . Giudizi metalinguistici
Compiti sperimentali on- line→ rilevano il tempo di reazione e l’accuratezza nel
rispondere a stimoli linguistici presentati in successione rapida e con limiti di tempo.
Giudizi off- line→ forniti sugli stessi stimoli da persone cui si richiedono valutazioni
soggettive senza limiti di tempo.
Queste misure sono risultate correlate sia alle misure di tempo e accuratezza di tipo
on-line sia con le proprietà morfologiche che incidono sui compiti di riconoscimento
e lettura.
I giudizi utilizzati sono:
giudizi di familiarità→ si chiede quanto una parola è familiare o conosciuta;
giudizi sulla complessità morfologica→ si chiede quanto una parola risulti
morfologicamente
complessa;
163
164
CLASSIFICAZIONE DI PAROLE
Una prima classificazione risale all’antica grammatica greca e poi latina che distingue
le diverse parti del discorso o classi lessicali. (nome, verbo, aggettivo, avverbio,
pronome, articolo, preposizione, coniugazione e interiezione). Questa classificazione
è sia su base morfosintattica sia su base semantica e non è esente da problemi. Le
interiezioni non sembrano presentare a pieno titolo le caratteristiche di segni
linguistici integrati in un sistema, quindi è difficile considerarle parole. Aggettivi->
possono essere utilizzati sia da aggettivi e sia da pronomi, ma soprattutto un certo
numero di parole vengono classificate sia come preposizioni che come avverbi
(sopra). Il tutto è complicato dalla conversione per cui una parola può passare da
una categoria lessicale all’altra -> sapere verbo, il sapere nome. Nella grammatica
generativa vengono classificate 4 classi lessicali maggiori: N(nomi), V(verbi),
164
165
-LESSICO E GRAMMATICA
il lessico non è semplicemente la lista delle parole di una lingua, ma è l’inventario
delle parole con le loro proprietà semantiche e sintattiche.
166
167
Nella teoria generativa a una parola è anche associata una struttura tematica, una
configurazione argomentale di ruoli semantici o secondo altre impostazioni teoriche,
uno schema Valenziale, riempito dei sintagmi nominali previsti dallo schema
sintattico che il significato della parola implica: vedere comporta una configurazione
argomentarle.
Grammatiche cognitive più recenti accentuano ulteriormente questa primarietà del
lessico come lo strato più profondo della grammatica e concedendo il progresso di
formulazione di una frase come movente dell’attivazione, da parte del parlante, di
una struttura lessicale-concettuale profonda, in cui le interazioni comunicative si
organizzerebbero in un fascio di tratti semantici e pragmatici, in modo da proiettare
una struttura tematica particolare. in un secondo passo, verrebbe generata una
determinata struttura predicato-argomenti, che proietta la struttura tematica in
quella sintagmatica gerarchica di un CP (proiezione di complementatore).
167
168
168
169
Più in particolare l’architettura del modello a due vie di Coltheart prevede che la
forma fonologica di una parola venga recuperata grazie all’esistenza di due
procedure. la prima è la via lessicale che troviamo a sinistra mentre la seconda è la
via Sub-lessicale che troviamo a destra. Entrambe confluiscono nel buffer fonemico,
ovvero una struttura che hai il compito di computare la pronuncia definitiva di una
parola, a partire dalla sequenza di fonemi che caratterizzano lo stimolo.
Partiamo dalla via lessicale, la quale ricava la forma fonologica di una parola a
partire dalla sua forma scritta. In questa procedura distinguiamo altri due percorsi:
Il primo, ovvero la via lessicale diretta, che parte da alcune informazioni di carattere
visivo, collegando in questo modo il lessico ortografico al lessico fonologico. Il
secondo percorso, chiamato via lessicale-semantica, che invece attiva il lessico
fonologico grazie a delle connessioni che intrattiene con il sistema semantico;
La seconda procedura, detta via non lessicale, ricava la pronuncia della parola
applicando un insieme di regole, le quali differiscono da lingua a lingua, sulla base
delle quali ciascuna lettera (o gruppo di lettere) viene trasformata nel fonema
corrispondente. Nel caso, infatti, in cui una parola risulta essere sconosciuta ad un
lettore, quest’ultimo può ricavare l’output corretto solo se utilizza la via non
lessicale. Inoltre, La via lessicale elabora la forma fonologica di una parola
soprattutto grazie alla frequenza d’uso di quella parola, perciò sarà molto rapida per
le parole ad alta frequenza e lenta per le parole a bassa frequenza.
La via non lessicale, invece, dovendo applicare le regole Grafema-Fonema è un
processo più lento.
Il modello a due vie della lettura e i disturbi acquisiti dopo lesione celebrale
Tale modello è in grado di spiegare anche alcuni disturbi della lettura, come la
dislessia. Esistono vari tipi di dislessie:
- Dislessia di superficie: che si verifica quando i soggetti tendono a leggere le
parole regolari(save) meglio di quelle irregolari (have). Inoltre i soggetti affetti
da dislessia di superficie quando commettono degli errori rispetto alle parole
irregolari tendono a regolarizzarle mediante un processo di conversione
grafema – fonema.
- Dislessia fonologica: invece si verifica in quei soggetti che sono in grado di
leggere correttamente sia le parole regolari che quelle irregolari, ma che hanno
invece un deficit nella lettura di parole nuove o meno frequenti.
169
170
Secondo il modello a due vie ciò può essere spiegato a causa della presenza di
un disturbo selettivo nei confronti delle componenti non lessicali e una
preservazione invece delle componenti lessicali.
170
171
La via lessicale
La pronuncia di una parola avviene per mezzo di una serie di processi: Le
caratteristiche visive dei tratti attivano le unità corrispondenti alle lettere e queste
lettere attivano le unità corrispondenti alla parola nel lessico ortografico.
L’attivazione dell’unità ortografica produce l’attivazione nella corrispondente unità
nel lessico fonologico e di conseguenza si attivano nel buffer fonetico i fonemi
corrispondenti alla parola.
171
172
più appropriata per trasformare il primo grafema nel fonema corrispondente che
comincia ad essere attivo nel set fonemico del buffer fonemico. Cosi dopo un certo
numero di cicli viene considerato poi il secondo grafema che subisce lo steso
processo, e cosi via. Tale procedura si dispiega da sinistra a destra. Ambedue le vie
sono attivate da uno stimolo linguistico e forniscono un loro output al buffer
fonetico. A tale livello avviene un conflitto ogni qualvolta le procedure forniscono
risultati diversi e ciò provoca un rallentamento dei tempi di risposta. Questo avviene
soprattutto durante la lettura di parole irregolari e la lettura di non-parole.
L’effetto di regolarità
Nel caso di una parola irregolare, mentre la via lessicale attiva a livello di buffer la
sequenza corretta di fonemi, la via non lessicale attiva i fonemi corrispondenti ai
grafemi applicando le regole di trasformazione grafema-fonema, producendo cosi
una pronuncia “regolarizzata”. La quantità di interferenza prodotta nel buffer è
funzione della velocità con cui la procedura lessicale elabora lo stimolo. infatti,
l’effetto di regolarità si osserva solo per le parole a bassa frequenza. Nel caso delle
parole ad alta frequenza, invece, la procedura lessicale elabora la pronuncia molto
rapidamente, prima che venga ingenerata interferenza.
La lettura di non-parole
Nella lettura di non parole la via non lessicale è l’unica che produce un output
corretto.
-L’AMBIGUITA’ LESSICALE
È il fenomeno per cui una stessa forma fonologica ed ortografica (merlo), viene
utilizzata in una lingua per poter indicare diverse unità (uccello/struttura
174
175
175
176
l’oscurità nella notte). Non tutte le proprietà sono ugualmente suscettibili di effetti
di contesto. Proprietà centrali vengono incluse nella rappresentazione di una frase
che menziona l’oggetto, indipendentemente dall’enfasi della frase, proprietà
periferiche tendono ad essere rappresentate solo quando vengono rese salienti
dalla frase.
I lavori considerati fino ad ora sono coerenti con l’ipotesi che solo alcuni aspetti del
significato di una parola vengono impiegati nella costruzione della rappresentazione
mentale del significato della frase in cui compare la parola. Si può ipotizzare che la
selezione delle proprietà contestualmente rilevanti sia il risultato di processi
lessicali, che hanno luogo al momento del recupero dell’info semantica dal lessico
mentale, o che invece sia il risultato di processi post-lessicali che avvengono in una
fase successiva a quella dell’accesso. -> lavoro di Potter e Faulconer-> i partecipanti
ascoltavano frasi in cui il nome target (casa) poteva essere preceduto da un
aggettivo (bruciando). Dopo che avevano sentito il nome, i partecipanti vedevano un
disegno che rappresentava un tipico esemplare dell’oggetto (una tipica casa),
oppure un disegno dell’oggetto modificato (casa in fiamme), o un oggetto diverso
(bandiera). Il loro compito era quello di premere un pulsante, più velocemente
possibile, ogni qual volta che il disegno corrispondeva alla parola target. I risultati
mostrarono che i partecipanti erano più veloci quando la figura era modificata
piuttosto che quando compariva la forma tipica.
Questi risultati fanno pensare a effetti tutti post lessicali nel processo di
interpretazione.
-L’INSTANZIAZIONE
Se qualcuno ci chiedesse di andare a prendere il contenitore della coca cola, molto
probabilmente cerchiamo una bottiglia, una lattina o una caraffa, ma se qualcuno ci
chiedesse di prendere il contenitore delle mele allora cercheremmo un cesto.
1)Nel contenitore c’erano mele-> cesto agevola il ricordo
2) nel contenitore c’era coca-cola -> bottiglia agevola il ricordo
Questo è uno studio di Anderson ed illustra il fenomeno di instanziazione.
In psicologia cognitiva con questo termine ci si riferisce generalmente al fatto che in
diverse occasioni le persone operano processi di specificazione, come ad esempio la
bottiglia e il cesto.
177
178
cui in una frase vengono espressi soggetto, verbo e oggetto. Nelle lingue questi
ordini sono diversi, ma l’esposizione alla lingua della comunità in cui cresce
permette al bambino di settarne i parametri, di fissare cioè l’ordine proprio di
quella lingua, fornendogli le informazioni necessarie per cui la sua capacità innata si
sviluppi appieno ed egli diventi un utente competente della lingua a cui appartiene.
Questa concezione è detta innatismo ed è stata proposta da Chomsky. Assieme
all’innatismo, il cognitivismo fa un’altra assunzione importante in merito al
linguaggio, Cioè che si tratti di una facoltà autonoma nel sistema mentale umano,
che si sviluppa ed eventualmente può essere danneggiata indipendentemente da
altre facoltà. Questa ipotesi è stata sostenuta da Piaget, il quale sostiene che il
linguaggio è una forma di capacità simbolica e come tale si sviluppa assieme alla
capacità simbolica e di astrazione del bambino e in un certo senso dipende da
questa. Altri studi attuali sembrano convergere sul punto di vista che potremmo
chiamare autonomista della capacità linguistica, dando ragione allo psicologo russo
Vvgotskjj. L’idea che il linguaggio sia una capacità autonoma da altre facoltà mentali
è del tutto coerente con ciò che sappiamo dell’organizzazione di questa capacità nel
cervello e delle capacità di pensiero degli animali.
-La parola
la comprensione delle parti interne della parola
riconoscere le parole che sentiamo o leggiamo, e recuperarne il significato, sono
operazioni di base della comprensione. Intuitivamente potremmo pensare che i
confini espressi dalle variazioni del suono prodotto dalla voce umana coincidano con
l’inizio e la fine delle parole, ma le cose non stanno precisamente così.
181
182
182
183
contiene una data lettera ne facilita il riconoscimento più della parola stessa: una
volta che la parola è stata riconosciuta anche il riconoscimento della lettera risulta
facilitato.
Possiamo leggere una parola in italiano ricorrendo a due modalità: una via lessicale
diretta, in cui recuperiamo dal lessico mentale la parola in quanto input ortografico
globale e la sua pronuncia corretta;
una via non-lessicale che utilizza, invece le regole di conversione grafema-fonema
tipiche di ogni lingua, cioè quelle che in italiano ci dicono come leggere le parole
scritte. il problema nasce con le parole la cui pronuncia è irregolare, cioè non segue
le regole tipiche dell’italiano: ad esempio il gruppo “gli” è letto diversamente in
“glicine”. Le parole irregolari come glicine possono essere lette solo recuperando dal
lessico mentale la loro specifica pronuncia. Quando non conosciamo una parola, non
abbiamo nel lessico a disposizione una rappresentazione corrispondente, quindi
possiamo leggerla solo per via non lessicale.
184
185
Quasi mai durante il nostro quotidiano ci capita di dover comprendere parole isolate, infatti
queste ultime sono sempre inserite all’interno di organizzazioni più complesse quali le frasi,
e queste ultime a loro volta sono poi inserite all’interno di strutture ancora più articolate
ovvero i discorsi oppure i testi. Quando cerchiamo di comprendere un discorso, nonostante
questo si compone di elementi semplici quali le parole, non ci limitiamo semplicemente a
coglierne gli aspetti sintattici e di significato in quanto questi sono sempre accompagnati da
un contesto con il quale devono essere affini e idonei. Quindi in un discorso devono essere
presenti e subito disponibili sia al parlante che all’ascoltatore oltre alle informazioni
sintattiche e semantiche anche le informazioni di tipo pragmatico. Oltre a questi aspetti,
non possiamo tralasciare anche gli aspetti legati alle intenzioni del parlante, al registro
linguistico di cui dispone e agli effetti che vuole produrre. Per quanto riguarda le relazioni
che sussistono tra le informazioni sintattiche, semantiche e pragmatiche si sono sviluppate
due diverse ipotesi:
• la prima è che le informazioni intrattengono costantemente delle interazioni tra loro.
Ovviamente attenendoci sempre a tutte le regole che ci permettono di stabilire se
una frase è grammaticalmente corretta, se i significati che attribuiamo alle parole
sono accettabili e se l’interpretazione, oltre all’intonazione che gli attribuiamo e al
contesto in cui la inseriamo sono plausibili al fine della comunicazione.
• La seconda ipotesi sostiene che ciascun sottosistema (sintattico, semantico ecc) sia
indipendente e da tale provvede ognuno a sviluppare l’elaborazione della propria
informazione e solo in un secondo momento tali informazioni vengono integrate a
quelle di contesto al fine di assegnare l’interpretazione finale alla frase.
185
186
187
188
LA STRUTTURA FONDAMENTALE
gli stati della produzione di una frase sono fondamentalmente tre: livello della
concettualizzazione o del messaggio, quello della formulazione o pianificazione e
quello dell’articolazione.
concettualizzazione-> non è legata alla specifica lingua del parlante. È il momento in
cui una persona concepisce l’intenzione di parlare e decidere che cosa vuole dire. In
188
189
questa fase viene elaborato in forma prelinguistica il messaggio che nelle fasi
successive troverà espressione in una frase della lingua.
Formulazione-> il messaggio prende forma linguistica: il parlante sceglie le parole da
usare e la struttura sintattica della frase. Sempre in questa fase, si specifica il suono
della frase.
articolazione-> stadio finale, si recuperano i vari pezzi e vengono emessi, nell’ordine
appropriato, i suoni che compongono la frase.
naturalmente quando parliamo la produzione non avviene una frase per volta, e
materiali diversi si trovano nello stesso momento a fasi diverse elaborazioni. Molto
spesso, quando abbiamo finito di pronunciare una parte della frase, la successiva è
già disponibile per essere realizzata. Capita però che le cose non siano sempre così
ben sincronizzate. Si può generare un’esitazione. Queste imperfezioni, assieme alla
produzione verbale dei pazienti afasici, sono state per lungo tempo quasi le uniche
fonti di dati e nello studio dei processi di produzione.
ESITAZIONI ED ERRORI DI PRODUZIONE DEL LINGUAGGIO
Per poter parlare di errori di produzione del linguaggio bisogna fare una preliminare
distinzione tra quello che è un discorso spontaneo, che sicuramente è ricco di
imperfezioni, dai discorsi fatti a memoria o letti che sono ovviamente più disinvolti e
scorrevoli. Per quanto concerne il primo seppur, come abbiamo detto, è
caratterizzato da alcune imperfezioni queste ci permettono di comprendere
ugualmente un qualsiasi discorso nonostante il discorso spontaneo si distacchi da
quelle che sono normalmente considerate produzioni linguistiche idealmente
perfette. Quasi sempre in questo tipo di discorso succede che si verifichino delle
pause che normalmente in un discorso perfetto non accadono, oppure capita delle
volte che pronunciamo male qualche termine o che lo confondiamo con un altro.
Queste esitazioni, questi errori sono considerate imperfezioni fisiologiche che
normalmente siamo anche in grado di correggere da soli e che sicuramente non
stanno a significare una mancata conoscenza della lingua. Intanto mentre
pronunciamo un discorso si possono verificare due diverse forme di esitazioni: la
prima forma è quella che viene chiamata VUOTA, caratterizzata semplicemente da
un breve intervallo di tempo in cui si rimane in silenzio, poi ci sono quelle PIENE o
RIEMPITE, dove appunto questi silenzi vengono sostituiti o riempiti da parole già
pronunciate oppure dai soliti intercalare. È interessante, tra l’altro, sottolineare
come queste forme di esitazione non si verificano in maniera casuale durante un
discorso, ma hanno delle posizioni piuttosto ricorrenti, e più precisamente queste
posizioni sono 3:
189
190
mezzo del quale i significati delle parole vengono trasformati nei suoni
corrispondenti, questo è quello che definiamo processo di lessicalizzazione, il quale
ha subito una forte influenza dal noto paradigma interferenza figura-parola.
Tale paradigma prevede che venga presentata ad una persona una figura, questa
persona deve poi denominare quella figura mediante una parola Target, se però
insieme a questa figura viene presentata una parola definita DISTRATTORE,
nonostante si chieda al soggetto di ignorarla, il tempo necessario per portare a
termine il compito risulta essere maggiore. A tal proposito recentemente, Levelt
insieme ad altri ricercatori olandesi, hanno condotto un esperimento durante il
quale veniva chiesto a dei soggetti sperimentali di pronunciare nel minor tempo
possibile il nome di alcune figure che apparivano su di uno schermo. Prima, durante
o successivamente alla presentazione di queste figure compariva anche un
distrattore che poteva intrattenere con la figura in questione una relazione di tipo
semantico, fonologico oppure poteva non avere alcun tipo di relazione con essa. I
risultati di questa ricerca hanno mostrato che, se il distrattore veniva presentato
insieme o precedentemente alla figura, il soggetto sperimentale impiegava più
tempo a rispondere se c’era una relazione semantica tra il target e il distrattore,
succedeva invece l’opposto se il distrattore si presentava dopo la presentazione
della figura, è come se in questo caso si annullasse l’effetto della relazione. Invece se
tra il distattore e il target c’era una relazione fonologica la risposta era più rapida.
Ciò dimostra che la produzione di una parola avviene in due fasi: innanzitutto le
informazioni che riguardano le parole sono contenute in reti attraverso cui si
propaga l’attivazione, poi abbiamo un primo livello in cui sono contenuti i significati
di una parola ordinati in base alla loro somiglianza concettuale, poi abbiamo il livello
dei lemmi dove sono contenute le informazioni grammaticali delle parole, ed è solo
al livello dei lessemi che le parole assumono una forma fonologica. La scelta di una
parola avviene per mezzo di un processo di competizione tra i lemmi, il lemma che
vince sarà poi quello selezionato.
(il recupero del lemma tramite il processo di selezione lessicale)
Il livello concettuale contiene i significati delle parole organizzati in termini di
somiglianza concettuale, mentre nel secondo livello quello relativo ai lemmi, ci sono
le informazioni grammaticali che riguardano quelle parole. il processo di selezione
permette di recuperare un Lemma mediante un processo di competizione fra i
lemmi che appartengono a concetti lessicali simili: cane, compete con tartaruga,
maiale, cavallo ecc e deve vincere questa competizione per essere selezionato.
191
192
-LA CONVERSAZIONE
Perché una conversazione si svolga con successo è necessario che i partecipanti
tengano conto del contesto nel quale si trovano e si attengono a principi condivisi
che regolano la loro attività linguistica. Normalmente chi partecipa ad una
conversazione utilizza il cosiddetto principio di cooperazione, secondo il quale la
conversazione è un’impresa collaborativa e si realizza attraverso l’utilizzo di una
serie di massime (dare informazioni irrilevanti al contesto-> esempio cena sabato
sera, descrivere il negozio in cui ho comprato i piatti) .
naturalmente, capita parecchie volte di violare una o più massime conversazionali,
queste hanno luogo per l’incompetenza di uno degli interlocutori. Più
frequentemente, però, si tratta di violazioni volontarie dettate da motivazioni più o
meno innocenti, come divertire o ingannare.
Un altro fattore importante per la buona riuscita di una conversazione è che una
persona tenga conto del mondo mentale del proprio interlocutore, dei rapporti
sociali che lo legano a lui, nonché delle proprie intenzioni comunicative.
Un altro aspetto importante della comunicazione è la presa dei turni.( non parlare
tutti insieme)
Un altro aspetto della comunicazione che ha attirato l’attenzione dei ricercatori
riguarda le procedure di apertura e chiusura di una conversazione. Le prime possono
essere schematizzati come una sequenza di chiamate e risposte. Le chiamate hanno
lo scopo di richiamare l’attenzione dell’interlocutore da parte di chi decide di aprire
la conversazione, mentre le risposte segnalano la disponibilità dell’interlocutore. Se
l’apertura di una conversazione e stereotipata, la sua chiusura lo è ancora di più.
Chiudere una conversazione è un atto che richiede l’accordo dei partecipanti e il
mancato raggiungimento di questo accordo può avere conseguenze sociali
spiacevoli.
fortunatamente sono sufficienti pochi segnali perché gli interlocutori riconoscano i
segnali di chiusura e concordino su di essi.
LINGUAGGIO
Wundt non è stato soltanto il fondatore del primo laboratorio di psicologia ma
anche il primo a svolte importanti ricerche sulla psicologia del linguaggio. Uno dei
tempi più importanti affrontati da lui è la relazione tra l’esperienza e le parole che
192
193
vengono usate per descriverla. Abbiamo detto che la nostra attenzione è come un
fascio di luce che mette in risalto alcuni aspetti di una situazione relegandone altri
nello sfondo. Tutti gli aspetti di una situazione a cui potremmo prestare attenzione
sono simultaneamente disponibili. Nonostante questo molti psicologi hanno
osservato che noi siamo in grado di dirigere la nostra attenzione verso un aspetto
oppure un altro di una situazione. Alcuni studiosi hanno notato che le relazioni tra le
singole componenti che costituiscono una nostra specifica esperienza, sono state
descritte da Wundt per mezzo di diagrammi ad albero. Il processo linguistico
procede da un livello in cui un certo numero di relazioni sono presenti
simultaneamente ad un altro livello in cui queste relazioni (cioè soggetto e
predicato) sono ordinate l’una dopo l’altra come una successione di parole
all’interno di una frase.
che è impossibile costruire una grammatica a stati finiti (catena di Marcov) in grado
di generare tutte e solo le frasi grammaticali di una lingua naturale. Le grammatiche
a stati finiti sono troppo semplici per rendere conto della complessità di una lingua
naturale. Questa complessità può essere illustrata facendo riferimento alle frasi che
contengono al loro interno delle proposizioni subordinate-> oggi arriverà l’uomo il
quale ha detto che S…-> ci sono un’infinità di frasi che possono essere aggiunte-
Chomsky afferma che una grammatica a stati finiti non è in grado di generare tutte
le frasi possibili di una lingua. Secondo Chomsky, questa grammatica opera ad un
solo livello: le frasi vengono generate per mezzo di un processo che opera da sinistra
a destra. Egli propone un processo top-down e che fa uso di regole di struttura
sintagmatica e di trasformazioni grammaticali. Le regole di struttura sintagmatica
consistono in un insieme di simboli e di regole di riscrittura: Frase (F)-> SN+SV; SN->
Art + N; SV-> V+ SN; ART-> Un, il; N-> automobile, ragazza, ragazzo; V-> aiutare,
amare.
Per mezzo di queste regole possono essere costruite molte frasi diverse. La
generazione di una frase può essere rappresentata per mezzo di un diagramma ad
albero. Ciascuno stadio di questo processo produce una stringa diversa, e la
sequenza finale delle parole che sono stata generate è chiamata stringa finale.
Chomsky parla anche di trasformazione passiva-> Carlo ammira Giovanni-> la
trasformazione passiva converte la stringa soggiacente alla stringa terminale in
modo da produrre una frase -> Giovanni era ammirato da Carlo. La trasformazione
passiva inverte l’ordine dei sintagmi nominali e inserisce nelle posizioni appropriate
il verbo essere e la preposizione “da”.
Questa trasformazione è facoltativa, affinché una frase sia grammaticale non è
necessario che siano applicate delle trasformazioni facoltative. Chomsky ha
chiamato frasi nucleari, quelle frasi che sono prodotte senza le trasformazioni
facoltative. Inoltre Chomsky ha introdotti vari concetti : la distinzione tra
competenza ed esecuzione e quella tra struttura profonda e struttura superficiale.
-COMPETENZA ED ESECUZIONE
Competenza di una lingua secondo Chomsky-> interiorizzare una serie di regole che
mettono in relazione suoni e significati. Grazie alla competenza linguistica un
individuo è in grado di comprendere e usare il linguaggio. La competenza linguistica
non è sempre riflessa nell’uso che viene effettivamente fatto della lingua.
194
195
-L’IPOTESI INNATISTA
Chomsky credeva che la competenza linguistica fosse largamente innata. Questa tesi
venne avvalorata dalla constatazione che l’insieme di enunciati cui è esposto un
bambino in età evolutiva costituisce un campione inadeguato delle strutture della
lingua. I tipici enunciati degli adulti contengono molti errori e rappresentano un
campione incompleto della lingua. Questo punto di vista è chiamato povertà dello
stimolo dal momento che sostiene che lo stimolo linguistico è insufficiente per
mettere in grado i bambini di usare il linguaggio in maniera efficace. Inoltre,
l’acquisizione del linguaggio avviene troppo rapidamente perché possa iniziare dal
195
196
196
197
-SPECIFICAZIONE DI PARAMETRI
La teoria di Chomsky non è esente di modifiche nel corso del tempo. Una di queste
modifiche è la teoria dei principi e dei parametri->secondo cui l’acquisizione del
linguaggio avvenga attraverso una specificazione dei parametri. Un paramento è un
aspetto universale del linguaggio che può assumere un determinato valore
all’interno di una limitata serie di alternative. Ad esempio la posizione del verbo è un
parametro che viene specificato in maniera diversa nel caso di ciascuna lingua
specifica.
-COMUNICAZIONE E COMPRENSIONE
Il contesto all’interno del quale gli ascoltatori o i lettori ricevono i messaggi
linguistici è estremamente importante per determinare l’interpretazione attribuita
al messaggio. Colui che parla o scrive deve tenere in considerazione il contesto
proprio di coloro ai quali si rivolge. Un’utile distinzione a questo proposito è quella
tra informazione data e informazione nuova. Coloro che sono coinvolti in una
conversazione sono detti entrare in un contratto dato-nuovo, per mezzo del quale il
parlante conviene di aggiungere nuove informazioni a quelle che l’ascoltatore già
possiede. La comprensione risulterebbe difficile, se non impossibile, se colui che
parla si limitasse ad introdurre nuove informazioni senza metterle in relazione con
ciò che l’ascoltatore già conosce. Ci sono due diversi approcci nel modo in cui una
conversazione viene condotta e compresa (Sperber e Wilson) : il modello del codice
e il modello inferenziale.
Il modello del codice: trae origine dalle teorie dell’elaborazione dell’informazione.
Secondo questo modello, lo stadio iniziale della comunicazione è costituito da un
processo di codifica per mezzo del quale i pensieri del parlante vengono trasformati
nelle opportune parole. Quando vengono pronunciate, queste parole vengono
trasformate in un segnale acustico che, attraverso canali diversi, giunge
all’ascoltatore. Per comprendere i pensieri che il parlante intendeva comunicare
l’ascoltatore deve codificare questo segnale. Sperber e Wilson hanno notato che il
modello del codice assume che il parlante e l’ascoltatore abbiamo una grande
quantità di conoscenze condivise. Se le cose non stessero in questo modo, infatti,
l’ascoltatore non sarebbe in grado di decodificare il segnale nella forma opportuna e
non sarebbe in grado di interpretarlo correttamente. Esempio il caffè mi terrebbe
sveglio-> può significare che bevo il caffè per restare sveglio o che non prendo il
198
199
sarcasmo sono gli strumenti per mezzo dei quali il fine della satira può essere
realizzato. L’oxford english dictionary definisce il sarcasmo come un’osservazione
acuta o tagliente, mentre l’Ironia come una figura retorica in cui ciò che si vuole dire
è esattamente l’opposto di ciò che è espresso dalle parole usate. Ironia viene a volte
considerata come una forma di sarcasmo e, all’interno del linguaggio comune, ironia
e sarcasmo vengono considerati molto simili tra loro. Una frase ironica intende
comunicare l’opposto di quello che è il suo significato letterale e può essere capita
in base al contesto e al tono di voce. Molti sostengono che l’ironia comporti l’uso
della simulazione: il parlante finge soltanto di dire quello che dice.
Caratteristiche dell’ironia:
la prima caratteristica è l’ASIMMETRIA DELL’AFFETTO. In questo caso colui che fa
dell’ironia solitamente si esprime positivamente nei confronti di qualcosa che invece
viene valutata negativamente. (quando un calcio di rigore viene parato- che tiro
magnifico) Alcuni hanno collegato la simmetria dell’affetto al fenomeno Pollyanna.
Un Pollyanna è colui che vede sempre il lato positivo delle cose. Coloro che credono
di saperla lunga considerano queste persone ingenue e ignare di come è fatto il
mondo. Chi fa dell’ironia finge di essere ingenuo in questo senso e di parlare ad un
altro ingenuo. L’Ironia ha le sue vittime. Quando gli individui si esprimono in
maniera ironica, fingono allo stesso tempo, di essere delle persone ignoranti e di
rivolgersi ad altre persone ignoranti. Queste possono essere delle vittime
immaginarie. C’è sempre una vittima, reale o immaginaria, che interpreta in senso
letterale l’enunciato ironico.
Un’altra caratteristica è data dal TONO DI VOCE-> questa particolare caratteristica è
difficile da esprimere con chiarezza.-“che film straordinario”- questo enunciato
detto in un tono particolare ha il senso opposto del significato letterale.
Alcuni studiosi hanno descritto La teoria standard dell’ironia-> L’ascoltatore
inizialmente interpreta l’enunciato ironico in maniera letterale per rendersi conto, in
seguito, che il parlante non può aver voluto dire quello che viene espresso dal
significato letterale delle sue parole. A questo punto l’ascoltatore giunge alla
conclusione che, in realtà, il parlante aveva in mente l’opposto di quello che
effettivamente detto.
Il principio di cooperazione enunciato da Grice, ci aiuta a comprendere in che modo
l’ascoltatore giunge a questa conclusione. In base a questo principio l’ascoltatore si
aspetta che quello che viene detto sia veritiero e pertinente. Nel caso di un
enunciato ironico, l’ascoltatore si rende conto che questo enunciato non può essere
200
201
201
202
203
204
COMPETENZA TESTUALE
consapevolezza metalinguistica-> la capacità di fare riferimento al linguaggio
indipendentemente da ciò che esso descrive. A volte la consapevolezza
metalinguistica viene descritta come la capacità di rendere opaco linguaggio.
Quando qualcosa è opaco, non è possibile vedere attraverso di esso. Solitamente il
linguaggio che ascoltiamo o leggiamo è trasparente: noi non focalizziamo la nostra
attenzione sulle parole in sé, ma piuttosto vediamo attraverso le parole il significato
a cui queste alludono. Rendere opaco il linguaggio significa soffermare lo sguardo
sul linguaggio senza vedere ciò che le parole descrivono. Solo se prendiamo in
considerazione il linguaggio in sé possiamo dire qualcosa a proposito del linguaggio.
Quando il linguaggio viene usato per parlare di linguaggio, ne facciamo di esso un
uso metalinguistico. La competenza testuale ci consente di partecipare a certe
forme del discorso, che uno sappia scrivere o no. La competenza testuale ci
consente di parlare dell’atto linguistico, delle domande, delle risposte e, in una
parola, corrisponde alla capacità di usare un metalinguaggio. Il messaggio linguistico
rende possibile la distinzione tra il testo orale scritto e le interpretazioni che
vengono date di questo testo. Le interpretazioni di un testo vengono percepite
come soggettive. Queste interpretazioni, cioè, vengono considerate come risultato
di processi mentali e non come qualcosa che è oggettivamente fornito dal testo. Ci
sono alcuni termini che vengono usati per descrivere i processi mentali coinvolti
nell’interpretazione dei testi. Questi termini includono parole come interpretare e
inferire. Questi termini fanno parte del linguaggio della competenza testuale: essi
vengono usati per fare riferimento a testi. Così, l’acquisizione della competenza
testuale produce una trasformazione del linguaggio usato.
204
205
Heath ha messo in evidenza il fatto che gli individui di colore abbiano una tradizione
orale molto ricca, un fatto questo al quale la cultura bianca non dall’importanza. La
cultura bianca tende piuttosto a considerare l’individuo di colore come individui
svantaggiati, privati di qualcosa. Uno degli svantaggi che vengono spesso attribuiti
agli individui di colore riguarda la competenza testuale. Però secondo Heath, questa
opinione non è altro che l’espressione dei pregiudizi della maggioranza bianca nei
confronti della cultura nera. Se alla nozione di competenza testuale viene data una
definizione sufficientemente ampia, infatti, ci si può rendere conto del fatto che
all’interno della cultura nera sono presenti forme molto elaborate di competenza
testuale. lo sviluppo delle competenze testuali ha
avuto luogo in modo particolare nel sud degli Stati Uniti dal momento che il clima di
quei luoghi favorisce la vita pubblica nei luoghi aperti e, quindi, quel tipo di
interazione sociale che costituisce un prerequisito per lo sviluppo delle capacità
linguistiche. In un contesto di questo tipo gli individui sono in grado di commentare
spontaneamente e reciprocamente i discorsi degli altri e questa attività favorisce lo
sviluppo delle facoltà metalinguistiche.
-Lingua e cultura
-RELATIVITÀ LINGUISTICA
Il modo in cui una situazione viene percepita dipende da come quella situazione
viene descritta. Le parole che vengono usate per descrivere gli oggetti influenzano il
comportamento degli individui nei confronti di quei medesimi oggetti. Whorf, mette
in evidenza la relazione che c’è tra le parole e la percezione. Noi vediamo,
ascoltiamo e abbiamo delle esperienze nel modo che ci è peculiare perché latitudine
linguistiche della comunità a cui apparteniamo ci predispongono a determinate
scelte interpretative. W. credeva che le differenti categorie grammaticali, come il
plurale, il genere e altre classificazioni di questo tipo possedute da lingue diverse,
contribuisce a creare specifici sistemi categoriali i quali, a loro volta, facevano in
modo che i parlanti di lingue diverse organizzassero le loro esperienze in modo
diverso. Quindi la relatività linguistica afferma che se due lingue sono molto diverse
fra loro, allora anche l’esperienza del mondo di coloro che parlano queste lingue
sarà diversa. Cioè coloro che si servono di sistemi grammaticali molto diversi fra loro
non possono essere considerati come servato di equivalenti ma, invece, devono
essere considerati come individui dotati di una diversa prospettiva sul mond
205
206
206