Sei sulla pagina 1di 206

1

Che cosa sono i processi cognitivi?


La cognizione è l’atto di conoscere. Lo studio della cognizione costituisce lo studio di
un processo, ovvero del modo in cui noi acquisiamo conoscenza proposto delle cose.
inoltre, la cognizione può essere considerata come una facoltà. Al concetto di
cognizione sono associati quelli di consapevolezza, comprensione, intelligenza,
intuizione, conoscenza personale, riconoscimento, abilità e intelletto.
La cognizione come facoltà
In passato gli psicologi credevano che fosse possibile classificare le attività mentali in
tre diverse facoltà: la facoltà cognitiva, la facoltà affettiva e la facoltà volitiva. Termini
meno formali per esse sono conoscenza, sentimento e decisione. La psicologia della
facoltà è basata sull’idea che la mente imponga le sue strutture nei confronti
dell’esperienza, questo significa che l’esperienza organizzata in base principi della
mente e che il significato degli eventi viene creato degli individui. Gli individui
riorganizzano gli eventi in modo tale da renderli coerenti con la loro stessa struttura.
In qualunque circostanza, gli individui hanno dei pensieri, sono soggetti a delle
emozioni e compiono delle scelte. In tutti i casi gli individui avranno delle esperienze
corrispondenti a queste tre classi di eventi mentali. Dal punto di vista della psicologia
delle facoltà, questo accade a causa della predisposizione innata della mente a
pensare e ad avere delle emozioni a compiere delle scelte. Secondo Kant gli individui
organizzano la loro esperienza nei termini di cause e di effetti. Ciò significa che le
relazioni di causa ed effetto non sono date nel mondo, ma sono invece delle
categorie che gli individui impongono su di esso: Gli eventi che si verificano in
prossimità spaziale temporale gli uni con gli altri tendono ad essere interpretati come
l’uno la causa dell’altro, indipendentemente da come stiano effettivamente le cose.
Secondo la psicologia delle facoltà, la causalità rappresenta una modalità di
rappresentazione degli eventi piuttosto che una proprietà degli eventi medesimi. il
tema generale proprio della psicologia della facoltà è rivolta al tentativo di mettere in
luce le relazioni che intercorrono tra le diverse componenti di ciascuna facoltà
mentale. La cognizione è la facoltà connessa alle attività di memoria, immaginazione,
giudizio e ragione.
L’emozione è la facoltà volta alla valutazione degli eventi nei termini del loro
contenuto di piacere o di dolore.
La volizione è la facoltà che sovrintende l’attività della decisione. →
Le decisioni possono essere razionali oppure possono essere il prodotto di processi
irrazionali. queste tre attività mentali si influenzano a vicenda. L’insieme delle teorie
che i non-specialisti possiedono riguardo i processi psicologici costituisce la psicologia
del senso comune o psicologia ingenua.

1
2

→ Psicologia del senso comune e psicologia cognitiva


Rips e Conrad analizzano le credenze dei non-specialisti a proposito
dell’organizzazione delle attività mentali:
Gli individui fanno uso nelle loro classificazione di 2 relazioni diverse. La prima è la
relazione é-una-specie-di, ad esempio: “il cuore è una specie di organo”. Analizzare é
una specie di pensare.
La seconda è una relazione é una-parte di, ad esempio: “la mia gamba è una parte del
mio corpo”.
Pensare è una parte di analizzare. Se una prima attività mentale (analizzare) è una
specie di una seconda attività mentale (pensare), allora la seconda attività mentale
(pensare) é anche una parte della prima (analizzare).
Questa reciprocità non è però presente nelle classificazioni degli eventi NON mentali.
(esempio: una sedia è una specie di mobile ma i mobili certamente non vengono
considerati come una parte delle sedie!)
Un’attività mentale viene considerata come parte di un’altra attività mentale se le
due attività vengono percepite come simili.
Le nostre opinioni a proposito delle attività mentali sono molto più vaghe delle nostre
opinioni riguardanti le relazioni tra le parti degli oggetti fisici.
Metacognizione e psicologia cognitiva
La nozione di meta cognizione si riferisce alle conoscenze riguardanti le modalità di
funzionamento dei processi cognitivi. lo studio della psicologia cognitiva può dunque
essere considerato come un processo volto allo sviluppo della meta cognizione. La
psicologia cognitiva non ha ancora trovato una risposta definitiva ai quesiti che si è
posta e deve essere considerata come un’area di ricerca in pieno sviluppo.
Lo studio dei processi cognitivi: i vari orientamenti
Associazionismo:
Gli associazionisti credono che gli individui non siano dotati di molte conoscenze alla
nascita, secondo alcuni estremisti di tale dottrina la mente di un bambino è
pressoché vuota alla nascita e le sue strutture emergono passivamente a causa
dell’influenza esercitata dall’ambiente il quale può imprimere nella mente del
bambino presso che qualsiasi cosa e che, nello stato terminale dello sviluppo, la
struttura mentale adulta sia costituita da un vasto reticolo di associazioni tra gli
eventi che sono stati da egli vissuti. Le associazioni unificano le differenti strutture
mentali. (esempio: se noi vediamo molto spesso due amici insieme, allora la vista di
uno di essi ci farà immediatamente venire in mente l’immagine dell’altro. I due amici
sono diventati associati nella nostra mente)

2
3

Thorndike
è considerato il pioniere dell’associazionismo. Egli eseguì alcuni famosi esperimenti
sui gatti —> Un gatto viene chiuso in una gabbia, la cui porta può essere aperta
attraverso una leva appesa al soffitto della gabbia. Dopo vari tentativi il gatto
imparerà a premere la leva e a fuggire quindi dalla gabbia. Questo è un
apprendimento graduale che procede per prove ed errori. Il gatto ha così appreso
un’associazione, ovvero una connessione tra lo stimolo (la leva) e la risposta (la
pressione esercitata sulla leva).

Skinner
È l’esponente di un approccio psicologico chiamato Comportamentismo, secondo cui
l’attività di pensiero costituisce una forma di comportamento controllato
dall’ambiente, come qualsiasi altra forma di comportamento, e credeva che la
caratterizzazione dell’attività del pensiero nei termini delle associazioni tra stimolo e
risposta fosse preferibile alla concezione non scientifica secondo la quale l’attività del
pensiero costituisce l’attività mentale.
Il comportamento è il prodotto dell’attività mentale e può essere analizzato più
efficacemente dell’attività mentale per mezzo dello studio delle relazioni tra stimolo
(S) e risposta (R).
Teoria della catena associativa
Gli individui sono capaci di eseguire sequenze molto rapide di risposte, ciascuna
risposta può diventare a sua volta lo stimolo per la risposta successiva. Però questa
teoria non può spiegare la preattivazione (priming) di una risposta. Può accadere che
una risposta si verifichi in una posizione della sequenza precedente a quella prevista
in base all’attivazione da parte dello stimolo immediatamente precedente. Ad
esempio, gli errori anticipatori. Una famosa classe di errori di questo tipo è chiamata
SPOONERISMO (esempio a pagina 24 del libro “processi cognitivi”)
Conclusione: é come se l’intera sequenza di parole fosse stata selezionata prima che
la frase venisse pronunciata.
Questo fenomeno sembra richiedere una procedura di pianificazione molto diversa
dal processo sequenziale da sinistra verso destra proposto dalla teoria (S-R).
Critica di Chosmky a Skinner:
Skinner sosteneva che il linguaggio può essere compreso per mezzo dei principi di
stimolo e risposta, mentre Chomsky sosteneva che quei principi non consentono, ad
esempio, di spiegare l’uso creativo del linguaggio. Infatti secondo Chomsky il
linguaggio deve essere considerato come un fenomeno controllato da un insieme di
processi centrali piuttosto che come un processo periferico che tratta le parole come
3
4

stimoli e risposte. Il processo attraverso il quale le idee vengono trasformati in


linguaggio è un esempio di processo cognitivo.

Gestalt percezione. La psicologia della Gestalt (fango)


Siamo nell’ambito della percezione. Innanzitutto dobbiamo dire che il termine Gestalt
significa forma o configurazione e gli psicologi di questa scuola si sono principalmente
occupati delle diverse forme che l’esperienza prende in occasioni e circostanze
sempre differenti. Secondo questi psicologi, il tratto peculiare dell’esperienza è la sua
tendenza ad avere un carattere unitario e coerente tanto che la formula da loro
utilizzata per esprimere al meglio questo punto di vista é che “il tutto è diverso dalla
somma delle singole parti.”.
Fattori gestaltici nella percezione:
Secondo il principio Gestaltico noi individui tendiamo a percepire gli oggetti in
maniera olistica. Questi psicologi sostengono che noi infatti siamo portati ad
organizzare la nostra esperienza nel modo più semplice e coerente possibile. A tal
proposito, uno di loro, Wertheimer, ha proposto la dimostrazione del movimento
apparente, detto anche fenomeno phi. Tale fenomeno riguarda l’impressione di
movimento suscitata dalle luci di un’insegna luminosa che pur dando l’impressione
che si stiano muovendo in realtà semplicemente si accendono e spengono ad
intermittenza. Quando poi l’interruttore viene impostato sulla giusta velocità, quello
che otteniamo è un’unica ombra anziché due che si alternano. Con questo fenomeno
Wertheimer ci vuole dimostrare che l’esperienza nel suo complesso è più semplice di
quanto lo siano le condizioni dello stimolo.
Principi Gestaltici di organizzazione:
Il fatto che l’esperienza tenda ad essere percepita nella forma più semplice e
coerente possibile può essere dimostrato dal fatto che gli psicologi della Gestalt
hanno sviluppato delle leggi che hanno in comune due aspetti:
1)sono tutte espressioni del principio del minimo (cioè del principio di economia
percettiva)
2) sono tutte espressioni del principio del tutto. il tutto è diverso dalla somma delle
singole parti.
le leggi dell’unificazione formale sono la legge della vicinanza, della somiglianza, la
legge del destino comune, la legge della continuità o buona direzione, la legge
della chiusura, tutte queste riconducono alla legge della pregnanza.

4
5

Secondo la legge della vicinanza : vengono unificati tra loro gli elementi più vicini.
Tendiamo infatti a vedere gli elementi di uno stimolo che si presentano vicini tra
loro come parte dello stesso oggetto, mentre quelli che sono distanti come oggetti
separati.

somiglianza: per la quale tendiamo a ritenere parte della stessa configurazione gli
elementi simili tra loro, mentre tendiamo a separare gli elementi dissimili . La legge
della somiglianza sostiene che tanto più 2 o più elementi sono tra di loro simili, per
forma, colore, dimensione e orientamento nello spazio ecc., tanto più essi tendono
ad essere assimilati l'uno con l'altro.

Chiusura: è la tendenza a percepire un gruppo di singole figure o elementi come


un’unica configurazione invece che come una serie di oggetti indipendenti.

Continuità: per la quale prevalgono le organizzazioni che minimizzano il


cambiamento di direzione. Per continuità di direzione si intende il fatto che se un
segmento si perpetua nello spazio, viene percepito come un segmento unico,
rispetto a dei segmenti che invece hanno delle interruzioni o disegnano delle
traiettorie meno abituali e simmetriche.

Legge del DESTINO COMUNE: gli elementi di un gruppo che condividono le


medesime caratteristiche di movimento, ritmo o orientamento (che hanno lo stesso
destino), vengono percepiti come un insieme unitario, raggruppati e visti come
figura

Gli psicologi della Gestalt credevano che l’influenza esercitata dai fattori appena
esplicati sulle parti di una configurazione costituisse il riflesso di una tendenza
naturale dell’esperienza verso la pregnanza. (Esperimento pag 27 del libro Processi
Cognitivi)
—> La tendenza verso la pregnanza. Per pregnanza si intende il fatto che vengono
percepite come figure quelle configurazioni che appaiono armoniche, simmetriche, e
semplici. Inoltre con il termine pregnanza intendiamo che l’organizzazione
dell’esperienza presente é più importante di quanto lo sia stato l’apprendimento
precedente. Quindi l’organizzazione degli elementi presenti neutralizza l’influenza
dell’esperienza passata.
Inoltre, il modo in cui percepiamo noi gli oggetti dipende, in parte, dal contesto nel
quale sono inseriti. (esperimento pagina 28 del libro Processi Cognitivi).

5
6

Articolazioni figure-sfondo
Un altro aspetto su cui la Gestalt si è soffermata è l’articolazione figura sfondo, che è
il caso più semplice di stratificazione di un’immagine. Particolarmente si è
concentrata su quali siano i principi che ci permettono all’interno di una
configurazione di percepire alcuni elementi come figure e altri invece come sfondo
amorfo e indistinto. Per questo motivo
Leggi dell’articolazione figura-sfondo
Tali psicologi hanno individuato delle leggi che determinano il modo in cui noi
individui andiamo a segmentare una figura
• Legge dell’Inclusione: secondo la quale se abbiamo una figura inclusa e una
includente percepiamo come figura la regione inclusa
• Area minore: qui vengono viste come figure le regioni di area minore rispetto
a quelle di area maggiore
• Larghezza costante: secondo tale legge siamo portati a codificare come figura
una forma regolare piuttosto che una irregolare in quanto ci risulta meno
faticoso
• Infine abbiamo anche quella che viene considerata come una sotto-legge,
ovvero la funzione univoca e unilaterale dei bordi, secondo la quale il
contorno apparterrebbe solamente a quelle regioni percepite come figure e
non allo sfondo
Tutte queste leggi sono espressione del principio di minimo per il quale il sistema
visivo tende a minimizzare l’organizzazione degli oggetti
Lei a lezione ci ha mostrato delle immagini che rappresentano esempi di queste ed
altre leggi, la prima è che:

A. data un’immagine dove compare un reticolato e una figura nera, secondo la


legge dell’inclusione noi siamo portati a vedere come figura l’immagine nera e
come sfondo il reticolato invece di percepire quest’ultimo come figura che si
rompe al centro su uno sfondo nero
6
7

B. poi abbiamo l’esempio delle figure concave e convesse dove appunto


percepiamo come figura la regione convessa e come sfondo quella concava.
C. Poi abbiamo l’esempio della legge di area minore. Ovvero un’immagine in cui
viene rappresentata una croce nera su sfondo bianco, noi la percepiamo
infatti proprio in questo modo perché come abbiamo detto il nostro sistema
percettivo tende a vedere come figura l’area minore, anche se, se ci
soffermassimo per un po’ di tempo a guardare lo sfondo bianco sarebbe
possibile percepire anche l’inverso, e quindi lo sfondo bianco come figura e la
zona nera come sfondo.
D. Infine come ultima configurazione abbiamo i quattro triangoli neri che si
presentano su sfondo bianco , qui viene dimostrata la legge
dell’orientamento. In questo caso infatti percepiamo come figura la regione
orientata verso gli assi principali, ovvero quelli verticali e orizzontali.

Altro esempio di organizzazione figura-sfondo è quello dell’esperimento detto


priming di immagine
In questo esperimento vengono presentati due stimoli, prima lo stimolo definito
Prime e successivamente lo stimolo definito Target, dove appunto il compito del
primo è quello di influenzare la risposta sul secondo.
Nel concreto in questo esperimento viene prima presentata una prima immagine
raffigurante un ovale, un cerchio e una figura più complessa
Poi l’immagine scompare e vengono presentate due figure A e B , il compito dei
soggetti era quello di dire quale delle due figure era contenuta nello stimolo prime
I soggetti sono addestrati a rispondere di sì alla figura A ma in realtà la figura esatta
che era contenuta nella prima immagine era la B che è lo sfondo verde che correva
dietro e che era interrotto dalle tre figure che risaltavano
Questo dimostra che quando una figura emerge rispetto allo sfondo questo cessa di
avere una forma che neppure viene percepita, se viene anche ripetuta dopo secondi
questa non viene vista come tale dai soggetti dell’esperimento
Formazione delle unità percettive secondo Asch
L’idea che sia possibile descrivere il processo di apprendimento nei termini della
formazione di semplici connessioni o associazioni fu inaccettabile per gli psicologi
della Gestalt, i quali credevano che la mera contiguità non fosse sufficiente affinché
l’apprendimento potesse avere luogo. Gli individui tendono a percepire gli eventi
come unità coerenti e soltanto in seguito alla percezione del carattere unitario degli
7
8

eventi gli individui apprendono che gli elementi che li compongono sono tra loro
associati.
Asch mise a punto l’esperimento dei pattern (pag 30): Ai soggetti venivano presentati
pattern che sono unità oppure aggregati. Questi ultimi sono realizzati alternando la
disposizione spaziale degli elementi costitutivi delle unità. Ogni pattern viene
presentato per quattro secondi e il compito di soggetti é di rievocare i pattern
riproducendoli attraverso un disegno. Il risultato fu che le unità sono ricordate meglio
rispetto agli aggregati in quanto le unità sono configurazioni percettivamente
coerenti, mentre gli aggregati non sono percettivamente coerenti e per questa
ragione vengono ricordate con maggiore difficoltà.
Teoria del pensiero della Psicologia della Gestalt
Kohler, psicologo gestaltico, condusse un esperimento osservando il comportamento
di uno scimpanzé che non poteva raggiungere un oggetto desiderato, ovvero una
banana, senza aumentare in maniera artificiale l’estensione delle sue braccia. Per
poter raggiungere la banana lo scimpanzé avrebbe dovuto prendere un bastone e
usarlo come strumento per avvicinare a se la banana. Mentre gli associazionisti
tendevano a considerare la soluzione di problemi come il risultato di un processo di
prove ed errori, Kohler dal suo canto non negava che vi fossero prove ed errori, ma
credeva che prove ed errori rappresentassero l’aspetto meno importante del
processo attraverso il quale l’animale otteneva un insight ha proposto di requisiti del
problema: quando l’animale capiva quello che la situazione richiedeva, allora si
rendeva conto di quello che doveva essere fatto. A questo punto l’animale era in
grado di usare in maniera intelligente un bastone per colmare la lacuna (ovvero lo
spazio tra la posizione della banana e la massima estensione delle sue braccia).
L’insight rappresenta la consapevolezza improvvisa di ciò che deve essere fatto per
risolvere un problema.

Contributi recenti alla psicologia della Gestalt


Principio del mínimo: la nostra esperienza tende naturalmente ad assumere
l’organizzazione più semplice possibile. Questo fenomeno è chiamato principio del
minimo. Alcuni studiosi hanno confrontato il principio di semplicità con quello di vero
somiglianza, ovvero la percezione tende all’organizzazione che rappresenta l’evento
più probabile. Questi ricercatori credono che la semplicità rappresenti una tendenza
più fondamentale di quella della verosimiglianza. Le leggi della Gestalt attribuiscono
allo stimolo l’interpretazione più semplice possibile.

8
9

Teorie dell’elaborazione dell’informazione. Approccio HIP.


Prima di poter esporre l’ approccio informazionale ci tenevo a dare la definizione che
assume la nozione di informazione in ambito psicologico. Secondo Garner,
l’informazione è ciò che viene trasmesso quando una persona oppure una macchina
ci dicono qualcosa di cui non eravamo a conoscenza prima. Da ciò ne consegue che la
comunicazione é informativa soltanto nella misura in cui riduce una condizione di
incertezza. Ad esempio se lanciassimo una moneta che ha testa su entrambi i lati, il
suo risultato non ci fornirebbe nessuna nuova informazione dato che non ci
sarebbero dubbi rispetto all’esito. invece il lancio di una moneta regolare è
considerato informativo in quanto essendo il risultato incerto, qualsiasi esso sia
l’esito, ci da un informazione in più. Inoltre all’aumentare delle alternative aumenta
di conseguenza anche l’incertezza riguardo una certa situazione. L’unità di misura che
viene utilizzata per l’informazione è il bit (binary digit). Se un evento può produrre
due esiti che sono probabili allo stesso modo allora significa che sarà trasmesso 1
solo bit di informazione, cosi nel caso in cui le alternative sono 4, i bits saranno 2 e
cosi via. Quindi al raddoppiare del numero delle alternative la quantità di
informazione trasmessa cresce di un bit. I primi studi sull’approccio informazionale si
sono interessati a capire quanta informazione potesse essere trasmessa,
soffermandosi quindi sulla capacità del canale. I risultati furono che se un soggetto
fosse stato in grado di trasmettere un numero indefinito di eventi questo sarebbe
stato un perfetto dispositivo di trasmissione di informazioni, ma questo nella realtà
non è possibile che accada in quanto questa è una capacità davvero limitata.
Approccio di Miller, Galanter e Pribram
Successivamente si sono occupati del come l’informazione potesse controllare il
nostro comportamento. Partiamo quindi dal definire quest’ultimo; secondo Miller,
per comprendere che cosa sia il comportamento dobbiamo distaccarci dall’idea
secondo cui un’azione sarebbe solo un sequenza di stimoli e risposte e concepirla
invece come un qualcosa di più strutturato. Quindi Miller riteneva che fosse
opportuno superare l’idea di un modello sequenziale per poter sviluppare invece un
modello di tipo Top- Down: un modello di questo tipo si sviluppa a partire dalla
distinzione che intercorre tra unità di comportamento molari e unità di
comportamento molecolari. Le prime si distinguono in quanto vengono descritte nei
termini dei loro scopi, come ad esempio imbucare una lettera, ottenere una laurea,
sono definite anche strategie e sono piuttosto costanti, una caratteristica di queste
unità molari è che esse possono essere svolte e portate a termine in molti modi
diversi, questi modi costituiscono le unità di comportamento molecolari, che sono
anche chiamate tattiche e la loro peculiarità è che sono estremamente variabili.
quindi la stessa unità molare può essere caratterizzata da una grande varietà di unità
9
10

molecolari diverse e per questo motivo il comportamento é organizzato


gerarchicamente, come ad esempio: per raggiungere la luna è stato necessario che
venissero realizzate innumerevoli azioni su scala minore come ad esempio
l’addestramento degli astronauti e la costruzione della navicella. Quando noi individui
stiamo per svolgere un’azione mettiamo in atto un piano, ovvero una serie di
istruzioni da mettere in pratica per eseguire una certa azione, quindi per
comprendere il nostro comportamento è necessario comprenderne i piani.
Miller, Galanter e Primbram hanno ideato un’unità di monitoraggio chiamata TOTE.
In una semplice unità TOTE un’azione viene suscitata dall’incongruità tra la situazione
presente e lo stato di cose che vogliamo raggiungere:
T = nella prima fase definita di TEST l’individuo verifica se è presente un’incongruità
O – nella seconda fase, chiamata OPERATE il soggetto mette in pratica un’azione per
eliminare l’incongruità riscontrata
T- nella terza fase si verifica di nuovo una fase di controllo, quindi viene ripetuta la
fase (TEST)
E- se l’incongruità è stata eliminata, l’individuo conclude il programma (EXITE)

altrimenti si ritorna alle fase operate fino a quando l’incongruità non viene
definitivamente rimossa. In conclusione il nostro comportamento è quindi regolato
dalle intenzioni che noi stessi ci imponiamo.
Le prime simulazioni su calcolatore
questo per quanto riguarda i nostri piani, ma come facciamo a sapere quali sono i
piani di un’altra persona?
Inizialmente si faceva ricorso ad alla cosiddetta tecnica del parlare ad alta voce, per
mezzo della quale si chiedeva a dei soggetti di descrivere ad alta voce quali fossero i
loro piani. Ben presto questa tecnica si rivelò essere fallibile o quanto meno si scoprì
che questa fosse una tecnica dai risultati troppo approssimativi e da qui nasce
l’esigenza di creare i cosiddetti programmi per calcolatore. Come si può dedurre
anche già da questa didascalia, i programmi per calcolatore sono ovviamente dei
programmi per computer programmati e quindi destinati ad una simulazione fedele
del comportamento degli individui. Per verificare se il programma è adatto a svolgere
questo tipo di compito bisogna prestare attenzione ai risultati, se infatti i risultati
ottenuti sono uguali a quelli prodotti dagli individui allora possiamo dire che il
programma rappresenta una teoria adeguata del comportamento dei soggetti., in
caso contrario bisognerebbe rivedere il programma e migliorarlo.

10
11

TEST DI TURING:
La più famosa simulazione su calcolatore viene fatta risalire al Test di Turing, il quale
propose un gioco di imitazione. Ammettiamo che in due stanze diverse ci siano da
una parte un essere umano e dall’altra un calcolatore. Il test consiste nel porre le
stesse domande ad entrambi per mezzo di un terminale, successivamente, dopo aver
ricevuto le risposte di entrambi lo scopo era quello di distinguere le risposte del
calcolatore da quelle del soggetto. Se le risposte ricevute fossero state combacianti,
significa che il calcolatore era stato programmato in modo tale da non far distinguere
le risposte, e ciò significa che rappresenta una teoria adatta alla simulazione del
comportamento umano in quella situazione specifica e quindi il programma
passerebbe quindi il test di Turing. Quest’ultimo ha dato poi il via a numerose
creazioni di programmi che avevano lo scopo di imitare il comportamento umano.
Questi programmi grazie al riconoscimento di quelle che sono definite parole chiave
generano delle risposte seguendo tutta una serie di regole. L’approccio
informazionale e i programmi per calcolatore sono stati poi oggetto di studio di
Neisser.
APPROCCIO DI NEISSER
Secondo Neisser, se programmati nel modo giusto i calcolatori ci permettono di
simulare in modo fedele le operazioni svolte dagli individui. Neisser ritiene che al pari
di un tecnico che vuole studiare i programmi di un computer uno psicologo studia i
processi cognitivi dell’uomo. Però bisogna saper ben distinguere i programmi per
computer dal computer stesso, perché i primi non sono delle macchine ma dei
programmi che eseguono una serie di istruzioni a partire dagli input ricevuti
dall’esterno e che sono destinati a svolgere determinate operazioni piuttosto che
altre. Quindi l’approccio informazionale, intende studiare il modo in cui siamo
programmati.
Quello su cui Neisser si sofferma maggiormente è il come il processo di elaborazione
dell’informazione si sviluppi a partire da uno stimolo iniziale, il suo studio infatti si
riversa nei confronti dell’icona, che è il primo stimolo che riguarda il nostro sistema
visivo. Per capire l’importanza di un’icona è necessario prendere in considerazione
l’esperimento condotto da Sperling. L’esperimento consiste nel presentare su uno
schermo per 50 millesimi di secondi una matrice di lettere che veniva fatta poi
scomparire per lo stesso tempo. Il compito richiesto ai soggetti sperimentali era
quello di ricordare il maggior numero di lettere, ma in questo modo i soggetti erano
in grado di riportare nemmeno la metà delle lettere. Cosi successivamente la matrice
di lettere veniva presentata accompagnata da tre diversi suoni, di diversa intensità,
quindi alta media e bassa, e ciascuno di essi indicava una diversa riga di lettere da
ricordare. In questo modo i soggetti anche quando le lettere non erano più presenti
11
12

sullo schermo in base al suono emesso erano in grado di ricordare tutte le lettere
della matrice. Questo sta ad indicare che vi è una copia dello stimolo visivo che
sopravvive anche quando lo stimolo non è più presente, e che dopo essere stata
immagazzinata può essere elaborata ulteriormente.

Riconoscimento di Pattern:
Il riconoscimento di configurazioni è un processo estremamente comune ed
importante, come ad esempio riconoscere una tazzina da caffè. Neisser chiama
questo processo riconoscimento di pattern, che implica una relazione tra percezione
e memoria. La mia percezione della lettera A, per esempio, deve in qualche modo
poter entrare in contatto con la traccia di memoria di A. Il processo attraverso il quale
una percezione entra in contatto con una traccia di memoria chiamato funzione di
Hoffding.
Neisser ha posto l’accento su due teorie:
1. Il confronto tra sagome: è possibile che all’interno della memoria siano
immagazzinate le sagome corrispondenti alle forme tipiche delle configurazioni che
vediamo. Il riconoscimento dovuto al confronto tra sagome è basato sul confronto tra
i pattern da riconoscere e la sagoma prototipico immagazzinata in memoria. una
lettera però può avere forme diverse. In base alla teoria del confronto fra sagome
possiamo riconoscere ciascuna di queste forme se vi è un’adeguata corrispondenza
tra essa e la forma prototipiche immagazzinata in memoria. il problema è quello di
spiegare come il confronto fra sagome possa essere applicato a sagome simili
piuttosto che a sagome identiche. Non è facile definire le caratteristiche che un
pattern deve possedere per essere sufficientemente simile ad una sagoma di
confronto così da rendere possibile il riconoscimento. Per questo motivo l’ipotesi del
confronto fra sagome stata spesso criticata.
Analisi delle caratteristiche: Le configurazioni sono identificate in base alle loro
caratteristiche. Le caratteristiche sono attributi, o proprietà come grandezza, colore,
forma e così via. È possibile che noi analizziamo le caratteristiche possedute da una
configurazione e che riconosciamo una configurazione se possiede le caratteristiche
richieste. Una delle teorie più influenti a riguardo è quella proposta da Selfridge =
Pandemonium idealizzato
Il modello pandemonium idealizzato é costituito da tre livelli: il livello inferiore
contiene i dati, ovvero l’immagine all’interno della quale un insieme di attributi viene
rappresentato. Il livello successivo contiene i demoni cognitivi, concepiti come piccoli
folletti che esaminano gli attributi dell’immagine. Ciascun demone cognitivo rileva
uno specifico pattern. Sei un demone cognitivo pensa di aver rilevato il pattern
12
13

appropriato, allora incomincia a strillare. Tanto di più il pattern nell’immagine


assomiglia a quello che il demone sta cercando, tanto più forte il demone strilla. Tutti
i demoni possono strillare contemporaneamente, con intensità diversa a seconda
della somiglianza del pattern che stanno cercando e il pattern presente
nell’immagine. Insieme a tutti questi demoni c’è il demone della decisione che
ascolta il pandemonio e seleziona il demone che strilla più forte ,questa scelta
corrisponde al pattern che viene riconosciuto.
Altri modelli relativi agli stadi di elaborazione dell’informazione:
Norman e Bobrow descrivono in un loro modello il flusso di informazioni nel tempo:
inizialmente i segnali fisici (suono o energia luminosa) vengono trasformati in una
forma che può essere usata dal sistema cognitivo (trasduzione sensoriale).
—> lo stadio successivo è quello dell’immagazzinamento iconico che ha luogo nel
registro sensoriale; lo stadio di elaborazione successivo a quello del riconoscimento è
quello della memoria a breve termine, chiamata anche temporanea o di lavoro e che
contiene ciò di cui siamo consapevoli in un dato momento. Lo stadio finale
dell’elaborazione dell’informazione è rappresentato dalla memoria lungo termine in
cui sono depositate le memorie permanenti. Il riconoscimento di pattern ha luogo se
un item recuperato dalla memoria a lungo termine viene accoppiato con un item nel
registro sensoriale.

CRITICA DI BROADBENT
Questi modelli degli stadi di elaborazione dell’informazione secondo Broadbent
hanno un’eccessiva linearità in quanto il flusso dell’informazione in questi modelli è
concepito come un flusso in una direzione soltanto, dallo stimolo in avanti. Un altro
limite riguarda il fenomeno delle differenze individuali: le stesse informazioni
possono essere elaborate in modi diversi da persone diverse. Un terzo limite riguarda
la nozione di stadio: è possibile che uno stadio di elaborazione inizi prima che un altro
venga completato? Broadbent risolve questi problemi proponendo un modello a
CROCE MALTESE in cui le informazioni vengono mantenute nel registro sensoriale
fino al momento in cui vengono rimpiazzati da nuove informazioni. La memoria di
lavoro astratta (simile alla MBT) e il magazzino associativo a lungo termine (simile alla
MLT) fanno parte di questo modello; il magazzino delle risposte motorie contiene
programmi di azioni pianificate o già eseguite. Questi sono quattro braccia della
Croce sono collegate ad un sistema di elaborazione centrale, che ha la funzione di
trasformare l’informazione proveniente da un braccio della croce in una forma che

13
14

può essere usata da un altro braccio della croce. L’informazione quindi può muoversi
in modi diversi attraverso il sistema.
APPROCCI ECOLOGICI ALLA PERCEZIONE
La teoria della percezione visiva di GIBSON
Gibson ritiene che l’informazione non sia qualcosa che viene elaborata dall’individuo
ma ritiene che sia semplicemente disponibile nell’ambiente e in quanto tale
l’informazione può essere raccolta dall’organismo. L’informazione non è formata da
una serie di segnali che devono essere interpretati ma da invarianti strutturali a cui è
soltanto necessario prestare attenzione.
Esempio di invariante strutturale: la faccia umana è soggetta ad una trasformazione
geometrica, nel corso del processo di invecchiamento, chiamata Strain (distorsione).
La capacità di percepire l’identità di un individuo dipende dall’abilità di utilizzare
un’invariante strutturale che si preserva nel corso del tempo.
Neisser integra l’approccio ecologico di Gibson con l’approccio informazionale. un
approccio ecologicamente valido deve dedicarsi allo studio dei processi cognitivi
all’interno di ambienti realistici e deve fare riferimento alle opportunità che si offrono
gli individui. Neisser ha proposto un modello circolare: la mappa cognitiva contiene le
nostre conoscenze enciclopediche. —> Queste conoscenze stabiliscono ciò che ci
aspettiamo di trovare nel mondo e rappresentano il nostro schema dell’ambiente
circostante. —> Le aspettative derivanti da queste conoscenze guidano la nostra
attività di esplorazione del mondo e del corso delle esplorazioni noi ci imbattiamo in
informazioni inaspettate. —> Queste informazioni possono modificare le nostre
credenze e le nostre aspettative.
In generale, individui esplorano attivamente il mondo in base alle loro aspettative e il
mondo modifica le aspettative degli individui. La nozione di schema fa riferimento ad
un piano, ad una struttura, che è un carattere astratto e che è una guida per l’azione.

CONNESSIONISMO:
Secondo questo approccio, l’informazione è costituita da elementi e da connessioni
fra questi elementi. I modelli connessionistici consentono l’elaborazione in parallelo
dell’informazione (ovvero molti connessioni possono essere attiva in maniera
simultanea) anziché soltanto quella seriale secondo cui soltanto una connessione può
essere attiva in un determinato momento. La differenza tra l’approccio
connessionista e quello informazionale sta nel fatto che il funzionamento di un
sistema connessionista non è regolato da particolari regole o procedimenti, piuttosto
la conoscenza è distribuita nella configurazione globale della forza delle connessioni
tra le unità che costituiscono il sistema. I modelli informazionali corrispondono al
14
15

software cognitivo mentre i sistemi connessionistici, o reti neurali, corrispondono


all’hardware soggiacente alle nostre attività di pianificazione.

Processi percettivi di base


Normalmente, chi ragiona sulla percezione visiva si ritrova a pensare che la presenza
di luce costituisca una condizione indispensabile per la visione degli elementi. Il
nostro pensiero, cioè la logica ingenua, viene facilmente catturato dall’idea che “se
c’è luce, c’è visione” e “se non c’è luce, allora non c’è visione”.
Il fenomeno della nebbia (in condizioni di nebbia di luce all’occhio ne arriva
tantissima, e si è costretti a muoversi alla cieca come se fosse buio), dimostra che
anche se c’è molta luce essa non serve a niente se è omogenea: affinché sia possibile
la visione degli oggetti, nell’immagine che arriva all’occhio devono esserci delle
disomogeneità, delle differenze tra una zona e l’altra, quella preziosa relazione tra
bordi degli oggetti fisici e dislivelli nella distribuzione della luce che costituisce
l’informazione normalmente utilizzata dal sistema occhio-cervello per costruirsi una
visione del mondo. Dunque, la variabile importante per la visione degli oggetti non è
l’energia luminosa, ma l’informazione ottica, intesa appunto come insieme di
disomogeneità presenti nella distribuzione della luce. È indispensabile avere ben
chiare alcune proprietà dell’informazione ottica: la sua varietà e ricchezza, i suoi limiti
e la sua manipolabilità.
L’esperimento naturale della nebbia è stato più volte riproposto in laboratorio come
così anche altre modalità, e questo viene definito effetto Ganzfeld o anche “campo
totale”, ovvero condizione limite in cui l’energia luminosa è identica in tutte le
direzioni che si dipartono dal punto di vista.
I processi percettivi di base fanno sì che l’informazione raccolta dagli organi sensoriali
periferici viene raccolta, codificata e organizzata, per essere resa disponibile ai
processi di riconoscimento. Questi processi corrispondono sostanzialmente
all’emergere di oggetti strutturati.
Codifica e organizzazione
Informazione è un tipico concetto relazionale. Non ha alcun senso pensare
all’informazione come una proprietà materiale indipendente dall’osservatore in
grado di utilizzarla. Ma non tutti gli osservatori sono uguali. Bisogna distinguere tra
osservatore ideale, in grado di utilizzare tutta l’informazione disponibile, e

15
16

l’osservatore reale (ad esempio un essere umano) in grado di utilizzarne una parte
soltanto.
Non tutto quello che c’è si vede: ad esempio la proprietà geometrica della
connessione è percepita soltanto in determinate condizioni, in altre non è rilevata
oppure risulta mascherata. (pag 51, libro psicologia generale).
Molti fenomeni importanti per lo studio scientifico della percezione hanno a che fare
con la contrapposizione tra quello che c’è nell’immagine (che è quindi disponibile
all’osservatore ideale) e ciò che viene effettivamente percepito (da un osservatore
reale).
Un altro esempio è quello dell’orientamento: la presenza di un segmento obliquo in
mezzo a tanti segmenti diritti salta all’occhio (pop up), mentre trovare un segmento
diritto in mezzo a tanti segmenti obliqui richiede un maggiore sforzo attentivo
(pagina 52, libro psicologia generale).
Inoltre scoprire da che parte sta il segmento diritto risulta via via più difficile man
mano che aumenta il numero di segmenti circostante, che fungono da elementi
distraenti. Ciò non accade per il segmento obliquo in mezzo a tanti segmenti diritti,
che viene scoperto in tempo costante, indipendentemente dal numero di elementi
distraenti. Questa viene definita asimmetria della ricerca visiva ed è dovuta al fatto
che scoprire un elemento deviante in un contesto normale è più facile che non
viceversa. L’effetto di asimmetria della ricerca indica che la percezione è organizzata.
Le configurazioni percettive possiedono una struttura gerarchica, nel senso che
alcune parti fungono da riferimento, o da ancoramento per altre. Nel dominio
dell’orientamento, il ruolo di sistema di riferimento è giocato dagli assi verticali e
orizzontali.
Infatti, una linea collocata sulla verticale o sull’orizzontale viene ristabilita e ogni
piccola deviazione appare come un disturbo da correggere, un’anomalia. Per i vari
gradi di obliquità invece, la nostra percezione è meno selettiva. L’ancoramento agli
assi verticale e orizzontale comporta un’importante conseguenza sulla percezione
degli angoli. Infatti, nel caso degli angoli, non è sufficiente che un angolo abbia 90°
perché ci appaia retto. Perché ciò accada l’angolo deve avere anche i lati allineati con
gli assi cardinali dello spazio visivo. L’effetto illustra una chiara differenza tra mondo
fisico e mondo fenomenico. Nel mondo fisico gli oggetti non cambiano il variare del
loro orientamento. Nel mondo fenomenico uno stesso oggetto, ad esempio l’angolo
di 90°, può apparire speciale oppure no in funzione dell’orientamento.
Struttura dello spazio visivo
Lo spazio percepito è strutturato intorno a due assi, verticale e orizzontale che
fungono da riferimenti cardinali. La stessa forma, che normalmente chiamiamo
16
17

quadrato, quando viene ruotata di 45° assume uno strano aspetto. Si può dire che è
la stessa forma? Non proprio. Bisogna dire che si tratta della stessa forma geometrica
ma non della stessa forma percepita: è necessario quindi distinguere tra forma
riferita a un osservatore ideale (in grado di rappresentarsi tutte le proprietà di un
oggetto) e forma riferita a un osservatore reale, il quale, a causa dei propri limiti e
delle proprie specificità, si rappresenta soltanto una parte di tali proprietà.
La percezione è una rappresentazione dotata di struttura, che non corrisponde alla
codificazione di tutti gli aspetti di una determinata configurazione,
indipendentemente dal contesto spaziale in cui questa è inserita. Ed è una
rappresentazione selettiva, che esalta alcuni aspetti a scapito di altri, producendo a
volte delle differenze non giustificabili in base alla geometria.
La percezione ha una natura categoriale legata al carattere selettivo
dell’appartenenza psicologica. Ad esempio il quadrato viene percepito come parte
del continuum dei rettangoli o viene percepito come parte del continuum dei rombi:
ma mai come parte di entrambi i continua simultaneamente. Si può ipotizzare che qui
sia operante come in tanti altri campi della percezione, un principio economico. La
verticale dello spazio percepito non possiede soltanto una direzione, ma anche una
polarità. La dicotomia diritto-storto fa riferimento alla direzione della verticale
percettiva mentre la dicotomia diritto-capovolto fa riferimento alla polarità sopra-
sotto (figura a pagina 55, libro psicologia generale).
Oggetti, immagini e percetti
Una teoria della percezione deve collegare appropriatamente almeno tre tipi di
entità:
• Gli oggetti fisici, che crediamo esistenti e dotati di proprietà materiali anche in
assenza di luce
• Le immagini che di tali oggetti possono essere raccolti in un qualsiasi punto di
un ambiente percorso dalla luce;
Gli oggetti percepiti, ovvero i percetti.
• Queste tre entità sono i costituenti fondamentali della catena psicofisica che
vincola l’osservatore al mondo esterno.

Catena psicofisica. Tra le condizioni necessarie affinché ci sia percezione, vi è il


concetto di catena psicofisica.

17
18

Per catena psicofisica intendiamo la presenza simultanea, all’interno del processo


percettivo, di tre condizioni che devono essere tutte e tre necessariamente presenti.

• Innanzitutto abbiamo lo stimolo distale, ovvero una parte dell'ambiente


esterno, che emette o riflette una qualche forma di energia, che i nostri
sistemi sensoriali siano in grado di recepire. Può essere energia chimica, come
nel caso del gusto o energia fisica come nel caso della vista o dell'udito.
• al secondo posto abbiamo, quello che chiamiamo stimolo prossimale, che
consiste nella trasformazione temporanea che subiscono i nostri organi di
senso in seguito alla ricezione dell’energia proveniente dall’esterno. Questa
trasformazione temporanea dei nostri organi di senso viene detta stimolo
prossimale.
• Però, questo non basta, c'è bisogno di un sistema di elaborazione che sia in
grado di trasformare l’energia ricevuta dall’esterno in un’informazione che sia
leggibile da parte del nostro cervello. questo terzo elemento della catena
psicofisica viene chiamato percetto.
Quindi affinché si abbia percezione devono esserci queste 3 condizioni, quindi
energia esterna, stimolo distale, modificazione degli organi sensoriali, stimolo
prossimale, e sistema di elaborazione in grado di interpretare le modifiche
avvenute a livello sensoriale: percetto. in mancanza di una sola di queste
condizioni il processo percettivo non può avere luogo.

INDETERMINAZIONE OTTICA.
Spesso il nostro mondo fenomenico, cioè le cose cosi come noi le percepiamo, si
distingue da quello che è il mondo fisico. questo per dire che esistono degli
scarti, degli scollamenti, tra quello che noi percepiamo e quello che realmente
c’è nel mondo fisico, e ciò provoca dei problemi, tra i principali quello che
definiamo indeterminazione ottica, ovvero data un immagine non è possibile
ricostruire in modo certo lo stato di cose che l'ha determinata. Quello che si
intende per indeterminazione ottica è il fatto che non esiste una relazione
necessaria tra come sono effettivamente le cose nel mondo esterno e come
effettivamente noi le percepiamo. Quindi dato un oggetto l’osservatore entra in
contatto solo con l’ immagine di quell’oggetto, non direttamente con l’oggetto
stesso (vi è una mediazione ottica) e questo provoca appunto l’indeterminazione
ottica. le immagini contengono soltanto parte dell’informazione utile a
riconoscere in modo univoco gli oggetti fisici per questo il risultato finale viene
determinato dall’osservatore. La risposta al perché il problema di
indeterminazione ottica non si presenti costantemente nella nostra vita
quotidiana, è data dal fatto che il più delle volte soccorrono al problema delle
indeterminazioni ottiche le nostre conoscenze su come sono fatti solitamente gli
18
19

oggetti nel mondo, ad esempio come è fatta una sedia. quindi ci sono dei principi
organizzativi innati, quelli su cui insistite molto la psicologia della Gestalt, che ci
permettono di costruire una rappresentazione del mondo per quanto possibile
più vicina al vero.
Esempio per capire la catena psicofisica: davanti a me adesso percepisco una sedia:
un oggetto unitario, distinto da altri oggetti e dalla superficie su cui è posato, dotato
di una certa grandezza, una certa forma, un colore. Percepisco inoltre che potrei
sedermi sopra, o afferrare lo schienale in un certo punto e spostarlo. E naturalmente
riconosco che si tratta di un oggetto noto, di cui possiedo una categoria linguistica.
Una sedia, appunto. Ma cosa accade effettivamente quando percepisco una sedia? Il
riconoscimento degli oggetti avviene in modo quasi istantaneo -- e
straordinariamente accurato. Non c’è da stupirsi se facciamo fatica a renderci conto
di come la percezione sia invece il risultato di una complessa sequenza di eventi. Per
capirlo, riflettiamo su cosa accade quando, ad esempio, vediamo qualcosa. Per fare
questo, gli studiosi di percezione utilizzano il concetto di catena psicofisica. Torniamo
allora alla nostra sedia. Chiameremo ciò che vedo, il contenuto percettivo della mia
esperienza cosciente, come già detto sopra, usando il termine percetto. Il percetto è
l’esito finale della sequenza descritta dalla catena psicofisica. È quell’insieme unitario
di grandezza, forma, colore, eccetera che riconosco come “sedia” e che descrivo sulla
base della mia esperienza introspettiva -- che è privata ed accessibile direttamente
solo a me. Chiameremo invece l’oggetto fisico corrispondente, nelle sue
caratteristiche indipendenti da un organismo che le osservi, usando il termine stimolo
distale.
La distinzione fra percetto e stimolo distale rappresenta il primo passo per
comprendere la sequenza di eventi che porta a percepire la sedia. Il fatto che gli
studiosi di percezione operino una distinzione fra la sedia come percetto e la sedia
come stimolo distale è spesso fonte di confusione in chi si avvicina allo studio della
disciplina. In fondo, la sedia è sempre la sedia, o no? Noi la vediamo, col suo colore,
forma e tutto il resto proprio là fuori, nella nostra stanza. Non abbiamo certo
l’impressione che ve ne sia un’altra nella nostra testa. Eppure, in un certo senso, di
sedie ce ne sono due: una, soggettiva, che troviamo nella nostra esperienza
introspettiva, e una seconda, oggettiva, che possiamo descrivere indipendentemente
da un atto di osservazione. La prima esiste solo per me; la seconda è disponibile a
tutti.
Articolazione figura-sfondo
Nella comune osservazione visiva, gli spazi vuoti tra gli oggetti non vengono notati.
Noi vediamo gli oggetti come entità dotate di forma, mentre gli spazi intermedi ne
sono privi, salvo nel momento in cui riusciamo a portare la nostra attenzione sui vuoti
19
20

e vederli come figure.


L’inclusione è un potente fattore di organizzazione figura-sfondo: a parità di altre
condizioni, tende a diventare figura la regione inclusa (e, in modo complementare,
tende a diventare sfondo la regione includente) (pagina 59, libro psicologia generale)
La tendenza alla funzione unilaterale dei bordi
Geometricamente il contorno delimita due regioni in ogni suo punto, mentre nella
normale organizzazione figura-sfondo non è così: percettivamente il contorno
delimita soltanto la figura e ne definisce la forma, mentre lo sfondo, privato del
contorno, diviene amorfo. La tendenza alla funzione unilaterale dei bordi è stata
interpretata come un’espressione specifica del principio di minimo che nei processi di
organizzazione percettiva agirebbe come il regolatore, spingendo al risparmio sui
costi di rappresentazione degli oggetti.
Il fattore dell’area minore
A parità di altre condizioni tendono essere viste come figure le regioni di area minore.
Il fattore dell’area minore può essere interpretato come una specifica applicazione
del principio di minimo. La tendenza delle aree minori a diventare figura è coerente
con l’ipotesi che il sistema visivo tende a minimizzare i costi relativi alla
rappresentazione degli oggetti. La presenza dello sfondo dietro alla figura
rappresenta un caso di completamento amodale, ovvero un fenomeno per il quale
due regioni distinte e separate si completano dietro a un occludente e formare una
singola superficie.
Poiché l’articolazione figura/sfondo comporta la doppia rappresentazione di alcune
regioni, percepite modalmente come figure in primo piano e amodalmente come
sfondo retrostante, ne consegue che il sistema eviterà di rappresentare due volte le
regioni più ampie quando può invece limitarsi a rappresentare due volte quelle più
piccole.
Un’altra espressione del principio di minimo secondo il quale il sistema visivo tende a
minimizzare il costo di rappresentazione degli oggetti è la: larghezza costante (o
parallelismo dei bordi) codificare una forma regolare è meno costoso che codificare
una forma irregolare.

Unificazione percettiva
È una modalità di organizzazione sensoriale costituita da principi e proposti dalla
scuola della Gestalt. I Gestaltisti ipotizzano che siano tre le macrocategorie di
unificazione percettiva che guidano la nostra visione del mondo: In primo luogo
abbiamo i principi di raggruppamento che sono alla base della tendenza a
raggruppare stimoli isolati in insiemi dotati di significato sulla base dei principi di:
20
21

Prossimità = Vengono unificati gli elementi più vicini


Articolazione senza resti = Prevale l’organizzazione che riduce al minimo le parti
senza ruolo figurale
Buona continuazione = Prevalgono le organizzazioni che minimizzano i cambiamento
di direzione

La teoria della Gestalt (merda) = Wertaimer., Kuler., Koffka., hanno identificano nel
principio del minimo e nella tendenza alla semplicità, una chiave per il superamento
dell’indeterminazione ottica. Secondo gli psicologi della gestalt la tendenza verso il
risultato più semplice riflette una proprietà intrinseca al sistema del funzionamento
visivo, indipendente alla particolare esperienza dell’osservatore.
La teoria di Helmotz: Uno dei capostipiti nello studio della percezione è lo psicologo
tedesco Helmoltz, il quale si caratterizza per il suo orientamento marcatamente
empirista. Orientamento empirista in quanto sostiene che quello che arriva a
configurarsi come percetto non è altro che la combinazione delle sensazioni
elementari. La percezione quindi, secondo Helmoltz, è dovuta soprattutto alla
capacità dei nostri sistemi sensoriali di collezionare degli stimoli esterni, quindi la
percezione è dovuta alla combinazione delle sensazioni elementari, però queste
sensazioni, questi dati che noi raccogliamo dal mondo esterno sono insufficienti. Egli
propone una diversa soluzione al problema dell’indeterminazione ottica: la sua
ipotesi è che la percezione sia il risultato di giudizi formulati inconsciamente, con cui
l’osservatore valuta la probabilità che nel mondo esterno esistano determinati
oggetti, sulla base dei dati contenuti nell’informazione ottica. (in molti casi i
fenomeni spiegati dalle teorie sono identici). Quindi Helmoltz risolve il problema dell'
indeterminazione ottica dicendo che sulla base di questi dati incompleti e
insufficienti e a volte come abbiamo visto addirittura fallibili, l'osservatore fa una
sorta di calcolo inconscio e quindi sulla base di questi dati valuta la probabilità che
l'assetto del mondo esterno sia di un tipo e non di un certo altro tipo. quindi fa delle
inferenze inconsce. Queste inferenze permettono di colmare le insufficienze che
sussistono a causa del problema dell’indeterminazione ottica all’interno del mondo
esterno. Un approccio completamente diverso anzi direi antitetico a quello di
Helmoltz è quello di Gibson. Gibson attribuisce il buon funzionamento dei processi
percettivi unicamente al mondo esterno. cioè al fatto che nel mondo esterno
l'informazione non è casuale ma è già articolata. quindi di fatto secondo Gibson,
l’informazione è già nell’ambiente e i nostri sistemi percettivi non devono far altro
che raccogliere queste informazioni. Gibson mette questa integrazione delle
informazioni questa coordinazione delle informazioni già nel mondo esterno.
Secondo Gibson l’utilizzo di situazioni semplificate può risultare fuorviante, poiché

21
22

nelle condizioni quotidiane il sistema visivo ha a disposizione informazioni molto più


ricche che rendono insignificante l’indeterminazione ottica. La ricchezza
dell’informazione presente nel flusso ottico diviene la chiave per spiegare fenomeni
percettivi. All’osservatore non resterebbe che apprendere come sfruttare al meglio il
proprio sistema visivo per estrarre il massimo di informazione dal repertorio
disponibile.

Teoria della doppia codifica. Paivio.


Per molto tempo gli psicologi hanno ritenuto che le immagini fossero un fenomeno
troppo soggettivo per poter essere studiate scientificamente. La situazione nei
confronti dello studio delle immagini cambia solo successivamente all’influenza
esercitata dal lavoro di Paivio. Nella sua teoria, con il termine imagery
(letteralmente immaginabilità, o valore di immagine) ci riferiamo alla facilità con la
quale qualcosa suscita delle immagini mentali, per immagini mentali intendiamo
"una figura o un suono che si creano nella nostra mente". L'approccio di Paivio è
definito “teoria della doppia codifica" in quanto postula l'esistenza di due sistemi di
codifica indipendenti ma che come vedremo di qui a poco sono in grado di
influenzarsi a vicenda: stiamo parlando del sistema verbale e quello non verbale.
Quindi l'informazione in entrata può essere sia di tipo verbale che non verbale.
Inizialmente questa informazione viene prima raccolta all’interno del sistema
sensoriale, per poi essere successivamente trasferita e rappresentata in uno dei due
sistemi precedentemente esplicati per mezzo del codice caratterizzante l’uno o
l’altro sistema. Le unità di cui si compone il sistema verbale sono i logogens, che
contengono le informazioni di cui ci serviamo quando facciamo uso delle parole.
Invece le unità del sistema non verbale sono gli imagens, e contengono le
informazioni necessarie per poter produrre e generare immagini mentali. Gli
imagens, a differenza dei logogens che lavorano in maniera sequenziale, operano in
modo sincronizzato e per questo motivo sono in grado di produrre diverse immagini
mentali associate tra loro. Come dicevamo poco fa i due sistemi seppur indipendenti
sono fortemente interconnessi tra loro, per questo motivo l'informazione di uno dei
due sistemi di codifica può avviare un processo all’interno dell’altro sistema, per
mezzo di quelle che sono state definite connessioni referenziali. Questo per dire che
quando ci viene descritto un oggetto siamo in grado di creare nella nostra mente la
sua corrispondente figura, o immagine, cosi come al contrario quando immaginiamo
un oggetto ne possiamo ricavare la sua descrizione verbale. Altro aspetto su cui si
sofferma Paivio è sicuramente il concetto di concretezza delle parole, in base al
quale possiamo misurare il grado con cui una parola rimanda a qualcosa che può
essere provato per mezzo dei sensi. Egli infatti ritiene che le parole che suscitano
22
23

facilmente un'immagine mentale sono quelle più concrete (tavolo), mentre definisce
astratte quelle parole che più difficilmente rispetto alle altre tendono a creare un
immagine mentale (intenzione), oppure come nel caso delle emozioni che Paivio
però ritiene un caso a parte perché pur non essendo concrete a volte sono in grado
di suscitare immagini mentali molto forti. Immaginabilità e concretezza, possono
essere misurate per mezzo di una scala a 7 punti, i cui estremi corrispondono a
"bassa immaginabilità" e "alta immaginabilità”, oppure a "bassa concretezza" e "alta
concretezza". immaginabilità e concretezza sono quasi sempre correlate.

Paivio ha analizzato il ruolo dell’immaginabilità sull’apprendimento.


Esperimento: i soggetti divisi in quattro gruppi devono apprendere 16 coppie di
parole ciascuno. Risultati: si nota che l’apprendimento è migliore quando entrambe
le parole sono concrete e peggiore è quando sono entrambe astratte.
La rievocazione del secondo termine di ciascuna coppia era migliore se il primo
termine era concreto piuttosto che astratto. Inoltre i soggetti, indicavano che le
parole concrete avevano un valore di immagine più alto delle parole astratte: una
parola concreta può essere codificata sia per mezzo del sistema verbale che per
mezzo del sistema non verbale, mentre una parola astratta può essere codificata solo
per mezzo del sistema verbale non essendo in grado di produrre un’immagine.
Quindi le parole concrete sono avvantaggiate per il fatto di essere presenti in
entrambi i sistemi di codifica.

Immagini mentali e mnemotecniche


Yates presentò una storia delle mnemotecniche —> ovvero dei procedimenti usati
per migliorare le prestazioni di memoria. La tecnica chiamata metodo dei loci si serve
di due cose: i loci (luoghi) ed immagini. La prima cosa da fare è apprendere una serie
di loci che non devono essere simili tra di loro e devono essere distanti l’uno
dall’altro. Una volta appresi i loci, lo studente possiede una mappa cognitiva
dell’edificio. Dopo, lo studente deve inventare delle immagini in grado di
rappresentare il materiale che deve essere ricordato e successivamente un’immagine
viene collocata in un particolare luogo, tenendo presente il fatto che una qualità
desiderabile delle immagini é quella di essere distinte.
Quest’immagine può essere adesso collocata in uno dei loci della memoria e così il
processo del ricordo è concepito come una passeggiata attraverso i loci della
memoria nel corso della quale vengono raccolte le immagini che sono state collocate
nei loci. Bower ha notato che un elemento centrale della mnemotecnica consiste nel
processo di associazione tra immagini e luoghi.

23
24

Immagini bizzarre
La possibilità che le immagini bizzarre possano facilitare il ricordo è stata
ripetutamente studiata negli ultimi anni. È stato dimostrato che le immagini bizzarre
sono più efficaci delle immagini comuni. Einstein ha considerato una serie di possibili
spiegazioni per l’effetto bizzarria: una è che le immagini bizzarre producono tracce di
memoria dotate di distintività maggiore rispetto alle immagini comuni. È possibile
che le tracce di memoria prodotte dalle immagini bizzarre subiscono in misura
minore l’interferenza suscitate dalle altre tracce di memoria. Data la bassa frequenza
di immagini bizzarre nella vita di ogni giorno, la formazione di immagini bizzarre
potrebbe costituire un efficace strategia mnemonica.
In questo senso è stato effettuato un esperimento in cui bisogna nascondere un
oggetto per evitare che quell’oggetto venga trovato.
Risultato: ricordiamo un determinato luogo con maggiore difficoltà se é inverosimile.
Di conseguenza, la distintività costituisce un aiuto efficace per ricordare i singoli item
MA non è utile per ricordare le associazioni tra item (ad esempio: una collana
nascosta nel frigorifero rischiamo di non trovarla più perché la distintività del luogo è
irrilevante per il processo del ricordo: in effetti, collana e frigo non hanno
collegamento).

Ipermnesia
In alcune circostanze, tentativi ripetuti di rievocazione possono portare ad un
miglioramento della rievocazione: il miglioramento di rievocazione associata a
intervalli di ritenzione, cioè di ripetizione, crescente è detto IPERMNESIA. In un tipico
esperimento di Erdelyi i soggetti erano istruiti ad apprendere una lista di item e i
soggetti venivano divisi in tre gruppi: al primo gruppo veniva presentata una lista di
parole, al secondo gruppo venivano presentati i disegni degli oggetti nominati nella
lista, mentre al terzo gruppo veniva presentata la lista di parole, e i soggetti venivano
istruiti a formare delle immagini degli oggetti che erano nominati nella lista. Il
compito sperimentale era quello di cercare di rievocare 40 di 60 item che erano stati
presentati. I soggetti venivano istruiti a tirare ad indovinare, se non erano in grado di
ricordare un numero così alto di item: questa procedura è detta rievocazione forzata.
Il rendimento dei soggetti che avevano appreso le parole senza formare delle
immagini mentali non migliorava nel corso del tempo perché l’uso dei disegni e il
ricorso ad immagini mentali produceva inizialmente una rievocazione migliore e
successivamente l’ipermnesia.
Risultati: questi risultati indicano quanto siano importanti le immagini in generale, ma
anche quanto siano importanti per l’ipermnesia, la quale però non ha luogo se
qualcuno si limita ad aspettare passivamente che il materiale appreso riemerga

24
25

spontaneamente. La paramnesia invece, consiste nel fatto di riportare item non


corretti, ovvero di avere falsi ricordi.

Sinestesia
La sinestesia si ha quando uno stimolo proprio di un senso, per esempio un suono,
suscita un’esperienza propria di un altro senso, per esempio un colore. Una delle più
comuni è la sinestesia cromatica che consiste nell’udire i colori, cioè nell’avere
l’esperienza di un colore in risposta a uno stimolo uditivo, ad esempio, una persona
può avere l’esperienza di un colore quando sente il nome di una persona.
Anche le persone che non hanno esperienze sinestetiche possono avere esperienza
di effetti che attraversano le varie modalità sensoriali. Secondo molti psicologi i
fenomeni sinestetici rivelano l’unità profonda dei sensi: è possibile che i nostri cinque
sensi si siano evoluti a partire da un solo senso primordiale, e che i fenomeni
sinestetici riflettano questa origine comune. Il fatto che un senso possa
rappresentare informazioni provenienti da un altro senso facilità gli usi figurati del
linguaggio, come la metafora. La sinestesia può anche influenzare il modo in cui
qualifichiamo le nostre esperienze: un esperimento ha mostrato che alcuni nomi di
colore sono usati più spesso di altri in una varietà di contesti come la poesia inglese o
i romanzi inglesi moderni. In nomi di colore usati più spesso sono quelli che
emergono prima nel linguaggio, come il nero: la parola “nero” ha un grande potere
sinestetico, rispetto a “rosa” che ha un uso sinestetico più limitato.

Rotazione mentale
Una delle dimostrazioni più famose della natura dinamica delle immagini è stata
fornita da Shepard. Ai soggetti vengono presentate 1600 copie di disegni. In alcuni
casi, i disegni di ciascuna coppia rappresentavano lo stesso oggetto, in altri
rappresentavano oggetti diversi. Le coppie di disegni che rappresentavano lo stesso
oggetto si differenziavano nei termini della rotazione angolare necessaria per
allineare le due rappresentazioni dell’oggetto. I soggetti dovevano decidere se i
disegni rappresentavano lo stesso oggetto oppure oggetti diversi. Risultati: i tempi di
reazione sono tanto più grandi quanto maggiore è la rotazione angolare necessaria
per allineare gli oggetti rappresentati. Secondo Shepard, i soggetti eseguono questo
compito sperimentale per mezzo di un processo di rotazione mentale. Forse i soggetti
immaginano di ruotare uno degli oggetti raffigurati per determinare se esso può
venire allineato con l’altro membro della coppia. Tanto più grande è la rotazione
angolare necessaria, tanto più grande è il tempo impiegato dei soggetti per eseguire
l’allineamento degli oggetti raffigurati.

25
26

Perlustrazioni delle immagini mentali (scansioni di immagini)


Sono stati condotti diversi esperimenti volti ad esplorare la relazione tra percezione e
immaginazione. In particolare in un esperimento i soggetti devono memorizzare una
mappa in cui sono marcati 7 luoghi diversi, e il tempo necessario a spostare lo
sguardo da un luogo all’altro della mappa, dipende dalla distanza fra i due luoghi. I
soggetti poi devono formare un’immagine mentale della mappa e devono
concentrare la loro attenzione su uno dei 7 luoghi. In alcune prove, ai soggetti veniva
chiesto di immaginare la scansione fra luoghi che non erano marcati sulla mappa,
oppure tra la capanna e la spiaggia (presenti sulla mappa). [pag 181, libro processi
cognitivi]
I risultati indicano che, per i luoghi effettivamente presenti sulla mappa, il tempo
necessario per passare da un oggetto un altro é proporzionale alla distanza tra questi
oggetti nella mappa, e questo mette in evidenza che le distanze obiettive sono
preservate nelle immagini mentali delle scene percepite. Inoltre è stato rilevato che é
possibile individuare una serie di luoghi diversi all’interno di un’immagine uditiva allo
stesso modo che all’interno di un’immagine visiva: le canzoni che noi immaginiamo
sono dotate di un inizio, una parte centrale e una fine allo stesso modo delle canzoni
che ascoltiamo. È possibile che un’immagine uditiva si estende nel tempo allo stesso
modo in cui un’immagine visiva si estende nello spazio. Nel caso delle canzoni, la
posizione di una parola è definita dal numero delle battute dall’inizio della canzone.
Le immagini mentali costituiscono delle rappresentazioni attendibili, anche se
leggermente distorte, delle configurazioni reali.

Immagini mentali e immagini pittoriche


In un esperimento di Pinker e Finke, ai soggetti viene mostrata solo una singola
configurazione di un insieme di oggetti, ma dalla memoria di questa situazione i
soggetti sono in grado di generare l’immagine della configurazione corrispondente
alla di quegli oggetti. Ciò significa che noi siamo in grado di percepire e di
immagazzinare in memoria le informazioni che riguardano la struttura
tridimensionale di una configurazione di oggetti e siamo poi in grado di trasformare
queste informazioni in modo da produrre diverse vedute immaginarie di questa
stessa configurazione. Hanno inoltre confrontato le proprietà delle immagini mentali
con le proprietà delle immagini pittoriche. Ma vi è una discrepanza tra immagini
mentali immagini pittoriche che può avere tre possibili spiegazioni:
1. Anche se gli individui sono in grado di immaginare accuratamente le sembianze di
qualcosa, potrebbero non essere in grado di disegnare accuratamente
quell’immagine.

26
27

2. Un’altra possibilità è che gli individui non cerchino di riprodurre l’immagine


mentale di un oggetto, ma piuttosto di rappresentare ciò che essi sanno a proposito
di quell’oggetto.

3. Un’ultima possibilità è che parti diverse di una scena vengono disegnate come se
fossero percepite da punti di vista differenti

Durante l’esecuzione di un disegno, deve essere mantenuto un singolo punto di


vista.

Immagini eidetiche
L’icona è un’istantanea delle informazioni contenute in uno stimolo visivo. Queste
informazioni persistono brevemente anche quando lo stimolo non è più presente. É
utile confrontare l’icona con un fenomeno connesso, quello delle immagini e
eidetiche. Come le immagini iconiche, le immagini eidetiche persistono anche dopo
che uno stimolo, ad esempio una figura, è venuto meno. Diversamente dall’icona,
che decade rapidamente, le immagini e eidetiche possono persistere per un minuto o
più.
Alcune caratteristiche delle immagini eidetiche sono:

- avere un’esperienza eidetiche non è lo stesso che avere un’immagine mentale


vivida: l’immagine é situata nel mondo esterno, non nella testa della persona.

- L’immagine può essere perlustrata e le sue parti possono essere descritte.

- le descrizioni di un’immagine eidetica sono più rapide e più affidabili dei resoconti
basati sulla memoria

- Le immagini eidetiche sono molto più frequenti tra i bambini che non tra adulti

È bene specificare che le immagini eidetiche non sono immagini fotografiche, perché
non sono copie letterali della scena.

Immagini come previsioni


Le immagini mentali possono servire da anticipazioni, come stato dimostrato in un
esperimento in cui il compito dei soggetti è di immaginare una lettera sovrapposta ad
un reticolo. Ai soggetti viene mostrato un problema (una sonda) in una delle celle del
reticolo i soggetti devono decidere se il problema era contenuto o meno in una cella
coperta dall’immagine mentale della lettera (F, ad esempio). Le prestazioni ottenute

27
28

nel caso in cui le lettere siano soltanto immagazzinate sono sorprendentemente


simili a quelle che si ottengono quando le lettere sono effettivamente presenti nel
reticolo

Figura ambigua: i risultati dell’esperimento di Chambers e Reisberg sostengono che le


immagini non sono ambigue, ma ogni immagine ha un’unica interpretazione.
(esperimento pag 191, processi cognitivi)

Un esperimento eseguito in contrapposizione a quest’ultimo, ha messo in evidenza


che i soggetti possono interpretare un’immagine dopo che è stata costruita: questo è
un fatto molto importante perché significa che all’interno di un’immagine noi
possiamo scoprire qualcosa che non abbiamo usato per costruire la medesima
immagine: durante la costruzione di un’immagine possono emergere delle nuove
proprietà chiamate proprietà emergenti.
Critiche rivolte alle ricerche sulle immagini mentali. Approccio proposizionalista.
Per quanto concerne la ricerca sull’immaginazione, che ancora ad oggi rappresenta
oggetto di critica e discussione, è emerso un certo problema riguardo la
rappresentazione della conoscenza che avviene nella nostra mente. Secondo un
approccio proposizionalista, le immagini rappresentano degli epifenomeni. Con
questo termine andiamo ad indicare un sottoprodotto, o meglio un sintomo di
qualcos’altro, come ad esempio il fischio di una locomotiva a vapore. Al pari di
questi ultimi le immagini mentali potrebbero avere anch’esse unicamente una
funzione decorativa. Per questo motivo lo studioso Rock si è concentrato su alcune
ricerche riguardo le immagini mentali che si distaccavano dalla comune idea
secondo cui noi individui avremmo la capacità di immaginare il modo in cui sono
fatti gli oggetti se li guardiamo da punti di vista sempre diversi, mediante il
cosiddetto fenomeno della rotazione mentale. L’esperimento da lui condotto
insieme ad altri consisteva nel presentare a dei soggetti sperimentali alcuni oggetti
costruiti in fili metallici e lo scopo di questi soggetti consisteva nel disegnare la
forma di questi oggetti soltanto che ruotati di 90gradi. Questi disegni furono poi
presentati successivamente ad alcuni giudici i quali in realtà non in tutti i casi
riscontrarono delle corrispondenze tra le immagini riportate dai soggetti e quelle
che in effetti erano poi le vere e proprie figure di quegli oggetti ruotati. Questo
rappresentava un importante prova a favore del fatto che non siamo
necessariamente capaci di immaginare nella nostra testa quella che è poi l’effettiva
forma di un oggetto ruotato. Anzi secondo Rock anche quei pochi soggetti che
durante l’esperimento erano poi stati in grado di generare le giuste rappresentazioni
degli oggetti ruotati di 90gradi, in realtà secondo lui erano stati in grado di farlo solo

28
29

perché avevano utilizzato come supporto altre strategie cognitive, come ad esempio
l’uso di inferenze per analizzare le diverse parti di un oggetto, piuttosto invece che
fare riferimento esclusivamente ad una semplice rotazione mentale. Questo ci porta
quindi a pensare che l’uso che facciamo delle immagini mentali sia più simile a dei
processi di pensiero piuttosto che a processi percettivi.

Mappe cognitive (BORSA)


Tolman riteneva che noi individui, grazie alle informazioni provenienti dall’ambiente
esterno, fossimo in grado di creare nella nostra mente delle mappe cognitive
provvisorie dell’ambiente che riguardassero itinerari, percorsi e relazioni tra gli
oggetti del mondo e che fossero in grado di guidare il nostro comportamento.
Secondo Tolman una mappa cognitiva era utile solo se fosse stata in grado di creare
prima un’immagine generale dell’ambiente circostante e soprattutto se poi poteva
essere utilizzata in più di una circostanza, e quindi a sostegno di svariate situazioni.
Gli studi di Tolman si focalizzarono in particolar modo sull’uso delle mappe cognitive
nell’ambito della navigazione (esempio: navigatori polinesiani) in quanto riteneva che
si trattasse di un caso particolare di ragionamento spaziale dotato di alcune
caratteristiche particolari:

1. inizialmente il navigatore crea una mappa mentale del territorio nel quale vuole
navigare.

2. successivamente va considerato che le mappe sono schematiche, e che la


corrispondenza tra i luoghi reali e la loro rappresentazione sulla mappa è pur sempre
approssimativa; quindi l’individuo deve essere in grado di immaginare una
somiglianza tra ciò che è rappresentato nella mappa e l’ambiente reale.

3. Infine l’individuo sfrutta la mappa per fare delle inferenze che utilizzerà a sostegno
dei suoi spostamenti. Quindi la mappa guiderà il suo comportamento. Se il
ragionamento spaziale effettuato dall’individuo è adatto, allora quest’ultimo sarà in
grado di raggiungere la destinazione a partire dalla sua posizione.

Allo stesso modo i modelli mentali costituiscono delle utili rappresentazioni mentali
degli eventi che gli individui utilizzano per descrivere e prevedere gli eventi una vasta
gamma di eventi futuri. Inoltre ci permettono anche di effettuare delle inferenze
rispetto al comportamento delle cose in contesti sempre diversi. Però dai modelli
mentali non scaturiscono sempre inferenze giuste e questo può essere fonte di
errori.
Riconoscimento di oggetti

29
30

Oggetti e categorie
Riconoscimento di oggetti e percezione visiva sono due argomenti collegati perché
l'uno include l'altro. Percezione significa semplicemente dare un significato al frutto
delle nostre esperienze sensoriali, riconoscere, anche etimologicamente, significa
conoscere di nuovo, cioè rapportare ciò che è stato percepito a una qualche
conoscenza che è già nella nostra mente. il riconoscimento quindi da un lato è
collegato alla percezione visiva, dall'altro è collegato inevitabilmente a fenomeni di
categorizzazione. Quando noi riconosciamo l'oggetto, riportiamo l'oggetto percepito
ad una categoria più generale che è presente nella nostra memoria a lungo termine.
Questo rappresenta un vantaggio dal punto di vista cognitivo perché una volta
categorizzato quel singolo oggetto, come sedia, libro, tavolo o orologio, possiamo
attribuire a quell’oggetto tutte le operazioni che abbiamo imparato nel corso della
nostra esperienza vitale. Quindi riconoscere un oggetto significa principalmente
categorizzarlo, il che non è una cosa banale in quanto le radicalizzazioni sono
plurime (mobilio-sedia-sedia roccocò). Quindi categorizzare significa situare
quell’oggetto, che è stato percepito e riconosciuto, all’interno di una scala
gerarchica.(mammifero-animale-cane-bulldog). la mente umana quindi rappresenta
le categorie in maniera gerarchica. Una certa entità può venire riconosciuta come
appartenente alla categoria “penna” oppure alla categoria “penna stilografica”. Il
primo livello viene chiamato categoria di base, mentre il secondo categorie
subordinate. Il livello di gerarchia in cui si situa spontaneamente il riconoscimento
ha il nome di categoria di entrata ed è la chiave d’ingresso più facile e più
immediata ai processi di riconoscimento e categorizzazione. Le categorie di base,
sono quelle che vengono apprese per prime dai bambini durante il loro processo di
acquisizione linguistica. Spontaneamente se incontriamo un merlo lo associamo ad
una categoria di base (uccello), questo non capita per un esperto che lo colloca ad
una categoria subordinata, un merlo appunto. La categoria di entrata dipende da
quanto l’oggetto è tipico di una certa categoria.
Il riconoscimento permette di percepire le funzioni degli oggetti-> la distinzione fra i
diversi livelli a cui può avvenire il riconoscimento è importante perché le
informazioni connesse ai singoli livelli (o nodi) della gerarchia, possono essere anche
rappresentazioni sull’uso che di un oggetto potremmo fare. Inoltre riconoscere un
oggetto rappresenta anche un mezzo per associare l’oggetto con le rappresentazioni
che descrivono i suoi utilizzi (la penna, serve per scrivere). Le funzioni associabili agli
oggetti sono strettamente legate a livello a cui siamo in grado di categorizzarli. Le
funzioni di una penna sono disponibili per tutti noi, ma potrebbero non esserlo in
una cultura che non conosce la scrittura.

30
31

I processi di riconoscimento sono veloci e flessibili-> siamo veloci a riconoscere


oggetti con cui abbiamo a che fare nella nostra vita quotidiana. Inoltre il processo di
riconoscimento è adattabile. Gli oggetti possono subire innumerevoli variazioni,
forma, colore, pur continuando a far parte della stessa categoria. Anche
l’illuminazione modifica l’informazione ricevuta dal nostro sistema percettivo.
Modelli a descrizione strutturale. Il problema principale per quanto concerne il
processo di riconoscimento degli oggetti riguarda il come facciamo a riconoscere gli
oggetti da punti di vista differenti. A tal proposito sono stati sviluppati due diversi
approcci per poter risolvere questo problema: abbiamo da una parte gli approcci
basati su DESCRIZIONE STRUTTURALE e dall’altra quello basato su TEMPLATE.
In generale nel processo di riconoscimento, abbiamo un’informazione in entrata che
prima colpisce il nostro sistema percettivo e che poi viene successivamente
confrontata con delle rappresentazioni che sono già presenti nella nostra memoria.
Ma è importante precisare che questa informazione percettiva che noi riceviamo
può cambiare in base alle diverse posizioni che si verificano tra un oggetto e il punto
di vista di un osservatore.
Gli approcci a DESCRIZIONE STRUTTURALE sono definiti, appunto, strutturali proprio
perché suddividono il processo di riconoscimento in tre fasi: la fase di descrizione,
quella di confronto e infine quella di scelta. Prima viene ricostruita una descrizione
della struttura tridimensionale dell’oggetto. Quest’ultima viene successivamente
confrontata con delle descrizioni simili depositate in una sorta di catalogo o per
meglio dire archivio interno, infine la descrizione interna che più corrisponde a
quella che stavamo cercando viene poi scelta per il riconoscimento.
Il primo modello a descrizione strutturale è il modello di Marr, il quale è
perfettamente in linea con questo tipo di approccio in quanto il suo modello si
dispiega in tre stadi che Marr chiama: 1) abbozzo primario 2)Abbozzo a due
dimensioni e mezzo 3)modello 3D.
Abbiamo quindi inizialmente un input che richiama la nostra attenzione, quindi un
certo oggetto che si presenta alla nostra vista. Tale input determina una prima fase
di elaborazione interna che Marr chiama abbozzo primario. L’abbozzo primario non
è altro che la rappresentazione dei contorni di un oggetto che però costituisce una
struttura ancora estremamente grezza, definita da Marr come retinocentrica,
perché qui viene soltanto rappresentato un insieme non strutturato di
caratteristiche primarie dell'oggetto, quindi l'oggetto viene in un certo senso
decomposto, smontato nelle sue caratteristiche costituenti. È a due dimensioni dato
che sfrutta l'immagine retinica che come sappiamo è bidimensionale.
31
32

Successivamente si passa subito ad una rappresentazione più complessa e articolata


che è va a caratterizzare quella dimensione che poi contraddistingue il modello di
Marr da tutti gli altri, ovvero:
l’abbozzo a due dimensioni e mezza. in questa fase vengono integrate tutte quelle
che sono le informazioni provenienti dalla cosiddetta stereopsi, e cioè dalla
percezione della profondità. Si tratta di una rappresentazione spaziale riferita al
punto di vista dell’osservatore, quindi abbiamo una rappresentazione dell’oggetto
così come viene in quel momento percepito, a seconda della sua proiezione nello
spazio, da parte dell'osservatore. Però una rappresentazione che scaturisce dal
punto di vista dell'osservatore, non può ovviamente fare caso a tutte le
caratteristiche di quell’oggetto, e affinchè questo avvenga è necessario passare alla
terza fase del modello, che è quello della rappresentazione tridimensionale. Il
passaggio dalle 2D e 1/2 a quella tridimensionale rappresenta uno spostamento da
una rappresentazione spaziale centrata sull'osservatore ad una centrata
sull'oggetto. Ciò che caratterizza questa fase è la descrizione completa della
struttura dell'oggetto, che si può ricavare grazie alla combinazione della
rappresentazione basata sul punto di vista dell’osservatore insieme con le nostre
conoscenze depositate in memoria, cioè le conoscenze riguardo a come
quell’oggetto è realmente fatto e costruito nella realtà. È come se in effetti secondo
Marr, avvenisse una sorta di lavoro di ricostruzione: a partire da ciò che abbiamo
ricavato dall’abbozzo a 2D e mezzo, il nostro sistema visivo ricostruirebbe dei
volumi, i cosiddetti cilindri generalizzati, e grazie alla combinazione di questi
elementi ne scaturirebbe la struttura dell’oggetto 3D.
Il modello di Marr ha influenzato altri lavori, tra questi troviamo il modello di
Biederman.
Questo modello ha delle caratteristiche in comune col modello di Marr ma ci sono
anche delle differenze. L'analogia consiste nel fatto che la rappresentazione usata
per il riconoscimento sia una descrizione strutturale, e cioè Biederman, come Marr,
ritiene che il nucleo fondamentale del processo di riconoscimento sia la formazione
di una descrizione strutturale dell'oggetto che va a sposarsi in memoria con una
rappresentazione iconica a lungo termine. Una delle differenze tra i due modelli è
che Biederman ritiene che qualsiasi oggetto possa essere rappresentato da una
descrizione strutturale in termini di primitive volumetriche che sono dette geoni.
Per capire cosa intende Biederman per geoni può essere utile una similitudine con le
lettere dell'alfabeto, cioè le lettere dell'alfabeto italiano sono di numero finito e
sono 21, 26 se aggiungiamo J, K, W, X , Y. Con questo numero finito e limitato di
lettere noi siamo in grado di costruire un numero estremamente elevato di parole.
32
33

Quindi è possibile costruire un numero molto alto di strutture composte da questi


elementi. Secondo Biederman quello che succede nel caso degli oggetti è qualche
cosa di simile cioè gli oggetti possono essere scomposti in una serie di forme di base
che composte tra di loro, a seconda dell’identità delle forme che entrano in
composizione tra loro e della disposizione nello spazio di queste forme, possono
costituire una rappresentazione sufficientemente approssimata di tutti gli oggetti
possibili.

Queste sono alcune delle forme ipotizzate da Biederman, cioè quello che accade nel
processo del riconoscimento è una scomposizione dell'oggetto in forme primitive di
base. Come per esempio degli ovali, delle figure geometriche solide, dei segmenti,
dei cerchi e così via. Biederman ha fatto un vero e proprio catalogo di queste forme,
sono poco più di una quarantina, a seconda di quali di essi entrano in combinazione
tra loro e della disposizione relativa all’ interno di un oggetto di queste stesse forme,
può rappresentare una pluralità virtualmente infinita di oggetti. Quindi la
descrizione strutturale di cui parla Biederman è una descrizione strutturale in
termini di questi geoni. Una descrizione strutturale quindi è una descrizione
dell'oggetto che comprende due componenti fondamentali una lista dei geoni che
fanno parte di quell’oggetto e delle informazioni sulle loro relazioni spaziali.
Quindi il modello di Biederman contiene un principio di scomposizione interna degli
oggetti che invece è assente all’interno del modello di Marr. Il modello di Biederman
da un lato porta una semplificazione dal punto di vista strutturale, cioè il numero
degli elementi a cui bisogna far riferimento per riconoscere gli oggetti è
estremamente limitato, dall’altra parte però questa maggiore economia dal punto di
vista della struttura delle rappresentazioni in memoria viene controbilanciato da una
maggiore complessità di elaborazione.

33
34

Questa è una rappresentazione schematica del modello di Biederman. È una


descrizione in termini di un diagramma di flusso, un modello scatole e frecce, è un
modello che descrive l'andamento temporale dell’elaborazione che porta al
riconoscimento di oggetti. La fase iniziale del modello è del tutto sovrapponibile a
quella che abbiamo chiamato abbozzo primario nel caso del modello di Marr. Nella
fase iniziale vengono estratti i contorni dell'oggetto da riconoscere, è una
rappresentazione bidimensionale ed è basata sulla proiezione retinica che l'oggetto
produce. Una volta estratto i contorni e quindi una volta elaborata questa
rappresentazione alquanto grezza, funge da input per uno stadio successivo che qui
viene definito come rilevazione PNA, dove PNA sta per proprietà non accidentali.
Una proprietà non accidentale è la proiezione sulla retina di una struttura degli
oggetti a Y.
TEMPLATE-> un template (sagoma) è una sorta di fotografia dell’oggetto come
appare da un particolare punto di vista. Il riconoscimento di un oggetto è basato sul
confronto tra l’informazione disponibile da un particolare punto di vista e un
template interno che rappresenta quell’oggetto da quel particolare punto di vista.
Chi sostiene un approccio basato su templates dice semplicemente che il problema
del riconoscimento di un oggetto basato su diversi punti di vista non esiste, o
comunque è risolto dal fatto che noi abbiamo in memoria una rappresentazione
dell'oggetto che è basata effettivamente su un particolare punto di vista, ma la
proiezione degli oggetti reali nella vita reale non si discosta molto da questa
rappresentazione prototipica dell'oggetto. Quindi il riconoscimento di un oggetto,
34
35

anche in questo caso, è basato sul confronto tra l'informazione disponibile da un


particolare punto di vista e un template interno che rappresenta l'oggetto da quel
punto di vista. Cosa significa? -> o supponiamo che ciascun oggetto abbia un'unica
rappresentazione, quindi una rappresentazione prototipica basata sul punto di vista
più comune, c’è da effettuare ogni volta una rotazione mentale in memoria.
Esempio-> una tazzina di caffè vista dal basso, quest’oggetto proietta sulla mia
retina un’immagine diversa da quella della tazzina di caffè vista frontalmente.
Quindi se c'è un'unica rappresentazione in memoria, ed è la tazzina caffè da vista
frontalmente, bisogna effettuare una sorta di rotazione mentale dell'oggetto in
modo da vederlo da un punto di vista diverso e poterlo riconoscere. Oppure posso
fare una diversa ipotesi-> che ci siano tanti template per quanti sono i possibili punti
di vista dai quali è possibile guardare quello oggetto. Però il problema diventa, sì
non devo più effettuare ogni volta una rotazione mentale, il numero di
rappresentazione in memoria per ogni oggetto diventa un numero estremamente
alto, cioè bisognerebbe rappresentare un oggetto da tutti i suoi punti di vista che
sono moltissimi. La teoria del templates matching , per cui e il riconoscimento di un
oggetto avverrebbe mediante una comparazione tra un oggetto visto da un
particolare punto di vista e la rappresentazione di memoria, ha dei punti di forza ma
anche dei punti di debolezza . il punto di forza è che effettivamente questa teoria
coglie il fatto che per riconoscere un oggetto c'è bisogno di un confronto con una
rappresentazione interna, cioè gli oggetti in realtà possono essere riconosciuti solo
se si attivano degli elementi l'interno della memoria a lungo termine. In questo caso
il matching della rappresentazione esterna con l'oggetto interno di memoria è
immediato, non ha bisogno della costruzione di una descrizione strutturale come nel
caso dei modelli precedenti. Semplicemente il sistema deve operare un confronto e
dire se l’oggetto coincide o non coincide con l'oggetto esterno.
Il punto di debolezza-> se ipotizziamo che vi è riconoscimento soltanto quando la
forma visiva combacia perfettamente con una rappresentazione interna, degli
oggetti che abbiano anche piccole differenze rispetto allo schema(template) non
dovrebbero essere riconosciuti o comunque riconosciuti in modo molto più
laborioso. In altri termini sarebbe necessario formare un numero infinito di
templates corrispondenti a tutte le forme visive incontrate perché gli oggetti non
sono mai simili gli uni agli altri.
Quindi la difficoltà è che in questo modo è necessario supporre che il nostro cervello
contenga un numero infinito di templates. La soluzione è che ci dovrebbe essere un
numero limitato di template che rappresentano l’oggetto da punti di vista critici. E
inoltre, dei meccanismi interni di rotazione mentale che permettono di ricostruire la
rappresentazione intermedia fra due punti di vista.
35
36

Modelli di riconoscimento ibridi-> la gran parte degli esperti di riconoscimento


concorda che né i modelli basati su descrizioni strutturali né quelli basati su
templates riescano a spiegare in maniera soddisfacente tutti i dati disponibili.
Secondo qualcuno la soluzione potrebbe essere un modello ibrido che utilizza diversi
meccanismi in condizioni diverse. Il riconoscimento di oggetti sarebbe basato sia su
template e sia su descrizioni strutturali. Non tutti sono d’accordo.
Una rete neurale per il riconoscimento-> potrebbe, grazie ad opportune regole per
la trasmissione dei segnali dalle unità che funzionano come templates a quelle che
codificano gli oggetti, essere in grado di riconoscere gli oggetti da punti di vista
nuovi.
Alcuni ricercatori sostengono che la nostra mente sia dotata di alcuni meccanismi
specializzati innati destinati proprio al riconoscimento dei volti. I primi studi, a tal
proposito, furono condotti nei confronti di pazienti che avevano subito dei danni
cerebrali, i quali nonostante ciò mantenevano capacità visive normali ma non erano
più in grado di riconoscere volti, questo poteva essere spiegato solo dal fatto che
erano state danneggiate proprio quelle strutture neurali specializzate per questi
compiti. Successivamente l’attenzione degli studiosi si sposta nei confronti dei
neonati, i quali dimostrarono, fin dai primi giorni di vita, di essere in grado di
differenziare un disegno raffigurante un volto da un altro che rappresentava gli
stessi elementi solo che distribuiti diversamente e in modo casuale. Questo
dimostra che tra le nostre categorie di base abbiamo un sistema innato destinato al
riconoscimento dei volti. Abbiamo però difficoltà a riconoscere un volto qualora
questo ci venisse presentato capovolto, cosa che invece non accade se ci venisse
presentata l’immagine di una casa. Questo effetto inversione ci dice che seppur
siamo in grado di riferire che si tratti di un volto umano, e quindi di riconoscere la
sua categoria di base, non siamo invece in grado di riconoscere a chi appartenga
questo volto, e quindi la sua categoria subordinata. Questo fenomeno è anche noto
come illusione di Tatcher perché la prima volta che fu presentato venne mostrato il
volto dell’ex primo ministro inglese, ed è un esempio che esemplifica molto bene
questo tipo di difficoltà. Questo potrebbe dipendere dalla difficoltà del nostro
orientamento a distinguere la relazione tra le diverse parti del volto. Infine l’effetto
inversione svanisce nel momento in cui diventiamo esperti di questo tipo di
esercizio.
Il riconoscimento di oggetti nuovi. nello studio che riguarda il riconoscimento di
oggetti nuovi emerge la figura di Gibson, pioniere dell’approccio ecologico
nell’ambito della percezione visiva, il quale è stato il primo a far notare che anche se
nella nostra memoria non abbiamo disponibili rappresentazioni di oggetti a noi
36
37

sconosciuti, il nostro assetto ottico è in grado di recepire informazioni che


riguardano direttamente che tipo di azioni possiamo andare a compiere e quindi a
svolgere su quel particolare oggetto che si presenta alla nostra vista come nuovo.
Gibson ha addirittura coniato un nuovo termine per potersi riferire a questo tipo di
proprietà che hanno gli oggetti, ovvero il termine affordance. (un termine inglese
che significa rendere disponibile). Grazie a questo tipo di proprietà non c’è alcun
bisogno di confrontare l’oggetto che ci si presenta davanti come nuovo con nessuna
delle rappresentazioni interne di categorie già presenti in memoria. Riconosciamo
invece questi oggetti come proprietari di una certa affordance. Questo ci permette
quindi di riconoscere una sedia come qualcosa su cui ci possiamo sedere.
Questo concetto oltre ad essere stato molto apprezzato in psicologia, ha riscosso
molto successo anche in altri ambiti come ad esempio nell’ambito della
progettazione. Infatti, l’idea che indipendentemente dalle nostre conoscenze
esplicite, ci sono determinati stimoli che producono determinate risposte piuttosto
che altre rappresentava una vera e propria innovazione nell’ambito della
progettazione.

CONCETTI (iphone)
Secondo la teoria classica dei concetti se noi percepiamo un evento come
appartenente ad una categoria, allora quell’evento verrà percepito come esemplare
di un concetto. Ciascun concetto è caratterizzato da attributi che possono assumere
valori diversi. Le relazioni che esistono tra attributi e concetti sono poi quelli che
vanno a definire un concetto.
Abbiamo da una parte quei concetti che si formano semplicemente grazie all’unione
di attributi, dall’altra invece ci sono categorie di concetti più complesse, come ad
esempio la categoria dei concetti disgiuntivi, dove in questo caso devono
necessariamente essere presenti due classi diverse di attributi che però insieme
vanno a definire un unico concetto. (cittadinanza americana, nonna materna, pastore
tedesco).
Facendo ancora riferimento alla classe di concetti più complessi emergono i concetti
relazionali, dove appunto, in questo caso, è proprio la relazione che sussiste tra gli
attributi ad assegnare ad un concetto la sua categoria di provenienza o appartenenza.
L’esempio emblematico che per eccellenza dimostra questo tipo di concetto è il
matrimonio in quanto rappresenta la relazione tra due individui. Esponente
principale nello studio dei concetti è Bruner il quale si focalizzò soprattutto sul
processo di formazione dei concetti, facendo diversi esperimenti nei quali

37
38

utilizzavano come stimoli le carte, se una di queste carte (quindi se uno stimolo)
rappresenta un esempio di un dato concetto, essa viene detta un caso positivo. Un
semplice concetto congiuntivo, per esempio, può essere definito in base all’attributo
nero e all’attributo quadrato. Ciascuna carta con questi due attributi è un caso
positivo del concetto. Se una carta non contiene gli attributi giusti, allora essa viene
detta un caso negativo. se un contributo è presente in tutti casi positivi del concetto,
allora possiamo concludere che questo è un attributo rilevante cioè la sua presenza è
necessaria affinché qualcosa possa essere considerato come un membro del
concetto. D’altra parte, invece, gli attributi che non ricorrono nei casi positivi del
concetto sono irrilevanti. Il processo di inclusione degli attributi ricorrenti e di
esclusione di attributi non ricorrenti costituisce un processo di astrazione. Gli attributi
ricorrenti formano un insieme che definisce il concetto.
Talvolta il processo di astrazione è paragonato a una sorta di fotomontaggio.
(sovrapporre i negativi dei ritratti dei membri della nostra famiglia appartenenti a
generazioni diverse, gli attributi ricorrenti o le caratteristiche dei membri individuali
della famiglia apparirebbero più scuri di quelli non ricorrenti e assumerebbero
maggior rilievo).
I soggetti usano una strategia per cercare di scoprire il concetto. La strategia è
chiamata focalizzazione conservativa perché i soggetti si focalizzano su di un attributo
soltanto e scelgono gli stimoli che variano solo sulla dimensione rappresentata da
questo attributo. Bruner e i suoi collaboratori hanno scoperto che i soggetti usano
varie strategie per cercare di risolvere questo problema. Strategie includono il
tentativo di indovinare il nucleo concettuale, la scansione simultanea e la scansione
successiva.
❖ Quando i soggetti tentano di indovinare il nucleo concettuale, essi scelgono gli
stimoli che differiscono dal caso positivo del concetto nei termini di più di un
attributo.
❖ La scansione simultanea viene eseguita quando i soggetti cercano di tenere a
mente tutte le possibili ipotesi per cercare di eliminarne quante più possibile
con ciascuna scelta. Questa strategia richiede un grosso sforzo mnemonico.
❖ La scansione successiva è meno impegnativa. I soggetti in questo caso,
formulano una sola ipotesi alla volta e cercano di verificarla con una serie di
scelte fino a che l’ipotesi corretta viene trovata.
Strategie di ricezione-> il processo di formazione dei concetti può essere studiato per
mezzo di una procedura che consente di mantenere l’ordine di presentazione degli
stimoli sotto il controllo dello sperimentatore. Nel caso di una strategia di tipo
olistico, i soggetti inizialmente assumono che il concetto sia definito in base a tutti gli
38
39

attributi presenti nel caso positivo del concetto che è stato presentato loro in
precedenza. Se lo stimolo successivo è coerente con quest’ipotesi, l’ipotesi viene
conservata. Altrimenti, viene formata una nuova ipotesi che tiene conto di ciò che le
nuove evidenze hanno in comune con l’ipotesi precedente. Nel caso di una strategia
di tipo elementaristico, l’ipotesi formulata inizialmente dei soggetti è definita nei
termini di un sottoinsieme degli attributi del caso positivo del contesto presentato in
precedenza.
Questa ipotesi viene mantenuta fino a quando vengono trovate evidenze
contrastanti. A quel punto, i soggetti modificano l’ipotesi in maniera tale da renderla
coerente con tutti gli stimoli visti sino a quel momento. Questa strategia pone un
pesante carico sulla memoria perché, per un’adeguata riformulazione dell’ipotesi,
tutti gli stimoli precedenti devono essere ricordati.
Apprendere regole complesse
le grammatiche a stati finiti sono dette anche diagrammi a rete ferroviaria . in una
serie di esperimenti, Reber e collaboratori hanno studiato il processo di
apprendimento di grammatiche artificiali. Reber ha distinto fra l’apprendimento
implicito e apprendimento esplicito. Supponiamo che ai soggetti appartenenti ad un
primo gruppo sperimentale vengono presentate delle sequenze di lettere e che
vengano istruiti a memorizzarne il maggior numero possibile. Ai soggetti compresi in
questo gruppo non viene spiegato che le sequenze di lettere sono state generate in
base ad una serie di regole.
(apprendimento implicito). Ai soggetti appartenenti ad un secondo gruppo
sperimentale, invece, viene spiegato che le sequenze di lettere sono state generate in
base ad una serie di regole e che il loro compito è quello di scoprire queste regole
(apprendimento esplicito) Reber ha scoperto che anche nella condizione di
apprendimento implicito i soggetti erano in grado di apprendere una notevole
quantità di regole grammaticali. In alcuni casi, inoltre, la condizione di
apprendimento implicito si era dimostrata persino più efficace della condizione di
apprendimento esplicito. Senza fare ricorso ad alcun processo di formulazione e
verifica, i soggetti nella condizione sperimentale di apprendimento implicito erano in
grado di estrarre la struttura della grammatica senza rendersene conto. questa
conoscenza, in ogni caso, rimaneva largamente una conoscenza tacita: i soggetti
sapevano qualcosa senza essere in grado di dire esattamente che cosa sapessero.
Il lavoro di Reber può fornirci indicazioni preziose a proposito del processo di
apprendimento di sistemi complessi di regole come, per esempio, quelli che stanno
alla base dei linguaggi naturali. Il processo di acquisizione del linguaggio non avviene
per mezzo di un’educazione formale delle regole grammaticali. I bambini sono in
grado di apprendere la struttura della grammatica senza sapere qual è questa
39
40

struttura, semplicemente ascoltando le frasi prodotte dei parlanti della comunità


linguistica a cui appartengono. I bambini in età prescolare sono in una situazione
simile a quella dei soggetti del gruppo sperimentale di apprendimento implicito
dell’esperimento di Reber. Naturalmente è possibile che i bambini siano dotati di
potenti strutture conoscitive naturali che li mettono in grado di acquisire
velocemente complesse strutture grammaticali. In ogni caso, è verosimile che la
conoscenza linguistica sia largamente tacita. Recentemente Reber ha riproposto
l’idea secondo la quale l’inconscio cognitivo svolge un ruolo importante nell’ambito di
processi cognitivi. Egli ipotizza che i processi cognitivi impliciti e inconsci siano apparsi
presto nella nostra storia evolutiva; la coscienza ha fatto il suo ingresso sulla scena
molto più tardi.
Il modello delle tracce di memoria di Hintzman
il modello delle tracce di memoria multiple e basato sull’assunzione che la traccia di
ciascun esperienza individuale venga registrato in memoria. Per quanto spesso un
evento si ripeta, ogni qualvolta se ne ettaro esperienza viene registrato una traccia di
memoria. Le tracce di memoria sono dotate di proprietà corrispondenti a quelli
dell’esperienza. Queste proprietà includono il tono emotivo dell’esperienza, le qualità
sensoriali come l’odore e il colore le altre unità più astratte. allo stesso modo di
James, Hintzman distingue fra memoria primaria e secondaria. La memoria primaria
si riferisce a tutto ciò di cui individui hanno esperienza in un dato momento, mentre
la memoria secondaria si riferisce alle tracce di memoria che sono state create dalle
esperienze avute da individui. La memoria secondaria può essere attivata per mezzo
di un probe a partire dalla memoria primaria. Le tracce di memoria vengono attivate
nella misura in cui esse sono simili al probe. Si ritiene che le tracce di memoria
attivate restituiscono un eco alla memoria primaria.
L’eco è costituito dei contributi di tutte le tracce di memoria che sono state attivate.
Per spiegare il significato che il termine eco assume all’interno di questo contesto, H.
ha suggerito che la revocazione può essere paragonata all’ascolto di un coro.
all’interno di questo coro, le proprietà delle tracce di memoria individuali tendono ad
essere perdute e viene conservata soltanto un’impressione generale di ciò che le
tracce di memoria hanno in comune. In questo modo, il ricordo può essere
schematico.
Barsalou e le categorie “ad hoc”
Le categorie ad hoc sono delle categorie che vengono create per fungere da supporto
a circostanze particolari. È possibile che i membri di queste categorie non
condividano alcun attributo e possiamo non averle mai incontrate in precedenza.
Barsalou ha dimostrato come le categorie ad hoc si sviluppano in maniera graduale in
40
41

base alle esigenze richieste da una circostanza per poter realizzare un determinato
scopo, il quale definisce la categoria. Supponete di creare la categoria ad hoc di
quello che non si deve mangiare durante una dieta. L’attributo più rilevante per la
creazione di questa categoria è “cibo con molte calorie”. Inoltre secondo Rosh, gli
individui preferiscono classificare inizialmente gli oggetti per mezzo delle loro
categorie di base. Così, la prima risposta che viene in mente quando vediamo un
particolare tipo di mobile è che quel mobile sia una sedia. Però Barsalou ha notato
che la categoria ad hoc: legna da ardere in una situazione di emergenza può fare si
che una sedia venga classificata anche in modi diversi. tale capacità di classificare gli
oggetti in più modi, rappresenta un aspetto importante del pensiero creativo, che ci
permette di far fronte a problemi nuovi o anche vecchi in modo diverso. Per
definizione, le categorie ad hoc non sono presenti nella memoria prima del loro uso,
quindi sono le circostanze del momento che generano un’esigenza, la quale rende
possibile la creazione di una categoria ad hoc.
Lakoff e i modelli cognitivi idealizzati
Gli individui dispongono di modelli cognitivi idealizzati che vengono modificati per far
fronte a circostanze particolari: il principio del dominio dell’esperienza consente
l’associazione fra oggetti o eventi che sono in rapporto gli uni con gli altri in una
particolare cultura. Se ad essere impegnati nell’attività della caccia e della pesca sono
soprattutto gli uomini, allora gli uomini e la maggior parte degli animali tenderanno
ad essere classificati nella medesima categoria. Lakoff ha proposto due altri principi
più specifici ovvero il principio mito e credenza e il principio della proprietà
importante.
Il principio mito e credenza consente l’associazione fra oggetti che si trovano in
relazione gli uni con gli altri per effetto di miti o credenze. Le donne sono collegati al
sole in un mito e così pure al fuoco. Per questa ragione, le donne e il fuoco si trovano
nella medesima categoria. Il principio della proprietà importante afferma che, se un
oggetto possiede una proprietà particolarmente importante (per esempio, la
proprietà di essere pericoloso), questo oggetto può entrare a far parte di una classe
diversa da quella cui sarebbe normalmente assegnato. Il pesce rospo, per esempio,
potrebbe essere classificato nella prima categoria, con la maggior parte degli altri
pesci. Il pesce rospo, però, è pericoloso e per questa ragione finisce con l’essere
classificate nella seconda categoria. Le classificazioni inusuali vengono usate per far
risaltare oggetti o eventi che sono degni di particolare attenzione. Questo potrebbe
portare ad una situazione di confusione concettuale, perché i sistemi concettuali reali
sono molto complicati. In ogni caso i sistemi concettuali umani possiedono
dimensioni culturali storiche che non possono essere ignorate.

41
42

ATTENZIONE
L’attenzione è un processo di focalizzazione di uno stimolo tra tanti che l’ambiente ci
mette a disposizione. Quest’ultimo ci pervade continuamente da una moltitudine di
stimoli, e noi attraverso l’utilizzo di un filtro dobbiamo essere in grado di concentrare
la nostra attenzione su alcuni aspetti piuttosto che su altri, questo è quello che viene
definito fuoco dell’attenzione, ovvero la capacità di selezionare un elemento nello
spazio e sottoporlo ad altre trasformazioni. Per studiare i processi attentivi sono stati
sviluppati dei paradigmi sperimentali, il più famoso è quello proposto da Posner.
Attenzione spaziale. Paradigma della ricerca spaziale (posner)
Il fenomeno del “guardare con la coda dell’occhio” dimostra che in effetti è possibile
spostare l’attenzione nello spazio a prescindere dallo sguardo.
Posner , propose il paradigma del suggerimento spaziale, con lo scopo di studiare lo
spostamento dell’attenzione. Durante i suoi esperimenti i soggetti, si trovavano
dinnanzi allo schermo di un computer, e dovevano mantenere lo sguardo fisso su di
una crocetta posta al centro dello schermo, tale crocetta è stata definita come punto
di fissazione, ai lati della quale erano posti due quadrati. Il compito dei soggetti era
quello di premere il più velocemente possibile il tasto desto qualora lo stimolo target
si presentava nel quadrato di destra oppure il tasto sinistro nel caso in cui lo stimolo
si presentava a sinistra, però prima della comparsa del target, in corrispondenza della
crocetta appariva una freccia la quale aveva il compito di suggerire la posizione più
probabile in cui sarebbe apparso lo stimolo target. Ovviamente il suggerimento

rappresentava una probablità e non una certezza. Tutti i soggetti venivano sottoposti
a più prove, durante le quali il target appariva nella maggior parte dei casi nel
quadrato indicato dalla freccia (prove valide), mentre nelle rimanenti (prove invalide)
il target appariva nell’altro quadrato. I risultati di questo esperimento hanno
dimostrato che i soggetti rispondevano più velocemente al target nelle prove valide
che nelle prove invalide. l’attenzione a questo punto può essere metaforicamente
paragonata ad un fascio di luce che si muove nell’ambiente, andando ad illuminare
diverse zone nello spazio in momenti diversi.
Inoltre è possibile controllare le dimensioni del fuoco dell’attenzione non solo il suo
spostamento. Infatti alcune ricerche hanno confermato che è un osservatore può,
entro certi limiti, variare l’estensione dell’area occupata del fuoco dell’attenzione,
concentrando le risorse su di un’area più ristretta o distribuendole su una più ampia.
Quando il fuoco è ristretto, cioè quando l’attenzione è concentrata, la velocità di

42
43

analisi risulta essere maggiore, e l’informazione al suo interno è analizzata più


velocemente e accuratamente.
Il paradigma della ricerca visiva
Allo scopo di studiare i meccanismi di analisi del sistema visivo, Treisman ed i suoi
collaboratori resero famoso un nuovo paradigma per lo studio dell’attenzione, ovvero
il paradigma della ricerca visiva. Tale paradigma consiste nel presentare sullo
schermo di un computer un certo numero di elementi. Il soggetto deve verificare se
tra gli elementi è presente il target specificato all’inizio del test. Se la risposta è
affermativa il soggetto deve premere un tasto, se é negativa deve premerne un altro.
Il numero totale di elementi presenti nella scena varia in modo casuale da prova a
prova. Questo paradigma viene utilizzato per studiare quali caratteristiche del target
(rispetto ai distrattori, ossia gli altri elementi presentati che non sono il target)
rendono la sua ricerca più o meno efficiente, e anche per inferire i meccanismi
attentivi adottati dal sistema visivo per analizzare la scena.
Se un elemento possiede una caratteristica che lo rende unico rispetto a tutti gli altri,
la ricerca risulta essere molto efficiente ed il tempo di reazione per la sua
individuazione non varia all’aumentare del numero complessivo di elementi, dunque
la ricerca del target potrebbe avvenire “in parallelo”.
Se invece il target deve essere individuato in base alla congiunzione di due o più
caratteristiche o in generale é poco distinguibile rispetto ai distrattori, la ricerca
risulta essere meno efficiente e vi è un incremento dei tempi di reazione
all’aumentare della numerosità degli elementi, suggerendo che il sistema visivo opera
attraverso un meccanismo “seriale” cioè analizzando la scena elemento per
elemento.
L’elaborazione in parallelo è stata tradizionalmente considerata indice di un
meccanismo pre attentivi, mentre quella seriale sarebbe invece dovuta all’intervento
dell’attenzione e al suo spostamento sui vari elementi della scena.
Il controllo dell’attenzione
L’orientamento volontario e automatico (elaborazione auto)
Distinzione/differenza tra elaborazione automatica e controllata
Elaborazione automatica: è un processo altamente autonomo, che avviene molto
rapidamente e che non richiede nè l’intervento della memoria a breve termine nè
l’utilizzo di risorse attentive le quali invece possono essere impiegate a svolgere
contemporaneamente due compiti senza che questi interferiscano tra di loro, a
meno che non si tratti di un compito troppo complesso. Ad esempio quando stiamo
43
44

guidando e siamo in grado di ascoltare la radio. Tali processi iniziano non


intenzionalmente, non possono essere interrotti in modo volontario e vengono
portati a compimento.
Elaborazione controllata invece richiede l’utilizzo e il controllo delle risorse
attentive, quindi è un processo più lento, coinvolge la memoria a breve termine. In
questo caso invece ci risulta impossibile svolgere più compiti contemporaneamente.
Hasher e Zacks hanno proposto 6 criteri di automaticità quali:
• Il primo, come abbiamo detto poco fa, è che un processo automatico inizia
non intenzionalmente
• Non è influenzato dalle intenzioni
• Non è influenzato dall’età del soggetto, in quanto una volta che siamo
diventati bravi nello svolgimento di un compito e questo è diventato un
processo automatico rimane tale anche nel corso del tempo
• Non subisce l’interferenza del doppio compito
• Ha un’efficienza che non dipende dall’esercizio, infatti una volta raggiunta la
soglia massima non può essere più oltrepassata
• È in gran parte indipendentemente da differenze individuali che si possono
trovare in compiti nuovi o complessi che sono controllati, quindi nel processo
automatico tutti i soggetti sono in grado di automatizzare dei compiti
Nessun processo nasce direttamente come processo automatico ma può diventarlo
nel tempo.
Vi è una divisione funzionale a livello neuro-anatomico evidenziata da lesioni:
Parietali: compiti automatici
Frontali: compiti controllati

Interazione tra fattori volontari e automatici


quando cerchiamo un elemento rosso tra tanti elementi verdi la nostra ricerca
attentiva è caratterizzata sia da componenti volontarie, che corrispode alla
conoscenza del nostro obiettivo di ricerca, sia da componenti automatiche (la
salienza), in quanto spesso accade che alcuni elementi che non rientrano nel nostro
obiettivo di ricerca richiamano la nostra attenzione mentre stiamo cercando
volontariamente qualcos’altro. A questo punto fattori automatici e volontari
competono per il controllo dell’attenzione. Secondo la teoria della cattura
contingente, un orientamento puramente automatico non esiste. Da alcuni studi è
44
45

emerso che un distrattore cattura la nostra attenzione solo se è simile in qualche


modo al target, solo cioè se condivide con quest’ultimo alcune delle sue
caratteristiche fisiche come forma, colore o altro. Ad esempio se stiamo cercando un
disco rosso tra diversi dischi verdi, la presenza di un eventuale disco blu catturerà
involontariamente la nostra attenzione.

L’attenzione basata sugli oggetti


Esiste un’ipotesi secondo la quale l’attenzione non si muove e non è distribuita nello
spazio, ma è piuttosto basata sugli oggetti.
Per dimostrare che l’attenzione può selezionare gli oggetti a prescindere dallo spazio,
sono stati condotti degli esperimenti in cui venivano presentate ai soggetti due figure
di oggetti sovrapposti, occupanti quindi la medesima posizione spaziale e il compito
dei soggetti era riportare due caratteristiche degli oggetti. In una condizione le due
caratteristiche riguardavano lo stesso oggetto, in un’altra due oggetti diversi.
L’esperimento ha dimostrato che la prestazione dei soggetti era più accurata quando
le due caratteristiche riguardavano lo stesso oggetto che non quando riguardavano
due oggetti diversi. Questi risultati sono stati interpretati come prova del fatto che
l’attenzione opera selezionando gli oggetti, e non in base a coordinate spaziali. La
diminuzione di accuratezza quando le due caratteristiche riguardavano due oggetti
differenti sarebbe dovuto alla necessità di spostare l’attenzione dalla
rappresentazione di un oggetto a quello di un altro. Secondo questa ipotesi prima
dell’intervento dell’attenzione il campo visivo sarebbe già segmentato in unità
percettive (o oggetti), che costituirebbero gli elementi su cui opererebbe
successivamente l’attenzione. Tali unità sarebbero il prodotto delle leggi di
raggruppamento percettivo formulate nell’ambito della psicologia della Gestalt. Tali
forme di raggruppamento possono riunire in una stessa unità percettiva oggetti
anche distanti tra loro e separati da altri oggetti. Alcuni ricercatori in effetti hanno
dimostrato che l’attenzione può essere dislocata su oggetti distanti tra loro, ma
percettivamente unificati in base ad una delle varie leggi della Gestalt, come esempio
la legge della somiglianza o quella del movimento comune.
Deficit percettivi causati da patologie neurologiche
Le distorsioni nella percezione possono essere indotte anche da deficit di attenzione
derivanti da lesioni cerebrali:
La negligenza spaziale unilaterale (neglect)
È una patologia neurologica comunemente associata ad una lesione del lobo
parietale destro del cervello. Quantomeno nella fase acuta di questa patologia, i

45
46

pazienti mostrano una completa mancanza di consapevolezza degli stimoli presenti


nella parte sinistra del loro campo visivo, cioè in quella opposta all’area del cervello in
cui si è verificata la lesione. È importante sottolineare che il problema delle persone
affette da negligenza spaziale unilaterale non è quello di non vedere gli stimoli, non
hanno un deficit sensoriale, cioè non sono ciechi, ma sta nel fatto che ciò che sta alla
loro sinistra semplicemente “non esiste”. Questi pazienti possono completamente
ignorare le persone che li avvicinano dal lato sinistro, mangiare solo la metà di quello
che è presente nel piatto di fronte all’oro, accade inoltre che vestano solo metà del
corpo oppure che si trucchino solo metà del viso. É ampiamente condivisa l’idea che
il loro problema risieda nell’incapacità di orientare l’attenzione verso sinistra (nel
caso di lesione destra). Aconferma di ciò, una volta che l’attenzione del paziente e
diretta verso il lato precedentemente ignorato, gli stimoli che prima erano trascurati
tornano ad essere percepiti consapevolmente. Sebbene il neglect si osservi
prevalentemente nella modalità visiva, e su riguardare anche altre modalità sensoriali
come tatto e udito. Dunque è chiaro che la percezione risulta compromessa quando
sono raggiunti i limiti della selezione attentiva (attenntional blink), quando
l’attenzione non è focalizzata correttamente (change blindness), o quando manca
totalmente in una parte del campo visivo (neglect).
Attenzione e coscienza
L’elaborazione non consapevole
Quella dei processi non consapevoli non è una questione semplice da affrontare. La
difficoltà principale sta nel fatto che non è possibile basarsi sulla risposta diretta
(consapevole) del soggetto per verificare se una certa informazione è stata elaborata in
modo inconsapevole. La soluzione adottata è quella di utilizzare prove indirette, basate
sulla misurazione di qualcosa che non dipende dalla risposta volontaria del soggetto. Una
tecnica indiretta molto usata è quella dell'ascolto dicotico, che consiste nel presentare al
soggetto simultaneamente due messaggi diversi (uno per orecchio), chiedendogli di
ripetere quello che sente, ad esempio, nell'orecchio destro. In questo caso, l'attenzione del
soggetto dovrebbe essere focalizzata sul messaggio presentato all'orecchio destro e,
contemporaneamente, dovrebbe escludere l'altro messaggio. In accordo con questa
previsione, nei primi anni sessanta del secolo scorso alcuni studi hanno dimostrato che i
soggetti non solo erano in grado di riferire il contenuto del messaggio cui non prestavano
attenzione, ma non sapevano dire nemmeno se la voce fosse maschile o femminile.
Tuttavia, successivamente, un altro studio ha mostrato che se nel messaggio cui il soggetto
non presta attenzione viene inserito il nome del soggetto stesso, questi è in grado di
rendersene immediatamente conto. Non si poteva però escludere che l’attenzione del
soggetto si fosse spostata sul messaggio che conteneva il suo nome, influenzandone così la
46
47

percezione consapevole. Per escludere tale possibilità, sono stati condotti ulteriori
esperimenti in cui veniva usata la tecnica del condizionamento per produrre una risposta
fisiologica ad una parola cui era stata associata una lieve scarica elettrica. Quando tale
parola era presentata all’orecchio cui i soggetti non prestavano attenzione, essa evocava
comunque la stessa risposta fisiologica (prova indiretta), anche se poi i soggetti non erano
consapevoli di aver udito la parola. Lo stesso effetto è stato ottenuto anche con poche
parole associate semanticamente. Quest’ultimo risultato dimostra che l’elaborazione
inconsapevole del messaggio cui non si presta attenzione è alquanto sofisticata,
raggiungendo, di fatto, almeno il livello dell’estrazione del significato delle parole.
Il mascheramento visivo è una tecnica indiretta che ci consente di confermare se il processo
mentale che stiamo analizzando sia veramente inconsapevole o meno. Questa tecnica
consiste nel presentare uno stimolo target che viene fatto seguire da un altro stimolo che
ha lo scopo di nascondere il primo, rendendone difficile, se non impossibile,
l’identificazione. Il vantaggio di questa tecnica è rappresentato dalla possibilità di verificare
direttamente se la tecnica di mascheramento è andata a buon fine e se il target è stato
percepito consapevolmente, chiedendo al soggetto di identificarlo. Se le risposte non sono
fornite a caso, si può essere sicuri che eventuali prove di un analisi del target siano da
imputare a processi non consapevoli. In questo tipo di esperimenti si utilizza il fenomeno
del “priming” per ottenere prove indirette di un’analisi inconscia dell’informazione. Il
priming è un fenomeno di facilitazione prodotto da uno stimolo (prime) su uno stimolo
successivo (target). Ad esempio, le persone ci mettono meno tempo a decidere che la
parola target cane appartiene alla categoria “animali” se il prime è la parola “cavallo” e non,
poniamo, la parola “cavolo”. Il risultato interessante emerso è che se il prime viene
mascherato in modo che la sua identità non sia riconosciuta consapevolmente, l’effetto di
priming si ottiene ugualmente. Quindi una parola non percepita consapevolmente è
nondimeno in grado di influenzare una risposta consapevole. Dimostrazioni di un
elaborazione non consapevole si sono ottenute sia in condizioni sperimentali su soggetti
sani, che in pazienti neglect.

La relazione attenzione-coscienza e il ruolo della coscienza


La funzione dell’attenzione, secondo alcuni autori, è quella di consentire ad alcune
informazioni di raggiungere la consapevolezza. L’attenzione sarebbe cioè una sorta di
canale privilegiato per l’accesso alla coscienza, che può contenere una quantità di
informazioni limitata. Il sistema di coscienza è stato descritto come una sorta di
processore centrale che a causa dei già menzionati limiti opera in maniera seriale
sulle informazioni in ingresso. Il ruolo forse più importante della coscienza è quello di
poter decidere di interrompere, dove necessario, proprio qui processo quelle azioni
47
48

automaticamente innescate. Infine, secondo alcuni ricercatori, attenzione coscienza


coincidono, mentre per altri no. I risultati ottenuti con l’ascolto dicotico
dimostrerebbero infatti che un particolare stimolo, come ad esempio il nome del
soggetto (esperimento dell’ascolto dicotico, vedi sopra) può raggiungere la
consapevolezza anche in assenza di attenzione. Resta comunque vero che attenzione
e consapevolezza sono due fenomeni intimamente legati e che nella maggior parte
dei casi siamo consapevoli solo di quello a cui prestiamo attenzione come dimostra il
fenomeno del change blindness (cecità al cambiamento).
Definizione di ATTENZIONE
L’attenzione e l’atto per cui la mente prende possesso in forma limpida e vivace di
uno fra tanti oggetti e fra diverse correnti di pensieri che si presentano come
simultaneamente possibili. Essa implica l’abbandono di certe cose allo scopo di
trattare più efficacemente con altre.

EFFETTO STROOP: L’effetto Stroop prende il nome dal suo fondatore e nasce
dall’idea di presentare degli stimoli che contenessero al proprio interno una
contraddizione di fatto. L’esempio più noto di questo esperimento consiste nel
presentare degli stimoli, ovvero delle parole scritte che indicano un colore, come ad
esempio la parola rosso, ma che però sono scritte con inchiostro di colore diverso da
quello indicato dalla parola stessa, ad esempio la parola rosso ma scritta con
inchiostro blu. Il soggetto sperimentale a questo punto deve pronunciare il colore
dell’inchiostro con cui è scritta la parola, nel nostro caso il blu, tralasciando
completamente il significato della parola. Come possiamo ben appurare anche solo
provando a svolgere noi stessi tale esperimento, questo rappresenta un compito
molto complesso per chiunque individuo alfabetizzato, in quanto non siamo in grado
di evitare di attivare in maniera automatica il significato della parola. Infatti è come
se fossimo continuamente distratti dalla tendenza a leggere i nomi dei colori mentre
cerchiamo di pronunciare il colore dell’inchiostro. Nell’effetto stroop emergono
quindi due tipi di informazione che sono tra di loro discordanti e che per questo
motivo producono un ritardo nell’elaborazione dei concetti, oltre che un
rallentamento dei tempi di reazione e questo porta a commettere diversi errori.
Queste due informazioni contrastanti sono da una parte quella che è definiamo
informazione rilevante, che risiede nel colore degli stimoli e dall’altra l’informazione
irrilevante che è data invece dal significato delle parole. Anche se ci sembrerà strano
l’effetto stroop è un processo automatico. I processi automatici sono altamente
autonomi e per questo è possibile svolgerli senza prestarci attenzione. Al contrario
invece ci sono attività a cui è necessario prestare molta attenzione affinchè vengano
48
49

svolti nel modo corretto, questi sono i processi controllati. È necessario precisare
che nessun processo nasce direttamente come automatico ma che lo diventa con il
tempo, per questo motivo l’effetto stroop è considerato un processo automatico.
Elaborazione preattentiva (Treisman) - attentiva
L’attenzione riguarda anche le proprietà degli oggetti o degli eventi. Esempio->
immaginiamo di cercare una matita rossa sulla nostra scrivania, la capacità di filtro
attentivo può essere focalizzata sul colore dell’oggetto. Il centro della nostra
scannerizzazione di pluralità di oggetti sono (in questo caso)quelli rossi.
Elaborazione preattentiva: le singole caratteristiche di uno stimolo vengono
elaborate prima, senza l’intervento dell’attenzione (colore selettivo rispetto ad altri
oggetti):
elaborazione attentiva: l’attenzione focalizzata interviene per combinare tra di loro le
diverse caratteristiche. Nel caso di una ricerca di un oggetto, combina la forma il
colore ecc.

Questo è un paradigma sperimentale. Nella situazione A vengono presentati dei


cerchi tutti uguali tra di loro, per forma dimensione e colore, tranne uno (quello che
ha un segmento verticale che interseca la circonferenza). Nella situazione
sperimentale B, tutti i cerchi sono uguali, cioè hanno un segmento verticale che
interseca la circonferenza e solo uno è diverso (cerchio normale) . Il soggetto deve
dire, nel minor tempo possibile, se i cerchi sono tutti uguali o se c’è almeno un
cerchio diverso dagli altri. Dall’esperimento evince che i tempi di reazione nella prima
situazione sperimentale (A) sono minori, cioè i soggetti impiegano meno tempo per
trovare l’oggetto diverso. Questo perché è più semplice individuare l’unico elemento
che manca negli altri. È un fenomeno di popup, balza agli occhi, non c’è bisogno della
scannerizzazione visiva. ->preattentiva
Nella situazione B c’è bisogno dei processi attentivi, l’attenzione deve prendere come
oggetto le singole figure nella loro interezza e confrontarle dalla presenza eventuale
49
50

di una figura in cui non sono presenti tutte e due le caratteristiche che sono presenti
nelle altre figure.Secondo la Treisman, prima di essere in grado di prestare attenzione
agli oggetti nell’ambiente, é necessario estrarre le loro caratteristiche costituenti.
Tale processo di estrazione delle caratteristiche é chiamato “elaborazione
preattentiva”: i processi pre attentivi estraggono le caratteristiche come la forma, il
colore ecc. degli eventi del mondo esterno. Le proprietà di base per mezzo delle quali
noi costruiamo gli oggetti percepiti corrispondono alle caratteristiche che emergono
spontaneamente da una configurazione (fenomeno chiamato POP up).
Il fuoco dell’attenzione-> la capacità del nostro sistema attentivo di selezionare un
elemento nello spazio o comunque un elemento nella situazione sotto osservazione
per sottoporlo ad ulteriori elaborazioni. Quindi è innanzitutto una capacità insita
all’attenzione che permette di concentrare le nostre risorse attentive su uno
specifico stimolo dell’ambiente tralasciando gli elementi irrilevanti.
il fuoco dell’attenzione ha dimensioni variabili può essere diretto verso un singolo
elemento ma può essere anche diretto verso più elementi. Quindi il fuoco può avere
delle dimensioni che sono sotto il dominio della scelta del soggetto che dirige la sua
attenzione verso un aspetto dello spazio.
Attenzione selettiva e attenzione divisa
l’attenzione selettiva, è quel tipo di attenzione che ci permette di utilizzare il
cosiddetto focus grazie al quale possiamo scegliere in forma cosciente uno solo tra
tanti elementi che si presentano come simultaneamente possibili. Questo implica
l’abbandono di tutti gli altri elementi per poter trattare più efficacemente con quello
selezionato. L’attenzione divisa, è la capacità opposta di dividere l’attenzione
prestando contemporaneamente attenzione a più cose. Inizialmente l’attenzione
selettiva fu studiata per mezzo del cosiddetto fenomeno del cocktail party, fenomeno
che attraverso questa metafora ci spiega che quando noi individui ci troviamo
all’interno di una festa nonostante siamo continuamente pervasi da una moltitudine
di stimoli siamo comunque in grado di scegliere a quale elemento prestare
attenzione, nonostante ci siano numerosi rumori. La traduzione sperimentale di
questo fenomeno è caratterizzata degli esperimenti di shadowing, o anche conosciuti
come paradigmi dell’ascolto dicotico, dove appunto a dei soggetti sperimentali
venivano presentati a ciascun orecchio messaggi diversi per mezzo di un paio di
cuffie, ad esempio da una parte veniva fatta ascoltare una sequenza di lettere e
dall’altra una sequenza di numeri. Il compito dei soggetti era quello di prestare
attenzione a soltanto una delle sequenze che stavano ascoltando e dovevano
pronunciarle nello stesso momento. L’esperimento rivelò che i soggetti non avevano
nessuna difficoltà a svolgere questo compito, e la spiegazione deriva dal fatto che gli
50
51

individui siano in grado di filtrare l’informazione. Per questo sono state sviluppate
diverse teorie definite a collo di bottiglia o del filtro, che posizionano in diversi punti
dell’elaborazione dell’informazione un filtro. La prima teoria a collo di bottiglia è stata
proposta da Broadbent, in questa teoria l’informazione viene selezionata a partire
dalle sue caratteristiche fisiche e non di significato. Abbiamo quindi due input uditivi
che si presentano al nostro sistema sensoriale, uno di questi lo acquisiamo in
maniera consapevole, l’altro invece lo registriamo inconsapevolmente. La
coesistenza di questi due stimoli però non dura a lungo in quanto subito dopo
troviamo il filtro che sopprime tutte le informazione eccetto quella a cui abbiamo
deciso di prestare attenzione che invece continua il suo percorso. Successivamente
abbiamo la fase di Detection Device, che ha il compito di rilevare l’informazione e
trasferirla nella memoria a breve termine, dove possiamo trovare le possibili
risposte comportamentali. Successivamente Anne Treisman, non essendo d’accordo
sul fatto che le informazioni venissero selezionate solo sulla base delle loro
caratteristiche fisiche ma anche sulla base del loro significato, propose una seconda
teoria a collo di bottiglia, ovvero la teoria di integrazione di caratteristiche. Anche in
questo caso abbiamo due input solo che in questo modello non sopravvive solo
un’informazione, ma entrambe solo che una procede in maniera più attenuata e
l’altra in maniera più evidente quindi c’è una selezione tardiva dell’informazione.
(Late Selection). Anche qui la fase successiva prevede un meccanismo di rilevamento
che trasferisce l’informazione nella memoria a breve termine, dove solo in questo
punto il messaggio viene filtrato. La terza teoria è quella di Deutsch e Deutsch. La
loro teoria è pienamente di “Late Selection” cioè di selezione tardiva, i due messaggi
continuano a coesistere fino alla fine, anche attraverso il meccanismo di memoria a
breve termine. La selezione avviene soltanto nel momento della risposta cioè il
momento in cui un sistema motorio deve dare una risposta. Ci sono dei dati che
dimostrano l’effetto di selezione precoce e selezione tardiva? Sì-> effetto Simon
(quadrato e rettango pulsanti destra e snistra e tempi di reazione)

In che modo il sistema attentivo riesce a selezionare in modo selettivo l’informazione


rilevante da quella irrilevante mediante quattro competenze:
Quattro competenze
Integrazione, filtraggio, ricerca e priming:
integrazione: (come l’integrazione di informazioni tra elaborazione preattentiva e
attentiva) capacità di mettere in relazione diversi aspetti della situazione in base alla
51
52

sua complessità, attenzione selettiva poggia sulla capacità di integrare informazioni


diverse tra di loro
filtraggio: capacità che ha il sistema attentivo di ignorare informazioni non rilevanti
per selezionare solo quelle richieste e pertinenti, questa competenza può essere
messa in discussione in alcuni contesti e varia in relazione alla qualità o presenza di
distrattori e il filtraggio funziona meno bene quando l’informazione non rilevante si
attiva automaticamente nella nostra mente
ricerca: capacità di individuare un elemento presente nel campo visivo, di
scannerizzare il campo visivo per individuare l’informazione che in quel momento è
rilevante e che è utile allo svolgimento di un compito o fine
priming: indica l’effetto di un contesto. E’ un meccanismo di regolazione in base al
quale l’elaborazione dell’informazione è basata sul contesto nel quale è inserita, ad
esempio siamo in grado di utilizzare l’informazione precedente per capire meglio
l’informazione successiva. Può essere un priming positivo o negativo, si intende che a
volte può portare a maggiore efficienza ed efficacia di risposta e a volte
un’informazione data in contesto fuorviante o fuori contesto rispetto al contesto
precedente può essere inibita
Distinzione orientamento esogeno (nasce fuori dall’organismo) vs endogeno ( nasce
all’interno dell’organismo)
Attenzione può essere orientata da stimoli esterni o da necessità interne
È una distinzione che ricalca quella tra orientamento volontario e automatico ma ha
caratteristiche più generali e prescinde dall’attenzione spaziale:
- ci dice che l’orientamento dell’attenzione può essere guidato o passivamente da
stimoli periferici nell’ambiente che catturano la nostra attenzione e che nasce da
qualcosa presente nell’ambiente (esogeno) oppure può essere guidato
volontariamente dall’individuo in base alla sua necessità momentanea (orientamento
endogeno dell’attenzione)
Altra distinzione orientamento esplicito e implicito dell’attenzione
Proviene dalla possibile dissociazione tra orientamento dello sguardo e
dell’attenzione; dove lo sguardo accompagna e si muove con l’orientamento
dell’attenzione ma ciò a volte non capita e lo sguardo può orientarsi in un punto
diverso da dove si dirige la nostra attenzione
Orientamento esplicito: si riferisce a quando l’orientamento dell’attenzione è
accompagnato dal movimento di occhi, capo, busto o corpo e viene attivato quando
52
53

viene rilevato l’oggetto di interesse alla periferia del campo visivo (con la coda
dell’occhio). Il nostro sguardo quindi si allinea con quel fenomeno o oggetto
ruotando il capo e l’occhio ecc… che iniziano quello stimolo rilevante
Orientamento implicito: ovvero quello rilevato dal paradigma di Posner dove tutte le
risposte date sono prove in cui il soggetto coglie un elemento nel campo visivo pur
mantenendo al vista su un punto di fissazione che è lontano rispetto agli elementi
che lampeggiano. Quindi l’orientamento implicito è caratterizzato da spostamenti
dell’attenzione in assenza di movimenti corporei (come esempio paradigma di posner
) di occhio o busto o testa … quindi lo sguardo fissa un punto dello spazio diverso
rispetto a quello dove si sta orientando l’attenzione
Tutti i tipi di orientamento dell’attenzione in realtà interagiscono tra di loro come
nella vita quotidiana che permette un controllo dell’ambiente (mai assoluto e totale)
nel migliore dei modi in base alle circostanze da parte dei soggetti

Attenzione come risorsa


L’attenzione è stata più volte definita come una risorsa limitata. Secondo Hirst questa
ipotesi può significare diverse cose:
• L’attenzione è simile ad una riserva di energia, come una riserva di carburante,
e quindi l’esecuzione di un compito è limitata dalla riserva di carburante che
alimenta l’attenzione. Questo modello è definito modello delle capacità.
• L’attenzione è dotata di limiti di carattere strutturale (la probabilità che si
verifichi un’interferenza fra compiti diversi é tanto maggiore quanto più i
compiti condividono le stesse risorse di elaborazione.
• Una terza possibilità, quella condivisa da Hirst, é che l’attenzione sia costituita
da un insieme di abilità diverse e che quindi le risorse sono costituite dalle
abilità di cui si è dotati. Sono state studiate le strategie per mezzo delle quali
l’attenzione viene distribuita a diverse attività mentali. Con l’esperimento
degli errori simultanei e sfalsati si rileva che nella condizione sfalsata i soggetti
potevano alternare rapidamente l’attenzione tra le sequenze più facilmente
rispetto alla condizione simultanea. Sei un soggetto rilevava un errore in un
canale, in seguito poteva concentrarsi soltanto sull’altro canale. La condizione
sfalsata corrispondeva ad un compito di attenzione selettiva. Nella condizione
simultanea, invece, gli errori in entrambe le sequenze si verificavano nello
stesso momento e quindi soggetti non potevano mai limitarsi a prestare
attenzione ad un solo canale. La condizione simultanea corrispondeva ad un
compito di attenzione divisa. Per questi motivi, nella condizione sfalsate
53
54

soggetti rilevavano gli errori in entrambe le sequenze con più facilità rispetto
alla condizione simultanea. I risultati dei loro esperimenti favoriscono l’ipotesi
che sia più facile dividere l’attenzione quando due compiti richiedono abilità
differenti, ad esempio un compito aritmetico e un compito grammaticale. È
necessario però ricordare che i processi differenti possono interferire gli uni
con gli altri a causa di ciò che viene chiamato cross talk (comunicazione
incrociata): se due processi sono costituiti da due sequenze di eventi, può
succedere che gli eventi appartenenti ad un processo possono interferire con
quelli appartenenti allo stesso processo. (esperimento p. 66, libro psicologia
dei processi cognitivi)

Errori di attenzione
Parlando di errori di attenzione possiamo distinguere tra le cadute di attenzione che
riscontriamo normalmente nella nostra quotidianità e gli errori di attenzione indotti
sperimentalmente. A proposito dei primi Norman sviluppa una teoria chiamata
schema di attivazione-produzione in grado spiegare i motivi per cui si verificano tali
errori. Con il concetto di schema facciamo riferimento a come noi individui
programmiamo le nostre azioni successive facendo riferimento alle esperienze
passate. Gli schemi sono molteplici e possono essere attivati anche più schemi
simultaneamente. L’esempio di Norman riguarda una sequenza di azioni prolungata
che pratichiamo normalmente tutti i giorni, come quando guidiamo l’auto nel tratto
di strada che va da lavoro a casa nostra. Nonostante si debbano attivare più azioni in
momenti diversi questo processo non richiede molta attenzione, eccetto in alcuni
momenti particolari come fermarsi al semaforo. Se però un giorno, a causa di una
richiesta particolare come ad esempio qualcuno che ci chiede di fare la spesa,
dobbiamo cambiare il nostro schema abituale, se non prestassimo attenzione
potrebbe capitare di mettere in pratica le nostre azioni abituali e andare dritti a casa
senza la spesa. Distinguiamo quindi diversi tipi di deficit attentivi:
• Abbiamo gli errori di modalità e descrizione che sono due sottoclassi della
prima classe di errori, e cioè quelli che si verificano quando formuliamo in
maniera sbagliata quello che è nostra intenzione fare. I primi, quelli di
modalità, hanno luogo quando facciamo qualcosa che invece sarebbe
opportuno mettere in pratica in una situazione diversa rispetto a quella in cui
ci troviamo. (ad esempio un individuo che tenta di togliersi gli occhiali anche
se in quel momento non li sta portando). I secondi invece, quelli di descrizione,
si verificano quando non abbiamo ben capito la situazione in cui ci troviamo.
(ad esempio un individuo che vuole fermare la macchina e sganciare la cintura
54
55

di sicurezza, ma finisce invece per sganciare il cinturino dell’orologio).

• La seconda classe di errori si verifica quando attiviamo uno schema nel modo
sbagliato. Fanno parte di questa categoria gli errori di cattura, i quali si
verificano quando uno schema per noi abituale cattura il nostro
comportamento sostituendosi ad uno schema non familiare (ad esempio
l’effetto STROOP)(oppure quando ci rechiamo in una stanza per prendere un
oggetto e ci ritroviamo lì senza ricordarcene l motivo)
- L’ultima classe di errori si verifica quando attiviamo lo schema giusto solo che
lo attiviamo nel momento sbagliato (esempio spoonerismo o errori di
anticipazione).
come abbiamo detto prima, oltre agli errori che si verificano in modo spontaneo
esistono delle situazioni create in laboratorio per lo studio dei deficit attentivi.
Una di queste situazioni sperimentali è l’attentional blink,

tradotto significa sbattimento delle palpebre, e in effetti quello che si tenta di


riprodurre in questa situazione sperimentale non è altro che una temporanea
condizione di cecità. Lo scopo di questo esperimento sta nel dimostrare che quando
il focus della nostra attenzione è rivolto in un punto è difficile prestare attenzione ad
altro. Nell’esperimento viene rappresentata una freccia la quale indica il tempo e
quindi l’ordine cronologico in cui si presentano gli stimoli, questi ultimi sono delle
sequenze di lettere e il soggetto sperimentale in una prima prova deve nominare
una determinata lettera quando questa si presenta, in una seconda prova invece i
soggetti devono eseguire due compiti in successione, ovvero devono nominare
prima una lettera e poi successivamente una seconda, in questo caso si verificano
spesso delle omissioni in quanto il nostro focus è rivolto ancora alla prima lettera.
Quindi con questo fenomeno, noi siamo in grado di creare un deficit funzionale
dell’attenzione temporaneo.
CHANGE BLINDNESS
55
56

Un altro deficit dell'attenzione creato in laboratorio è il cosiddetto change


blindness, cioè la cecità al cambiamento. Lo scopo di questo esperimento era quello
di dimostrare che gli individui non sono in grado di concentrarsi su un cambiamento
quando non gli vengono fornite delle informazioni anticipate riguardo quest’ultimo.
L’esperimento consisteva nel presentare molto velocemente a dei soggetti due
immagini che differivano tra loro solo per un particolare. Tra un immagine e l’altra
eera presente un vuoto di breve durata il quale produceva un effetto di disturbo simile
a uno sfarfallio, per questo tale paradigma viene chiamato paradigma del flicker,
letteralmente sfarfallio. In questa situazione i soggetti non erano in grado di
individuare alcuna differenza presente nelle immagini, che consiste nella presenza di
due ciminiere presenti nella prima immagine e assenti nella seconda. La prova va
avanti finché il soggetto non nota questa differenza tra le 2 immagini, e a volte va
avanti per tutto il periodo massimo consentito dalla prova perché i soggetti non
individuano la differenza.
Attenzione e consapevolezza ed elaborazione inconscia
Secondo James, gli individui codificano gli eventi in modi differenti. Un codice è un
insieme di regole o di operazioni in base alle quali è possibile trasformare in modo
sistematico elementi da una forma ad un’altra forma. La codifica si riferisce al
processo attraverso il quale l’informazione viene trasformata in una o più forme di
rappresentazione.
Ci sono diversi modi per cui l’individuo codifica l’informazione.
• Esempio di Wickens: Quando una persona sente la parola cavallo, questa viene
codificata nella più ampia categoria degli animali da carico, delle creature a
quattro zampe, dei mammiferi, degli animali a sangue caldo e finalmente degli
animali in generale, quindi questo processo procede dal particolare al
generale.
• Secondo Wickens, la codifica é un processo largamente automatico, inconscio,
molto rapido. Un evento può essere codificato simultaneamente in diversi
modi (ad esempio una parola può essere codificata nei termini della sua
frequenza di utilizzo, nei termini delle emozioni che suscita in noi ecc..) Tale
processo è detto codifica multidimensionale.
Percezione subliminale
Si riferisce a quella classe di fenomeni in cui uno stimolo è in grado di influenzare il
comportamento anche se é stato presentato troppo velocemente, oppure ad un
livello di intensità troppo basso, perché il soggetto sia in grado di identificarlo. Uno
stimolo può essere presentato per un tempo minore di quello che rende possibile
56
57

l’identificazione ma nonostante ciò lo stimolo può avere un effetto anche se il


soggetto non è in grado di identificarlo: Wickens ha fornito una serie di risultati
derivanti da esperimenti nei quali soggetti erano in grado di dire se lo stimolo era una
parola piacevole o spiacevole, anche se non erano in grado di dire di che parola si
trattasse. La percezione subliminale ha spesso a che fare con la semantica (due
parole di significato simile sono dette semanticamente collegate: sacro e Pasqua).
Figura e sfondo
Un fenomeno simile alla percezione subliminale può essere descritto attraverso la
distinzione tra figura e sfondo proposta dagli psicologi gestaltisti. Individui
solitamente articolano la loro esperienza in una parte a cui prestano attenzione
(figura) e in una parte a cui non prestano attenzione (sfondo). Ad esempio in questo
momento stai prestando attenzione alle parole stampate su questa pagina, ma non
stai prestando attenzione al tuo respiro. Le parole stampate sono la figura e la tua
respirazione fa parte dello sfondo.
É possibile però cambiare la direzione dell’attenzione in maniera tale che ciò che è un
momento fa costituiva la figura ora é sfondo e viceversa.
(Esperimento pag 74, libro processi cognitivi). Risultati: È possibile che il materiale
contenuto nello sfondo fosse stato codificato senza che i soggetti ne fossero
consapevoli e che ne avesse influenzato il comportamento successivo, quindi
l’informazione può essere codificata al di fuori della consapevolezza. questi studi non
ho fatto uso di una tecnica chiamata mascheramento retroattivo:
Mascheramento retroattivo
Consiste nella presentazione di uno stimolo (target) e nel mascheramento di questo
stimolo attraverso un altro stimolo. La differenza temporale che intercorre tra la
presentazione del primo stimolo e la presentazione dello stimolo di mascheramento
é chiamata SOA (stimulus onset asynchrony). Ai soggetti veniva brevemente
presentata una singola parola che veniva poi mascherata da un pattern. I soggetti
dovevano cercare di identificare la parola stimolo. Talvolta i soggetti riportavano
parole diverse da quelle effettivamente presentate, ma semanticamente collegate
alla parola stimolo (ad esempio Regina invece di Re oppure mela invece di arancia)
Misure dirette e indirette dell’attenzione
Marcel ha fatto uso di un SOA apparentemente troppo breve da consentire il
rilevamento dello stimolo. In un esperimento molto simile all’effetto stroop, una
superficie colorata veniva mostrata dopo la presentazione e il mascheramento della
parola target (esempio: parola target blu e la superficie rossa). In alcune prove le
parole target e i colori erano congruenti (tipo parola target: rosso superficie colorata:

57
58

rossa). I soggetti dovevano riportare il colore della superficie colorata. I risultati


indicano che anche se i soggetti non erano in grado di dire nulla a proposito della
parola presentata prima della maschera, essi rispondevano più velocemente alle
prove congruenti rispetto a quelle incongruenti. —> I soggetti non erano
consciamente consapevoli del target.
Per stabilire l’influenza di uno stimolo nei confronti di un processo cognitivo è
necessario quindi fare ricorso a misure indirette piuttosto che affidarsi a semplici
misure dirette (come ad esempio chiedere i soggetti se hanno notato lo stimolo
oppure no, ovvero utilizzare protocolli verbali in termini psicologici). Quindi il
mascheramento dello stimolo che ne impedisce l’accesso alla consapevolezza non
pregiudica la possibilità che lo stimolo abbia un effetto. Secondo Marcel quindi gli
individui non sono sempre consapevoli del prodotto dei processi percettivi. Ciò che
gli individui percepiscono può essere diverso da ciò di cui gli individui sono
consapevoli.
La consapevolezza non è soltanto il risultato finale della percezione, piuttosto essa
costituisce una deliberata ristrutturazione dell’informazione disponibile, la quale
produce l’organizzazione che riteniamo più utile in una determinata situazione.
È necessario distinguere tra una soglia OGGETTIVA e una SOGGETTIVA della
consapevolezza. Nel caso degli esperimenti sul mascheramento retroattivo, la soglia
OGGETTIVA si riferisce al SOA che consente ai soggetti di identificare uno stimolo con
un’adeguatezza superiore al caso. La soglia soggettiva invece si riferisce al SOA in
corrispondenza del quale i soggetti asseriscono di essere in grado di identificare uno
stimolo con un’accuratezza superiore al caso. Secondo alcuni psicologici è possibile
distinguere tra consapevolezza e processi inconsci facendo riferimento alla seconda
soglia, quella SOGGETTIVA, perché dobbiamo parlare di percezione inconscia ogni
volta che uno stimolo esercita un effetto anche se si trova al di sotto della soglia
soggettiva.
TRACCE E SCHEMI DI MEMORIA. Tracce di memoriaa.
È probabile che l’esperienza influenzi la memoria lasciando delle tracce dietro di sé,
queste tracce di memoria sono simili a repliche delle esperienze passate. Lo studioso
Paul le paragona infatti ad un vero e proprio dispositivo di registrazione che appunto
registra, conserva e riproduce gli eventi in maniera identica e che sia in grado di
preservarle per un periodo indefinito di tempo. In questo modo gli eventi almeno
inizialmente potevano essere visti e rivisti in maniera fedele per un numero di volte
illimitato anche se con il passare del tempo la qualità del ricordo poteva in qualche
modo essere danneggiata. Ovviamente tutto questo è assurdo, in quanto nessuno di

58
59

noi ha ricordi cosi chiari e precisi e per questo Paul insieme ad un collega ripresero
l’analogia del notes magico che fu proposta anni addietro da freud, un’analogia che
sicuramente ci aiuta in maniera elementare a comprendere quello che è il concetto di
schema. Il notes magico non è altro che un semplicissimo e comune giocattolo per
bambini. Esso si compone di un foglio di plastica trasparente che copre un secondo
foglio di carta cerata entrambi appoggiati su di uno strato di cera. Se qualcosa viene
scritto sul foglio di plastica trasparente leggiamo senza difficoltà ciò che è stato
scritto. Se però il foglio di plastica trasparente viene sollevato, ciò che è stato scritto
scompare. in questo caso il foglio di plastica trasparente rappresenta la percezione
transitoria di un evento, mentre quello che rimane impresso con il tempo sulla cera
può metaforicamente rappresentare la nostra memoria. Questa analogia è
sicuramente approssimativa infatti sarebbe assurdo se la memoria fosse una
struttura così poco organizzata e soprattutto cosi semplice. Il notes magico ci fa però
comprendere appieno la differenza tra tracce e schemi di memoria.
Le tracce di memoria sarebbero quindi delle copie ben precise e dettagliate delle
nostre esperienze precedenti, ipotesi che Neisser definisce ipotesi della riapparizione,
secondo cui un ricordo può scomparire e riapparire più volte. Al contrario invece
abbiamo la nozione di schema che si distacca da questa idea e sostiene piuttosto
quella dell’esistenza di frammenti che vengono utilizzati a sostegno di nuove
ricostruzioni.
FLASH DI MEMORIA . nao print
La teoria del Now Print è un modello sviluppato da Brown e Kulik e che nasce dal loro
tentativo di spiegare il processo di formazione di quelli che sono stati definiti come
flash di memoria, e cioè di quei ricordi che risultano essere particolarmente chiari e
vividi. la loro teoria ipotizza che l’informazione venga elaborata seguendo una serie di
passaggi. In primo luogo viene giudicato il valore di sorpresa di un evento, se si tratta
di un evento di routine, un evento che quindi accade spesso e al quale siamo
“abituati” è possibile che ad esso non venga rivolta alcuna attenzione, al contrario se
si tratta invece di un evento straordinario allora in quel caso gli verrà dedicata molta
attenzione. Può anche succedere che un evento che si è rivela traumatico non venga
per niente elaborato, e che ne risulti una totale amnesia. in secondo luogo viene poi
giudicata l’importanza di un evento, se l’evento viene giudicato sorprendente ed
importante allora si passa alla terza fase, dove c’è la costruzione del flash di memoria.
I Flash di memoria possono essere alcuni più vividi di altri e questo dipende sempre
da quanto sono stati giudicati sorprendenti e importanti gli eventi. Il quarto stadio è
quello della reiterazione in quanto gli individui tendono a pensare ai flash di memoria
più spesso rispetto ad altri ricordi e queste reiterazioni producono il quinto ed ultimo
stadio, e cioè quello dei resoconti dei flash di memoria ovvero il momento in cui
59
60

vengono raccontati ad altre persone. Ovviamente il passaggio fondamentale di


questo modello è quello che riguarda la formazione del Flash di memoria,
quest’ultimo è stato paragonato al lavoro di una fotocopiatrice che in quanto tale
riproduce fedelmente i contenuti di una pagina. Il modello Now Print sembra
sostenere l’esistenza delle tracce di memoria ma ben presto questo modello verrà
criticato.
ESISTE UN MECCANISMO PER I FLASH DI MEMORIA? Reconstrutive
La teoria del Now print suscitò sicuramente tanto interesse ma soprattutto fu subito
criticata. La prima critica fu rivolta dal lavoro condotto da Bohannon, McCloskey, e
altri (Wible e Cohen), i quali condussero degli studi indagando sui ricordi che le
persone avevano rispetto all'esplosione della navetta spaziale Challenger.
McCloskey, e gli altri interrogarono quindi 45 soggetti per ben due volte, la prima
dopo pochi giorni dall’accaduto e una seconda volta circa nove mesi dopo. Tutti i
soggetti seppur mantennero un ricordo rispetto a quell’evento le loro risposte
rivelarono che parecchi dettagli e informazioni erano andati persi rispetto alle
risposte fornite subito dopo l’accaduto, quindi erano sicuramente più
approssimative e generali, alcune risultavano addirittura incoerenti ma c’è da dire
che nessuno dei resoconti forniti dopo nove mesi era del tutto contraddittorio
rispetto alle risposte iniziali. Le differenze e le inesattezze erano dovute al fatto che
in genere quando non riusciamo a recuperare delle informazioni dalla nostra
memoria tendiamo a sostituirle con delle nostre ipotesi. Da questo esperimento
possiamo concludere che i flash di memoria non sono necessariamente più accurati
dei comuni ricordi. A sostegno di questa ipotesi, i tre studiosi ricordano Neisser il
quale sostiene che ci sia una certa affinità tra il ricordare qualcosa e raccontare una
storia. Neisser sostiene che oltre alla storia, e per storia ci riferiamo ai fatti esterni
che non hanno a che fare con i nostri accadimenti personali, ognuno di noi crea nella
propria testa un racconto più dettagliato che lo lega alle vicende che lo riguardano.
Quindi secondo Neisser i flash di memoria non sono altro che il collegamento tra la
nostra storia e la storia in generale, come per dire in quel momento io ero lì in quel
momento. Bohannon definisce questo approccio di Neisser Reconstructive-Script.
Bohannon per alcuni aspetti conferma la teoria del Now Print, in quanto ha fatto
notare che dai loro studi era emerso che tanto maggiore era stato lo shock subito
dai soggetti per il disastro della navetta, tanto più specifici erano i dettagli che i
soggetti erano in grado di rievocare. D'altra parte, però, sosteneva anche che con il
passare del tempo i dettagli ricordati dai soggetti andavano scemando. Quindi
questo confermava in parte la teoria Reconstructive-Script. I ricordi più duraturi e
persistenti erano sicuramente quelli accompagnati da forti emozioni e che, allo
stesso tempo, venivano reiterati di frequente. Né l'emozione né la reiterazione da
60
61

sole consentivano la formazione di ricordi persistenti. Con Pillemer furono poi


attribuite delle vere e proprie caratteristiche ai flash di memoria, che sono
completezza, accuratezza e resistenza all'oblio, e tali caratteristiche dovrebbero
essere considerate come proprietà in continua evoluzione, e non come proprietà
tutto-o-niente.

TEORIA DI BARTLETT
Bartlett nei sui esperimenti ha utilizzato una tecnica definita metodo delle
riproduzioni in serie. Secondo tale metodo ad un primo soggetto A, veniva data una
storia da ricordare. A metteva per iscritto tutto ciò che era in grado di ricordare di
quella storia e cosi la sua versione veniva poi fornita ad un secondo soggetto, B, il
quale cercava di rievocarla. E così via. Ciascun soggetto doveva rievocare la versione
della storia che era stata descritta dal soggetto precedente. Bartlett riteneva che le
trasformazioni che il racconto assumeva man mano da soggetto a soggetto
rivelassero ciò che accadeva alla memoria nel corso del tempo. Ciò che Bartlett notò
è che c’era una progressiva distorsione del racconto, e pian piano che la storia
avanzava da soggetto a soggetto, in ciascuna rievocazione si verificavano parecchie
omissioni rispetto al racconto originale e la storia veniva sempre più semplificata,
questo perché secondo Bartlett gli individui tendono a selezionare solo una parte del
discorso, quella che gli rimane più impressa e tendono invece ad ometterne un’altra
parte. Le omissioni sono il frutto di quello che definiamo come processo di
razionalizzazione, in quanto gli individui cercano di rendere il proprio racconto
quanto più coerente rispetto al proprio punto di vista.
Bartlett credeva che le trasformazioni ottenute usando questo metodo
rappresentassero fedelmente le trasformazioni che subiscono i nostri ricordi con il
passare del tempo. Per questo ritiene che ‘ il ricordo non è una semplice rieccitazione
di tracce isolate, fisse e senza vita, ma piuttosto una costruzione immaginativa
ottenuta per mezzo della relazione che si instaura tra il nostro atteggiamento nei
confronti di un’intera massa attiva di reazioni passate organizzate.’ Questa massa
attiva di reazioni passate organizzate è ciò che Bartlett chiama schema.

quindi definisce uno schema come una struttura organizzata che guida il nostro
comportamento, ma che è allo stesso tempo un modello flessibile che si adatta a
circostanze sempre diverse.
RICERCHE BASATE SULLA TEORIA DEGLI SCHEMI MNESTICI
Alba e Hasher hanno suggerito che le teorie basate sulla nozione di schema

61
62

solitamente descrivono la memoria nei termini dei seguenti processi: 1)selezione


2)astrazione 3)interpretazione 4)integrazione.
Lo schema seleziona le informazioni che sono coerenti con i nostri interessi correnti,
poi l’informazione selezionata viene convertita in una forma più astratta. Queste
informazioni sono poi interpretate facendo riferimento alle altre informazioni
contenute in memoria. Inoltre, le informazioni vengono integrate in modo tale da
renderle coerenti con lo schema.
SELEZIONE
Il processo di selezione ha luogo quando le informazioni vengono ricevute o quando
vengono rievocate?
Bransford e Johnson nel loro esperimento sono a sostegno dalle prima ipotesi, i
soggetti devono leggere un brano e poi cercare di rievocarlo. I soggetti erano in grado
di rievocare solo poche informazioni contenute nel brano e inoltre lo ritengono
incomprensibile. Guardando un disegno raffigurante la scena scritta, il brano diventa
comprensibile e più facilmente rievocabile. Ciò dimostra l’effetto del contesto sulla
comprensione e sulla successiva rievocazione. Se viene attivato lo schema
appropriato, allora è possibile capire il materiale che deve essere ricordato (ma se
non viene attivato lo schema appropriato, la comprensione risulta difficile e vengono
selezionate poche informazioni).
Anderson e Pichert nel loro esperimento sono a sostegno della seconda ipotesi, i
soggetti devono leggere un brano e poi devono rievocare la storia (pag 93, libro
processi cognitivi).
I risultati mostrano che il punto di vista adottato [topo di appartamento o
compratore] influenzava il tipo di informazioni che i soggetti riuscivano a rievocare. Il
fatto che i soggetti riuscissero a rievocare meglio le informazioni rilevanti per la
prospettiva assunta durante la lettura potrebbe significare che il processo di
selezione dell’informazione si verifica nel corso della lettura della storia. I risultati
ottenuti da Anderson e Pichert suggeriscono che gli individui acquisiscono
informazioni irrilevanti dal punto di vista a partire dal quale la storia viene codificata;
il loro esperimento sostiene l’ipotesi che ci sia una selezione dell’informazione nel
corso del processo di rievocazione.
Gli studi di Bransford e Johnson e di Anderson e Pichert indicano che il processo di
comprensione richiede la attivazione di uno schema. L’attivazione di uno schema
però non determina le informazioni che un individuo è in grado di ricordare.
ASTRAZIONE
Secondo uno studio di Jacqueline Sachs, gli individui ricordano il significato delle frasi

62
63

che sentono, ma dimenticano le parole che sono state effettivamente pronunciate. In


questo esperimento, ai soggetti viene fatta ascoltare una storia. I soggetti ricordano
la frase originale abbastanza bene se quest’ultima è presente alla fine della storia e
ciò significa che se non passava troppo tempo tra la frase originale e la frase di
controllo, i soggetti erano in grado di ricordare le parole esatte usate nella frase
originale.
(la frase di controllo è la frase che viene presentata ai soggetti alla fine della storia
che hanno ascoltata e può essere: 1) uguale alla frase originale, 2) composta da
parole diverse da quelle della frase originale ma con lo stesso significato, 3) con un
significato totalmente diverso da quello della frase originale.
Quindi è possibile ricordare gli elementi individuali al di là del significato complessivo,
anche se un processo di astrazione ha luogo certamente.
INTERPRETAZIONE
Alba e Hasher hanno ipotizzato che gli individui interpretano l’informazione che
hanno a disposizione facendo delle inferenze, per poi ricordare queste inferenze
come parte del materiale originario. [Esempio: Ci viene detto che Anna è a NY e due
giorni dopo ci viene detto che è a Toronto: è molto difficile per noi in questo caso
non inferire che Anna si è spostata da NY a Toronto.]
INTEGRAZIONE
Secondo Alba e Hasher il processo di integrazione è l’elemento centrale delle teorie
basate sulla nozione di schema. Il significato che è astratto da un evento viene
combinato con il resto delle nostre conoscenze in modo tale da formare un insieme
coerente, o Gestalt.
➔ Esperimento di Bransford e Franks sulle frasi di acquisizione e sulle frasi test
(bisogna decidere se la frase test è stata già incontrata prima tra le frasi di
acquisizione). I soggetti credono che alcune frasi test siano uguali alle frasi di
acquisizione e quest’impressione di familiarità dipende dal fatto che il lettore
ha astratto e integrato le idee espresse dalle frasi di acquisizione. Maggiore è la
semplicità di una frase test, tanto più grande è la probabilità che venga
riconosciuta erroneamente come una frase di acquisizione.
Frase test: L’albero alto nel giardino davanti alla casa gettava ombra sull’uomo.
Questa frase esprime le seguenti idee:
Frase di acquisizione n. 1 L’albero era alto / n.2 L’albero era nel giardino davanti alla
casa / n.3 L’albero gettava ombra sull’uomo.

63
64

È possibile che i soggetti astraggano queste semplici idee dalle frasi di acquisizione
per poi integrarle all’interno di una rappresentazione coerente, ma tutte le frasi
coerenti con queste idee tenderanno ad essere falsamente riconosciute come frasi
lette in precedenza.
LA TESTIMONIANZA
Loftus e Palmer hanno condotto un famoso studio sulla testimonianza oculare. Ai
soggetti viene mostrato il filmato di un incidente automobilistico e viene a loro posta
la domanda ‘ A che velocità andavano le macchine quando si sono urtate?’ Ad altri
soggetti il verbo urtate veniva sostituito con dei sinonimi come ‘scontrate, andate a
sbattere, entrate in collisione’. Si è notato che il termine scontrate provocava stime
della velocità di gran lunga superiori rispetto alle stime provocate dagli altri termini.
Due tipi di informazioni vengono immagazzinati in memoria ogni volta che si verifica
un evento complesso: l’informazione raccolta nel corso della percezione dell’evento
originario e l’informazione acquisita successivamente. Nel corso del tempo questi
due tipi di informazioni vengono integrati in modo tale da non poter più decidere a
quale di queste due fonti appartengano i singoli dettagli. Tutto quello che abbiamo è
un unico ricordo.
Loftus e Palmer hanno sostenuto che gli individui non sono in grado di determinare
da quale fonte si origina l’informazione fuorviante che è stata acquisita dopo
l’evento. Quest’informazione viene prodotta da una fonte differente dell’evento. Gli
individui non discriminano accuratamente tra i ricordi di eventi reali e i ricordi di
eventi immaginati. Se un evento viene immaginato in forma particolarmente vivida,
in seguito può essere difficile ricordare se quell’evento sia effettivamente accaduto o
no. Il processo per mezzo del quale gli individui distinguono tra eventi reali ed eventi
immaginari è chiamato prova di realtà. (reality monitoring)
Lindsay e Johnson hanno condotto invece un esperimento in cui viene mostrata una
fotografia di un ufficio ai soggetti. Dopo aver visto la foto, i soggetti leggono un brano
con la descrizione dell’ufficio. In una condizione sperimentale i soggetti vengono
sottoposti ad un test di riconoscimento→ i soggetti devono leggere una lista di parole
e indicare se ciascun item della lista era presente o meno nella fotografia; in un’altra
condizione sperimentale i soggetti vengono sottoposti ad un test di monitoraggio
delle fonti→i soggetti devono decidere se gli item della lista erano presenti nella foto,
nel brano o in entrambi. In generale i soggetti hanno la tendenza a considerare come
appartenenti alla foto alcuni item che in realtà sono presenti solo nel brano. Quindi
secondo Lindsay e Johnson gli errori compiuti nel corso della rievocazione sono
probabilmente dovuti più ad un’imperfezione del processo di recupero che ad

64
65

un’inesattezza del ricordo. Loftus e Hoffman hanno concluso che i soggetti sono
propensi ad accettare informazioni errate acquisite successivamente all’evento da
ricordare. Le informazioni fuorvianti tendono ad essere accettate dai soggetti
soltanto se i ricordi dell’evento originale sono poco buoni.

FALSE MEMORIES
Spesso capita di imbatterci in persone che sostengono di avere una memoria molto
ricca di particolari rispetto ad episodi ai quali hanno assistito o di cui sono stati
protagonisti, e che quindi ritengono di avere ricordi molto dettagliati di questi
ultimi, questo però va a cozzare con l’idea secondo cui la memoria di eventi sarebbe
più un processo di ricostruzione della realtà piuttosto che un copia fedele di eventi
A tal proposito si sono sviluppate nel corso degli anni due correnti di pensiero
divergenti tra loro
1. Abbiamo da una parte una scuola di pensiero secondo cui esistono delle
tracce di memoria e che queste sono migliori qualitativamente rispetto ai
ricordi veri e propri
2. Abbiamo invece dall’altra parte una scuola che sostiene l’esistenza di schemi
di memoria, secondo tale teoria tutte le informazioni che possediamo rispetto
agli eventi vengono sottoposte a processi di ricostruzione e rielaborazione
mediante degli schemi, cioè strutture di memoria e insieme di informazioni
rispetto alle conoscenze che abbiamo sulla realtà
- In questo caso se sopraggiungono informazioni ingannevoli durante il processo
di ritenzione il ricordo viene distorto,
- Questo succede soprattutto se i ricordi che abbiamo rispetto all’evento
originale non sono proprio limpidi ma al contrario sono accompagnati da
lacune, da vuoti, che quasi sempre andiamo a riempire con informazioni
fuorvianti per poter risolvere quelle discordanze o le omissioni dovute all’oblio
- Se invece la nostra memoria conserva delle immagini vivide rispetto ad un
ricordo, quasi come se ci fosse appena accaduto, paradossalmente ci
risulterebbe più difficile ricordare se questo sia effettivamente accaduto o
meno e se le cose siano successe in quel preciso ordine

MODELLO DELLE TRACCE DI MEMORIA SECONDO HINTZMAN


H. ha proposto un modello che suggerisce che le tracce di memoria siano le unità
primarie della memoria. Il modello delle tracce di memoria multiple proposto da
Hintzman è basato sull’assunzione che la traccia di ciascuna esperienza individuale
venga registrata in memoria, quindi se un evento si ripete più volte, una nuova
65
66

traccia viene registrata ogni qualvolta l’evento si ripete. Hintzman distingue tra
memoria primaria che si riferisce a tutto ciò di cui gli individui hanno esperienza in un
dato momento, e memoria secondaria che si riferisce alle tracce di memoria che
sono state create dalle esperienze avute dagli individui. La memoria secondaria può
essere attivata per mezzo di un probe(un item di prova) a partire dalla memoria
primaria. Le tracce di memoria vengono attivate nella misura in cui esse sono simili al
probe. Si ritiene che le tracce di memoria attivate restituiscano un’eco alla memoria
primaria. L’eco è sostituita dai contributi di tutte le tracce di memoria che sono state
attivate. Una volta che una eco è stata esperita (sperimentata) nella memoria
primaria, essa lascia una traccia di sé nella memoria secondaria. In questo modo,
anche esperienze relativamente astratte possono essere rievocate direttamente.
FRAME/ GOFFMAN
Goffman ha analizzato i processi cognitivi all’interno dei rapporti sociali che hanno
avuto luogo in un contesto naturale. All’interno di uno scenario, una sequenza di
azioni può essere compresa come un combattimento ma, all’interno di un altro
scenario, lo stesso comportamento può essere compreso come un gioco. (definizione
di FRAME →La nozione di frame indica un insieme di principi di base che influenzano
e controllano il modo con cui gli individui vengono coinvolti in una situazione. Quindi
questa nozione è simile alla nozione di schema. Alla nozione di frame è attribuita una
struttura più precisa di quella che caratterizza la nozione di schema; NOTA BENE: la
nozione di frame non viene intesa come un amalgama slegato e accidentale di
elementi che possiedono una stretta relazione temporale ma è più chiaramente
costituita da un insieme di componenti essenziali, le quali possiedono un
arrangiamento definito e stabili relazioni reciproche.
Un insieme di scenari primari viene immagazzinato in memoria, questi scenari sono
degli strumenti che ci consentono di interpretare le situazioni in cui veniamo a
trovarci. Goffman usa il termine keying(accordare) per indicare il processo di codifica
degli eventi in base a scenari differenti. Un comportamento normalmente
interpretato all’interno dello scenario del combattimento, ad esempio, può essere
reinterpretato all’interno dello scenario che rappresenta l’attività del gioco.
Goffman ha descritto le diverse modalità (basic keys) in base alle quali questo
processo ha luogo.
Una di queste modalità è la simulazione→gli individui sono molto bravi nel fingere di
essere impegnati in un comportamento che potrebbe essere serio ma che viene
invece inquadrato come non serio[esempio: sceneggiature drammaturgiche].

66
67

Un’altra basic key è composta dai rifacimenti tecnici (technical redoings)→ i copioni
che definiscono una determinata attività vengono eseguiti al di fuori del loro
contesto usuale per scopi del tutto diversi da quelli relativi alla propria attività
originaria. Molte forme di addestramento hanno queste caratteristiche: nel corso del
processo di apprendimento è molto utile partecipare a simulazioni e sessioni di prova
prima che il comportamento venga eseguito all’interno di uno scenario primario
(questo processo di apprendimento è detto apprendimento mediante
sperimentazione). Goffman ci offre una ricca descrizione delle modalità per mezzo
delle quali gli eventi possono essere inquadrati[framed] o re-inquadrati[reframed]. Il
sistema di memoria costituisce un dispositivo flessibile che ci fornisce gli scenari per
mezzo dei quali gli individui possono interpretare le situazioni in cui vengono a
trovarsi.
MINSKY
L’idea di Minsky è che ogni esperienza percettiva attivi certe strutture che chiama
frame, strutture che abbiamo acquisito nel corso dell’esperienza passata. Tutti noi
ricordiamo milioni di frame, ciascuno dei quali rappresenta una situazione
stereotipica.
Un frame possiede diversi livelli di astrazione. Nel livello superiore (o più astratto) di
un frame sono contenute le caratteristiche relativamente costanti di una situazione
(es: entrare in un’aula e aspettarsi di trovare delle sedie]. I livelli inferiori e più
concreti di un frame sono quelli più variabili. Ai livelli inferiori di un frame, chiamati
terminali, vengono tipicamente assegnate delle opzioni per difetto. I frame sono
immagazzinati in memoria assieme a queste opzioni per difetto (es: quando
immaginiamo l’oratore di un corso universitario, immaginiamo anche gli abiti
indossati dall’oratore. Questi abiti sono delle opzioni per difetto.]
Fare ricorso alla memoria è necessario per due ragioni:
1. per adattare il frame alla situazione specifica in cui gli individui si trovano
2. per adattare i dettagli della situazione al frame.
I frame sono organizzati all’interno di sistemi, sono collegati gli uni agli altri e ciò che
succede in un frame può influenzare quello che ci aspettiamo possa succedere in un
altro. Uno scenario rappresenta una sequenza convenzionale di frame che
descrivono il corso usuale degli eventi .
Minsky propone l’esempio dello scenario della compravendita:
A possiede X e B possiede Y → B possiede X e A possiede Y

67
68

Lo scenario specifica come le relazioni tra i terminali di differenti frame mutano nel
corso del tempo.
Esistono diversi scenari. La struttura narrativa è un tipo di scenario che definisce
l’andamento tipico delle storie che noi raccontiamo. Una struttura narrativa è simile
ad uno script (copione).
SCRIPT. (merluzzo)
Script, letteralmente significa copione, ed è una struttura che descrive una sequenza
stereotipica di azioni che definisce una situazione ben conosciuta. [es: ristorante].
Schank e Abelson sono stati i primi ad utilizzare la nozione di script nella ricerca sulla
memoria e si interessarono al modo in cui questi script si presentavano in memoria.
In alcuni esperimenti veniva chiesto a dei soggetti di elencare tutte le attività
abituali che vengono comunemente svolte in alcune situazioni tipo, come andare dal
dottore o al supermercato.
Secondo Schank, la produzione degli script in memoria era dovuta all’organizzazione
in forma gerarchica di vari ricordi, da quello più concreto[specifico] a quello più
astratto[generale].
• I ricordi più concreti sono quelli che riguardano le esperienze specifiche e che
ci permettono di ricordare degli eventi imminenti. L’esempio più palese è
quello della visita ad uno studio dentistico: e cioè recarsi lunedì alle ore 15 dal
dentista per una pulizia dentale-. Questo tipo di ricordi non è molto duraturo.

• Al livello seguente troviamo la memoria di eventi generalizzati, questo livello


troviamo le informazioni che possiamo ricavare da eventi specifici. Ciò che
facciamo durante le normali visite dentistiche fanno parte della memoria di
eventi generalizzati.
• Poi abbiamo La memoria situazionale che contiene le informazioni che
riguardano il contesto generale all’interno del quale si sviluppano diversi
eventi specifici [ la situazione generale è data da una visita medica all’interno
della quale si verificano poi diverse esperienze specifiche]
• La memoria intenzionale rappresenta un livello ancora più generale (esempio:
recarsi nell’ufficio di qualcuno).
in questo livello è possibile definire in forma molto generale i possibili eventi
che possono verificarsi durante una normale visita medica [entrare e sedersi in
una sala d’attesa].
LIVELLI DI ELABORAZIONE
Craik critica i primi approcci informazionali perché si sono preoccupati più delle
68
69

strutture che dei processi. Il modello di elaborazione dell’informazione di Waugh e


Norman caratterizza la struttura della memoria nei termini di una componente
primaria e di una componente secondaria. Craik sottolinea che la capienza di
strutture simili alla memoria primaria è altamente variabile ed è influenzata dai
processi per mezzo dei quali gli individui manipolano l’informazione; inoltre nota che
la capienza della memoria primaria è molto più grande se gli item che devono essere
ricordati posseggono relazioni reciproche. La memoria può essere compresa meglio
studiando i suoi processi piuttosto che le sue strutture. L’approccio di Craik e
Lockhart pone l’accento sui processi che influenzano la memoria e distinguono una
modalità superficiale e una modalità profonda di elaborazione. (esempio:
Considerando la parola TRENO, un’elaborazione superficiale ci porterebbe ad
osservare che questa parola è stampata con lettere maiuscole; ma la stessa parola
può essere elaborata in modo più profondo se noi osserviamo che si riferisce ad un
particolare mezzo di trasporto). Maggiore è il significato che viene astratto da un
evento, tanto più profondo è il livello di elaborazione. La profondità dell’elaborazione
corrisponde ad un continuum che rappresenta il modo in cui un evento viene
analizzato. Un estremo del continuum corrisponde all’analisi delle caratteristiche
fisiche dello stimolo mentre l’altro estremo corrisponde ad un’analisi che mette in
relazione lo stimolo con le conoscenze pregresse dell’individuo.
L’attività cognitiva costituisce un sistema volto alla percezione e alla comprensione
degli eventi; tanto più è profonda l’elaborazione tanto maggiore è la comprensione.
La comprensione richiede l’elaborazione di un evento a livello più profondo. Tanto
maggiore è la profondità di elaborazione di un evento tanto più grande è la nostra
capacità di ricordarlo. Secondo Craik, il ricordo è il resoconto delle operazioni
eseguite per elaborare un evento. Se l’elaborazione è superficiale, il ricordo sarà
povero e di conseguenza se l’elaborazione è profonda il ricordo sarà ricco.
REITERAZIONE DI MANTENIMENTO E REITERAZIONE INTEGRATIVA
Ciò che è stato identificato come una struttura da Waugh e Norman, ovvero la
memoria primaria, viene considerato dalla teoria dei livelli di elaborazione con un
processo attentivo che rende possibili due tipi differenti di reiterazione. La
reiterazione di mantenimento ha a che fare con la ripetizione del medesimo processo
(esempio: ripetere numero per ricordarlo) mentre la reiterazione integrativa
sottopone un evento ad un’elaborazione più profonda (esempio: cercare di ricordare
una lista di parole formando una frase con queste parole). Greene ha suggerito che il
termine reiterazione di mantenimento sia inteso come una ripetizione continua per
mantenere le risorse con un dispendio minimo di risorse cognitive mentre il termine
reiterazione integrativa è usato per tutte le altre forme di reiterazione. La codifica di
69
70

un item però è molto più ricca se viene usata la reiterazione integrativa piuttosto che
la reiterazione di mantenimento.
Nel paradigma sperimentale Brown - Peterson ai soggetti vengono presentati una
serie di item e un numero. Dopo aver sentito il numero i soggetti contano a ritroso
per tre a partire dal numero stabilito [100-97-94 etc.]. Dopo un dato intervallo il
soggetto deve rievocare la serie di item[es: B, R, Q]. Risultato: la rievocazione è più
accurata se l’intervallo non è occupato dalla numerazione a ritroso.
Una variante di questo paradigma prevede che ai soggetti venga fatto credere che il
compito sperimentale sia di rievocare una sequenza di numeri. Nell’intervallo tra la
presentazione di item e la rievocazione i soggetti devono svolgere un compito
secondario (ripetere delle parole). Dopo alcune prove, ai soggetti viene chiesto di
rievocare le parole anziché i numeri. La ripetizione delle parole costituisce una
reiterazione di mantenimento. Questo paradigma è detto dei distrattori.
Secondo Greene la reiterazione di mantenimento produce dei cambiamenti di lungo
termine nelle tracce di memoria. Il modello di elaborazione dell’informazione di
Waugh e Norman suggerisce che alcune informazioni vengono trasferite nella
memoria a lungo termine come conseguenza della reiterazione, di qualunque tipo
essa sia.
COMPLESSITA’ DI RIELABORAZIONE E DISTINTIVITA’
Queste ricerche hanno portato allo sviluppo di due concetti: la complessità di
rielaborazione si riferisce alla quantità di elaborazione ulteriore effettuata
dall’individuo che produce materiali addizionali (compito assegnato a degli studenti
di continuare la frase ‘L’uomo affamato entrò nella sua automobile…’).
Il rendimento degli studenti potrebbe essere aumentato se venisse insegnato loro a
rielaborare il materiale. La distintività invece si riferisce alla precisione con la quale un
elemento è codificato (esempio: la codifica della parola cavolo come ‘’qualcosa di
commestibile’’ è meno distintiva della codifica della medesima parola come
‘’ortaggio’’. Gli eventi dotati di maggior carattere distintivo sono ricordati più
facilmente.
MEMORIA DI LAVORO (memoria a breve termine)
Lockhart e Craik hanno messo in relazione la loro teoria con il concetto di memoria di
lavoro di Baddeley. Secondo Baddeley, la memoria di lavoro è il sistema di memoria a
cui è affidato il compito di manipolare temporaneamente l’informazione.
Un’importante componente della memoria di lavoro è rappresentata da un sistema
esecutivo centrale che opera come quello del modello della croce maltese di
Broadbent. Questo sistema esecutivo centrale coordina l’informazione che viene
rappresentata all’interno di servosistemi come il taccuino visuo-spaziale[il sistema
70
71

dove l’informazione viene rappresentata per mezzo di immagini mentali] e il loop


articolatorio[il sistema che descrive l’informazione per mezzo del linguaggio].
Esempio: numero di finestre a casa mia. Se ci formiamo un’immagine mentale di casa
nostra e immaginiamo di camminare al suo interno, l’informazione ci viene fornita dal
taccuino visuo – spaziale. Se invece immaginiamo di camminare all’interno di casa
nostra, possiamo contare il numero delle finestre e il conteggio viene effettuato dal
loop articolatorio. L’intero processo è coordinato dal sistema esecutivo centrale.
Secondo Lockhart e Craik la nozione di memoria di lavoro di Baddeley ha un carattere
strutturale. Ma la memoria primaria come viene concepita da Lockhart e Craik
costituisce invece un’attività di elaborazione e non una struttura, essa non può
essere caratterizzata facendo riferimento alla sua localizzazione, in quanto è un modo
per prestare attenzione a differenti tipi di informazione.

Sistemi di memoria
L’idea del ricordo come viaggio mentale nel tempo mette in luce un aspetto
fondamentale del funzionamento della memoria umana: ciò che chiamiamo ricordo è
fatto di elementi diversi (immagini, suoni, odori, emozioni) che derivano dal
funzionamento di sistemi mnestici differenti ma in interazione tra di loro. Il collante
siamo noi stessi, é la nostra soggettività.
In un ricordo entrano in gioco il sistema di:

• il sistema di memoria semantica: che ci fornisce la conoscenza concettuale


• il sistema di memoria episodica: che ci fa ricordare il tempo il luogo in cui
l’episodio avvenuto
• il sistema di memoria visiva: che ci dice come sono fatte le cose che abbiamo
incontrato
• il sistema di memoria procedurale: che ci dice come si fa una cosa
• il sistema di memoria verbale: che ci permette di tradurre i pensieri in parole
• il sistema di memoria autobiografica: che ci fa riferire a noi stessi l’evento
rievocato.

Un sistema è un insieme di elementi di stretto rapporto tra loro destinati a


determinate funzioni mnestiche, elementi connessi in un tutto organico e
funzionalmente unitario. Ciascun sistema dipende da una particolare costellazione di

71
72

reti cerebrali che coinvolgono specifiche strutture neurali le quali, a loro volta,
sostengono specifici processi mnestici. Ogni struttura neurale svolge un ruolo
specializzato all’interno del sistema.
La strada verso il ricordo: codifica, ritenzione e il recupero
Perché possa esserci un ricordo, deve verificarsi una qualche forma di
apprendimento; l’informazione cioè deve essere acquisita.
Una volta che l’informazione é acquisita, essa deve essere mantenuta nella memoria
fino a che non ci serve. Infine, questa informazione viene usata, cioè —> noi
ricordiamo. Per fare ciò, ripeschiamo dalla nostra memoria l’informazione e la
riportiamo in uno stato attivo. Studiosi di memoria hanno identificato queste 3 fasi
del ricordo: codifica, ritenzione e recupero, e benché non si tratti di stadi
necessariamente separati che si verificano in sequenza, essi rappresentano bene
l’intero processo di memoria.
La fase di codifica: si riferisce al modo in cui la nuova informazione viene inserita in
un contesto di informazioni precedenti. Gli individui codificano gli eventi in modi
differenti.
(esempio: se dovete codificare la parola tavolo, potete farlo sia attraverso un codice
visivo che ne specifica l’apparenza (grandezza, forma) dell’oggetto tavolo, sia
attraverso un codice semantico che specifichi il significato della parola, comprese le
emozioni che questa parola generalmente suscita in voi (ma cosaa ahah)
La forza della traccia di memoria dipende dalla profondità della codifica: più profondo
è il livello di elaborazione dello stimolo, più è probabile che la traccia che si forma sia
duratura. La codifica semantica richiede un’analisi del significato che genera una
traccia più ricca ed elaborata, mentre la codifica delle caratteristiche fisiche dello
stimolo richiede un’analisi superficiale.
Una buona codifica non garantisce però che tutto quello che viene codificato venga
poi ricordato.
I processi che intervengono tra la fase di codifica e la fase di recupero (i cosiddetti
processi di ritenzione = ovvero il mantenimento dell’informazione in memoria)
determinano infatti importanti effetti sul ricordo.
Da cosa dipende la qualità della ritenzione? Secondo la teoria dei livelli di
elaborazione se si codifica l’informazione basandosi sul significato (elaborazione
profonda) si ottiene una migliore ritenzione. Generalmente, la strategia comune per
immagazzinare l’informazione è la ripetizione (tecnicamente, reiterazione).
Tuttavia le caratteristiche del contesto di recupero e la natura dei suggerimenti (CUE)

72
73

presenti nell’ambiente durante la fase di recupero influenzano in modo determinante


il ricordo.
Secondo Tulving, Le tracce mnestiche sono semplici disposizioni o potenzialità. Ne
esistono a migliaia nella nostra memoria senza che essi abbiano alcun effetto sulla
nostra attività mentale: diventano efficaci solo in certe condizioni speciali,
denominate collettivamente il recupero. Affinché il recupero avvenga è necessario
che sia presente un appropriato suggerimento che in qualche modo reattivi gli
elementi focali dell’evento da ricordare. Non sono le caratteristiche della traccia in
quanto tale a determinare il ricordo, ma piuttosto la compatibilità tra le proprietà
della traccia e le caratteristiche dell’informazione fornita al recupero: questo
principio, noto come principio di specificità della codifica, pone l’accento
sull’interazione tra informazione immagazzinata e informazioni presenti al recupero.
La traccia di un evento di suggerimento presente durante il recupero devono essere
compatibili perché il ricordo si verifichi. Compatibilità può significare che

• tra i due esiste una relazione di tipo associativo (ad esempio, se incontro un
amico all’università improvvisamente mi ricordo che tempo prima gli ho
prestato un libro di testo, la traccia in memoria ha una relazione semantica con
l’informazione presente nell’ambiente)
• che le loro caratteristiche di superficie sono simili (come quando la traccia in
memoria conserva le stesse caratteristiche di apparenza dell’oggetto),
• o che vi è sovrapposizione di informazioni (quando lo stimolo al recupero è
identico con lo stimolo così come stato codificato).
In pratica, la qualità del ricordo dipende da come l’evento è stato codificato, dalla
forza della traccia e dalla presenza nel contesto indizi di recupero appropriati.
La durata dei ricordi: memoria sensoriale, memoria breve termine e memoria lungo
termine
Tutta la memoria potrebbe essere divisa in due grandi entità: una che ci permette di
ricordare un’informazione per un tempo molto breve ed una che ci permette di
conservare informazioni per tutta la vita. James distingueva tra una memoria
primaria, transitoria e fragile (memoria breve termine) che consisteva dei contenuti
della coscienza, e una memoria secondaria, permanente (la memoria lungo termine),
che conteneva informazioni che non erano presenti alla coscienza ma che potevano
essere riattivate all’occorrenza.

memoria iconica. La memoria sensoriale ha una capacità estremamente ampia, una


73
74

durata molto breve ( parliamo di circa poche frazioni di secondo) ed ha una natura
periferica, cioè riguarda soltanto le caratteristiche marginali di uno stimolo come la
forma fisica, mentre non riguarda la sua natura concettuale, ovvero il suo significato
e quindi la sua semantica.
Lo studio della memoria sensoriale o iconica può essere spiegato per mezzo
dell’esperimento condotto da Sperling. L’esperimento consiste nel presentare su uno
schermo per 50 millesimi di secondi una matrice di lettere che veniva fatta poi
scomparire per lo stesso periodo di tempo. Il compito richiesto ai soggetti
sperimentali inizialmente era quello di ricordare il maggior numero di lettere
possibile con una sola occhiata allo schermo. Questa è quella che definiamo tecnica
del resoconto totale, ma in questo modo le persone riuscivano a ricordare non più di
un quarto delle lettere viste, nonostante fossero comunque consapevoli di averne
viste più di quante erano stati in grado di rievocare. Cosi successivamente, Sperling,
decise di utilizzare quella che definiamo tecnica del resoconto parziale, dove si
richiedeva ai soggetti di rievocarne solo una parte. Quindi la matrice di lettere a
questo punto veniva presentata in tre gruppi e ciascuno di essi veniva accompagnato
da tre diversi suoni, di diversa intensità, quindi alta media e bassa, e ciascuno dei
quali indicava una diversa riga di lettere da ricordare. In questo modo i soggetti in
base alla tonalità che udivano erano in grado di rievocare le lettere corrispondenti a
quel suono. anche quando le lettere non erano più presenti sullo schermo in base al
suono emesso erano in grado di ricordare tutte le lettere della matrice. Questo sta ad
indicare l’esistenza di un magazzino di memoria dotato di carattere sensoriale, che
pur avendo enormi capacità, le informazioni decadono molto rapidamente. Neisser
definisce questo tipo di memoria, memoria iconica. Si tratta di sistemi di memoria
visiva e uditiva a brevissimo termine.
I risultati di Sperling rafforzarono l’idea che la nostra memoria fosse composta da
diversi sistemi, infatti negli anni 70 si faceva riferimento alla metafora secondo cui la
nostra mente era come un computer e si ipotizzava l’esistenza di 3 magazzini di
memoria: la memoria sensoriale, la memoria a breve termine e la memoria a lungo
termine. Secondo questo modello, la qualità del ricordo dipenderebbe dal tempo che
l’informazione trascorre nel magazzino a breve termine: più è lunga l’elaborazione a
breve termine più e probabile che il ricordo passi nel magazzino a lungo termine e
diventi permanente.

Architettura MBT. Architettura memoria a breve termine.

74
75

La memoria a breve termine ha una capacità ridotta, una durata di soli pochi
secondi, a meno che non venga messo in atto un processo in grado di mantenere
l’informazione per un periodo di tempo maggiore, ovvero il processo di reiterazione,
ed è infine un processo centrale (cioè interviene in una serie di processi che hanno
una natura di tipo concettuale). Come abbiamo detto la memoria a breve termine
ha una capacità molto limitata di mantenimento dell’informazione, e non solo dal
punto di vista temporale, ma anche dal punto di vista della quantità di informazione
che può trattenere, sono stimati infatti non più di 7 bit di informazione
contemporaneamente. La MBT è una sorta di magazzino che permette di depositare
e utilizzare in modo rapido le informazioni utili al compimento di scopi più
complessi. Parlando di memoria a breve termine facciamo riferimento ad un altro
sistema di memoria, ovvero la memoria di lavoro, anch’essa con il ruolo, durante lo
svolgimento di compiti cognitivi più complessi e articolati, di mantenere ed elaborare
le informazioni in oggetto. La memoria di lavoro rappresenta il nostro presente o
meglio ci aiuta a trasformare il passato in presente, riportando i ricordi ad uno stato
vivido. Anch’essa ha una capacità limitata e può mantenere l’informazione solo per
un breve periodo di tempo. Nell’ambito della psicologia cognitiva questi due sistemi
di memoria vengono utilizzati come sinonimi.
La mbt si divide in memoria visuo-spaziale, e memoria uditivo-verbale: la prima
riguarda gli stimoli visivi che durano circa due secondi, la seconda gli stimoli uditivi,
che durano invece dai 2 ai 20 secondi in base alle procedure di reiterazione che
vengono adottate. La MBT si articola quindi in due sottoinsiemi: Il circuito
fonologico che riguarda l’elaborazione e il mantenimento dell’informazione verbale
e acustica. È quel meccanismo che ci permette di ricordare temporaneamente una
sequenza di numeri. Il secondo sottosistema chiamato taccuino visuo-spaziale che
riguarda invece l’informazione visiva. I due sottosistemi, sono indipendenti l’uno
dall’altro ma interagiscono e collaborano insieme per mezzo di un meccanismo
chiamato esecutivo-centrale. Tale meccanismo ha il ruolo di controllare e
monitorare l’informazione proveniente dai due sottosistemi. La memoria di lavoro in
entrambi i casi ha due funzioni: la prima, quella con la funzione di magazzino, è una
funzione di tipo passivo, con lo scopo di conservare l’informazione per un certo
periodo di tempo mentre, l’altra, la seconda è una funzione di tipo attivo, e riguarda
la capacità di questo sistema di memoria di rinfrescare continuamente
l’informazione, che è quella che definiamo come capacità di reiterazione.
I sensi: memoria visuo-spaziale e memoria uditivo- verbale

75
76

MEMORIA A BREVE TERMINE VISIVA


Le prove più convincenti a favore dell’esistenza di un sistema di memoria a breve
termine visiva sono quelle prodotte da Posner e collaboratori.
In uno di questi studi, i partecipanti vedevano coppie di lettere e dovevano decidere
se le due lettere avevano lo stesso nome. I risultati dimostrarono che il tempo di
risposta era significativamente minore se le lettere avevano lo stesso nome ed erano
anche visivamente identiche (ad esempio, AA) rispetto a quando avevano lo stesso
nome ma non erano visivamente identiche (ad esempio, Aa).
Inoltre, se si presentavano le lettere una per volta e si variava l’intervallo di tempo tra
la presentazione della prima lettera e quella della seconda, il vantaggio in termini di
tempo impiegato per la risposta scompariva dopo un intervallo di due secondi.
Posner e collaboratori interpretarono questo risultato come una prova dell’esistenza
di un magazzino visivo a breve termine in cui la traccia dura circa 2 secondi.
ARCHITETTURA MLT. La memoria a lungo termine ha una capacità ampia, una
durata indefinitamente lunga (quindi parliamo di una durata anche di anni) e ha
delle caratteristiche centrali. La memoria a lungo termine per antonomasia è la
memoria semantica che, appunto, riceve il suo nome da uno delle sue funzioni
principali che è quella di conservare e permetterci di usare i significati delle parole.
La MLT spiega i fenomeni di ricordo permanente in quanto grazie ai processi di
codifica, ritenzione e recupero permette di trattenere dei contenuti per una durata
quasi illimitata di tempo. Distinguiamo tra due tipi di memoria a lungo termine:
visiva-> è efficiente e duratura ma può essere sottoposta a dei fenomeni di
interferenza. La seconda memoria a lungo termine è quella uditivo-verbale che
riguarda la dimensione semantica del linguaggio ma anche caratteristiche sensoriali
come voci e toni.
La MLT è suddivisibile in due sottosistemi di memoria: memoria esplicita e memoria
implicita. la memoria esplicita è la memoria di informazioni che sono state
consapevolmente apprese.
Memoria implicita: in cui la ritenzione non è intenzionale e non è conscia. Cioè una
serie di informazioni vengono mantenute in memoria anche se non c'è intenzione di
apprendere. Quindi nella memoria implicita l'apprendimento può essere cosciente o
meno ma la fase di recupero non implica volontà.
Esempi di memoria implicita sono soprattutto quelli che provengono
dell'apprendimento motorio (come andare in bici). La memoria implicita viene
rilevata in compiti che non richiedono il recupero della situazione specifica di
apprendimento. Il tipo di test: memoria esplicita e memoria implicita
76
77

Nei test espliciti, le istruzioni fanno specifico riferimento al recupero cosciente


dell’informazione, come quando in un compito di riconoscimento si chiede alla
persona di dire se lo stimolo che ha davanti è vecchio, quindi già visto, o nuovo, mai
visto. Si può dire perciò che l’oggetto di studio dei test espliciti sia la memoria stessa.
Nei testi impliciti invece, la memoria è uno strumento per lo svolgimento di un
compito che non è connesso con il recupero cosciente delle informazioni. Uno dei più
noti paradigmi della memoria implicita è quello dell’identificazione percettiva: i
partecipanti in una prima fase, detta fase di studio, vedono su uno schermo di
computer una lista di parole, presentate una per volta. In una seconda fase, detta
fase di test, i partecipanti devono identificare una serie di parole presentate, una per
volta, su uno schermo di computer per un tempo così breve che è difficile addirittura
vederle. Alcune delle parole presentate in questa seconda fase sono state presentate
anche nella fase di studio (parole primed, cioè attivate), altre sono del tutto nuove
(unprimed). Il risultato è che i soggetti identificano più facilmente le parole primed
rispetto alle parole unprimed.
É come se la sola esperienza di aver incontrato prima alcune parole sia sufficiente ad
influenzare il comportamento successivo, (l’identificazione) senza che la persona
abbia mai tentato di recuperare consapevolmente quella informazione. Infatti va
notato che durante la presentazione iniziale della lista, i soggetti non sanno che tipo
di compito dovranno svolgere da lì a poco e quindi non compiono alcuno sforzo per
memorizzare le parole della lista mentre le guardano. Questi, conosciuti come effetti
di facilitazione (PRIMING) riflettono, secondo alcuni studiosi, il funzionamento di un
sistema di memoria speciale, separabile dal sistema della memoria esplicita, che
influenza i nostri comportamenti al di fuori della nostra consapevolezza. Dunque,
ricapitolando, ci sono situazioni sperimentali in cui i soggetti non si rendono conto del
fatto che il ricordo di un evento precedente può influenzare l’interpretazione e la
codifica di un evento successivo senza che l’individuo sia consapevole di ricordare
l’evento precedente. Questa memoria senza consapevolezza viene dimostrata per
mezzo dell’effetto di priming.
Considerando il paradigma sperimentale di Jacoby, ai soggetti viene presentata una
lista di parole; in seguito, le parole vengono presentate nuovamente ai soggetti e i
soggetti sono sottoposti ad un test di riconoscimento. Successivamente, i soggetti
vengono sottoposti ad un compito di identificazione percettiva in cui i soggetti
devono cercare di identificare delle parole presentate per un intervallo breve. Le
parole che i soggetti hanno visto nella fase precedente dell’esperimento (parole
vecchie) vengono identificate con più accuratezza delle parole che non erano state
mostrate in precedenza(parole nuove). Questo fenomeno richiama la memoria senza
consapevolezza perché i soggetti non sono consapevoli del fatto che una parola sia
77
78

una parola vecchia e ciò nonostante sono in grado di identificarla con maggiore
accuratezza rispetto ad una parola nuova. Le parole vengono preattivate senza che i
soggetti ne siano consapevoli. Schacter ha preferito l’espressione memoria implicita
all’espressione memoria senza consapevolezza. La memoria implicita ha luogo
quando l’informazione che è stata codificata nel contesto di un particolare episodio
viene in seguito espressa senza che ci sia un ricordo consapevole. Schacter ha notato
la rilevanza della psicosi di Korsakoff per lo studio della memoria. La psicosi di
Korsakoff è una forma di amnesia che si verifica come conseguenza dell’alcolismo
cronico. L’amnesia è un disturbo prodotto da lesioni cerebrali; coloro che sono affetti
da amnesia possono essere in grado di operare normalmente in diversi settori ma
sono incapaci di ricordare gli eventi accaduti in seguito all’insorgenza del disturbo.
Warrington ha dimostrato che i pazienti affetti da amnesia hanno un rendimento
migliore nei compiti che richiedono l’uso della memoria implicita e un rendimento
peggiore nei compiti che invece richiedono la memoria esplicita.
Tulving ha suggerito che è possibile che esista un altro sistema di memoria distinto da
quella episodica, chiamato sistema di rappresentazione percettiva che è ritenuto
responsabile degli effetti di priming. Secondo Tulving e Schacter, il sistema di
rappresentazione percettiva elabora l’informazione ad un livello più superficiale del
sistema di memoria episodica.
la distinzione tra memoria esplicita e implicita richiama un’ulteriore distinzione,
quella tra memoria incidentale e memoria intenzionale.
in che modo la volontà di ricordare incide ai fini del ricordo?
Memoria intenzionale-> ci permette di ricordare le informazioni che ci sembrano
rilevanti e di decidere di ricordarle in maniera intenzionale. Però queste
informazioni non sono le uniche ad essere memorizzate, restano in memoria molte
altre informazioni che si imprimono incidentalmente. Cioè si imprimono al di fuori
della nostra intenzione.
la memoria incidentale-> si verifica quando memorizziamo gli eventi senza la
volontà di farlo. l'apprendimento è involontario e il recupero è volontario. Esempio -
> non abbiamo volontariamente memorizzato la cena di ieri sera, ma il recupero è
volontario, cioè dobbiamo pescare nella memoria i ricordi relativi alla cena. Lo
studio della memoria incidentale si basa su compiti particolari. Come si fa a simulare
una situazione equivalente alla domanda che cosa hai mangiato ieri sera-> vengono
utilizzati 1) compiti di copertura cosiddetti perché coprono all’ individuo il compito
reale; 2) compiti di orientamento-> si intende l'orientamento del livello di codifica e
cioè questi esperimenti possono implicitamente o esplicitamente chiedere ai
78
79

partecipanti all’esperimento di codificare l'informazione che deve essere


memorizzata utilizzando un livello più o meno profondo di codifica. Per esempio, nel
caso di parole, utilizzando i suoni iniziali delle parole (livello meno profondo di
codifica), mentre in altri casi il livello di codifica può essere più profondo ->viene
chiesto di raggruppare le parole in classi (differenze tra frutti e animali).

MEMORIA A LUNGO TERMINE VISIVA


La vita di tutti giorni sembra darci continua conferma della nostra capacità di
riconoscere un amico che non incontravamo da lungo tempo, riconoscere la nostra
macchina in un parcheggio nonostante che ce ne siano altre della stessa marca ecc..
in effetti, gli studi sul riconoscimento visivo condotti in condizioni controllate
mostrano livelli di riconoscimento altissimi, fino al 98%, anche parecchio tempo dopo
la presentazione dello stimolo.
Esiste anche un fenomeno, noto con il termine IPERMNESIA, che consiste nel fatto
che le figure sono spesso ricordate meglio con il passare del tempo, mentre le parole
tendono ad essere dimenticate.
Ma la buona prestazione che le persone mostrano nei compiti di riconoscimento
significa quindi che la memoria a lungo termine visiva conserva le tracce in modo
inalterato e permanente?
Secondo alcuni studiosi, in seguito a esperimenti di riconoscimento di figure, la
memoria di figure è praticamente perfetta e che il riconoscimento si basa su qualche
tipo di rappresentazione in memoria che viene mantenuta senza il bisogno di
ricorrere ad etichette verbali e senza ripetizione.
➔ Altri non sono d’accordo in quanto un compito di riconoscimento, al contrario
di uno di rievocazione, non comporta il problema di dover decidere “dove”
andare a cercare il bersaglio nella memoria. Lo stimolo del test funge sempre
da riconoscimento (cue) che dirige la ricerca verso il giusto contesto,
aumentando così la probabilità di una buona rappresentazione e inoltre, un
compito di riconoscimento comporta sempre una ripresentazione dello stimolo
o di una sua parte, il che rende difficile stabilire quanto dell’input originario era
presente nella memoria visiva. Infine, ci sono esempi della vita quotidiana che
contrastano fortemente questa visione idilliaca della memoria visiva: ad
esempio, la testimonianza oculare è spesso inaffidabile. Buona parte del
riconoscimento della scena alla quale si è assistito è frutto di processi di
ricostruzione. La ricodifica verbale cui spesso é soggetto il ricordo visivo e

79
80

l’organizzazione dell’informazione visiva con l’aggiunta di nuovi elementi


alterano il ricordo originario.
Anche per la modalità uditiva, la memoria viene tradizionalmente divisa in memoria
uditiva a breve termine e memoria a lungo termine.
Vi sono delle prove che la memoria uditiva a breve termine mantenga la traccia per
un periodo variabile dai 2 ai 20 secondi, a meno che non si verifichi un’ interferenza
da parte di stimoli presentati nella stessa modalità.
Se ad esempio hai appena udito un numero telefonico e qualcuno immediatamente
dopo ti chiede che ore sono, è probabile che dimentichi parte della sequenza di
numeri, specialmente gli ultimi elementi della sequenza. Questo effetto è conosciuto
come effetto del suffisso.
Rispetto alla memoria uditiva a breve termine, la memoria uditiva a lungo termine si
basa più su un tipo di elaborazione semantica che coinvolge il linguaggio e per questa
ragione ci si riferisce spesso a questo tipo di memoria come alla memoria a lungo
termine verbale. Tuttavia essa è capace di immagazzinare anche caratteristiche come
le voci o i toni. Anche nel caso della memoria a lungo termine uditiva il
riconoscimento arriva a livelli altissimi.
La consapevolezza: memoria dichiarativa e memoria procedurale
Memoria procedurale: è una memoria legata alla reale attuazione di un compito
accessibile e valutabile solo attraverso l’esecuzione di un’azione. Si tratta di un
insieme di abilità difficilmente traducibili in proposizioni. È importante sottolineare
che la memoria procedurale non è soltanto un ricordo di abilità motorie, poiché altre
forme di ricordo che non sono correlate alle abilità motorie vengono fatte rientrare
nella categoria della memoria procedurale. Ad esempio, la risoluzione di problemi
spesso richiede l’intervento di una forma di memoria che permette di recuperare
modi di procedere e sequenze di azioni delle quali la persona non è consapevole.
Laddove vi è una qualche manifestazione di apprendimento senza ricordo di come si
fa una cosa, si parla di memoria procedurale.
Per questo motivo, la memoria procedurale si distingue da
Memoria dichiarativa: memoria che si riferisce alla conoscenza di fatti che possono
essere acquisiti in un unico tentativo e che sono direttamente accessibili alla
coscienza, come ad esempio la conoscenza della dimensione di una nuova parola in
una lingua straniera o delle esatte circostanze in cui abbiamo conosciuto una
persona.
La comprensione di questa distinzione può essere indicata dalle espressioni: “sapere
cosa” (memoria dichiarativa) e sapere come” (memoria procedurale).
80
81

Memoria dichiarativa e memoria procedurale sembrano dipendere da sistemi


neuronali anatomicamente distinti; strutture medio-temporali e diecenfaliche per la
prima prima, gangli della base e cervelletto la seconda.
Lesioni alle regioni medio-temporali e diencefaliche portano all’amnesia, deficit
selettivo della memoria dichiarativa che lascia intatti la memoria di lavoro, le abilità
motorie percettive, l’apprendimento non associativo, l’apprendimento categoriale e il
condizionamento. I pazienti amnesici non possono apprendere nuove informazioni,
ma sono capaci di apprendere nuove procedure.
Memoria retrospettiva e memoria prospettica
Il termine ricordare può avere due significati diversi:
1. Il primo che consiste nel recuperare il ricordo di episodi ed eventi passati, e in
questo caso parliamo di memoria retrospettiva.
2. E il secondo che consiste invece nel ricordare i piani o le azioni che svolgeremo
in futuro, in questo caso parliamo di memoria prospettica la quale riguarda
anche l‘intenzione di svolgere una certa azione in un futuro che però a volte
risulta non essere immediato. (esempio: immagina di incontrare un tuo amico.
Vai di fretta, e quindi lo saluti dicendo “ti telefono domani verso le quattro”.
In ogni caso ciascun compito di memoria prospettica presuppone l’influenza di una
componente retrospettiva: in quanto per poter svolgere un’azione devo ricordare
una serie di eventi passati. (Esempio, per ricordarmi poter prendere la mia ato nel
parcheggio, devo richiamare alla memoria una serie di eventi passati come ad
esempio dove ho parcheggiato prima di entrare nel centro commerciale ecc.
Sono state individuate 5 fasi che caratterizzano il processo che porta al ricordo di
un’intenzione:
1. Formazione e codifica dell’intenzione
2. Intervallo di ritenzione
3. Intervallo della prestazione
4. Inizio ed esecuzione dell’azione che si intende compiere
5. Valutazione del risultato
La prima fase fa riferimento al ricordo di cosa fare nell’azione futura quando giunge il
momento opportuno; in questa fase sono importanti i fattori motivazionali, ovvero
l’importanza che attribuiamo ad un’intenzione e alle sue eventuali conseguenze in
termini di costi e benefici che può comportare.
La seconda fase fa riferimento all’intervallo che sussistedal momento in cui
l’intenzione viene codificata e l’ipotetico inizio della prestazione. Tali intervalli
81
82

possono variare notevolmente sia nella durata (pochi secondi, a minuti, a ore) sia nel
contenuto.
La terza fase si riferisce al tempo che deve essere impiegato per recuperare
un’intenzione. Di solito, il recupero dell’informazione è collegato a una situazione ben
precisa. E, quindi a tale scopo possiamo utilizzare una formula del tipo: “quando
compare il contesto X, allora posso compiere l’azione Y”.
Tra i fattori necessari affinché un’azione futura venga ricordata riscontriamo il
fenomeno definito come matching , ovvero il confronto(un matching) delle
caratteristiche codificate con quelle percepite.
La quarta fase riguarda la realizzazione dell’intenzione. Qui entra in ballo il concetto
di compliance <<adesione>>, cioè quello di portare a termine un compito nel modo
previsto. Si ha compliance solo se ci ricordiamo prima di tutto che qualcosa deve
essere fatto in un determinato momento, in cosa consiste questo qualcosa, e infine
se decidiamo volontariamente di svolgere l’azione. Se solo una di queste fasi manca,
ci sarà non-compliance e il compito non verrà svolto.
Inoltre ci sono altri fattori che possono causare una cattiva prestazione prospettica:
• la mancanza di abilità per poter affrontare il compito.
• L’interruzione di quell’azione da parte di altri eventi e a questo punto sarà
quindi necessario ripianificare l’azione, attraverso una nuova codifica.
La quinta fase riguarda la valutazione finale attraverso una procedura di confronto tra
l’intenzione inizialmente codificata e la situazione attuale, tale procedura può portare
a tre diversi risultati:
1. lo scopo è stato raggiunto
2. Lo scopo è stato parzialmente raggiunto
3. Lo scopo non è stato raggiunto
Memoria episodica
La memoria episodica si riferisce all’immagazzinamento e al recupero di eventi che
sono spazialmente localizzabili, temporalmente databili, ma soprattutto che sono
stati vissuti in prima persona. Riguarda infatti il ricordo di eventi autobiografici e
quindi le esperienze e i fatti vissuti in prima persona con le relative informazioni
spazio-temporali che permettono a questo sistema di memoria di ricordare dove e
quando è stata appresa la nuova informazione. La memoria episodica è organizzata
cronologicamente. A questo tipo di memoria è associata una coscienza autonoetica,
che rappresenta la consapevolezza di se stessi.

82
83

La memoria autobiografica (stronzo)


la memoria episodica può essere associata alla memoria autobiografica. La differenza
tra le due consiste nel fatto che la memoria episodica riguarda anche gli eventi che
l’individuo non ha vissuto come attore principale, ma anche solo come spettatore.
Per poter ricostruire in qualche modo i ricordi autobiografici sono stati sviluppati tre
livelli
• Il primo livello che riguarda estesi periodi di vita di un individuo come quando
uno dice: “ quando andavo al liceo...”
• Il secondo livello riguarda gli episodi generali, ampi ma non troppo lunghi che
possiamo misurare in giorni o settimane.
• Il terzo livello riguarda invece il ricordo di eventi specifici, come ad esempio
quando ricordiamo la camicia che portava un dato giorno in una determinata
circostanza.
Tutti i livelli confluiscono in un’unica struttura, infatti quando noi raccontiamo la
nostra storia tendiamo a raccontarla come un tutt’uno. Inoltre il senso generale di un
ricordo è più accurato del ricordo dei dettagli. I ricordi autobiografici hanno una
natura ricostruttiva in quanto noi individui tendiamo a rendere il nostro racconto
sempre coerente e fluido e quindi ci capita di riempire i vuoti con dettagli che
crediamo si siano verificati, ma che in realtà sono avvenuti in episodi simili
(memoria riepisodica). Due studiosi si sono interessati allo studio sulla memoria
autobiografica conducendo degli esperimenti, cioè presentavano una lista di 20
parole semplici a dei soggetti sperimentali e a partire da ciascuna parola i soggetti
dovevano generare un ricordo e datare quel ricordo. I due ricercatori hanno
riscontrato che in generale con il passare del tempo vi era un progressivo declino dei
ricordi autobiografici. Inoltre emerse che le persone potevano rievocare circa 220
episodi riguardo gli ultimi 20 anni, e tale numero è stato poi definito come numero di
Galton. inoltre si verificò anche un effetto definito di reminescenza nei soggetti
anziani o meglio nei soggetti dai 50 anni in su, che rappresentava la tendenza a
ricordare inaspettatamente molto bene gli eventi del periodo iniziale della vita. La
spiegazione a tele fenomeno potrebbe essere che questo effetto si manifesta quando
gli individui iniziano a ripensare e ripercorrere la loro vita passata, soprattutto al
periodo che va dai 18 e i 35 anni di età, quando le persone compiono le scelte più
importanti. Un altro processo riscontrato è la cosiddetta amnesia infantile, fenomeno
per cui non ricordiamo nulla o quasi a proposito dei primi anni di vita. L’amnesia
infantile inizierebbe all’età di cinque anni circa, quando i bambini iniziano a fare uso
del linguaggio per rappresentare gli eventi in memoria, cosicchè essi perderebbero il
contatto con i ricordi precedenti.
83
84

Memoria storica: Oltre ai ricordi personali, la memoria autobiografica contiene i


ricordi dei principali fatti storici che hanno influenzato e dato significato agli eventi
della nostra vita.
Gli eventi pubblici che è più probabile siano ricordati sono quelli di cui i media si sono
più occupati (es: torri gemelle). Essi sono organizzati nella memoria in forma
narrativa, così che una persona avrà un repertorio di racconti sugli eventi
storicamente importanti che hanno avuto luogo sulla sua vita. Proprio come
strutturiamo la nostra vita in stadi, così raggruppiamo gli eventi storici in periodi.
memoria semantica
La memoria semantica trascende le condizioni in cui la traccia è stata formata ed è
sganciata dal contesto dell’originale episodio di apprendimento. Ad esempio tu sai
che Parigi è la capitale della Francia, ma molto probabilmente non ricordi il tempo e il
luogo in cui hai appreso questa informazione. Si riferisce all’immagazzinamento e
all’utilizzo di conoscenze che riguardano le parole e i concetti. I ricordi di tipo
semantico riguardano conoscenze di carattere generale che non sono associate ad
esperienze personali

Tulving e i sistemi di memoria.


Tulving fa una preliminare distinzione tra quella che è la memoria episodica e la
memoria semantica. La prima si riferisce all’immagazzinamento e al recupero di
eventi che possono essere datati, localizzati, ma soprattutto che sono stati vissuti in
prima persona mentre la memoria semantica si riferisce all’immagazzinamento e al
recupero di parole e concetti con le proprie proprietà e relazioni.
SPECIFICITA’ DI CODIFICA (NATALE)
Tulving si è principalmente interessato al modo in cui il principio di specificità di
codifica regola la memoria episodica. Questo principio prevede che soltanto ciò che è
stato immagazzinato può essere recuperato, e il modo in cui qualcosa può essere
recuperato dipende dal modo in cui è stato immagazzinato. Gli item(le parole ad
esempio) possono essere immagazzinati in modi diversi. La parola green può essere
codificata sia come il nome di un colore sia come il cognome di qualcuno. La modalità
di codifica di una parola determina il modo in cui essa sarà ricordata.
Nell’esperimento di Tulving e Thomson, ai soggetti veniva chiesto di memorizzare un
elenco di 24 coppie di parole(48 parole). La seconda parola di ciascuna coppia era la
parola critica(target) mentre la prima costituiva un suggerimento debole per il
recupero. In seguito, ai soggetti venivano presentate 12 parole fortemente
associate(suggerimenti forti) con 12 delle 24 parole critiche della lista precedente e il

84
85

loro compito era quello di scrivere accanto a ciascuna delle nuove parole
l’appropriata parola della lista precedente. Ai soggetti venivano poi fornite 12 nuove
parole fortemente associate(suggerimenti forti) con le rimanenti 12 parole critiche. Il
compito dei soggetti era di associare una parola a ciascuna di queste nuove parole. A
questo punto i soggetti dovevano fare delle associazioni libere sulla base di tutti i 24
suggerimenti forti per il recupero: le parole generate dai soggetti in risposta ai
suggerimenti forti per il recupero erano le stesse che i soggetti avevano imparato in
risposta ai suggerimenti deboli per il recupero. Ciò significa che possono essere create
delle condizioni in cui le informazioni riguardanti una parola sono disponibili in
memoria in una forma sufficiente per la produzione di una risposta appropriata.
Secondo Tulving, la possibilità della rievocazione dipende dalla modalità della codifica
dato che la natura della codifica influenza la traccia di memoria prodotta dall’item.
Dato che le informazioni contenute nella non risultano utili ai soggetti per il recupero
di informazioni immagazzinate nella memoria episodica, si potrebbe concludere che i
due sistemi di memoria sono separati gli uni dagli altri.
Tulving ha ipotizzato l’esistenza di almeno tre sistemi di memoria volti
all’elaborazione di differenti tipi di informazioni: i sistemi di memoria episodica,
semantica e procedurale. La memoria procedurale è quel sistema di memoria
soggiacente alle esecuzioni che richiedono destrezza. ‘’Lo scopo di un compito
eseguito con destrezza viene ottenuto osservando un insieme di regole che non sono
conosciute, in quanto tali, da colui che le segue.’’ Le conoscenze di cui ci serviamo
quando andiamo in bicicletta sono conoscenze procedurali; la conoscenza
procedurale è una forma di conoscenza tacita: riguarda ciò che conosciamo senza
necessariamente essere consapevoli di cosa sappiamo. Se descriviamo (come fa
Polanyi) i principi seguiti dal ciclista, noi trasformiamo la conoscenza tacita in
conoscenza esplicita.
Se gli individui sono capaci di descrivere quello che sanno, allora fanno affidamento
alla loro memoria semantica che contiene le conoscenze esplicite a proposito di
come andare in bici, ad esempio. D’altra parte, la memoria procedurale contiene le
informazioni di cui facciamo effettivamente uso quando andiamo in bicicletta. La
memoria episodica contiene invece informazioni che rimandano a particolari
esperienze nel corso delle quali ci è capitato di andare in bicicletta. La memoria
episodica è un sottosistema della memoria semantica, la quale a sua volta è un
sottosistema della memoria procedurale.
La memoria procedurale è anoetica [priva di conoscenza] perché quando facciamo
uso di questo tipo di memoria, siamo consapevoli solo di ciò che caratterizza la
situazione immediata in cui ci troviamo.
85
86

La memoria semantica è noetica [conoscenza] perché quando ne facciamo uso,


siamo consapevoli non solo della situazione immediata nella quale ci troviamo, ma
anche di cose che possono essere assenti in quella situazione specifica.
La memoria episodica invece è autonoetica [conoscenza di sé] perché riguarda il
ricordo di esperienze personali.
I bambini in tenera età non hanno esperienza e per questo motivo si ritiene che la
memoria episodica si sviluppo a partire dalla memoria semantica. Gli anziani invece,
non manifestano alcun deficit nel caso della memoria semantica e della memoria
procedurale mentre la memoria episodica è influenzata dal processo di
invecchiamento [Quindi, la memoria episodica è un sistema di memoria separato
dagli altri].
Formato e organizzazione delle conoscenze nella memoria semantica
La memoria semantica è organizzata in modo tassonomico e associativo. Costituisce il
repertorio di concetti, e il vocabolario linguistico e non linguistico che lo esprime,
posseduti da ciascuna persona. Essa è la base di conoscenze gnerali che ci
permettono di agire in modo funzionale del mondo ci circonda. Tali conoscenze sono
create a partire dal mondo sensoriale, attraverso l’esperienza, sia diretta sia mediata
dal linguaggio, e sono rappresentate in un formato che ne permette l’uso sia del
riconoscimento (ad esempio, se l’oggetto che sto vedendo é una sedia lo riconduco
alla categoria dei mobili), sia nella produzione (ad esempio, nel disegnare
un’automobile metterò le ruote). I meccanismi coinvolti nel riconoscimento e nella
produzione sono, almeno in parte, diversi, in quanto sottendono meccanismi
finalizzati a operazioni di decodifica (dalle forme di concetti) o invece di codifica (dai
concetti alle forme, linguistiche o grafiche). Per questo motivo, il formato in cui sono
rappresentate le conoscenze dovrà essere sufficientemente astratto, cioè slegato
dalla specifica modalità di elaborazione in modo tale da permetterne un uso
condiviso. Inoltre, il riconoscimento e l’uso dei concetti è caratterizzato da grande
velocità (un giudizio semplice, come decidere se un gatto ha la coda, richiede meno
di mezzo secondo) e di apparente automaticità (è impossibile non codificare il
significato di una parola o di una figura che è familiare).
È plausibile inoltre pensare che le conoscenze siano organizzate in modo tale da
riflettere le relazioni che esistono fra i concetti: ciascun concetto sarà
semanticamente legato a un certo numero di concetti (ad esempio gatto è legato a
topo, a cane, a formaggio) ma non ad altri (ad esempio, gatto e triciclo), andando a
formare in questo modo delle categorie semantiche, se la relazione è su base
categoriale (relazioni tassonomiche), o dei campi semantici, se la relazione è

86
87

determinata dalle nostre conoscenze enciclopediche di ciò accade nel mondo


(relazioni associative).
Sulla base di quanto detto, si può pensare che le conoscenze rappresentate nella
mente riguardanti i concetti includono:
- informazioni astratte sulle funzioni degli oggetti (ad esempio: un determinato
oggetto serve per scrivere? Si muove in modo autonomo?)
- sulle informazioni percettive legati alle diverse modalità (ad esempio: questo
oggetto è rotondo, è profumato, emette dei suoni?)
- informazioni sulle relazioni tra gli oggetti (ad esempio: lo spalmeresti sul
pane?)
Così, concetti astratti come “giustizia” e “infinito” sono caratterizzati da proprietà
funzionali e relazionali più che da proprietà percettive. Invece, per gli elementi delle
categorie semantiche riferibili agli esseri viventi come animali e piante, è cruciale
l’informazione percettiva nella rappresentazione e nei processi di riconoscimento (ad
esempio, gli importanti indici che permettono di distinguere una pera da una mela,
un‘oca da un’anatra.)

Modelli della memoria semantica


Relativamente al formato della rappresentazione, possiamo distinguere tre grossi
gruppi di modelli: rappresentazione astratta, per esemplari, e approccio
connessionista.
Secondo i modelli della rappresentazione astratta, le informazioni sono mantenute in
memoria semantica in un formato amodale, slegato cioè dalle informazioni sensoriali
e motorie dell’entità rappresentate. Inoltre, secondo questi modelli, la
rappresentazione prescinde dalla particolare situazione in cui l’elemento può trovarsi
nel mondo reale. (ad esempio: una rondine che vola nel cielo e una rondine nel
proprio nido fanno riferimento alla stessa rappresentazione concettuale: le variazioni
del contesto semplicemente sono un’informazione aggiuntiva che può facilitare, se è
congruente, oppure ostacolare se é incongruente, il riconoscimento, ma che nulla
aggiunge al contenuto concettuale).
Secondo i modelli per esemplari, il sistema concettuale è costituito dalle memorie (o
tracce mnestiche) degli esemplari che sono stati codificati nel tempo. Ad esempio: la
rappresentazione del concetto di “cane” è costituita dalle tracce mnestiche di tutte le
situazioni che ho codificato in cui erano presenti i cani. Poiché i diversi esemplari
sono codificati in situazioni diverse, in cui risaltano particolari differenti, questi
87
88

modelli attribuiscono un ruolo rilevante al contesto in cui si ha esperienza dei


concetti, o meglio delle loro varie occorrenze. Tali modelli si possono inserire nella
più grande generale tendenza definita situated cognition, cioè “cognizione situata”
secondo il quale il contesto, ovvero la specifica situazione in cui la persona e il mondo
in cui interagisce e agisce si trovano, svolge un ruolo fondamentale.
I modelli connessionisti della rappresentazione delle conoscenze postulano nella
maggior parte dei casi un’architettura distribuita in cui la rappresentazione di un
concetto viene spalmata su diversi sottosistemi. Secondo questo approccio, non
esiste un nodo concettuale corrispondente a “cane”, e neppure un insieme di
esemplari di “cane”, ma esistono invece insieme di attributi di base, condivisi da un
numero variabile di elementi che si attiveranno in configurazioni appropriate in
riferimento al concetto rilevante.
In questi modelli la strutturazione in categorie non è un principio organizzativo della
rappresentazione ma è una proprietà emergente: le categorie emergono dalla
somiglianza dei pattern di attivazione e di sistemi di caratteristiche relative ai diversi
concetti. Ad esempio, l’attivazione delle caratteristiche “zampe, pelo, coda” attiverà
gli esemplari della categoria dei mammiferi, mentre l’attivazione delle caratteristiche
“zampe, ali e becco” attiverà gli esemplari della categoria degli uccelli.
I processi di categorizzazione
Le categorie rivestono un ruolo importante sia come organizzazione e struttura e
azione, informazioni e come fonte di inferenze. La categorizzazione è un meccanismo
mentale particolarmente potente perché permette di dare origine a insiemi più o
meno ampi di elementi sulla base di uno o più principi di organizzazione (ad esempio:
posso generare i nomi di animali che conosco, ma anche delle bevande che si
possono trovare ad una festa di compleanno, degli oggetti da portare al campeggio o
dei libri di fantascienza letti): quindi sulla base di una dimensione o di un criterio si
possono distinguere classi di elementi che si differenziano per quella particolare
dimensione o in relazione a quel particolare criterio. La costituzione di insiemi o classi
di elementi che chiamiamo categorie può essere vista quindi come il risultato della
selezione delle dimensioni e dei principi di organizzazione che sono del focus
dell’attenzione selettiva, e inoltre la differenziazione in classi permette il recupero di
informazioni caratteristiche non esplicitate verbalmente.
La capacità di classificare il rappresentare elementi in classi, ovvero il processo di
categorizzazione, assolve diverse funzioni:
• Una prima funzione della categorizzazione è quella di rendere possibile
l’esecuzione di risposte comportamentali riferite a una classe di oggetti
88
89

cognitivamente equivalenti (piuttosto che considerare singolarmente ciascuno


oggetto), poiché spesso una classe di elementi richiede risposte analoghe.
(Esempio: Se pensi a “uccelli” e “pesci”: si tratta di animali diversi, rispetto alla
propria categoria di appartenenza, ma sono simili se considerati nella più ampia
categoria degli animali e posti in contrasto ad esempio con la categoria indumenti. Se
pensi alle proprietà “essere giallo“ e “respirare“, rispetto alla prima proprietà
“canarino” sarà simile a banana ma sarà diverso da cervo; rispetto alla seconda
proprietà invece “canarino“ e “cervo“ saranno fra loro simili ma dissimili da banana.
• E infatti, una seconda funzione della categorizzazione è quella di permettere di
rilevare analogie e differenze fra oggetti a diversi livelli di astrazione.
• La terza funzione della categorizzazione è quella di permettere di semplificare
l’analisi dell’input ambientale. Una categoria di oggetti possiede in genere delle
caratteristiche che permettono di analizzare in modo veloce e superficiale, ma
sufficiente per l’identificazione, gli esemplari che la costituiscono.
La struttura gerarchica delle categorie
Una delle ragioni per avere delle categorie è quella di ridurre la quantità di
informazioni con cui dobbiamo avere a che fare. Benché sia desiderabile discriminare
eventi diversi, è altresì desiderabile raggruppare gli eventi sulla base delle loro
somiglianze reciproche così da poter considerare eventi diversi come esemplari della
stessa classe. Di conseguenza è necessario bilanciare una tendenza verso la
minimizzazione fra le categorie da una parte, con una tendenza verso la
differenziazione tra le categorie dall’altra. Il principio della struttura del mondo
percepito si riferisce al fatto che particolari combinazioni di attributi ricorrono nel
modo più frequente di altre. Rosch ha proposto di analizzare le capacità categoriali
umane sulla base di due dimensioni: quella verticale e quella orizzontale.
Nella dimensione verticale, le categorie si strutturano su base gerarchica in funzione
dell’inclusione di classe. Ad esempio, la categoria “labrador” è contenuta nella
categoria “cani”, la quale a sua volta è contenuta nella categoria “animali” la quale é
contenuta a sua volta nella categoria “esseri viventi”.
Sono tre le caratteristiche interessanti da un punto di vista psicologico della struttura
gerarchica delle categorie:
1. la natura sempre più astratta delle relazioni tra gli elementi quando si passa dai
livelli bassi a quelli alti della gerarchia
2. il diverso peso cognitivo dei livelli
3. I meccanismi che permettono di mettere in relazione i diversi livelli

89
90

Per quanto riguarda la prima caratteristica: mentre gli elementi delle categorie di
livello più basso condividono moltissime caratteristiche, tanto da rendere talvolta
difficile distinguere i singoli elementi, a mano a mano che ci si innalza nella struttura
le caratteristiche condivise dei membri della categoria tendono a diminuire.
Alcuni studiosi hanno ipotizzato che la mente umana utilizzi un meccanismo di
bilanciamento fra quantità di informazione rappresentata e quantità di elaborazione
chiamato principio di economia cognitiva, secondo cui le proprietà dei concetti sono
rappresentati a livello più alto possibile della gerarchia e vengono recuperate quando
necessario attraverso processi inferenziali.
(Ad esempio l’informazione che il canarino “é giallo” verrà rappresentata a livello del
concetto stesso, ma l’informazione che “ha il becco” verrà rappresentata a livello
superiore “uccello”, perché è una proprietà condivisa dai membri di tale categoria e
allo stesso modo, la proprietà “respira” sarà rappresentata all’ulteriore livello
categoriale “animale” perché è condivisa dai membri di tale categoria e così via…
Questa proposta relativa all’organizzazione mentale delle conoscenze ci permette di
fare una previsione empirica molto diretta: dovrebbe richiedere meno tempo
decidere che è un canarino giallo rispetto a decidere che ha il becco e respira.
Per quanto riguarda la seconda caratteristica, (la salienza cognitiva) dei livelli
gerarchicamente ordinati ve n’é uno che è privilegiato dal punto di vista cognitivo,
che Rosch ha denominato livello di base.
(Esempio: se vedo in un parco una signora con al guinzaglio qualche cosa che non
riesco a vedere molto bene, molto probabilmente identificherò quell’elemento come
“cane” e non ad esempio come “bassotto” o come “animale” o come “essere
vivente”, alternative tutte possibili ma psicologicamente meno adeguate.
È proprio questo il livello di base, quello che fornisce l’entrata cognitivamente più
economica nella memoria semantica, quindi è il livello in cui in genere avviene
l’identificazione di un elemento a seguito dell’interazione fra informazioni senso-
motorie messe a disposizione dei meccanismi sensoriali e le conoscenze pregresse
rappresentate nella memoria a lungo termine. Tale identificazione potrebbe
avvenire, in via di principio, a uno qualsiasi fra i possibili livelli, dal più generale altri
specifico. Tuttavia il livello di base é cognitivamente saliente perché il livello in cui
vengono rappresentati gli attributi più distintivi. Infatti, a livello subordinato la
differenza negli attributi distintivi è molto piccola.
(Ad esempio, solo alcuni esperti sanno riconoscere i sottotipi di bassotti, e in genere, i
bassotti sembrano molto simili gli uni dagli altri. D’altro canto la differenza negli
attributi distintivi é grande ai livelli superordinati: sono pochi gli attributi che

90
91

caratterizzano tutti gli elementi di tali livelli, particolarmente, come abbiamo detto,
nell’ambito visuo-percettivo.
NOTA BENE: Questo non significa che sia impossibile identificare un elemento agli
altri livelli. (Ad esempio: se la signora nel parco ha al guinzaglio un Fox Terrier e un
bassotto, e io voglio riferirmi a solo uno dei due, una strategia comunicativa efficace
mi farà usare il termine Fox Terrier anziché il termine ambiguo “cane” ma in questo
caso il livello di identificazione e denominazione sono funzionali alla necessità di
identificare in maniera non ambigua uno dei due cani). É semplicemente una
questione situazionale che lo rende necessario.
Dunque il livello di base è quello che:
1. Gli adulti usano spontaneamente nelle loro descrizioni

2. Permette alle persone di elencare i facilmente gli attributi condivisi, poiché


abbiamo visto che a livello superordinato il numero di attributi comuni a tutti
gli elementi diminuisce
3. È associato a tempi di risposta più veloci in compiti in cui bisogna stabilire se
una data frase è vera o falsa (ad esempio: il cane è un animale oppure un
bassotto è un animale oppure un mammifero è un animale), e in compiti in cui
bisogna denominare delle figure.
4. Corrisponde al livello più generale rispetto al quale è possibile formarsi
un’immagine concreta dell’intera categoria
5. È acquisito per primo, nel senso che i bambini che imparano a parlare
imparano di solito prima le parole che si riferiscono a concetti di base, ad
esempio “cane“, rispetto a quelle che si riferiscono ai livelli sopra ordinati, ad
esempio animale, o sotto ordinati, ad esempio bassotto.
Relativamente all’interconnessione fra i diversi livelli e i legami fra concetti, è stato
proposto il meccanismo della diffusione dell’attivazione. Secondo questo principio,
quando un nodo concettuale viene attivato, l’attivazione non riguarda solo tale nodo.
Al contrario, si assume che l’attivazione si propaghi agli altri nodi in funzione del
tempo e della vicinanza. L’attivazione, dopo aver raggiunto un picco, decresce col
trascorrere del tempo e inoltre essa influenza in modo diverso i nodi a cui si propaga:
i nodi più vicini saranno maggiormente preattivati dei nodi più lontani. Ad esempio:
topo preattiva gatto in grado maggiore di quanto preattivi cane, animale più di essere
vivente, formaggio più di biscotti. Questo meccanismo permette di spiegare il
fenomeno del priming e riesce a tenere conto della natura dinamica dell’elaborazione
dei concetti.

91
92

La struttura interna delle categorie. Contributo di witten.


Per quanto riguarda la dimensione orizzontale, ovvero la rappresentazione interna a
ciascuno dei livelli che caratterizzano la struttura gerarchica, il modello di Rosch
identifica due aspetti rilevanti dal punto di vista cognitivo.
Il primo aspetto fa riferimento alla struttura sfuocata delle categorie.
Wittenstain parla di somiglianza di famiglia dei concetti: con questo intendiamo dire
che gli esemplari di un concetto non è possibile che abbiano tutte caratteristiche
identiche tra loro, ma è possibile invece che ne condividano soltanto alcune, e che di
conseguenza ci sia una somiglianza tra loro, a gradi diversi.
quindi non tutti gli esemplari di una categoria semantica hanno lo stesso grado di
appartenenza. Possiamo infatti definire elementi centrali quelli che condividono molti
attributi con gli esemplari di una certa categoria e pochi attributi con esemplari di
altre categorie. Possiamo definire invece elementi periferici, quelli che condividono
pochi attributi con gli esemplari di una data categoria e tendono a condividere
attributi con esemplari di altre categorie. Tra elementi centrali e periferici si
collocano tutti quegli esemplari che possiedono gradi intermedi di appartenenza ad
una categoria.
(Ad esempio: Per la categoria mammiferi, il cane e il daino sono esemplari centrali,
mentre la balena e il pipistrello sono esemplari periferici)
Introduciamo in questo modo il concetto di prototipo, che corrisponde ad un
membro di una categoria il quale si contraddistingue in quanto ha un valore medio
sulla maggior parte delle caratteristiche dei membri della categoria, rappresentando
in questo modo l’esemplare più indicato di quella categoria e che diventerà punto di
riferimento per gli altri esemplari: infatti quanto più questi ultimi saranno simili al
prototipo, tanto più centrali essi saranno rispetto alla categoria.
Il prototipo vene infatti spesso paragonato ad uno schema, nel quale vengono
rappresentati i valori delle variabili (ad esempio, nel caso degli oggetti, grandezza e
peso) che nel caso del prototipo corrispondono ad essere i valori medi di una
categoria. Però le categorie prototipiche hanno un punto di debolezza: le persone
infatti attribuiscono gradi diversi di appartenenza, anche a categorie ben definite. Ad
esempio: consideriamo i numeri pari. Esiste un criterio che permette di decidere
l’appartenenza categoriale, ovvero: “il numero é divisibile per due?”, e quindi non
dovrebbero esserci differenze di appartenenza per i diversi elementi della categoria: i
numeri 4 e 36 sono pari allo stesso modo. È stato scoperto però che le persone
tendono a giudicare 4 un miglior esemplare della categoria dei numeri pari rispetto a

92
93

36. Per questo si ritiene che tutte le categorie siano rappresentate in base a due
meccanismi: nucleo concettuale e la funzione di identificazione. Il nucleo concettuale
rappresenta tutti i criteri che devono necessariamente essere presenti affinchè venga
determinata un’appartenenza categoriale mentre la funzione di identificazione è
costituita dall’insieme di procedure che permettono di attribuire un certo elemento a
una certa categoria.
(Ad esempio: la categoria delle nonne è costituita da tutte le persone che sono
“genitrice di un genitore“ (nucleo concettuale) e comprenderà donne di età avanzata
con i capelli bianchi, dolci e affettuose. Pertanto, se incontriamo una signora con le
caratteristiche “età avanzata, con i capelli bianchi dolce affettuosa”, tendiamo a
inferire che sia una nonna, anche se possiamo incorrere in uno dei due possibili
errori: 1. non identificare come nonna una donna giovanile bionda // 2. oppure
identificare come nonna una donna di età avanzata con i capelli bianchi che però non
ha mai avuto figli.
cosa che ancora non abbiamo detto è che la funzione di identificazione opera a livello
probabilistico.
Quanto più la funzione di identificazione può basarsi su attributi condivisi, tanto
maggiore sarà la facilità con cui un elemento verrà identificato come appartenente
ad una categoria. Quanto meno condivisi sono gli attributi, più difficile e più lento
sarà il processo di categorizzazione.

Disturbi neuropsicologici e memoria semantica


Se la memoria semantica è strutturata in categorie, è possibile che una lesione
cerebrale produca un disturbo limitato ad una categoria e non ad altre? La risposta
sembra essere affermativa. Sono stati descritti i pazienti che presentano un disturbo
selettivo per diversi tipi di categoria e a diversi livelli di specificità. Ad esempio, alcuni
pazienti trovano difficoltà a definire i termini astratti. Tuttavia altri pazienti con
lesioni cerebrali forniscono delle definizioni adeguate per termini astratti come
solidarietà, ma non per parole con referenti concreti. Questa dissociazione, ovvero la
simmetria nella prestazione con concetti astratti e concreti è interpretata come
indicazione che nella mente umana le parole che si riferiscono a concetti concreti
sono rappresentati in modo distinto e funzionalmente separato dalle parole che si
riferiscono a concetti astratti. La memoria semantica dunque è un sistema di
rappresentazione umana riferito alle conoscenze linguistiche-simboliche ma deve
essere distinta anche fra il livello lessicale e il livello concettuale.
Inoltre esistono pazienti che hanno difficoltà a recuperare attributi e caratteristiche
degli esemplari della categoria degli esseri viventi ma hanno prestazioni buone
nell’uso di informazioni riguardanti gli artefatti. Ad esempio, nel disegno a memoria il
93
94

paziente può aggiungere le ali alla mucca o può affermare che la giraffa è un tipico
animale europeo, ma disegna adeguatamente un triciclo e afferma che la clessidra è
un orologio a sabbia composto da due contenitori comunicanti. Sono stati riportati
inoltre anche i casi di pazienti che mostrano un andamento opposto, cioè una
maggiore difficoltà con gli artefatti rispetto agli esemplari delle categorie naturali.
Questa doppia dissociazione permette di escludere che il disturbo evidenziato sia
imputabile al fatto che alcune categorie sono sempre e comunque più difficili, perché
intrinsecamente più complesse da elaborare rispetto ad altre. Inoltre sono stati
descritti disturbi anche più specifici, limitati ad esempio alla categoria della frutta o i
colori.
2.1 Il fenomeno della parola "sulla punta della lingua"
Il fenomeno della parola sulla punta della lingua è un fenomeno che colpisce la
nostra memoria semantica. Gli studi che riguardano tale effetto sono stati condotti
da Brown e McNeill per mezzo di un esperimento, nel quale chiedevano ad alcuni
soggetti di rievocare circa una cinquantina di parole a bassa frequenza, ciò che si
verificò durante questo esperimento è che la maggior parte dei soggetti pur
riuscendo a recuperare diversi aspetti della parola critica, come ad esempio la sua
iniziale, non erano in grado di pronunciarla. Talvolta i soggetti pronunciavano parole
simili a quella in oggetto pur essendo consapevoli di sbagliare, questo dimostra che
erano in grado di recuperare molte informazioni di quella parola prima di riuscire
effettivamente a rievocarla. Questa capacità di è stata definita utilizzando
l’espressione rievocazione generica. Secondo alcuni studi il fenomeno della parola
sulla punta della lingua si verificherebbe soprattutto in momenti di particolare stress.
Invece l’aspetto più curioso di questo fenomeno sembrerebbe essere che proprio
quando perdiamo le speranze e quindi non cerchiamo più di rievocare la parola
critica, questa spunterebbe all’improvviso. Questo è stato motivo di un ulteriore
interesse da parte degli psicologi i quali condussero un secondo esperimento nel
quale i soggetti venivano muniti di un diario, nel quale dovevano scrivere la parola
critica nelle successive quattro settimane qualora essa si ripresentasse. Al termine di
questo periodo il 95% delle paarole erano state rievocate, e nella maggior parte dei
casi la parola emergeva improvvisamente per mezzo di quello che definiamo
fenomeno di pop up. I dati dell’esperimento dimostrano anche che ci vuole più
tempo a trovare la parola sulla punta della lingua quando vi siano alternative
persistenti. → e cioè quando si presentano più e più volte alla nostra mente parole
scorrette. questo effetto può essere dovuto all’attivazione di parole alternative che
vanno ad interferire con la rievocazione della parola desiderata. Alcuni studiosi
ritengono che il fenomeno della parola sulla punta della lingua abbia luogo con parole
94
95

che non sono usate spesso o non sono state usate di recente, e che la connessione
tra il significato di una parola e la sua pronuncia possa essersi atrofizzata per effetto
del disuso.
Memoria semantica. La memoria semantica fa riferimento alle informazioni di
carattere generale che possediamo sul mondo. Tulving la paragona ad un dizionario
mentale che contiene parole, concetti e le loro relazioni. Sono stati sviluppati tre
diversi modelli della memoria semantica.
MODELLO A RETE GERARCHICA – (QUILLIAN)
il primo modello della memoria semantica è quello di Quillian e Collins, i quali si
erano proposti inzialnte di creare un programma per calcolatore (chiamato TLC) in
grado di capire il linguaggio naturale. Quest modello dal momento che connteneva
informazioni su concetti e le loro relazioni diventò anche un modello della memoria
semantica.
Il modello di Quillian e C. rappresenta la memoria semantica nei termini di una
grande rete gerarchica. La rete è costituita da tre tipi di elementi:
1) unità [si riferiscono a insiemi di oggetti e costituiscono i nodi della rete. I nodi
sono etichettati per mezzo di sostantivi (squalo, per esempio)]. In cima alla
rete abbiamo i nodi dal significato generico, le categorie sovraordinate, mentre
man mano che si scende nella rete riscontriamo le categorie subordinate.
2) le proprietà sono le caratteristiche funzionali delle unità, e sono etichettate per
mezzo di aggettivi o verbi (giallo o cantare]
3) puntatori [specificano le relazioni tra unità diverse e le relazioni tra le unità e le
proprietà (possono essere descritte per mezzo dei verbi essere, avere e potere)
In questo modello il recupero di informazioni dalla memoria semantica corrisponde
alla ricerca all’interno di una rete gerarchica: una forma semplice di ricerca, definita
feauture verification task, consiste nello stabilire il valore di verità di un enunciato
[Un pettirosso è un uccello(Vero o falso?)→per rispondere bisogna percorrere i vari
percorsi della rete per accertarvi se una relazione di questo tipo è presente nella rete
o meno. Se esiste, allora l’enunciato è vero. Il modello di Quillian implica che
maggiore è la distanza semantica (ossia la distanza tra i nodi utilizzati nella frase),
maggiore è il tempo impiegato dai soggetti per recuperare le informazioni
immagazzinate nel nodo superiore. Questo modello però non specifica chiaramente
la procedura necessaria per decidere che una frase è falsa. Quillian ha avanzato
l’ipotesi dell’interruzione condizionale, secondo cui la ricerca dovrebbe concludersi
quando emerge una contraddizione (esempio: se troviamo un percorso che va da –
95
96

orso polare- a –zampe-, allora questa informazione contraddice l’informazione


fornita dalla frase ‘Un orso polare ha le mani’. Quindi sono state effettuate
successivamente numerose ricerche che hano messo in luce dei limiti del modello di
quillians e collins. altri limiti riscontrati al modello sono: che alcuni elementi sono più
prototipici di altri; all’interno della rete non è presente il grado di associazione tra
due elementi, tutti gli elementi sono visti come appartenenti alla stesa categoria;
l’illusione di Mosè che si verifica quando i soggetti rispondono ad una domanda
nonostante sia presente in essa un errore. (esempio: quanti animali di ciascuna
specie portò con sé Mosè sull’arca? I soggetti rispondono due nonostante nessun
animale fu portato sull’arca da Mosè, in quanto era Noè)
MODELLO DELLA PROPAGAZIONE DELL’ATTIVAZIONE
il secondo modello della memoria semantica è il modello di Anderson della
propagazione dell’attivazione. Secondo questa nozione, durante la ricerca all’interno
di una rete gerarchica vengono attivati tutti i percorsi della rete lungo i quali la
ricerca si dispiega. L’attivazione si propaga dal nodo dove inizia la ricerca, si espande
prima ai nodi direttamente collegati al primo nodo, poi a tutti i nodi collegati a
ciascuno di essi e così via. Tanto maggiore è l’attivazione di un nodo, tanto più
facilmente la sua informazione può essere elaborata. Questa nozione può spiegare il
fenomeno della facilitazione(priming). Esperimento sul riconoscimento delle parole→
a dei soggetti sperimentali venivano presentati su uno schermo due punti
sovrapposti. Successivamente in corrispondenza del punto superiore compariva una
sequenza di lettere. Talvolta la sequenza di lettere formava una parola, talvolta una
non- parola. I soggetti dovevano decidere se la sequenza di lettere costituiva o meno
una parola. Poi, un’altra sequenza di lettere compariva in corrispondenza del punto
inferiore, anche qui il compito è lo stesso. Il risultato [che dimostra l’effetto di
facilitazione] di questo esperimento è che se la prima parola era semanticamente
associata alla seconda, allora il riconoscimento della seconda parola richiedeva un
tempo inferiore a quello necessario nel caso in cui la prima parola non fosse
semanticamente associata alla seconda. Il modello di propagazione dell’attivazione
spiega questo risultato perché tanto maggiore è la vicinanza tra i concetti, tanto più
facilmente l’attivazione si propaga da un concetto all’altro [es: BUS attiva più
velocemente CAMION rispetto a ALBA.]
ANDERSON E LA TEORIA ACT
La teoria della propagazione dell’attivazione fu poi integrata all’interno di un nuovo
modello proposto da Anderson, ovvero la Teoria di ACT [dove per ACT intendiamo
controllo adattivo del pensiero]. In questa teoria viene fatta un importante
distinzione tra memoria dichiarativa e procedurale.
96
97

La memoria dichiarativa riguarda le conoscenze fattuali contenute all’interno delle


reti semantiche. La memoria procedurale invece riguarda le nostre conoscenze
implicite a proposito di come fare qualcosa. In questa teoria la memoria procedurale
fa uso di regole di produzione caratterizzate da un condizionale e da un’azione ( Se…
allora). Nel modello di ACT, oltre a queste due memorie, vi è anche una memoria di
lavoro, la quale si trova continuamente in uno stato attivo, e ha il ruolo di mantenere
momentaneamente attive tutte le informazioni utili in quel momento. Gli eventi del
mondo esterno vengono quindi codificati e collocati nella memoria di lavoro, mentre
le informazioni rilevanti vengono recuperate dalla memoria dichiarativa. La
peculiarità di questo modello che lo differenzia dai precedenti è che le informazioni
all’interno della rete si presentano sotto forma di reti proposizionali. La proposizione
è l’unità di analisi più piccola che può essere giudicata in termini di vero o falso.
EFFETTO VENTAGLIO
è il fenomeno per cui maggiore è la conoscenza che un individuo possiede a
proposito di un concetto, maggiore sarà il tempo necessario per riconoscere
un’informazione che riguarda quel concetto all’interno delle reti semantiche.
Per alcuni critici però, la teoria di ACT spiega molto bene il funzionamento interno
della memoria, ma non è in grado di rendere conto in maniera adeguata delle
relazioni tra i processi cognitivi e il mondo esterno.
MODELLI CONNESSIONISTI DELLA MEMORIA
I sistemi connessionisti ritengono che l’informazione venga elaborata in parallelo e
assumono che l’informazione venga elaborata per mezzo delle interazioni tra un
ampio numero di unità elementari di elaborazione, ciascuna delle quali invia segnali
eccitatori o inibitori. I modelli connessionisti tentano di specificare le microstrutture
dei processi cognitivi, tentano quindi di specificare le modalità di funzionamento di
processi come la memoria. McClelland e Rumelhart hanno proposto un modello (per
il riconoscimento di sagome) per spiegare l’effetto esercitato dal contesto sulla
percezione di lettere. Nella parte inferiore del modello sono rappresentate le unità
corrispondenti alle caratteristiche di base delle lettere: un’unità viene attivata se la
caratteristica che essa rileva è presente all’interno dello stimolo. Le connessioni
(eccitatorie o inibitorie) tra le unità determinano quello che risulta essere il risultato
percettivo finale.
COME VIENE RECUPERATA L’INFORMAZIONE DALLA MEMORIA?
Secondo l’approccio connessionista, le copie di particolari esperienze non vengono
immagazzinate in memoria per mezzo di tracce di memoria. Viene invece ipotizzata
l’esistenza di unità per le esperienze individuali che sono connesse ad altre unità che

97
98

rappresentano le varie proprietà di un’esperienza. Va notato però che alcune


esperienze sono dotate delle stesse proprietà e ciò vuol dire che l’unità che
rappresenta una particolare proprietà tenderà ad essere connessa con ricordi
differenti. Ogni volta che una proprietà viene attivata, essa tenderà ad attivare tutti i
ricordi a cui è connessa.
Per facilitare la rievocazione di una particolare esperienza, il sistema deve quindi
possedere sia connessioni inibitorie sia eccitatorie tra le varie unità. Per dimostrare il
funzionamento di un sistema connessionista, McClelland propone un elenco di
individui insieme ad alcune loro proprietà [il nome, l’età, l’occupazione etc.] Al centro
vi sono le unità che rappresentano gli individui. Le unità che rappresentano le
proprietà sono raggruppate insieme e all’interno di questi raggruppamenti le unità
hanno rapporti reciproci di inibizione. In questo modo, un individuo non può essere
chiamato allo stesso tempo Matteo e Lance. Nel momento in cui udiamo il nome
Lance, l’unità corrispondente viene attivata. L’unità che rappresenta il nome Lance è
collegata ad un’altra che rappresenta l’individuo Lance. Questa unità a sua volta è
collegata a tutte le unità che rappresentano le proprietà possedute da Lance.
In questo tipo di modello di memoria, l’informazione riguardante ciascuna singola
esperienza corrisponde allo stato di attivazione del sistema in un dato momento. La
configurazione globale della forza della connessione determina cosa[quello che]
viene ricordato.
APPROCCIO ECOLOGICO ALLA MEMORIA
L’approccio ecologico intende studiare la memoria al di fuori della situazione
artificiale del laboratorio e intende quindi studiarla nel mondo reale.
BAHRICK E IL PERMASTORE
Uno studio che ha validità ecologica è quello eseguito da Bahrick sulla memoria a
lungo termine dell’apprendimento scolastico. Egli ha effettuato una ricerca
naturalistica del ricordo a lungo termine della lingua spagnola appresa a scuola→ 773
soggetti, alcuni dei quali stavano frequentando al momento del test dei corsi di
spagnolo all’interno del liceo o dell’università, altri invece avevano seguito corsi
precedenti al test[da 1 a 50 anni prima].
Risultati→ il livello assoluto della prestazione dei soggetti variava in base al numero
dei corsi seguiti e dei voti ottenuti. I punteggi erano tanto più grandi quanto più
grande era il numero di corsi seguiti. Inoltre si è notato che nei primi 3/6 anni dopo
l’interruzione dello studio dello spagnolo le conoscenze diminuivano
progressivamente. Dopo quel periodo, però, vi è un periodo di circa 25 anni in cui
non si riscontra alcun ulteriore degrado delle conoscenze.

98
99

In questo senso, Bahrick ha proposto l’esistenza di uno stato di memoria


relativamente permanente chiamato permastore. La qualità dei ricordi non peggiora
dopo che è passato un certo periodo di tempo, questi ricordi sono immagazzinati nel
permastore [capacità di andare in bicicletta è un esempio di ricordo immagazzinato
nel permastore].

Reti neurali. (apprendimento e memoria)


Le reti neurali artificiali, o anche conosciute in psicologia come modelli
connessionisti, sono dei sistemi di elaborazione dell’informazione. Si tratta di
programmi informatici ispirati al funzionamento del cervello e caratterizzati dalla
capacità di apprendere a svolgere compiti complessi.
Gli elementi di base di una rete neurale
Nel nostro cervello, una rete neurale è composta da un certo numero di neuroni i
quali agiscono e si influenzano a vicenda per mezzo di connessioni che li lega.
L’analogia più efficace per poter esplicare al meglio il funzionamento di un neurone é
sicuramente quella dei rilevatore di fumo che si trovano all’interno delle stanze di
hotel. Infatti allo stesso modo ciascun neurone rileva un insieme di condizioni e ciò
che viene rilevato viene poi trasmesso agli altri neuroni per mezzo della sua
frequenza di scarica. I neuroni artificiali possono essere anche chiamati per mezzo di
sinonimi quali “unità” o “nodo”. Si tratta di semplici modelli matematici caratterizzati
da uno stato di attivazione, il quale varia in funzione delle attivazioni dei neuroni dei
quali riceve (input). L’attivazione di un neurone formale è semplicemente un numero
reale, compreso tra zero e uno, oppure tra -1 e 1 (in quest’ultimo caso il valore
negativo significa che il neurone si trova in uno stato di inibizione). Il calcolo dello
stato di attivazione si dispiega in due fasi: la prima che prevede la somma di tutte le
attività ricevute dai neuroni collegati, chiamato calcolo dell’input totale, mentre la
seconda fase prevede il calcolo dello stato di attivazione finale del neurone. La
funzione più utilizzata è la Sigmoide, una funzione che ha la forma di una forma di
una S.
L’architettura
invece l’architettura delle reti neurali, è uno schema di connettività che corrisponde
al modo in cui neuroni sono collegati tra loro. La rete è inoltre organizzata in tre
strati. Abbiamo lo strato di input che è composto da quei neuroni i quali ricevono
l’input direttamente dall’ambiente; poi abbiamo lo strato di output composto da quei
neuroni che producono l’output finale. Infine, tutti i neuroni che non sono in contatto
con l’ambiente, quindi non di input o di output, sono chiamati unità nascoste.
99
100

Con il termine configurazione indichiamo lo stato di attivazione totale di tutte le unità


di uno strato.
L’influenza di un neurone su di un altro neurone avviene nei punti di giunzione tra le
due cellule, chiamate sinapsi. Però nelle reti neurali artificiali viene preso in
considerazione solo l’aspetto più importante della sinapsi, cioè la sua efficienza
(forza). Quindi, ogni connessione avrà un proprio peso sinaptico, cioè un valore che
indica la forza di quella connessione. Il peso può essere positivo, e quindi stabilire una
connessione di tipo eccitatorio. Oppure, al contrario, può essere negativo, e quindi
stabilire una connessione di tipo inibitorio. I pesi delle connessioni equivalgono alla
conoscenza contenuta all’interno della rete.
Esistono inoltre diversi schemi di connettività tra strati:
esistono alcune reti infatti che prevedono solo connessioni unidirezionali in avanti,
dallo strato di input → verso lo strato nascosto verso → lo strato di output.
Altre reti, quelle che definiamo come reti ricorrenti, hanno invece connessioni
bidirezionali, in cui l’attivazione può retrocedere dallo strato di output  verso
l’input.
Inoltre possono verificarsi anche connessioni intra-strato, cioè tra unità dello stesso
strato(connessioni laterali).
L’apprendimento nelle reti neurali. Algoritmi di apprendimento.
infine, ultimo elemento fondamentale all’interno di una rete neurale è la procedura
di apprendimento che consiste nel trovare l’insieme di pesi sinaptici che permettono
alla rete di svolgere un determinato compito. Prima del processo di apprendimento i
pesi sono praticamente azzerati, e quindi è come se la rete non sapesse fare nulla, e
fosse soltanto una sorta di tabula rasa e poi a seconda dell’input che riceve trova il
giusto equilibrio dei pesi per poter svolgere correttamente un compito.
secondo la regola di Hebb se due neuroni si attivano contemporaneamente più volte
allora, con il passare del tempo, si rafforza la loro efficacia sinaptica, e quindi non
appena uno dei due neuroni si attiva si attiverà automaticamente anche l’altro. negli
ultimi vent’anni si sono sviluppati numerosi algoritmi, che non sono altro che delle
istruzioni di apprendimento. Le tre principali sono:
1. Apprendimento supervisionato: lo scopo di questo tipo di apprendimento è che
quando si presenta un nuovo stimolo si deve produrre una risposta corretta ed
adeguata. La peculiarità di questo tipo di apprendimento è che nella fase di
apprendimento il sistema riceve anche l’output che si deve produrre: è come se fosse
presente una sorta di insegnante esterno. L’esempio più semplice per comprendere
100
101

questo tipo di apprendimento è quello di quando insegniamo ai bambini a leggere, ai


quali non solo mostriamo la forma scritta di una parola e quindi l’input, ma
contemporaneamente gli viene detto il suono che dovrà pronunciare, fornendogli in
questo modo l’output finale.
2. Apprendimento per auto-organizzazione: in questo caso il sistema non ha alcun
compito specifico da svolgere. Lo scopo di questo tipo di apprendimento non è altro
che creare una rappresentazione dell’input più complessa e informativa, cosicchè
potrà essere successivamente utilizzate a sostegno di ulteriori scopi, quali il
ragionamento, la decisione, la comunicazione. Ad esempio, questo tipo di
apprendimento riguarda la nostra capacità di costruire le categorie di oggetti a
partire dalla loro somiglianza fisica o concettuale
3. Apprendimento per rinforzo: questo tipo di apprendimento si occupa delle azioni
che hanno un effetto sul mondo, e che in quanto tali ottengono dei rinforzi o delle
punizioni. Lo scopo dell’apprendimento e di imparare a produrre dei comportamenti
corretti che massimizzino il rinforzo nel tempo. a differenza dell’apprendimento
supervisionato, non viene fornito l’output desiderato ma solo un’informazione sulla
bontà dell’output prodotto.
Per esemplificare ancora meglio il funzionamento dell’apprendimento prenderemo in
considerazione il tipo più semplice di rete neurale, un associatore di configurazioni,
dove appunto le unità di input sono collegate per mezzo di connessioni alle unità di
output e la rete deve imparare proprio a fare questo, associare ciascuna
configurazione di input con una determinata configurazione di output. Se prendiamo
in considerazione di nuovo l’esempio della lettura, il compito sarà quello di imparare
ad associare la forma scritta di una parola (le lettere che la compongono) con la
corrispondente forma fonologica (la sequenza di fonemi). Se la rete produce un
errore allora i pesi delle connessioni verranno modificati fino a quando non si ottiene
la risposta desiderata.
La sequenza di eventi avviene in questo modo:
1. Viene presentata alla rete una configurazione di input, attivando le corrispondenti
unità di input.
2. L’attivazione delle unità di input si propaga a quelle di output attraverso le
connessioni
3. Viene calcolata l’attivazione delle unità di output. Se la rete non ha ancora
imparato, l’output prodotto sarà completamente casuale e quindi errato.

101
102

4. La configurazione di output prodotta dalla rete, viene confrontata con la


configurazione di output desiderata (ovvero ciò che la rete deve imparare a produrre
in risposta).
La discrepanza tra le due configurazioni (calcolata per ogni unità di output) è il
segnale di errore che serve per la modifica dei pesi.
5. I pesi di ciascuna unità di output vengono modificati in modo proporzionale
all’errore
Questi passaggi verranno ripetuti fino a quando la rete non impara e l’errore si
azzera. Ciascuna configurazione deve essere però presentata più volte durante
l’apprendimento, perché la correzione dell’errore non può essere immediata ma
deve avvenire in modo lento e graduale. Infatti, cambiamenti troppo grandi dei pesi
renderebbero l’apprendimento instabile e stravolgerebbero le conoscenze
precedentemente apprese.
Questo è il più semplice tipo di apprendimento supervisionato prende il nome di
regola delta, perché la modifica dei pesi si basa sull’entità della differenza (delta) tra
output effettivi e output desiderati. Successivamente all’apprendimento, la rete sarà
in grado di produrre l’output corretto per ogni configurazione di input. Inoltre, la rete
dopo l’apprendimento sarà in grado di generalizzare, e quindi di utilizzare in modo
corretto ciò che ha appreso anche per altri problemi simili.
Reti neurali e memoria
È importante sottolineare che una rete non contiene una sorta di magazzino di
memoria e neppure una traccia per ogni configurazione a presa. I pesi delle
connessioni dopo l’apprendimento permettono alla rete di riprodurre semplicemente
lo stato di output appropriato per un certo input. In questo senso, abbiamo una
memoria di tipo ricostruttivo. Si tratta comunque di memoria lungo termine, perché i
pesi delle connessioni non si cancellano e si modificano gradualmente solo se c’è
ulteriore apprendimento. Al contrario, l’attivazione delle unità della rete è un
fenomeno temporaneo: è specifico per lo stimolo presentato in input e si esaurisce
con la sua scomparsa. Tuttavia, se l’attivazione non cessa bruscamente, è possibile
che l’attivazione residua influenzi l’elaborazione dello stimolo successivo: questo
processo è alla base di molti fenomeni di priming.
Per cui, i pesi delle connessioni rappresentano la conoscenza a lungo termine è
contenuta in una rete neurale, mentre lo stato di attivazione delle sue unità
rappresentano le informazioni specifiche presenti in un determinato istante di
tempo, che decadono rapidamente alla scomparsa dello stimolo ma che, se

102
103

necessario possono essere mantenute temporaneamente attive (memoria breve


termine).
Fino a che punto le reti neurali artificiali rappresentano un buon modello della
memoria umana? La capacità di memorizzare informazioni è una caratteristica
necessaria ma non sufficiente affinché un sistema artificiale sia considerato tale. È
fondamentale quindi un confronto sia qualitativo che quantitativo tra reti neurali e
soggetti umani: in particolare é possibile far eseguire una rete gli stessi esperimenti
psicologici sulla memoria fatti eseguire a soggetti umani e confrontarne i risultati.
Due sistemi complementari di apprendimento e memoria
Un importante vincolo che ci viene fornito dagli studi sulla memoria umana riguarda il
modo in cui l’apprendimento di materiale nuovo interferisce con quanto già appreso.
Un classico esempio di questo tipo di interferenza si trova nel compito di
apprendimento associativo AB-AC. La lettera A rappresenta un insieme di parole
associate con due diversi insiemi di altre parole, B e C. Ad esempio, la parola “cane”
sarà associata con la parola “sole” nella lista AB e con la parola treno nella lista AC. I
partecipanti dell’esperimento, dopo aver studiato la lista AB, di coppie associate,
devono rievocare la parola B appropriata per ogni parola A. In seguito i partecipanti
studiano la lista AC e successivamente vengono interrogati su entrambe le liste, AB e
AC per la rievocazione delle parole associate. I risultati dimostrano che i partecipanti
tendono a ricordare peggio gli elementi della lista AB, appresi inizialmente, in
funzione dell’apprendimento degli elementi della lista AC. Questo dimostra
l’esistenza di un’interferenza delle associazioni apprese successivamente su quelle
apprese per prime.
È possibile ripetere questo esperimento attraverso la procedura appena descritta,
utilizzando come soggetto una rete neurale. Tutto procede bene nell’apprendimento
della lista AB. Quando si passa però all’apprendimento di AC si osserva che la
prestazione della rete é molto diversa da quella dei soggetti umani: l’interferenza è
molto più grande per la rete, addirittura catastrofica, nel senso che la prestazione
sulla lista AB dopo l’apprendimento di accise avvicina a zero.
Le cause di questo fenomeno riguardano il fatto che due fattori influiscono
sull’interferenza dell’apprendimento associativo in una rete neurale: il grado di
sovrapposizione delle rappresentazioni e il tasso di apprendimento, ovvero la rapidità
di apprendimento. Si parla di rappresentazioni sovrapposte quando alcune unità della
rete sono condivise dalla presentazione di stimoli diversi. Ad esempio, possiamo
immaginare che ci saranno unità condivise tra stimoli appartenenti alle liste AB e AC,
dato che le due liste condividono lo stesso elemento (A). Quindi i pesi utilizzati per
codificare la prima associazione sono disturbati dalla codifica della seconda, e questo
103
104

disturbo crea l’interferenza. Naturalmente, se si usassero rappresentazioni


interamente separate non ci sarebbe alcuna interferenza. Il tasso di apprendimento si
riferisce invece a quanto grandi possono essere i cambiamenti dei pesi delle
connessioni durante l’apprendimento. Più grande é il cambiamento, maggiore sarà
l’interferenza. D’altra parte, un tasso di apprendimento elevato é necessario per un
apprendimento rapido.
Interferenza e integrazione
Prima di parlare di interferenza, è utile considerare il suo posto, ovvero
l’integrazione. Integrare molte esperienze significa estrarre le irregolarità presenti
nell’ambiente. Questo processo è alla base della nostra capacità di generalizzare e di
compiere inferenze. Un tasso di apprendimento lento permette il processo di
integrazione. Evitare l’interferenza e ottenere integrazione delle conoscenze sono
due processi incompatibili, ma anche riconducibili a due diversi aspetti della
memoria:
1. Evitare l’interferenza è essenziale per la memoria episodica, che richiede un rapido
apprendimento dei dettagli specifici eventi, tenendoli separati da quelli di altri eventi.
Nelle reti neurali si può evitare l’interferenza utilizzando rappresentazioni separate e
un tasso di apprendimento rapido.
2. Integrare esperienze diverse e essenziale per costruire una conoscenza generale
della struttura dell’ambiente, astraendo dalla specificità dei singoli eventi per
permettere la generalizzazione a situazioni nuove. Nelle reti neurali si può ottenere
l’integrazione utilizzando rappresentazioni sovrapposte e un tasso di apprendimento
lento. Questa incompatibilità di funzioni può essere risolta utilizzando due sistemi
diversi.

Memorie non coscienti. Priming subliminale.


Il fenomeno del priming subliminale viene citato a proposito delle memorie non
coscienti e a partire da una leggenda che riguarda una famosa bibita, ovvero la coca
cola. In questa leggenda viene narrato di una scelta di marketing messa in atto
dall’azienda coca-cola in modo da poter incrementare le vendite della bevanda.
L’azienda decise infatti di mostrare solo per pochi millesimi di secondi l’immagine
della propria bibita all’intero di un film al cinema. Si verificò a questo punto una
reazione alquanto curiosa, e cioè che gli spettatori durante la visione del film pur non
essendosi resi conto in forma cosciente dell’apparizione della bevanda, quando si
recarono al distributore per acquistare una bibita pare che la maggior parte di loro

104
105

scelse proprio di bere la coca-cola mentre soltanto una piccola minoranza decise di
prendere altri tipi di bevande. Questo dimostrerebbe che ci sono degli stimoli che
influenzano il nostro comportamento in forma non cosciente, ma la difficoltà da
parte degli psicologi nel comprendere se questa storia sia convincente o meno deriva
proprio dal fatto che anche se questo dato, subito dopo aver letto della leggenda,
sembra essere davvero eclatante e convincente in realtà non c’è nulla che confermi il
fatto che gli spettatori anche se non avessero visto per pochi millesimi di secondi la
bottiglia non avrebbero fatto ugualmente la stessa scelta. Quindi per capire se il
nostro comportamento potesse essere effettivamente influenzato da stimoli non
coscienti c’era il bisogno di sviluppare un vero e proprio paradigma sperimentale che
confermasse scientificamente questa tesi, quindi fu sviluppato il cosiddetto
paradigma del priming subliminale, proprio per affrontare casi di questo tipo in
laboratorio. Viene utilizzato il termine subliminale proprio per fare riferimento al
fatto che alcuni simboli che verranno poi utilizzati in questo tipo di esperimenti
risulteranno essere stimoli non coscienti.
Il paradigma prevede la presenza di due eventi che si susseguono. Quindi al soggetto
sperimentale, che si trovava in una stanza insonorizzata veniva presentato per pochi
millesimi di secondi su di uno schermo un’immagine chiave del primo evento (es.
figura di un osso), questo stimolo è definito stimolo prime, ed è preceduto o seguito
da altre figure prive di senso con lo scopo di occultare lo stimolo prime.
Successivamente, dopo un intervallo di tempo che non sempre era lo stesso, veniva
presentata senza particolari limiti di tempo, la figura chiave del secondo evento ( es.
un cane), definito stimolo target. Lo stimolo prime veniva presentato al soggetto in
forma inconsapevole quindi senza essere informato, e quando invece gli veniva
presentata la figura target egli doveva pronunciare nel minor tempo possibile il nome
o la categoria rappresentata dalla figura. Il tempo che intercorreva tra lo stimolo
target e la risposta del soggetto rappresenta la variabile dipendente
dell’esperimento. Mentre la variabile indipendente è costituita dalla relazione
concettuale che esiste tra stimolo prime e stimolo target. I risultati rivelano che i
tempi di reazione sono più brevi quando gli stimoli target sono preceduti da stimoli
prime concettualmente associati (osso – cane sono concettualmente associati),
mentre al contrario sono più lunghi se non sussiste nessun tipo di relazione
concettuale tra le immagini.

evento 1
evento 2

105
106

TEMPO

Però per capire se effettivamente lo stimolo prime non era stato assimilato in forma
cosciente venne proposto un test di riconoscimento: dove appunto al soggetto
veniva nuovamente esposta l’intera sequenza di stimoli che aveva visto durante
l’esperimento e gli veniva richiesto di identificare gli stimoli prime, e dato che i
partecipanti non riuscivano a riconoscerli possiamo affermare che gli esperimenti di
priming subliminale costituiscono la dimostrazione oggettiva che il nostro
comportamento viene involontariamente influenzato da stimoli di cui non siamo
coscienti.
Per poter spiegare questo effetto gli psicologi hanno preso in esame quelle funzioni
della memoria che sono coinvolte nell’elaborazione di quelli che sono gli stimoli visivi
e in questo caso sono tre:

1) non appena lo stimolo si presenta sullo schermo si crea immediatamente una


rappresentazione sensoriale all’interno della nostra memoria iconica, una sorta
quindi di fotografia mentale dello stimolo, soggetta ad interferenza e
soprattutto di brevissima durata
2) successivamente questa rappresentazione subisce poi un ulteriore
elaborazione, cosi da poter trattenere lo stimolo visivo all’interno della
memoria di lavoro o memoria a breve termine per più tempo possibile,
cercando di evitare di perdere informazioni. questo processo è definito
processo di consolidamento, che è un processo che viene attivato
volontariamente da noi individui, in caso contrario infatti il consolidamento
all’interno della memoria breve termine non avviene
3) però affinchè uno stimolo venga percepito in forma cosciente è necessario che
ne esista una sua rappresentazione nella nostra MBT, e da solo il processo di
consolidamento non è in grado di farlo. Quindi se lo stimolo rappresenta per
noi un concetto familiare allora la rappresentazione sensoriale DALLA
MEMORIA ICONICA riesce ad essere trasferita nella nostra MLT. Questo è un
106
107

processo che avviene involontariamente dovuto all’attivazione degli aspetti


semantici legati allo stimolo a noi familiare.
La brevissima durata dello stimolo prime seppure di pochi millesimi di secondi, è
comunque sufficiente a dare il via al processo di trasferimento delle informazioni
concettuali legate allo stimolo visivo nella memoria a lungo termine. In
particolare, prendendo in riferimento l’esempio precedente osso/cane subito
dopo la presentazione dello stimolo prime “osso”, viene attivato in memoria a
lungo termine il concetto “osso”, e inoltre, per mezzo della propagazione
dell’attivazione, anche una serie di concetti associati a “osso” (come cane, ad
esempio).
infine lo stimolo prime non può essere cosciente perché non ne viene consolidata
la relativa rappresentazione sensoriale.

Apprendimento
Per parlare di apprendimento è necessario fare riferimento ad un approccio teorico
chiamato comportamentismo il quale definisce l’apprendimento come l’insieme dei
cambiamenti osservabili nel comportamento di un individuo in seguito a dei
cambiamenti prodotti dalle circostanze in cui l’individuo si trova.
La teoria comportamentista si basa sul presupposto che solo ciò che è osservabile
può essere studiato, e di conseguenza solo il comportamento esterno (osservabile) di
un individuo può essere studiato, mentre il contenuto della sua mente e cioè i suoi
processi cognitivi non possono essere oggetto di indagine scientifica.
Il condizionamento classico
Le teorie comportamentiste nel condizionamento classico definiscono
l’apprendimento come la comparsa di un nuovo comportamento, semplice o
complesso che sia, che prima non esisteva e che poi persiste nel tempo.
Secondo il condizionamento classico le due condizioni necessarie affinché si crei
un’associazione tra stimolo e risposta sono la contiguità temporale tra le variabili e il
fatto che la connessione tra queste variabili venga ripetuta un numero sufficiente di
volte affinchè si mantenga nel tempo.
A riprova di ciò, Pavlov, condusse degli esperimenti studiando i processi digestivi di
cane, e cioè misurò la salivazione del cane in risposta a vari tipi di stimolazione
gustativa. Cosi scoprì che in realtà l’animale iniziava a salivare già alla sola vista dello
sperimentatore e quindi anche prima di ricevere la polvere di carne sulla lingua. A
questo punto si chiese, quindi, se fosse la vista dello sperimentatore a indurre la

107
108

salivazione. Per capirlo Pavlov decise di presentare al cane in maniera simultanea uno
stimolo neutro (SN), in questo caso si tratta di uno stimolo sonoro (il suono di un
campanello) insieme ad uno stimolo incondizionato (SI) che produceva appunto la
salivazione in maniera spontanea (la polvere di carne). La salivazione così indotta
viene chiamata risposta incondizionata (RI).
Lo scopo dell’esperimento era stabilire se, dopo un certo numero di volte che i due
stimoli venivano presentati simultaneamente, l’animale iniziasse a salivare anche con
il solo suono del campanello e in effetti, questo si verificò. Tale fenomeno fu spiegato
da Pavlov grazie allo stabilirsi di un’associazione tra lo stimolo (inizialmente neutro) e
la risposta di salivazione (inizialmente non condizionata). Tale procedura di
associazione, è stata poi definita di condizionamento.
Il condizionamento classico si è rivelato importante in quanto le connessioni tra
stimolo e risposta sono risultate poi spesso regolari nel tempo. Distinguiamo infatti
tre tipi di processi:
❖ il primo è il processo di rafforzamento, ovvero maggiore è la frequenza con cui
accoppiamo uno stimolo condizionato, stimolo incondizionato e risposta
condizionata, maggiore è la regolarità con cui si verificano le risposte
condizionate.
❖ Se invece lo stimolo incondizionato viene omesso ripetutamente, allora la
risposta condizionata tende a sparire (processo di estinzione).
❖ Però, l’estinzione non comporta la totale perdita di una risposta condizionata,
in quanto questa tenderà, dopo un certo periodo di tempo, a riapparire
spontaneamente (processo di recupero spontaneo).
Condizionamento classico e risposte emotive. Garsia.
il condizionamento classico inoltre permette di spiegare anche alcune manifestazioni
emotive nell’uomo. A tal proposito è noto l’esperimento del bambino Albert, il quale
cerca di afferrare un topolino bianco senza mostrare, inizialmente paura. Quando
però il bambino veniva spaventato ripetutamente da un forte rumore mentre giocava
col topolino (la coppia stimolo-rumore veniva ripetuta), Albert iniziava a manifestare
paura alla sola vista del topo bianco anche senza rumore. Secondo la teoria
comportamentista, molte forme fobiche nell’uomo nascono per mezzo di meccanismi
automatici come questo.
I riflessi condizionati hanno come peculiarità un forte valore adattivo. Un esempio è il
così detto effetto Garsia, cioè il processo attraverso il quale un individuo acquisisce
una certa avversione nei confronti di undato sapore. In questo caso è sufficiente
assumere del cibo avvelenato perché si instauri un’immediata avversione con esso, in

108
109

quanto va a crearsi un’associazione tra lo stato di malessere successivo all’assunzione


di cibo.
Il condizionamento operante
Un altro punto di vista che proviene sempre dal comportamentismo e che riguarda
l’apprendimento è il condizionamento operante. Nell’ambito dello studio di
quest’ultimo Thorndike propose la legge dell’effetto la quale afferma che lo stabilirsi
e il rafforzarsi delle connessioni tra stimolo e risposta non sono solo il risultato della
loro contiguità temporale, ma dipendono soprattutto dagli effetti che scaturiscono
dalla risposta.
Thorndike era famoso per i suoi esperimenti con i gatti e a tal proposito collocò un
gatto affamato all’interno di una gabbia la quale poteva essere aperta soltanto per
mezzo di una pressione esercitata sulla leva di chiusura, e se ciò avveniva l’animale
poteva uscire dalla gabbia e raggiungere il cibo. Mentre era nella gabbia il gatto
metteva in atto una serie di comportamenti, tra i quali quelli che casualmente
permetteva l’apertura della porta oltre la quale si trovava il cibo. Thorndike aveva
osservato che dopo la prima volta che era riuscito ad uscirne, il gatto apriva la gabbia
con sempre maggiore frequenza e rapidità. Questo comportamento veniva spiegato
da Thorndike in base a due principi:
1. L’apprendimento avveniva per mezzo di prove ed errori (cioè il gatto metteva in
atto numerosi comportamenti che non portavano all’apertura della gabbia finché per
caso non produceva il comportamento che portava all’apertura della gabbia).
2. La legge dell’effetto (un comportamento viene appreso e si stabilizza solo se la
risposta produce un certo effetto sull’ambiente e sull’individuo.

Il principio base è comunque ancora lo stabilirsi di una connessione tra stimolo (la
leva) e risposta (agire sulla leva) ma la connessione si stabilisce solo se si stabilisce
anche un’associazione tra la risposta e l’effetto che da essa consegue.
Skinner invece dedicò i suoi studi nei confronti di quei comportamenti che sono
messi in atto pur non essendo condizionati da alcuno stimolo. (Esempio: quando
suona il campanello e vai ad aprire la porta, non metti in atto un comportamento
(aprire la porta) che è condizionato allo stimolo (il suono del campanello), perché
puoi o non puoi aprire la porta. Il suono del campanello è considerato stimolo
discriminativo: é quel qualcosa presente nell'ambiente che ci "suggerisce" che se ci
comportiamo in un certo modo possiamo produrre un effetto attraverso un

109
110

comportamento operante (aprire la porta) che agisce sull’ambiente.


L’associazione si stabilisce tra la risposta e la conseguenza della risposta.
Esempio:
Un topo viene messo in una scatola in cui è presente una leva. Il premere la leva ha
come conseguenza un evento positivo, quindi una ricompensa, (ad esempio
l’erogazione di cibo oppure l’interruzione di una scossa elettrica), oppure un evento
negativo, quindi una punizione (ad esempio la somministrazione di una scossa
elettrica). L’animale è abituato a mangiare nella zona della gabbia dove, al premere
della leva, apparirà il cibo e viene messo nella gabbia affamato, però libero di
muoversi e di agire. Nel giro di una decina di minuti, si osserva che l’animale, tra i vari
comportamento che mette in atto, preme la leva e ottiene una fazione di cibo.
L’azione del premere la leva, inizialmente casuale, diventa man mano sempre più
frequente perchè essa ha una conseguenza positiva. Ciò non accade nel caso in cui
l’agire sulla leva non dia mai l’erogazione di cibo. In quel caso la leva viene
ugualmente premuta, ma sempre in modo totalmente casuale e non più
frequentemente rispetto ad altri comportamenti come ad esempio correre avanti e
indietro o mordere le sbarre.
(RINFORZO.)
Il rinforzo: si tratta di una conseguenza positiva scaturita da un dato comportamento
che produce per questo motivo l’aumento della frequenza di quel comportamento.
I rinforzi possono essere di due tipi, rinforzi positivi o negativi.
Positivi= vengono aggiunti alla situazione
Negativi= vengono eliminati dalla situazione
in ogni caso la conseguenza del comportamento è sempre positiva.
Dobbiamo però stare attenti a non confondere il concetto di rinforzo negativo da
quello di punizione:
in quanto i primi sono dovuti all’eliminazione di una situazione sgradevole (ad
esempio: interrompere scossa elettrica), mentre la punizione è costituita dalla
realizzazione di una situazione sgradevole (ad esempio: somministrare una scossa
elettrica) allo scopo NON di aumentare (come il rinforzo), ma di diminuire la
frequenza di un dato comportamento.
I rinforzi inoltre possono essere suddivisi in rinforzi primari o secondari.
Rinforzi primari: riguardano quegli eventi che soddisfano i bisogni primari
dell’individuo, uomo o animale, come la fame, la sete, il sonno ecc.
Rinforzi secondari: al contrario riguardano quegli eventi che soddisfano i bisogni non
primari, ma che vengono utilizzati come mezzo per raggiungere i rinforzi primari.
110
111

quindi questi ultimi garantiscono la gratificazione ma non la producono in modo


diretto (i soldi nella vita).

Skinner inoltre si interessò alle differenti modalità di accoppiamento


comportamento-rinforzo, e scoprì l’esistenza di altri due tipi di rinforzo:
❖ un rinforzo continuo rapido nell’apprendimento ma anche nell’estinzione di un
dato comportamento. (come quello che si determinava quando il cibo veniva
erogato ogni volta che il topo premeva la leva) (Quando L’agire sulla leva non
dava più cibo, l’animale smetteva progressivamente di premere la leva).
❖ Un rinforzo parziale è invece più indicato a mantenere un determinato
comportamento appreso nel tempo (che si determina nei casi in cui non viene
sempre fornito cibo all’animale che agisce sulla leva).
Esiste poi il rinforzo ad intervalli fissi o variabili e la differenza tra i due si riferisce alla
distribuzione dei rinforzi nel tempo. Se la distribuzione del rinforzo è regolare nel
tempo e quindi ad esempio il topo riceve cibo (rinforzo) ogni 3 minuti esatti,
riscontriamo un rinforzo ad intervalli fissi. Se invece l’intervallo di tempo non è
regolare e varia di continuo, si tratta di intervalli variabili).
ciascuno dei due ha un diverso effetto sull’apprendimento. Il primo quello ad
intervalli fissi, produce risposte più frequenti man mano che si avvicina il momento in
cui verrà fornito il rinforzo e dopo averlo ricevuto la frequenza diminuisce, quello ad
intervalli variabili, produce comportamenti costanti nel tempo ed è infatti quello
risultato più efficace all’estinzione nel tempo.
Condizionamento operante e apprendimenti complessi: l’apprendimento verbale
Secondo Skinner, il linguaggio è un insieme complesso di risposte operanti create in
un bambino da genitori, insegnanti ecc..
(Esempio: un bambino impara a chiamare gatto i gatti che incontra, ossia impara a
riconoscere una classe di oggetti. Quando in un’occasione qualunque bambino vede
un gatto, il gatto rappresenta lo stimolo discriminatore che controlla l’emissione della
parola gatto. Se il bambino dice gatto, questo comportamento viene rinforzato dal
comportamento dei genitori in risposta alla parola. Se il bambino dice gatto in
presenza di uno stimolo inappropriato (ad esempio, un cane), i genitori in risposta
correggono il bambino e non rinforzano questo comportamento verbale. Dunque,
attraverso l’interazione tra stimolo discriminativi (oggetti) e rinforzi il bambino
impara ad associare la giusta etichetta verbale agli oggetti.
Skinner cercò di applicare questo metodo anche a comportamenti complessi come la
produzione di frasi. Tale proposta fu criticata da Chomsky, secondo il quale lo

111
112

sviluppo del linguaggio possiede delle caratteristiche che non possono essere
spiegate utilizzando la teoria del comportamento operante. Una di tali caratteristiche
è l’uso di ipercorrettismi, ossia l’uso di forme errate che però seguono l’uso una
regola di base non arbitraria (esempio: la coniugazione dei verbi irregolari al
presente= dicete anziché dite, o al passato dicerono anziché dissero). Una seconda
caratteristica riguarda la possibilità di creare un numero infinito di frasi, che non sono
mai state incontrate in precedenza.
Gli studi sul condizionamento classico ed operante si limitano ad esaminare la
relazione tra ambiente e comportamento e quindi non spiegano quali siano i processi
responsabili dell’apprendimento.
Secondo le teorie meccanicistiche, nel condizionamento l’apprendimento avviene per
mezzo di una connessione che si stabilisce tra stimolo e risposta, una risposta
automatica che si manifesta come un riflesso ad uno stimolo. Le teorie cognitiviste,
invece, ritengono che l’apprendimento non si manifesta necessariamente nell’ambito
dei comportamenti osservabili, ma su quello delle rappresentazioni mentali. un
esempio la chiusura degli occhi non avviene in modo automatico, immediato e in
riflesso della mano che sta per colpirci, ma dalla rappresentazione mentale della
relazione tra la mano e quello che può accadere quando la mano colpisce.
L’apprendimento per segnali
Tolman (cognitivista) condusse degli esperimenti, e notò come un’animale
apprendeva nel momento in cui si creava una rappresentazione mentale di una certa
situazione la quale guidava poi l’azione. Questa forma di apprendimento viene
considerata come l’apprendimento di un’aspettativa. Ad esempio: l’animale capisce
che il cibo, si trova sempre in una determinata postazione, perché quello è il luogo in
cui l’ha sempre trovato, quindi se il cane si reca in quel luogo e il cibo non c’è mostra
sorpresa. La sorpresa è segno della non corrispondenza tra ciò che l’animale si
aspettava di trovare e ciò che ha effettivamente trovato. Esempi come questo ci
fanno capire che si deve creare una rappresentazione mentale della situazione, una
rappresentazione mentale del tipo “nel luogo A c’è l’oggetto X” e poi da questa
rappresentazione ne scaturisce l’azione.
questo tipo di apprendimento è definito apprendimento latente, ovvero un tipo di
apprendimento che attraverso l’esperienza ci permette di costruire nuove strutture
cognitive, come ad esempio una mappa mentale di un luogo nuovo. L’esperienza
quindi ci aiuta a creare una nuova struttura mentale che abbia sia informazioni
spaziali ma anche informazioni di diversa natura. Quindi secondo la teoria cognitivista
la nascita di un comportamento osservabile è dovuta principalmente all’attivazione di
processi di conoscenza che non sono direttamente visibili. Al comportamento
112
113

osservabile che indica che l’apprendimento è andato a buon fine, è necessario che ci
sia anche una modifica dei processi di conoscenza che non sono osservabili, ma che
sono invece responsabili di quel comportamento osservabile.
Secondo Rescorla nel condizionamento classico l’individuo deve prima ricevere
informazione affinché ci sia apprendimento. Di conseguenza, l’apprendimento non
può essere considerato come un semplice processo in cui il controllo di una risposta
viene passato da uno stimolo all’altro, ma un processo che richiede l’intervento di
processi cognitivi di acquisizione e rappresentazione delle conoscenze. Per sostenere
la sua ipotesi, Rescorla condusse esperimenti in cui dimostrò che un animale sviluppa
una risposta di paura ad uno stimolo neutro (suono) solo nel caso in cui apprenda che
quello stimolo predice, la somministrazione di una scossa elettrica (esperimento pag
184, libro psicologia generale).
I risultati: dimostrano che non è necessario che ci sia contiguità temporale tra stimolo
neutro e stimolo incondizionato (come nel condizionamento classico), e allo stesso
tempo non è rilevante il numero di volte in cui la scossa sia preceduta dal suono, e
che assenza di suono implichi in modo inequivocabile assenza di scossa. Dunque
l’esperimento misura che gli animali si creavano una rappresentazione della
associazione tra i due stimoli, ossia un’aspettativa.
RAGIONAMENTO.
Il ragionamento è stato definito come un’attività mentale che sottopone a delle
trasformazioni l’informazione data (ovvero un insieme di premesse) così da poter
giungere a delle conclusioni. Anche il letteratura è stata data una definizione a questo
termine e corrisponde alla facoltà del nostro sistema cognitivo di generare delle
nuove rappresentazioni a partire da altre che abbiamo già in memoria. Quindi
quando ragioniamo non facciamo altro che creare contenuti nuovi partendo da altri
già esistenti.
Quando parliamo di un tipo di ragionamento che prevede l’utilizzo di premesse per
poter giungere a delle conclusioni, le due modalità più importanti sono il
ragionamento deduttivo e quello induttivo.
L’esempio emblematico e soprattutto più conosciuto per quanto riguarda il
ragionamento deduttivo è sicuramente il sillogismo aristotelico, dove appunto
riscontriamo due premesse, la prima è universale, la seconda invece è particolare,
ed entrambe sono affermative: “tutti gli uomini sono mortali, Socrate è un uomo” e
la conclusione a questo punto sarà necessariamente vera, cioè che “Socrate è
mortale”.

113
114

Il ragionamento deduttivo quindi parte da due o più premesse generali, quindi parte
dal generale, per giungere poi a delle conclusioni che sono particolari ma vere.
Quindi se le premesse sono vere e la modalità inferenziale, (cioè la modalità di
raggiungimento della conclusione a partire dalle premesse) è corretta dal punto di
vista formale allora le conclusioni sono necessariamente vere.
Al contrario invece il ragionamento induttivo segue un percorso opposto, e cioè
parte da premesse particolari per raggiungere a conclusioni generali. Quindi se la
premessa è ” tutti i cigni che io ho incontrato nella mia vita sono bianchi, raggiungo
induttivamente la conclusione che tutti i cigni sono bianchi”. Quindi in questo caso si
parte dal particolare e si arriva a conclusioni generali. Le conclusioni tratte dal
ragionamento induttivo non hanno il carattere di necessità delle conclusioni del
ragionamento deduttivo, ma hanno un carattere probabilistico e fallibile, il fatto che
io ho incontrato soltanto cigni bianchi non significa necessariamente che tutti i cigni
siano bianchi, probabilmente innalza la probabilità che questo sia vero.

Ragionamento sillogistico (iqos)


I sillogismi sono costituiti da due premesse e da una conclusione. Entrambe le
premesse specificano una relazione tra due categorie, per questo il ragionamento
sillogistico viene talvolta chiamato ragionamento categorico.
Ciascuna delle premesse può assumere una delle quattro seguenti forme:
1. universale affermativa: del tipo “tutti gli A sono B”, “tutti i gatti sono animali”,
quindi sono proposizioni universali perché riguardano tutti gli appartenenti ad una
determinata categoria, ed è affermativa perché afferma l’appartenenza categoriale
degli elementi A alla categorie B. Se volessimo rappresentare con dei diagrammi di
Ven, potremmo dire che le due categorie coincidono oppure che una è un
sottoinsieme dell’altra. Quindi fanno parte delle universali affermative sia
proposizioni del tipo “tutti gli angoli di 90 gradi sono angoli retti”, dove il primo e il
secondo elemento sono coestensivi, cioè coincidono l’uno con l’altro, oppure l’uno è
un sottoinsieme dell’altro come nel caso di “tutti i gatti sono animali”. Quindi in
questo caso dovremmo rappresentare due cerchi rappresentanti i due insiemi, uno
dei quali è inserito nell’altro, cioè l’insieme dei gatti è un sottoinsieme della
categoria più ampia degli animali.
2. Universali negative. del tipo “nessun A è B”. In questo caso abbiamo degli insiemi
disgiunti, rappresentati in due cerchi indipendenti l’uno dall’altro, quindi “nessun
insetto è un mammifero”. Caratteristica fondamentale delle universali negative è

114
115

che anche le loro converse sono vere, ovvero se nessun insetto è un mammifero, è
altrettanto vero che nessun mammifero è un insetto. Questa è la differenza con le
universali affermative.
3. Particolari affermative del tipo “Alcuni A sono B”, quindi “alcuni ragazzi sono
giocatori di calcio”. In questo caso rappresentando in termini insiemistici questo tipo
di proposizioni abbiamo un disegno con due insiemi che hanno un’intersezione, ci
sono dei giovani che non sono calciatori, ci sono dei calciatori che non sono giovani
e c’è l’intersezione formata appunto dai calciatori giovani. Anche in questo caso le
converse sono vere.
4. Particolari negative, del tipo “Alcuni A non sono B”, anche in questo caso
abbiamo un’intersezione cioè ci sono degli A dei B e degli A che non sono B. In
questo caso le converse non sono necessariamente vere. “Alcuni Studenti della 4B
non hanno gli occhi azzurri” questo non implica che alcuni studenti abbiano
necessariamente gli occhi azzurri. Quindi mente le universali negative e le
particolari affermative ammettono le converse le universali positive e particolari
negative non ammettono le converse.
Fonti di errore nel ragionamento sillogistico
Le fallace deduttive sono degli errori che si verificano durante il processo di
ragionamento e che sono causate da una premessa sbagliata, infatti uno dei motivi
per cui il ragionamento deduttivo risulta essere cosi complesso è proprio il fatto che
le premesse si prestano ad interpretazioni sempre diverse. In effetti il ragionamento
logico richiede di utilizzare solo quelle inferenze che sono coerenti con tutte le
possibili interpretazioni di un insieme di premesse, ma nella realtà, i nostri
ragionamenti, dipendono dalle interpretazioni soggettive e quindi dal modo in cui noi
individui codifichiamo tali premesse. Un’altra fonte di difficoltà nello svolgere
ragionamenti deduttivi, è rappresentata dalla difficoltà a distinguere validità e
veridicità di un sillogismo Quando dobbiamo giudicare la validità di un sillogismo, la
verità o la falsità di una premessa è del tutto irrilevante, la validità di un sillogismo
dipende soltanto dal fatto che la conclusione derivi necessariamente o meno dalle
premesse. Nonostante ciò noi abbiamo delle difficoltà a distinguerle. In questo modo,
può succedere che un sillogismo valido venga rigettato perché la sua conclusione non
viene considerata empiricamente vera, oppure che un sillogismo non valido venga
accettato perché la sua conclusione viene considerata empiricamente vera. Questo
effetto potrebbe essere chiamato “l’intrusione delle conoscenze che possediamo a
proposito del mondo” all’interno del processo di ragionamento.

115
116

Effetto atmosfera
Nel problema relativo all’indistinzione tra validità e veridicità, si avverte il fatto che il
contenuto reale degli argomenti interferisce con la capacità di ragionamento
astratta. Vale a dire se la conclusione che noi traiamo è una conclusione plausibile e
vera dal punto di vista del suo significato questo può portare a delle distorsioni del
ragionamento, cioè può portare a trarre delle conclusioni che sono di fatto vere ma
che non conseguono necessariamente dalle premesse. Vi è quello che chiamiamo
effetto atmosfera (EA) nelle prestazioni di ragionamento che traggono delle
conclusioni non necessariamente vere. Per effetto atmosfera intendiamo il fatto che
le premesse creano un atmosfera, un’aura di plausibilità o implausibilità che
condiziona il modo in cui noi raggiungiamo le conclusioni. C’è quindi una tendenza a
volte ad accettare un sillogismo che è plausibile ma non è valido, cioè non risulta
dall’applicazione corretta delle regole formali. Esempio: (in termini astratti le
premesse sono del tipo “alcuni A sono B” “alcuni B sono C”), se rivestissimo di
contenuto queste proposizioni astratte con “alcuni studenti sono maschi, alcuni
maschi sono biondi”. Se è vero che alcuni studenti sono maschi e che se alcune
persone di sesso maschile sono bionde allora è necessariamente vero che alcuni
studenti sono biondi. Il ragionamento non è formalmente corretto, ma interviene in
casi come questo l’effetto atmosfera, è plausibile trarre la conclusione che se la
prima e la seconda premessa sono vere è altrettanto verosimile, plausibile e vero
che la conclusione sia corretta, in questo caso parliamo di effetto atmosfera
POSITIVO. Il ragionamento non è formalmente corretto perché se cambiamo il
contenuto delle premesse raggiungiamo ad una conclusione assurda. Esempio:
“alcuni vermi sono viventi”,”alcuni viventi miagolano” la conclusione sarebbe che
alcuni vermi miagolano. Quindi ci rendiamo conto che il ragionamento non è
formalmente corretto, dato che si raggiungono conclusioni assurde. Oltre all’effetto
atmosfera positivo, esiste anche un effetto atmosfera che però si applica a
proposizioni che sono di tipo negativo e che quindi indirizzano sempre verso una
conclusione formalmente scorretta ma dal punto di vista del valore di verità è
plausibile o addirittura vera. Prendiamo in questo caso due universali una negativa e
l’altra affermativa, Nessun A è B tutti i B sono C quindi applicando una sorta di
proprietà transitiva potremmo trarre la conclusione che nessun A è C. esempio:
“Nessun cane è un uccello” “tutti gli uccelli sono alati” e quindi ”nessun cane è
alato”, anche in questo caso con proposizioni di questo tipo la conclusione sembra
scaturire correttamente dalle premesse e il risultato sembra essere che la
conclusione sia corretta, quindi gioca un effetto atmosfera negativo, ma cambiando
i contenuti delle premesse capiamo che il ragionamento è formalmente scorretto, ce
ne accorgiamo perché la conclusione risulterà assurda.
116
117

Interpretazione del quantificatore “alcuni”


L’uso del quantificatore “alcuni” con il significato di “alcuni ma non tutti” che viene
fatto nel linguaggio comune non è del tutto coerente con le regole della logica. Begg
ha notato che gli individui spesso usano il quantificatore alcuni con il significato
“meno di metà”. Questo non è però il modo in cui questo quantificatore viene usato
in logica, dove invece significa “almeno uno e forse tutti”.
Errori di conversione
Chapman avanzato l’ipotesi che molti errori di ragionamento dipendano dalla
tendenza a sottoporre le premesse a conversioni illecite, in quanto come sappiamo
possono essere soggette a conversione solo le universali negative e le particolari
affermative. Gli individui, talvolta, convertono una premessa e accettano la
conclusione erronea che segue da una tale conversione. Esempio: “tutti i penny che
ho in tasca sono di rame “non può essere convertita in “tutti gli oggetti di rame che
ho in tasca sono penny“ perché potrei estrarre dalla tasca un oggetto di rame che
non è un penny”.
Modelli mentali e il ragionamento sillogistico (castello)
Partiamo dal definire che cos’è un modello mentale. un modello mentale è una
struttura mentale. Secondo Johnson Laird, gli individui vanno a costruirsi un modello
mentale della situazione a cui si riferiscono delle premesse per poi trarre delle
conclusioni. Bisogna dire che però da un insieme di premesse possono costruirsi
diversi modelli mentali e la sua conclusione viene accettata soltanto se è coerente
con tutti i modelli mentali che sono stati costruiti.
Ciò che rende difficile un sillogismo è il fatto che può essere adattato a tanti modelli
mentali. L’esempio che fa Laird ripetto alla teoria dei modelli mentali viene ripreso
da Benjafield ed è quello delle balene e dei cammelli. In questo esperimento
vengono fornite a dei soggetti alcune premesse e via via questi soggetti dovevano
trarre delle conclusioni lecite. La prima premessa è che “tutte le balene sono forti”,
quindi come prima cosa ci andiamo a creare il nostro primo modello mentale in
questo modo: abbiamo l’insieme delle balene e abbiamo l’informazione che
ciascuna balena è forte quindi balena1=forte, balena2=forte e dovremmo inserire
l’attributo forte tra due parentesi quadre, in quanto la parentesi quadra indica che
all’interno di questo modello mentale è presente anche l’informazione che esistono
altri animali forti che però non sono balene. A questo punto viene data una seconda
premessa, e cioè che Moby Dick è una balena, cosi il nostro modello mentale si
sviluppa in questo modo MOBY Dick=balena=forte, in quanto se tutte le balene sono
forti e moby dick è una balena allora anche moby dick è forte. A questo punto
vengono aggiunte due premesse, “Nessun cammello è una balena”, e, “Tutte le
117
118

balene sono in via d’estinzione”. Queste due premesse sono quelle che mettono un
po’ in difficltà il modello in quanto sviluppano più modelli mentali diversi tra loro. Il
primo in cui abbiamo l’insieme dei cammelli, che viene separato dall’insieme delle
balene per mezzo di un segmento che li separa per differenziarli, e poi abbiamo la
seconda premessa “tutte le balene sono in via di estinzione” permette di aggiungere
un’altra informazione al modello mentale. Però affinchè tale modello sia corretto e
completo sarebbe necessario aggiungere anche in questo caso la parentesi quadra,
ma dato che non tutti sono in grado di costruire un modello mentale di questo tipo
la maggior parte delle persone conclude che i cammelli non sono animali in via
d’estinzione. Se invece la parentesi quadra viene correttamente aggiunta e quindi
non escludiamo che esistono anche altri animali compresi i cammelli che sono in via
di estinzione possiamo ricavare due conclusioni possibili: cioè che alcuni animali in
via di estinzione non sono cammelli, oppure che alcuni animali in via di estinzione
non sono balene.
Distorsioni dei modelli mentali e Fenomeno della pseudodiagnosticità (ananas)
Secondo la teoria dei modelli mentali, proposta dallo psicologo Johnson Laird, il
ragionamento comune non dipende dall’applicazione di regole formali, ma dalla
costruzione e manipolazione delle rappresentazioni (modelli) mentali delle possibilità
descritte dalle premesse. Secondo questa teoria, ragioni di economia cognitiva
portano le persone a rappresentare in modo esplicito solo ciò che è vero e non ciò
che è falso. I modelli mentali sono degli strumenti complessi, non si riducono a dei
rapporti biunivoci tra premessa e conclusioni, possono essere formati da molte
premesse, ma il rapporto tra premesse e conclusioni è reso fuorviante dal fatto che
questi modelli mentali sono incompleti, cioè sono dei modelli che non
rappresentano tutte le informazioni, ma solo una parte di esse. Questo è
particolarmente chiaro se prendiamo in considerazione un altro fenomeno che
appartiene alla fenomenologia dei modelli mentali, il fenomeno della
pseudodiagnosticità.
Il fenomeno della pseudodiagnosticità sta a significare che noi a volte facciamo
delle diagnosi di una situazione però trascuriamo alcune delle informazioni che
sarebbero utili per formulare tale diagnosi, quindi tendiamo a fossilizzarci soltanto
su una parte del problema, tralasciandone altre, perdendo la possibilità di trarre una
conclusione. Per studiare il fenomeno della pseudodiagnosticità sono state utilizzate
le due modalità di ragionamento condizionale, è il tipo di ragionamento che
utilizziamo più spesso nella nostra quotidianità, e forse il primo che incontriamo da
bambini, in quanto è il ragionamento del tipo “se” “allora”, “se A allora B”, cioè il
ragionamento dove abbiamo un antecedente e un conseguente, se l’antecedente è
118
119

vero il conseguente è vero. È un ragionamento che può assumere due forme diverse
ricavate dal latino, il modus ponens e il modus tollens. Il primo si basa
sull’affermazione dell’antecedente ed è caratterizzo da due premesse e una
conclusione necessaria, le due premesse sono: se A allora B, A, quindi B. se
riempiamo di contenuti se piove (A) allora la strada bagnata (B), piove (A), quindi la
strada è bagnata (B). il secondo invece, il modus tollens, si basa sulla negazione del
conseguente e anche in questo caso vi è una conclusione obbligatoria, la prima
premessa è sempre se A allora B, se piove la strada è bagnata, la seconda premessa
però è la negazione del conseguente, cioè NON B, la strada non è bagnata, allora
NON A, quindi non piove. Anche se da quanto abbiamo detto non sembra in realtà
modus tollens è tipo di ragionamento più difficile in quanto è molto più semplice per
noi individui trarre una conclusione basandoci sulla verità di una premessa piuttosto
che sulla falsità di una premessa. Ne scaturisce il principio di verità, ovvero quando
le premesse sono tante, noi dobbiamo trattenere nella memoria di lavoro tutte le
informazioni e quindi dato che la memoria di lavoro è una memoria limitata noi
tendiamo ad alleggerirla automaticamente trattenendo ciò che è vero ed
escludendo ciò che è falso. A differenza del modus ponens dove abbiamo la verità
dell’antecedente, nel modus tollens invece dobbiamo rappresentarci la falsità del
conseguente che è un’informazione più difficile da ricavare in quanto non è
immediata alla nostra memoria di lavoro.
Quindi, secondo la teoria dei modelli mentali, il ragionamento delle persone non
esperte dipende dal modo in cui vengono rappresentate e interpretate le premesse.
facciamo un esempio:
un ragazzo dice: “se il presidente è un corruttore, allora è pazzo”. Una ragazza invece
dice: “se il presidente è un ladro, allora è pazzo”. Sappiamo che uno dei due dice la
verità e l’altro no, e da queste affermazioni proviamo a trarre una conclusione. Sulla
La maggior parte delle persone conclude che il presidente è pazzo, in quanto è l’unica
info che hanno in comune entrambi i modelli. Questa però, in realtà, non è una
conclusione logicamente valida in quanto, se il ragazzo ha detto il vero, e la ragazza
ha detto il falso, il presidente è un corruttore, ma non è pazzo. Però se al contrario la
ragazza ha detto il vero, e il ragazzo ha detto il falso, allora il presidente è un ladro ma
non è un pazzo. Quindi la conclusione in entrambi i casi sarà che il presidente o è un
corruttore oppure un ladro, ma di certo non è un pazzo. Quindi, dalla
rappresentazione incompleta di due condizionali, noi tendiamo a trarre una
conclusione che sembra ovvia, ma che in realtà è solo un’illusione.

119
120

Wason e l’importanza della falsificazione


Nel problema generativo proposto da Wason gli individui dovevano ricavarsi
autonomamente le informazioni necessarie per poter risolvere un problema. In uno
dei suoi esperimenti, Watson dava a dei soggetti sperimentali una sequenza di cifre
quali 2,4,6 e diceva loro che tale sequenza era stata generata in base ad una semplice
regola, il compito di questi soggetti era appunto quello di scoprire di quale regola si
trattasse. Dopo molti tentativi, i soggetti proposero varie regole ma non trovando
quella giusta decisero di arrendersi. La regola di Watson era qualsiasi serie crescente
di numeri.
La strategia giusta per trovare una regola e quella di falsificare le ipotesi formulate
cosi da escludere le ipotesi sbagliate. Tale strategia prende il nome di strategia
eliminativa. In generale, la tendenza a cercare elementi che confermano un’ipotesi è
definita tendenza alla conferma.
Disgiunzione esclusiva
Il problema del THOG prevede che si considerino una losanga bianca, una losanga
nero, un cerchio bianco e un cerchio nero. Un disegno è considerato un THOG solo se
é presente il colore o la forma prescelta ma non entrambi. Se vi venisse detto che la
losanga nera é un Thog, è possibile che qualcuno delle altre figure sia un Thog? I
soggetti compiono degli errori intuitivi quando affermano che la losanga bianca e il
cerchio nero sono dei thog, e che il cerchio bianco sicuramente non è un thog. Invece
il cerchio bianco è un thog perché gli attributi prescelti potrebbero essere nero o
losanga, ma non entrambi. Supponendo che il colore prescelto sia il nero, scritto su
un foglio prima di iniziare a ragionare, significa che la forma corrispondente deve
essere cerchio. Ma se il colore prescelto fosse nero, la forma prescelta non potrebbe
essere losanga poiché la losanga nera è un thog e noi sappiamo che un thog possiede
soltanto uno dei due attributi prescelti. Quindi, se il colore prescelto fosse nero,
significherebbe che la forma corrispondente dovrebbe essere cerchio. Secondo
Griggs, gli errori intuitivi sono il risultato di un processo chiamato Bias del confronto,
ovvero la tendenza o considerare tanto più simili due cose quanti più attributi hanno
in comune (sorellastra). Quando si dice che la losanga nera un thog, i soggetti
potrebbero pensare che una figura è un thog se assomiglia ad una losanga nera. Per
risolvere il problema del thog, i soggetti devono usare la regola della disgiunzione
esclusiva, quindi devono capire che affinché una figura fosse essere considerata un
thog deve possedere uno oppure l’altro di due attributi ma non entrambi.
Il compito di selezione di Wason
Nel problema delle quattro carte proposto da Wason, il compito dei soggetti é di dire
quali carte é necessario girare per controllare la verità dell’affermazione: “Se una
120
121

carta ha una vocale sul lato allora ha un numero dispari sull’altro”. In generale
dobbiamo girare le carte con i numeri dispari per falsificare la regola, mentre i
soggetti mostrano una tendenza alla conferma. Questo è un esempio di
ragionamento condizionale che richiede l’uso di proposizioni condizionali che hanno
la forma “se… allora” e che sono costituite da un precedente da un conseguente.
L’antecedente segue il termine “se”, il conseguente segue il termine “allora”.
Una versione più realistica di questo problema è molto più facile da risolvere. Infatti i
soggetti giungono a conclusioni diverse quando devono risolvere una versione
astratta o una versione con credo dello stesso problema logico (effetto di contenuto).
Secondo Cosmides l’ipotesi che gli individui ragionino in base alle regole di un unico
sistema logico non è molto verosimile e ha rivelato che le prestazioni dei soggetti nei
problemi logici sono fortemente influenzate dal contesto, e che i soggetti usano
diverse procedure inferenziale per risolvere i compiti diversi e questo indica che non
vi è un singolo processo psicologico soggiacente ai processi del ragionamento.
Cosmides propone una teoria evoluzionista del ragionamento, attraverso la teoria del
contratto sociale, secondo cui la specie umana possiede una capacità innata di
ragionare sui contratti sociali, cioè sulle regole che stabiliscono scambi di benefici tra
individui. Quando gli scambi non sono simultanei alcuni individui possono
imbrogliare, tenendosi il beneficio ricevuto senza restituirlo successivamente. Gli
individui che non sono in grado di stabilire se sono stati imbrogliati hanno
ovviamente poche possibilità di sopravvivere. Bisogna quindi supporre che
l’evoluzione naturale abbia dotato la mente umana di un modulo che permette di
scoprire gli eventuali imbroglioni. La selezione naturale dunque, tenderebbe a
produrre procedure inferenziali per risolvere importanti e ricorrenti problemi
adattivi. (esperimento pagina 316, libro processi cognitivi).

La tavola di verità
Una tavola di verità costituisce un modo per rappresentare le varie combinazioni dei
costituenti (P, Q) delle proposizioni logiche. Il valore di verità di P può essere Vero (V)
o Falso (F), così come il valore di verità di Q.
• se entrambi p e q sono veri, allora la proposizione condizionale “Se p allora q”
è vera.
• se p è vero ma q è falso, allora la proposizione “se p allora q” è falsa.
• se p è falso ma q è vero, allora la proposizione “se p allora q” é vera.
• se p e q sono entrambe false la proposizione “se p allora q” rimane ancora
vera.
121
122

Ragionamento ricorsivo
Un processo che fa riferimento a se stessi viene detto ricorsiva. La ritorsione può
avere effetti interessanti su ragionamento ma talvolta produce forme maldestre di
pensiero e l’esempio più famoso è il paradosso del bugiardo: Epimenide di Creta
affermò che tutti cretesi sono dei bugiardi, e questa affermazione crea un circolo
vizioso dal quale non si può uscire. É un ragionamento improduttivo e fa riferimento
a sé stesso. Per uscire da questo circolo di pensiero improduttivo é necessario
spostarsi ad un livello di pensiero più generale: il pensatore deve essere in grado di
uscire dal sistema, essere in grado di ragionare al di fuori del sistema e non usare le
regole fornite all’interno del sistema. Prima di risolvere un problema, é importante
capire in che modo individui riescono a pensare a quelle che sono le proprietà di un
problema, così da potersi rendere conto del fatto che alcuni problemi sono insolubili.
(Storiella a pag 318, libro processi cognitivi).
Sistemi di deduzione di naturale
Rips ha analizzato i protocolli di verbalizzazione simultanea forniti da un gruppo di
studenti universitari a cui è stato assegnato il compito di risolvere il problema dei
cavalieri e dei furfanti. I risultati confermano che i soggetti si servivano di regole e di
deduzione, le quali sono parte di un sistema di deduzione naturale che fa uso di
proposizioni immagazzinate nella memoria di lavoro. Le proposizioni sono costruite
per mezzo di connettivi come “se… allora, e, oppure, non”. Il sistema fa uso di regole
di deduzione per trarre delle conclusioni a partire da queste proposizioni. Quando
una proposizione é la conseguenza necessaria di un’altra proposizione, si può dire
che la prima proposizione implichi la seconda. Dunque, un sistema di deduzione è un
insieme di regole inferenziali di base ed è costituito dagli elementari principi
inferenziali. Secondo Rips, I soggetti traggono delle inferenze e giungono alla
conclusione sulla base di queste e non tramite la costruzione di modelli mentali come
aveva ipotizzato Johnson Laird. Rips ha inoltre dimostrato che il numero di errori
compiuti dei soggetti e il tempo impiegato per risolvere il problema dei cavalieri di
furfanti dipendono dal numero di inferenze necessarie.
Condizionale descrittivo: Chiede un enunciato che descrive uno stato di cose, come:
“se c’è una A, allora c’è un 2”. Nella maggior parte dei contesti tale enunciato verrà
interpretato come l’indicazione che, in tutti i casi in cui vi sia una A, ci sarà anche un 2
(il problema delle carte di Wason). Un enunciato condizionale però può essere
interpretato anche in modo diverso: condizionale deontico= ovvero un enunciato che
si riferisce a ciò che si deve o si può fare, come “se fai l’azione P, devi soddisfare la
condizione Q”. Nella maggior parte dei contesti tale enunciato verrà interpretato
come l’indicazione di ciò che è vietato, cioè “fare l’azione P senza soddisfare la
122
123

condizione Q. A differenza di quello descrittivo, un condizionale deontico porta ad


attribuire a chi lo ha prodotto l’intenzione di proibire la combinazione “P e non -Q”.
Ragionamento probabilistico . principio della scelta razionale.
La teoria dell’azione razionale afferma che l’attore razionale prende decisioni
scegliendo le alternative che hanno la maggior probabilità di produrre i migliori
benefici. Una componente essenziale della decisione razionale quindi è la capacità di
valutare correttamente la probabilità di accadimento di eventi incerti. Kahneman e
Tversky hanno dimostrato che la teoria della scelta razionale non descrive le scelte
degli individui reali. Le loro ricerche hanno dimostrato infatti che le persone non
prendono sempre decisioni razionali, e non valutano sempre correttamente le
probabilità degli eventi relativi alle scelte che devono compiere. Tale scoperta è
rappresentata dal problema delle parole, dove i partecipanti devono stimare la
frequenza di parole di una data categoria in quattro pagine prese a caso da un testo
(dovevano stimare la frequenza di parole di 7 lettere che terminano in ONE, e altri
invece la frequenza di parole di 7 lettere che avevano N come penultima lettera,
ovviamente combaciano).
Risultati: I giudizi dei soggetti rappresentano una violazione della regola della
congiunzione, secondo la quale la probabilità della congiunzione di due eventi non
può essere superiore alla probabilità di uno di questi eventi, ovvero la probabilità
assegnata al secondo evento non può essere superiore a quella assegnata al primo.
(la storia di Linda, pag sempre 340)
Secondo Kahneman e Tvresky le stime probabilistiche spesso sono basate
sull’applicazione inconsapevole di alcune procedure che hanno il vantaggio di essere
economiche, ma lo svantaggio in qualche caso di produrre valutazioni erronee. Si
tratta di procedure definite euristiche. → Esse infatti sono economiche ed efficaci ma
non garantiscono la soluzione corretta, infatti in alcuni casi l’utilizzo di euristiche
porta a commettere errori sistematici di giudizio (biases).
Tra queste vi è l’euristica della disponibilità, cioè l’euristica che porta a stimare la
frequenza di una classe di eventi sulla base della facilità con cui vengono alla mente
gli esemplari della stessa: tanto più numerosi saranno gli esempi ricordati o costruiti,
tanto più grande sarà giudicata la categoria cui tali esempi appartengono.
Nel problema di Linda vi è la violazione della regola della congiunzione causata
dall’euristica della rappresentatività: ovvero stimare la probabilità di un evento sulla
base della sua rappresentatività, ovvero significa basarsi sul suo grado di tipicità
rispetto alla categoria cui appartiene.
▪ Secondo l’ipotesi evoluzionista gli errori di giudizio non dipendono
dall’applicazione di euristiche, ma dall’intrinseca incapacità della mente umana
123
124

di trattare le informazioni probabilistiche. Secondo i sostenitori di questa


teoria, la selezione naturale non può aver prodotto di meccanismi cognitivi per
elaborare ciò che non si può osservare come ad esempio la probabilità di un
singolo evento. Secondo questa prospettiva si deve supporre che esistano dei
meccanismi innati per elaborare ciò che si può osservare.
Il ragionamento estensionale
Le persone non esperte traggono inferenze probabilistiche come traggono quelle
deduttive, cioè in modo estensionale: ovvero ragionano non applicando regole,
equivalenti a quelle del calcolo delle probabilità, ma sulla base di rappresentazioni
mentali di possibilità. In alcuni casi è impossibile valutare le probabilità in modo
estensionale perché le possibilità da enumerare sono troppe.

Soluzione dei problemi

(CACCA) INSAIG

1. Wertheimer. pensiero produttivo e pensiero strutturalmente cieco.

Il contributo più produttivo allo studio dell’insight è stato dato dagli psicologi della
Gestalt, i quali per un certo periodo ne hanno fatto fulcro della loro ricerca. Per
spiegare questo concetto occorre prendere in considerazione un esempio che
Wertheimer ci mostra per esemplificare al meglio il concetto di “pensiero
produttivo”. A tal proposito viene richiesto di immaginare una finestra circolare
posta su di un altare la quale doveva essere decorata con dell’oro. L’area che doveva
essere ricoperta d’oro era già stata circoscritta da due linee verticali parallele e
tangenti al cerchio contenute in due semicerchi. La domanda posta ai soggetti
riguardava l’area dello spazio che esisteva fra il cerchio e le linee. I soggetti
cercarono di risolvere il problema in maniera meccanica come fosse un vero e
proprio problema di geometria, quindi cominciarono con il trovare l’area della
finestra attraverso la formula dell’area di un cerchio e risultò essere facile per loro
anche trovare l’area dei semicerchi. Ma non era questo il compito a loro richiesto.
Accadde quindi che un bambino senza avere alcuna nozione di geometria percorse
un ragionamento diverso, e cioè si accorse che i semicerchi nella parte superiore e
inferiore potevano essere inseriti perfettamente all'interno della finestra, e quindi
capì che l’area richiesta non era altro che una semplice area di un quadrato. Questo
dimostra che era proprio l’istruzione dei partecipanti più istruiti ad occultare la loro
capacità di vedere quello che invece era ovvio per una persona meno istruita.
Questo spiega il perché Wertheimer distingue due tipi di pensiero:
il primo è il Pensiero strutturalmente cieco: ovvero quel tipo di pensiero che noi
individui utilizziamo in modo meccanico sfruttando processi di pensiero che
124
125

abbiamo già utilizzato in precedenza, in altre situazioni analoghe, non rendendoci


conto del fatto che magari in quel momento, non sono opportuni e idonei in quella
determinata circostanza. A contrapporsi al pensiero strutturalmente cieco vi è il
Pensiero produttivo: il quale viene messo in atto quando l’individuo è in grado di
reimpostare la situazione in nuovi significati.

2. Problemi per lo studio dell'insight

Quindi ciò che vuole l’approccio produttivo non è altro che una completa
ricostruzione della situazione per poter procedere con la soluzione di quello
specifico problema. Gli psicologi della gestalt, invece, ritenevano che per quanto
concerne il pensiero strutturalmente cieco, che difficilmente si adatta a situazioni
nuove, la soluzione poteva essere trovata solo se accompagnate da un’insight.
Insight: letteralmente vuol dire visione interna. Rappresenta la consapevolezza
improvvisa di ciò che deve essere fatto per risolvere un problema. Percezione
improvvisa, netta ed immediata di fatti esterni ed interni. È la capacità di resettare i
processi di pensiero correnti fino a quel punto ed effettuare una vera e propria
ristrutturazione della situazione che porta poi alla soluzione del problema.

Questi particolari approcci possono essere applicati anche a quelle che sono
semplicissime situazioni della nostra vita quotidiana. Wertheimer studiò in
particolar modo i sillogismi in cui la prima premessa descriveva un fatto particolare
mentre l’altra premessa descriveva una verità generale. Ad esempio:

Fatto particolare-> Giorgio ha tramato alle mie spalle


Verità generale-> un amico non è una persona che trama alle mie spalle
Conclusione-> Giorgio non è un mio amico.

Gli insight non sono necessariamente piacevoli, infatti possono fare emergere come
in questo caso verità dolorose. E secondo Wertheimer questo è uno dei motivi per
cui spesso evitiamo di pensare in maniera produttiva.

4. Duncker, fissità funzionale e insight

Duncker si è particolarmente interessato a quanto le esperienze passate influiscano


nei confronti dei processi di soluzione di problemi mediante un processo chiamato
Analisi della situazione che consiste nel capire, in una particolare circostanza, quali
sono le funzioni degli oggetti e come devono essere appunto utilizzati per risolvere
un dato problema. A volte però capita di trovarci in uno stato chiamato fissità
funzionale. Per fissità funzionale intendiamo un limite, cioè un atteggiamento che ci
permette di vedere soltanto soluzioni che prevedono l’utilizzo di oggetti nel modo più
comune e abituale, e non l’utilizzo che andrebbe fatto per risolvere effettivamente il
125
126

problema. Quando ci troviamo in una situazione in cui l’uso abituale di un oggetto


non ci permette di capirne l’uso corretto, siamo FUNZIONALMENTE FISSATI e per
risolvere un problema, è necessario superare tale fissità funzionale. Dunker ritiene
che il superamento della fissità funzionale può essere ricavato dalla distinzione tra
pensiero analitico e pensiero sintetico
Pensiero analitico: consiste nello scomporre le cose nelle loro parti costituenti e
questo quindi ci permette di comprendere le parti di una situazione, e la conclusione
deriva da informazioni già contenute nelle premesse. Si parte quindi da un’immagine
mentale la quale contiene già l’informazione necessaria a trovare una risposta.
(un’immagine mentale è un oggetto mentale). Quindi se chiediamo a qualcuno qual è
il colore della sua casa questo è un esempio di pensiero analitico.
Pensiero sintetico: permette di ricavare da un’immagine mentale costruita in
precedenza, più informazioni rispetto alla costruzione iniziale. Quindi viene costruito
un modello mentale dal quale l’individuo può ottenere relazioni che non conosceva
prima, e l’insight non è altro che la scoperta improvvisa di queste relazioni.

3.2 Valutazione di Newell delle idee di Duncker


Newell è stato uno dei principali esponenti dell'approccio informazionale e uno dei primi ad usare
le simulazioni su calcolatore per lo studio della soluzione dei problemi. Newell ha esaminato
attentamente l'analisi di Duncker del problema dell'ordinamento dei tre termini: lo scopo è quello
di costruire un modello mentale che consenta di trovare la soluzione di un problema
semplicemente guardando. Una volta che questo modello è stato costruito, potremmo
semplicemente leggere ciò che risulta da ciò che abbiamo scritto. Notiamo che abbiamo bisogno di
qualcosa che sia in grado di effettuare questa lettura: questo compito è affidato all'occhio della
mente. Un altro concetto usato a questo proposito è quello di homunculus. Newell ha riconosciuto
il fatto che le descrizioni di Duncker delle condizioni che consentono il conseguimento della
comprensione sono "autenticamente ingegnose" e che "il loro studio potrebbe costituire un
eccellente oggetto di ricerca". Le ragioni che rendono difficile la soluzione di un problema, però,
costituiscono un importante oggetto di ricerca ancora oggi e il fenomeno della fissità funzionale
rimane un argomento di grande interesse.

4. L'insight esiste veramente?


Successivamente il fenomeno della fissità funzionale viene poi ripreso da Weisberg e
Alba mediante il problema dei 9 punti. Durante quest’ultimo i soggetti dovevano
collegare questi punti tracciando delle linee rette senza mai staccare la penna dal
foglio. La soluzione a questo problema in realtà prevedeva che i soggetti per portare
a termine il compito nel modo corretto dovevano uscire con le linee al di fuori del
quadrato da tracciare. Ma la maggior parte di loro si concentrava a tracciare le linee
solo sui punti indicati e questo gli impediva di trovare la soluzione al problema.
Quindi è come se i soggetti rimanessero fissati su questo aspetto e per poter riuscire
a risolvere il problema avrebbero dovuto eliminare questa fissità che risultava
126
127

essere solo un intralcio. Quindi i due studiosi decisero di fornire l’informazione


mancante ai soggetti dicendo loro che le linee potevano essere tracciate anche
andando al di fuori dell’area dei punti. Nonostante ciò però molti di loro
continuarono a non riuscire nell’intento e quindi Weisberg e Alba conclusero che
l’approccio gestaltista, il quale prevedeva che una volta rimossa la fissità la soluzione
ad un problema si presentasse all’improvviso come un lampo, dato che questo non
si verificò i due conclusero che l’approccio gestaltista non potesse spiegare il
processo di soluzione dei problemi. A questo punto un’altra studiosa Ellen,
intervenne per specificare che in realtà i due studiosi precedenti non avevano preso
in considerazione nel modo più appropriato la teoria della gestalt, e lo dimostrò con
la ricerca proposta da Maier. Durante uno dei suoi più famosi esperimenti, ovvero
quello delle funi, Maier nel momento in cui i soggetti rimanevano funzionalmente
fissati e non erano quindi capaci di trovare la soluzione al problema, eli gli forniva un
suggerimento. Accadde che i soggetti in seguito al suggerimento riuscivano a trovare
improvvisamente come un lampo la soluzione, e questo confermava le tesi proposta
dalla gestalt, anche se i partecipanti sostennero che la soluzione non era stata
procurata dal suo suggerimento. Secondo Maier quindi prima di arrivare alla
soluzione ci troviamo in uno stato di confusione che non ci permette di notare la
relazione che esiste tra alcuni oggetti e la soluzione. Cosi una nuova organizzazione
compare improvvisamente subito dopo aver avuto un suggerimento, cancellando
tutto quello che esisteva prima di avere quell’idea. Secondo Maier i suggerimenti
che sono utili a chi cerca di risolvere un problema sono quelli che rispondono ad una
difficoltà che l’individuo sta attraversando in quel momento.
4.1 Recenti studi sull'insight
In studi recenti sull’insight sono stati distinti i problemi con inisght da quelli senza
insight. Caratteristica fondamentale dei primi è che la soluzione appare
improvvisamente come un lampo, mentre al contrario invece i problemi senza
insight vengono risolti in maniera graduale. Questo permetterebbe a noi individui di
distinguerli senza dubbio, in quanto nei problemi senza insight i soggetti risolvono il
problema passo dopo passo, avvertendo in questo modo una sensazione di
vicinanza man mano che progrediscono verso la soluzione, come accade per i
problemi di algebra o geometria. Cosa che invece non accade nel caso dei problemi
con insight, dove appunto i soggetti non dovrebbero avvertire alcuna sensazione di
vicinanza alla soluzione fin quando questa non emerge all’improvviso. A tal
proposito vennero condotti degli esperimenti in cui si chiedeva di stimare non solo
la propria sensazione di vicinanza alla soluzione di un problema ma anche la
sensazione di conoscenza rispetto al problema, e quindi classificando i problemi
127
128

differenziandoli tra quelli che ritenevano di poter risolvere da quelli che invece
ritenevano di non esserne capaci. Dopo aver fatto questa classificazione, i soggetti
cercavano di risolvere i problemi. Ciò che si verificò è che quello che i soggetti
avevano stimato si verificò nel caso dei problemi senza insight mentre nei problemi
con insight i risultati furono piuttosto imprevedibili. La spiegazione è che nel primo
caso i soggetti prevedono la soluzione del problema in quanto sono consapevoli
delle procedure da utilizzare in base alle loro conoscenze mentre questo non è
possibile che accada nel secondo caso in quanto il problema viene risolto grazie
all’improvviso emergere di conoscenze che i soggetti non sanno nemmeno di avere.
La sensazione di conoscenza e quella di vicinanza sono esempi di quella che
definiamo metacognizione, ovvero la consapevolezza che abbiamo del
funzionamento dei nostri processi cognitivi. Successivamente Lockhart e altri si
soffermarono su un ulteriore aspetto già messo in luce da Wertheimer, e cioè che la
maggiore difficoltà nei problemi con insight era proprio l’incapacità del soggetto di
rendersi conto in quel momento che la soluzione potesse essere scovata grazie a
qualcosa che già sa. Ciò che notarono questi studiosi è che la cernita delle
informazioni per risolvere i problemi era una scelta molto soggettiva e si
verificavano grandi differenze da soggetto a soggetto, e soltanto pochi erano capaci
di individuare le informazioni davvero pertinenti al problema, quelle essenziali.
Questa capacità è stata definita con il termine sagacia, ovvero la facoltà di vedere
dentro una situazione e differenziare gli aspetti importanti da quelli irrilevanti.
L’interesse di Lockhart fu proprio quello di creare una tecnica in grado di sviluppare
questa capacità nei soggetti. Quindi nei suoi esperimenti venivano presentati dei
problemi di insight sotto due diverse forme, ad un gruppo in forma dichiarativa e ad
un altro sotto forma di indovinelli. I risultati rivelavano che i problemi presentati al
gruppo sottoforma di indovinelli venivano risolti in forma maggiore degli altri in
quanto portavano i soggetti ad individuare l'informazione rilevante in misura
maggiore del formato dichiarativo.
5. Rigidità e atteggiamento mentale passivo
Gli esperimenti condotti da Luchins si possono annoverare tra le dimostrazioni più interessanti del
fatto che la ripetizione di un particolare processo di soluzione possa rendere un individuo incapace
di rendersi conto dell'esistenza di processi di soluzione alternativi. Una delle dimostrazioni fornite
da Luchins è quella dei problemi di travasi di liquidi. Immaginiamo di avere a disposizione tre
recipienti vuoti, A, B e C e una scorta d'acqua. Il nostro compito è quello di usare i tre recipienti
per ottenere un dato volume d'acqua. Negli esperimenti di Luchins e Luchins, ai soggetti veniva
fornita una serie di problemi che potevano essere tutti risolti con la stessa formula. B > A > 2C.
Dopo avere risolto cinque problemi usando la stessa procedura, i soggetti sviluppavano un set, o
Einstellung ("impostazione soggettiva"). Un set è un modo specifico di rispondere ad una data
situazione. Il fatto che i soggetti negli esperimenti di Luchins rispondessero in modo "meccanico"
128
129

era dimostrato dalle loro risposte al sesto problema. I soggetti non si rendevano conto che la
formula A > C fosse sufficiente a causa dell'Einstellung sviluppato nelle prove precedenti. L'effetto
Einstellung è ben fondato: in uno degli esperimenti, alcuni studenti venivano istruiti a risolvere i
problemi il più velocemente possibile. Dopo che i bambini avevano risolto una serie di problemi
usando lo stesso metodo per ciascuno di essi, veniva detto loro che alcuni dei problemi potevano
essere risolti per mezzo di un metodo più semplice e veniva chiesto loro di trovarlo. Nonostante
queste istruzioni, i bambini trovavano difficile scoprire una strategia nuova e solitamente
continuavano a risolvere i problemi per mezzo della procedura più complicata. I bambini quindi
risentivano dello stress prodotto dalla situazione. Quando i bambini vengono sollecitati ad operare
velocemente, essi non sono in grado di comportarsi in maniera flessibile e di evitare di rispondere
in modo rigido, meccanico. Langer ha suggerito che la distinzione tra flessibilità e rigidità dei
procedimenti di soluzione di un problema possa essere concettualizzata nei termini del concetto di
atteggiamento mentale attivo/passivo (mindfulness/mindlessness). Le persone che manifestano
l'Einstellung hanno un atteggiamento mentale passivo, cioè agiscono come se le situazione avesse
una sola interpretazione possibile. Avere una atteggiamento mentale attivo, invece, significa
impegnarsi nella ricerca di nuove possibilità. Langer e Piper hanno avanzato l'ipotesi che
l'atteggiamento passivo nella soluzione dei problemi potrebbe essere contrastato incoraggiando i
soggetti a pensare in termini relativi anziché assoluti. Per esempio, una descrizione che metta in
evidenza il fatto che gli oggetti possono avere usi alternativi potrebbe favorire un atteggiamento
mentale attivo. Langer e Piper hanno eseguito un esperimento in cui venivano mostrati ai soggetti
tre oggetti. A metà dei soggetti gli oggetti venivano descritti in maniera non-condizionale, ovvero
veniva presentata loro una definizione univoca per ciascun oggetto. Per esempio: "Questo
potrebbe essere un giocattolo di gomma per cani". Lo sperimentatore poi fingeva di avere bisogno
di una gomma per cancellare e chiedeva ai soggetti di aiutarlo. La risposta che indicava un
atteggiamento mentale attivo era che il giocattolo di gomma per cani poteva essere usato anche
come gomma per cancellare. La comprensione condizionale permette infatti agli individui di
evitare di rispondere meccanicamente. Anche se le descrizioni non-condizionali costituiscono un
modo economico per categorizzare gli oggetti, sembra che questo beneficio sia ottenuto al prezzo
di rendere gli individui incapaci di rendersi conto di nuove possibilità. Gick e McGarry hanno
sottolineato come la capacità di trasferire ciò che si è appreso in una situazione a un'altra
situazione sia legata all'aver fatto errori nella prima situazione. L'incapacità di risolvere il primo
problema di una serie portava a un maggior numero di soluzioni nel caso di un secondo, analogo
problema.

6. Intelligenza artificiale e soluzione di problemi. Euristiche nell’area del problem


solving.
Per lo studio dei processi di soluzione di problemi sono stati sviluppati dei
programmi per calcolatore dotati di un’intelligenza artificiale che fosse in grado di
risolvere questi problemi al pari degli esseri umani. Lo studio che riguarda questo
approccio è stato sviluppato a partire dalle considerazioni che Newell fa a proposito
del lavoro di Polya. In un suo libro quest’ultimo ci parla dei metodi euristici nell’area
del problem solving. Le euristiche sono delle regole pratiche, delle scorciatoie che ci
129
130

permettono ugualmente di risolvere un problema, nonostante si distacchino in


questo da caso dagli algoritmi. Gli algoritmi sono dei procedimenti che ci assicurano
il raggiungimento della soluzione soltanto che delle volte in tempi molto lunghi. Nel
suo libro Polya ci spiega che il metodo euristico si sviluppa in diverse fasi. Nella
prima è necessario capire il problema, quindi è necessario che il solutore abbia ben
chiaro l’obiettivo. La seconda fase invece prevede la creazione di un piano che ci
conduca alla soluzione. Spesso in supporto alla creazione di un piano vengono
utilizzate le analogie con problemi che sono stati già risolti in precedenza.
Successivamente abbiamo una terza fase dove è appunto prevista l’esecuzione del
piano e dove le operazioni devono essere svolte co molta attenzione. Infine, l’ultima
fase è quella di verificare se la soluzione ottenuta combacia con le aspettative
desiderate
6.1 Un semplice esempio di intelligenza artificiale

Un esempio di intelligenza artificiale sono i videogiochi. Il gioco preso in


considerazione più spesso dagli psicologi per affrontare questi studi è il Go-Moku. Il
Go-Moku è giocato su un reticolo: l'obiettivo è allineare cinque X oppure cinque O.
Un giocatore tenta di allineare cinque X mentre l'altro giocatore tenta di allineare
cinque O. quindi come primo obiettivo c’è quello di elaborare un programma che
prevede il gioco contro un avversario. Il programma di Borland fa uso di una
struttura di dati e di una funzione di valutazione. La struttura di dati corrisponde a
ciò che Polya chiama "la comprensione del problema". Essa consiste in una
rappresentazione del tavoliere e dello status di ciascuna casella: X, O, oppure vuota.
La funzione di valutazione fa ciò che Polya chiama "formulare un piano, eseguirlo e
valutarlo". Data una particolare posizione sul tavoliere, il programma calcola tutte le
mosse possibili. Ciascuna possibilità viene valutata. La mossa che viene prescelta è
quella dotata del maggiore valore tra tutte le mosse possibili.
Lo spazio del problema. Nel caso di un gioco semplice come il Go-Moku, il
programma può valutare tutte le mosse possibili in qualsiasi stadio del gioco. Di
conseguenza, il programma di Borland fa uso di un algoritmo, ovvero calcola la
migliore fra tutte le mosse possibili. Lo spazio del problema consiste nel modo in cui
il problema è rappresentato, compreso lo scopo da raggiungere e i vari modi di
trasformare la situazione data nella soluzione. In questo caso lo spazio del problema
è molto semplice dal momento che questo programma non fa quel genere di cose
che devono essere fatte dai programmi più complicati. Lo spazio del problema di
giochi più complicati (ad esempio, gli scacchi) è estremamente complesso e non può
essere analizzato semplicemente considerando le conseguenze di una singola
mossa. I buoni giocatori di scacchi devono essere capaci di anticipare la mossa in
130
131

risposta alla loro. In questo modo è necessario esaminare le conseguenze di due,


tre, o più mosse successive. Questa è la ragione per cui è molto difficile creare un
programma capace di giocare a scacchi per mezzo di un algoritmo. Questo punto
può essere chiarito considerando la nozione di spazio di ricerca. Un albero di ricerca
rappresenta tutte le possibili mosse che possono essere fatte a partire dallo stato
iniziale del problema. Newell, Simon e Shaw hanno osservato che scoprire la
soluzione di un problema è un po' come trovare l'uscita di un labirinto. L'aumento
vertiginoso del numero delle alternative che devono essere considerate nello spazio
del problema di un problema complesso è chiamato esplosione combinatoria. Una
tale esplosione combinatoria non può essere affrontata per mezzo di un algoritmo.
Invece di valutare tutte le alternative possibili è necessario trovare un metodo
euristico che consenta di scoprire la via migliore attraverso lo spazio del problema. Il
programma General Problem Solver (GPS) di Newell e Simon è uno dei programmi
per calcolatore meglio conosciuti in grado di compiere questo tipo di ricerca
euristica.
6.2 Il "General Problem Solver" di Newell, Shaw e Simon
Il rompicapo della torre di Hanoi. Lo studio del processo di ricerca della soluzione
ha spesso fatto ricorso all'analisi di problemi giocattolo (toy problems) anziché dei
problemi che si incontrano nella vita reale. I problemi giocattolo, come suggerisce il
nome, sono quel tipo di rompicapo che si potrebbe acquistare in un negozio di
giocattoli. E' vantaggioso analizzare questo tipo di problemi perché essi possiedono
una struttura conosciuta e perché consentono di raccogliere informazioni
interessanti sulle strategie di soluzione utilizzate dai soggetti. Uno dei problemi
studiati in maniera approfondita da Simon e collaboratori è quello della torre di
Hanoi. Tre anelli concentrici (piccolo, medio, grande) sono sistemati su uno dei pioli.
Il compito è quello di trasferire gli anelli dal piolo A a quello C. Può essere mosso
solo un anello alla volta e un anello non può essere sistemato su un anello più
piccolo. Benché lo scopo del problema sia quello di spostare tutti gli anelli dal piolo
A a quello C, questo scopo può essere decomposto in una serie di sottoscopi.
Il GPS e il rompicapo della torre di Hanoi. E' possibile programmare un calcolatore
per risolvere il rompicapo della torre di Hanoi usando regole di produzione. Come
spiegato in relazione alla teoria della memoria proposta da Anderson, una regola di
produzione è costituita da una condizione e da un'azione. Se la condizione
rappresentata dalla soluzione viene raggiunta, allora il processo di soluzione viene
concluso. Un problema è risolto se non vi è differenza tra lo stato raggiunto e lo
stato meta. Una parte essenziale del GPS è costituita dall'analisi delle differenze tra
lo stato attuale del problema e lo stato meta. All'inizio del processo di soluzione c'è
131
132

una grande differenza tra lo stato iniziale e lo stato meta. Questa è in effetti la
definizione stessa di problema: trovarsi in una data situazione e cercare di
raggiungere un'altra situazione (lo stato meta). Le procedure usate dal GPS per
ridurre le differenze tra lo stato attuale del problema e lo stato meta vanno sotto il
nome di analisi mezzi-fini (means-end analysis). Affinché il processo di soluzione
possa precedere è necessario individuare una serie di sottoscopi. Una volta
raggiunto un sottoscopo a partire dallo stato attuale, la differenza tra quest'ultimo e
lo stato meta è stata in parte ridotta. A questo punto, un altro scopo può essere
formulato, se necessario, e il raggiungimento di questo sottoscopo ridurrà
ulteriormente la distanza tra lo stato attuale e lo stato meta. Quando analizza un
problema il GPS crea una pila di scopi (goal stack). Lo stato meta è l'ultimo elemento
della pila, e i vari sottoscopi sono sovrapposti ad esso nell'ordine inverso a quello in
cui devono essere raggiunti. Questa è una procedura di soluzione più generale
rispetto a quella necessaria per risolvere il problema della torre di Hanoi. Simon ha
sostenuto che il GPS rappresenta una procedura generale per la soluzione di
problemi che può essere usata per risolvere problemi specifici. Il GPS è costituito da
una serie molto complessa di regole e di procedure applicabili ad una vasta gamma
di problemi.
6.3 I protocolli verbali nello studio della soluzione di problemi
Uno degli obiettivi della ricerca di Newell, Simon e Shaw è stato quello di scrivere
programmi per calcolatore capaci di simulare le procedure usate dagli esseri umani
per la soluzione di problemi. Per studiare la soluzione di problemi nell'uomo è stata
spesso usata la tecnica dei protocolli verbali. Ai soggetti viene chiesto di riferire
tutto ciò che passa loro per la mente, ovvero di pensare ad alta voce (thinking
aloud). Questa tecnica è stata chiamata verbalizzazione simultanea di Ericsson e
Simon, in quanto i soggetti devono esprimere verbalmente l'informazione nel
momento in cui prestano attenzione ad essa. E' necessario distinguere questo tipo di
verbalizzazione dalla verbalizzazione retrospettiva che si riferisce alle interviste in
cui i soggetti descrivono i processi cognitivi che hanno avuto luogo in un momento
temporale precedente. La verbalizzazione simultanea fa affidamento sulla memoria
a breve termine mentre la verbalizzazione retrospettiva fa uso della memoria a
lungo termine. La descrizione verbale così ottenuta è chiamata protocollo. Questi
protocolli, nonostante le numerose omissioni che li caratterizzano, ci consentono di
ottenere una grande quantità di informazioni. Insieme alle osservazioni dirette delle
mosse effettuate dai soggetti, questi protocolli possono fornire allo sperimentatore
una descrizione ragionevolmente completa del processo di soluzione del problema.
Newell ha fornito una serie di raccomandazioni che devono essere seguite affinché
132
133

un protocollo possa essere interpretato. In primo luogo, il protocollo deve essere


diviso in frasi, le quali costituiscano la descrizione di singoli atti. Successivamente, lo
sperimentatore costruisce un grafo del comportamento del problema, cioè una
descrizione concreta del cammino del solutore all'interno dello spazio del problema.
In base alle informazioni fornite da questa descrizione è possibile generare un
sistema di produzione capace di simulare il comportamento del soggetto. Anche se
la verbalizzazione simultanea è ampiamente usata, vi sono dati che indicano come
essa possa interferire con alcuni aspetti del processo di soluzione dei problemi.
Schooler, Ohlsson e Brooks hanno condotto uno studio in cui i soggetti venivano
interrotti mentre cercavano di risolvere un problema. A questo punto, a un gruppo
veniva chiesto di descrivere le strategie di soluzione usate, mentre un altro gruppo
doveva impegnarsi in un'attività che non aveva nulla a che vedere con il problema.
Poi i soggetti tornavano ad affrontare il problema iniziale. Risultò che il gruppo che
aveva verbalizzato le proprie strategie aveva meno probabilità di risolvere il
problema che non il gruppo impegnato in un'attività estranea al problema stesso. La
conclusione di Schooler, Ohlsson e Brooks è che vi sono "processi inconsci o
comunque non verbalizzabili" che conducono a soluzioni basate sull'insight e con i
quali la verbalizzazione interferisce. Potrebbe trattarsi di processi di ricerca nella
memoria tali da condurre al recupero delle informazioni necessarie alla soluzione.
6.4 Critiche rivolte alla simulazione su calcolatore
Non tutti gli psicologi credono che le simulazioni su calcolatore siano in grado di
rappresentare adeguatamente le prestazioni umane nella soluzione di problemi.
Alcuni psicologi hanno sostenuto, per esempio, che i processi di pensiero siano
troppo complessi per poter essere simulati su calcolatore. E' anche vero, però, che i
programmi per calcolatore sono in grado di risolvere problemi molto complessi. Per
altri critici, qualsiasi cosa i calcolatori facciano, questo non può essere considerato
come un processo di pensiero. Coloro che hanno espresso questa credenza spesso
fanno riferimento al filosofo tedesco Heidegger. Egli sosteneva che i programmi per
calcolatore sono costituiti da catene di inferenze e che questa proprietà non
costituisce l'essenza dei processi di pensiero. I programmi per calcolatore ci
forniscono delle simulazioni adeguate dei processi di ragionamento e di calcolo.
L'essenza del pensare sta al di là dei processi di ragionamento e di calcolo e non è
riducibile ad essi.
Pensare con i numeri
(PUPA) La rappresentazione dei numeri

133
134

Comunicare con i numeri


I sistemi di espressione numerica sono 2:
le parole numero (venticinque) e i numeri arabi (25). In entrambi i casi, gli elementi
vengono accostati tra di loro per mezzo di regole sintattiche ben precise, che ad
esempio ci permettono di leggere il numero 2 vicino ad un altro numero come venti.
Inoltre un numero può assumere tre diversi significati: e cioè il significato di
-Numerosità, che consiste nel rappresentare il numero di elementi presenti in un
insieme. (un insieme di 5 mele è più grande di un insieme di 3 mele)
- poi abbiamo il significato di Posizione seriale, ovvero l’ordine che assume un
elemento all’interno di una sequenza. Ad esempio la pagina 5 viene dopo la pagina 4.
-ed infine il significato di Etichetta, che non è altro che un modo arbitrario per
identificare qualcosa o qualcuno, e che assolutamente non ha nulla a che fare né con
lo stabilire una grandezza e nemmeno un ordine. Ad esempio, 6767 può essere usato
come un’etichetta per indicare un utente telefonico. Come per il linguaggio verbale
quindi bisogna distinguere tra il significato di un numero (la sua semantica) e la sua
forma.
La linea numerica mentale
Studiando la rappresentazione mentale dei numeri si sono accorti che questi si presentano in
forma analogica e visuo-spaziale. Gli studi furono condotti da Galton negli anni 80, il quale
chiedeva a delle persone normali di descrivergli il modo in cui pensavano ai numeri. La
maggior parte delle persone disse di avere delle rappresentazioni visuo-spaziali caratterizzate
talvolta anche da colori ben definiti. Spesso veniva fatto riferimento anche ad una linea,
orientata da sinistra verso destra e dove i numeri erano ordinati in forma crescente, quindi
con i numeri più piccoli all’estrema sinistra, e infine questi numeri si presentavano in forma
analogica. Queste però rappresentavano solo delle ipotesi speculative, e soltanto negli ultimi
anni la psicologia cognitiva si è dedicata alla ricerca di prove sperimentali che dimostrassero
l’esistenza della linea numerica mentale. L’effetto SNARC rappresenta uno di questi in
quanto costituisce la prova emblematica dell’orientamento spaziale della linea numerica
mentale. Negli esperimenti che dimostrano questo effetto a dei soggetti sperimentali
venivano presentati, uno alla volta al centro di uno schermo, i numeri da 1 a 9 (escluso il 5). Il
compito dei soggetti consisteva nello stabilire se il numero che compariva fosse pari o dispari
premendo un pulsante o con la mano desta o con la mano sinistra. La variabile dipendente
era il tempo di reazione. Quello che accadeva era che i TR per quanto riguarda i numeri
piccoli di 5 erano più rapidi con la mano sinistra, mentre i TR che interessavano i numeri più
grandi di 5 erano più rapidi con la mano destra. A questo punto possiamo dedurre che il
numero che compariva sullo schermo attivava automaticamente la sua stessa
134
135

rappresentazione anche sulla linea numerica mentale, dove appunto le quantità più piccole
sono rappresentate a sinistra e quelle più grandi a destra. Un’altra prova ancora più
schiacciante proviene dallo studio di pazienti affetti da neglect. Chi soffre di questa patologia
ha un disturbo attentivo a sinistra dopo aver subito una lesione al lobo parietale destro.
Infatti se chiediamo a uno di questi pazienti di indicarci il punto centrale di una semplice
linea questi lo indicheranno più spostato verso destra. Il compito di bisezione numerica è
piuttosto simile a questo, infatti veniva richiesto quale fosse il numero di mezzo fra due
numeri indicati da un esaminatore. I pazienti commettevano, anche in questo caso, lo
stesso errore che si verificava sulla linea reale. Ad esempio, tra 11 e 19, la risposta dovrebbe
essere 15 ma i pazienti rispondevano 17 o 18, cioè spostano a destra il punto di mezzo. Il
fatto che i pazienti commettano errori molto simili in entrambi i casi è una prova
abbastanza esplicita a favore dell'esistenza della linea numerica mentale.

Subitizing = abilità non verbale innata. È presente fin dalla nascita e sembrerebbe
essere un processo specializzato nella percezione a livello visivo permettendo una
precisa discriminazione di quantità relativa ad un piccolo numero di elementi senza
avvalersi del conteggio.
Il confronto di grandezze numeriche
La capacità di scegliere il più grande tra due numeri è apparentemente uno dei
compiti numerici più semplici, tuttavia è considerata il criterio di base per stabilire se
un individuo comprende significato dei numeri. I pazienti con lesioni celebrali che
hanno difficoltà a risolvere questo semplice compito sono anche detti
profondamente acalculici, cioè falliscono in una vasta gamma di compiti numerici. Il
confronto di grandezza numerica può essere eseguito utilizzando come stimoli
numeri arabi, le parole-numero, o anche degli insiemi di punti. In quest’ultimo caso la
grandezza dello stimolo può essere direttamente percepita. sono stati condotti degli
esperimenti sul confronto di grandezze numeriche e dall’analisi dei tempi di risposte
e degli errori si evince che le risposte sono tanto più rapide e più accurate quanto
maggiore è la differenza tra i due numeri. Questo fenomeno, noto come effetto di
distanza viene interpretato come una dimostrazione del fatto che le discriminazioni
tra gli elementi numerici sono tanto più facili quanto più le quantità da confrontare
sono distanti sulla linea numerica mentale.
Inoltre, i risultati ottenuti dimostrano l’esistenza del cosiddetto effetto di grandezza:
a parità di distanza tra i numeri da comparare, e risposte rallentano con l’aumentare
della grandezza dei numeri. Il compito di confronto di grandezze numeriche essere
utilizzato anche con varie specie di animali questi studi mostrano di risultati

135
136

sostanzialmente simili a quelli condotti soggetti umani, in particolare per la presenza


degli effetti di distanze di grandezza.
La matematica mentale. Calcoli numerici.
I fatti aritmetici hanno una relazione ben definita tra di loro. Queste relazioni sono
descritte da semplici leggi come quelle della commutativita e dell’associatività della
addizione. Questi aspetti conferiscono all’aritmetica una caratteristica unica: le
conoscenze possono essere recuperate dalla memoria o possono essere computate
utilizzando delle procedure che abbiamo appreso in precedenza e o che possiamo
momentaneamente costruire sulla base di relazioni numeriche.
L’effetto della grandezza del problema
Le ricerche sul calcolo mentale hanno portato alla conclusione che gli adulti utilizzano
in combinazione il recupero di fatti aritmetici dalla memoria, le procedure, e perfino il
conteggio. Per quanto riguarda la descrizione dei processi psicologici coinvolti, le
procedure vengono utilizzate quando il recupero fallisce. Ma cosa determina la
facilità o la difficoltà di un’operazione mentale? Tutte le ricerche sull’argomento
concordano che il maggior determinante delle risposte ottenute la grandezza del
problema. Una misura operativa della grandezza del problema è data dalla somma
dei suoi operandi. Sia i tempi di risposta che la probabilità di commettere errori,
aumentano in modo proporzionale alla grandezza del problema.
Il formato dei fatti aritmetici
Per alcuni ricercatori l’apprendimento di fatti aritmetici e sufficiente attraverso un
processo verbale di recupero dalla memoria lungo termine. In questa prospettiva,
l’effetto di grandezza del problema si spiega con il fatto che i problemi grandi sono
meno frequenti dei problemi piccoli. Secondo un’ipotesi opposta i fatti aritmetici
sono rappresentati sulla base del principio che unico per i numeri cioè la cardinalità
degli operandi. In altre parole, il recupero dalla memoria sarebbe basato su
rappresentazioni della quantità numerica piuttosto che su semplici associazioni
verbali. entrambe le teorie si sono dimostrate inadeguate, l’ipotesi più plausibile
sembra essere una via di mezzo tra le due posizioni opposte.
Il cervello e la matematica
Gli studi su pazienti che soffrivano di acalculia, cioè presentavano una difficoltà
specifica nell’esecuzione di calcoli, hanno fatto sospettare che il lobo parietale avesse
un ruolo specifico in questa abilità. questa ipotesi è stata confermata da recenti studi
di neuro immagine funzionale.
Calcolatori eccezionali
Ci si è domandato se c’è bisogno di un cervello speciale per essere eccezionale nel
136
137

calcolo e nella matematica. Sono stati fatti degli studi sulle persone considerati
calcolatori prodigio. A volte questi individui sono dei grandi matematici, ma in altri
casi possono essere degli idiots savants, individui con un’intelligenza molto inferiore
alla norma che sono però in grado, ad esempio, di riconoscere in pochi secondi se un
numero di cinque cifre è un numero primo ecc. in realtà, va ricordato che si è grandi
matematici sia i savants passano la maggior parte del loro tempo a fare matematica o
a giocare con i numeri o a risolvere i problemi. Sembra quindi che questa capacità
apparentemente sovraumana dipenda principalmente dalla grande quantità di
pratica.
non bisogna ignorare le basi biologiche, alcune persone soffrono infatti di discalculia
evolutiva, una difficoltà specifica con i numeri che si manifesta nei primi anni di
scuola. Difficoltà di questo tipo sembrano proprio dipendere da anomalie genetiche
che si riflettono sullo sviluppo del cervello.
Giudizio e decisione
Euristiche e biases cognitivi
Noi individui spesso utilizziamo le EURISTICHE, queste ultime sono delle regole
pratiche, che alcune volte ci permettono di ottenere i risultati desiderati ma che
invece possono essere ingannevoli in altre circostanze, in quanto si tratta di processi
che si discostano dai principi del ragionamento corretto, e per questo sono fonte di
errori. I BIASES COGNITIVI sono proprio gli errori causati dall’uso delle euristiche, ne
sono stati scoperti circa 30.
Parliamo di Statistica intuitiva
Quando proviamo a stimare la frequenza relativa di un evento. Per esempio, se
dobbiamo predire quante volte l’evento testa si verifica nel caso di 4 lanci di una
moneta non truccata. La credenza più comune è che quest’evento si verifichi 2 volte
su 4, quindi il 50% delle volte. Ma non dobbiamo sorprenderci se ciò non accade
dopo 4 lanci. In generale, nessun particolare campione di eventi rispecchia
fedelmente le proporzioni della popolazione totale.
LEGGE DEI GRANDI NUMERI-> specifica quanto spesso un evento si verifica a lungo
andare. Dato che a lungo andare le frequenze di teste e di croci devono essere
approssimativamente uguali, dopo una lunga sequenza di teste o croci siamo portati
ad aspettarci un cambiamento che compensi lo squilibrio precedente. Quello che
richiede la legge dei grandi numeri è che la proporzione di teste e croci approssimi a
0,5 in misura tanto maggiore quanto aumenta il numero di lanci. Le probabilità
associate all’esito di un particolare lancio sono indipendenti da quelle di qualunque
altro lancio. Credere altrimenti significa essere vittima di quelle che è chiamata
137
138

FALLACIA DEL GIOCATORE D’AZZARDO. In conclusione, è errato credere che sia più
probabile ottenere croce dopo una serie di lanci che hanno dato testa piuttosto che
dopo una sequenza diversa.
Euristica della rappresentatività e la legge dei piccoli numeri (fiore)
Noi individui spesso utilizziamo le EURISTICHE, queste ultime sono delle regole
pratiche, che alcune volte ci permettono di ottenere i risultati desiderati ma che
invece possono essere ingannevoli in altre circostanze, in quanto si tratta di processi
che si discostano dai principi del ragionamento corretto, e per questo sono fonte di
errori. Quando crediamo che un piccolo campione sia rappresentativo della
popolazione da cui è stato tratto facciamo affidamento a quella che Kahnemann e
Tversky definiscono come legge dei piccoli numeri. Questa credenza ci induce a fare
uso della cosiddetta euristica della rappresentatività. L’euristica della
rappresentatività ci porta a commettere diversi tipi di errori, tra cui quello che si
verifica quando noi individui dobbiamo scegliere se una sequenza di eventi è stata
prodotta in maniera casuale o meno. Alcune ricerche dimostrano che quando
lanciamo una moneta non truccata, una successione di lanci che da come risultati TT
CC TT CC, non appare del tutto casuale, poiché al suo interno viene riscontrato un
pattern ed è poco probabile che un pattern sia il risultato di un processo casuale e
non di una regola. Inoltre la Lopes ha fatto una distinzione tra quello che è un
processo casuale da uello che invece è considerato un prodotto casuale.
UN PROCESSO CASUALE: ad esempio può essere il lancio di una moneta non truccata,
può produrre delle sequenze che non sembrerebbero affatto casuali;
IL PRODOTTO DI UN PROCESSO CASUALE, può invece apparire non casuale. È
perfettamente possibile che il lancio di una moneta non truccata generi una
sequenza come quella descritta in precedenza, anche se la maggioranza degli
individui sicuramente non sceglierà questa particolare sequenza per rappresentare
un prodotto casuale.
Uno dei possibili effetti dell’euristica della rappresentatività-> fenomeno della mano
calda. Quando un giocatore realizza una serie di canestri senza commettere alcun
errore, gli spettatori percepiscono questo giocatore come un qualcuno che possiede
una mano calda, cioè realizzare una sequenza di canestri che difficilmente poteva
essere prodotta da un processo casuale. I dati presentati da alcuni ricercatori
indicavano che il 91% dei tifosi esaminati credeva che un giocatore abbia una
probabilità maggiore di realizzare un canestro se i suoi precedenti due o tre tiri sono
andati a segno. -> l’analisi non ha portato a questa conclusione. Questo significa che
la probabilità di fare canestro non è più grande dopo una serie di tiri riusciti di quanto
138
139

lo sia dopo una successione di tiri mancati. Se la probabilità di segnare è uguale a 0,5
per un giocatore, questa probabilità non aumenterà dopo che il giocatore ha segnato
un canestro e neppure diminuirà dopo che il giocatore ha mancato un canestro.
Perché avviene questo fenomeno? La credenza della mano calda potrebbe dipendere
dal fatto che le sequenze di eventi generate da un processo casuale non vengono
percepite in modo accurato. Nel caso della pallacanestro, per esempio, credere che
un giocatore abbia una mano calda può avere conseguenze negative. Questa
credenza potrebbe portare i giocatori a passare la palla ai giocatori con la “mano
calda” in misura maggiore rispetto agli altri giocatori. Dato che questo fenomeno non
esiste, questo non porta ad un miglioramento del rendimento della squadra.
L’ipotesi del flusso-> in certe circostanze i compiti sembrano svolgersi per loro propria
virtù, senza richiedere nessuno sforzo. L’esecuzione di un compito motorio
sufficientemente difficile con un livello di padronanza adeguatamente elevato può
creare le condizioni per il verificarsi del fenomeno del flusso.
(indagine sperimentale può fornire un contesto sufficientemente controllato perché il
comportamento in serie possa verificarsi).
Aggiustamento e ancoramento
Aggiustamento-> gli individui aggiustano le loro stime a seconda del numero iniziale
della sequenza. (la prima sequenza ha un numero iniziale maggiore rispetto alla
seconda , essa sembra produrre un risultato maggiore)
Ancoramento-> si può dire che le sequenze sono ancorate a valori diversi, e che
queste ancore creano l’illusione che le due moltiplicazioni producano risultati diversi.
In generale, quando vengono chieste delle stime di grandezza, i giudizi dei soggetti
tendono ad essere influenzati dal valore presentato inizialmente.
Euristica della disponibilità (nonno)
La disponibilità si riferisce alla facilità con la quale un item può venire in mente come
l’etichetta di una certa esperienza. E questo può influenzare le nostre decisioni. S
upponiamo che ci venga chiesto di giudicare la frequenza relativa con la quale lettere
diverse sono presenti nelle parole. La lettera R può essere la prima lettera di una
parola o la terza. È più probabile che una parola inizi con la lettera R o che sia la terza
lettera? I dati riportati indicano che il 69 % dei soggetti stimano che la lettera R sia
presente più spesso all’inizio di parola nella lingua inglese, in realtà è vero l’opposto.
Questo succede perché la rievocazione di parole come risata è più semplice rispetto
alla rievocazione di parole come corsista. Di conseguenza, le parole che iniziano con
139
140

la lettera R risultano essere maggiormente disponibili. E per questo crediamo che


siano più frequenti. In questo modo, confondiamo la frequenza di rievocazione con la
frequenza delle occorrenze di un evento.
Il principio della quantità
È un altro principio euristico. Alcuni studiosi si sono occupati dell’effetto della
quantità sui giudizi qualitativi. Esperimento -> i soggetti erano chiamati a correggere
le bozze di stampa di un testo. C’erano due gruppi, ad un gruppo le pagine erano
presentate singolarmente, mentre all’altro gruppo le pagine erano presentate
assieme al giornale dal quale era stata tratta. Il secondo gruppo si riteneva più
produttivo e più soddisfatto. Ciò suggerisce che la quantità del materiale visto dai
soggetti influenza il loro giudizio sulla qualità del lavoro svolto.
Correlazioni illusorie
La disponibilità può essere anche ritenuta responsabile del fenomeno delle
correlazioni illusorie. A volte gli individui credono che eventi diversi si verificano in
concomitanza gli uni con gli altri anche se, in realtà, questo non avviene. Alcuni
studiosi hanno avanzato l’ipotesi che la disponibilità influenzi anche i giudizi che
riguardano la frequenza con cui eventi diversi si verificano contemporaneamente. Se
quando pensate ad un evento di un certo tipo vi ricordate anche di un evento
diverso, allora potreste inferire che entrambi questi eventi tendano effettivamente a
verificarsi in concomitanza. Bisogna distinguere:
concetti intuitivi: sono acquisiti con facilità e sono usati da quasi tutti gli adulti, la
credenza che una parola possa essere il sinonimo di un’altra parola;
concetti statistici: non sono intuitivi, vengono acquisiti per mezzo di un’educazione
formale. Spesso l’uso adeguato di questi concetti richiede calcoli dettagliati. Il
concetto di correlazione costituisce un esempio di concetto non intuitivo.
Esperimento-> lo sperimentatore ha presentato dei dati ad un campione di
infermiere e ha scoperto che i soggetti tendevano a credere che ci fosse una
connessione tra la presenza del sintomo e la presenza della malattia. La
giustificazione era che il maggior numero di casi compariva nella casella indicante la
presenza sia del sintomo che della malattia. Questo significa che i soggetti prestavano
attenzione soprattutto ai casi coerenti con l’ipotesi che il sintomo e la malattia
fossero correlati. Questo esperimento costituisce un ulteriore dimostrazione del
fenomeno della tendenza alla conferma.
Regressione verso la media
Il concetto di correlazione a volte viene discusso in riferimento al fenomeno della

140
141

regressione verso la media. In generale se due variabili non sono perfettamente


correlate, allora i valori alti della prima variabile tendono ad essere associati a valori
più bassi della seconda variabile, mentre i valori bassi della prima variabile tendono
ad essere associati a valori più alti della seconda variabile.
Addestramento nel ragionamento statistico
lo spazio del problema definisce il modo in cui il problema è rappresentato, il che
include la definizione dello scopo che deve essere raggiunto e le varie modalità per
mezzo delle quali lo stato iniziale del problema può essere trasformato nello Stato
meta. Karin analizzato i modi in cui gli spazi del problema influenzano l’uso delle
euristiche.
considerando i vari modi con cui un problema questo è rappresentato dei soggetti
possiamo capire perché alcune risposte sembrano più ragionevoli di altri. Diversi
spazi del problema definiscono frames diversi all’interno dei quali un problema può
essere capito oppure frainteso. Alcuni studiosi hanno notato che dato che non
possediamo adeguati modelli formali per calcolare, i giudizi intuitivi spesso
rappresentano l’unico metodo pratico per produrre delle stime in situazioni
incertezza. Altri hanno suggerito che, se è vero che i Biases cognitivi che abbiamo
considerato fino a questo punto regolano i processi di ragionamento in molti
situazioni, è vero anche che esistono però altre situazioni in cui gli individui sono in
grado di produrre la soluzione corretta. Secondo questi, la capacità di fare uso delle
corrette procedure di ragionamento dipende da 3 fattori:
• la chiarezza del problema: è importante che gli individui siano consapevoli di
tutte le alternative. Lo spazio del problema viene compreso più facilmente in
alcuni casi che in altri. Gli errori si verificano nei casi in cui lo spazio del
problema viene compreso in maniera inadeguata;
• comprensione dei processi casuali: alcune situazioni rendono più chiaro di altre
l’operato del caso. Gli eventi sportivi gli effetti di fattori causali sono
relativamente ovvi. Solitamente, l’effetto che questi fattori esercitano sull’esito
del gioco è chiaro. Però, non sempre gli individui si rendono conto della natura
casuale dei fenomeni, come nel caso della credenza della mano calda. Se gli
individui sono consapevoli che è un processo È influenzato da fattori casuali,
allora è più probabile che facciano ricorso a procedure di ragionamento
rigorose;
• prescrizioni culturali: gli individui ragiono in maniera conforme ai principi
statistici se hanno ricevuto l’educazione adeguata e se la loro cultura di
appartenenza valuta in maniera favorevole i processi di ragionamento di
questo tipo.
141
142

Pensiero magico
Alcuni ricercatori hanno suggerito che almeno alcuni di questi Biases devono essere
considerati come il risultato della persistenza di un processo primitivo chiamato
pensiero magico. Il pensiero magico viene spesso ritenuto un esempio della
permanenza di aspetti infantili nella vita adulta. Molti psicologi dell’età evolutiva
credevano che i bambini e individui appartenenti a una cultura primitiva percepissero
gli oggetti in modo globale, o sincretico. Questo termine si riferisce al processo per
mezzo del quale gli eventi che appaiono anche superficialmente simili vengono
ritenuti collegati da una relazione causale. Benché il processo educativo consenta agli
individui di trascendere questa forma di pensiero, ci possono essere dei contesti
particolari all’interno dei quali essa può fare ancora sentire la sua presenza. La ricerca
classica sul pensiero magico è quella effettuata da Frazer. Egli credeva che le pratiche
magiche fossero regolate da due leggi. La prima è la legge della somiglianza: afferma
che le cose simili si influenzano reciprocamente. Cause ed effetti sono simili le une
agli altri. Le pratiche magiche basate sulla legge della somiglianza sono state
denominate magia omeopatica. Dal momento che le cose simili si influenzano
reciprocamente, gli eventi possono essere influenzati manipolando un oggetto simile
a quello che si desidera controllare.
La seconda legge è la legge del contagio: afferma che le cose che sono state una volta
in contatto le une con le altre continueranno in seguito ad esercitare un’influenza
reciproca. Le pratiche basate su questa legge costituiscono la magia del contagio. Ci
sono molti esempi di pensiero magico che noi potremmo considerare come
superstizione infantili. Nonostante questo, neppure noi siamo completamente
immuni da questa forma di pensiero. Una forma primitiva di pensiero come quella del
pensiero magico è ancora presente in noi in forma potenziale. Il nostro sviluppo non
è tale da averla superata completamente. Altri ricercatori hanno scoperto che ci sono
grandi differenze individuali nella suscettibilità al pensiero magico. Alcuni ricercatori
hanno notato il fatto che è più facile che un evento venga percepito come dotato di
un’influenza magica negativa piuttosto che positiva. Il contatto con un oggetto che
viene valutato negativamente e produce contaminazione molto più facilmente di
quanto il contatto con un oggetto valutato positivamente posso intensificarne il
valore (esempio spazzolino). Altri ricercatori hanno mostrato che le persone non
sono disposti a consumare una sostanza che abbia l’etichetta “non velenoso“. inoltre
aggiungono che molti prodotti hanno etichette che informano che cosa non sia
contenuto in essi, e suggeriscono che la tendenza a non tener conto delle indicazioni
su una forma di pensiero magico che potrebbe avere conseguenze negative.

142
143

Coincidenze significative
Una coincidenza significativa si verifica quando degli eventi sembrano essere
associati in maniera significativa anche se si verificano simultaneamente soltanto per
caso. È un’esperienza simile a quella del pensiero magico. Jung ha notato che per noi
è difficile credere che tali coincidenze accadono soltanto per caso. Coincidenze
significative possono verificarsi anche quando qualcuno legge il suo oroscopo o si
reca a farsi predire il futuro. Altri ricercatori hanno dimostrato che gli individui
giudicano le coincidenze che riguardano loro diversamente dal modo in cui giudicano
quelle che riguardano gli altri. Generalmente, i soggetti ritengono che le coincidenze
capitate a loro stessi sono più sorprendenti di quelle che capitano gli altri. Una
coincidenza è sorprendente nella misura in cui è personale. Gli individui tendono a
considerare le coincidenze accadute nel loro passato come fatti importanti e degni di
essere ricordati. Questo fenomeno è stato chiamato Bias egocentrico. Inoltre è stato
notato che questi possono essere interpretati in base ad euristica della disponibilità->
cioè le coincidenze significative accadute nel nostro passato costituiscono per cui
esperienza più disponibile e per questa ragione ne sopravvalutiamo il significato.
Quando consideriamo le coincidenze capitate agli altri, invece, confrontiamo le
coincidenze con le varie alternative possibili in quelle determinate circostanze. Nei
confronti delle coincidenze significative capitate agli altri tendiamo a comportarci in
maniera più obiettiva. noi tendiamo a sovrastimare il significato di ciò che
effettivamente è successo senza renderci conto del fatto che quello che ha avuto
luogo non è altro che una soltanto delle molte possibilità che si sarebbero potute
verificare.
Decisione
Le decisioni basate sull'intuito
Nella vita quotidiana si prendono continuamente delle decisioni. In alcuni casi, le decisioni
sono automatiche, come quando, ad esempio, prendiamo il nostro solito tubetto di
dentifricio dallo scaffale del supermercato. In altri casi, invece, prendere una decisione non è
semplice. Ad esempio, è probabile che abbiamo dovuto riflettere molto prima di scegliere il
nostro corso di laurea. In altri casi ancora, una decisione può essere così difficile da prendere
che il decisore si sentirà come paralizzato. Questo è il caso, ad esempio, delle scelte che
possono avere delle conseguenze rilevanti per la vita del decisore, come la decisione di
sottoporsi ad una operazione chirurgica impegnativa. In altri casi, infine, le scelte implicano
dei conflitti tra valutazioni di diversa natura. Ad esempio, è lecito decidere di sopprimere un
membro di una coppia di gemelli siamesi al fine di salvare l'altro? Un conflitto di decisione
può essere risolto in molti modi. Ci si può affidare al consiglio di un esperto, si può rimandare
la decisione, ci si può affidare al caso, oppure ci si può affidare al proprio intuito. Decidere
143
144

intuitivamente, in base al "sesto senso", pare essere una modalità di scelta molto usata. Non
solo le persone comuni, ma anche gli esperti prendono decisioni in questo modo. Il 24 aprile
1992, l'allora Presidente della Repubblica Cossiga nel corso di una conferenza stampa al
Quirinale fece la seguente affermazione: "L'intuito politico è un giudizio sintetico [...] se dessi
retta all'intuito mi dimetterei e lascerei al mio successore il compito di formare il nuovo
governo". Il giorno dopo, Cossiga dava le dimissioni dall'incarico: evidentemente, una tra le
decisioni più importanti nella politica italiana si è basata su un'intuizione.
3. I principi di coerenza descrittiva e procedurale. Teoria del prospetto.
Nell’ambito della scelta razionale riscontriamo il principio di coerenza descrittiva e il
principio di coerenza procedurale. Secondo il principio di coerenza descrittiva, quando
gli individui devono compiere un scelta ed esprimono una preferenza piuttosto che
un’altra, questa non dovrebbe scaturire dal modo in cui vengono descritte le opzioni.
Kahneman e Tversky, che sono gli esponenti più autorevoli nell’ambito della psicologia
della decisione e del ragionamento probabilistico, hanno inventato il cosiddetto
problema della “malattia asiatica” in base al quale a dei soggetti venivano presentate
delle coppie di opzioni, le quali opzioni descrivevano le stesse conseguenze solo che
venivano presentate ai soggetti in maniera diversa. Nella prima versione, le opzioni erano
descritte in termini di vite salvate (guadagni). Nella seconda opzione le stesse opzioni
erano invece descritte in termini di vite perdute (perdite). Nonostante il fatto che le due
descrizioni seppure diverse fossero equivalenti, le persone facevano delle scelte che
violavano il principio di coerenza descrittiva. Questo risultato era stato già anticipato
dalla teoria del prospetto, per mezzo della quale venivano analizzate le decisioni reali degli
individui e non quelle razionali. Infatti elemento fondamentale di questa teoria è la
funzione di valore soggettivo la quale si caratterizza di tre proprietà distinte:

1. la prima è definita avversione per le perdite, riguarda il fatto che una perdita ha un
effetto maggiore di un guadagno dello stesso livello. Con questo vogliamo dire che, ad
esempio, un aumento di prezzo provoca nel consumatore un fastidio maggiore del
piacere provato quando si riceve uno sconto di pari valore.
2. la seconda è che la curva dei guadagni è concava mentre quella delle perdite è
convessa. Ciò significa che i soggetti evitano di fare scelte rischiose nel dominio dei
guadagni e sono più propensi a rischiare nel dominio delle perdite
3. la terza è che i guadagni e le perdite sono definiti in base ad una operazione mentale
di codifica rispetto a un punto di riferimento

144
145

il secondo principio, quello di coerenza procedurale, sostiene che gli individui esprimono le
loro preferenze a prescindere dal modo in cui gli viene chiesto di esprimerle. Tale principio
interferisce con un meccanismo psicologico, detto "principio di compatibilità", secondo il
quale le persone danno più importanza alle caratteristiche positive delle opzioni, quando ne
devono scegliere una, mentre tendono a dare maggior peso alle caratteristiche negative,
quando ne devono rifiutare una.
3. Il principio di cancellazione
In base ad un altro principio, della scelta razionale, quello della cancellazione, la scelta
dovrebbe essere fatta in funzione di ciò che differenzia le opzioni e non di ciò che le
accomuna. Anche questo principio è molto intuitivo, oltre che razionale. Ad esempio, se
dobbiamo scegliere tra due automobili (A e B), che differiscono rispetto a certi attributi (ad
esempio, la prima automobile consuma di meno ma costa di più della seconda) ma non ad
altri (ad esempio, entrambe le automobili sono modelli del 1995 e di colore rosso), allora
sembrerà evidente che la scelta dovrà essere fatta rispetto ai primi e non ai secondi.
Tuttavia, anche questo principio, come quelli visti in precedenza, non risulta sempre
rispettato. Consideriamo il seguente problema, inventato da Kahneman e Tversky:
immaginiamo di dover comprare una giacca per 125$ e una calcolatrice per 15$. L'addetto al
reparto delle calcolatrici ci informa che la calcolatrice che vogliamo comprare è in vendita a
10$ in un altro negozio della stessa catena di centri commerciali, distanti 20 minuti di auto.
Siamo disposti a guidare fino all'altro negozio?
In questo scenario, la maggioranza delle persone accetta lo sconto. Consideriamo adesso
quest'altro scenario:
immaginiamo di dover comprare una giacca per 15$ e una calcolatrice per 125$. L'addetto al
reparto delle calcolatrici ci informa che la calcolatrice che vogliamo comprare è in vendita a
120$ in un altro negozio della stessa catena di centri commerciali, distanti 20 minuti di auto.
Siamo disposti a guidare fino all'altro negozio?
In questa versione del problema, la maggioranza degli intervistati non accetta lo sconto.
Eppure, evidentemente potremmo anche in questo caso risparmiare 5$ andando all'altro
negozio. Secondo Tversky e Kahneman il rovesciamento delle preferenze che si osserva in
questo problema dipende dal tipo di rappresentazione mentale che gli individui tendono a
costruirsi:
• la prima rappresentazione possibile, detta calcolo minimo, è quella in cui vengono
esaminate solo le differenze tra le opzioni, senza tener conto delle caratteristiche
comuni. E' la rappresentazione mentale del problema che deriva dall'applicazione del
principio di cancellazione. Se le persone adottassero questo tipo di contabilità mentale
145
146

il rovesciamento delle preferenze non si manifesterebbe. Infatti, in entrambe le


versioni, si tratterebbe di decidere se uno sconto di 5$ compensi o no un viaggio di 20
minuti
• la seconda rappresentazione possibile, detta calcolo complessivo, è quella in cui
vengono integrati tutti i costi sostenuti e tutti i benefici ottenuti. Anche in questo caso
non si dovrebbero registrare differenze di scelta nei due scenari, perché, in entrambi i
casi, le persone dovrebbero mettere in relazione uno sconto di 5$ con l'insieme dei
costi sostenuti per l'acquisto della giacca, della calcolatrice e per lo spostamento
• la seconda rappresentazione possibile, detta calcolo tematico, è quella in cui le
conseguenze della decisione vengono valutate in funzione di un punto di riferimento
che, a sua volta, è determinato dal contesto in cui la decisione è inserita. Nelle due
versioni del problema il contesto (e quindi il punto di riferimento) è l'acquisto della
calcolatrice. Di conseguenza, il beneficio che si ottiene dall'andare all'altro negozio
sarà valutato non complessivamente ma solo rispetto a quel prodotto. Poiché il prezzo
iniziale della calcolatrice è molto diverso nelle due versioni, lo sconto di 5$ sarà
valutato di più nella prima versione che nella seconda (cfr. la forma concava della
funzione del valore), e le persone si diranno più disposte a ottenerlo nel primo che nel
secondo caso. Secondo Tversky e Kahneman vi è una tendenza spontanea a
rappresentarsi i problemi di scelta in modo tematico, allo stesso modo in cui vi è una
tendenza spontanea a organizzare i concetti in categorie di base. Questa tendenza,
associata alla forma concava della forma della funzione del valore, spiegherebbe allora
il rovesciamento di preferenze ottenuto nel problema della calcolatrice e la
conseguente violazione del principio di cancellazione. Più in generale, questi risultati
dimostrano che le scelte intuitive sono basate su una sorta di calcolo mentale in cui
costi e benefici non sono sempre integrati adeguatamente.

4. Il principio della cosa certa


Il principio della cosa certa stabilisce che se si preferisce l'azione A alla B dato un
certo stato del mondo X, e se si preferisce ancora l'azione A alla B, dato lo stato del
mondo non-X, allora si dovrà preferire A a B indipendentemente da quale sarà lo
stato del mondo che si verificherà. Si tratta di un principio decisionale intuitivo oltre
che razionale. Tuttavia, come nel caso dei principi sopra considerati, vi sono alcune
situazioni in cui anche il principio della cosa certa viene violato. Tversky e Eldar Shafir
chiesero ad un gruppo di studenti se si sarebbero recati in vacanza alle Hawaii,
accettando un'offerta molto favorevole di un'agenzia di viaggi, nel caso in cui
avessero superato un esame. Buona parte di questi studenti rispose in modo

146
147

affermativo. Successivamente, Tversky e Shafir chiesero alle stesse parole se


avrebbero accettato quell'offerta nel caso in cui non fossero riusciti a superare
l'esame. Ancora una volta, buona parte degli studenti rispose in modo affermativo.
Quando però chiesero loro se avrebbero accettato l'offerta nel caso in cui l'esito
dell'esame non fosse ancora noto, scoprirono che buona parte degli studenti
preferiva aspettare l'esito prima di effettuare la scelta, pagando addirittura una
penale all'agenzia di viaggi per mantenere la prenotazione fino al momento in cui
avrebbero conosciuto l'esito dell'esame. In altre parole, queste persone erano
disposte a pagare per avere un'informazione evidentemente inutile dal momento
che, qualsiasi fosse stato l'esito dell'esame, sarebbero andati in vacanza. Una simile
violazione del principio della cosa certa può essere attribuito alla difficoltà a
ragionare nell'incertezza. In particolare, nel problema delle vacanze, gli studenti
possono aver proposto la decisione perché, nella condizione di incertezza, non era
loro nota la ragione che li avrebbe portati ad andare in vacanza (cioè festeggiare un
successo in caso di superamento dell'esame oppure consolarsi per un insuccesso nel
caso di bocciatura).
-ORTOGRAFIA (CAP. 2)

Creazione di un linguaggio universale.


Il linguaggio scritto è un’abilità umana relativamente recente dal punto di vista
evoluzionistico poiché è un’invenzione, una proto-tecnologia della nostra specie,
che risale a non più di 5000 anni fa. Al contrario il linguaggio orale si è sviluppato
durante la storia naturale della specie homo sapiens presumibilmente a causa di
diverse pressioni evolutive e in conseguenza a diverse modificazioni biologiche e di
tipo filogenetico, come la lateralizzazione cerebrale, (legata alla lateralizzazione c’è
la preferenza mostrata da una netta maggioranza degli individui per la mano destra)
la stazione eretta, grazie alla quale c’è stato un progressivo subentro al linguaggio
verbale quello del linguaggio gestuale, poiché il fatto di poter camminare solo sulle
gambe ha liberato le mani e in particolar modo gli arti superiori dal compito della
locomozione e li ha resi disponibili per l’uso del linguaggio gestuale che per alcuni
studiosi sarebbe alla base del successivo sviluppo del linguaggio verbale, e infine la
modificazione del tratto laringale, vocale. Questa storia evoluzionistica differente sta
alla base dei diversi meccanismi implicati nei processi d’apprendimento delle due
abilità:
I processi di apprendimento della lingua orale si servono di dispositivi neurali
specializzati e di una predisposizione biologica universale, pertanto anche con una

147
148

stimolazione non ottimale tutti gli individui imparano a comunicare precocemente


grazie ad un apprendimento di tipo non volontario.
I processi di apprendimento della lingua scritta, che permettono di svolgere i
compiti di lettura e scrittura, si sviluppano a partire dall’età scolare e sono la
conseguenza di un insegnamento di tipo esplicito, non naturale e soprattutto non
sono processi biologicamente predefiniti e universali.
Un’altra sostanziale differenza sono i canali sensoriali e motori implicati: il linguaggio
scritto si serve della modalità grafico-visiva attraverso gli apparati motorio e visivo,
mentre il linguaggio parlato si serve della modalità fonico-uditiva attraverso gli
apparati articolatorio e uditivo. In terzo luogo, i processi di elaborazione della lingua
scritta dipendono maggiormente dal tipo di input al quale gli individui sono
sottoposti, dal tipo di lingua scritta e dal tipo di corrispondenza che ha con la lingua
orale. Infine è diverso il corso temporale delle attività di elaborazione del linguaggio
scritto: quando scriviamo o leggiamo, abbiamo a disposizione più tempo rispetto a
quando parliamo o comprendiamo il linguaggio parlato, quindi queste ultime attività
sono più automatiche e immediate delle prime.

2 . I diversi sistemi di scrittura

Distinguiamo tre diversi sistemi di scrttura: i Sistemi logografici ( come il cinese,


Kanji): si caratterizzano per il fatto che un simbolo, chiamato logogramma,
corrisponde ad un’intera parola dal punto di vista fonologico.
Sistema sillabico ( kana giapponese, cherokee): caratterizzato da segni grafici che
rappresentano l’insieme di un suono consonantico o vocalico.
Sistema alfabetico: si avvale di segni grafici chiamati lettere che corrispondono a
suoni chiamati
fonemi della corrispondente lingua parlata. Un segno scritto o più segni scritti
riproducono, in modo più o meno approssimativo, un fonema.
Nelle lingue fonologicamente trasparenti, come l’italiano, la corrispondenza tra
lettera e suono è
biunivoca ad eccezione di alcune lettere associate a vocali diverse ( lettera g con la
vocale i o con la vocale a, produce un suono diverso).

148
149

Nelle lingue ortograficamente opache come l’inglese, le lettere non corrispondono


in modo biunivoco ma hanno una corrispondenza“ uno a molti”.
Definizione di grafema: lettera o insieme di lettere che rappresentano un unico
suono o fonema.
La parola ghermisce è composta di 9 lettere ma solo 7 grafemi poiché gh e sc
equivalgono ad un
singolo suono.

3 . il riconoscimento delle parole scritte

3.1 I movimenti oculari

Il primo contatto con una parola scritta avviene per mezzo dell’apparato percettivo
visivo ed è stato studiato per mezzo di una tecnica definita dei movimenti oculari.
Quando i nostri occhi osservano un testo scritto, lo fanno compiendo dei rapidi
movimenti oculari, chiamati saccadi, che per la loro rapidità (10/20 ms) permettono
di scavalcare anche più di dieci caratteri alla volta, e che per questo non danno la
possibilità di rilevare informazioni ortografiche.
Vi sono, tuttavia dei periodi di tempo tra un movimento e l’altro, le fissazioni,
durante i quali gli
occhi rimangono immobili e l’informazione può essere percepita dal sistema visivo.
La maggior parte delle parole viene fissata una sola volta e per periodi che variano
dai 50 ai 250 ms e
la velocità di riconoscimento dei caratteri varia a seconda della difficoltà del testo,
dalle abilità individuali e dalla presenza nel testo di snodi critici. A volte, poi, il
lettore torna su parti del testo già lette effettuando le cosiddette ricorsioni, che
segnalano l’esigenza del lettore di riesaminare parti del testo. È stato notato che a
volte le parole brevi, come i funtori grammaticali, vengono saltati perché meno
informativi rispetto alle parole contenuto (nomi, verbi), al contrario le parole più
lunghe e meno frequenti generalmente sono fissate più volte.
3.2 Tratti, lettere e parole

149
150

Dal punto di vista cognitivo, capire come avviene il riconoscimento di una parola
scritta significa comprendere il meccanismo secondo cui dapprima una sequenza di
caratteri grafici viene elaborata dal sistema visivo e poi la sua rappresentazione
percettiva viene confrontata con una o più forme di rappresentazione presenti nel
lessico mentale, come ad esempio la dimensione semantica che ci permette di
comprendere il significato di una parola. In un’ortografia di tipo alfabetico è
possibile distinguere molte informazioni dalla struttura interna
della parola analizzando tre livelli: tratti, lettere, parole.
I tratti, sono le caratteristiche fisiche che compongono le lettere dell’alfabeto. le
lettere sono costruite da tratti ortografici. La lettera A è formata da due segmenti
obliqui e uno orizzontale. I tratti interni alle lettere hanno un ruolo importante in un
compito di
riconoscimento di lettere.

Lettere. Nelle ortografie di tipo alfabetico anche le lettere sono considerate come
unità percettive di base nel riconoscimento di parole scritte. A tale livello, le lettere
sarebbero rappresentate come entità astratte, in modo indipendente dalla loro
manifestazione fisica. Lo stadio di riconoscimento delle lettere è intermedio tra
quello di riconoscimento delle caratteristiche e quello di riconoscimento della
parola. Uno studio a cura di Polk ha valutato l’attività neurale durante la visione di
stringhe di lettere e ha dimostrato che una specifica area dell’emisfero sinistro (il
giro fusiforme) risponde in maniera specifica alle lettere più che ad altri stimoli visivi
significativi. Si può quindi concludere che vi è una specializzazione neurale per il
riconoscimento delle lettere. Peressotti e Grainger suggeriscono che il sistema di
riconoscimento delle parole utilizza le informazioni sulla posizione delle lettere e che
tali informazioni si riferiscono alla posizione di una lettera rispetto alle altre.
Parole. Una volta che riconosciamo una parola scritta come forma visiva, diventano disponibili
diverse proprietà delle parole (sintattiche, semantiche, fonologiche, ecc.). Il riconoscimento delle
parole è indipendente dai processi di riconoscimento degli oggetti in genere: sono stati
documentati casi di pazienti con buone capacità di riconoscimento delle parole, ma con notevoli
difficoltà nel riconoscimento di oggetti (Rumiati). Esistono fondate prove sperimentali a favore del
ruolo giocato da tutti e tre i livelli.

Nel riconoscimento delle parole il problema è capire se i tre livelli ovvero tratti,
lettere e parole, intervengono all’interno del processo in questa precisa sequenza, o
se agiscono in modo interattivo. Sono state sviluppate prove a favore di

150
151

quest’ultima ipotesi, e la principale è un effetto sperimentale chiamato: effetto di


superiorità della parola ( ESP).
Questo paradigma, sviluppato da Reicher, consiste nell’evidenziare il fatto che noi
individui siamo in grado di riconoscere una singola lettera con maggiore facilità e in
minor tempo quando essa si presenta all’interno di una parola reale come pensare
piuttosto che in una pseudo-parola.
Es. quindi riconosciamo più facilmente la lettera s all’interno della parola pensare
piuttosto che all’interno di una pseudo parola come pansera.
Una spiegazione di quest’effetto potrebbe essere che c’è interazione tra il livello
delle parole e quello delle lettere, quindi una sorta di feedbeck o retroazione. Un
modello di riconoscimento delle parole scritte che potrebbe confermare questa
ipotesi potrebbe essere il modello ad attivazione interattiva di McClelland e
Rumhelhart.
3.3 Due modelli di riconoscimento delle parole scritte. Riconoscimento scrittura.
Modello logogen di Morton e Interactive Activation Model ( I AM)
Partiamo dal presupposto che qualsiasi processo di riconoscimento di una parola
scritta implica che il lettore abbia conservate in memoria, in quello che definiamo
lessico mentale, una rappresentazione di tutte le parole appunto da lui conosciute. Il
lessico mentale è stato infatti definito come un insieme organizzato di unità di
rappresentazione che corrispondono proprio alle parole e che si attiverebbero nel
momento in cui riceviamo una stimolazione sensoriale. Infatti il processo per mezzo
del quale abbiamo accesso al lessico mentale è di tipo passivo. Quindi ricevendo una
stimolazione sensoriale, una sola unità di rappresentazione si attiverebbe più
velocemente delle altre fino a raggiungere quello che definiamo come livello della
soglia di riconoscimento. A riprova di ciò abbiamo il modello logogen di Morton.
Anche secondo questo modello ogni parola conosciuta dal lettore ha una sua
rappresentazione mentale che morton chiama logogen e che ha la funzione di
rilevare la parola stessa, questo rilevatore agisce in maniera selettiva sulle
caratteristiche ortografiche della parola ed è contenuto in un sistema di rilevazione
chiamato Logogen.
Tutti i logogen hanno un livello di soglia che deve essere raggiunto per poter essere
riconosciuto, quindi quando riceviamo le informazioni ortgrafiche di una parola che
sono poi compatibili con il logogen interno questo si attiva. Ciascun logogen ha un
proprio livello di attivazione che dipende principalmente dalla frequenza d’uso della
parola. Ovviamente i logogen che corrispondono alle parole che utilizziamo più
151
152

frequentemente hanno una soglia di attivazione più bassa e quindi le riconosciamo


più velocemente. C’è anche da dire che ciascuna parola scritta però non attiva solo
un unico logogen ma più di uno in base alla somiglianza ortografica e per questo
motivo si verifica il cosiddetto principio di competizione tra le unità candidate al
riconoscimento. Questo processo di competizione termia solo nel momento in cui
un solo logogen raggiunge il livello di soglia e viene identificato. Questo è quello che
riguarda il livello superficiale della parola, successivamente si passa poi a quello che
è il livello semantico, per recuperare quelle che sono le informazioni riguardo il
significato della parola. Secondo Morton anche questo livello è fondamentale per
modulare il livello di soglia di attivazione di una parola, ed è possibile farlo
soprattutto grazie a quello che definiamo fenomeno del priming semantico, ovvero
quando il riconoscimento della parola target viene facilitato grazie alla precedente
presentazione di un’altra parola prime ad essa associata semanticamente.
Quindi la parola cane abbasserebbe il livello di soglia d’attivazione di tutte le parole
ad essa semanticamente associate come gatto, abbaiare ecc..
Ma poichè la struttura interna delle parole scritte può essere analizzata su più livelli,
viene sviluppato un secondo modello, ovvero Interactive Activation Model di
McClelland e Rumelhart secondo cui il processo di riconoscimento di una parola
scritta è organizzato in tre strati, che corrispondono proprio alle diverse unità che
possiamo riscontrare all’interno di una parola.
- Il primo strato è caratterizzato dai tratti ortografici, che vengono attivati a partire
da uno stimolo e poi combinati correttamente tra loro.
- Il secondo strato è costituito dalle lettere astratte. si ipotizza infatti che a quest
livello vengano attivate tutte le lettere che, combinate tra loro, formano la parola
bersaglio da riconoscere e che queste lettere attivino le parole con esse compatibili.
- l’ultimo livello è rappresentato dal livello delle parole che vengono attivate per il
processo di identificazione.
Il modello prevede due tipi di processi:
- i processi d’attivazione che collegano i tratti alle lettere e le lettere alle parole
corrispondenti;
- processi di inibizione che collegano tratti e lettere non compatibili, e lettere e
parole non compatibili.
Questo sottolinea che durante il processo di riconoscimento delle parole non è
importante solo attivare una rappresentazione nel lessico mentale, ma è importante
anche l’inibizione di tutti i concorrenti. aspetto fondamentale di questo modello è
152
153

che è un modello di tipo interattivo. E infine questo è un modello di


riconoscimento che agisce in modo parallelo, in un senso sia «orizzontale» che
«verticale». In senso orizzontale, cioè all’interno della parola, perché non vi sarebbe
una scansione seriale delle lettere da sinistra verso destra, ma verrebbero
contemporaneamente attivati gruppi di lettere. In senso verticale, cioè tra livelli,
perché la loro attivazione è a cascata: non è necessario, infatti, che sia terminata
l’elaborazione nello strato delle lettere, perché abbia inizio l’attivazione nello strato
delle parole.

3.4 I vicini ortografici


Durante il processo di riconoscimento di una parola scritta, nel nostro lessico
mentale, non si attiverebbe solo la parola stessa ma anche tutte quelle parole che
sono ortograficamente simili a questa. Tutte queste parole che sono
ortograficamente simili sono quelle che definiamo come vicini ortografici. Quando
vogliamo stabilire quale sia il numero delle parole simili a quella in oggetto, e cioè
quindi quante parole possiamo ricavare cambiando ciascuna lettera della parola con
tutte le lettere dell’alfabeto, utilizziamo una procedura definita N-count. Inoltre a
proposito del riconoscimento di parole scritte sono stati studiati anche altri effetti,
quali l’ampiezza e la frequenza del vicinato ortografico. L’ampiezza del vicinato gioca
un ruolo considerevole nel riconoscimento di una parola scritta, in quanto le parole
con più vicini vengono riconosciute più velocemente, quindi ad esempio per
riconoscere la parola corte, un vicino come torte faciliterà il riconoscimento rispetto
ad una parola tipo corse. Frequenza del vicinato-> (frequenza medio-bassa) due
parole come spala e fuma, hanno un N-count simile ( 6 e 5) invece spuma e sfama
sono di frequenza più alta.

3.5 Altri effetti nel riconoscimento di parole. Fenomeni principali della lettura.

- La frequenza, riguarda le parole che utilizziamo più frequentemente, e che quindi


per questo motivo riconosciamo e pronunciamo molto rapidamente. Tale effetto
riguarda sicuramente la frequenza di parole intere, ma riguarda anche alcune delle
unità di cui si compongono. Infine l’effetto della frequenza d’uso dipende anche da
altri aspetti come ad esempio da quanto tempo abbiamo acquisito quella data
parola e quanto ci risulta familiare.

153
154

-un secondo effetto è invece il priming ortografico che si basa sulla presentazione di
una pima parola definita prime che viene fatta seguire ad una distanza di tempo che
varia in base alla situazione da una seconda parola bersaglio definita target. Queste
due parole sono tra loro associate per uno o più particolari aspetti, e lo scopo di
questo effetto è quello di osservare come grazie all’informazione che hanno in
comune queste due parole l’elaborazione della parola target risulta essere facilitata
- poi abbiamo l’effetto della regolarità che riscontriamo in particolar modo tra
parole a bassa frequenza d’uso, quindi sulle parole irregolari che quasi sempre
leggiamo peggio di quelle regolari. (come la parola in inglese pint (paint) che
significa pinta).
- la lunghezza. Quando riconosciamo una parola scritta la rapidità e la correttezza di
questo processo dipendono molto dalla lunghezza della parola e quindi dal numero
di lettere che la compongono. La lunghezza inoltre può essere misurata anche grazie
al tempo che impieghiamo per pronunciarla.

4 . Le rappresentazioni ortografiche nella scrittura


I processi di produzione del parlato sono stati studiati principalmente a partire dalla
scrittura. Le ipotesi sull’architettura cognitiva della scrittura sono state studiate
partendo da quelli che sono i disturbi della scrittura negli adulti: ovvero quelle che
vengono chiamate le disgrafie acquisite. La scrittura è un’attività complessa, che
coinvolge diverse componenti, ciascuna destinata a svolgere il proprio compito.
Queste operazioni si collocano, nel caso della scrittura sotto dettatura, tra il
momento in cui il soggetto riceve la sequenza di suoni che riguardano la parola in
questione e il momento in cui viene attivato il significato di quella sequenza, o nel
caso della scrittura spontanea quando viene attivato autonomamente da chi scrive,
e infine il tutto viene tradotto in una sequenza di segni grafici. La ricerca sulla
scrittura si è interessata soprattutto al fenomeno dello spelling, ossia alla capacità di
produrre la corretta forma scritta di una data parola. Nel processo di scrittura
spontanea sono stati individuati tre stadi:
• il primo è quello della pianificazione, nel quale vengono prima di tutto stabiliti
gli scopi della comunicazione, l’informazione viene poi recuperata dalla
memoria a lungo termine e organizzata nel programma di ciò che si deve
scrivere
• il secondo stadio è la traduzione: il linguaggio scritto è prodotto a partire dalle
rappresentazioni in memoria e il programma deve essere tradotto in frasi
154
155

• il terzo passaggio invece è quello della revisione, dove appunto lo scrivente


legge e corregge ciò che ha scritto.

4.1 Architettura funzionale del sistema di scrittura. Modello di sviluppo della


scrittura. Modello sviluppo scrittura.
Questo modello è stato definito modello standard, e riguarda sia la scrittura
spontanea che quella sotto dettatura. Partiamo proprio da quest’ultima, dove
abbiamo accesso al sistema semantico a partire da quello che è uno stimolo esterno.
Ovviamente lo stimolo esterno non è altro che una parola pronunciata da colui che
stiamo ascoltando, questa parola dobbiamo prima sottoporla ad un’analisi acustico-
fonologica e poi suddividerla in parti più piccole (ad esempio, sillabe). Mediante
questa procedura attiveremo quindi prima il lessico fonologico di input e infine il
sistema semantico. Nello stesso tempo, mettiamo in atto una procedura non-
lessicale che analizza i suoni che compongono la parola e li converte in una
rappresentazione seriale di grafemi. Questo è quel passaggio grazie al quale siamo in
grado di scrivere qualsiasi parola anche quelle mai sentite in precedenza, e quindi
parole nuove. Nel caso, invece, della scrittura spontanea, l’elaborazione parte dal
sistema semantico e coinvolge poi i successivi stadi di elaborazione, ovvero il lessico
ortografico, che attiva la conoscenza a lungo termine sulla forma scritta della parola,
e il buffer grafemico, che mantiene l’informazione ortografica in una memoria
temporanea.

4.1 I l lessico ortografico di “output” e il buffer grafemico

Quando scriviamo parole che conosciamo e che sono quindi rappresentate nel
nostro lessico mentale, recuperiamo l’informazione nel lessico ortografico che altro
non è che la componente che rappresenta le forme scritte delle parole.
Questo tipo di informazione ci serve poiché alcune parole irregolari, frequenti in
inglese, possono
essere scritte non correttamente se non si hanno informazioni precise sulla loro
forma ortografica.
Successivamente all’attivazione del L.O. è necessario l’intervento di un’altra
componente perché il

155
156

processo di scrittura venga completato: la traduzione dei grafemi astratti in lettere


scritte.
Quindi i grafemi che compongono la parola vengono temporaneamente conservati
in un magazzino di memoria a breve termine, il buffer grafemico, dove il livello di
attivazione viene mantenuto alto.
All’interno del B.G. avvengono due operazioni:
1- il mantenimento del livello di attivazione affinché la traccia non si disperda
2- la loro selezione seriale.

-MORFOLOGIA: le strutture (CAP. 5)


La morfologia studia le strutture interne delle parole-> definizione ambigua
Lessemi-> elementi del lessico della lingua italiana, le diverse forme vengono
chiamate forme flesse.
Il morfo è il significante di un morfema
Allomorfo: ogni rappresentante fonologicamente diverso di uno stesso morfema
(iz/s/z-> portano il significato di plurale in inglese) asinO asinI -> cambio forma ma
non significato.

Le parole possono essere:


MONOMORFEMICHE: un solo morfema come gru;

POLIMORFEMICHE: più morfemi. Ci sono tre sottogruppi:


1 Notte= radice + desinenza;
2 barista = formato dal morfema lessicale, morfema flessivo, morfema
derivazionale. Chiamata anche parola derivata o meglio lessema derivato;
3 posacenere= formato da due morfemi lessicali. Chiamata parola composta o
meglio lessema composto.
Queste possono essere definite anche parole morfologicamente complesse.

156
157

-ESISTE LA MORFOLOGIA?
La combinazione di unità che danno luogo a parole obbedisce agli stessi principi
della combinazione di unità che danno luogo a sintagmi e frasi?
Questo problema ha due versanti: quello SINTATTICO e quello FONOLOGICO.
La morfologia ha ragione di esistere se la formazione delle parole è spiegabile senza
tener presente questi due versanti o principi, altrimenti è inutile postulare un livello
di analisi aggiuntivo.

-Modelli generativi di Chomsky


La formazione di alcune parole non è spiegabile attraverso le stesse regole per la
formazione di sintagmi e frasi. Chomsky ha affermato che sono possibili, a partire
dai verbi inglesi, due tipi di nominalizzazioni : nominali GERUNDIVI e nominali
DERIVATI.
Nominali gerundivi: quasi ad ogni frase con verbo, corrisponde un possibile
nominale gerundivo, ha una produttività quasi illimitata e si può sostenere che siano
la trasformazione di una frase.
Nominali derivati: l’opposto.
Quindi alcuni nomi derivati da verbi non possono essere generati attraverso parole
dello stesso tipo di quelle che rendono conto della generazione di frasi.
Poco dopo l’uscita di Chomsky si fa strada l’idea che i lessemi derivati devono essere
generati non attraverso le trasformazioni, ma attraverso un altro tipo di regole che
hanno il compito di generare lessemi-> regole di formazione di lessemi.

-Regole di formazione di lessemi (RFL)


Permette di derivare un nuovo lessema a partire da uno già esistente. Ogni RFL ha
BASI della regola e un’USCITA (il risultante dalla regola applicata).
Può avvenire attraverso:
1.AFFISSAZIONE
2.CONVERSIONE-> senza affisso-> partenza è derivato da partire.
3.SUFFISSAZIONE

157
158

4.COMPOSIZIONE
Le RFL sono soggette a restrizioni :
non ogni affisso può unirsi ad ogni base ad esempio -ista si attacca a nomi e non a
verbi;
-tore si attacca a verbi, ma non a verbi in cui il soggetto non ha le caratteristiche di
agente. Queste sono restrizioni sintattiche e semantiche.
Restrizioni morfologiche->riguarda l’impossibilità di alcuni suffissi di apparire dopo
altri:
-zione non si attacca mai a verbi derivati con il suffisso -eggiare (danneggiazione:
NO)
Restrizioni fonologiche-> il prefisso -s non si attacca a basi che cominciano con
vocali ( Sutile-> NO-> inutile)
RFL sono dotate di un certo grado di produttività, cioè formare nuovi lessemi.

Forme flesse e lessemi vengono formati con lo stesso meccanismo?


Condividono alcune caratteristiche superficiali ma differiscono per molti aspetti.
Condividono: affissazione, l’introflessione ecc
Differiscono: per la ragione stessa del loro esistere. Nuovi lessemi si formano per
denominare nuovi concetti.
Ma perché si formano forme flesse di un lessema? -> per esprimere una serie di
valori di determinate categorie grammaticali-> nomi, plurale e singolare. Le forme
flesse dei lessemi esprimono valori delle categorie grammaticali obbligatorie nella
grammatica della lingua cui appartengono.
Anderson: ha sostenuto che le forme flesse dei lessemi servono ad esprimere valori
grammaticali che hanno rilevanza per la sintassi. Le regole della sintassi non
richiedono mai che una parola inserita in un certo contesto sia un lessema derivato,
l’uso di un derivato è la scelta del parlante.
La scelta di determinate forme flesse a volte è obbligatoria-> un verbo deve
accordarsi in persona e numero con il soggetto. Mentre la scelta di casa o casetta è
del parlante, non della sintassi.
Questo rende inadeguata la regola di Anderson.
158
159

Ma spesso la scelta di determinate forme flesse è obbligatoria, quindi alcuni studiosi


hanno proposto due sottotipi di flessione: FLESSIONE INERENTE e FLESSIONE
CONTESTUALE.
FLESSIONE INERENTE: il numero in italiano è flessione inerente dei nomi.
FLESSIONE CONTESTUALE: è contestuale negli articoli, aggettivi e verbi. Dipende cioè
dall’accordo con la testa del SN o con il soggetto della frase.

SPLIT MORPHOLOGY (spaccata)


La formazione di forme flesse avviene tramite componente lessicale o componente
sintattico? Molti non accettano quello sintattico in quanto affermano che dobbiamo
esaminare un aspetto importante delle forme flesse, cioè il loro significante.

MIRROR PRINCIPLE-> principio dello specchio


L’ordine di apparizione dei morfi all’interno della parola rispecchia l’ordine con cui
viene generata l’informazione che questi morfi portano.
FORMAZIONE DI FORME FLESSE: regole specifiche che operano nel componente
lessicale di una grammatica, e non tramite l’aggiunta di affissi da parte di regole
sintattiche, neppure nel caso di flessione contestuale.

MORFOLOGY BY ITSELF
Aronoff-> la morfologia costituisce un livello autonomo di analisi, che media
l’informazione semantica e fonologica. L’unione di significato e significante non è più
vista come diretta ma come mediata dal livello morfologico , che è dotato di suoi
autonomi principi di organizzazione.

-MORFOLOGIA: I PROCESSI (carbonara)


Una parola morfologicamente complessa è formata da due o più parti diverse,
ciascuna con un proprio significato. È possibile comprendere queste parole, anche
se magari non le abbiamo mai sentite prima, grazie ad un processo che prevede la
scomposizione in più morfemi di quella parola, ad esempio la parola posacenere.
A tale scopo prendiamo in considerazione due modelli: AAM e il Race Model.
159
160

Nell’AAM, prevede la scomposizione morfemica soltanto per parole rare, come


neologismi o pseudoparole, cioè per quelle parole che non hanno una propria
rappresentazione globale ma che possono essere decodificate grazie ai morfemi in
essi contenuti.
Il Race model prevede sia una procedura di accesso diretta alle parole composte, sia
una procedura basata sulla scomposizione-ricomposizione di queste. La scelta di
adottare una procedura a scapito dell’altra dipenderebbe dai costi e benefici ad essa
associati. I benefici si riferiscono alla rapidità con cui si attivano le rappresentazioni
in base alla frequenza d’uso di queste. I costi, invece, si riferiscono all’utilizzo della
via morfo-lessicale; tale procedura richiede più tempo in quanto c’è bisogno di
controllare se la combinazione radice + affisso è plausibile, e se il significato della
parola intera è coerente con il significato delle singole componenti.

2 . Frequenza della radice e frequenza della parola


Per Frequenza della radice intendiamo che quanto più una parola morfologicamente
complessa contiene una radice utilizzata frequentemente, tanto più la parola sarà
riconosciuta velocemente. Ciò dimostra che il suo riconoscimento avviene anche
mediante la scomposizione in radice. Gli autori sostengono che il processo di
elaborazione della parola procedendo da sinistra a destra comporrebbe l’accesso
alla radice quando questa si trova in prima posizione seguita dal suffisso, ma non
quando la parola inizia con un prefisso→ direzionalità dell’accesso.
Questo fenomeno organizzerebbe le parole in famiglie morfologiche.

3 . Ampiezza della famiglia morfologica flessiva


In italiano, nomi, aggettivi e verbi hanno paradigmi flessivi di ampiezza diversa.
I nomi e gli aggettivi hanno da due a quattro suffissi flessivi come genere (maschile o
femminile) numero (singolare o plurale), mentre i verbi hanno un paradigma flessivo
di cinquanta forme flesse. Questa ampiezza potrebbe comportare la probabilità di
venire elaborati mediante l’attivazione della radice. Questo processo di elaborazione
morfologica comporta la segmentazione della parola, seguito dalla ri-composizione
degli elementi che la costituiscono e il controllo della combinazione, pertanto è un
processo che presenta anche dei costi di elaborazione.

160
161

4 . Ampiezza della famiglia morfologica derivazionale


Non in tutti i casi le parole con un paradigma flessivo ampio hanno costi di
elaborazione alti e tempi lunghi. Questo avviene quando la parole fa parte di
un’ampia famiglia morfologica derivazionale, cioè contiene una radice presente in
molte parole derivate o composte.
Una parola presente in molte parole derivate o composte, viene riconosciuta più
velocemente e
accuratamente rispetto a una parole presente in una sola alternativa,
indipendentemente dalla
frequenza d’uso della parola.

5 . Frequenza relativa di parola derivata e parola di base


Le parole composte da più di un morfema attivano in parallelo due tipi di unità
d’accesso: unità
corrispondenti alla parola intera ( es. bassezza) e unità corrispondenti ai morfemi
che la costituiscono (bass-ezza). Una parola derivata trasparente come bassezza,
poco frequente nella lingua italiana, composta però da una radice bass- e da un
suffisso -ezza molto frequenti, sarà facilmente riconoscibile mediante l’attivazione
dei morfemi costituenti, piuttosto che delle unità della parola intera probabilmente
scarsamente disponibile nel lessico.
Pertanto è cruciale la frequenza relativa della parola intera piuttosto che quella
assoluta che influisce sull’attivazione delle unità( parola, radice, affisso).

6 .Frequenza, numerosità e produttività del suffisso derivazionale

Le persone sono propense a considerare come parola possibile una combinazione


nuova radice-
suffisso, ma solo quando il suffisso è frequente cioè usato molto spesso nella lingua.
Quindi i suffissi possono condizionare l’elaborazione morfologica solo in base alla

161
162

loro frequenza d’uso come è stato confermato dalle ricerche con pseudoparole
morfologiche formate da un suffisso reale e una radice inesistente (cempenista).

7.Confondibilità ortografica per i prefissi


In italiano le parole che contengono il prefisso dis- ( disabile, dismisura, disperdere)
sono il 75% di
tutte le parole che cominciano con dis, prefissate e non (discoteca, dispotico non
sono prefissate).
Al contrario il prefisso pre- è presente come prefisso solo nel 26% delle parole che
iniziano con pre
come ad esempio prematuro, preavviso, dove agisce come prefisso, ma non in
prefetto o pregare.
Quindi un prefisso come dis- è un’unità di elaborazione morfologica più saliente e
meno confondibile rispetto a un prefisso come pre-.
Questa variabile contribuisce a determinare il grado di salienza del prefisso: quanto
maggiore è nella lingua il numero di parole veramente prefissate, tanto più alta è la
probabilità che quel prefisso giochi un ruolo come unità di accesso e
rappresentazione.

8. Lettura di pseudoparole morfologiche


Un compito usato per appurare la disponibilità nel lessico dei costituenti morfologici
di una parola
morfologicamente complessa e la lettura ad alta voce, che consiste nel leggere
velocemente e
accuratamente parole o pseudoparole in successione rapida da uno schermo di un
computer.
Questa lettura rapida si avvale del ricorso al lessico: una parola disponibile nel
lessico interno viene letta più velocemente.
Una parola mai incontrata in forma scritta può essere letta, invece, non tanto
consultando il lessico, dove non è disponibile, ma ricorrendo alle regole ortografico-
fonologiche, che traducono la forma scritta nella corrispondente forma fonologica.

162
163

Esiste però la possibilità che una parola nuova, al nostro lessico, venga letta
ricorrendo ai suoi
costituenti morfologici conosciuti
Ad esempio una pseudoparola come donnista, che non esiste nel lessico interno,
potrebbe essere
letta solo per regola di conversione grafema-fonema, se non fosse possibile
scomporla in
morfemi(donn-ista), comportando una lettura più veloce e accurata.
È stato dimostrato che avvalersi della lettura morfo-lessicale è estremamente
efficiente nel caso di
combinazioni morfologiche nuove, rispetto a parole nuove in cui non è possibile
avvalersi della
struttura morfologica. La lettura morfo-lessicale si sviluppa già a partire dal secondo
ciclo di scuola
elementare.

9 . Giudizi metalinguistici
Compiti sperimentali on- line→ rilevano il tempo di reazione e l’accuratezza nel
rispondere a stimoli linguistici presentati in successione rapida e con limiti di tempo.
Giudizi off- line→ forniti sugli stessi stimoli da persone cui si richiedono valutazioni
soggettive senza limiti di tempo.
Queste misure sono risultate correlate sia alle misure di tempo e accuratezza di tipo
on-line sia con le proprietà morfologiche che incidono sui compiti di riconoscimento
e lettura.
I giudizi utilizzati sono:
giudizi di familiarità→ si chiede quanto una parola è familiare o conosciuta;
giudizi sulla complessità morfologica→ si chiede quanto una parola risulti
morfologicamente
complessa;
163
164

giudizi di interpretabilità→ viene valutato su una scala a sette punti relativamente a


parole nuove
o inventate, chiedendo una valutazione interpretativa delle stesse.
I n conclusione la struttura morfologica sembra estremamente importante nella
capacità di lettura e di comprensione delle parole nuove. La capacità dei bambini di
capire una parola mai incontrata
risente delle proprietà quantitative dei morfemi: parole nuove o poco frequenti
sono più velocemente e accuratamente definite quando contengono radici
conosciute e suffissi frequenti e produttivi, rispetto a parole nuove che non siano
scomponibili in radici e suffissi.

-LESSICO LE STRUTTURE (cap. 7)


Il lessico è l’insieme delle parole di una lingua. Il lessico, assieme ai principi della
grammatica, è uno dei componenti essenziali di una lingua, senza lessico non
esisterebbe una lingua, non potremmo comunicare verbalmente. Dall’altro lato il
lessico è anche la parte più esterna e superficiale della lingua, più esposto e
condizionato alle contingenze extra linguistiche. Nel lessico infatti si fondono la
conoscenza del mondo e la conoscenza della lingua. È inoltre lo strato più ampio
della lingua costituito, rispetto alla fonologia e alla morfologia, dall’inventario
incomparabilmente più numeroso di elementi.

CLASSIFICAZIONE DI PAROLE
Una prima classificazione risale all’antica grammatica greca e poi latina che distingue
le diverse parti del discorso o classi lessicali. (nome, verbo, aggettivo, avverbio,
pronome, articolo, preposizione, coniugazione e interiezione). Questa classificazione
è sia su base morfosintattica sia su base semantica e non è esente da problemi. Le
interiezioni non sembrano presentare a pieno titolo le caratteristiche di segni
linguistici integrati in un sistema, quindi è difficile considerarle parole. Aggettivi->
possono essere utilizzati sia da aggettivi e sia da pronomi, ma soprattutto un certo
numero di parole vengono classificate sia come preposizioni che come avverbi
(sopra). Il tutto è complicato dalla conversione per cui una parola può passare da
una categoria lessicale all’altra -> sapere verbo, il sapere nome. Nella grammatica
generativa vengono classificate 4 classi lessicali maggiori: N(nomi), V(verbi),
164
165

A(aggettivi), P (preposizioni), che fungono da teste dei sintagmi. Un’altra distinzione


importante è quella tra parole piene e parole vuote. Parole piene sono i nomi,
aggettivi, verbi e avverbi e costituiscono le classi aperte e rappresentano il vero
lessico. Le parole vuote che sono i pronomi, articoli, preposizioni e congiunzioni,
sono classi chiuse e fanno propriamente parte della grammatica. Sedia->parola
piena; di->parole vuote.
Un’altra possibilità di classificazione di tipi diversi di parole è basata sulla struttura
interna delle parole, sul modo in cui sono articolate in morfemi. Da questo punto di
vista si distinguono basi lessicali, parole derivate, parole composte e unità
polirematiche. Le parole derivate possono essere molto complesse attraverso i
metodi di suffissazione e prefissazione.

-FORMA E SIGNIFICATO DELLE PAROLE


Per quanto riguarda la forma le parole possono essere variabili o invariabili.
A questo proposito dobbiamo distinguere la nozione di parola, in questo senso da
alcuni definita come lessema, e forma di parola che sono le forme diverse della
parola ad esempio alto, alta, alti ecc. nelle classi di parole variabili, a una parola
come unità dell’lessico corrisponde sempre un paradigma di forme. Il significato
delle parole piene può essere concepito e rappresentato secondo due prospettive
diverse: come un fascio di tratti o componenti semantici. Il secondo modo di vedere
il significato di un lessema È stata contrapposta una prospettiva che guarda il
significato come un’immagine concettuale che coincide con una certa
rappresentazione costituita da una lista di proprietà graduali, alcune più rilevanti e
altre meno nel definire la categoria concettuale.

-Relazioni semantiche nel lessico


la rete più fitte più interessante per la teoria linguistica e quella basata sulla
semantica, sulle relazioni di significato che si pongono fra le parole. In questa
prospettiva, le parole sono viste esclusivamente dal piano del significato; un termine
che viene spesso usato per indicare le parole considerate dal punto di vista del
significato è quello di lessema. In questa prospettiva è importante la relazione di
iponimia. si ha un rapporto di iponimia fra due lessemi X e Y quando la classe
rappresentata da X è inclusa o contenuta in quella rappresentata da Y. Esempio:
165
166

cipresso è iponimo di albero. Si ha iponimia diretta quando non ci sono lessemi


intermedi fra un termine e l’altro: gatto è iponimo diretto di felino, ed è anche
iponimo, ma non diretto, di mammifero e di animale. Nelle tassonomie popolari si
riconoscono tre fondamentali livelli di categorizzazione, un livello sovraordinato
(animale, frutto, calzatura), un livello di base (cani/gatto) e un livello subordinato
(mastino/bassotto). un campo semantico è dato da tutti i lessemi che sono iponimi
diretti di uno stesso sovraordinato. un esempio classico di campo semantico è
costituito dei nomi dei colori, bianco, nero, rosso, eccetera: ciascun lessema del
campo è tale in quanto è iponimo diretto dell’iperonimo colore. un’altra relazione
semantica è chiamata MERONIMIA: quando un lessema X designa una parte di un
tutto designato dal lessema Y, cioè braccio è meronimo di corpo. sì ha una gerarchia
semantica quando un lessema è un’unità più piccola di un altro lessema come ad
esempio secondo, minuto, ora, ecc costituiscono una gerarchia semantica dell’unità
di tempo cronologico. un’altra relazione semantica importante e la sinonimia. Due
lessemi sono sinonimi quando hanno lo stesso significato di nota attivo e quindi
sono intercambiabili. Si hanno spesso lessemi che hanno lo stesso significato
denotativo ma appartengono a varietà di lingue diverse:
a diverse varietà diafasiche (gatto/micio);
a diverse varietà diatopiche (padre/babbo). qui si tratta di GEOSINONIMI cioè di
sinonimi appartenenti a diverse varietà geografiche di lingua; questo rappresenta un
caso piuttosto frequente in italiano.
l’OMONIMIA: Si ha con parole o entrate lessicali diverse, casualmente uguali nella
forma; POLISEMIA: medesima parola con significati diversi come ad esempio porta
(uscio) e porta (3 persona singolare). L’ANTONIMIA: estremi opposti di una
dimensione (alto/basso). COMPLEMENTARITÀ (uomo/donna). INVERSIONE
(marito/moglie) due lessemi sono inversi e designano la stessa relazione ma
rappresentano punti di vista opposti.
la SOLIDARIETÀ LESSICALE O SEMANTICA: è il rapporto che vige fra denti e mordere,
in cui uno dei due lessemi è contenuto nell’altro che lo implica. Si morde solo con i
denti.

-LESSICO E GRAMMATICA
il lessico non è semplicemente la lista delle parole di una lingua, ma è l’inventario
delle parole con le loro proprietà semantiche e sintattiche.
166
167

Nella teoria generativa a una parola è anche associata una struttura tematica, una
configurazione argomentale di ruoli semantici o secondo altre impostazioni teoriche,
uno schema Valenziale, riempito dei sintagmi nominali previsti dallo schema
sintattico che il significato della parola implica: vedere comporta una configurazione
argomentarle.
Grammatiche cognitive più recenti accentuano ulteriormente questa primarietà del
lessico come lo strato più profondo della grammatica e concedendo il progresso di
formulazione di una frase come movente dell’attivazione, da parte del parlante, di
una struttura lessicale-concettuale profonda, in cui le interazioni comunicative si
organizzerebbero in un fascio di tratti semantici e pragmatici, in modo da proiettare
una struttura tematica particolare. in un secondo passo, verrebbe generata una
determinata struttura predicato-argomenti, che proietta la struttura tematica in
quella sintagmatica gerarchica di un CP (proiezione di complementatore).

-FORMAZIONE DELLE PAROLE E ARRICCHIMENTO DEL LESSICO


Le parole nuove vengono chiamate neologismi e possono essere creati attraverso
diversi meccanismi. I meccanismi sono tre: O assegniamo semplicemente un nuovo
significato a un significante già esistente nella lingua, o creiamo un significante
completamente nuovo, o facciamo ricorso ai processi di formazione di parola. Nel
primo caso si tratta di un neologismo semantico (curva/stadio).
spesso i neologismi sono effimeri cioè occasionalismi, nel giro di qualche anno
cadono in disuso. il neologismo semantico è economico per quel che riguarda il
significante mentre la creazione di una parola totalmente nuova introduce la
necessità di memorizzare un elemento del tutto nuovo. la composizione è ancora
più trasparente, non richiede alcuna nuova entrata nella memoria lessicale, ma
produce significanti lunghi e aumenta il carico sintagmatico, è poco agile. la
creazione di una parola nuova, può essere risolta anche un altro modo, cioè
importando una parola da una lingua straniera questo viene chiamato prestito. si
può avere anche una forma di neologismo semantico: il calco, cioè quando si ha la
riutilizzazione di una parola che già esiste in una determinata lingua ma si attribuisce
un nuovo significato.

-LESSICO: I PROCESSI (cap. 8)

167
168

Il lessico mentale è l’insieme delle conoscenze di un parlante sulle parole della


propria lingua.
L’assunto principale è che i processi di elaborazione delle parole consistono
nell’attivazione di
conoscenze contenuta in memoria: tutto ciò che il lettore sa di una data parola a
partire da una data rappresentazione (la serie di lettere, o segni, che la
compongono).

-Modelli “a ricerca” e modelli “ad attivazione”


Riconoscere una parola presuppone principalmente che tale parola sia presente
all’interno del lessico mentale. Inerentemente al lessico mentale sono stati
affrontati due tipi di problemi: la natura del lessico mentale e i meccanismi di
accesso ad esso.
I meccanismi di accesso hanno dei modelli di riferimento:
a) il lessico mentale è paragonato a un dizionario composto da molte entrate,
ognuna delle quali corrisponde ad una parola, e queste entrate sono strutture
passive che per essere attivate hanno bisogno di strategie di ricerca e selezione.
b) Il lessico mentale è concepito come un insieme di unità di
rappresentazione(unità-parola) che si attivano in risposta alla stimolazione
sensoriale. Tali unità sono delle strutture attive e dinamiche a differenza del
meccanismo di accesso che è passivo: sotto stimolazione sensoriale, una delle unità
si attiverebbe prima delle altre fino a raggiungere il livello di soglia di
riconoscimento della parola corrispondente.
Un terzo modello sul riconoscimento di parole sarebbe il modello di attivazione
interattiva (I AM).

Modelli di lettura a due vie e modelli di lettura a una via


I modelli computazionali presuppongono l’esistenza di più percorsi che consentano
di produrre la forma fonologica di una parola a partire dalla sua forma ortografica.

168
169

Più in particolare l’architettura del modello a due vie di Coltheart prevede che la
forma fonologica di una parola venga recuperata grazie all’esistenza di due
procedure. la prima è la via lessicale che troviamo a sinistra mentre la seconda è la
via Sub-lessicale che troviamo a destra. Entrambe confluiscono nel buffer fonemico,
ovvero una struttura che hai il compito di computare la pronuncia definitiva di una
parola, a partire dalla sequenza di fonemi che caratterizzano lo stimolo.
Partiamo dalla via lessicale, la quale ricava la forma fonologica di una parola a
partire dalla sua forma scritta. In questa procedura distinguiamo altri due percorsi:
Il primo, ovvero la via lessicale diretta, che parte da alcune informazioni di carattere
visivo, collegando in questo modo il lessico ortografico al lessico fonologico. Il
secondo percorso, chiamato via lessicale-semantica, che invece attiva il lessico
fonologico grazie a delle connessioni che intrattiene con il sistema semantico;
La seconda procedura, detta via non lessicale, ricava la pronuncia della parola
applicando un insieme di regole, le quali differiscono da lingua a lingua, sulla base
delle quali ciascuna lettera (o gruppo di lettere) viene trasformata nel fonema
corrispondente. Nel caso, infatti, in cui una parola risulta essere sconosciuta ad un
lettore, quest’ultimo può ricavare l’output corretto solo se utilizza la via non
lessicale. Inoltre, La via lessicale elabora la forma fonologica di una parola
soprattutto grazie alla frequenza d’uso di quella parola, perciò sarà molto rapida per
le parole ad alta frequenza e lenta per le parole a bassa frequenza.
La via non lessicale, invece, dovendo applicare le regole Grafema-Fonema è un
processo più lento.

Il modello a due vie della lettura e i disturbi acquisiti dopo lesione celebrale
Tale modello è in grado di spiegare anche alcuni disturbi della lettura, come la
dislessia. Esistono vari tipi di dislessie:
- Dislessia di superficie: che si verifica quando i soggetti tendono a leggere le
parole regolari(save) meglio di quelle irregolari (have). Inoltre i soggetti affetti
da dislessia di superficie quando commettono degli errori rispetto alle parole
irregolari tendono a regolarizzarle mediante un processo di conversione
grafema – fonema.
- Dislessia fonologica: invece si verifica in quei soggetti che sono in grado di
leggere correttamente sia le parole regolari che quelle irregolari, ma che hanno
invece un deficit nella lettura di parole nuove o meno frequenti.

169
170

Secondo il modello a due vie ciò può essere spiegato a causa della presenza di
un disturbo selettivo nei confronti delle componenti non lessicali e una
preservazione invece delle componenti lessicali.

Modelli di lettura a una via: leggere per analogia


Se si considera il fatto che le parole scritte in maniera simile sono anche pronunciate
in maniera simile, si può ipotizzare che per pronunciare una non-parola ci si basi
sulla conoscenza delle parolenote ad essa simili. Secondo la teoria della lettura per
analogia, la pronuncia è data integrando informazioni che sono automaticamente
attivate durante la lettura. Tali informazioni sono le rappresentazioni fonologiche
delle parole conosciute, le rappresentazioni fonologiche delle parole che
contengono lettere simili a quelle dello stimolo, e anche le conoscenze sulla
corrispondenza tra lettere e suoni.
Il modello di Glushko sulla conoscenza ortografica
Le ricerche di Glushko sono fondamentali per lo sviluppo dei modelli a una via in
quando introducono il concetto fondamentale di attivazione parallela di diverse
informazioni utili per generare la pronuncia. Egli ipotizza che la conoscenza
ortografica consista nella capacità di mettere in relazione insiemi di lettere di
grandezza variabile con le corrispondenti pronunce. Gli insiemi di lettere possono
contenere una sola lettera o più lettere che insieme formano una parola. Per questo
motivo, tra la pronuncia di una parola e di una non-parola esiste solo una differenza
quantitativa.
L’autore ha analizzato la lettura delle non-parole partendo da alcune semplici
predizioni: se le non-
parole sono lette applicando le regole di trasformazione grafema-fonema, non
dovrebbero esserci
differenze tra una non-parola e l’altra. Se invece come sostiene l’autore per
generare una
non-parola si utilizzano anche le conoscenze sulle parole conosciute allora le parole
irregolari potrebbero influenzare la pronuncia delle non-parole.
Le previsioni sono state confermate dai risultati, ovvero le non-parole hanno tempi
di risposta più lunghi rispetto alle non-parole regolari, ossia quelle che attivano delle
parole regolari.

170
171

I modelli computazionali dei processi di lettura: il modello DRC


Recentemente è stata elaborata una versione computazionale del modello a due
vie, il DRC, il quale ha tre principali caratteristiche di elaborazione:
a) l’attivazione e inibizione di ciascuna unità si accumula nel tempo mediante cicli di
elaborazione, cosi le unità possono essere attivate parzialmente o in modi differenti
in diversi momenti
b) l’attivazione si propaga a cascata da un livello di rappresentazione all’altro
c) l’elaborazione è interattiva; l’attivazione o inibizione di ciascun livello contribuisce
all’attivazione o inibizione di tutti gli altri livelli.
Il modello DRC ha la stessa architettura funzionale del modello a due vie, e in esso
sono rappresentate tre procedure per la computazione della pronuncia che si
basano su tre diversi livelli di rappresentazione: sub-lessicale, lessicale e semantico.

La via lessicale
La pronuncia di una parola avviene per mezzo di una serie di processi: Le
caratteristiche visive dei tratti attivano le unità corrispondenti alle lettere e queste
lettere attivano le unità corrispondenti alla parola nel lessico ortografico.
L’attivazione dell’unità ortografica produce l’attivazione nella corrispondente unità
nel lessico fonologico e di conseguenza si attivano nel buffer fonetico i fonemi
corrispondenti alla parola.

La via non lessicale


Questa via deriva la pronuncia di una data parola dall’uso di un insieme di regole di
trasformazione dei grafemi in fonemi. Alcune regole sono contestuali, ovvero la
pronuncia di un grafema dipende dal grafema che segue (come c e g in italiano,
quando seguite dalle vocali a, o, u, e oppure quando seguite dalle vocali e o i). Altre
sono specifiche per posizione, nel senso che la pronuncia di un grafema varia in
funzione della posizione che occupa nella stringa. Infine ci sono le regole di output
che modificano la pronuncia di un grafema in base al contesto in cui si trova. Il
processo di conversione fonema-grafema opera secondo un processo standard. La
conversione non si attiva per i primi dieci cicli, dopodichè viene ricercata la regola

171
172

più appropriata per trasformare il primo grafema nel fonema corrispondente che
comincia ad essere attivo nel set fonemico del buffer fonemico. Cosi dopo un certo
numero di cicli viene considerato poi il secondo grafema che subisce lo steso
processo, e cosi via. Tale procedura si dispiega da sinistra a destra. Ambedue le vie
sono attivate da uno stimolo linguistico e forniscono un loro output al buffer
fonetico. A tale livello avviene un conflitto ogni qualvolta le procedure forniscono
risultati diversi e ciò provoca un rallentamento dei tempi di risposta. Questo avviene
soprattutto durante la lettura di parole irregolari e la lettura di non-parole.

L’effetto di regolarità
Nel caso di una parola irregolare, mentre la via lessicale attiva a livello di buffer la
sequenza corretta di fonemi, la via non lessicale attiva i fonemi corrispondenti ai
grafemi applicando le regole di trasformazione grafema-fonema, producendo cosi
una pronuncia “regolarizzata”. La quantità di interferenza prodotta nel buffer è
funzione della velocità con cui la procedura lessicale elabora lo stimolo. infatti,
l’effetto di regolarità si osserva solo per le parole a bassa frequenza. Nel caso delle
parole ad alta frequenza, invece, la procedura lessicale elabora la pronuncia molto
rapidamente, prima che venga ingenerata interferenza.

La lettura di non-parole
Nella lettura di non parole la via non lessicale è l’unica che produce un output
corretto.

Processi di elaborazione parallela e distribuita: il modello PDP


I modelli PDP o anche conosciuti come modelli connessionisti presuppongono che
l’elaborazione del parlato provenga dalle connessioni e quindi dalle interazioni di
tipo eccitatorio o inibitorio che si sviluppano tra unità più semplici, e sono modelli,
che allo stesso modo delle reti neurali sono in grado di apprendere grazie alla
modifica dei pesi delle connessioni. In questo modello non riscontriamo più due
percorsi, ma vi è un unico meccanismo, ovvero la rete connessionista, che in grado
di associare alla forma scritta di ogni parola la sua forma fonologica. Tutte le parole
all’interno della rete si sviluppano grazie alle informazioni ortografiche, fonologiche
e semantiche contenute nella rete sotto forma di pattern di attivazione. La lettura
può avere luogo quindi quando un determinato pattern ortografico produce il
172
173

corrispondente pattern fonologico. Tutte le unità di una rete interagiscono tra


loro per mezzo delle unità nacoste fino a quando non viene raggiunto un pattern
stabile che non è altro che la risposta della rete allo stimolo. Sono previste in
questo modello due procedure in grado di produrre i pattern fonologici delle parole
e cioè nella prima procedura unità ortografiche e unità fonologiche sono
direttamente connesse tra loro. Nella seconda invece le unità fonologiche si attivano
grazie alle unità semantiche.

Il modello connessionista a due vie.


Si tratta di un modello che condivide sia caratteristiche con i modelli computazionali
a due vie, ma anche con i modelli PDP in quanto utilizza una rete neurale in grado di
trasformare il codice ortografico in codice fonologico.
Il modello ha quindi una via lessicale e una sub lessicale, quest’ultima assembla la
sequenza di suoni a partire dai grafemi, mentre la prima si basa sulle connessioni
che hanno luogo tra unità ortografiche e unità fonologiche corrispondenti alle
parole conosciute.
Il percorso sub-lessicale si avvale di una rete connessionista strutturata su due livelli
(TLA): il primo comprende unità ortografiche di input e il secondo unità fonologiche
di output.
Il modello prevede, inoltre, un’assunzione sulla struttura della sillaba in onset e
rima, ossia ogni parola monosillabica è descrivibile nei termini di un’unità
ortografica composta dai grafemi che precedono la prima vocale, e di un’unità
ortografica corrispondente alla rima, composta dalla vocale e dai grafemi che
seguono. Le unità di input e output, della procedura TLA, sono così strutturate in
unità ortografiche e fonologiche corrispondenti a rima e coda.

-SEMANTICA: I PROCESSI (cap. 10)


Per parlare di espressioni idiomatiche dobbiamo fare riferimento al principio di
composizionalità, il quale viene fatto risalire al filosofo tedesco Frege.
per principio di composizionalità intendiamo dire che per capire una frase dobbiamo
combinare i singnificati delle parole che compongono la frase in base a delle regole
grammaticali che sussistono tra queste parole. In questo modo grazie alla
conoscenza di un numero finito di parole e di regole grammaticali, noi individui
siamo in grado di comprendere e produrre un numero illimitato di frasi nuove. La
173
174

composizionalità non garantisce la comprensione di espressioni complesse. Come ad


esempio, le espressioni idiomatiche, le quali si caratterizzano per il fatto che il
significato della frase deve essere compreso nel suo insieme, come un tutto e non
come un significato ricavato dalle singole parti. Quindi il significato di queste frasi di
conseguenza non può essere ricavato mediante il meccanismo composizionale. Per
comprendere una espressione idiomatica occorre andare oltre alla composizione dei
significati delle parole che le formano, e recuperare un significato che si è instaurato
all’interno di una cultura. Inoltre esistono alcune espressioni idiomatiche che hanno
sia un significato letterale che figurato (come ad esempio l’espressione “alzare il
gomito”), mentre per altre è impossibile interpretarle letteralmente (essere al
settimo cielo). Le frasi idiomatiche sono caratterizzate da una loro unicità e per
questo motivo il parlante deve conoscerle a prescindere per capirne il significato.
Appartengono a questa categoria anche le espressioni metaforiche, che però a
differenza di quelle idiomatiche possono essere derivate mediante il meccanismo di
composizionalità, solo che bisogna fare attenzione a dargli la corretta
interpretazione. Facciamo un esempio: (questo lavoro è un inferno)-> per
comprendere nel modo giusto tale enunciato bisogna andare oltre il suo significato
letterale e coglierne il senso metaforico, ovvero dobbiamo interpretare il termine
inferno come un luogo estremamente spiacevole. Metafore ed espressioni
idiomatiche fanno parte degli usi figurati del linguaggio. Questi ultimi in generale e
la metafora in particolare, dimostrano come noi individui tendiamo a
concettualizzare il mondo. Questo spiega il motivo per cui quando parliamo di
scottex facciamo riferimento a tutti i tipi di carta asciugante.
Infine affinché la comprensione di farsi complesse avvenga nel modo giusto è
necessario fare uso di meccanismi di inferenza. Cosi grazie alle nostre conoscenze
del mondo e grazie alle informazioni linguistiche esplicite nelle frasi possiamo
cogliere le informazioni nascoste.

La psicolinguistica cognitivista ha dedicato molta attenzione allo studio dei


meccanismi di interpretazione delle parole, mettendo in luce dei fenomeni:
l’ambiguità lessicale, la flessibilità semantica e l’instanziazione di termini generici.

-L’AMBIGUITA’ LESSICALE
È il fenomeno per cui una stessa forma fonologica ed ortografica (merlo), viene
utilizzata in una lingua per poter indicare diverse unità (uccello/struttura
174
175

architettonica). Quando incontriamo parole fonologicamente ambigue ci troviamo


dinnanzi ad un caso di omofonia; allo stesso modo se incontriamo parole
ortograficamente ambigue ci troviamo dinnanzi ad un caso di omografia. anche se in
una lingua come l’italiano, il rapporto tra livello fonologico ed ortografico è
praticamente trasparente, e quindi ne risulta che le parole omofone sono spesso
anche omografe. Per quanto riguarda l’ambiguità lessicale, i parlanti di una lingua
non riscontrano particolari difficoltà a comprendere parole con più significati, in
quanto queste sono sempre accompagnate da un contesto, il quale ci aiuta a dare
l’interpretazione più idonea. Infatti gli studi riguardo il fenomeno dell’ambiguità
lessicale si sono focalizzati a capire non se il contesto avesse un ruolo importante nel
chiarire il significato di una parola ambigua, ma quando durante il processo di
comprensione, l’informazione di contesto venisse utilizzata e in che modo. Sono
stati sviluppati tre modelli.
1-> modello esaustivo: secondo il quale la comprensione delle parole ambigue
avviene in due fasi: 1)accesso, dove vengono attivati momentaneamente tutti i
significati che riguardano una certa parola a prescindere dal contesto.2)
l’interpretazione-> dove appunto i significati che abbiamo attivato nella prima fase
vengono messi a confronto con il significato generale della frase in cui compare la
parola e infine viene scelto il significato più adatto al contesto. Si tratta di un
modello rigidamente modulare, in quanto l’informazione di contesto subentra solo
in un secondo momento, e infine è anche un modello che non subisce alcun effetto
di dominanza. Con questa espressione ci riferiamo al fatto che tutte le parole
ambigue hanno un’accezione che viene utilizzata più spesso delle altre, quella che
definiamo come accezione dominante, mentre tutte le altre sono definite accezioni
subordinate. Se vogliamo riprendere nuovamente l’esempio riportato all’inizio,
l’accezione dominante della parola merlo è sicuramente quella che viene utilizzata
nel significato di uccello, piuttosto che quello architettonico.
Il secondo invece è il modello a ricerca ordinata (Perfetti), secondo tale modello i
significati di una parola ambigua verrebbero recuperati in maniera sequenziale a
partire dalle accezioni più frequenti. Se il primo significato recuperato è adatto al
contesto, la ricerca termina; se invece non lo è, viene recuperato il secondo
significato in ordine di frequenza e cosi via.
Un punto di vista analogo a questo, integration model (Rayner e colleghi) -> i
meccanismi di accesso non possono essere influenzati da informazioni extra lessicali,
quali il significato di una frase. Ma a differenza dei modelli esaustivi, questi modelli
ammettono che la frequenza relativa dei diversi significati di una parola ambigua

175
176

imponga differenze nell’accesso a questi significati, dando priorità al recupero dei


significati più frequenti.
La terza tipologia di modelli è quella ad accesso selettivo, si tratta di modelli non
modulari che si lasciano influenzare da informazioni extra lessicali. Secondo questi
modelli se non è subito presente l’informazione di contesto che ci indica il significato
più appropriato allora viene recuperato prima il significato dominante della parola
ambigua, altrimenti in caso contrario, e cioè se sono disponibili fin da subito le
informazioni di contesto questi modelli ci permetterebbero di accedere subito al
significato più adatto, nonostante si tratti di un significato subordinato.
Considerati complessivamente, questi lavori fungono da supporto per altri modelli
ibridi, secondo cui gli effetti di dominanza e il contesto hanno entrambi un ruolo
rilevante nel processo di risoluzione dell’ambiguità lessicale.

-LA FLESSIBILITA’ SEMANTICA


Si riferisce all’uso selettivo di diversi aspetti del significato di una parola nel processo
di comprensione di una frase. Può essere esemplificato mediante un esempio:
-L’uomo sollevò il pianoforte
-L’uomo accordò il pianoforte
Barclay et all. mostrarono che se ad una persona viene dato il compito di ricordare
la prima frase, e viene dato un aiuto, l’aiuto è più efficace se è “qualcosa di pesante”
e non “qualcosa di musicale”. Succede il contrario con l’altra frase. Quello che
questo studio vuole mettere in luce è che il significato di una parola come
pianoforte viene codificato in maniera diversa nei diversi contesti, viene cioè
interpretato in maniera differente. Da qui la diversa efficacia dei due aiuti.
Il fenomeno della flessibilità semantica venne inizialmente studiato da B. sulla scia
del principio della specificità della codifica (Tulving) in relazione ai meccanismi di
memoria, ed ebbe l’importante funzione di sottolineare la rilevanza dei meccanismi
interpretativi coinvolti nella comprensione del linguaggio.
A partire da questo lavoro ci sono stati diversi studi: I partecipanti dovevano
rispondere ad una domanda su una proprietà di un oggetto o di una sostanza-> “il
fuoco è caldo?”, dopo aver letto una frase che menzionava l’oggetto o sostanza e
rendeva saliente una delle sue proprietà. Lo studio dimostrò che le risposte erano
più veloci se la frase rendeva saliente la stessa proprietà della domanda piuttosto
che una diversa proprietà. (il fuoco proteggeva i soldati in inverno VS il fuoco fugava
176
177

l’oscurità nella notte). Non tutte le proprietà sono ugualmente suscettibili di effetti
di contesto. Proprietà centrali vengono incluse nella rappresentazione di una frase
che menziona l’oggetto, indipendentemente dall’enfasi della frase, proprietà
periferiche tendono ad essere rappresentate solo quando vengono rese salienti
dalla frase.
I lavori considerati fino ad ora sono coerenti con l’ipotesi che solo alcuni aspetti del
significato di una parola vengono impiegati nella costruzione della rappresentazione
mentale del significato della frase in cui compare la parola. Si può ipotizzare che la
selezione delle proprietà contestualmente rilevanti sia il risultato di processi
lessicali, che hanno luogo al momento del recupero dell’info semantica dal lessico
mentale, o che invece sia il risultato di processi post-lessicali che avvengono in una
fase successiva a quella dell’accesso. -> lavoro di Potter e Faulconer-> i partecipanti
ascoltavano frasi in cui il nome target (casa) poteva essere preceduto da un
aggettivo (bruciando). Dopo che avevano sentito il nome, i partecipanti vedevano un
disegno che rappresentava un tipico esemplare dell’oggetto (una tipica casa),
oppure un disegno dell’oggetto modificato (casa in fiamme), o un oggetto diverso
(bandiera). Il loro compito era quello di premere un pulsante, più velocemente
possibile, ogni qual volta che il disegno corrispondeva alla parola target. I risultati
mostrarono che i partecipanti erano più veloci quando la figura era modificata
piuttosto che quando compariva la forma tipica.
Questi risultati fanno pensare a effetti tutti post lessicali nel processo di
interpretazione.

-L’INSTANZIAZIONE
Se qualcuno ci chiedesse di andare a prendere il contenitore della coca cola, molto
probabilmente cerchiamo una bottiglia, una lattina o una caraffa, ma se qualcuno ci
chiedesse di prendere il contenitore delle mele allora cercheremmo un cesto.
1)Nel contenitore c’erano mele-> cesto agevola il ricordo
2) nel contenitore c’era coca-cola -> bottiglia agevola il ricordo
Questo è uno studio di Anderson ed illustra il fenomeno di instanziazione.
In psicologia cognitiva con questo termine ci si riferisce generalmente al fatto che in
diverse occasioni le persone operano processi di specificazione, come ad esempio la
bottiglia e il cesto.

177
178

Il fenomeno dell’instanziazione è stato studiato tradizionalmente in relazione ai


cosiddetti termini generici. La nozione di genericità si riferisce al fatto che il
significato di un’espressione non specifica certi dettagli, ad esempio il significato di
città, è generico, e non specifica se una città è grande o piccola, antica o moderna
ecc.
Tutte le espressioni lasciano qualcosa di non specificato ma il grado di genericità può
variare di molto. Contenitore è più generico di bottiglia o cesto. Questo corrisponde
al fatto che tra i concetti che hanno relazioni iponomiche (utilizzo il generale invece
del particolare), il sopraordinato è più generale del subordinato: pesce è più
generico di squalo o triglia, cibo è più generico di carne o pesce ecc.
Sono stati analizzati anche i verbi-> cucinare è più generico di friggere. Una frase
come la massaia cucinava le patatine, suggerisce che la signora stesse friggendo le
patatine. Ci si dovrebbe dunque aspettare che il ricordo della frase dovrebbe
risultare più facilitato da un aiuto come friggeva e non cucinava.
I termini generici, per questi autori, sono fortemente polisemici, avrebbero cioè un
grande numero di significati diversi e il contesto permetterebbe di specificare quali
di questi significati è di volta in volta rilevante.

-LINGUE E LINGUAGGIO ( libro psicologia generale)


Il linguaggio è la facoltà mentale che permette ai membri della specie umana di
usare una o più lingue, mentre le lingue sono un prodotto sociale. Nessuno dei
sistemi simbolici impiegati in altre specie ha caratteristiche confrontabili con le
lingue umane. Queste nel corso della storia possono sorgere o perire anche molto
rapidamente. ( nascita del serbo da pochi anni)
Le trasformazioni cui vanno incontro le lingue nel corso della storia sono l’oggetto
privilegiato di studio della linguistica detta diacronica. Quindi da qui cercheremo di
chiarire quali sono le caratteristiche fondamentali delle lingue che sono
universalmente condivise da tutte le lingue umane.
LA STRUTTURA DELLE LINGUE
L’interesse delle lingue e il linguaggio si è mantenuto costante nel corso dei secoli,
ma hanno subito un’accelerazione grazie a Saussure e Chomsky.
Secondo Saussure la lingua è un sistema di suoni dotati di significato, cioè suoni
usati per riferirsi a qualcos’altro. Tuttavia i suoni linguistici non hanno un valore
assoluto: burro in italiano burro in spagnolo, hanno due significati diversi.
178
179

Ogni lingua possiede un sistema fonologico, cioè un insieme di suoni o fonemi.


Stringhe di fonemi formano i morfemi, cioè le unità più piccole dotate di significato.
Composizioni di morfemi più il suffisso formano parole, che assieme costituiscono il
lessico o il dizionario della lingua. Di norma, a parte alcune forme onomatopeiche,
non c’è nessuna relazione intrinseca tra suono e significato delle parole, il che
costituisce il fenomeno noto come arbitrarietà delle lingue.
Gruppi di parole formano i sintagmi (il panino imbottito) e costituiscono a loro volta
le parti di cui sono composte le frasi. In una lingua sono le regole della sintassi quelle
che determinano il modo in cui le parole devono combinarsi ed è sulla base della
nostra conoscenza di queste regole che siamo in grado di valutare la correttezza
delle frasi. Infine, tante frasi organizzate formano un discorso. Secondo Chomsky
l’unicità delle lingue umane sta nella loro sintassi. Tutti i sistemi simbolici
possiedono un repertorio di segni dotati di significato, ma le lingue possiedono la
sintassi che fa si che i simboli semplici, cioè le parole, si compongono per produrre
significati più complessi. È nella sintassi che risiede la creatività della lingua. Una
caratteristica fondamentale delle strutture sintattiche, comune a tutte le lingue, è di
essere gerarchica. Nei discorsi che ascoltiamo o produciamo i suoni formano una
sequenza lineare, cioè compaiono nel tempo uno dopo l’altro. La ricorsività è la
possibilità di ripetere una stessa regola all’interno di una stessa frase. La conoscenza
della sintassi è implicita, nel senso che una persona di norma non è in grado di
descrivere o rendere esplicite le regole linguistiche che usa.

-LO SVILUPPO DEL LINGUAGGIO


Le tappe principali dello sviluppo linguistico
Quando nasce, un bambino non parla ma, Nel giro di pochi mesi tipicamente
comincia emettere suoni che assomigliano a suoni linguistici e che pian piano osi
affinano. Sta di fatto che intorno al primo anno di vita, un bambino comincia a dire
le prime parole che diventano molto rapidamente numerose. Quando il suo
vocabolario ha raggiunto le 50-100 parole il bambino comincia a metterle insieme,
formando le prime combinazioni sintattiche. Questo percorso dura tutta la vita, dal
momento che per tutto l’arco dell’esistenza le persone imparano parole ed
espressioni nuove. Tuttavia, le acquisizioni principali avvengono molto velocemente
intorno ai tre anni, quando un bambino è un parlante a pieno titolo della sua lingua,
della quale conosce già le parole e le strutture fondamentali. L’ipotesi secondo cui
avvenga tutto questo e attualmente quella più accreditata è che alla nascita un
bambino disponga di alcuni schemi generali come quelli che riguardano l’ordine con
179
180

cui in una frase vengono espressi soggetto, verbo e oggetto. Nelle lingue questi
ordini sono diversi, ma l’esposizione alla lingua della comunità in cui cresce
permette al bambino di settarne i parametri, di fissare cioè l’ordine proprio di
quella lingua, fornendogli le informazioni necessarie per cui la sua capacità innata si
sviluppi appieno ed egli diventi un utente competente della lingua a cui appartiene.
Questa concezione è detta innatismo ed è stata proposta da Chomsky. Assieme
all’innatismo, il cognitivismo fa un’altra assunzione importante in merito al
linguaggio, Cioè che si tratti di una facoltà autonoma nel sistema mentale umano,
che si sviluppa ed eventualmente può essere danneggiata indipendentemente da
altre facoltà. Questa ipotesi è stata sostenuta da Piaget, il quale sostiene che il
linguaggio è una forma di capacità simbolica e come tale si sviluppa assieme alla
capacità simbolica e di astrazione del bambino e in un certo senso dipende da
questa. Altri studi attuali sembrano convergere sul punto di vista che potremmo
chiamare autonomista della capacità linguistica, dando ragione allo psicologo russo
Vvgotskjj. L’idea che il linguaggio sia una capacità autonoma da altre facoltà mentali
è del tutto coerente con ciò che sappiamo dell’organizzazione di questa capacità nel
cervello e delle capacità di pensiero degli animali.

-LE BASI BIOLOGICHE E LE ORIGINI DEL LINGUAGGIO


Le aree cerebrali che presiedono al linguaggio sono state individuate in primis da
Broca, il quale dimostrò che lesioni nella parte inferiore del lobo frontale sinistro,
area celebrale che ora porta il suo nome, producevano gravi deficit nella capacità di
parlare.
Poco dopo Wernicke, identificò nella corteccia temporale sinistra l’area responsabile
di disturbi.
ora sappiamo con certezza che, per la grande maggioranza delle persone, le aree
primarie del linguaggio sono localizzate nell’emisfero di sinistra E che lesioni in
queste aree producono di norma deficit di linguaggio dette afasie, che a volte
possono essere anche molto specifiche. Un disturbo molto comune è la cosiddetta
anomia cioè la difficoltà patologica di dire parole che invece si è grado di capire.
(capire cane ma non riuscire a denominare una figura che rappresenta un cane)
Disturbi del linguaggio e funzionamento normale
molte delle nostre conoscenze su come si passa dal suono di una parola al recupero
del significato ad esso associato, e da questo alla produzione del suono
corrispondente, provengono proprio dallo studio di pazienti afasici, oltre che dalla
180
181

ricerca di laboratorio. Un fatto importante per quanto riguarda le persone colpite da


afasia è che il loro deficit di linguaggio non sembra compromettere altre capacità. In
particolare una persona afasica non ha evidenti difficoltà di pensiero e la sua
capacità di ragionamento sembra rimanere intatta a dispetto del deficit linguistico.
Nel tentativo di chiarire se è in che misura la capacità linguistica sia davvero una
prerogativa esclusivamente umana, sono stati condotti numerosi studi per esplorare
le capacità linguistiche di altre specie. I ricercatori hanno allevato scimpanzé,
cercando di insegnare loro ad esprimersi linguisticamente. I risultati di queste
esperienze, almeno da un punto di vista strettamente scientifico, si sono mostrate
non molto concludenti. Questi dimostravano alcune capacità linguistiche, ma
avevano comportamenti molto diversi da quelli umani. A differenza degli umani, ad
esempio, le loro conquiste erano frutto di estenuanti sessioni di apprendimento e
non avevano nulla della spontaneità dello sviluppo linguistico umano. Per spiegare
questo, una delle ipotesi attualmente abbastanza accreditate, è che il linguaggio
nella sua forma attuale sia una conquista molto recente della nostra specie e che si è
sviluppata principalmente per ragioni di natura sociale. Lo strumento che è stato
sviluppato dagli uomini per coltivare le loro relazioni sociali è la lingua.

COMPRENSIONE DEL LINGUAGGIO


cosa accade quando riconosciamo una parola?
studi recenti basati sulla tecnica di rilevazione dell’attività corticale denominata
magnetoencefalografia ne hanno mostrato con chiarezza il corso temporale: circa
250 ms. dopo l’inizio di una parola sullo schermo di un computer ne comincia
elaborazione pre lessicale che avviene soprattutto nella parte posteriore sinistra
della corteccia temporale superiore, 350 ms. dopo si registra un’attivazione del
lessico mentale. Inizia così la ricerca nel lessico di una rappresentazione che
corrisponde al segnale in entrata (la parola letta), ricerca che porterà al
riconoscimento vero e proprio della parola.

-La parola
la comprensione delle parti interne della parola
riconoscere le parole che sentiamo o leggiamo, e recuperarne il significato, sono
operazioni di base della comprensione. Intuitivamente potremmo pensare che i
confini espressi dalle variazioni del suono prodotto dalla voce umana coincidano con
l’inizio e la fine delle parole, ma le cose non stanno precisamente così.
181
182

Differenze tra percezione del parlato percezione delle parole scritte


la percezione del parlato è diversa da quella delle parole scritte per tante ragioni:
per le condizioni di rumore ambientale in cui parliamo e sentiamo parlare. Inoltre, il
parlato è distribuito nel tempo mentre la scrittura nello spazio. Il riesame del
materiale linguistico è diverso: chi legge può infatti determinare da sè la durata del
processo di lettura, tornando indietro per rileggere e così via. Mentre il destinatario
deve elaborare il linguaggio alla velocità decisa dal parlante. un’altra differenza è
che nel parlato discorsivo, i confini tra le parole sono poco marcati. malgrado siano
fissate dipendono dal contesto, dalla velocità di eloquio ed altre caratteristiche
individuali, piuttosto abili nel riconoscere unità che costituiscono il parlato. Le
informazioni percettive estratte dall’input acustico risiedono per un periodo
brevissimo di tempo nella memoria ecoica così come quelle relative all’input visivo
della memoria iconica. Questi magazzini sensoriali registrano le caratteristiche
fisiche, il segnale acustico o visivo per poi passare agli altri sistemi di memoria. I
risultati delle prime elaborazioni effettuate confluiscono cosi nella memoria di
lavoro, cioè in quella parte la memoria incaricata del mantenimento e
dell’elaborazione temporanea dell’informazione. il linguaggio parlato veicola anche
informazioni prosodiche che ci aiutano a capire il significato di frasi ambigue.
“mentre la bambina mangiava la torta sembrava ancor più appetitosa.” La frase non
è ambigua se chi parla farà una breve pausa dopo mangiava, segnalando così il
confine di proposizione. Tale informazione verrà usata per elaborare la frase ed
evitare ambiguità che possono insorgere quando la frase è scritta senza
punteggiatura. Uno degli indici usati in molte lingue per discriminare i singoli fonemi
sono i confini delle sillabe. le strategie di segmentazione utilizzate dai parlanti, e
quindi il ruolo assegnato alla sillaba rispetto ad altre unità, dipendono dalla lingua
cui i parlanti sono stati esposti e dalla sua struttura prosodica. Per l’italiano e il
francese, che hanno una struttura sillabica chiara, la sillaba costituisce un
importante strumento di segmentazione.

-COME RICONOSCIAMO UNA PAROLA MENTRE LA SENTIAMO? Modello coorte


Quando ascoltiamo una parola nella nostra mente ci prefiguriamo una coorte,
ovvero un insieme di possibili candidati al riconoscimento di quella parola. I
candidati corrispondono a tutte le unità che condividono la parte iniziale della
parola da riconoscere (la prima sillaba). Esempio: nel caso della parola esame,

182
183

inizialmente la coorte sarà caratterizzata da tutte le unità lessicali che hanno in


comune la parte iniziale ES (esperimento, estorsione ecc).
Man mano che si aggiungono informazioni la coorte si restringe eliminando le parole
incompatibili fino a quando non resterà un unico candidato, esame. Questo perché
la parola è caratterizzata da un punto di unicità raggiunto il quale essa si
differenzierà da tutte le altre, e dopo il quale essa viene perciò riconosciuta. quindi il
processo di riconoscimento di una parola avviene per mezzo di tre fasi:
la fase di accesso, dove abbiamo una rappresentazione linguistica che va ad attivare
la coorte, poi abbiamo la seconda fase, la selezione, dove la coorte si restringe man
mano che arrivano nuove informazioni percettive fino ad arrivare al punto di unicità,
ovvero il punto in cui la coorte rimane con un unico candidato e infine vi è la terza e
ultima fase, la fase di integrazione, dove appunto la parola con il suo significato
viene inserita nella frase. Il contesto interviene nella fase di selezione e integrazione.
-COME RICONOSCIAMO UNA PAROLA MENTRE LA LEGGIAMO? Effetto superiorità
della parola (nonna)
Questo paradigma, sviluppato da Reicher, consiste nell’evidenziare il fatto che noi
individui siamo in grado di riconoscere una singola lettera con maggiore facilità e in
minor tempo quando essa si presenta all’interno di una parola reale come pensare
piuttosto che in una pseudo-parola.
quindi riconosciamo ad esempio più facilmente la lettera s all’interno della parola
pensare piuttosto che all’interno di una pseudo parola come pansera.
Una spiegazione di quest’effetto potrebbe essere che c’è interazione tra il livello
delle parole e quello delle lettere, quindi una sorta di feedbeck o retroazione. Un
modello di riconoscimento delle parole scritte che potrebbe confermare questa
ipotesi potrebbe essere il modello ad attivazione interattiva di McClelland e
Rumhelhart.
Per riconoscere le parole scritte non basta combinare le lettere che la formano ,
deve intervenire anche un’ elaborazione più completa dello stimolo. Il rapporto fra
riconoscimento delle lettere e della parola è illustrato dal cosiddetto effetto di
superiorità della parola. Tale effetto si ottiene presentando per pochi millisecondi su
uno schermo una lettera, una parola oppure una stringa priva di significato. Dopo la
presentazione di una configurazione visiva interferente, appaiono sullo schermo due
lettere. i partecipanti devono poi scegliere quella presente nello stimolo iniziale.
Risultati dimostrano che la scelta è più accurata quando le lettere sono precedute
dalla parola piuttosto che dalla lettera stessa. Ciò significa che una parola che
183
184

contiene una data lettera ne facilita il riconoscimento più della parola stessa: una
volta che la parola è stata riconosciuta anche il riconoscimento della lettera risulta
facilitato.
Possiamo leggere una parola in italiano ricorrendo a due modalità: una via lessicale
diretta, in cui recuperiamo dal lessico mentale la parola in quanto input ortografico
globale e la sua pronuncia corretta;
una via non-lessicale che utilizza, invece le regole di conversione grafema-fonema
tipiche di ogni lingua, cioè quelle che in italiano ci dicono come leggere le parole
scritte. il problema nasce con le parole la cui pronuncia è irregolare, cioè non segue
le regole tipiche dell’italiano: ad esempio il gruppo “gli” è letto diversamente in
“glicine”. Le parole irregolari come glicine possono essere lette solo recuperando dal
lessico mentale la loro specifica pronuncia. Quando non conosciamo una parola, non
abbiamo nel lessico a disposizione una rappresentazione corrispondente, quindi
possiamo leggerla solo per via non lessicale.

-DALL’ORTOGRAFIA ALL PRONUNCIA E RITORNO


il ruolo dell’informazione fonologica nel riconoscimento delle parole
Decidere se il riconoscimento di una parola sia diretto (cioè si passi dall’ortografia al
suono) o mediato fonologicamente (secondo la sequenza del tipo ortografia-
fonologia-suono) ha prodotto controversie infinite. La posizione oggi prevalente è
che l’informazione fonologica sia rapidamente attivata anche nel corso della lettura
saliente. La regolarità delle lingue alfabetiche differisce ampiamente: in alcuni, come
l’italiano o lo spagnolo, che c’è una stretta corrispondenza fra grafemi e fonemi,
mentre in altre, come l’inglese o l’ebraico, è quasi assente. In italiano possiamo
leggere e scrivere con una certa sicurezza anche parole poco note, utilizzando le
regole esistenti. Le parole irregolari, la cui corretta lettura non dipende dalle regole
di conversione grafema-fonema, sono infatti relativamente poche. Un altro fattore
che influenza la corrispondenza fra ortografia e pronuncia sono le caratteristiche dei
vicini della parola da pronunciare, cioè le parole che condividono un dato gruppo di
lettere di fonemi (ad esempio, cane e rane sono vicini orografici di pane).

-LA FRASE E IL TESTO (tango)


- Riconoscimento di frasi

184
185

Quasi mai durante il nostro quotidiano ci capita di dover comprendere parole isolate, infatti
queste ultime sono sempre inserite all’interno di organizzazioni più complesse quali le frasi,
e queste ultime a loro volta sono poi inserite all’interno di strutture ancora più articolate
ovvero i discorsi oppure i testi. Quando cerchiamo di comprendere un discorso, nonostante
questo si compone di elementi semplici quali le parole, non ci limitiamo semplicemente a
coglierne gli aspetti sintattici e di significato in quanto questi sono sempre accompagnati da
un contesto con il quale devono essere affini e idonei. Quindi in un discorso devono essere
presenti e subito disponibili sia al parlante che all’ascoltatore oltre alle informazioni
sintattiche e semantiche anche le informazioni di tipo pragmatico. Oltre a questi aspetti,
non possiamo tralasciare anche gli aspetti legati alle intenzioni del parlante, al registro
linguistico di cui dispone e agli effetti che vuole produrre. Per quanto riguarda le relazioni
che sussistono tra le informazioni sintattiche, semantiche e pragmatiche si sono sviluppate
due diverse ipotesi:
• la prima è che le informazioni intrattengono costantemente delle interazioni tra loro.
Ovviamente attenendoci sempre a tutte le regole che ci permettono di stabilire se
una frase è grammaticalmente corretta, se i significati che attribuiamo alle parole
sono accettabili e se l’interpretazione, oltre all’intonazione che gli attribuiamo e al
contesto in cui la inseriamo sono plausibili al fine della comunicazione.
• La seconda ipotesi sostiene che ciascun sottosistema (sintattico, semantico ecc) sia
indipendente e da tale provvede ognuno a sviluppare l’elaborazione della propria
informazione e solo in un secondo momento tali informazioni vengono integrate a
quelle di contesto al fine di assegnare l’interpretazione finale alla frase.

-IL RUOLO DELLA STRUTTURA SINTATTICA DI UNA FRASE


-il problema dell’ambiguità sintattica
talvolta può essere difficile interpretare una frase in modo univoco a causa della sua
struttura sintattica. Il principio di elaborazione sintattica generalmente preferito in
italiano, date le caratteristiche morfo-sintattiche della lingua, si basa sulla scelta
della soluzione più semplice in termini di complessità di elaborazione. Ma non
sempre l’interpretazione iniziale è confermata. Ad esempio, in genere si attribuisce il
ruolo di soggetto grammaticale al primo nome menzionato in una frase. Il principio
di località: maggiore è la distanza tra una parola in arrivo e la struttura cui va riferita,
più alti sono i costi di mantenimento in memoria di integrazione. Il sistema di analisi
sintattica procede attraverso due passaggi. 1: le parole vengono assegnate a delle
categorie sintattiche sulla base di informazioni lessicali al fine di costruire una

185
186

struttura frasale preliminare la cui correttezza e coerenza viene man mano


controllata; 2: l’assegnazione alle diverse categorie sintattiche viene rivista anche
alla luce di altre informazioni, ad esempio, semantico e contestuale.

-CHE RUOLO HANNO LA STRUTTURA SEMANTICA E L’INTERPRETAZIONE


PRAGMATICA DELLA FRASE?
-La comprensione di un testo come processo ricostruttivo
comprendere una frase in un discorso o in un testo scritto significa formarsene una
rappresentazione mentale appropriata: un’operazione in cui confluiscono fattori
locali e globali. Chi legge un testo coopera dunque attivamente alla costruzione del
suo significato. La rappresentazione semantica di un testo ricostruisce nella
memoria di chi legge il mondo della narrazione: la trama, i personaggi, le loro azioni
e reazioni, e l’ambiente in cui si svolgono i fatti. Quindi non è una semplice copia
dell’input, bensì una elaborazione filtrata sulla base di proprietà generali come la
coerenza, l’organizzazione e una struttura gerarchica che assegna maggiore
importanza ai contenuti principali. Nella comprensione entrano anche operazioni
ricostruttive: come aveva già scoperto lo psicologo inglese Bartlett, ricordiamo
meglio il nucleo di una storia rispetto ai dettagli e il suo significato rispetto alla
forma superficiale in cui esso è organizzato.
il ruolo degli script -> (copione) dai corsi di azione degli eventi tipici della vita
quotidiana estraiamo delle regolarità che si consolidano e vengono mantenute nella
memoria a lungo termine. Queste strutture, script, funzionano come schemi di
anticipazione e ci permettono di effettuare delle inferenze o di integrare
informazioni mancanti. Uno script contiene infatti un insieme di elementi obbligatori
e opzionali, che specificano gli oggetti e i luoghi dell’azione, i ruoli e scopi dei
partecipanti e le sequenze di azioni. Ad esempio, lo script di andare al ristorante è
costituito da scene ordinate temporalmente e spazialmente. Ognuna di esse
contiene degli slot (cioè delle caselle da riempire) cui è associato un valore tipico
(generalmente si mangia seduti a un tavolo e non in piedi).
-COSA DETERMINA LA COMPLESSITÀ DI UN TESTO?
A rendere una frase e un testo difficili da capire possono contribuire vari fattori: le
caratteristiche delle parole che lo formano (la loro familiarità); la complessità della
struttura sintattica delle frasi (l’uso del passivo o della doppia negazione) e di quella
semantica (la coerenza, il grado di continuità referenziale): la competenza di chi
legge o le conoscenze richieste dal testo.
186
187

-comprensione del linguaggio è condivisione delle conoscenze


la comprensione del linguaggio è influenzata dalla condivisione o meno di una base
comune di conoscenze che derivano dal far parte di una stessa comunità culturale,
dall’essere nello stesso luogo o dall’aver sperimentato insieme un certo evento o
una conversazione. La comunicazione umana si basa su un principio di cooperazione
tale per cui ogni nostro intervento dovrebbe essere ispirato a chiarezza, pertinenza,
informatività e veridicità.

-tipi e funzioni delle inferenze


Le inferenze rappresentano una delle modalità attraverso cui integriamo
l’informazione linguistica con quella concettuale e contestuale.
Esistono svariati tipi di inferenze:
-IMPLICAZIONI LOGICHE: Che dipendono dal significato delle parole (ad esempio,
nubile implica donna non sposata);
-INFERENZE RETROSPETTIVE : Connettono nuove informazioni alle precedenti e sono
necessarie per comprendere un testo ( dentista, uguale nelle due frasi);
-INFERENZE ELABORATIVE: non sono strettamente necessarie alla comprensione
della frase-> l’uomo tagliò la torta, era proprio buona.
-INFERENZE CONCETTUALI: si basano sulle definizioni dei termini e che
comprendono le inferenze legate ai rapporti fra categorie generali e membri
specifici (ad esempio, che il canarino è un uccello).

-IL CASO DELL’ANAFORA


L’anafora serve per indicare legami locali tra le diverse parti di un testo è stabilirne
la coerenza permettendo il riferimento a entità menzionate precedentemente.
“luigi e anna entrarono in classe. Lui si tolse il cappotto, lei lo tenne.”
Le anafore sono espresse attraverso forme linguistiche diverse, tra cui pronomi
personali (lei), clitici (ne), sintagmi definiti ( la donna) e indefiniti( una donna) i nomi
propri ( cristina).

187
188

Per comprendere una anafora occorre integrare informazioni provenienti da diverse


fonti: la rappresentazione del discorso che la precede (cioè la disponibilità di un
antecedente cui legare l’anafora); le caratteristiche linguistiche degli elementi
presenti nella frase; interferenze di tipo pragmatico.

PRODUZIONE DEL LINGUAGGIO


-gli studi sulla produzione del linguaggio
Durante una conversazione, una persona è allo stesso tempo un ascoltatore e un
parlante: ascolta i suoi interlocutori e a sua volta comunica loro i propri pensieri. Le
conoscenze che vengono utilizzate nei due casi sono fondamentalmente le stesse.
Per parlare, come per capire, una persona deve conoscere le parole della propria
lingua, il loro suono, il loro significato, la loro struttura morfologica e le loro
proprietà grammaticali, nonché le regole sintattiche che consentono di comporre i
significati delle parole in significati complessi. In aggiunta, occorre conoscere i
principi che governano i meccanismi comunicativi, senza i quali non riusciremmo ne
ad interpretare ciò che ascoltiamo ne a farci capire dagli altri. Ma i processi che sono
necessari per parlare sono diversi da quelli necessari per capire. Per rendersene
conto basta pensare una parola: nel capirla il sistema coinvolto è quello uditivo, nel
pronunciarla quello fonatorio. lo studio dei processi cognitivi si avvale
prevalentemente di due fonti di evidenza empirica: dati sperimentali e dati
provenienti dallo studio dei pazienti afasici. Nel lavoro sperimentale, il ricercatore
osserva se si verificano gli effetti previsti in funzione di alcune condizioni da lui
stabilite, ad esempio un rallentamento nei tempi di risposta delle persone quando
devono riconoscere parole poco frequenti rispetto a parole più frequenti. Nello
studio della produzione, invece, è molto difficile predeterminare ciò che le persone
decideranno di dire. Il punto di partenza delle nuove ricerche, condiviso dagli
studiosi, è che esistono alcuni passi fondamentali che un parlante deve compiere
per produrre una frase.

LA STRUTTURA FONDAMENTALE
gli stati della produzione di una frase sono fondamentalmente tre: livello della
concettualizzazione o del messaggio, quello della formulazione o pianificazione e
quello dell’articolazione.
concettualizzazione-> non è legata alla specifica lingua del parlante. È il momento in
cui una persona concepisce l’intenzione di parlare e decidere che cosa vuole dire. In
188
189

questa fase viene elaborato in forma prelinguistica il messaggio che nelle fasi
successive troverà espressione in una frase della lingua.
Formulazione-> il messaggio prende forma linguistica: il parlante sceglie le parole da
usare e la struttura sintattica della frase. Sempre in questa fase, si specifica il suono
della frase.
articolazione-> stadio finale, si recuperano i vari pezzi e vengono emessi, nell’ordine
appropriato, i suoni che compongono la frase.
naturalmente quando parliamo la produzione non avviene una frase per volta, e
materiali diversi si trovano nello stesso momento a fasi diverse elaborazioni. Molto
spesso, quando abbiamo finito di pronunciare una parte della frase, la successiva è
già disponibile per essere realizzata. Capita però che le cose non siano sempre così
ben sincronizzate. Si può generare un’esitazione. Queste imperfezioni, assieme alla
produzione verbale dei pazienti afasici, sono state per lungo tempo quasi le uniche
fonti di dati e nello studio dei processi di produzione.
ESITAZIONI ED ERRORI DI PRODUZIONE DEL LINGUAGGIO
Per poter parlare di errori di produzione del linguaggio bisogna fare una preliminare
distinzione tra quello che è un discorso spontaneo, che sicuramente è ricco di
imperfezioni, dai discorsi fatti a memoria o letti che sono ovviamente più disinvolti e
scorrevoli. Per quanto concerne il primo seppur, come abbiamo detto, è
caratterizzato da alcune imperfezioni queste ci permettono di comprendere
ugualmente un qualsiasi discorso nonostante il discorso spontaneo si distacchi da
quelle che sono normalmente considerate produzioni linguistiche idealmente
perfette. Quasi sempre in questo tipo di discorso succede che si verifichino delle
pause che normalmente in un discorso perfetto non accadono, oppure capita delle
volte che pronunciamo male qualche termine o che lo confondiamo con un altro.
Queste esitazioni, questi errori sono considerate imperfezioni fisiologiche che
normalmente siamo anche in grado di correggere da soli e che sicuramente non
stanno a significare una mancata conoscenza della lingua. Intanto mentre
pronunciamo un discorso si possono verificare due diverse forme di esitazioni: la
prima forma è quella che viene chiamata VUOTA, caratterizzata semplicemente da
un breve intervallo di tempo in cui si rimane in silenzio, poi ci sono quelle PIENE o
RIEMPITE, dove appunto questi silenzi vengono sostituiti o riempiti da parole già
pronunciate oppure dai soliti intercalare. È interessante, tra l’altro, sottolineare
come queste forme di esitazione non si verificano in maniera casuale durante un
discorso, ma hanno delle posizioni piuttosto ricorrenti, e più precisamente queste
posizioni sono 3:
189
190

1) il primo posto in cui si possono verificare è sicuramente nelle giunture


grammaticali, quindi proprio tra due frasi;
2) poi possiamo riscontrarle proprio all’interno di una frase, tra i vari costituenti;
3) e infine dopo la prima parola di un costituente.
In ogni caso, nonostante sia complesso interpretarle, le esitazioni rappresentano
comunque una certa difficoltà che il parlante sta affrontando in quel momento, in
quell’istante. Infatti secondo questo punto di vista, le pause non sono altro che
momenti, o meglio millesimi di secondi in cui il parlante si prende del tempo per
poter riorganizzare il suo discorso prima di poter procedere. Per quanto riguarda le
esitazioni che si verificano tra una frase e l’altra, queste ci risulta che avvengono in
quanto il parlante sta pianificando proprio l’ossatura della frase che sta per
pronunciare. Mentre nel secondo caso se le esitazioni si presentassero all’interno
della frase stessa questo sta a significare che i parlanti stanno scegliendo in quel
momento quali parole utilizzare in modo individuale. Quando invece l’esitazione si
verifica all’interno di un costituente, questo significa che il parlante sta riflettendo su
quale forma sintattica attribuire a quella parola prima che essa venga da egli
pronunciata. Infine le pause oltre ad indicare le posizioni nelle quali il parlante sta
riordinando e pianificando il suo discorso ci fanno anche capire grazie alla loro
assenza, e cioè quando non si verificano, che alcune parti di una frase vengono
pianificate insieme e sono disponibili al parlante contemporaneamente. (presidente
della repubblica, nonna materna, primo ministro).
gli errori, invece, sono vere e proprie deviazioni che vengono anche notate con
maggiare difficoltà, anzi quasi sempre solo quando producono delle situazioni di
disagio, delle situazioni imbarazzanti.
Distinguiamo tra diversi tipi di errori, ne sono veramente tanti ma tra i più comuni
abbiamo le anticipazioni, le sostituzioni, gli scambi e i malapropismi. Infine gli errori
sono utili in quanto ci permettono di comprendere alcuni meccanismi di produzione
(un fiocco con le cene) .

PRODURRE UNA FRASE


la scelta delle parole, paradigma interferenza figura parola – modello Levelt
Gran parte degli studi dedicati al linguaggio si concentrano sulla fase definita di
formulazione, fase durante la quale un parlante sceglie quali parole e strutture
sintattiche utilizzare prima di pronunciare una qualsiasi frase. Quando un parlante
sceglie quali parole pronunciare all’interno di una frase, ci riferiamo al processo per
190
191

mezzo del quale i significati delle parole vengono trasformati nei suoni
corrispondenti, questo è quello che definiamo processo di lessicalizzazione, il quale
ha subito una forte influenza dal noto paradigma interferenza figura-parola.
Tale paradigma prevede che venga presentata ad una persona una figura, questa
persona deve poi denominare quella figura mediante una parola Target, se però
insieme a questa figura viene presentata una parola definita DISTRATTORE,
nonostante si chieda al soggetto di ignorarla, il tempo necessario per portare a
termine il compito risulta essere maggiore. A tal proposito recentemente, Levelt
insieme ad altri ricercatori olandesi, hanno condotto un esperimento durante il
quale veniva chiesto a dei soggetti sperimentali di pronunciare nel minor tempo
possibile il nome di alcune figure che apparivano su di uno schermo. Prima, durante
o successivamente alla presentazione di queste figure compariva anche un
distrattore che poteva intrattenere con la figura in questione una relazione di tipo
semantico, fonologico oppure poteva non avere alcun tipo di relazione con essa. I
risultati di questa ricerca hanno mostrato che, se il distrattore veniva presentato
insieme o precedentemente alla figura, il soggetto sperimentale impiegava più
tempo a rispondere se c’era una relazione semantica tra il target e il distrattore,
succedeva invece l’opposto se il distrattore si presentava dopo la presentazione
della figura, è come se in questo caso si annullasse l’effetto della relazione. Invece se
tra il distattore e il target c’era una relazione fonologica la risposta era più rapida.
Ciò dimostra che la produzione di una parola avviene in due fasi: innanzitutto le
informazioni che riguardano le parole sono contenute in reti attraverso cui si
propaga l’attivazione, poi abbiamo un primo livello in cui sono contenuti i significati
di una parola ordinati in base alla loro somiglianza concettuale, poi abbiamo il livello
dei lemmi dove sono contenute le informazioni grammaticali delle parole, ed è solo
al livello dei lessemi che le parole assumono una forma fonologica. La scelta di una
parola avviene per mezzo di un processo di competizione tra i lemmi, il lemma che
vince sarà poi quello selezionato.
(il recupero del lemma tramite il processo di selezione lessicale)
Il livello concettuale contiene i significati delle parole organizzati in termini di
somiglianza concettuale, mentre nel secondo livello quello relativo ai lemmi, ci sono
le informazioni grammaticali che riguardano quelle parole. il processo di selezione
permette di recuperare un Lemma mediante un processo di competizione fra i
lemmi che appartengono a concetti lessicali simili: cane, compete con tartaruga,
maiale, cavallo ecc e deve vincere questa competizione per essere selezionato.

191
192

-LA CONVERSAZIONE
Perché una conversazione si svolga con successo è necessario che i partecipanti
tengano conto del contesto nel quale si trovano e si attengono a principi condivisi
che regolano la loro attività linguistica. Normalmente chi partecipa ad una
conversazione utilizza il cosiddetto principio di cooperazione, secondo il quale la
conversazione è un’impresa collaborativa e si realizza attraverso l’utilizzo di una
serie di massime (dare informazioni irrilevanti al contesto-> esempio cena sabato
sera, descrivere il negozio in cui ho comprato i piatti) .
naturalmente, capita parecchie volte di violare una o più massime conversazionali,
queste hanno luogo per l’incompetenza di uno degli interlocutori. Più
frequentemente, però, si tratta di violazioni volontarie dettate da motivazioni più o
meno innocenti, come divertire o ingannare.
Un altro fattore importante per la buona riuscita di una conversazione è che una
persona tenga conto del mondo mentale del proprio interlocutore, dei rapporti
sociali che lo legano a lui, nonché delle proprie intenzioni comunicative.
Un altro aspetto importante della comunicazione è la presa dei turni.( non parlare
tutti insieme)
Un altro aspetto della comunicazione che ha attirato l’attenzione dei ricercatori
riguarda le procedure di apertura e chiusura di una conversazione. Le prime possono
essere schematizzati come una sequenza di chiamate e risposte. Le chiamate hanno
lo scopo di richiamare l’attenzione dell’interlocutore da parte di chi decide di aprire
la conversazione, mentre le risposte segnalano la disponibilità dell’interlocutore. Se
l’apertura di una conversazione e stereotipata, la sua chiusura lo è ancora di più.
Chiudere una conversazione è un atto che richiede l’accordo dei partecipanti e il
mancato raggiungimento di questo accordo può avere conseguenze sociali
spiacevoli.
fortunatamente sono sufficienti pochi segnali perché gli interlocutori riconoscano i
segnali di chiusura e concordino su di essi.

LINGUAGGIO
Wundt non è stato soltanto il fondatore del primo laboratorio di psicologia ma
anche il primo a svolte importanti ricerche sulla psicologia del linguaggio. Uno dei
tempi più importanti affrontati da lui è la relazione tra l’esperienza e le parole che
192
193

vengono usate per descriverla. Abbiamo detto che la nostra attenzione è come un
fascio di luce che mette in risalto alcuni aspetti di una situazione relegandone altri
nello sfondo. Tutti gli aspetti di una situazione a cui potremmo prestare attenzione
sono simultaneamente disponibili. Nonostante questo molti psicologi hanno
osservato che noi siamo in grado di dirigere la nostra attenzione verso un aspetto
oppure un altro di una situazione. Alcuni studiosi hanno notato che le relazioni tra le
singole componenti che costituiscono una nostra specifica esperienza, sono state
descritte da Wundt per mezzo di diagrammi ad albero. Il processo linguistico
procede da un livello in cui un certo numero di relazioni sono presenti
simultaneamente ad un altro livello in cui queste relazioni (cioè soggetto e
predicato) sono ordinate l’una dopo l’altra come una successione di parole
all’interno di una frase.

-Chomsky e la grammatica trasformazionale


Chomsky è uno dei più importanti ricercatori di questo secolo per ciò che riguarda il
linguaggio. Nel suo libro “strutture della sintassi”, ha considerato il problema della
produzione di frasi. Una frase è un enunciato grammaticale ed è riconosciuta in
quanto tale dai parlanti della lingua in cui è espressa. Chomsky ha notato che, in
qualunque lingua, non vi è limite al numero di nuove frasi che possono essere
generate. La lingua è un insieme aperto ed è costituita da tutte le frasi possibili
mentre l’insieme delle frasi effettivamente pronunciate rappresenta soltanto un
piccolo sotto insieme della lingua. Questa osservazione è molto importante perché
significa che ci deve essere un insieme di regole, ovvero una grammatica, che i
parlanti usano per generare frasi della loro lingua. La grammatica deve essere in
grado di generare tutte le frasi possibili di una lingua. Da un insieme finito di regole,
la grammatica deve essere in grado di generare un insieme infinito di frasi. Per
comprendere a struttura della lingua bisogna comprendere la struttura della
grammatica. Chomsky ha fatto notare che una frase grammaticalmente corretta non
è necessariamente una frase dotata di significato. (idee verdi prive di colori
dormono furiosamente) -> anche se grammaticalmente è corretta è priva di
significato. Questa osservazione ha portato Chomsky a distinguere la grammatica
dalla semantica, cioè dallo studio del significato. Ha sostenuto che i processi che
rendono grammaticale una frase sono diversi da quelli che assegnano un significato
alla frase. Studiando la grammatica inglese ha concluso affermando che una
grammatica a stati finiti non può generare tutte le frasi di una lingua. Una
caratteristica critica di una grammatica a stati finiti è il fatto che le parole vengono
generate in modo sequenziale, dalla prima all’ultima parola. Chomsky ha osservato
193
194

che è impossibile costruire una grammatica a stati finiti (catena di Marcov) in grado
di generare tutte e solo le frasi grammaticali di una lingua naturale. Le grammatiche
a stati finiti sono troppo semplici per rendere conto della complessità di una lingua
naturale. Questa complessità può essere illustrata facendo riferimento alle frasi che
contengono al loro interno delle proposizioni subordinate-> oggi arriverà l’uomo il
quale ha detto che S…-> ci sono un’infinità di frasi che possono essere aggiunte-
Chomsky afferma che una grammatica a stati finiti non è in grado di generare tutte
le frasi possibili di una lingua. Secondo Chomsky, questa grammatica opera ad un
solo livello: le frasi vengono generate per mezzo di un processo che opera da sinistra
a destra. Egli propone un processo top-down e che fa uso di regole di struttura
sintagmatica e di trasformazioni grammaticali. Le regole di struttura sintagmatica
consistono in un insieme di simboli e di regole di riscrittura: Frase (F)-> SN+SV; SN->
Art + N; SV-> V+ SN; ART-> Un, il; N-> automobile, ragazza, ragazzo; V-> aiutare,
amare.
Per mezzo di queste regole possono essere costruite molte frasi diverse. La
generazione di una frase può essere rappresentata per mezzo di un diagramma ad
albero. Ciascuno stadio di questo processo produce una stringa diversa, e la
sequenza finale delle parole che sono stata generate è chiamata stringa finale.
Chomsky parla anche di trasformazione passiva-> Carlo ammira Giovanni-> la
trasformazione passiva converte la stringa soggiacente alla stringa terminale in
modo da produrre una frase -> Giovanni era ammirato da Carlo. La trasformazione
passiva inverte l’ordine dei sintagmi nominali e inserisce nelle posizioni appropriate
il verbo essere e la preposizione “da”.
Questa trasformazione è facoltativa, affinché una frase sia grammaticale non è
necessario che siano applicate delle trasformazioni facoltative. Chomsky ha
chiamato frasi nucleari, quelle frasi che sono prodotte senza le trasformazioni
facoltative. Inoltre Chomsky ha introdotti vari concetti : la distinzione tra
competenza ed esecuzione e quella tra struttura profonda e struttura superficiale.

-COMPETENZA ED ESECUZIONE
Competenza di una lingua secondo Chomsky-> interiorizzare una serie di regole che
mettono in relazione suoni e significati. Grazie alla competenza linguistica un
individuo è in grado di comprendere e usare il linguaggio. La competenza linguistica
non è sempre riflessa nell’uso che viene effettivamente fatto della lingua.

194
195

L’esecuzione linguistica-> non è determinata soltanto dalla competenza linguistica di


base , ma anche da fattori cognitivi, come per esempio la memoria e la
comprensione che un individuo possiede della situazione in cui si trova. In questo
modo, anche se la grammatica di una lingua è un modello della competenza
linguistica, l’osservazione dell’esecuzione linguistica non ci fornisce sempre
un’immagine accurata della competenza dei parlanti. Secondo Chomsky lo studio
della competenza linguistica è uno dei più importanti problemi psicologici. Una
teoria dell’esecuzione linguistica non deve specificare solo la natura della
competenza linguistica ma anche i processi psicologici coinvolti nell’effettiva
produzione delle frasi da parte dei parlanti.

-STRUTTURA PROFONDA E STRUTTURA SUPERFICIALE


Secondo Chomsky la struttura della competenza linguistica è in larga parte innata. La
struttura innata è chiamata grammatica universale. Una parte della grammatica
universale è la sintassi universale, che ci fornisce le regole per mezzo delle quali i
significati possono essere trasformati in parole. Il significato è collocato al livello
della struttura profonda, mentre le parole sono al livello della struttura superficiale.
La distinzione tra SP e SS ci consente di spiegare molti fenomeni linguistici, tra cui le
frasi ambigue. Secondo Chomsky, la presenza dell’ambiguità nel linguaggio illustra la
necessità della distinzione tra SP e SS. La medesima struttura superficiale può essere
derivata a partire da diverse strutture profonde. Il significato della frase risiede nella
struttura profonda che viene attribuita alla frase. La comprensione di una frase si
ottiene trasformando la struttura superficiale di una frase nella sua struttura
profonda. La produzione di una frase rende necessario il percorso inverso: dalla S
profonda alla S superficiale (somiglianza con la teoria di Wundt).

-L’IPOTESI INNATISTA
Chomsky credeva che la competenza linguistica fosse largamente innata. Questa tesi
venne avvalorata dalla constatazione che l’insieme di enunciati cui è esposto un
bambino in età evolutiva costituisce un campione inadeguato delle strutture della
lingua. I tipici enunciati degli adulti contengono molti errori e rappresentano un
campione incompleto della lingua. Questo punto di vista è chiamato povertà dello
stimolo dal momento che sostiene che lo stimolo linguistico è insufficiente per
mettere in grado i bambini di usare il linguaggio in maniera efficace. Inoltre,
l’acquisizione del linguaggio avviene troppo rapidamente perché possa iniziare dal

195
196

nulla. Di conseguenza, si ritiene che i bambini hanno un dispositivo per l’acquisizione


del linguaggio-> LAD. Il lad contiene i principi della grammatica universale, ovvero i
principi generali propri di ciascuna lingua naturale (SN, SV e le relazioni tra soggetto
e predicato). I bambini sono naturalmente dotati degli strumenti necessari per
acquisire velocemente la capacità di usare la loro madrelingua. La ricerca di
Chomsky ha ispirato molte altre ricerche, tra cui quelle che negli anni 70 hanno
criticato l’ipotesi innatista.
Critiche-> l’ipotesi innatista non è stata formulata in maniera sufficientemente
chiara per verificarla sperimentalmente. È stata criticata, inoltre, notando il fatto
che i dati linguistici cui i bambini sono esposti sono spesso molto chiari. Nel
rivolgersi ai bambini, gli adulti, usano frasi più semplici di quelle usate con altri
interlocutori. Questo significa che i bambini ricevono proprio quel tipo di input
linguistico di cui hanno bisogno per sviluppare una comprensione della lingua.
A dispetto di queste critiche l’ipotesi innatista è sopravvissuta in varie forme. Il
continuo interesse per l’ipotesi innatista è in parte dovuto all’attendibilità dei
risultati di un classico studio di Brown e co. Pinker ha affermato che i risultati di
questo esperimento potrebbero essere considerati come una delle più importanti
scoperte della storia della psicologia. Per Skinner, l’apprendimento del linguaggio
dipende dalle informazioni di feedback ricevute dai bambini riguardo agli enunciati
da essi prodotti. È possibile che l’apprendimento del linguaggio dipenda
dall’approvazione che i bambini ricevono per gli enunciati grammaticalmente
corretti e dalla disapprovazione per gli enunciati grammaticalmente sbagliati. Ma
Brown e co. hanno scoperto che, da una parte le madri non correggono gli enunciati
grammaticalmente scorretti, e dall’altra parte, le madri rispondono nello stesso
modo agli enunciati grammaticalmente corretti e a quelli che non lo sono. Le madri
tendono ad approvare enunciati veri e a disapprovare quelli falsi,
indipendentemente che siano grammaticalmente corretti o meno. -> “mamma non
è un uomo, lui donna” -> “è giusto” oppure
> Walt Disney verrà martedì -> no, non verrà.
I risultati di studi come quelli di Brown indicano che i bambini tipicamente non
ricevono quel tipo di informazioni necessarie per distinguere tra gli enunciati
grammaticalmente corretti e quelli che non lo sono. in assenza di tali informazioni
non è chiaro come i bambini possano apprendere ed eliminare gli enunciati non
grammaticali. L’ipotesi innatista, infatti, ritiene che i bambini siano naturalmente
equipaggiati delle conoscenze che li metteranno in grado, alla fine dello sviluppo, di
produrre enunciati grammaticalmente corretti ed evitare quelli che non lo sono.

196
197

-SPECIFICAZIONE DI PARAMETRI
La teoria di Chomsky non è esente di modifiche nel corso del tempo. Una di queste
modifiche è la teoria dei principi e dei parametri->secondo cui l’acquisizione del
linguaggio avvenga attraverso una specificazione dei parametri. Un paramento è un
aspetto universale del linguaggio che può assumere un determinato valore
all’interno di una limitata serie di alternative. Ad esempio la posizione del verbo è un
parametro che viene specificato in maniera diversa nel caso di ciascuna lingua
specifica.

-L’IPOTESI DEL BIOPOGRAMMA PER IL LINGUAGGIO


Quella di Bickerton è nota come ipotesi del bioprogramma per il linguaggio, ovvero
l’ipotesi secondo cui esisterebbe una specifica facoltà innata negli individui in grado
di contenere un modello del linguaggio il quale si attiverebbe anche in assenza di
input adeguati. Egli, durante le sue ricerche ha distinto le protolingue, come il
pidgin, dalle lingue vere e proprie. Il PIDGIN è una lingua molto poco strutturata e
che veniva utilizzata nelle zone portuali tra inglesi e cinesi in quanto è caratterizzata
da una base grammaticale cinese e da un lessico inglese. Bickerton notò che alcune
frasi di questa lingua erano caratterizzate dalla totale assenza di una sintassi
coerente, e per questo i figli dei parlanti del pidgin erano esposti ad uno stimolo
linguistico impoverito. Ciò nonostante, dopo una sola generazione i bambini erano
in grado di produrre il creolo, ovvero una lingua in cui l’ordine delle parole
all’interno di una frase è strutturato in questo modo soggetto-verbo-oggetto. La
lingua creola dimostra come a partire da una grammatica di base possono
svilupparsi grammatiche più elaborate.
I risultati degli studi condotti su queste due lingue hanno prodotto la distinzione che
Bickerton fa tra componente concettuale e computazionale di una lingua.
La componente concettuale, propria ad esempio della lingua pidgin fornisce solo i
significati di base.
La componente computazionale, invece, organizza questi significati e li trasforma in
frasi. la lingua creola nasce grazie alla collaborazione di queste due componenti. La
stessa distinzione può essere compresa nelle lingue vere e proprie pensando al
linguaggio dei bambini inferiori ai due anni i quali sono in grado di produrre
inizialmente solo enunciati olofrastici, ovvero caratterizzati da un’unica parola che
racchiude più significati. Dopo i 2anni di vita però gli enunciati dei bambini iniziano
197
198

ad avere un’organizzazione sintattica sempre più ricca e accurata grazie


all’instaurarsi della componente computazionale, cosi il bambino è in grado di
utilizzare il linguaggio in maniera molto più efficace per esprimere ciò che ha in
mente. Ovviamente però il linguaggio dei bambini non diventa improvvisamente
grammaticalmente corretto, né articolato come quello adulto, questa fase viene
definita telegrafica. l’ipotesi innatista ha ricevuto varie critiche. Come per esempio il
fatto che non tiene sufficientemente in considerazione gli aspetti funzionali e sociali
del linguaggio. Una teoria del linguaggio dovrebbe rendere conto delle modalità con
le quali il linguaggio è effettivamente usato nella vita quotidiana come strumento
che facilita l’interazione con l’ambiente naturale e sociale che ci circonda.

-COMUNICAZIONE E COMPRENSIONE
Il contesto all’interno del quale gli ascoltatori o i lettori ricevono i messaggi
linguistici è estremamente importante per determinare l’interpretazione attribuita
al messaggio. Colui che parla o scrive deve tenere in considerazione il contesto
proprio di coloro ai quali si rivolge. Un’utile distinzione a questo proposito è quella
tra informazione data e informazione nuova. Coloro che sono coinvolti in una
conversazione sono detti entrare in un contratto dato-nuovo, per mezzo del quale il
parlante conviene di aggiungere nuove informazioni a quelle che l’ascoltatore già
possiede. La comprensione risulterebbe difficile, se non impossibile, se colui che
parla si limitasse ad introdurre nuove informazioni senza metterle in relazione con
ciò che l’ascoltatore già conosce. Ci sono due diversi approcci nel modo in cui una
conversazione viene condotta e compresa (Sperber e Wilson) : il modello del codice
e il modello inferenziale.
Il modello del codice: trae origine dalle teorie dell’elaborazione dell’informazione.
Secondo questo modello, lo stadio iniziale della comunicazione è costituito da un
processo di codifica per mezzo del quale i pensieri del parlante vengono trasformati
nelle opportune parole. Quando vengono pronunciate, queste parole vengono
trasformate in un segnale acustico che, attraverso canali diversi, giunge
all’ascoltatore. Per comprendere i pensieri che il parlante intendeva comunicare
l’ascoltatore deve codificare questo segnale. Sperber e Wilson hanno notato che il
modello del codice assume che il parlante e l’ascoltatore abbiamo una grande
quantità di conoscenze condivise. Se le cose non stessero in questo modo, infatti,
l’ascoltatore non sarebbe in grado di decodificare il segnale nella forma opportuna e
non sarebbe in grado di interpretarlo correttamente. Esempio il caffè mi terrebbe
sveglio-> può significare che bevo il caffè per restare sveglio o che non prendo il

198
199

caffè altrimenti mi fa restare sveglio. L’interpretazione corretta richiede che il


parlante e l’ascoltatore comprendano nello stesso modo la situazione in cui la frase
è stata pronunciata. Secondo S e W, uno dei limiti del modello del codice è costituito
dal fatto che è difficile precisare in che modo gli individui siano in grado di
accumulare un numero di conoscenze condivise sufficiente per garantire una
comunicazione efficace.
Il modello inferenziale di Sperber e Wilson costituisce uno sviluppo del lavoro di
Grice. Grice ha analizzato il processo comunicativo nei termini di intenzioni e
inferenze. Colui che parla intende informare l’ascoltatore, mentre l’ascoltatore
inferisce ciò che il parlante intende. (Ma lei è cresciuto in una capanna?). Secondo
Grice, una persona vuole dire qualcosa quando ha l’intenzione che un enunciato
produca un effetto negli ascoltatori mediante il riconoscimento di questa
intenzione. Per facilitare il processo di comunicazione gli individui coinvolti in una
conversazione tendono ad obbedire al principio di cooperazione-> da questo
seguono 4 regole.
1-> gli interlocutori cercano di non dire più di quanto sia necessario;
2->gli interlocutori cercano di essere veritieri;
3->gli interlocutori cercano di essere pertinenti;
4->gli interlocutori cercano di essere chiari e di evitare le ambiguità.
Quando ascoltiamo qualcuno tendiamo ad assumere che questa persona stia
seguendo queste massime. Sulla base di quest’assunzione noi traiamo inferenze o
implicature.
Secondo S e W la comunicazione a volte segue il modello della codifica e a volte
quello referenziale. Gli individui comunicano secondo modalità che devono essere
comprese come una combinazione di codifica e inferenza.

-Usi figurati del linguaggio


lo studio degli usi figurati del linguaggio, come la metafora e l’ironia, può fare luce
sul modo in cui la comunicazione funziona. Tali usi, a primo impatto, potrebbero
apparire come una strana forma di comunicazione. Tuttavia, di fatto, essi sono
presenti nel discorso ordinario.
L’ IRONIA appartiene ad un insieme di concetti tra i quali troviamo la satira e il
sarcasmo. Un commento satirico mette in ridicolo il suo oggetto. L’ironia e il
199
200

sarcasmo sono gli strumenti per mezzo dei quali il fine della satira può essere
realizzato. L’oxford english dictionary definisce il sarcasmo come un’osservazione
acuta o tagliente, mentre l’Ironia come una figura retorica in cui ciò che si vuole dire
è esattamente l’opposto di ciò che è espresso dalle parole usate. Ironia viene a volte
considerata come una forma di sarcasmo e, all’interno del linguaggio comune, ironia
e sarcasmo vengono considerati molto simili tra loro. Una frase ironica intende
comunicare l’opposto di quello che è il suo significato letterale e può essere capita
in base al contesto e al tono di voce. Molti sostengono che l’ironia comporti l’uso
della simulazione: il parlante finge soltanto di dire quello che dice.
Caratteristiche dell’ironia:
la prima caratteristica è l’ASIMMETRIA DELL’AFFETTO. In questo caso colui che fa
dell’ironia solitamente si esprime positivamente nei confronti di qualcosa che invece
viene valutata negativamente. (quando un calcio di rigore viene parato- che tiro
magnifico) Alcuni hanno collegato la simmetria dell’affetto al fenomeno Pollyanna.
Un Pollyanna è colui che vede sempre il lato positivo delle cose. Coloro che credono
di saperla lunga considerano queste persone ingenue e ignare di come è fatto il
mondo. Chi fa dell’ironia finge di essere ingenuo in questo senso e di parlare ad un
altro ingenuo. L’Ironia ha le sue vittime. Quando gli individui si esprimono in
maniera ironica, fingono allo stesso tempo, di essere delle persone ignoranti e di
rivolgersi ad altre persone ignoranti. Queste possono essere delle vittime
immaginarie. C’è sempre una vittima, reale o immaginaria, che interpreta in senso
letterale l’enunciato ironico.
Un’altra caratteristica è data dal TONO DI VOCE-> questa particolare caratteristica è
difficile da esprimere con chiarezza.-“che film straordinario”- questo enunciato
detto in un tono particolare ha il senso opposto del significato letterale.
Alcuni studiosi hanno descritto La teoria standard dell’ironia-> L’ascoltatore
inizialmente interpreta l’enunciato ironico in maniera letterale per rendersi conto, in
seguito, che il parlante non può aver voluto dire quello che viene espresso dal
significato letterale delle sue parole. A questo punto l’ascoltatore giunge alla
conclusione che, in realtà, il parlante aveva in mente l’opposto di quello che
effettivamente detto.
Il principio di cooperazione enunciato da Grice, ci aiuta a comprendere in che modo
l’ascoltatore giunge a questa conclusione. In base a questo principio l’ascoltatore si
aspetta che quello che viene detto sia veritiero e pertinente. Nel caso di un
enunciato ironico, l’ascoltatore si rende conto che questo enunciato non può essere

200
201

veritiero e pertinente se viene interpretato in senso letterale. L’ascoltatore deve


quindi inferire che il parlante voleva dire esattamente il contrario di quello che ha
detto. Un problema di questa teoria è costituito dal fatto che gli enunciati ironici
vengono decodificati in maniera altrettanto rapida di enunciati letterali.
Una spiegazione alternativa è quella della teoria del promemoria ecoico. Secondo
questa teoria gli ascoltatori comprendono gli enunciati e riconoscendone il carattere
ecoico, ovvero riconoscendo il fatto che l’enunciato in questione allude a pensieri,
opinioni, parole o comportamenti di una persona diversa da colui che parla. L’uso
del promemoria ecoico è molto comune nella conversazione di tutti i giorni e
costituisce un importante strumento di comunicazione.
A sostegno della teoria del promemoria ecoico sono stati fatti vari esperimenti.
Se l’ironia descrive l’opposto di quello che è effettivamente accaduto il racconto si
dice controfattuale. Gli Individui tendono a sospettare un’intenzione ironica ogni
qualvolta viene espresso in un enunciato ovviamente falso. Concludendo, l’ironia
costituisce un enunciato complesso che illustra diversi aspetti dell’uso della lingua
scritta e parlata. Una delle lezioni che si possono trarre dalle ricerche dedicate agli
ironici è che il significato di un enunciato dipende in larga misura dal contesto nel
quale viene prodotto. Nelle circostanze appropriate il vero significato di una frase
può essere esattamente l’opposto di quello che è il suo significato letterale. Per
comprendere il funzionamento del linguaggio è necessario studiarlo in quei contesti
complessi nei quali esso viene comunemente prodotto.

Interruzioni del flusso linguistico


Molti dei nostri discorsi sono punteggiati da pause. Queste pause di esitazione sono
state estesamente studiate. Hanno studiato le pause di esitazione fatte dai
professori universitari durante le lezioni, queste vengono chiamate interruzione del
flusso linguistico. I dati mostrano che i professori di discipline umanistiche e scienze
umane interrompono i loro discorsi più dei professori di discipline scientifiche.
Questa differenza è stata interpretata nei termini di una differenza di vocabolario
tra le scienze e le lettere. Ci sono meno sinonimi per i termini scientifici che non per
i concetti delle discipline umanistiche e delle scienze sociali. Questa differenza di
vocabolario significa che i professori di materie umanistiche devono scegliere tra
molti più mondi possibili che non i professori di materie scientifiche. le pause di
esitazione rappresentano punti in cui i professori scelgono tra le varie possibilità
offerte dalle loro rispettive discipline. Questo tipo di differenze non sono limitate

201
202

alle lezioni universitarie, ma possono essere rilevate anche in discorsi di altro


genere. A seconda dell’argomento, la medesima persona potrebbe interrompere
spesso di rado il flusso del discorso.

VYGOTSKIJ (Vigosky) E IL CONTESTO SOCIALE DEL LINGUAGGIO


Gli studi di V. si concentrati alle interazioni che sussistono tra pensiero e linguaggio.
Inizialmente pensò che il funzionamento del pensiero fosse indipendente da quello
del linguaggio in quanto noi individui siamo in grado di pensare senza parlare e,
sicuramente, siamo anche i grado di parlare senza pensare. V. però si accorsi di
come i bambini dai due anni in poi iniziavano a pensare ciò che dicevano, cosicchè
pensiero e linguaggio iniziavano ad influenzarsi a vicenda. La critica di V. nei
confronti di Piaget riguarda il linguaggio egocentrico di quest’ultimo. Piaget ha
osservato che il linguaggio dei bambini più piccoli spesso non considera il punto di
vista dell’ascoltatore. Questo tipo di linguaggio decade quando il bambino inizia ad
intrattenere rapporti sociali, sviluppando a questo punto il linguaggio sociale.
Il linguaggio egocentrico è definito come linguaggio per sé stessi, mentre linguaggio
sociale come un linguaggio per gli altri.
V. ha sostenuto che il linguaggio egocentrico non scompare ma si trasforma con il
tempo in linguaggio interno. Infatti si verifica molto spesso che gli adulti parlino a se
stessi, anche se è preferibile non farlo ad alta voce.
il linguaggio interno gioca ruolo importante nella regolazione del pensiero. È tacito e
funge da mezzo per i pensieri ma la funzione più importante di questa forma di
linguaggio tacito è caratterizzata dalla possibilità di PIANIFICARE le operazioni
cognitive tanto che V. lo ha paragonato ad uno schizzo mentale, che consente di
pianificare e di organizzare i pensieri.

LA ZONA DI SVILUPPO PROSSIMALE


questa nozione è stata definita da Vygotskij come la distanza tra il livello di sviluppo
attuale il livello di sviluppo potenziale. Il concetto di zona di sviluppo prossimale ci
costringe a prendere in considerazione gli aspetti sociali dello sviluppo. Ciò che si
trova oggi nella zona di sviluppo prossimale sarà il livello di sviluppo attuale di
domani, il che significa che domani un bambino sarà in grado di fare da solo ciò che
oggi è in grado di fare soltanto assistito. C’è una stretta relazione tra la zona di
sviluppo prossimale lo sviluppo del linguaggio interno. Quando un bambino esamina
202
203

un compito difficile sotto la guida di un’altra persona, questa offre indicazioni


strategiche verbali. Il bambino incorpora le parole di questi dialoghi nel proprio
linguaggio interno e ne fa uso per guidare la propria attività autonoma. Benché la
nozione di zona di sviluppo prossimale possa essere utilizzata per analizzare
qualsiasi forma di apprendimento, secondo Bruner, il processo di acquisizione del
linguaggio è un processo che necessita di una guida. Una guida è qualcuno che
conosce ciò che il bambino non conosce e che può aiutarlo a mettere in relazione
queste nuove conoscenze con quelle già possedute dal bambino. Ad esempio, la
madre può agire come guida. La comunicazione tra la guida e il bambino ha luogo
entro la zona di sviluppo prossimale: non così complessa da creare confusione e
incomprensione, ma neppure così semplice da rendere l’apprendimento non
necessario. Notate che questo approccio differisce dall’approccio secondo il quale
l’acquisizione del linguaggio è controllata da un meccanismo specifico. Bruner ha
sostenuto che qualsiasi meccanismo di acquisizione del linguaggio deve essere
integrato da un sistema di supporto per l’acquisizione del linguaggio. Il LASS aiuta il
bambino a muoversi attraverso la zona di sviluppo prossimale per giungere ad un
completo è consapevole controllo dell’uso della lingua.

GESTI E LINGUAGGIO INTERNO


L’atto linguistico è spesso accompagnato da segnali non verbali. Ci sono gesti iconici
e gesti metaforici.
Gesti iconici-> esprime un significato simile a quello espresso verbalmente: un
individuo che descrive verbalmente l’atto per mezzo del quale è possibile piegare
qualcosa all’indietro.
Gesti metaforici-> hanno una relazione di indiretta nei confronti di quello che viene
espresso verbalmente. Spesso costituiscono l’illustrazione concreta di un concetto
astratto. Come ad esempio l’idea di soppesare le alternative.
I gesti e il linguaggio si accompagnano reciprocamente fin dai primi stadi del
processo di acquisizione del linguaggio. I gesti costituiscono l’espressione diretta dei
processi di pensiero che precedono il linguaggio esterno. Prima di generare una
frase un individuo costruisce per mezzo del linguaggio interno una rappresentazione
di quello che deve essere espresso. il Linguaggio interno è un mezzo molto ricco e
spesso è accompagnato da immagini. I gesti sono la manifestazione esteriore delle
immagini che accompagnano il linguaggio interno, mentre il linguaggio esterno è
un’articolazione del linguaggio interno.

203
204

COMPETENZA TESTUALE
consapevolezza metalinguistica-> la capacità di fare riferimento al linguaggio
indipendentemente da ciò che esso descrive. A volte la consapevolezza
metalinguistica viene descritta come la capacità di rendere opaco linguaggio.
Quando qualcosa è opaco, non è possibile vedere attraverso di esso. Solitamente il
linguaggio che ascoltiamo o leggiamo è trasparente: noi non focalizziamo la nostra
attenzione sulle parole in sé, ma piuttosto vediamo attraverso le parole il significato
a cui queste alludono. Rendere opaco il linguaggio significa soffermare lo sguardo
sul linguaggio senza vedere ciò che le parole descrivono. Solo se prendiamo in
considerazione il linguaggio in sé possiamo dire qualcosa a proposito del linguaggio.
Quando il linguaggio viene usato per parlare di linguaggio, ne facciamo di esso un
uso metalinguistico. La competenza testuale ci consente di partecipare a certe
forme del discorso, che uno sappia scrivere o no. La competenza testuale ci
consente di parlare dell’atto linguistico, delle domande, delle risposte e, in una
parola, corrisponde alla capacità di usare un metalinguaggio. Il messaggio linguistico
rende possibile la distinzione tra il testo orale scritto e le interpretazioni che
vengono date di questo testo. Le interpretazioni di un testo vengono percepite
come soggettive. Queste interpretazioni, cioè, vengono considerate come risultato
di processi mentali e non come qualcosa che è oggettivamente fornito dal testo. Ci
sono alcuni termini che vengono usati per descrivere i processi mentali coinvolti
nell’interpretazione dei testi. Questi termini includono parole come interpretare e
inferire. Questi termini fanno parte del linguaggio della competenza testuale: essi
vengono usati per fare riferimento a testi. Così, l’acquisizione della competenza
testuale produce una trasformazione del linguaggio usato.

IMPLICAZIONI DELLA NOZIONE DI COMPETENZA TESTUALE


-Le conseguenze dell’esposizione ai testi scritti. Il grado di esposizione a testi scritti
varia molto da persona a persona. È possibile che tale variazione sia correlata con
importanti abilità cognitive come quelle relative al vocabolario e alla fluidità verbale.
alcuni studiosi suggeriscono che l’esposizione a testi scritti dia alle abilità cognitive
un contributo indipendente che si aggiunge all’intelligenza generale.

-Differenze culturali nella definizione della competenza testuale

204
205

Heath ha messo in evidenza il fatto che gli individui di colore abbiano una tradizione
orale molto ricca, un fatto questo al quale la cultura bianca non dall’importanza. La
cultura bianca tende piuttosto a considerare l’individuo di colore come individui
svantaggiati, privati di qualcosa. Uno degli svantaggi che vengono spesso attribuiti
agli individui di colore riguarda la competenza testuale. Però secondo Heath, questa
opinione non è altro che l’espressione dei pregiudizi della maggioranza bianca nei
confronti della cultura nera. Se alla nozione di competenza testuale viene data una
definizione sufficientemente ampia, infatti, ci si può rendere conto del fatto che
all’interno della cultura nera sono presenti forme molto elaborate di competenza
testuale. lo sviluppo delle competenze testuali ha
avuto luogo in modo particolare nel sud degli Stati Uniti dal momento che il clima di
quei luoghi favorisce la vita pubblica nei luoghi aperti e, quindi, quel tipo di
interazione sociale che costituisce un prerequisito per lo sviluppo delle capacità
linguistiche. In un contesto di questo tipo gli individui sono in grado di commentare
spontaneamente e reciprocamente i discorsi degli altri e questa attività favorisce lo
sviluppo delle facoltà metalinguistiche.

-Lingua e cultura
-RELATIVITÀ LINGUISTICA
Il modo in cui una situazione viene percepita dipende da come quella situazione
viene descritta. Le parole che vengono usate per descrivere gli oggetti influenzano il
comportamento degli individui nei confronti di quei medesimi oggetti. Whorf, mette
in evidenza la relazione che c’è tra le parole e la percezione. Noi vediamo,
ascoltiamo e abbiamo delle esperienze nel modo che ci è peculiare perché latitudine
linguistiche della comunità a cui apparteniamo ci predispongono a determinate
scelte interpretative. W. credeva che le differenti categorie grammaticali, come il
plurale, il genere e altre classificazioni di questo tipo possedute da lingue diverse,
contribuisce a creare specifici sistemi categoriali i quali, a loro volta, facevano in
modo che i parlanti di lingue diverse organizzassero le loro esperienze in modo
diverso. Quindi la relatività linguistica afferma che se due lingue sono molto diverse
fra loro, allora anche l’esperienza del mondo di coloro che parlano queste lingue
sarà diversa. Cioè coloro che si servono di sistemi grammaticali molto diversi fra loro
non possono essere considerati come servato di equivalenti ma, invece, devono
essere considerati come individui dotati di una diversa prospettiva sul mond

205
206

206

Potrebbero piacerti anche