Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Psicologia Cognitiva
Università degli Studi di Salerno (UNISA)
96 pag.
Il metodo sperimentale:
Gli scopi della ricerca scientifica: La ricerca scientifica ha due scopi:
- la scoperta di regolarità: nel caso della psicologia, comprende la descrizione del comportamento e la
scoperta di relazioni regolari tra i vari aspetti del comportamento. In questo caso, le regolarità formano le
leggi del comportamento;
- lo sviluppo delle teorie: una teoria è un insieme di asserzioni che collega tra loro varie leggi. Le teorie
servono proprio a organizzare le conoscenze in modo sistematico e a spiegare le leggi. Le teorie guidano la
ricerca scientifica: un ricercatore fa dapprima un’ipotesi, poi un esperimento in base al quale giunge a una
teoria, e infine formula la legge.
Gli studi sperimentali: Cos’è un esperimento? È lo studio della relazione tra due (o più) variabili, cioè tra
due entità che variano. Gli studi sperimentali avvengono dunque attraverso degli esperimenti. La variabile
non è altro che una proprietà di un evento reale che può essere misurata. La misurazione è quindi un
sistema per assegnare un valore numerico alle variabili.
In psicologia esistono due tipi di variabili: variabile dipendente e variabile indipendente. Esempio:
decidiamo di sottoporre a 50 femmine e 50 maschi una serie di problemi matematici in 10 minuti. I soggetti
sono chiamati “soggetti sperimentali”, la percentuale di problemi matematici risolti (ovvero, l’accuratezza)
è la v. dipendente, perché dipende dal valore di un’altra variabile, controllata dal ricercatore, denominata
v. indipendente. In sintesi la v.indipendente ( soggetto che agisce) influenza la v.dipendente. In una ricerca
scientifica non bisogna fare solo la media dei risultati tra i gruppi, ma anche constatare le differenze (e le
variabili) tra le persone individuali dei gruppi. Per decidere se due gruppi sono differenti è fondamentale
considerare la variabilità.
Distinguere due suoni (o due voci) sarà più facile se sono differenti tra loro, ma la nostra capacità di farlo
dipende dalla quantità di rumore di fondo. Se il rumore è forte anche le differenze più grandi saranno
indistinguibili. Otterremo quindi un valore che viene chiamato rapporto critico (differenze tra le
caratteristiche dei soggetti fratto risultato ottenuto).
Oltre gli studi sperimentali, esistono quelli correlazionali, così chiamati perché hanno lo scopo di scoprire se
esistono delle relazioni tra due o più variabili (due variabili sono correlate quando hanno una relazione tra
loro).
Comportamentismo:
Skinner = comportamentismo una sorta di versione del ventesimo secolo dell’associazionismo. L’approccio
comportamentista può essere esemplificato facendo riferimento al modo in cui Skinner concepiva l’attività
di pensiero. L’attività di pensiero è costituita da una serie di comportamenti su scala ridotta che hanno
luogo nel nostro corpo, anche se essi non possono essere facilmente reperiti. Ciò nondimeno, l’attività di
pensiero costituisce una forma di comportamento controllato dall’ambiente, come qualsiasi altra forma di
comportamento.
Anche Skinner vedeva la caratterizzazione dell’attività del pensiero in termini di STIMOLO e RISPOSTA (S-R).
Teoria della catena associativa: A volte la ripetizione assidua di cose, fa sì che la riposta R1 diventi lo
stimolo per la risposta seguente R2 e così via. Questa teoria della catena associativa può essere
rappresentata nella seguente forma:
Lashley ha messo in luce il fatto che ci sono alcuni fenomeni che non posso essere spiegati dalla teoria della
catena associativa, come ad esempio la pre-attivazione (il priming) di una risposta.
Critica rivolta a Skinner da Chomsky: Chomsky sosteneva che i principi di S-R non consentissero di spiegare
un gran numero di fenomeni linguistici, come ad esempio l’uso creativo del linguaggio. Secondo Chomsky il
linguaggio dovrebbe essere considerato come un fenomeno controllato da un insieme di processi mentali
piuttosto che come un processo periferico che tratta le parole come stimoli e risposte.
L’obiettivo della teoria è dunque di spiegare perché il campo percettivo non è caotico ma è organizzato
secondo unità percettive in funzioni delle leggi dell’unificazione della percezione:
- vicinanza
- somiglianza
- destino comune
- buona direzione
- continuità
- chiusura
L’idea che sia possibile descrivere il processo di apprendimento nei termini della formazione di semplici
associazioni, o connessioni, tra gli eventi era del tutto inaccettabile per gli psicologi della Gestalt. Loro
credevano che la mera contiguità non fosse sufficiente affinché l’apprendimento potesse avere luogo. Se un
elemento è semplicemente accoppiato con un altro, è poco probabile che gli individui possano apprendere
che vi è un legame tra i due.
UNITÀ MOLARI
^
STRATEGIE
&
TATTICHE
v
UNITÀ MOLECOLARI
I processi che regolano il comportamento “dall’alto” sono chiamati piani. Un piano consiste in una serie di
istruzioni per l’esecuzione di un’azione. Il comportamento non può essere compreso senza che vengano
compresi i piani che lo regolano. Gli individui posseggono piani per tutte le loro attività. Tutto ciò che gli
individui sanno come fare è nella forma di un piano. Un piano assomiglia al programma di un calcolatore
(Test di Turing).
Qual è la struttura dei piani? Miller, Galanter e Pribram hanno proposto a questo proposito un’unità di
monitoraggio chiamata TOTE (Test-Operate-Test-Exit): l’individuo verifica se un’incongruità esiste (test); se
questo accade, allora un’azione viene intrapresa per eliminare l’incongruità (operate); a questo punto, la
fase di controllo viene ripetuta (test); se l’incongruità è stata eliminata, l’individuo conclude il programma
(exit).
TEST DI TURING: Il test di Turing è un criterio per determinare se una macchina sia in grado di pensare.
Turing prende spunto da un gioco, chiamato "gioco dell'imitazione", a tre partecipanti: un uomo A, una
donna B, e una terza persona C. Quest'ultima è tenuta separata dagli altri due e tramite una serie di
domande deve stabilire qual è l'uomo e quale la donna. Dal canto loro anche A e B hanno dei compiti: A
deve ingannare C e portarlo a fare un'identificazione errata, mentre B deve aiutarlo. Affinché C non possa
disporre di alcun indizio (come l'analisi della grafia o della voce), le risposte alle domande di C devono
essere dattiloscritte o similarmente trasmesse.
Il test di Turing si basa sul presupposto che una macchina si sostituisca ad A. Se la percentuale di volte in cui
C indovina chi sia l'uomo e chi la donna è simile prima e dopo la sostituzione di A con la macchina, allora la
macchina stessa dovrebbe essere considerata intelligente, dal momento che - in questa situazione -
sarebbe indistinguibile da un essere umano.
Per macchina intelligente Turing ne intende una in grado di pensare, ossia capace di concatenare idee e di
esprimerle. Per Turing, quindi, tutto si limita alla produzione di espressioni non prive di significato.
L’approccio di Neisser allo studio dei processi cognitivi si propone di seguire il corso dell’elaborazione
umana dell’informazione a partire dalla presentazione iniziale dello stimolo. Nel caso della cognizione
visiva, lo studio dell’elaborazione dell’informazione inizia con l’icona (1).
Lo stimolo immagazzinato in un’icona diventa poi un’immagine visiva che permane nella mente del fruitore.
Neisser notò che questo procedimento, chiamato riconoscimento di pattern (2), implica una relazione tra
percezione e memoria. Funzione di Høffding = processo nel quale una percezione entra in contatto con una
traccia di memoria.
Dopo il riconoscimento di pattern, si passa al confronto tra sagome (3.1). È possibile che, all’interno della
memoria, siano immagazzinate le sagome corrispondenti alle forme tipiche delle configurazioni che
vediamo. Il riconoscimento dovuto al confronto fra sagome è basato sul confronto fra il pattern da
riconoscere e la sagoma prototipica immagazzinata in memoria.
Un’alternativa all’ipotesi del confronto fra sagome è costituita dalla possibilità che le configurazioni siano
identificate in base alle loro caratteristiche. Si dovrebbe quindi attuare una analisi delle caratteristiche
(3.2). Una delle teorie più influenti a fare uso dell’approccio della analisi delle caratteristiche per il
riconoscimento è stata la teoria proposta da Selfridge, ovvero il modello del PANDEMONIUM IDEALIZZATO.
Questo modello è costituito da tre livelli. Il livello inferiore contiene i dati, ovvero l’immagine all’interno
della quale un insieme di attributi viene rappresentato. Il livello successivo contiene i demoni cognitivi,
concepiti come piccoli folletti che esaminano gli attributi dell’immagine. Ciascun demone cognitivo rileva
uno specifico pattern. Se un demone cognitivo pensa di aver rilevato il pattern appropriato, allora
incomincia a strillare. Tutti i demoni possono strillare contemporaneamente, con intensità diversa, a
seconda della somiglianza tra il pattern che stanno cercando e il pattern presente nell’immagine. Per
questo motivo il modello è chiamato pandemonium. In cima a tutti questi demoni vi è il demone della
decisione che ascolta il pandemonio e seleziona il demone che strilla più forte. Questa scelta corrisponde al
pattern che viene riconosciuto.
Tuttavia, le percezioni non sono sempre immediate e a volte richiedono mediazioni concettuali.
La posizione di GIBSON è stata tacciata di REALISMO INGENUO secondo il quale la realtà fisica e
percettiva/fenomenica coincidono ma questo non è vero perché esistono assenza del soggetto fenomenico
oppure di quello fisico
- uno stimolo può essere presente fisicamente ma non comparire a livello percettivo, si tratta di
assenza dell’oggetto fenomenico. Esempio: figure nascoste o mascherate
- uno stimolo può operare sul piano fenomenico ma può non esistere nella realtà fisica, assenza
dell’oggetto fisico. Esempio: figure anomale, contorni illusori
Quindi la percezione è contemporaneamente un processo dal basso vero l’alto guidato dagli stimoli ma
anche da conoscenze ed esperienze precedenti e viene influenzata da questi
Codificazione e organizzazione:
L’informazione è un tipico concetto relazionale, essa è una proprietà che dipende dall’osservatore che la
utilizza. Contiamo due tipi di osservatore:
Non sempre però ciò che c’è si vede, infatti nel caso della connessione sappiamo che essa non è sempre
percepita, ma dipende dalle condizioni in cui si trova l’oggetto. Molte volte per identificare una
connessione c’è bisogno di un’analisi attenta, che solitamente non è presente quando guardiamo
normalmente ciò che ci è attorno. Molti studi scientifici sulla percezione si basano proprio sulla
contrapposizione tra quello che c’è nell’immagine e quello che viene percepito.
L’asimmetria della ricerca visiva indica che la percezione è organizzata e che possiede una struttura
gerarchica. Al fine della rilevazione dell’informazione ottica, abbiamo vari elementi importanti:
- contesto = non ci è sempre facile identificare un elemento deviante in un contesto. Il riconoscimento sarà
più facile se avremo un tipo di contesto normale, ma se avremo un elemento normale in un contesto
irregolare l’identificazione sarà più difficile. Avremo infatti una ricerca visiva asimmetrica, ovvero differente
in un contesto normale ed in un contesto irregolare. Inoltre sappiamo che in un contesto normale il tempo
in cui viene identificato l’elemento deviante sarà costante e non sarà influenzato dagli elementi distraenti,
ovvero dagli elementi circostanti. In un contesto irregolare invece, gli elementi distraenti influiscono sulla
tempistica in cui viene identificato l’elemento deviante.
- orientamento = nel caso dell’orientamento, la percezione si sofferma molto su assi verticali ed orizzontali,
infatti ogni deviazione è interpretata come un’anomalia che fa scaturire la voglia di raddrizzarla.
La percezione di un oggetto dipende anche dall’orientamento che esso ha, infatti vi sono due tipi di mondi:
-mondo fisico in cui gli oggetti non cambiano al variare del loro orientamento;
-mondo fenomenico in cui gli oggetti appaiono mutati al variare del loro orientamento.
Questi tre elementi formano la catena psicofisica che lega l’osservatore con il mondo esterno. Se
prendiamo in considerazione un oggetto visto da uno specifico punto di osservazione, abbiamo
un’immagine determinata, mentre non è possibile ricostruire lo stato di cose che hanno determinato
un’immagine. L’informazione ottica è indeterminata, infatti la nostra percezione ottica è limitata. Dal
prodotto di due fattori scaturisce un unico risultato [6 x 4 = 24], ma dal risultato specifico possono scaturire
diversi fattori [24 =? x?]. Allo stesso modo, sappiamo che attraverso il prodotto di un oggetto fisico e di un
precetto scaturisce un’immagine, ma dall’immagine possono scaturire diverse combinazioni di oggetti fisici
e precetti. A tal proposito l’informazione ottica è indeterminata. Ma la nostra percezione ottica è anche
limitata poiché, ad esempio, nel caso della grandezza, se guardiamo da uno spioncino non possiamo
definire se ciò che vediamo è reale o fittizio.
L’idea che sia possibile descrivere il processo di apprendimento nei termini della formazione di semplici
associazioni, o connessioni, tra gli eventi era del tutto inaccettabile per gli psicologi della Gestalt. Loro
credevano che la mera contiguità non fosse sufficiente affinché l’apprendimento potesse avere luogo. Se un
elemento è semplicemente accoppiato con un altro, è poco probabile che gli individui possano apprendere
che vi è un legame tra i due.
Articolazione figura/sfondo:
Solitamente gli spazi vuoti non vengono mai notati, tranne quando ci si concentra su di essi e gli si
appropria una figura.
Vi è un inversione tra sfondo e figura quando, ad esempio, il cielo, che è uno sfondo, viene modellato dalle
colline e diviene figura.
Vi è un inclusione di sfondo e figura, invece, quando abbiamo una regione inclusa che diviene figura e una
regione includente che diviene sfondo e viceversa.
La percezione di un individuo, dunque, dipende dall’ambito locale dell’oggetto. Egli crederà che si tratta di
una freccia bianca su sfondo nero o di una freccia nera su sfondo bianco a seconda della freccia su cui si
soffermerà. Perciò le regole dell’organizzazione visiva hanno un carattere locale.
Il contorno in una figura/sfondo, ovvero in un’immagine inclusiva, ha una funzione unilaterale, poiché
delinea solo la figura e ne definisce la forma, mentre senza di esso lo sfondo sarebbe informe. La funzione
unilaterale del bordo viene definita come principio di minimo.
Se abbiamo la stessa ampiezza del nero o del bianco, le due soluzioni, nero su bianco o bianco su nero,
sono egualmente probabili, poiché il nero è circondato dal bianco in egual misura di come il bianco è
circondato dal nero. Quando invece abbiamo un’ampiezza maggiore di un colore tendiamo a definire
questo come sfondo e gli altri colori come figura. Quindi le regioni con area minore sono viste come figure.
L’unificazione percettiva è necessaria per formare i precetti, i quali scaturiscono dal raggruppamento di
diversi elementi o parti dell’immagine. La percezione delle costellazioni, ad esempio, avviene tramite la
prossimità, infatti gli individui sono soliti collegare le stelle, punti nel cielo, che sono più vicine.
Gli individui, inoltre, tendono a rappresentare un’immagine semplice, infatti, attraverso il principio di
minimo, sappiamo che avviene un risparmio sui costi di rappresentazione degli oggetti.
Inoltre gli individui tendono anche a creare un’articolazione senza resti, ovvero ad accoppiare o a creare
un’immagine in cui non vi siano elementi isolati dagli altri.
L’unificazione percettiva può avvenire anche attraverso il fattore di buona continuazione, ovvero quando
vengono minimizzati i cambiamenti di direzione e, quindi, viene preferita l’organizzazione che comporta
meno mutamenti. Ad esempio il segmento ac è percepito come una curva continua, mentre il segmento b
come una linea che parte dal centro della curva ac. La percezione inversa sarebbe insolita.
Dunque, infine, i fattori di unificazione tendono a rendere la percezione il più semplice possibile. Secondo la
teoria della Gestalt il principio di minimo, ovvero la tendenza verso la rappresentazione più semplice, è una
proprietà intrinseca del sistema visivo e non dipende dalle esperienze dell’osservatore.
Helmholtz, invece, sosteneva che la percezione sia il frutto di giudizi inconsci e che l’osservatore abbia
determinate percezioni solo dopo aver valutato se sia possibile o meno che una determinata immagine sia
effettivamente presente nel mondo esterno.
Gibson, infine, sosteneva che le situazioni semplificate non possono essere reali, poiché nel mondo esterno
vi sono diverse informazioni. Infatti l’individuo non può far altro che cercare di sfruttare al meglio il proprio
sistema visivo per estrarre più informazioni possibili dalle immagini disponibili.
Attraverso la rilevazione dei movimenti oculari è possibile dimostrare che il nostro sistema percettivo visivo
è molto duttile e da segno di fermarsi anche su corrispondenza di passaggi semanticamente e
sintatticamente più complessi, attraverso le ricorsioni o fissazioni, dove si trovano nelle preposizioni molto
lunghe e complesse
Hirst e Kalmar hanno studiato le strategie per mezzo delle quali l’attenzione viene distribuita a diverse
attività mentali. Nel paradigma sperimentale usato vi erano due compiti differenti, che chiameremo Tipo I e
Tipo II. Alcuni soggetti dovevano eseguire simultaneamente un compito di Tipo I e un compito di Tipo II.
Altri soggetti dovevano eseguire simultaneamente due compiti di Tipo I, o due compiti di Tipo II. Quando i
Errori di attenzione:
Talvolta può accadere che si pianifichi una sequenza di azioni che però non viene poi eseguita nel modo che
si intendeva (es: se si è abituati a prendere il pullman o la propria auto per tornare a casa, può capitare di
prendere l’autobus e lasciare la macchina lì oppure andare al parcheggio ma non trovarla). Norman e
Reason hanno studiato gli errori di questo tipo. Di seguito, i tipi di errori:
Errori dovuti alla formulazione erronea delle intenzioni, si suddividono in due classi:
- errori di modalità = quando eseguiamo un’azione che sarebbe opportuna in una situazione (o modalità)
diversa da quella in cui l’azione viene effettivamente eseguita; esempio: quanto tentiamo di toglierci gli
occhiali anche se non li indossiamo.
- errori di descrizione = quando non abbiamo una comprensione adeguata della situazione in cui ci
troviamo; esempio: quando si versa il caffè in un bicchiere e non nella tazzina nella quali lo si voleva versare
e che è di fianco al bicchiere;
Spesso gli individui si rendono conto di avere compiuto n errore. Per rendersi conto di avere fatto un
errore, però, essi devono prestare attenzione a quello che stanno facendo al giusto livello.
Effetto Simon:
- Risponde alla domanda su in che modo il sistema attentivo riesce a distinguere in modo selettivo
l’informazione rilevante da quella irrilevante e su quale sia il destino dell’informazione irrilevante
- L’informazione irrilevante arriva e sopravvive fino al momento della risposta, i tempi di risposta sono
più rapidi quando la posizione dello stimolo e la posizione della risposta (il pulsante) coincidono
- In conclusione, una caratteristica non rilevante dello stimolo (ovvero la posizione dello stimolo nello
spazio) genere effetto sul processo di attenzione e sui tempi e rapidità di risposta (dove la risposta
può essere anche sbagliata in molti casi)
Effetto Stroop:
Serie di nomi di colori, ma ciascuna parola indica un colore diverso da quello dell’inchiostra con cui la parola
è stampata (ad esempio, “rosso” scritto in inchiostro blu). Vedremo che per denominare il colore delle
parole impiegheremo più tempo che non per leggere i nomi di colore. Prende il nome da Stroop.
L’idea geniale di Stroop è stata dunque quella di presentare stimoli che hanno al proprio interno una
contraddizione. Quindi anche in questo caso abbiamo in contrasto due informazioni, una rilevante per il
compito richiesto dallo sperimentatore, ovvero di dover guardare il colore dello stimolo e non il significato
Effetto Navon:
Vengono presentati degli stimoli in cui c’è un’informazione globale e locale, nel primo stimolo se
consideriamo la configurazione come unica corrisponde alla lettera H maiuscola ma a livello locale vediamo
un H globale formata da tante S, ci sono due informazioni che contrastano tra di loro. Se lo sperimentatore
chiede di denominare la lettera a livello globale dovreste dire H, se chiede di denominare le lettere a forma
più locale dire S, quindi una è rilevante e l’altra è irrilevante. Anche qui vengono presentati due tipi di
stimoli, uno congruente e l’altro incongruente:
- Stimolo congruente: H globale formata da tante H locali
- Stimolo incongruente: H globale formata da tante S locali
Questo effetto è stato usato sia scegliendo l’informa locale o globale come target ma più spesso è stata
richiesta l’informazione globale e nella variante più adoperata dell’effetto Navon bisogna denominare la
lettera globale che risulta dalla combinazione delle lettere piccole.
Cosa succede? Anche qui possiamo avere combinazioni incongruenti o meno, succede che i TR sono più
rapidi per distinguere quelle congruenti da quelle incongruente anche se i soggetti hanno in mente qual è
l’informazione rilevante e irrilevante.
Conclusione: la presenza di un’informazione incongruente a livello globale interferisce con un’informazione
locale alla quale bisogna prestare attenzione. (l’effetto vale soprattutto quando bisogna denominare le
lettere più piccole a livello locale)
Selezione dell’informazione è appunto tardiva. Questi tre effetti dimostrano che l’attenzione elabora lo
stimolo in maniera completa per quanti sforzi facciamo per non rilevare date informazioni irrilevanti che
vengono comunque rilevate, quindi l’attenzione tratta tutte le caratteristiche dello stimolo e anche quelle
che apparentemente cadono fuori dal fuoco dell’attenzione e che sembrano irrilevanti ma vengono
comunque elaborate del sistema attentivo. La risposta a quando opera il filtro dell’attenzione selettiva è
che il filtro interviene piuttosto tardi ovvero al momento della risposta da fornire e quindi la selezione
tardiva può essere vista, alla luce dei dati sperimentali, come l’ipotesi più verosimile rispetto alla selezione
precoce.
- percezione subliminale = si riferisce a quella classe di fenomeni in cui uno stimolo è in grado di influenzare
il comportamento anche se è stato presentato troppo velocemente, oppure ad un livello d’intensità troppo
basso, perché il soggetto sia in grado di identificarlo. La percezione subliminale ha, potenzialmente, un
grande valore commerciale;
- figura e sfondo = gli individui solitamente articolano la loro esperienza in una parte a cui prestano
attenzione (figura) e in una parte a cui non prestano attenzione (sfondo). È possibile però cambiare la
direzione dell’attenzione in maniera tale che ciò che un momento fa costituiva la figura diventi ora sfondo e
viceversa;
- mascheramento retroattivo = consiste nella presentazione di uno stimolo (target) e nel mascheramento di
questo ultimo per mezzo di un altro stimolo, rendendone difficile, se non impossibile, l’identificazione;
- priming = utile nell’ottenere prove indirette di una analisi inconscia dell’informazione. Il priming è un
fenomeno di facilitazione prodotto da uno stimolo (prime) su uno stimolo successivo (target). Ad esempio,
dovendo decidere se una parola indica un elemento della categoria “animali” le persone ci mettono meno
tempo e commettono meno errori se poco prima è stata presentata un’altra parola appartenente alla
stecca categoria, ance se irrilevante per il compito. (Es: le persone ci mettono meno tempo a decidere che
la parola target “cane” appartiene alla categoria “animali” se il prime è la parola “cavallo” e non, poniamo,
la parola “cavolo”).
Esiste anche un tipo di priming chiamato priming subliminale. Questo termine si riferisce al fatto che alcuni
stimoli usati in qualche tipo di esperimenti non raggiungono la soglia della coscienza.
Attenzione spaziale:
Lo spostamento dell’attenzione fu studiato attraverso il paradigma del suggerimento spaziale, anche detto
PARADIGMA DI POSNER. Con tale esperimento veniva chiesto agli individui di focalizzare l’attenzione su
una croce, situata giusto al centro tra due quadrati, nei quali apparivano poi degli stimoli, e di rilevare il più
velocemente possibile la comparsa dello stimolo bersaglio (target). Prima della comparsa del target,
tuttavia, una freccia appariva sopra il punto di fissazione, suggerendo, con un’alta percentuale di
probabilità (80%), la posizione più probabile in cui il target sarebbe apparso. In alcune prove lo stimolo
appariva nel quadrato suggerito (prove “valide”), mentre in altre nel quadrato opposto (prove “invalide”). I
risultati hanno mostrato che i soggetti rispondevano più velocemente al target nelle prove valide che nelle
invalide, cioè che lo spostare preventivamente l’attenzione nella posizione indicata dal suggerimento
accresce la velocità di elaborazione dell’informazione in quel punto. Attraverso questo ed altri esperimenti,
l’attenzione è stata metaforicamente descritta come un fascio di luce che si muove nell’ambiente, andando
ad illuminare differenti regioni dello spazio in momenti diversi.
Un altro problema interessante è stabilire se, nel passare da una posizione ad un’altra, l’attenzione “salti”
da un punto ad un altro, oppure investa anche le posizioni intermedie (come farebbe un fascio di luce). I
risultati degli esperimenti hanno fornito prove a favore sia dell’una sia dell’altra ipotesi.
Inoltre è possibile controllare le dimensioni del fuoco dell’attenzione. Alcune ricerche hanno dimostrato
che un osservatore può, entro certi limiti, focalizzare la propria attenzione su un’area ampia o su un’area
ristretta, in quest’ultimo caso le informazioni vengono analizzate più velocemente.
Ricerca visiva:
Allo scopo di studiare i meccanismi di analisi del sistema visivo, Anne Treisman ed i suoi collaboratori resero
famoso un nuovo paradigma per lo studio dell’attenzione, il PARADIGMA DELLA RICERCA VISIVA. Il
paradigma consiste nel presentare sullo schermo di un computer un certo numero di elementi. Il soggetto
deve verificare se tra gli elementi è presente il target specificato all’inizio del test. Questo paradigma viene
utilizzato per studiare quali caratteristiche del target (rispetto ai distrattori, ossia gli altri elementi) rendono
la sua ricerca più o meno efficiente, e per inferire i meccanismi adottati dal sistema visivo per analizzare la
scena. Se un elemento possiede una caratteristica che lo rende unico rispetto a tutti gli altri, la ricerca
risulta essere molto efficiente, ed il TR (tempo di risposta) per la sua individuazione non varia all’aumentare
del numero complessivo di elementi. La funzione TR X numerosità degli elementi risulta essere pressoché
piatta in questo caso, segno che il processo di ricerca del target potrebbe avvenire in “parallelo”.
Flash di memoria: È possibile avere ricordi particolarmente lucidi e chiari? Brown e Kulik chiesero ad
ottanta studenti universitari di cercare di ricordare in che circostante fossero venuti a conoscenza
dell’assassinio del presidente Kennedy. I risultati hanno condotto i due a capire che tanto più un evento
veniva giudicato importante, tanto più spesso esso veniva reiterato in seguito. Loro hanno deciso di
chiamare questo tipo di ricordi flash di memoria, creando un’apposita teoria chiamata NOW PRINT:
Secondo Brown e Kulik un meccanismo come quello del Now Print potrebbe rappresentare una forma di
memoria molto primitiva, la quale poteva essere stata utile quando le testimonianze degli eventi non
potevano essere conservate per mezzo di ausili artificiali della memoria.
Esiste un meccanismo per i flash di memoria?: Nei flash di memoria le inesattezze si verificano quando le
informazioni che non possono essere recuperate dalla memoria vengono sostituite dalle nostre inferenze o
congetture. McCloskey, Wible e Cohen hanno concluso che i flash di memoria non sono necessariamente
più accurati dei ricordi normali e che non vi è alcun bisogno di postulare uno speciale meccanismo per
spiegarli. I flash di memoria, piuttosto, sono il prodotto degli stessi fattori che influenzano i ricordi normali.
Tanto più i ricordi somigliano al classico flash di memoria quanto più importante è un evento, più forte è la
reazione emotiva che esso suscita, e più frequente viene ripetuta la vicenda oggetto del flash. Tanto più i
resoconti di un flash di memoria sono incompleti, infedeli e tendenti a divenire meno precisi nel tempo,
quanto più mancano queste caratteristiche. Weaver, come Neisser, suggerisce che la fiducia che abbiamo
Teoria di Bartlett:
Bartlett ha fatto uso di una tecnica chiamata metodo delle riproduzioni in serie. Ad un primo soggetto, A,
viene dato qualcosa da ricordare. A mette per iscritto tutti i particolari che è in grado di rievocare. La
versione fornita da A, a sua volta viene fatta leggere ad un secondo soggetto, B, il quale cerca di rievocarla.
La versione fornita da B, a sua volta, viene presentata ad un terzo soggetto, C, e così via.
In questo modo, ciascun soggetto deve cercare di rievocare la versione del materiale originale fornita dal
soggetto precedente.
Bartlett credeva che le trasformazioni che possono essere individuate all’interno di questa frequenza di
riproduzioni rivelano ciò che succede alla memoria nel corso del tempo. Gli individui tendono a selezionare
solo una parte del materiale che deve essere ricordato e ad ometterne un’altra parte. Queste omissioni
riflettono un processo di razionalizzazione. Gli individui fanno in modo di rendere il racconto per quanto
possibile coerente e ragionevole dal loro punto di vista. Il materiale incoerente tende ad essere escluso.
Nozione di schema per Bartlett: Uno schema rappresenta un’organizzazione flessibile e questo è ciò che la
rende utile. Se la memoria fosse costituita semplicemente da un insieme di tracce, la rigidità che ne
conseguirebbe ne diminuirebbe enormemente l’utilità. Uno schema è un arrangiamento più astratto e
generale.
Lo schema seleziona le informazioni che sono coerenti con i nostri interessi correnti. In seguito,
l’informazione selezionata viene convertita in una forma più astratta. Piuttosto che cercare di conservare in
forma esatta l’evento in questione, noi estraiamo da esso il suo senso generale. Queste informazioni sono
poi interpretate facendo riferimento alle altre informazioni contenute in memoria. Inoltre, le informazioni
vengono poi integrate in modo tale da rendere coerenti con lo schema.
Selezione: Questo processo ha luogo quando le informazioni vengono ricevute oppure quando esse
vengono rievocare? Bransford e Johnson hanno presentato evidenze a sostegno della prima ipotesi, mentre
Anderson e Pichert hanno presentato evidenze a sostegno della seconda ipotesi.
L’esperimento di questi ultimi sostiene che ci sia una selezione dell’informazione nel corso del processo di
rievocazione. A questo punto, infatti, è più probabile che vengano recuperate soltanto quelle informazioni
che sono rilevanti per il punto di vista assunto al momento della rievocazione.
Presi insieme, gli studi di questi quattro indicano che il processo di comprensione richiede l’attivazione di
uno schema.
Esistono anche delle interferenze, in particolare due tipi:
- interferenza proattiva = ha luogo quando si apprende A, poi B, e poi, dopo un certo periodo di tempo, si
prova a rievocare B. In generale, risulta più difficile rievocare B se in precedenza si è appreso A.
Astrazione: È vero che gli individui tendono a formare una rappresentazione astratta del significato delle
loro esperienze, ricordandone solo l’essenza ma non i dettagli? Uno studio di Jacqueline Sachs viene spesso
citato a sostegno dell’ipotesi che gli individui ricordino il significato delle frasi che sentono, ma
dimentichino le parole che sono state effettivamente pronunciate.
Dagli esperimenti effettuati, è uscito fuori che: se non passa troppo tempo tra la frase originale e la frase di
controllo, i soggetti sono in grado di ricordare le esatte parole usate nella fase originale. D’altra parte,
invece, i soggetti non sono in grado di ricordare molto bene la frase originale se essa + presenta all’inizio o a
metà della storia. In questo caso, i soggetti non erano in grado di notare un cambiamento lessicale fra la
frase originale e la frase di controllo, anche se erano in grado di notare un cambiamento semantico.
La capacità di ricordare la forma letterale delle frasi udite è confermata da altri esperimenti.
Interpretazione: Alba e Hasher hanno ipotizzato che gli individui interpretino l’informazione che hanno a
disposizione facendo delle inferenze, per poi ricordare queste inferenze come parte del materiale
originario.
Integrazione: Secondo Alba e Hasher, il processo di integrazione costituisce “l’elemento centrale delle
teorie basate sulla nozione di schema”. Molte evidenze sono state presentate a sostegno dell’ipotesi che il
significato che è astratto da un evento viene combinato con il resto delle nostre conoscenze in modo tale
da formare un insieme coerente, o Gestalt.
I risultati degli esperimenti condotti da Bransford e Franks indicano che maggiore è la semplicità di una
frase test, tanto più grande è la probabilità che essa venga riconosciuta erroneamente come una frase di
acquisizione. Questi falsi riconoscimenti devono essere considerati come evidenze a favore dell’ipotesi che
noi dimentichiamo i particolari delle nostre esperienze? In varie pubblicazioni successive, Elisabeth Loftus
ha sostenuto che informazioni fuorvianti acquisite successivamente all’evento vengono spesso integrate
con le informazioni originarie. Va sottolineato che secondo Loftus e Palmer gli individui talvolta non sono in
grado di determinare da quale fonte si origina l’informazione fuorviante che è stata acquisita dopo l’evento.
Script:
Le critiche rivolte alla teoria degli schemi non dovrebbero oscurare il fatto che il concetto di schema può
essere (ed è stato) usato per spiegare molti fatti. Il concetto di script (copione), per esempio, può essere
usato per dar conto degli stessi fatti spiegati mediante il concetto di schema.
Schank e Abelson sono stati i primi a far uso della nozione di script nella ricerca sulla memoria. Essi hanno
definito uno script come una “struttura che descrive una sequenza appropriata di eventi in un contesto
particolare”. Si intende uno schema che ha interazioni con la memoria procedurale ed è uno schema più
fisso e rigido che ci prescrive cosa dobbiamo fare in date situazioni, come quali comportamenti adottare
quando andiamo al ristorante.
Ciò che è stato identificato come una struttura da Waugh e Norman, ovvero la memoria primaria, viene
considerato dalla teoria dei livelli di elaborazione come un processo attentivo che rende possibili due
differenti tipi di reiterazione:
- reiterazione di mantenimento = semplice ripetizione del medesimo processo
- reiterazione integrativa = sottopone un evento ad un’elaborazione più profonda
Craik e Lockhart hanno notato che l’approccio da loro proposto ha ricevuto numerose critiche, come ad
esempio la presunta generalità di questa teoria riguardo i meccanismi soggiacenti della memoria. Loro
hanno replicato che la loro teoria ha stimolo un gran numero di ricerche che ha poi portato allo sviluppo di
concetti come la complessità di rielaborazione e la distintività:
- complessità di rielaborazione = quantità di elaborazione ulteriore effettuata dall’individuo che produce
materiali addizionali, associati o ridondanti
- distintività = precisione con la quale un elemento è codificato.
Bahrick e il “permastore”: ha studiato la ritenzione a lungo termine del materiale appreso a scuola. Questi
studi si prestano perfettamente ad esseri messi a contrasto con gli studi sulla memoria di Ebbinghaus.
Bahrick ha rilevato che mentre sono stati condotti molti studi di laboratorio sull’apprendimento, ben poche
ricerche si sono occupate di quel che accade di ciò che apprendiamo a scuola.La maggior parte di noi
trascorre anni a scuola, in teoria ad imparare una gran quantità di cose, ma non ci è dato di sapere per
quanto a lungo siamo effettivamente in grado di ricordare quello che abbiamo appreso in questo modo.
Bahrick ha tentato di darsi delle spiegazioni in uno studio naturalistico del ricordo a lungo termine della
lingua spagnola appresa a scuola. Risultati alla mano, ha ipotizzato l’esistenza di uno stato di memoria
La durata dei ricordi: memoria sensoriale, memoria a breve termine e memoria a lungo termine :
In un certo senso, tutta la memoria potrebbe essere divisa in due grandi entità:
- memoria primaria = transitoria e fragile (memoria a breve termine)
- memoria secondaria = spiega i fenomeni di ricordo permanente e ci permette di effettuare la codifica,
ritenzione e recupero su contenuti che si perpetuano per una durata quasi illimitata di tempo (memoria a
lungo termine)
Uno dei fattori che favoriscono la visione multisistemica della memoria fu la convincente spiegazione dei
risultati delle ricerche di Sperling. I risultati delle ricerche di Sperling sembrarono subito molto interessanti
perché fornivano la prima prova sperimentale dell’esistenza di un magazzino di memoria di natura
sensoriale, di grande capacità, ma nel quale le informazioni decadono molto più rapidamente che nella
memoria a breve termine. Questo tipo di memoria è stato chiamato da Neisser memoria iconica. Mella
memoria sensoriale uditiva, il corrispondente della rappresentazione iconica è la memoria ecoica.
Oggi, quando si parla di ricordo temporaneo o di memoria a breve termine si fa riferimento ad un sistema
chiamato memoria di lavoro che mantiene ed elabora le informazioni durante l’esecuzione di compiti
cognitivi. La memoria di lavoro rappresenta il nostro presente. Essa inoltre ci aiuta a trasformare il passato
in presente (riportando i ricordi ad uno stavo attivo). Questa struttura di memoria ha però una capacità
limitata e può mantenere l’informazione solo per un breve periodo di tempo.
Cosa significa allora parlare di memoria a breve termine o di memoria a lungo termine? Il modello standard
sviluppato alla fine degli anni sessanta si basava sulla metafora della mente come computer e ipotizzava
l’esistenza di tre “magazzini” di memoria: la memoria sensoriale o registri sensoriali, la memoria a breve
termine e la memoria a lungo termine. Oggi sappiamo, invece, che un’interpretazione “letterale” della
distinzione in memoria sensoriale, MBT e MLT non è del tutto corretta, in quanto cattura soltanto la
dimensione della durata temporale del ricordo, senza tener conto di altre importanti dimensioni come ad
esempio il sistema coinvolto nel ricordo, il tipo di meccanismo sottostante e la natura della
rappresentazione.
TEMPO:
- memoria retrospettiva = recuperare dalla nostra memoria fatti ed episodi del passato, quindi quello che
abbiamo già compiuto o vissuto.
- memoria prospettica = “ti telefono verso le quattro”, questa frase esprime l’intenzione di compiere una
data azione in un futuro che non sempre è immediato. Ricordare i piani, le intenzioni, le azioni che
svolgeremo in futuro.
Altre non ho voglia di scriverle, tipo memoria a lungo termine visiva, a breve termine visiva, a lungo termine
uditiva, a breve termine uditiva.
Nel corso degli anni Ottanta, Tulving ha dovuto poi però apportare alcuni cambiamenti per far fronte alle
nuove informazioni acquisite. Egli ha ora ipotizzato tre tipi di memoria: episodica, semantica e procedurale.
La distinzione tra la memoria procedurale e le altre forme di memoria può essere esemplificata facendo
riferimento alla distinzione tra conoscenza tacita e conoscenza esplicita. La conoscenza procedurale è una
forma di conoscenza tacita: riguarda ciò che conosciamo senza necessariamente essere consapevoli di che
cosa è che sappiamo.
Se gli individui sono capaci di descrivere quello che sanno, allora essi fanno riferimento alla loro memoria
semantica.
Tulving ha suggerito che a ciascuno dei tre sistemi di memoria è associata una diversa forma di coscienza:
Amnesia: Sia Schacter che Baddeley hanno notato la rilevanza della psicosi di Korsakoff per lo studio della
memoria. La psicosi di Korsakoff è una forma di amnesia che si verifica come conseguenza dell’alcolismo
cronico. La sua causa più probabile è l’atrofia dei tessuti cerebrali dovuta alla malnutrizione, in particolare
modo alla deficienza della vitamina B12.
Warrington e Weiskrantz hanno recensito vari studi che sembrano suggerire che i pazienti affetti da
amnesia abbiano un rendimento peggiore nei compiti che richiedono l’uso della memoria esplicita e un
rendimento migliore in quelli che richiedono l’uso della memoria implicita.
Memoria semantica:
La memoria semantica si riferisce alle informazioni di carattere generale che possediamo a proposito del
mondo. Tulving ha paragonato la memoria semantica ad un dizionario mentale che contiene parole,
concetti e le loro relazioni. L’uso della memoria semantica può essere esemplificato facendo riferimento,
per esempio, ai tentativi di ricordare il nome di una persona. Può capitare talvolta, e capita alquanto
spesso, che un nome non ci venga in mente. James ha descritto questo come il fenomeno della parola sulla
punta della lingua”.
Fenomeno della parola “sulla punta della lingua”: Brown e McNeill hanno condotto un famoso studio su
questo fenomeno. Dai loro esperimenti arriviamo a varie conclusioni:
- i soggetti sono in grado di accedere a una grande quantità di informazioni a proposito di una parola prima
di essere capaci di rievocarla (rievocazione generica);
- i soggetti sono spesso in grado di identificare alcuni aspetti della parola critica come, per esempio, la
lettera iniziale e il numero di sillabe;
- i soggetti è probabile che rievochino parole simili a quella che si tenta di rievocare in quanto al suono o al
significato;
- i soggetti spesso rievocano il termine desiderato solo quando non si cerca più di rievocarlo;
La teoria ACT-R (Controllo Adattativo del Pensiero azionale) è una teoria cognitiva dell’apprendimento che
riguarda come la memoria è strutturata. La cosiddetta architettura cognitiva dell’ACT-R è composta da tre
parti principali: memoria di lavoro, memoria dichiarativa e memoria procedurale.
- Memoria di lavoro: La memoria di lavoro (Working Memory, WM) è la parte cosciente della memoria. In
passato la memoria di lavoro veniva chiamata memoria a breve termine. La memoria di lavoro si pensa sia
costituita da diversi tipi di memoria, ad esempio visiva e auditiva (fare riferimento ad esempio ai lavori di
Baddeley and Hitch). La memoria di lavoro interfaccia i sensi con la memoria di lungo termine. La memoria
di lungo termine è composta da almeno due diversi tipi di blocchi di memoria che hanno a che vedere con
una parte “dichiarativa” cioè quella che comprende i fatti e li riconosce e una seconda di tipo
“procedurale”, cioè sul come le cose devono essere fatte;
- Memoria dichiarativa: La memoria dichiarativa contiene quel tipo di conoscenze fattuali che sono
immagazzinate nelle reti semantiche. La memoria dichiarativa trattiene la conoscenza dei fatti ed ogni
associazione rilevante e i contesti di ciò che viene memorizzato;
- Memoria procedurale: La memoria procedurale, come abbiamo già visto, contiene le nostre conoscenze a
proposito di come fare qualcosa. La memoria procedurale, nella teoria di Anderson, fa uso di sistemi di
produzione. Secondo Anderson la memoria procedurale consiste di sequenze di azioni basate sul
riconoscimento di schemi. Le sequenze di azioni sono molto simili alle istruzioni di un linguaggio di un
computer, come “if-then”, cioè “se questo accade allora fai quello”;
Principale caratteristica che lo distingue dai modelli precedenti: nei modelli precedenti i concetti erano
corrispondenti alle parole della lingua e appartengono alla categoria di base che massimizza le proprietà
che deve avere un concetto, un concetto non troppo specifico ma neppure troppo astratto. Elementi che
appartenevano alla categoria di base, cosa diversa nel modello di Anderson.
L’unità di base non è una parola ma una frase.
-Connessioni tra reti o concetti hanno forma di preposizioni e questo permette di dare un significato e
interpretazione anche a frasi paradossali, come ad esempio: l’alto avvocato credeva che gli uomini
venissero da Marte;
- Attribuisce le relazioni corrette tra gli elementi della frase
- Anche qui circola attivazione dove è tanto forte quanto meno si disperde
- Questo principio della rete proposizionale fa un’assunzione forte; i concetti hanno corrispondenza
biunivoca con le frasi della lingua
Modello riesce a spiegare l’effetto ventaglio; sono stati fatti esperimenti con soggetti molto competenti in
una determinata area esempio medici o avvocati ecc. Questi venivano confrontati con soggetti che non
(In foto, il modello per il riconoscimento di pattern proposto da McClelland e Rumelhart). Il funzionamento
del sistema è parallelo, in un senso che potremmo definire verticale e orizzontale. I modelli connessionisti
tentano di specificare la microstruttura dei processi cognitivi. Questo significa che questi modelli
costituiscono dei tentativi di specificare in maniera dettagliata le modalità di funzionamento di processi
come la memoria, per esempio.
Nella parte inferiore del modello sono rappresentate le unità corrispondenti alle caratteristiche di base
delle lettere. Un’unità viene attivata se la caratteristica che essa rileva è presente all’interno dello stimolo.
Come viene recuperata l’informazione dalla memoria? Secondo l’approccio connessionista, le copie di
particolari esperienze non vengono immagazzinate in memoria nella forma di tracce di memoria. Piuttosto,
viene ipotizzata l’esistenza di unità per le esperienze individuali, connesse ad altre unità che rappresentano
le varie proprietà dell’esperienza. McClelland, Rumelhart e Hinton hanno sottolineato che alcune
esperienze sono dotate delle medesime proprietà; ciò significa che l’unità che rappresenta una particolare
proprietà tenderà ad essere connessa con ricordi differenti. Ogni volta che una proprietà viene attivata,
essa tenderà ad attivare tutti i ricordi ai quali è connessa. Per questa ragione, per poter facilitare la
rievocazione di una particolare esperienza, il sistema deve possedere sia connessioni inibitorie che
connessioni eccitatorie tra le varie unità.
Memoria autobiografica:
La memoria autobiografica è una forma di memoria episodica nella quale gli eventi vengono rievocati
insieme all’indicazione del momento della vita dell’individuo in cui si sono verificati. Riguarda degli eventi
Morbo di Alzheimer: Uno dei più temuti disturbi della memoria. È opinione generale che nei pazienti di
Alzheimer sia danneggiata la conoscenza generale, vale a dire la memoria semantica.
Gli esperimenti suggeriscono che il morbo non comporti tanto l’incapacità di recuperare conoscenze
esistenti quanto il deterioramento di conoscenze preesistenti.
Inizialmente abbiamo un input, ovvero un oggetto del mondo esterno/fisico che si presenta a noi e questo
determina una prima elaborazione interna, ovvero l’abbozzo primario. Questa prima elaborazione interna
attiva una seconda fase di elaborazione più avanzata, l’abbozzo a due dimensioni e mezzo che viene poi
Il modello di Marr ha avuto una grande influenza. Fra i molti sviluppi contemporanei quello più autorevole si
deve a Biederman: altro modello di descrizione strutturale. Ha caratteri in comune con il modello di Marr e
altre con cui si differenzia. L’analogia: consiste nel fatto che la rappresentazione usata per il riconoscimento
dell’oggetto è la formazione della descrizione strutturale dell’oggetto che si sposa in memoria con la
rappresentazione iconica a lungo termine. Una delle differenze con Marr: è che Biederman ritiene che
qualsiasi oggetto si può rappresentare in una descrizione strutturale attraverso primitive volumetriche dette
GEONI (esempio delle lettere dell’alfabeto che sono in numero finito, e con questo numero limitato noi
siamo in grado di creare un numero molto elevato di parole o strutture composte da questi elementi),
quindi quello che succede per gli oggetti è simile, possono essere scomposti in varie forme di base che
composte tra di loro e grazie alla disposizione nello spazio possono formare una rappresentazione
approssimata di tutti gli oggetti possibili.
Biederman ha anche fatto un catalogo di queste forme, ovvero una 40ina, a seconda di quale di esse
entrano in comunicazione tra loro si può rappresentare una pluralità infinita di oggetti. Quindi con
Biederman la descrizione strutturale è una descrizione dell’oggetto in termini di geoni che comprende due
componenti: una lista di geoni che fanno parte dell’oggetto e le informazioni sulle loro relazioni spaziali (ad
esempio: il geone X è sopra del geone Y e così via.)
Il modello contiene un principio di scomposizione interna degli oggetti che è assente all’interno del modello
di Marr, il modello di Biederman porta appunto alla semplificazione dal punto di vista strutturale e dall’altra
parte la maggiore economia della struttura delle rappresentazioni in memoria ma tutto ciò è
controbilanciato da una maggiore complessità di elaborazione perché dobbiamo scomporre l’oggetto e
ricomporlo per arrivare ad una descrizione strutturale.
Biederman sfrutta inoltre le cosiddette proprietà non accidentali. Cosa sono queste proprietà? I matematici
utilizzano questo termine per far riferimento a certe proprietà (geometriche) della proiezione retinica
corrispondente ad un oggetto tridimensionale. Per la precisione, si tratta di proprietà che tendono ad essere
altamente “diagnostiche” (pertinenti, relative alla diagnosi) della presenza di una certa struttura proiettata.
Sono proprietà associate sistematicamente a degli oggetti e devono essere rilevate dell’avvenuta estrazione
dei contorni. Sono proprietà geometriche che corrispondono a un oggetto tridimensionale e ci permettono
di fare una diagnosi sulla natura di quell’oggetto. Ad esempio se i contorni della retina si incontrano
formando una Y questa è una proprietà non accidentale perché se incontriamo una Y questa corrisponde a
uno spigolo all’interno dello spazio tridimensionale ed è formata dall’incontro di tre superfici piane diverse
nello spazio tridimensionale.
Mentre Marr ipotizzava descrizioni strutturali del tutto indipendenti dal punto di vista, le descrizioni a geoni
ipotizzate da Biederman sono solo parzialmente indipendenti dal punto di vista. La struttura a geoni è
ricavabile da qualsiasi immagine a 2D che dipende dalle proprietà non accidentali che vi sono presenti.
RICONOSCIMENTO
Rilevazione PNA
INPUT
Templates:
Altra teoria basata sul riconoscimento degli oggetti. Il concetto di template deriva dalla ricerca sul
riconoscimento automatico di caratteri tipografici. Infatti i primi tentativi di costruire sistemi automatici
confrontavano l’immagine rilevata da uno strumento ottico con dei modelli interni della sagoma delle
lettere (in inglese, template è la sagoma di cartone o di metallo che si usa come guida per ritagliare una
sagoma). Template (sagoma) è una fotografia dell’oggetto come appare da un particolare punto di vista.
Questo significa che questo approccio è basato sul fatto che il problema del riconoscimento di un oggetto
basato su diversi punti di vista è risolto dal fatto che noi abbiamo in memoria una rappresentazione
dell’oggetto che è basata su un particolare punto di vista, ma che la proiezione degli oggetti reali non si
discosta molto da questa rappresentazione prototipica dell’oggetto che noi abbiamo in memoria, quindi il
riconoscimento di un oggetto è basato su un confronto tra l’informazione disponibile da un dato punto di
vista e un template (o sagoma) che rappresenta quell’oggetto da quel punto di vista.
Ciò vuol dire che possiamo suppore che ciascun oggetto abbia un’unica rappresentazione prototipica basata
su un punto di vista che è quello più comune con cui di solito vediamo quel dato oggetto, ma ogni volta c’è
da effettuare una rotazione mentale in memoria, ad esempio se vedo questo oggetto dal basso e non dal
solito punto di vista più comune con il quale sono solita vederlo. Esempio: una tazzina di caffè vista dal
basso e non frontalmente come di solito, quindi qui noi dobbiamo effettuare una rotazione mentale
dell’oggetto per riportare l’oggetto alla sua posizione canonica e riconoscerlo come tale.
Oppure, nel secondo caso, posso ipotizzare che ci siano tanti template (o sagoma) per quanti sono i
possibili punti di vista dal quale possiamo guardare quell’oggetto, quindi ora il problema diventa che il
numero di rappresentazioni in memoria ( o template) per ogni oggetto diventa un numero troppo alto.
Il “confronto rispetto a un template” mostrò, dunque, ben presto dei limiti.
In conclusione, la teoria del template matching ha punti di forza e punti deboli.
Punto di forza: questa teoria coglie il fatto che per riconoscere un oggetto c’è bisogno di un confronto con
una rappresentazione interna nella memoria a lungo termine e quindi qui il matching con l’oggetto è
immediato senza la costruzione di una descrizione strutturale. Il sistema opera solo un confronto con la
memoria a lungo termine e dice se l’oggetto coincide oppure no con la rappresentazione interna (sagoma o
template). Processo semplificato;
Punto debole o critiche: se noi ipotizziamo che vi è riconoscimento solo quando la forma visiva combacia
con la rappresentazione interna, succede che gli oggetti che hanno anche piccole differenze rispetto allo
schema non dovrebbero essere riconosciuti. Sarebbe quindi necessario formare un numero infinito di
template corrispondenti a tutte le forma visive dell’oggetto incontrato rispetto a tutti i punti di vista dai
quali è possibile incontrare l’oggetto e si dovrebbero anche formare un numero infinito di schemi
corrispondenti a tutte le forme visive incontrate e riconosciute. Il processo però diventerebbe troppo
laborioso rispetto a come appare;
L’interpretazione possibile dei due esperimenti sui processi di rotazione di IM e di ispezione di IM è che in
entrambi i casi i processi che portano ad immaginare un oggetto sono simili a quelli percettivi. Le
rappresentazioni immaginative sono quindi trasformate o esplorate in modo continuo e analogico, simile a
quello che ci porta a manipolare o ispezionare oggetti e superfici reali.
La conclusione di Kosslyn (che ha effettuato questi esperimenti) è che gli individui ispezionano l’immagine
mentale di una scena per mezzo degli stessi processi di scansione di una scena esterna reale o di una figura
(movimenti oculari).
I proposizionalisti hanno mostrato che spesso le immagini mentali non subiscono vincoli del mondo fisico
come gli oggetti che percepiamo. Molto spesso gli individui riproducono non l’immagine mentale
dell’oggetto ma ciò che loro sanno dell’oggetto, verso o falso che sia (punto su cui si è soffermato molto lo
studioso Pylyshin). Inoltre, le immagini mentali sono rappresentazioni attendibili ma in parte distorte;
capita che nelle immagini mentali parti diverse di una scena possono essere visti contemporaneamente in
punti di vista diversi e questo è diverso da quello che accade nella realtà percettiva.
Quindi l’immagine mentale che formiamo non è come l’immagine percettiva ma è un immagine che
riproduce ciò che sappiamo di quell’immagine o scena e quindi possiamo manipolarla, ciò che non sarebbe
possibile nelle realtà reale
Secondo Rock alcune interpretazioni di esperimenti che sembrerebbero essere consoni con
l’approccio immaginista sono sbagliati
La rotazione delle immagini che è stata interpretata come una rotazione che ricalca i processi percettivi si
potrebbe avvalere di strategie di pensiero (inferenze) o del focus attentivo
- Secondo Rock: Nella rotazione delle immagini focalizziamo l’attenzione su uno degli aspetti della
figura (esempio uno spigolo ) e sottoponiamo a rotazione solo quell’elemento e poi aggiungiamo delle
nuove informazioni ricostruendo su base inferenziale ( di pensiero ) il rapporto tra il segmento della
figura e altri elementi. Quindi le risposte che diamo sarebbero funzione del fatto che abbiamo
focalizzato l’attenzione su quella singola parte della figura e su quella parte abbiamo poi dato il
giudizio
- Inoltre , come abbiamo visto dagli esperimenti di Farra, le immagini mentali possono essere usate
come previsioni: dispongono il sistema percettivo a ricevere informazioni , dunque sono un fenomeno
che ha più a che fare ed è più simile a fenomeni di tipo attentivo che percettivo
- È stato anche trovato che la conoscenza proposizionale influenza il modo in cui vediamo le imm
mentali e le manipoliamo
ad esempio, in alcuni esperimenti venivano presentate figure ambigue non nel fatto che fossero
reversibili ma che nel loro schematismo potevano essere interpretate in due modi diversi.
Quindi vi era la presentazione di figure con due etichette verbali possibili
O come la figura schematica di un sole o come un timone di una barca
Queste figure schematiche e vaghe sono state etichettate verbalmente in uno dei due o più modi
possibili da parte dei soggetti.
Nell’esperimento la figura stimolo era una figura che assomigliavano vagamente o alle tende di una
finestra o a un diamante in un rettangolo, dopo che era stata presentata ai soggetti viene chiesto di
riprodurre con un disegno la figura.
- Si vede che i soggetti distorcono la figura in base a come era stata etichettata verbalmente quindi o
come diamante o come tende.
- Quindi è l’informazione proposizionale che influenza l’immagine mentale, chiamare la figura come
tenda o diamante rafforza le caratteristiche nell’immaginazione che sono proprie dell’uno o dell’altro
oggetto
Metodo dei loci (immagini mentali e mnemotecniche): Il libro di Frances Yates “The art of memory” è una
storia delle mnemotecniche, ovvero delle procedure usate per soccorrere la memoria. La Yates cita l’“Ad
Herennium”, opera che enuncia delle regole per ricordare accuratamente e in ordine una grande quantità
di item. Questa tecnica, nota come metodo dei loci, si serve di due cose: luoghi (o loci) ed immagini. Il
metodo richiede anzitutto l’apprendimento di una serie di luoghi – di solito le parti di un edificio, come un
tempio per esempio. I luoghi non devono essere troppo simili fra loro e devono essere distanti l’uno
dall’altro. Una volta che i luoghi sono stati appresi, lo studente possiede un’accurata mappa cognitiva
dell’edificio. Dopo aver costruito la sua mappa cognitiva, lo studente deve inventare delle immagini in
grado di rappresentare il materiale che deve essere ricordato. Un’immagine deve essere formata per
ciascuna delle cose da ricordare. Ciascuna immagine viene poi collocata in un particolare luogo (loci),
tenendo presente il fatto che una qualità desiderabile delle immagini è quella di essere, per quanto
possibile, distinte e persino bizzarre. A questo punto, il processo del ricordo può essere concepito come
una specie di passeggiata attraverso i loci della memoria nel corso della quale vengono raccolte le immagini
che sono tate collocate nei loci.
Immagini bizzarre (immagini e distintività): La possibilità che le immagini bizzarre possano facilitare il
ricordo è stata ripetutamente studiata nel corso degli ultimi vent’anni. I primi esperimenti compiuti non
hanno dimostrato alcun effetto della bizzarria. Ricerche seguenti, però, hanno dimostrato che in alcune
circostanze la bizzarria può avere effetto. Einstein e McDaniel hanno considerato una serie di possibili
spiegazioni per l’effetto bizzarria. Una delle possibili ipotesi è che le immagini bizzarre producano tracce di
memoria dotate di distintività maggiore rispetto alle immagini ordinarie. Le immagini ordinarie non
possiedono un aspetto caratteristico quasi per definizione. È possibile dunque che le tracce di memoria
Ipermnesia: Un altro aspetto della nostra metamemoria è costituito dalla credenza che la memoria peggiori
col passare del tempo. Se ci venisse detto che la memoria può migliorare col passare del tempo,
quest’affermazione risulterebbe incoerente con la nostra metamemoria. In alcune circostanze,
effettivamente, tentativi ripetuti di rievocazione possono portare ad un miglioramento della rievocazione.
Questo fenomeno è chiamato ipermnesia.
Attraverso degli esperimenti è stato dimostrato che il rendimento dei soggetti che avevano appreso delle
parole senza formare delle immagini mentali non migliorava nel corso del tempo.
Esperimenti di Erdelyi: usato un compito di rievocazione forzata. Venivano presentate liste di parole o
immagini e veniva chiesto di rievocarli a intervalli di tempo e di ritenzioni diversi. La rievocazione è forzata
perché ai soggetti veniva richiesto di sforzarsi per ricordare il maggior numero di elementi presenti nella
lista. Si evincono due cose:
- la prestazione è migliore sulle figure, anche se accompagnate con parole, rispetto alle parole a
prescindere dell’intervallo di ritenzione (15 min o 20 min ecc.);
- all’aumentare dell’intervallo di ritenzione aumenta il numero di parole che viene recuperato, accade solo
se lo stimolo da ricordare è una figura o una parola che corrisponde ad una figura che era stata presentata;
- l’intervallo di rievocazione nel tempo per le parole è invece piatto;
- i risultati mostrano che la rievocazione di chi attiva immagini mentali migliora rispetto a chi non le ha
usate per rievocare le parole e si potenzia addirittura nel tempo;
La spiegazione è che accade un po’ ciò che accade nel fenomeno sulla punta della lingua, quando non
riusciamo a recuperare una parola ma abbiamo delle informazioni su questa parola.
Nel fenomeno dell’ipermnesia succede che l’immagine che è rimasta “sulla punta dell’occhio” e quindi in
memoria non può essere recuperata dalla memoria in quel momento, ma attraverso vari tentativi necessari
di rievocazione, in maniera anche implicita, improvvisamente può ripresentarsi alla memoria. Fenomeno di
codifica e recupero implicito.
Rotazione mentale:
Diversamente dalle immagini appese ai muri, le immagini mentali possono avere un carattere dinamico.
Una delle dimostrazioni più famose della natura dinamica delle immagini è stata fornita da Shepard e
Metzler. Ai soggetti venivano presentate 1.600 coppie di disegni. In alcuni casi, i due disegni di ciascuna
coppia rappresentavano lo stesso oggetto, mentre in altri casi essi rappresentavano oggetti diversi. Le
coppie di disegni che rappresentavano lo stesso oggetto si differenziavano nei termini della rotazione
angolare necessaria per allineare le due rappresentazioni dell’oggetto. La rotazione angolare variava da 0° a
180° a intervalli di 20°. La consegna sperimentale era quella di decidere, nel caso di ciascuna coppia, se i
disegni rappresentavano lo stesso oggetto oppure oggetti diversi. Secondo Shepard e Metzler, i risultati
degli esperimenti possono essere interpretati dicendo che i soggetti eseguono questo compito
sperimentale per mezzo di un processo di rotazione mentale. Forse i soggetti immaginano di ruotare uno
degli oggetti raffigurati per determinare se esso può venire allineato con l’altro membro della coppia. Tanto
più grande è la rotazione angolare necessaria, tanto più grande è il tempo impiegato dai soggetti per
eseguire l’allineamento degli oggetti raffigurati. Sulla base dei dati raccolti da Shepard e Metzler si può
concludere che la velocità della rotazione mentale sia di circa 60° al secondo.
Secondo Shepard, inoltre, il processo che ci porta ad immaginare un oggetto è abbastanza simile al
processo per mezzo del quale lo stesso oggetto viene percepito. “Ciò che noi immaginiamo, così come ciò
che percepiamo, sono degli oggetti esterni a noi; nel caso dell’immaginazione, però, questi oggetti possono
essere assenti o anche non esistenti”.
Perlustrazione delle immagini mentali: Kosslyn ha recensito una serie di esperimenti eseguiti nel suo
laboratorio e volti ad esplorare la relazione tra percezione e immaginazione. In uno di questi studi, i
soggetti dovevano memorizzare la mappa di un’isola nella quale erano contrassegnati differenti luoghi, in
corrispondenza di un albero, una spiaggia, una capanna, e così via. Questi luoghi si trovavano a distanze
diverse gli uni dagli altri. Il tempo necessario a passare da un luogo a un altro della mappa dipende dalla
distanza reale tra di essi. I risultatiti di questo esperimento indicano che, per i luoghi effettivamente
presenti sulla mappa, il tempo necessario per passare da un oggetto a un altro è proporzionale alla distanza
tra questi oggetti nella mappa.
Finora abbiamo parlato soltanto di immagini visive, ma sono state studiate anche le immagini uditive.
Halpern ha investigato la perlustrazione mentale di immagini uditive prodotte da canzoni familiari. La
Halpern ha rilevato che è possibile individuare una serie di luoghi diversi all’interno di un’immagine uditiva
allo stesso modo che all’interno di un’immagine visiva. Le canzoni che noi immaginiamo sono dotate di un
inizio, una parte centrale e una fine allo stesso modo delle canzoni che noi sentiamo. È possibile che
un’immagine uditiva si estenda nel tempo allo stesso modo in cui un’immagine visiva si estende nello
spazio. Nel caso delle canzoni, la posizione di una parola è definita dal numero delle battute dall’inizio della
canzone.
Immagini eidetiche: L’icona è un’istantanea delle informazioni contenute in uno stimolo visivo. L’icona è
importante perché essa sembra presupporre che l’occhio sia stazionario, ciò che di rado accade in
condizioni naturali. È comunque utile confrontare l’icona con un fenomeno connesso, quello delle immagini
eidetiche. Come le immagini iconiche, le immagini eidetiche persistono anche dopo che uno stimolo, ad
esempio una figura, è venuto meno. Diversamente dall’icona, che decade rapidamente, le immagini
eidetiche possono persistere per un minuto o più. Caratteristiche immagini eidetiche:
- avere un’esperienza eidetica non è lo stesso che avere un’immagine mentale vivida: l’immagine è situata
nel mondo esterno, non nella testa della persona;
- l’immagine può essere perlustrata e le sue parti possono essere descritte;
- le descrizioni di un’immagine eidetica sono più rapide e più affidabili dei resoconti basati sulla memoria;
- le immagini eidetiche sono molto più frequenti tra i bambini che non tra gli adulti.
In generale le descrizioni delle immagini eidetiche non sono più fedeli degli ordinari ricordi di osservatori
non eidetici della stessa scena. È perciò chiaro che le immagini eidetiche non sono immagini fotografiche,
perché non sono copie letterali della scena.
Immagini come previsioni: Farah ha usato un esperimento per dimostrare che le immagini mentali possono
servire da previsioni. Ai soggetti veniva chiesto di immaginare una lettera sovrapposta ad un reticolo. In
questo esperimento, però, il pallino nero usato come probe veniva presentato soltanto per un breve
intervallo. Il compito dei soggetti era quello di decidere se il probe era stato presentato o meno. Farah ha
presentato delle evidenze a sostegno dell’ipotesi che la presenza di un’immagine mentale abbassi il criterio
usato dai soggetti per la detenzione di uno stimolo. La presenza di un’immagine mentale non migliora la
sensibilità nella detenzione ma rende i soggetti meglio preparati ad identificare la presenza di uno stimolo.
Quando prevediamo qualcosa, il ciclo percettivo è pronto per l’acquisizione di qualcosa che non è ancora
presente. Nell’esperimento di Farah, quando i soggetti proiettano un’immagine sul reticolo è come se
stessero prevedendo di vedere qualcosa in quella porzione del reticolo.
L’immaginazione è un processo attivo che predispone l’individuo alla percezione dell’informazione,
piuttosto che una rappresentazione passiva dell’informazione.
Immagini e figure ambigue: Se l’immagine di una configurazione fosse simile alla percezione della
medesima configurazione, allora anche le immagini mentali delle figure ambigue dovrebbero possedere
Immagini mentali e narrazioni: Come è stato osservato da Franklin e Tversky, la lettura di una storia suscita
un’enorme quantità di immagini mentali. Consideriamo un soggetto che vede qualcosa su cui poi esegue
delle operazioni mentali, come accade nell’esperimento di rotazione mentale. Tuttavia, quando una
persona legge una storia, può immaginare una scena senza propriamente vedere alcunché. Quando
leggiamo una storia, tipicamente costruiamo una rappresentazione immaginaria dell’ambiente descritto nel
testo. Solitamente, quando ci viene chiesto di immaginare qualcosa, ci vuole poco tempo per situare
qualcosa che sia sopra o sotto di noi, e ci vuole meno tempo per situare qualcosa davanti a noi di quanto
non ce ne voglia per situare qualcosa dietro di noi. Invece, situare qualcosa che sia alla nostra destra o alla
nostra sinistra è un’operazione relativamente lenta. Questi risultati possono essere dovuti al fatto che
normalmente immaginiamo di trovarci in posizione eretta in uno spazio che ha una dimensione verticale
(sopra-sotto) e due dimensioni orizzontali (davanti-dietro e destra-sinistra). Rispetto al nostro corpo, sopra-
sotto e davanti-dietro sono dimensioni asimmetriche.
Mappe cognitive e modelli mentali: Il termine modelli mentali è spesso usato per fare riferimento alle
nostre rappresentazioni di oggetti ed eventi. Gli individui posseggono modelli mentali per una vasta gamma
di situazioni e li usano per descrivere, spiegare e prevedere lo svolgimento futuro degli eventi. Gli individui
spesso possiedono modelli mentali che descrivono il funzionamento delle macchine, come l’aspirapolvere,
per esempio. I modelli spesso possiedono le proprietà di essere “non scientifici” e “superstiziosi” [Norman,
1983]. Ciò nonostante, essi costituiscono delle utili rappresentazioni del mondo. Una delle loro funzioni è
quella di consentire a colui che ne fa uso di scoprire analogia tra domini diversi.
Il condizionamento classico:
Le teorie comportamentiste definiscono l’apprendimento come la comparsa di un nuovo comportamento,
semplice o complesso che sia, cioè un comportamento che prima non esisteva, e che poi si mantiene nel
tempo. In base a questa definizione un comportamento occasionale, che si può manifestare ad esempio
quando un individuo è soggetto a condizioni temporanee e peculiari, non viene considerato indice di
avvenuto apprendimento. Inoltre, un comportamento che si manifesta solo grazie alla maturazione del
sistema nervoso non può essere definito come apprendimento perché questa definizione è riservata ai
nuovi comportamenti che si manifestano in risposta ad uno stimolo.
Secondo il comportamentismo classico le due condizioni principali perché si crei un’associazione tra stimolo
e risposta sono:
- la contiguità temporale tra le variabili in gioco;
- il fatto che la connessione tra le variabili venga ripetuta un numero di volte sufficiente.
In altri termini si crea apprendimento quando stimolo e risposta sono presentati in tempi ravvicinati per un
numero sufficiente di volte.
Che l’apprendimento associativo fosse governato da queste regole era già stato scoperto da Ivan Petrovic
Pavlov, studiando i processi digestivi del cane. Pavlov ne misurava la produzione salivare in risposta a vari
tipi di stimolazione gustativa. Egli aveva notato come in realtà l’animale iniziasse a salivare già prima di
ricevere un po’ di polvere di carne sulla lingua, anche alla semplice vista dello sperimentatore. Questo
fenomeno portò Pavlov a chiedersi se fosse la vista dello sperimentatore, oppure qualche altro fattore, a
indurre la salivazione. La procedura sperimentale di base adottata da Pavlov consisteva nello scegliere uno
stimolo neutro (SN), ad esempio uno stimolo sonoro (un campanello), e nel presentarlo con uno stimolo,
detto stimolo incondizionato (SI) che produce la salivazione in modo spontaneo (la polvere di carne). La
salivazione così indotta viene chiamata risposta incondizionata (RI). Poiché lo stimolo incondizionato
provocava la salivazione, scopo degli esperimenti era stabilire se, dopo un certo numero di ripetizioni dei
due stimoli accoppiati, l’animale iniziava a salivare anche con la sola presentazione dello stimolo neutro
(campanello). Pavlov scoprì che l’animale iniziava a salivare nel momento in cui compariva il suono. Il
fenomeno era dovuto, secondo Pavlov e colleghi, allo stabilirsi di un’associazione tra lo stimolo
Secondo alcuni studiosi, il condizionamento classico permette di spiegare certe forme di comportamento
che si osservano nell’uomo, ad esempio le manifestazioni emotive. Le emozioni verrebbero associate a
nuovi oggetti tramite il condizionamento (esempio: una canzone ascoltata durante un’esperienza
infelice...). è noto l’esperimento condotto da Watson con un bambino di nome Albert, il quale inizialmente
cercava di afferrare un topolino bianco senza mostrare alcuna paura. Quando però veniva spaventato
ripetutamente da un forte rumore mentre giocava col topolino (la coppia di stimolo topo-rumore veniva
ripetuta), Albert iniziava a manifestare paura alla vista del topo bianco, anche in assenza di rumore.
Un aspetto importante dei riflessi condizionati è il loro valore adattivo. Un esempio è il cosiddetto effetto
Garcia, cioè il processo attraverso cui un individuo acquisisce l’avversione per un dato sapore.
Nell’uomo si sono potuti condizionare solo alcuni rifletti, e su questa base operano alcune delle tecniche
messe a punto nell’ambito della psicoterapia comportamentale. Tuttavia non è possibile individuare per
ogni forma di apprendimento un riflesso innato che abbia una risposta simile a quella poi manifestata
nell’apprendimento. In questi casi è problematico attribuire la comparsa di quel comportamento ad un
processo di condizionamento classico.
Il condizionamento operante:
Una seconda prospettiva è quella basata sul condizionamento operante. Edward Lee Thorndike fu il primo
ad occuparsi di condizionamento operante e a proporne un principio esplicativo, la cosiddetta “legge
dell’effetto”. Essa afferma che lo stabilirsi e il rafforzarsi di legami associativi tra stimolo e risposta non
deriva semplicemente dalla loro continuità temporale, ma dagli effetti che seguono la risposta.
Esperimento di Thorndike col gatto in gabbia: mentre era chiuso in gabbia l’animale metteva in atto tutta
una serie di comportamenti, tra i quali casualmente anche quello che permetteva l’apertura della porta
oltre la quale si trovava il cibo. Thorndike aveva osservato che dopo la prima volta in cui era riuscito ad
uscirne, il gatto apriva la gabbia con sempre maggiore frequenza e rapidità. Questo comportamento
avveniva per due principi:
- l’apprendimento avveniva per prove ed errori;
- la legge dell’effetto: un comportamento viene appreso e si stabilizza solo se la risposta produce un certo
effetto sull’ambiente e sull’individuo.
Perché un comportamento venga consolidato, il rinforzo deve sempre seguire il comportamento? Un po’
per caso Skinner aveva studiato diverse di modalità di accoppiamento comportamento-rinforzo, scoprendo
che un rinforzo continuo, come quello che si determinava quando il cibo veniva erogato ogni volta che il
ratto premeva la leva, aveva come conseguenza una grande rapidità nell’apprendimento, ma anche una
rapida estinzione del comportamento appreso. In altri termini, quando l’agire sulla leva non dava più cibo,
l’animale smetteva progressivamente di premere la leva. Una modalità di rinforzo più efficace per
mantenere un comportamento appreso è il cosiddetto rinforzo parziale, come quello che si determina nei
casi in cui non viene sempre fornito cibo all’animale che agisce sulla leva. Inoltre il rinforzo può essere
fornito ad intervalli fissi o variabili. Tale distinzione si riferisce alla distribuzione dei rinforzi nel tempo. Ad
esempio se l’animale riceve cibo (rinforzo) ogni tre minuti esatti, si tratta di un piano di rinforzo ad intervalli
fissi.
Una seconda distinzione rilevante riguarda il numero di risposte fornite dall’animale. In un piano di rinforzo
Alcuni cenni storici: Tutte le proposte che si sono sviluppate nell’ambito del comportamentismo classico
si basano sul principio associazionista, ossia sulla convinzione che si possa parlare di apprendimento solo
nel caso in cui si osservi la comparsa di un comportamento in risposta alla presentazione di uno stimolo. Il
principio associazionista riguarda anche i modelli dell’apprendimento operante. Tuttavia, va ricordato che
Skinner, il principale esponenti di questo filone di ricerca, si considerava completamente ateorico e
sosteneva che i dati empirici disponibili non permettevano di sviluppare una teoria soddisfacente
sull’apprendimento.
Il neurone: Un neurone formale è un semplice modello matematico che astrae gli aspetti fondamentali del
funzionamento neuronale. Un neurone è caratterizzato da uno stato di attivazione, che varia in funzione
delle attivazioni dei neuroni dai quali riceve (input) e che verrà a sua volta propagato ad altri neuroni che si
trovano a valle (output). L’attivazione di un neurone formale è semplicemente un numero reale, di solito
compreso tra 0 e 1 oppure tra -1 e 1 (in quest’ultimo caso il valore negativo significa che il neurone si trova
in uno stato di inibizione). Il calcolo dello stato di attivazione si realizza attraverso un processo a due stadi: il
primo prevede semplicemente la sommazione di tutte le attività provenienti dalle altre unità (neuroni)
collegate, cioè il calcolo dell’input totale, mentre il secondo prevede il calcolo dello stato di attivazione
finale del neurone attraverso una funzione di output. Quest’ultima può essere semplicemente una funzione
a soglia, in cui il neurone sarà attivo solo se l’input totale supera un certo valore di soglia, oppure una più
complessa funzione che simula meglio le proprietà di neuroni biologici. La funzione più utilizzata è la
sigmoide, una finzione non-lineare caratterizzata da una forma a S.
L’architettura: Definire le caratteristiche delle unità di elaborazione non è sufficiente per costruire una rete
neurale. Il passo successivo è di stabilire l’architettura della rete, cioè uno schema di connettività.
L’architettura di una rete identifica da due aspetti:
- Gruppi o strati di neuroni diversi tra di loro;
- Il modo in cui i neuroni sono connessi tra di loro (schema di connettività);
Strati:
All’interno della rete è di solito possibile distinguere tra gruppi di neuroni diversi, organizzati in strati:
Schemi di connettività:
- Rete feed-forward: sono reti dove vi sono solo connessioni unidirezionali dalle unità di input alle unità
nascoste e da queste alle unità di output; sono reti che possono essere usate per la simulazione di alcuni
compiti ma non sono molto realistiche per la simulazione dei compiti cognitivi che devono essere
simulazioni bidirezionali;
- Rete ricorrente: vi sono connessioni bidirezionali dove l’attivazione può fluire anche all’indietro,
dall’output verso l’input;
- Reti ricorrenti con connessioni laterali e anche bidirezionali.
Per dare un’idea più precisa di come funziona l’apprendimento prenderemo in considerazione il tipo più
semplice di rete neurale, un’associazione tra configurazioni. Questo è costituito da uno strato di unità di
input e da uno strato di unità di output, collegati solo attraverso connessioni unidirezionali; ogni unità di
Due sistemi complementari di apprendimento e memoria: Un importante vincolo che ci viene fornito dagli
studi sulla memoria umana riguarda il modo in cui l’apprendimento di materiale nuovo interferisce con
quanto già appreso. Un classico esempio di questo tipo di interferenza si trova nel compito di
apprendimento associativo AB – AC. La lettera A rappresenta un insieme di parole associate con due
diversi insiemi di altre parole, B e C. Ad esempio, la parola “cane” sarà associata con la parola “sole” nella
lista AB e con la parola “treno” nella lista AC. È possibile fare questo esperimento utilizzando come soggetto
una rete neurale. Tutto procede bene nell’apprendimento della lista AB, quando si passa però
all’apprendimento di AC si osserva che la prestazione della rete è molto diversa da quella dei soggetti
umani. L’interferenza è molto più grande per la rete, addirittura “catastrofica” nel senso che la prestazione
sulla lista AB dopo l’apprendimento di AC si avvicina a zero. Vari studi hanno messo in luce le cause di
questo fenomeno, dimostrando che due fattori influiscono sull’interferenza nell’apprendimento associativo
in una rete neurale: il grado di sovrapposizione delle rappresentazioni, e il tasso di apprendimento (ovvero
la rapidità d’apprendimento). Si parla di rappresentazioni sovrapposte quando alcune unità della rete sono
condivise da rappresentazioni di stimoli diversi. Si parla di tasso di apprendimento invece in riferimento a
quanto grandi possono essere i cambiamenti dei pesi delle connessioni durante l’apprendimento.
Prima di discutere la soluzione del problema dell’interferenza, è utile considerare brevemente il suo
opposto, l’integrazione. Integrare molte esperienze significa estrarre le regolarità presenti nell’ambiente.
Questo processo è alla base della nostra capacità di generalizzare (ad esempio, categorizzare in modo
Critiche all’approccio classico: Nei tardi anni Sessanta e all’inizio degli anni Settanta molti psicologi
iniziarono ad avere seri dubbi a proposito delle ricerche sulla formazione dei concetti condotte per mezzo
del metodo precedentemente descritto. È possibile, infatti, che i concetti usati nel mondo reale siano più
complessi dei concetti studiati per mezzo della metodologia di Bruner. La prima soluzione potrebbe essere
quella di continuare a studiare i concetti artificiali, dato che essi consentono un maggior controllo
sperimentale, rendendo però questi concetti maggiormente simili ai concetti che normalmente vengono
usati nel mondo reale.
La dimensione orizzontale e la dimensione verticale: Secondo Rosch, a causa di questi principi, i concetti
finiscono per essere organizzati all’interno di un sistema caratterizzato da dimensioni verticali e orizzontali:
- dimensione verticale: questo tipo di organizzazione è formato da tre livelli:
- sovraordinato (es. mobile)
- base (tavolo)
- subordinato (tavolo da cucina)
È interessante che Rosch ha scoperto che i bambini sono in grado di usare in maniera accurata le categorie
a livello base prima delle categorie a livello sovraordinato. Parole come “sedia”, per esempio, vengono
acquisite prima di parole come “mobili”.
Rosch ha spesso osservato che ciò che costituisce il livello base dipende dal grado di sofisticazione della
persona. Il pianoforte, per esempio, rappresenta un oggetto base per la maggior parte delle persone. Ma
che dire dei musicisti? Forse nel loro caso vi è una maggiore differenziazione fra gli strumenti musicali
cosicché ciò che si trova a livello subordinato per un non musicista potrebbe trovarsi a livello base per un
musicista. Tanto più grande è l’esperienza con una particolare classe di oggetti, tanto di più gli individui si
rendono conto delle azioni che quegli oggetti rendono possibili;
La linea numerica mentale: Gli studi sulla rappresentazione mentale dei numeri naturali ci rivelano che la
grandezza numerica è rappresentata in modo analogico e visuo-spaziale piuttosto che in modo simbolico-
linguistico. Nel 1880 Francis Galton chiese a persone normali di descrivergli come pensavano ai numeri.
Molti riferirono di avere delle rappresentazioni visuo-spaziali dei numeri, a volte caratterizzate da colori
specifici. In particolare, era frequente il riferimento ad una linea nella quale i numeri comparivano in un
formato continuo ed analogico. Questa divenne nota come linea numerica mentale. Fra coloro che
riferiscono esplicitamente l’uso di rappresentazioni visuo-spaziali dei numeri ci sono matematici famosi
come Einstein. È interessante notare che la maggior parte delle persone riferiscono di una linea orientata
da sinistra verso destra, con i numeri piccoli all’estrema sinistra. A dimostrazione dell’orientamento
spaziale della linea numerica mentale, abbiamo anche ad esempio l’effetto SNARC (Spatial-Numerical
Association of Response Codes) o ancora lo studio sui pazienti affetti da neglect (negligenza spaziale
unilaterale).
Effetto SNARC: SNARC è un acronimo che sta per “codice di risposta di associazione spaziale-numerica”.
Supponiamo che sulla linea numerica mentale numerica i numeri più piccoli siano rappresentati a sinistra e
i più grandi a destra. Cosa succede se dobbiamo giudicare quale dei due numeri sia più grande o pari e
dispari usando l’una o l’altra mano? Le risposte sono più rapide quando stimolo e risposta si trovano sullo
stesso lato del corpo rispetto a quando sono sui lati opposti. Dunque, anche l’effetto SNARC è compatibile
con l’ipotesi della linea numerica mentale e della rappresentazione anche analogica dei numeri e non solo
simbolica. In conclusione, vi sono dei dati che sono stati rilevati da alcuni esperimenti e fanno propendere
per una rappresentazione dei numeri di tipo analogico che è simile a quella che abbiamo per le grandezze
fisiche.
Il confronto di grandezze numeriche: La capacità di scegliere il più grande tra due numeri è
apparentemente uno dei compiti numerici più semplici, tuttavia è considerata il criterio base per stabilire se
un individuo comprende il significato dei numeri. Infatti, i pazienti con lesioni cerebrali che hanno difficoltà
a risolvere questo semplice compito sono anche profondamente acalculici, cioè falliscono in una vasta
gamma di compiti numerici, che includono l’abilità di eseguire semplici calcoli come 3-2=1.
Il confronto di grandezza numerica può essere eseguito utilizzando come stimoli i numeri arabi, le parole-
La matematica mentale:
Quasi ogni giorno ci capita di dover eseguire calcoli “a mente”. L’esecuzione di operazioni aritmetiche a
mente ci è così familiare che è utile soffermarsi su alcuni aspetti importanti della struttura dell’aritmetica
semplice. Primo, tutti i fatti aritmetici hanno una relazione ben definita tra loro. Ad esempio, se 5+3=8
allora 3+5=8. Queste relazioni sono descritte da semplici leggi. Secondo, gli elementi sono ordinati per
grandezza cardinale: quindi, non solo (5+1)+3=8+1, ma anche 5+1>5 e 8+1>8. Questi aspetti conferiscono
all’aritmetica una caratteristica unica: le conoscenze possono essere recuperate dalla memoria o possono
essere computate utilizzando delle procedure.
L’effetto della grandezza del problema: Le ricerche sul calcolo mentale hanno portato alla conclusione che
gli adulti utilizzano in combinazione il recupero di fatti aritmetici dalla memoria, le procedure
(trasformazione in un altro problema), e perfino il conteggio. Più controversa è la descrizione dei processi
psicologici coinvolti, in particolare per quanto riguarda l’organizzazione della memoria per i fatti aritmetici.
È evidente che le procedure vengono utilizzate quando il recupero fallisce, ma cosa determina la relativa
facilità o difficoltà di un’operazione mentale? Tutte le ricerche sull’argomento concordano che il maggior
determinante delle risposte ottenute è la grandezza del problema. Una misura operativa della grandezza
del problema è data dalla somma dei suoi operandi. Quindi, 4+6 è più “grande” di 3+5, perché le rispettive
somme sono 10 e 8. Sia i tempi di risposta che la probabilità di commettere errori aumentano in modo
proporzionale alla grandezza del problema. Questo fenomeno ha però due eccezioni:
- problemi che hanno due operandi uguali, ad esempio 3+3 o 5x5;
- problemi che hanno 0 come operando, ad esempio 3+0=3 o 4x0=0.
Il formato dei fatti aritmetici: Una questione particolarmente controversa è quella che riguarda il formato
in cui i fatti aritmetici, ed in particolare delle tabelline, non sarebbe diverso dall’imparare una poesia a
memoria. Eseguire una moltiplicazione come 3x8=24 non richiederebbe quindi abilità matematiche:
sarebbe sufficiente un processo mentale di recupero della memoria a lungo termine. In questa prospettiva,
l’effetto della grandezza del problema si spiega con il fatto che i problemi “grandi” sono meno frequenti dei
problemi piccoli”.
Secondo un’ipotesi opposta, i fatti aritmetici sono rappresentanti sulla base del principio che è unico per i
numeri – la cardinalità degli operandi; in altre parole, il recupero della memoria sarebbe basato su
rappresentazioni della quantità numerica (la linea numerica mentale) piuttosto che su semplici associazioni
verbali. In questo caso, l’effetto della grandezza del problema dipenderebbe proprio dall’organizzazione
intrinseca dei fatti aritmetici nella memoria.
Il cervello e la matematica:
Esiste un’area del cervello dedicata alla matematica? Gli studi su pazienti che, in seguito a un danno
cerebrale, soffrivano di acalculia, cioè presentavano una difficoltà specifica nell’esecuzione di calcoli e
nell’elaborazione di quantità numeriche, avevano fatto sospettare che il lobo parietale avesse un ruolo
specifico in questa abilità. Questa ipotesi è stata confermata da recenti studi di neuroimmagine funzionale.
infatti, il solco intraparietale e la porzione superiore del lobulo parietale posteriore si attivano
selettivamente in tutti i compiti che richiedono la manipolazione di quantità, indipendentemente dal tipo di
notazione usata, e in particolare si attivano durante l’esecuzione di tutte quelle operazioni aritmetiche che
richiedono l’accesso a rappresentazioni numeriche di quantità e nel confronto di grandezza fra numeri.
Calcolatori eccezionali: È necessario avere un cervello “speciale” per essere eccezionali nel calcolo e nella
matematica? Si può trovare una risposta a questa domanda negli studi sulle persone considerate
“calcolatori prodigio”. A volte questi individui sono dei grandi matematici, ma in altri casi possono essere
degli idiots savants, individui con un’intelligenza molto inferiore alla norma che sono però in grado, ad
esempio, di riconoscere in pochi secondi se un numero di cinque cifre è un numero primo, moltiplicare
mentalmente numeri a tre cifre, o recitare il valore di pi-greco fino al centesimo decimale. In realtà, va
ricordato che sia i grandi matematici sia i savants passano la maggior parte del loro tempo a fare
matematica o a “giocare” con i numeri e a risolvere problemi. Sembra quindi che queste capacità
apparentemente sovrumane dipendano principalmente dalla grande quantità di pratica. Ricordare questo
non significa ignorare le basi biologiche, e persino quelle genetiche, delle nostre abilità numeriche: alcune
persone soffrono infatti di discalculia evolutiva, una difficoltà specifica con i numeri che si manifesta nei
primi anni di scuola. Difficoltà di questo tipo sembrano proprio dipendere da anomalie genetiche che si
riflettono sullo sviluppo del cervello. Tuttavia, anche considerando solo gli individui normali, i test di
matematica dimostrano che c’è una grande variabilità di prestazioni tra il miglior individuo ed il peggiore.
Questo può dipendere da fattori motivazionali ed emotivo (ad esempio, l’ansia da esami), ma il confronto
tra paesi diversi dimostra che molta della variabilità può essere attribuita alla cultura ed al sistema
educativo.
Struttura: Fonema (o suono), come /a/ o /p/. Nessuna lingua possiede l’intero repertorio di suoni
Morfema: l’unità linguistica più piccola dotata di significato. Stringhe di fonemi formano morfemi.
Es: “tavol-”
Parola = radice di parole di significato come “tavol-” + suffissi come “o”, oppure morfemi liberi
come “caffè” formano le parole
Sintagma = parole si combinano assieme in gruppi più grandi (es: “Il tavolo”) e formano sintagmi
In una lingua, sono le regole della sintassi quelle che determinano il modo in cui le parole devono
combinarsi ed è sulla base della nostra conoscenza di queste regole che siamo in grado di valutare la
correttezza di un’espressione. Le varie lingue differiscono in più fattori, ma tutte hanno una propria sintassi.
Perché si ritiene che la capacità di usare la lingua sia ciò che ci contraddistingue dalle altre specie? Per
Chomsky, l’unicità delle lingue umane sta nella sintassi. Tutti i sistemi di comunicazione hanno segni dotati
di significato, ma le lingue possiedono la sintassi che fa sì che i simboli semplici (parole), si compongano per
produrre significati più complessi. È nella sintassi che risiede la creatività delle lingue.
Una caratteristica di tutte le lingue è avere una struttura gerarchica: noi produciamo sì suoni che formano
una sequenza lineare, ma i “pezzi” della frase che vanno assieme non sono necessariamente quelli che
stanno vicini.
La conoscenza della sintassi è implicita, nel senso che una persona di norma non è in grado di descrivere o
rendere esplicite le regole linguistiche che usa.
Lessemi (libro prof): “Anno nuovo, vita nuova”. In questa frase abbiamo in teoria quattro parole. Ma si
può anche dire che nella frase ci sono tre parole: ANNO, VITA, NUOVO. Questa frase contiene perciò
quattro occorrenze di tre lessemi, ovvero tre elementi del lessico della lingua italiana. Le diverse forme di
lessemi VITA, ANNO, NUOVO sono forme flesse di questi lessemi, ossia forme che portano il significato
lessicale del lessema unito ad alcuni significati grammaticali, quali numero e genere.
Esempi:
- “notte”: Morfema lessicale “nott” + “e” morfema grammaticale flessivo
- “barista”: Morfema lessicale “bar” + morfema grammaticale derivazionale “ist” + morfema
grammaticale flessivo “a”
- “portacenere”: Due morfemi lessicali, che rappresentano il verbo PORTARE e il nome CENERE.
“Barista” è una parola derivata, mentre “portacenere” è una parola composta. Si noti che queste ultime
due entità andrebbero denominate, più correttamente, lessema derivato e lessema composto.
Regole di formazione dei lessemi: Una regola di formazione di lessemi (RFL) permette di derivare un nuovo
lessema a partire da un lessema già esistente (o da due, nel caso della formazione di lessemi composti),
attraverso un’operazione che ha effetti sintattici, semantici e fonologici. Ogni RFL specifica una classe di
lessemi cui la regola può applicarsi, detti basi della regola, e un’uscita, cioè il tipo di lessema risultante
dall’applicazione della regola a una base.
Le RFL sono soggette a restrizioni: non ogni affisso può unirsi a ogni base, come prova il giudizio di non
grammaticalità che parlanti dell’italiano danno di fronte a parole come “bevista”, “moritore”,
“danneggiazione”, “sutile”.
Forme flesse dei lessemi: Le forme flesse di un lessema si formano per esprimere una serie di valori di
determinate categorie grammaticali che la grammatica di una lingua richiede che siano obbligatoriamente
espressi. Ogni lingua ha una sua grammatica che rende obbligatoria l’espressione di determinate categorie
grammaticali da parte dei lessemi che appartengono a determinate classi di parole.
Competenza ed esecuzione: Che cosa significa avere una buona conoscenza di una lingua? Secondo
Chomsky, questo significa interiorizzare una serie di regole che mettono in relazione suoni e significati.
Questo sistema di regole internalizzate costituisce una competenza linguistica di base per mezzo della quale
un individuo è in grado di comprendere e usare il linguaggio. La competenza linguistica non è sempre
riflessa nell’uso che viene effettivamente fatto della lingua. L’esecuzione linguistica, infatti, non è
determinata soltanto dalla competenza linguistica di base ma, secondo Chomsky, anche da fattori cognitivi
come, per esempio, la memoria e la comprensione che un individuo possiede della situazione in cui si trova.
Struttura profonda e struttura superficiale: Secondo Chomsky, la struttura della competenza linguistica è in
larga parte innata. Questa struttura innata è chiamata grammatica universale. Una parte della grammatica
universale è la sintassi universale, che ci fornisce le regole per mezzo delle quali i significati possono essere
trasformati in parole. Il significato è collocato al livello della struttura profonda, mentre le parole sono
situate al livello della struttura superficiale. La distinzione tra struttura profonda e struttura superficiale ci
consente di spiegare molti fenomeni linguistici, tra cui il fenomeno delle frasi ambigue.
Comprensione della frase = struttura superficiale -> struttura profonda
Produzione della frase = struttura profonda -> struttura superficiale
L’ipotesi innatista:
Come abbiamo notato, Chomsky credeva che la competenza linguistica fosse largamente innata.
I tipici enunciati degli adulti contengono molti errori e rappresentano un campione incompleto della lingua;
per questo motivo essi non forniscono al bambino le informazioni necessarie per generare una grammatica
della lingua. Questo punto di vista è chiamato argomento della povertà dello stimolo.
Si ritiene che i bambini posseggano un dispositivo per l’acquisizione del linguaggio (Language Acquisition
Device, LAD). Le conoscenze contenute nel LAD riguardano, per esempio, il fatto che nella lingua ci siano
entità come i sintagmi nominali e i sintagmi verbali e relazioni come quelle di soggetto e predicato:
L’ipotesi innatista di Chomsky è stata ampiamente criticata negli anni Settanta, notando il fatto che i dati
linguistici cui i bambini sono esposti sono spesso molto chiari. Nel rivolgersi ai bambini, infatti, gli adulti
solitamente usano frasi più semplici di quelle usate con interlocutori adulti. Questo significa che i bambini
ricevono proprio quel tipo di input linguistico di cui hanno bisogno per sviluppare una comprensione della
lingua.
Principi e parametri: Ogni teoria scientifica subisce modifiche con il passare del tempo e la teoria di
Chomsky non fa eccezione. Una proprietà cruciale dell’attuale versione della teoria, che va sotto il nome di
approccio principi e parametri, è l’ipotesi che l’acquisizione del linguaggio avvenga attraverso una
specificazione di parametri. Secondo Chomsky, la grammatica universale contiene una serie di interruttori
di controllo (switches) che possono assumere differenti valori, o parametri. Un parametro è un aspetto
universale del linguaggio che può assumere un determinato valore di una limitata serie di alternative.
La parola:
La comprensione di parti interne alla parola: Riconoscere le parole che sentiamo o leggiamo, e
recuperarne il significato, sono operazioni di base della comprensione
“Verba volant, scripta manent”: La percezione del parlato è diversa, e più difficile, di quella delle parole
scritte per una varietà di ragioni:
- le condizioni di rumore ambientale in cui parliamo e sentiamo parlare;
- il parlato è distribuito nel tempo mentre la scrittura lo è nello spazio;
- chi legge può determinare da sé la durata del processo di lettura, tornando indietro per rileggere. Mentre
il lettore può decidere la quantità di informazioni da acquisire per unità di tempo, il destinatario deve
elaborare il linguaggio alla velocità decisa dal parlante;
- il processo di segmentazione del parlato è più difficile dell’isolare le lettere in una parola scritta, o
determinare i confini fra le parole e le frasi.
Come riconosciamo una parola mentre la sentiamo? Il parlato si snoda come un nastro di suono complessi
e coordinati che sta a noi segmentare assegnando un ruolo e un significato a ciò che arriva al nostro
apparato percettivo. Mentre sentiamo una parola viene mentalmente costruito un insieme di possibili
candidati al riconoscimento, una coorte, comprendente le unità che condividono la parte iniziale della
parola (grossomodo la prima sillaba). In breve, il processo di comprensione procede secondo tre fasi:
l’accesso, in cui la rappresentazione linguistica è usata per attivare la coorte,
cui segue la selezione
e infine l’integrazione in cui le proprietà sintattiche e semantiche della parola sono integrate nella
rappresentazione complessiva della frase. Il contesto interviene nella fase di selezione e integrazione.
Come riconosciamo una parola mentre la leggiamo? Una parola scritta ha una struttura interna complessa.
Anzitutto vi sono i tratti che compongono le lettere dell’alfabeto, cioè la combinazione di linee verticali,
orizzontali, oblique, di curve aperte e chiuse, di intersezioni e così via: le persone sono generalmente più
abili e veloci nel cercare visivamente una lettera quando compare in un insieme di lettere con cui ha in
comune pochi tratti. Ma per riconoscere le parole scritte non basta combinare le lettere che la formano.
Il rapporto fra riconoscimento delle lettere e della parola è illustrato dal cosiddetto effetto di superiorità
della parola. Tale effetto si tiene presentando per pochi ms su uno schermo una lettera (k) o una parola
(WORK) oppure una stringa prima di significato, cioè una non-parola (OWRK). Dopo la presentazione di una
configurazione visiva interferente (ad esempio, ####), appaiono sullo schermo due lettere (D e K) e i
partecipanti devono scegliere quella presente nello stimolo iniziale (la K, ovviamente). I risultati dimostrano
che la scelta è più accurata quando le lettere sono precedute da una parola piuttosto che dalla lettera
stessa (o dalla non-parola). Ciò significa che una parola che contiene una data lettera ne facilità il
riconoscimento più della lettera stessa: una volta che la parola è stata riconosciuta anche il riconoscimento
della lettera risulta facilitato.
Dall’ortografia alla pronuncia e ritorno: La capacità di comprendere una parola scritta è influenzata dal
tipo di scrittura, dai metodi di apprendimento e dalle caratteristiche dei sistemi ortografici che
caratterizzano le diverse lingue. Decidere se il riconoscimento di una parola sia diretto (cioè si passi
dall’ortografia al suono) o mediato fonologicamente (secondo una sequenza del tipo ortografia-fonologia-
suono) ha prodotto controversie infinite, anche per le implicazioni sui metodi di insegnamento della lettura.
La posizione di oggi prevalente è che l’informazione fonologica sia rapidamente attivata anche nel corso
della lettura silente.
La frase e il testo:
Dalla comprensione di una parola a quella di un discorso o di un testo: Assai raramente dobbiamo capire
parole presentate isolatamente e non in frasi o discorsi. Indubbiamente la comprensione di un discorso,
benché utilizzi le parole come elementi di base, non si limita a concatenarne la sintassi o la semantica.
Inoltre, le intenzioni di chi parla, il registro linguistico scelto e gli effetti che si vuole ottenere, nonché la
comunicazione verbale che modula la frase, incorniciamo le frasi definendone il contenuto reale.
La comprensione del linguaggio deve quindi integrare, rapidamente e in modo ottimale, fonti di
informazione sintattiche, semantiche e pragmatiche. Ci sono due grandi ipotesi circa le relazioni esistenti
tra queste fonti: una basata su un principio di interattività e una sulla indipendenza o modularità sulla
nozione di modulo. Secondo l’ipotesi interattiva, le informazioni interagiscono fra loro ad ogni livello di
elaborazione. Secondo l’ipotesi modulare, i diversi sottosistemi (sintattico, semantico ecc.) sono
indipendenti e specializzati nell’elaborazione di un solo tipo di informazione.
Il ruolo della struttura sintattica di una frase: Talvolta può essere difficile interpretare una frase in modo
univoco a causa della struttura sintattica. “Giorgio ha detto che ha telefonato a tua madre ieri”. “ieri” può
essere riferito tanto al momento in cui è stata fatta l’affermazione (“ha detto ieri”) quanto a quello in cui è
stata effettuata l’azione (“ha telefonato ieri”). Il principio di elaborazione generalmente preferito in italiano
si basa sulla scelta della soluzione più semplice in termini di complessità di elaborazione.
Ma non sempre l’interpretazione iniziale è confermata. Ad esempio, in genere si attribuisce il ruolo di
soggetto grammaticale al primo nome menzionato in una frase. “Nessuno conosceva il ragazzo con la
strana fidanzata che sedeva in cucina” Chi sedeva in cucina, il ragazzo o la fidanzata? Le persone di solito
rispondono “la strana fidanzata”, cioè interpretano la parte ambigua sulla base della distanza fra questa e i
possibili antecedenti e scelgono quello più vicino (“principio di “località”)
Che ruolo hanno la struttura semantica e l’interpretazione pragmatica della frase? ///
Cosa determina la complessità di un discorso o di un testo? A rendere una frase o un testo difficili da
capire possono contribuire vari fattori: le caratteristiche delle parole che lo formano; la complessità della
struttura sintattica delle frasi e di quella semantica; la competenza di chi legge o le conoscenze richieste dal
testo. Anche l’ordine in cui vengono presentate le conoscenze può giocare un ruolo importante.
Dire, inferire e lasciare intendere: Le inferenze rappresentano una delle modalità attraverso cui integriamo
l’informazione linguistica con quella concettuale e contestuale:
- implicazioni logiche, che dipendono dal significato delle parole (ad esempio, “nubile” implica “donna non
sposata”);
- inferenze retrospettive, che connettono nuove informazioni alle precedenti e sono necessarie per
comprendere un testo;
Anafora: Figura retorica che consiste nella ripetizione, in principio di verso o di proposizione, della parola o
espressione con cui ha inizio il verso o la proposizione principale: Non s'accorge il meschin che quivi è
Amore, Non s'accorge che Amor lì drento è armato (Poliziano); è lui che ha fatto il danno, è lui che deve
pagare
Ironia: L’ ironia appartiene ad un insieme di concetti tra i quali troviamo la satira e il sarcasmo. Un
commento satirico mette in ridicolo il suo oggetto. L’ironia e il sarcasmo sono gli strumenti per mezzo dei
quali il fine della satira può essere realizzato. Il sarcasmo è definito dall’Oxford English Dictionary come
“un’osservazione acuta, amara o tagliente”. Lo stesso dizionario definisce l’ironia come “una figura retorica
in cui ciò che si vuole dire è esattamente l’opposto di ciò che è espresso dalle parole usate”. Se il contesto e
il tono di voce sono appropriati, riuscirete a comunicare perfettamente quello che provate nei confronti di
una persona. Secondo Clark e Gerrig, quelle che seguono sono le tre principali caratteristiche dell’ironia:
- asimmetria dell’affetto: colui che fa dell’ironia solitamente si esprime positivamente nei confronti di
qualcosa che invece viene valutata negativamente;
- vittimismo immaginario: quando gli individui si esprimono in maniera ironica, essi fingono, allo stesso
tempo, di essere delle persone ignoranti e di rivolgersi ad altre persone ignoranti. Queste persone possono
essere delle vittime immaginarie;
- tono della voce: questa particolare caratteristica è difficile da esprimere con chiarezza…
È possibile che gli interlocutori condividano una quantità sufficiente di conoscenze comuni da essere in
grado di comprendere il significato ironico più o meno direttamente.
Teoria del promemoria ecoico: gli ascoltatori comprendono gli enunciati ironici riconoscendone il carattere
ecoico, ovvero riconoscendo il fatto che l’enunciato in questione allude a pensieri, opinioni, parole o
comportamenti di una persona diversa da colui che parla.
Se l’ironista descrive l’opposto di quello che è effettivamente accaduto il racconto si dice controfattuale.
Metafora: Sostituzione di un termine proprio con uno figurato, in seguito a una trasposizione simbolica di
immagini: le spighe ondeggiano (come se fossero un mare); il mare mugola (come se fosse un essere
vivente); il re della foresta (come se il leone fosse un uomo).
La struttura fondamentale:
Gli studi della produzione di una frase sono fondamentalmente tre: concettualizzazione del messaggio,
formulazione o pianificazione e articolazione.
- concettualizzazione: non è legata alla specifica lingua del parlante. È il momento in cui una persona
concepisce l’intenzione di parlare e decide cosa vuol dire, scegliendo quale parte della sua comunicazione è
rilevante;
- formulazione: il messaggio prende forma linguistica. Il parlante sceglie le parole da usare e la struttura
sintattica della frase. Sempre in questa fase, si specifica il suono della frase;
- articolazione: si recuperano i fari “pezzi” e vengono emessi, nell’ordine appropriato, i suoni che
compongono la frase.
Esitazioni ed errori:
Un attore che recita o un conferenziere che legge il testo della sua presentazione sono immediatamente
identificabili da un ascoltatore rispetto a una persona che parla spontaneamente. Il discorso spontaneo non
è altrettanto fluido e scorrevole di un discorso recitato. Si parla infatti di esitazioni ed errori:
- esitazioni: esistono due tipi di esitazioni: quelle vuote che si realizzano restando brevemente in silenzio e
quelle piene o riempite, in cui la momentanea esitazione è “nascosta” dalla ripetizione di materiale verbale
già disponibile;
- errori: sono vere e proprie deviazioni, che noi notiamo solo molto raramente, per lo più quando
producono situazioni buffe o imbarazzanti. Esistono molti tipi di errori. Tra i più comuni sono gli scambi (ad
esempio, “ho visto la barca di Piero” -> “ho visto la parca di Biero), le anticipazioni (ad esempio, “ho visto la
barca di Piero” -> ho visto la parca di Piero) , le sostituzioni (ad esempio, “ho visto la barca di Piero” -> ho
visto la moto di Piero), i malapropismi (ad esempio, “ho visto la barca di Piero” -> ho visto la marca di
Piero).
La conversazione:
I meccanismi che abbiamo discusso finora sono indispensabili per poter svolgere questa attività, ma non
sono sufficienti a far sì che noi la usiamo in maniera socialmente competente. Perché una conversazione si
svolga con successo è necessario che i partecipanti tengano conto del contesto nel quale si trovano e si
attengano a principi condivisi che regolano la loro attività linguistica. In genere, anche se non
consapevolmente, siamo assai abili nell’uso dei principi sociali che regolano le conversazioni e, nonostante
si tratti di regole complesse, esse per la maggior parte vengono acquisite dai bambini prestissimo.
Si è già accennato che, normalmente, chi partecipa a una conversazione utilizza il cosiddetto principio di
cooperazione, secondo il quale una conversazione è un’impresa collaborativa e si realizza attraverso
l’utilizzo di una serie di massime come, ad esempio, “dai contributi che siano informativi quanto necessario,
ma non di più”.
Capita sovente di violare una o più massime convenzionali; abbiamo tutti esperienza, ad esempio, di
persone le cui conversazioni non hanno né capo né coda. Ogni tano queste violazioni hanno luogo per
l’incompetenza di uno degli interlocutori. Più di frequente, però, si tratta di violazioni volontarie dettate da
motivazioni più o meno innocenti, come divertire o ingannare.
Un aspetto importante nella conversazione è la presa dei turni. Perché la conversazione possa procedere è
necessario che le persone non parlino tutte assieme, il che di norma avviene grazie al fatto che i
partecipanti, senza rendersene conto, si attengono a una complessa procedura di presa di turno che si basa
su tre regole fondamentali:
- chi parla ha diritto di scegliere chi parlerà dopo di lui e spesso esercito questo diritto rivolgendosi
direttamente alla persona scelta;
- se chi parla non sceglie, allora parla chi vuole;
- chi parla può continuare, ma non è obbligatorio farlo.
Queste semplici regole vengono messe in pratica attraverso un’ampia gamma di segnali, anche poco vistosi,
come il breve allungamento delle ultime sillabe pronunciate da chi parla quando vuole passare il turno.
Un aspetto della comunicazione che ha attirato l’attenzione dei ricercatori riguarda le procedure di
apertura e chiusura di una conversazione. Le prime possono essere schematizzate come una sequenza di
chiamate e risposte. Le chiamate hanno lo scopo di richiamare l’attenzione dell’interlocutore da parte di chi
decide di aprire la conversazione. A questo punto, chi ha fatto la chiamata deve introdurre il tema della
conversazione, giustificando così la richiesta di attenzione. Non mi va più di scrivere…
Quindi questo modello si occupa sia del versante lessicale che di quello sintattico del processo di
produzione del linguaggio.
Uno dei problemi di questo modello è la sua caratteristica di rigida sequenzialità che è contraddetta da dati
empirici che dimostrano che nel parlato continuo le tre fasi si sovrappongono, le frasi vengono pianificate a
cascata e materiali diversi (della stessa frase o di frasi diverse) si trovano a diversi stadi di elaborazione.
Quindi il modo in cui produciamo le frasi non è rigido perché mentre stiamo producendo una frase stiamo
anche pianificando alla frase successiva; questo è evidenziato da alcuni errori sono di anticipazione, dove
viene detto in un momento precedente qualcosa che doveva essere detto in un momento successivo.
Momentanee mancanze di sincronizzazione possono portare a:
- esitazioni
- errori
Gli errori e le esitazioni sono un indizio che ci fanno fare inferenze su come si svolgono i processi normali
del parlato.
Abbiamo visto che nella fase di formulazione il parlante sceglie la struttura sintattica della frase e le parole,
Levelt si sofferma di più sul processo di scelta di parole o lessicalizzazione, è il processo tramite il quale una
rappresentazione semantica è convertita passo dopo passo nei suoni corrispondenti.
Il principale paradigma che è stato usato è quello dell’interferenza figura-parola: è un paradigma che
sfrutta i meccanismi classici di interferenza. Vengono presentati degli stimoli in concomitanza con altri
stimoli e in questo paradigma in particolare vengono presentate delle figure. Il compito del soggetto è
quello di denominare la figura ma contemporaneamente o prima o dopo alla figura viene presentata anche
la parola che può essere legata alla figura. La presentazione della parola determina degli effetti di
interferenza o di facilitazione sulla denominazione della figura.
Il paradigma quindi si basa sul fenomeno per cui i tempi di denominazione di una figura (CANE) si
modificano quando, più o meno allo stesso tempo, viene presentata una parola (distrattore) collegata al
nome della figura. A seconda dell’ordine di presentazione delle figure di distrattori si hanno conseguenze
diverse:
- quando il distrattore è presentato prima o assieme alla figura la relazione semantica ritarda la risposta,
mentre la relazione fonologica è ininfluente. Se la parola gatto è presentata prima o contemporaneamente
interferisce con la denominazione della figura cane;
- quando il distrattore è presentato dopo la figura la relazione fonologica facilita la risposta mentre la
relazione semantica è ininfluente. Se presentiamo prima la figura cane e poi immediatamente dopo il
distrattore, scompare l’effetto di interferenza semantica e la parola gatto non da effetto e c’è un effetto del
distrattore fonologicamente correlato pane e questo effetto è un effetto di facilitazione della
denominazione della figura cane e tempi quindi più veloci e non effetto di inibizione.
L’idea originale di questo modello è che il segno linguistico che deve essere prodotto è posto in una
struttura tripartita nel quale per passare dal livello semantico a quello fonologico è necessario passare
attraverso un’attivazione delle proprietà sintattiche delle parole (maschile, ausiliare, sostantivo). Questo
modello spiega i dati grazie alla distinzione tra livello concettuale, livello dei lemmi e dei lessemi.
I risultati si possono spiegare ipotizzando che la lessicalizzazione avvenga in due fasi, la prima delle quali è
la selezione del lemma e la seconda è la selezione del lessema.
Spiega i risultati che provengono dal paradigma di interferenza figura-parola. Il processo di selezione
lessicale permette di recuperare un lemma e ciò avviene tramite un processo di competizione tra lemmi
corrispondenti a concetti lessicali simili
Protolinguaggio di Bickerton:
Vi sarebbero forme di comunicazione (protolinguaggio) che sono anche note come linguaggio telegrafico
(lingua pidgin), dove vi sono poche parole e prive di grammatica (più informativo e meno proposizionale).
Il passaggio dal protolinguaggio al linguaggio sarebbe avvenuto all’improvviso, grazie ad una mutazione
genetica e con l’homo sapiens. Quindi è una teoria che da un lato vede l’antecedente del linguaggio umano
in forme di comunicazione di specie anteriori a noi e dall’altra parte è d’accordo con l’ipotesi del salto,
perché il passaggio dal protolinguaggio al linguaggio è avvenuto mediante un salto e la comparsa dell’homo
I sistemi di scrittura:
- sistemi logografici: un simbolo, il logogramma, costituito da un carattere o un insieme di due caratteri,
corrisponde ad un’intera parola;
- sistemi sillabici: i simboli scritti rappresentano più o meno fedelmente le sillabe che costituiscono una
parola;
- sistemi alfabetici: adoperano un ristretto insieme di segni scritti, le lettere, che corrispondo a grandi linee
ai suoni distinti (fonemi) della corrispondente lingua parlata.
Funzionamento modello è PARALLELO, in quanto la scansione avviene sia fra le lettere che compongono la
parola (orizzontale) sia tra i vari livelli di attivazione (verticali).
Il recupero del significato della parola: L’ipotesi più comunemente diffusa circa l’organizzazione del
sistema semantico è che i concetti corrispondenti alle parole siano rappresentati come nodi di una rete.
L’organizzazione del sistema non è gerarchica, i legami tra i nodi sono “orizzontali”: il significato della parola
“cane”, ad esempio, potrebbe essere collegato ai significati delle parole “animale”, “gatto”, “mastino”,
“abbaiare” ecc. una volta che un certo nodo è stato attivato, tale nodo manda un’attivazione diffusa ai nodi
vicini con i quali è collegato; da questi l’attivazione si propaga ai nodi ad essi collegati, e da questi ad altri
ancora. La quantità di attivazione diminuisce mano a mano che ci si allontana dal nodo iniziale: quindi,
maggiore è il grado di associazione tra due sistemi significati, maggiore e più forte sarà la loro tendenza ad
attivarsi reciprocamente.
L’attivazione della forma fonologica della parola: le parole ortograficamente regolari possono essere lette
attraverso una qualsiasi delle due vie esplicate dal modello a due vie. Le parole irregolari, al contrario,
possono essere lette correttamente solo attraverso l’attivazione nel lessico fonologico di output della
rappresentazione fonologica della parola intera la quale è attivata, a sua volta, prima dalla
rappresentazione ortografia e poi dal significato. Le parole nuove, invece, possono essere lette solo
attraverso la via di conversione non-lessicale e, prevedibilmente, subiscono una tendenza alla
regolarizzazione.
I processi finora descritti potrebbero apparire certamente plausibili, ma solo per lingue a ortografia
profonda come l’inglese. Tuttavia alcune ricerche dimostrano che questi processi potrebbero essere usati
anche con l’italiano. Consideriamo per un momento il fenomeno dell’accento sulla parola. In italiano tale
accendo ha una sede variabile. Per il lettore, l’assegnazione corretta dell’accento rappresenta
presumibilmente un’informazione che deve essere recuperata nel lessico fonologico di output, poiché
spesso l’analogia ortografica e fonologica con parole simili da sole non basterebbero.
DISTURBI ACQUISITI DELLA LETTURA: La dislessia acquisita è un disturbo della lettura, spesso conseguente
a lesione cerebrale, che colpisce persone adulte le quali in precedenza avevano acquisito in maniera
normale la capacità di leggere. Il modello a due vie ha permesso di spiegare alcune forme di dislessia
acquisita, in particolare:
- dislessia di superficie: si manifesta con la difficoltà di lettura delle parole regolari;
- dislessia fonologica: lettura deficitaria delle non-parole;
- dislessia profonda: presenza di errori semantici e di effetti di categoria grammaticale;
La scrittura:
Nel caso della scrittura, l’attenzione dei ricercatori è stata rivolta soprattutto allo spelling, ossia alla capacità
di produrre la forma scritta corretta per una data parola.
La maggior parte delle ricerche sulla scrittura ha fatto riferimento al modello a due vie della scrittura,
simile a quello della lettura. Il modello prevede innanzitutto vi sia un’analisi acustico-fonologica dell’input. Il
risultato di tale analisi permette l’attivazione prima del lessico fonologico di input, laddove sono
immagazzinate le informazioni sulla forma fonologica delle parole conosciute, e successivamente del
sistema semantico, il componente nel quale sono rappresentati i significati delle parole. A questo punto, il
modello assume che per le parole conosciute e soprattutto per quelle in cui la corrispondenza suono-
scrittura non è regolare, la forma scritta della parola debba essere recuperata nel lessico ortografico, ossia
in quel componente del lessico mentale che rappresenta le forme scritte dalle parole. In una fase
successiva, l’informazione ortografica viene immagazzinata temporaneamente nel buffer grafemico.
Contemporaneamente a tale percorso di elaborazione dell’informazione lessicale, una via di elaborazione
non-lessicale analizza i suoni che compongono la sequenza fonologica (fonemi o insiemi di fonemi) e
converte progressivamente tale sequenza in una stringa di grafemi che andrà anch’essa ad attivare il buffer
grafemico.
Un ritardo in uno qualsiasi degli stadi di apprendimento descritti può determinare delle difficoltà di lettura,
note come dislessia evolutiva. Tali difficoltà, che solitamente riguardano l’uso delle regole di conversione,
limitano nel bambino la capacità di leggere parole nuove e quindi di espandere il proprio vocabolario.
Abilità di base richiesta per l’apprendimento della scrittura è la segmentazione fonologica, capacità di
scomporre le parole dette nei suoni che la compongono.
La distinzione di Duncker tra pensiero analitico e pensiero sintetico: “Qual è il colore del tetto di casa tua?”
per rispondere un’immagine mentale del tetto. Questo è un esempio di pensiero analitico: pensiero la cui
conclusione non contiene alcuna informazione che non sia già contenuta nelle premesse. Nel pensiero
sintetico, invece, la conclusione non è contenuta nelle premesse dal momento che non è necessaria alla
costruzione dell’oggetto mentale corrispondente. Dopo la costruzione di un modello mentale, possono
essere scoperte relazioni che non erano evidenti prima che il modello fosse costruito. L’insight non è altro
che la scoperta di queste nuove relazioni. Secondo Duncker, l’insight è il prodotto del processo che ci porta
a scoprire quello che deriva necessariamente da ciò che già conosciamo.
L’insight esiste veramente? Fenomeno della fissità funzionale ritorna in auge. Weisberg e Alba con il
problema dei nove punti. In questo problema i soggetti devono collegare tutti i nove punti per mezzo di
quattro linee rette senza mai sollevare la penna dal foglio. Uno psicologo della Gestalt direbbe che la
Ellen ha fatto però notare che nemmeno quello che dicono Weisberg e Alba è corretto, grazie al problema
delle funi elaborato da Maier. Quando gli individui non trovavano la soluzione, Maier dava loro un
suggerimento. Dopo fatto ciò, alcuni soggetti arrivavano alla soluzione, in molti casi improvvisamente, come
in un “lampo”. Quando questo si verificava, raramente i soggetti attribuivano la soluzione al suggerimento
fornito da Maier: l’esperienza di insight può mascherare il suggerimento che l’ha provocata.
Recenti studi sull’insight: Caratteristica essenziale dei problemi di insight è il fatto che la soluzione appaia
improvvisamente, mentre i problemi senza insight vengono risolti in maniera graduale, si arriva
gradualmente alla conclusione. Metcalfe e Weibe avanzano l’ipotesi che i soggetti siano in grado di
distinguere tra queste due tipi di problemi.
Sensazione di vicinanza: mentre risolvi un problema senza insight dovresti accorgerti di stare arrivando alla
soluzione, essendo una cosa graduale.
Sensazione di conoscenza: i soggetti sono consapevoli delle procedure che possono essere usate per
risolvere i problemi senza insight.
Lockhart et al. hanno notato che ci sono grandi differenze individuali nella capacità di selezionare le
informazioni rilevanti per la soluzione di un problema, un punto questo che James chiamò sagacia. La
sagacia si distingue dall’apprendimento, ovvero dalla capacità di ricordare le informazioni pertinenti al
problema. La sagacia ha a che fare con la sensibilità per i dettagli, la capacità di discernere ciò che è
importante in una situazione.
Il “General Problem Solver” di Newell, Shaw e Simon: Risoluzione dei problemi generali o GPS è un
programma per computer creato nel 1959 da Simon, Shaw e Newell destinato a lavorare come una
macchina risolutore di problemi universali. Qualsiasi problema che può essere espresso come un insieme di
formule ben formate (fbf) o clausole di Horn, e che costituiscono un grafo orientato con una o più sorgenti (
cioè., Assiomi) e lavelli (viz., Conclusioni desiderati), può essere risolto, in linea di principio, da GPS. Le
prove della logica dei predicati e euclidei spazi problema di geometria sono i principali esempi di dominio
l'applicabilità del GPS. Esso si basa su lavoro teorico Simon e Newell su logiche macchine. GPS è stato il
primo programma per computer che separava la sua conoscenza di problemi (regole rappresentate come
dati di ingresso) dalla sua strategia di come risolvere i problemi (un generico risolutore motore). GPS è stato
implementato nel linguaggio di programmazione del terzo ordine, IPL.
Mentre GPS risolto problemi semplici come le Torri di Hanoi che potrebbero essere sufficientemente
formalizzato, non potrebbe risolvere i problemi del mondo reale a causa di ricerca è stato facilmente perso
nell’esplosione combinatoria. In altre parole, il numero di "passeggiate" attraverso il digramma inferenziale
è diventato punto di vista computazionale insostenibile. (In pratica, anche una ricerca spazio di stato
semplice come le Torri di Hanoi può diventare computazionalmente impossibile, anche se potature
giudiziosi dello spazio degli stati possono essere raggiunti da tali tecniche di IA elementari come A * e IDA
*).
Gli oggetti definiti dall'utente e le operazioni che potrebbero essere fatte sugli oggetti e GPS generati
euristiche da mezzi-fini analisi al fine di risolvere i problemi. Si è concentrata sulle operazioni disponibili,
trovando quali input erano accettabili e quali risultati sono stati generati. E 'poi creato sotto-obiettivi per
avvicinarsi sempre di più alla meta.
Il paradigma GPS finalmente si è evoluto nella Soar architettura per l'intelligenza artificiale.
EFFETTO ATMOSFERA:
Woodworth e Sells hanno avanzato l’ipotesi che differenti tipi di premesse producano un EFFETTO
ATMOSFERA. “Alcuni A sono B.” “Alcuni B sono C”. “Quindi alcuni A sono C”. il fatto che entrambe le
premesse contengano il quantificatore “alcuni” crea un’atmosfera a favore di “alcuni” che conduce gli
individui ad accettare una conclusione contenente tale quantificatore e quindi a fare alcuni errori di
ragionamento piuttosto che altri. In questo esempio poi la conclusione non segue delle premesse, quindi
viene avanzata l’ipotesi che una premessa negativa crei “un’atmosfera a favore della negazione”.
Se A allora B
quindi B
se A allora B
Non- B
Queste due modalità di ragionamento condizionale sono apparentemente entrambe comprensibili ma nei
fatti si trova che in alcuni individui il modus tollens è più difficile da applicare e qualcuno ha ipotizzato che
alcuni individui forse non hanno la struttura inferenziale che permette il modus tollens
Nel modus tollens il problema è simile a quello del ragionamento per falsificazione, per il sistema cognitivo
umano È molto più naturale trarre conclusione basandosi su caratteristiche di verità di premessa che sulla
caratteristica di falsità di una premessa
RAGIONAMENTO RICORSIVO:
Un processo che fa riferimento a sé stesso viene detto RICORSIVO. I fenomeni ricorsivi talvolta possono
condurre a complicate forme di pensiero. Esempi: il PARADOSSO DEL MENTITORE e L’ARTICOLO DI
MORTON.
Hofstadter ha osservato che, per uscire da un ciclo di pensiero improduttivo e ricorsivo, è necessario
spostarsi ad un livello di pensiero generale. Quindi per risolvere un problema è necessario uscire dallo
spazio del problema poiché il problema stesso può contenere una contraddizione e il solutore deve
comprendere che in realtà esso non può essere risolto.
STATISTICA INTUITIVA:
LEGGE DEI GRANDI NUMERI -> per un numero di ripetizioni identiche dello stesso esperimento, che tende
all’infinito, la probabilità di un determinato evento tende a coincidere con la sua frequenza. Fenomeno
scoperto da Jacob Bernoulli.
Specifica quanto spesso un evento si verifica a lungo andare.
Uno dei fraintendimenti che circondano questa legge ha a che fare con la sua relazione con la LEGGE DELLE
MEDIE.
Principio di compatibilità:
Ci sono alcuni principi nel nostro agire che contraddicono i principi della scelta razionale. Esempio di
esperimento: “hai a disposizione due pacchetti turistici entrambi offerti a un prezzo ragionevole. Il dépliant
informativo ti dà solo alcune informazioni sui due pacchetti. In base a queste informazioni in quale località
preferiresti andare?”
- località A: condizioni climatiche normali, hotel media qualità, vita notturna normale;
- località B: clima soleggiato, barriere coralline, hotel moderni ma temperatura fredda, assenza vita
notturna.
Nell’esperimento succede che la maggioranza delle persone sceglie la località B, ma se si presenta lo stesso
quesito posto in precedenza e si chiede di dire la località dove non si vorrebbe andare, le persone scelgono
sempre B, avendo quindi un comportamento contraddittorio. Le persone quindi scelgono e rifiutano la
stessa alternativa a seconda del modo in cui viene chiesto di esprimerla. Questi dati sono attribuiti al
principio di compatibilità: le persone danno più peso alle caratteristiche positive delle opzioni quando
scelgono mentre danno più peso alle caratteristiche negative quando eliminano le opzioni che ritengono
peggiori. Seguendo il principio di compatibilità si possono compiere scelte che violano il principio di
coerenza procedurale.
Principio di cancellazione:
Sostiene che le preferenze di un individuo devono dipendere dalle caratteristiche che distinguono le opzioni
di scelta e non da quelle che le accomunano, dovrebbero dare un aiuto nelle scelte le caratteristiche
differenti. Esperimento che pone una situazione immaginaria: dovete comprare una giacca e una
calcolatrice, il venditore dice che la calcolatrice è in vendita a 10 dollari invece di 15 dollari al negozio che
dista venti minuti di auto. Siete disposti a guidare fino all’altro negozio? In questo caso la maggioranza
accetta di fare altri venti minuti di auto per andare nell’altro negozio e per ottenere lo sconto, ma se la
domanda è formulata nuovamente i soggetti si comportano in modo diverso. Seconda formulazione della
domanda: la calcolatrice costa 125 dollari e il venditore dice che la calcolatrice è in vendita a 120 dollari al
negozio che dista 20 minuti di auto. In questo caso la percentuale di soggetti che scelgono o no di andare
nell’altro negozio si inverte e la maggioranza non andrebbe nell’altro negozio per risparmiare gli stessi 5
dollari che voleva risparmiare nel precedente esperimento.
Questo perché quello che guida le persone in questa scelta è una valutazione dello sconto sulla base del
prezzo di partenza, ma dal punto di vista complessivo il vantaggio che si ha dal recarsi all’altro negozio è
esattamente lo stesso dato che dal punto di vista globale il risparmio sarebbe esattamente lo stesso se si
sommano i costi della giacca con la calcolatrice in entrambi i casi.
Questi dati hanno portato Tversky e Kahneman a ipotizzare che per decidere le persone possano adottare
tre diversi tipi di rappresentazione mentale:
- calcolo minimo: si dovrebbero esaminare solo le differenze tra le opzioni senza tenere conto delle
caratteristiche comuni;
- calcolo compressivo: vengono integrati tutti i costi sostenuti e tutti i benefici ottenuti;
- calcolo tematico: che attrae più chi risponde a questi esperimenti: le conseguenze della decisione
In conclusione, secondo Tversky e Kahneman vi una è tendenza spontanea degli individui a rappresentare i
problemi di scelta in modo tematico. L’applicazione del calcolo tematico viola però il principio della
cancellazione.
Vi è quindi violazione del principio di cosa certa perché gli individui hanno difficoltà a ragionare
nell’incertezza e in condizioni di incertezza può essere violato il principio di cosa certa.
PENSIERO MAGICO:
Ritenuto un esempio della permanenza di aspetti infantili nella vita adulta. Ricerca classica sul pensiero
magico è quella effettuata da Frazer. Egli credeva che le pratiche magiche fossero regolate da due leggi:
- legge della somiglianza: le cose simili si influenzano reciprocamente. Pratiche basate sulla legge della
somiglianza sono chiamate MAGIA OMEOPATICA.
- legge del contagio: le cose che una volta sono state in contatto le une con le altre continueranno in
seguito ad esercitare un’influenza reciproca. Pratiche basate sulla legge del contagio costituiscono la
MAGIA DEL CONTAGIO.
COINCIDENZE SIGNIFICATIVE:
Falk ha dimostrato che gli individui giudicano le coincidenze che li riguardano diversamente dal modo in cui
giudicano quelle che riguardavano gli altri. Ha suggerito che una coincidenza è sorprendente nella misura in
cui è personale. Gli individui tendono a considerare le coincidenze accadute nel loro passato come fatti
importanti e degni di essere ricordati. Questo fenomeno è detto BIAS EGOCENTRICO.
Proposizionalisti (Pylyshin, Anderson): le funzioni immaginative non sono autonome e le rappresentazioni mentali
immaginative hanno un formato proposizionale cioè riducibile ai contenuti della memoria semantica e dichiarativa che
immagazzina la conoscenza sottoforma di frasi.
Quindi le immagini sarebbero solo il condimento della conoscenza che ha un fulcro di natura proposizionale; le
immagini mentali sono un’appendice immaginativa di conoscenze in forma proposizionali (semantico-concettuale)
la rappresentazione di un IM è una rappresentazione che non ha attributi della rappresentazione proposizionale visiva
in memoria del concetto di orso, abbiamo solo delle rap di tipo semantico astratto, sappiamo che è un carnivoro ecc..
insieme alle rappresentazioni astratte vi sono anche rappresentazioni che riguardano degli elementi di conoscenza che
possono essere trasformati in elementi visivi o immagini visive come il fatto che sappiamo che un orso ha una testa
ecc…
Sono quindi immagini astratte e non avrebbero nulla a che fare con l’immagine visiva, sono simboliche e discrete e
quindi avrebbero delle caratteristiche del tipo tutto o niente, non c’è isomorfismo ma solo una corrispondenza
convenzionale ad esempio la proposizione l’orso ha uno testa può essere trasformata in immagine visiva senza che vi
sia isomorfismo tra rapp astratta sottoforma di frase e le dimensioni e parti della figura che la rappresentazione
designa
Questo approccio cerca di trovare prove che dimostrino che le IM hanno struttura interna simile a quella dei concetti
astratti. Il punto di partenza è che non esistono rappresentazioni mentali in forma di immagini o meglio esistono ma
sono solo la facciata esterna e una delle informazioni recuperabili di una struttura di rappresentazione di conoscenza
che è proposizionale
Vi è un codice di tipo proposizionale ad esempio ha una testa, ha delle zampe ecc…
Questo codice immagazzina un concetto e il codice visivo viene creato trasformando delle informazioni concettuali
come ha una testa ecc… in immagini mentali, quindi queste IM sarebbero un prodotto secondario della
rappresentazione di tipo dichiarativo proposizionale
La conclusione: è che la rappresentazione proposizionale influenza o determina le immagini mentali, se riusciamo a
dimostrare che le IM dipendono dalle rappresentazioni proposizionali abbiamo rafforzato questa teoria o
orientamento delle immagini mentali
MODELLO COORTE
Riconoscimento di una parola quando la sentiamo.
-Accesso
Si intende che quando sentiamo una parola costruiamo un insieme di possibili candidati al riconoscimento (insieme
chiamato coorte) vengono attivati via via tutti i candidati compatibili con un dato input
-Selezione
La coorte si restringe a mano a mano che arriva nuova informazione percettiva fino al punto di unicità (il punto in cui
la coorte contiene un solo candidato) è scattato quindi il momento del riconoscimento e si attiva la terza fase
-Integrazione
A selezione avvenuta avviene l’integrazione delle proprietà sintattiche e semantiche della parola nella
rappresentazione complessiva della frase
Teoria ha il pregio di spiegare come facciamo a riconoscere in tempi così brevi le parole
Struttura: abbiamo tre strati in cui la rete è organizzata. Si parte dall’estrazione delle caratteristiche uditive e sono
legati da una doppia freccia ai fonemi e anche qui i tratti uditivi e fonetici attivano i fonemi con essi compatibili e i
fonemi attiveranno le parole che contengono quei fonemi. I legami tra uno strato e l’altro sono di tipo eccitatorio
La differenza con il modello interactive è che qui non viene data una priorità all’inizio della parola e questo è
compatibile con alcuni dati sperimentali che avevano messo in discussione il modello coorte, il fatto che se si presenta
una parola con una parola incassata a destra es trombone contiene alla fine una parola bone osso che non ha niente a
che fare con la parola trombone ma è solo sequenza fonica che occorre in quella parola che corrisponde ad un’altra
parola
Ad esempio, nella prima versione del problema della malattia asiatica il punto riferimento è l’aspettativa di morte di
600 persone
- Le persone valutano l’esito di salvare un certo numero di persone come un guadagno rispetto al punto di
riferimento e quindi scelgono il programma A
Nella seconda versione del problema invece il punto di riferimento è lo stato attuale in cui nessuna persona è ancora
morta
- Le persone valutano la morte di un certo numero di individui come perdita rispetto al punto di riferimento e
quindi scelgono il programma B
Articolazioni figure-sfondo
Altro aspetto su cui la Gestalt ha fatto studi è l’articolazione figura sfondo e su quali sono i principi che fanno si che
all’interno di una configurazione alcuni elementi vengano visti ed emergono come figure e altri come sfondo amorfo
- Questo è il caso più semplice di stratificazione di un’immagine ed evidenziazione di un’immagine
- Tendenza del sistema percettivo che fa sì che la figura abbia forma mentre lo sfondo è amorfo e indistinto
- All’interno di questa articolazione figura-sfondo emerge anche un'altra legga o meglio sotto-legge , quella
della funzione univoca e unilaterale dei bordi dove il contorno appartiene solamente alla figura e non allo
sfondo
Un modello che ha influenzato per molto tempo lo studio della produzione del linguaggio e che aveva come base
empirica gli errori commessi dai parlanti è il modello di Lefelt
- Il modello rende visibili i tre stadi del processo di produzione, abbiamo una Prima fase del processo di
produzione che corrisponde alla fase di concettualizzazione
- C’è una fase finale che corrisponde alla fase di articolazione
- Ciò su cui si sofferma il modello è la parte centrale che è la codifica grammaticale e che sarebbe la fase di
formulazione, è suddivisa in due macro-processi ovvero funzionali e posizionali:
1. Nella fase funzionale viene decisa la struttura sintattica astratta della frase e vengono selezionate i lemmi che
faranno parte della frase. Sono processi funzionali dove vengono definite le caratteristiche funzionali astratte
nella frase e gli elementi che dovranno saturare quelle caratteristiche funzionali astratte
2. Nei processi posizionali la frase assume la forma lineare che produciamo nel parlato dove vengono assemblati
i costituenti come l’ordine delle parole nella frase e selezionate le flessioni dei nomi e dei verbi e in accordo
con la struttura sintattiche selezionata vengono usate delle flessioni e non altre
Quindi Questo modello si occupa sia del versante lessicale che di quello sintattico del processo di produzione del
linguaggio
Uno dei problemi di questo modello è la sua caratteristica di rigida sequenzialità che è contraddetta da dati empirici
che dimostrano che nel parlato continuo le tre fasi si sovrappongono, le frasi vengono pianificate a cascata e materiali
diversi (della stessa frase o di frasi diverse) si trovano a diversi stadi di elaborazione
Quindi il modo in cui produciamo le frasi non è rigido perché mentre stiamo producendo una frase stiamo anche
pianificando alla frase successiva; questo è evidenziato che alcuni errori sono di anticipazione dove viene detto in un
momento precedente qualcosa che doveva essere detto in un momento successivo
Momentanee mancanze di sincronizzazione possono portare a:
- Nella seconda parte dell’esperimento erano presentati degli indizi o suggerimenti e per dare un probabile
recupero della parola ground veniva presentata una parola che si riferiva al primo significato di ground ovvero
ground e pavimento. Quello che Tulving rilevava era che anche un indizio molto forte come pavimento che
dovrebbe far pensare subito a ground non sortiva l’effetto desiderato; se l’indizio non era pertinente con il
contesto nel quale era stata presentata la parola nella prima fase dell’esperimento non si otteneva alcuna
facilitazione nel recupero che si otteneva usando dei suggerimenti
La conclusione è che il riconoscimento dello stimolo viene facilitato da un contesto di recupero simile a quello di
codifica e quindi se il contesto di codifica e di recupero sono simili vi è la facilitazione del ricordo
MEMORIA SENSORIALE
È Legata soprattutto agli esperimenti di Sperling, che ha usato un paradigma
Il paradigma consisteva nella presentazione per 50millisecondi di stimoli, sequenze di lettere casuali che
venivano presentate in una griglia 4x3 , poi la matrice scompariva e veniva richiesto di rievocare il maggior
numero di lettere alle quali erano stati esposti i soggetti
Il risultato era che la memoria sensoriale rivelava una capacità limitata, i soggetti rievocavano solamente la
metà delle lettere che erano state presentate
Questa variante del paradigma era chiamata procedura di resoconto totale
Punto di novità di Sperling all’interno di questi esperimenti fu la decisione di introdurre una variazione nel paradigma:
anche qui viene presentata la matrice con le lettere che viene poi tolta e poi c’è un indizio visivo come una frecci o un
tono acustico che si riferivano al punto nel quale erano apparse le lettere della riga centrale o delle altre due; il tono
poteva essere acuto, medio o basso. In seguito ai soggetti veniva richiesto di riferire solamente le lettere che erano
state contrassegnate dall’indizio visivo o dal tono acustico
Questa modifica apportata da Sperling e chiamata resoconto parziale permetteva di vedere meglio cosa accadeva
nella memoria sensoriale, di fatti la critica di sperling verso gli esperimenti precedenti era che questi non
coinvolgevano solo la memoria sensoriale ma anche quella a breve termine. La differenza tra i due paradigmi è che in
quello di resoconto totale viene richiesto di riportare tutte le lettere che erano state presentate, ciò richiedeva un
certo numero di secondi dove la fase di recupero era troppo lunga, ciò faceva si che non si stesse più indagando la
memoria sensoriale ma il processo di decadimento. Se si testa immediatamente la memoria sensoriale con un
intervallo molto limitato di tempo si vedrà che la capacità di immagazzinazione della memoria sensoriale è molto più
superiore. Dunque vi è un rapido decadimento si ma l’immagazzinamento è rapido.
Nota bene: la percentuale di lettere riportate correttamente è del 50% nel primo paradigma e quasi del 100% nel
secondo dove vengono riportate quasi tutte le lettere
IL MODELLO DI LEVELT
Questo modello Prende in esame solo la parte lessicale del processo di produzione del linguaggio
- Quando il distrattore è presentato dopo la figura la relazione fonologica facilita la risposta mentre la relazione
semantica è ininfluente. Se presentiamo prima la figura cane e poi immediatamente dopo il distrattore
scompare l’effetto di interferenza semantica e la parola gatto non da effetto e c’è un effetto del distrattore
fonologicamente correlato pane e questo effetto è un effetto di facilitazione della denominazione della figura
cane e tempi quindi più veloci e non effetto di inibizione
Il risultato viene spiegato da Levelt in un modello che distingue TRE FASI all’interno del processo di produzione delle
parole
- Supponiamo che l’input da denominare sia una figura di un leone. Il primo elemento che viene attivato a partire
dalla forma visiva è il livello concettuale nel quale sono rappresentate delle caratteristiche semantiche della
parola. La parola leone attiverà informazioni come SELVAGGIO, HA LA CRINIERA
- Una volta selezionata un’entrata a livello concettuale questa va ad attivare un livello che è livello del lemma,
l’aspetto che contraddistingue questo modello. Il lemma è una rappresentazione delle caratteristiche sintattiche
della parola, nel caso di leone saranno rappresentate informazioni relative al genere grammaticale maschile
oppure informazioni sulla classe grammaticale e quindi sostantivo. Siamo quindi in un livello che non è più
semantico e che non è ancora fonologico ma è un livello di parole mute dove sono solo attivate le caratteristiche
sintattiche e grammaticali delle parole. Il livello del lemma si interpone tra il livello concettuale e del lessema
- Livello del lessema è un livello di tipo fonologico
L’idea originale di questo modello è che il segno linguistico che deve essere prodotto è posto in una struttura tripartita
nel quale per passare dal livello semantico a quello fonologico è necessario passare attraverso un’attivazione delle
proprietà sintattiche delle parole (maschile, ausiliare, sostantivo)
Questo modello spiega i dati grazie alla distinzione tra livello concettuale, livello dei lemmi e dei lessemi
- I risultati si possono spiegare ipotizzando che la lessicalizzazione avvenga in due fasi, la prima delle quali è la
selezione del lemma e la seconda è la selezione del lessema
Spiega i risultati che provengono dal paradigma di interferenza figura-parola
- Il processo di selezione lessicale permette di recuperare un lemma e ciò avviene tramite un processo di
competizione tra lemmi corrispondenti a concetti lessicali simili
Focalizzazione:
La differenza tra le due elaborazioni ci permette di dare più di sostanza al concetto di focus dell’attenzione.
La focalizzazione è quello che differenzia i processi attentivi dai processi pre attentivi ed è caratterizzata dal
fatto di sottoporre lo stimolo selezionato ad ulteriori elaborazioni confrontando la totalità dello stimolo con
altri stimoli
I processi preattentivi:
Richiedono lo svolgimento di operazioni mentali in parallelo ovvero se c’è un aumento dei
distrattori nella configurazione non c’è un minore tempo di rilevazione dell’elemento
incongruo perché non si devono scansionare uno dopo l’altro tutti gli elementi.
Conducono alla segmentazione del campo visivo in oggetti rilevanti ed estraggono singole
caratteristiche e la presenza o assenza della singola caratteristica permette di dare una
risposta immediata senza processi attentivi
I processi attentivi:
Intervengono in un secondo momento per integrare le informazioni quindi richiedono
integrazione delle diverse informazioni presenti a livello visivo (forma orientamento
dimensioni…)
Procedono in modo seriale (un’operazione dopo l’altra) infatti se si aumenta il numero
di distrattori si aumenta anche il tempo di rilevazione dell’elemento incongruo
MASCHERAMENTO VISIVO:
Tecnica indiretta usata per misurare qualcosa che non dipende dalla risposta volontaria del soggetto. Tale
tecnica consiste nel presentare uno stimolo target seguito da un altro stimolo che lo nasconde, rendendone
difficile l’identificazione. Vantaggio di questa tecnica è la possibilità di verificare direttamente se il
mascheramento è stato efficace e se i target è stato percepito consapevolmente, chiedendo al soggetto di
identificarlo. Se le risposte non sono fornite a caso si può essere che ci sono anche altre due tecniche che
hanno lo stesso scopo:
Ascolto dicotico-> che consiste nel presentare al soggetto simultaneamente due messaggi diversi,
chiedendogli di ripetere quello che sente dai due orecchi. L’attenzione del soggetto dovrebbe essere
focalizzata sul messaggio dell’orecchio richiesto e dovrebbe escludere l’altro. Gli studi hanno dimostrato
che i soggetti non solo non erano in grado di riferire il contenuto del messaggio non richiesto, ma non
sapevano dire nemmeno se la voce fosse maschile o femminile. Vediamo, quindi, che l’elaborazione
inconsapevole del messaggio cui non si presta attenzione è alquanto sofisticata, raggiungendo di fatto,
almeno il livello dell’associazione del significato delle parole;
APPRENDIMENTO LETTURA:
3 stadi principali->
1) PROCESSO LOGOGRAFICO: stadio che sarebbe comune ai bambini che entrano a contatto con la lingua
scritta scelta in età prescolare. Essi iniziano ad apprendere info. Ortografiche che non solo di tipo alfabetico,
ma riguardano le proprietà visive delle parole;
2)PROCESSO ALFABETICO: qui vengono discriminate le singole lettere e il bambino impara a mettere in
corrispondenza le lettere con i suoni;
3)PROCESSO ORTOGRAFICO: localizzato verso i 9-10 anni. Qui il bambino ha un lessico più strutturato e
riesce a riconoscere la forma globale della maggior parte delle parole.
Dopo questo stadio si forma la via lessicale. Un ritardo di uno qualsiasi di questi stadi può portare a
difficoltà di lettura: dislessia evolutiva che porta ad avere capacità limitate nel leggere parole nuove.
APPRENDIMENTO SCRITTURA:
2 STADI->
1)FONOLOGICO: in cui il bambino utilizza le corrispondenze fonemi-grafemi per scrivere ciò che intende o
sente.
2)ORTOGRAFICO: il bambino comincia ad utilizzare delle rappresentazioni lessicali. Il prerequisito
necessario per la scrittura è la segmentazione fonologica, ovvero la capacità di scomporre le parole dette o
ascoltate nei suoni che le compongono.
APPROCCIO HIP:
Neisser propose questo modello che considera la mente umana come un elaboratore di info. Sosteneva
l’analogia tra operazioni della mente umana e processi di elaborazione dei dati eseguiti dai computer. Si
arriva a quest’idea partendo dell’assunto che la mente sia dotata di registri sensoriali che selezionano e
raccolgono i dati provenienti dall’esterno di un magazzino a breve termine, memoria che ricorda le
operazioni in corso di esecuzione e organizza le info appena ricevute e di un magazzino a lungo termine,
memoria che trattiene i dati e le strategie destinati al ricordo nei tempi più lunghi. I processi cognitivi, come
i comportamenti che essi producono, si svolgono all’interno di catene temporali. Sono analizzati in
sequenze di stadi e ognuno riflette una parte del processo elaborazione.
Successivamente fu lo stesso Neisser a criticare questa metafora uomo-computer, influenzato
dall’approccio ecologico di Gibson (secondo il quale l’info è disponibile nell’ambiente ed è formata da
invarianti strutturali a cui è solo necessario prestare attenzione). Neisser cerca di integrare l’approccio di
Gibson con quello informazionale e propone un modello circolare