Sei sulla pagina 1di 97

Fondamenti di Psicologia generale

Psicologia Cognitiva
Università degli Studi di Salerno (UNISA)
96 pag.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
METODI
Psicologia e scienza:
La psicologia è lo studio scientifico del comportamento e dei processi mentali, nato tra la fine dell’800 e
l’inizio del 900. Uno dei padri fondatori della psicologia è Williams James.
Quando ci proponiamo di spiegare dei fatti attraverso qualcosa di non direttamente osservato, ma
attraverso qualcosa da noi presupposto, stiamo costruendo una teoria. Vi sono due tipi di teorie:
- teoria ingenua: consiste nel voler spiegare un comportamento o una spiegazione attraverso un’opinione
(osservazione soggettiva) personale e non su controlli scientifici.
- teoria scientifica: si basa sul metodo sperimentale, con esso abbiamo osservazioni oggettive, ottenute cioè
attraverso uno strumento di misura. Una teoria oggettiva può essere replicabile, infatti, se altre persone la
ripetono i risultati saranno sempre gli stessi.

Il metodo sperimentale:
Gli scopi della ricerca scientifica: La ricerca scientifica ha due scopi:
- la scoperta di regolarità: nel caso della psicologia, comprende la descrizione del comportamento e la
scoperta di relazioni regolari tra i vari aspetti del comportamento. In questo caso, le regolarità formano le
leggi del comportamento;
- lo sviluppo delle teorie: una teoria è un insieme di asserzioni che collega tra loro varie leggi. Le teorie
servono proprio a organizzare le conoscenze in modo sistematico e a spiegare le leggi. Le teorie guidano la
ricerca scientifica: un ricercatore fa dapprima un’ipotesi, poi un esperimento in base al quale giunge a una
teoria, e infine formula la legge.

Gli studi sperimentali: Cos’è un esperimento? È lo studio della relazione tra due (o più) variabili, cioè tra
due entità che variano. Gli studi sperimentali avvengono dunque attraverso degli esperimenti. La variabile
non è altro che una proprietà di un evento reale che può essere misurata. La misurazione è quindi un
sistema per assegnare un valore numerico alle variabili.
In psicologia esistono due tipi di variabili: variabile dipendente e variabile indipendente. Esempio:
decidiamo di sottoporre a 50 femmine e 50 maschi una serie di problemi matematici in 10 minuti. I soggetti
sono chiamati “soggetti sperimentali”, la percentuale di problemi matematici risolti (ovvero, l’accuratezza)
è la v. dipendente, perché dipende dal valore di un’altra variabile, controllata dal ricercatore, denominata
v. indipendente. In sintesi la v.indipendente ( soggetto che agisce) influenza la v.dipendente. In una ricerca
scientifica non bisogna fare solo la media dei risultati tra i gruppi, ma anche constatare le differenze (e le
variabili) tra le persone individuali dei gruppi. Per decidere se due gruppi sono differenti è fondamentale
considerare la variabilità.
Distinguere due suoni (o due voci) sarà più facile se sono differenti tra loro, ma la nostra capacità di farlo
dipende dalla quantità di rumore di fondo. Se il rumore è forte anche le differenze più grandi saranno
indistinguibili. Otterremo quindi un valore che viene chiamato rapporto critico (differenze tra le
caratteristiche dei soggetti fratto risultato ottenuto).
Oltre gli studi sperimentali, esistono quelli correlazionali, così chiamati perché hanno lo scopo di scoprire se
esistono delle relazioni tra due o più variabili (due variabili sono correlate quando hanno una relazione tra
loro).

Metodi per lo studio del comportamento e dei processi cognitivi:


-1. La psicofisica studia le sensazioni scaturite dalla stimolazione fisica.
-2. La cronometria mentale misura il tempo di esecuzione delle operazioni mentali (quanto tempo ci metto
per spingere il pulsante dal momento in cui viene detto = momento di percezione) attraverso i tempi di
reazione (= tempo tra lo stimolo e la reazione stessa). In questo metodo possono essere utilizzati dei criteri

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
di identificazione dello stimolo: di distinzione (es: premere un pulsante se si vede un pallino), di scelta (es:
premere un pulsante solo quando il pallino è blu.) Donders formulò il metodo sottrattivo, secondo il quale
la sottrazione tra il tempo di reazione ad uno stimolo con un’operazione e il tempo di reazione ad un
secondo stimolo senza un’operazione misurava la durata di un’operazione mentale.
Stroop realizzò un esperimento secondo cui gli individui dovevano identificare il colore ignorando la parola
scritta, che può ricollegarsi o meno al colore stesso ES: se il colore da pronunciare è “rosso” e la parola
scritta è in ROSSO vi sarà una congruenza, mentre se il colore da pronunciare è “rosso” ma la parola è
scritta: VERDE vi sarà un’incongruenza. Se invece abbiamo XXXX vi è una situazione neutra. Tale
esperimento serve per comprendere se il tempo di reazione dipende dalla congruenza (tempo di reazione
minore), incongruenza (tempo di reazione maggiore) , neutralità (tempo di reazione medio) dello stimolo.
Attraverso l’esperimento di Stroop siamo in grado di enunciare che la nostra mente è incapace di ignorare il
significato delle parole, poiché l’associazione è un processo automatico. L’esperimento di Stroop si basa sui
tempi di reazione e non sulla durata di un’operazione mentale.
Sternberg, attraverso il suo esperimento studiò il modo secondo il quale viene ricercato un elemento
all’interno della memoria a breve termine. In questo esperimento i partecipanti ascoltano una serie di
numeri, detti a distanza di breve tempo, seguiti da un numero “sonda”. I partecipanti dovranno decidere
nel più breve tempo possibile se il numero sonda è stato detto nella serie di numeri premendo il tasto “si” o
“no”. Sternberg, constatò che all’aumentare dei numeri presenti nella serie, aumentava il tempo di
reazione. Da tali constatazioni sappiamo che gli individui quando ricercano il numero sonda analizzano ogni
elemento uno per volta.
-3. La neuropsicologia studia la localizzazione cerebrale delle facoltà mentali. La neuropsicologia cognitiva,
invece, studia il comportamento dei pazienti con disturbi neuropsicologici allo scopo di capire meglio il
funzionamento dei processi mentali normali. Il principale strumento di indagine è quello della dissociazione.
Solitamente vengono osservati i danni di un dato sistema cognitivo (ES: i danni parziali della memoria). La
neuroimmagine funzionale, studia le funzioni neurali del cervello umano in tempo reale. Tale studio viene
effettuato tramite analisi che permettono di visualizzare l’attività cerebrale come ad esempio la risonanza
magnetica funzionale. I metodi di simulazione sono un passo importante per avvicinare la psicologia alle
scienze esatte, la simulazione non si limita a spiegare il comportamento ma lo riproduce e permette di
valutare l’adeguatezza di una teoria, e di ottenere predizioni che potranno essere verificate attraverso
nuovi esperimenti. Il modello di computazione deriva dal metodo di simulazione ed è un programma per
computer che riproduce il comportamento umano.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
STUDIO DEI PROCESSI COGNITIVI: VARI ORIENTAMENTI
Associazionismo:
Gli associazionisti credono che gli individui non siano dotati di molte conoscenze alla nascita. Secondo le
formulazioni più estreme della dottrina associazionista, la mente di un bambino è pressoché vuota e le sue
strutture emergono passivamente a causa delle influenze esercitate dall’ambiente.
Gli associazionisti credono che l’ambiente possa imprimere nella mente del bambino pressoché qualsiasi
cosa e che, nello stato terminale dello sviluppo, la struttura mentale adulta sia costituita da un vasto
reticolo di associazioni tra gli eventi che sono stati reperiti.
Thorndike = Esperimento del gatto chiuso in gabbia la cui porta può essere aperta per mezzo di una leva
appesa al soffitto della gabbia stessa. Dopo che il gatto è stato rinchiuso un certo numero di volte,
finalmente imparerà a premere la leva e a fuggire. Questo apprendimento procede in maniera graduale per
PROVE ED ERRORI. Non vi è un momento preciso all’interno del processo di apprendimento nel quale il
gatto sembra capire, o avere un insight, che vi è una relazione tra la pressione esercitata sulla leva e la
possibilità di fuga. Piuttosto, secondo Thorndike, ciò che il gatto ha appreso dovrebbe essere inteso come la
formazione di un’associazione, ovvero di una connessione, tra uno STIMOLO (la leva) e una RISPOSTA (la
pressione esercitata sulla leva). Le connessioni di questo tipo si formano gradualmente, senza che l’animale
necessariamente abbia alcuna consapevolezza di ciò che viene appreso.

Comportamentismo:
Skinner = comportamentismo una sorta di versione del ventesimo secolo dell’associazionismo. L’approccio
comportamentista può essere esemplificato facendo riferimento al modo in cui Skinner concepiva l’attività
di pensiero. L’attività di pensiero è costituita da una serie di comportamenti su scala ridotta che hanno
luogo nel nostro corpo, anche se essi non possono essere facilmente reperiti. Ciò nondimeno, l’attività di
pensiero costituisce una forma di comportamento controllato dall’ambiente, come qualsiasi altra forma di
comportamento.
Anche Skinner vedeva la caratterizzazione dell’attività del pensiero in termini di STIMOLO e RISPOSTA (S-R).

Teoria della catena associativa: A volte la ripetizione assidua di cose, fa sì che la riposta R1 diventi lo
stimolo per la risposta seguente R2 e così via. Questa teoria della catena associativa può essere
rappresentata nella seguente forma:

R1(S1) -> R2(S2) -> R3(S3) …

Lashley ha messo in luce il fatto che ci sono alcuni fenomeni che non posso essere spiegati dalla teoria della
catena associativa, come ad esempio la pre-attivazione (il priming) di una risposta.

Critica rivolta a Skinner da Chomsky: Chomsky sosteneva che i principi di S-R non consentissero di spiegare
un gran numero di fenomeni linguistici, come ad esempio l’uso creativo del linguaggio. Secondo Chomsky il
linguaggio dovrebbe essere considerato come un fenomeno controllato da un insieme di processi mentali
piuttosto che come un processo periferico che tratta le parole come stimoli e risposte.

Psicologia della Gestalt:


Il termine “Gestalt” significa forma o configurazione e gli psicologi della Gestalt hanno studiato le forme
assunte dall’esperienza in circostanze diverse. Per questi psicologi, l’aspetto più importante dell’esperienza
è costituito dalla tendenza ad avere un carattere unitario e coerente. Diversamente dagli associazionisti, gli
psicologi della Gestalt credevano che non fosse possibile comprendere l’esperienza scomponendola in un
insieme di unità più semplici. “Il tutto è diverso dalla somma delle parti”.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Secondo questi psicologi, la nostra esperienza tende naturalmente ad assumere l’organizzazione più
semplice possibile (PRINCIPIO DEL MINIMO). Ma sono anche gli individui ad organizzare la loro esperienza
in modo tale da farle assumere la forma più semplice e coerente possibile. La dimostrazione che
Wertheimer ha usato a questo proposito era quella del movimento apparente, detto anche fenomeno phi.
Fenomeno Phi: La nascita della Gestalt si ebbe con un famoso esperimento di Wertheimer, del 1911, sul
movimento apparente o stroboscopico: il “fenomeno phi”. Esso consiste nel fatto che, presentando due luci
proiettate su uno schermo a una certa distanza l'una dall'altra, e separate da un breve intervallo temporale,
il soggetto non percepisce due luci immobili, ma un'unica luce in movimento dalla prima alla seconda
posizione. Il fenomeno in quanto tale era noto già da tempo (e del resto è alla base del movimento
cinematografico), ma l'originalità di Wertheimer consiste nell'interpretazione che ne diede. Il fenomeno phi
dimostrava, infatti, come il fatto percettivo fosse inanalizzabile; il movimento (in questo caso il dato più
importante che emergeva a livello percettivo) sarebbe stato distrutto da un processo di analisi, che avrebbe
portato solo a trovare degli stimoli stazionari.
Un esempio di moto apparente è costituito dall’impressione di movimento suscitata dalle luci di un’insegna
luminosa che, in realtà, non si muovono ma semplicemente si accendono e si spengono in rapida sequenza.
Questo fenomeno rappresentava agli occhi degli psicologi della Gestalt la dimostrazione che l’esperienza
nel suo complesso può essere più semplice e unitaria di quanto lo siano le condizioni dello stimolo che
suscita l’esperienza. Invece di due eventi separati, si percepisce il movimento di un singolo evento.

L’obiettivo della teoria è dunque di spiegare perché il campo percettivo non è caotico ma è organizzato
secondo unità percettive in funzioni delle leggi dell’unificazione della percezione:
- vicinanza
- somiglianza
- destino comune
- buona direzione
- continuità
- chiusura

Inoltre, l’organizzazione dell’esperienza presente è più importante di quanto lo sia l’apprendimento


precedente. La forma dell’esperienza viene determinata in misura maggiore da ciò che succede qui e ora
piuttosto che da ciò che è accaduto in passato.

L’idea che sia possibile descrivere il processo di apprendimento nei termini della formazione di semplici
associazioni, o connessioni, tra gli eventi era del tutto inaccettabile per gli psicologi della Gestalt. Loro
credevano che la mera contiguità non fosse sufficiente affinché l’apprendimento potesse avere luogo. Se un
elemento è semplicemente accoppiato con un altro, è poco probabile che gli individui possano apprendere
che vi è un legame tra i due.

Teoria dell’elaborazione dell’informazione:


Secondo Garner, “l’informazione è ciò che viene trasmesso quando una persona oppure una macchina ci
dicono qualcosa che non sapevamo in precedenza”. Questa definizione è abbastanza semplice. Noi siamo
però interessati a confrontare gli eventi considerando le quantità di informazioni che ci forniscono. Garner
aveva notato che la “comunicazione è informativa soltanto nella misura in cui riduce una condizione di
ignoranza o di incertezza a proposito dello stato delle cose considerato”.
L’unità di misura convenzionale per l’informazione è il bit, abbreviazione di binary digit (numero binario).
Concetto di capacità del canale = se un individuo fosse in grado di distinguere un numero qualsiasi di eventi
diversi, allora sarebbe un perfetto dispositivo di trasmissione di informazioni. In pratica, però, la capacità di
distinguere tra eventi diversi è limitata. [Miller]

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Approccio di Miller, Galanter e Pribram: Miller discute della relazione tra conoscenza e comportamento. In
che modo la conoscenza controlla il comportamento? Per rispondere a questa domanda dobbiamo
innanzitutto definire il comportamento. Miller e i suoi colleghi credevano che il comportamento fosse
configurazionale. Come gli psicologi gestaltisti, Miller e i suoi colleghi credevano che l’azione debba essere
concepita come un comportamento strutturato piuttosto che come una semplice sequenza di risposte. Allo
stesso modo di Lashley, Miller credeva che il modello S-R fosse errato. Non è vero che ciascuna risposta
produca la risposta successiva in una sequenza. Invece di un modello sequenziale, abbiamo bisogno di un
modello top-down.
Questo modello si sviluppa a partire dalla distinzione tra unità di comportamento molari e molecolari.
Queste possono essere descritte in base ai loro scopi. Esempio di unità molari sono: imbucare una lettera,
ottenere una laurea. Possono essere portate a termine in molti modi diversi. La stessa unità molare può
essere costituita da una grande varietà di unità molecolari diverse. Il comportamento deve perciò essere
descritto a livello diversi; il comportamento è organizzato gerarchicamente.
Le unità del comportamento dotate di un carattere maggiormente molare sono chiamate strategie mentre
quelle dotate di un carattere maggiormente molecolare sono chiamate tattiche.

UNITÀ MOLARI
^
STRATEGIE
&
TATTICHE
v
UNITÀ MOLECOLARI

I processi che regolano il comportamento “dall’alto” sono chiamati piani. Un piano consiste in una serie di
istruzioni per l’esecuzione di un’azione. Il comportamento non può essere compreso senza che vengano
compresi i piani che lo regolano. Gli individui posseggono piani per tutte le loro attività. Tutto ciò che gli
individui sanno come fare è nella forma di un piano. Un piano assomiglia al programma di un calcolatore
(Test di Turing).
Qual è la struttura dei piani? Miller, Galanter e Pribram hanno proposto a questo proposito un’unità di
monitoraggio chiamata TOTE (Test-Operate-Test-Exit): l’individuo verifica se un’incongruità esiste (test); se
questo accade, allora un’azione viene intrapresa per eliminare l’incongruità (operate); a questo punto, la
fase di controllo viene ripetuta (test); se l’incongruità è stata eliminata, l’individuo conclude il programma
(exit).

TEST DI TURING: Il test di Turing è un criterio per determinare se una macchina sia in grado di pensare.
Turing prende spunto da un gioco, chiamato "gioco dell'imitazione", a tre partecipanti: un uomo A, una
donna B, e una terza persona C. Quest'ultima è tenuta separata dagli altri due e tramite una serie di
domande deve stabilire qual è l'uomo e quale la donna. Dal canto loro anche A e B hanno dei compiti: A
deve ingannare C e portarlo a fare un'identificazione errata, mentre B deve aiutarlo. Affinché C non possa
disporre di alcun indizio (come l'analisi della grafia o della voce), le risposte alle domande di C devono
essere dattiloscritte o similarmente trasmesse.
Il test di Turing si basa sul presupposto che una macchina si sostituisca ad A. Se la percentuale di volte in cui
C indovina chi sia l'uomo e chi la donna è simile prima e dopo la sostituzione di A con la macchina, allora la
macchina stessa dovrebbe essere considerata intelligente, dal momento che - in questa situazione -
sarebbe indistinguibile da un essere umano.
Per macchina intelligente Turing ne intende una in grado di pensare, ossia capace di concatenare idee e di
esprimerle. Per Turing, quindi, tutto si limita alla produzione di espressioni non prive di significato.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Le macchine di Turing sono macchine a stati finiti in grado di simulare altre macchine a stati discreti. Una
macchina per sostenere il test dev'essere programmata considerando la descrizione di un uomo in termini
discreti (stati interni, segnali, simboli). Dalla complessità del software, si legge tra le righe dell'articolo,
emergeranno le funzioni intellettuali. Su questa aspettativa si fonda una disciplina nota come intelligenza
artificiale il cui scopo è la costruzione di una macchina in grado di riprodurre le funzioni cognitive umane

Approccio di Neisser: APPROCCIO INFORMAZIONALE. Secondo Neisser, il calcolatore ci consente di


descrivere in maniera efficace le operazioni svolte dall’elaboratore umano. Egli intende studiare, per così
dire, il modo in cui siamo programmati.

L’approccio di Neisser allo studio dei processi cognitivi si propone di seguire il corso dell’elaborazione
umana dell’informazione a partire dalla presentazione iniziale dello stimolo. Nel caso della cognizione
visiva, lo studio dell’elaborazione dell’informazione inizia con l’icona (1).
Lo stimolo immagazzinato in un’icona diventa poi un’immagine visiva che permane nella mente del fruitore.
Neisser notò che questo procedimento, chiamato riconoscimento di pattern (2), implica una relazione tra
percezione e memoria. Funzione di Høffding = processo nel quale una percezione entra in contatto con una
traccia di memoria.
Dopo il riconoscimento di pattern, si passa al confronto tra sagome (3.1). È possibile che, all’interno della
memoria, siano immagazzinate le sagome corrispondenti alle forme tipiche delle configurazioni che
vediamo. Il riconoscimento dovuto al confronto fra sagome è basato sul confronto fra il pattern da
riconoscere e la sagoma prototipica immagazzinata in memoria.
Un’alternativa all’ipotesi del confronto fra sagome è costituita dalla possibilità che le configurazioni siano
identificate in base alle loro caratteristiche. Si dovrebbe quindi attuare una analisi delle caratteristiche
(3.2). Una delle teorie più influenti a fare uso dell’approccio della analisi delle caratteristiche per il
riconoscimento è stata la teoria proposta da Selfridge, ovvero il modello del PANDEMONIUM IDEALIZZATO.
Questo modello è costituito da tre livelli. Il livello inferiore contiene i dati, ovvero l’immagine all’interno
della quale un insieme di attributi viene rappresentato. Il livello successivo contiene i demoni cognitivi,
concepiti come piccoli folletti che esaminano gli attributi dell’immagine. Ciascun demone cognitivo rileva
uno specifico pattern. Se un demone cognitivo pensa di aver rilevato il pattern appropriato, allora
incomincia a strillare. Tutti i demoni possono strillare contemporaneamente, con intensità diversa, a
seconda della somiglianza tra il pattern che stanno cercando e il pattern presente nell’immagine. Per
questo motivo il modello è chiamato pandemonium. In cima a tutti questi demoni vi è il demone della
decisione che ascolta il pandemonio e seleziona il demone che strilla più forte. Questa scelta corrisponde al
pattern che viene riconosciuto.

Modelli degli stati di elaborazione dell’informazione: Gli psicologi appartenenti all’approccio


informazionale hanno proposto differenti modelli a proposito delle relazioni tra i processi cognitivi. Uno di
questi è stato presentato da Norman e Bobrow e descrive il flusso di informazioni nel tempo. Inizialmente, i
segnali fisici come il suono o l’energia luminosa, vengono trasformati in una forma che può essere usata dal
sistema cognitivo (traduzione). Lo stadio successivo è quello dell’immagazzinamento iconico, il quale ha
luogo nel registro sensoriale. Lo stadio di elaborazione successivo a quello del riconoscimento è quello della
memoria a breve termine (MBT), chiamata talvolta memoria temporanea o memoria di lavoro. Lo stadio
finale dell’elaborazione dell’informazione è rappresentato dalla memoria a lungo termine (MLT). Nella MLT
sono depositate le morie permanenti. Il riconoscimento di pattern ha luogo se un item recuperato dalla MLT
viene accoppiato con un item nel registro sensoriale.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
J.J. Gibson:
Neisser integrò la psicologia dell’elaborazione dell’informazione con la teoria della percezione visiva
diretta proposta da Gibson.
Nel corso dell’elaborazione dell’informazione, potrebbe essere necessario integrare l’informazione dello
stimolo con l’informazione presente nella MLT allo scopo di costruire un’esperienza dotata di senso. D’altra
parte, invece, Gibson riteneva inadeguata ogni descrizione dello stimolo come una fonte di informazione
impoverita a proposito del mondo.
Secondo Gibson, il termine informazione possiede due significati diversi. Da una parte, gli psicologi
appartenenti all’approccio informazionale usano questo termine con il significato di “segnale che viene
sottoposto a varie forme di elaborazione”. Gibson, invece, attribuisce alla nozione di informazione un
significato del tutto diverso. Anziché essere qualcosa che viene elaborato dall’individuo, l’informazione è
semplicemente qualcosa che è disponibile nell’ambiente. In quanto tale, l’informazione può essere raccolta
dall’organismo. Uno degli esempi che fa è quello del gradiente tissutale (teoria ecologica, ovvero
dell’ambiente): all’aumentare della distanza dell’osservatore la tessitura di una superficie diventa più fitta e
le dimensioni dei dettagli diminuiscono (esempio del campo di fiori)

La teoria ecologica di Gibson

- La percezione non è un arricchimento delle informazioni sensoriali attraverso processi di varia


natura (esperienza passata, inferenze, schemi …)
- La percezione non è il risultato dell’attività cognitiva di chi percepisce e impone un’organizzazione
agli stimoli ambientali
- Le informazioni percettive quindi sono già contenute negli stimoli, che non sono caotici e che gli
oggetti mostrano già

Tuttavia, le percezioni non sono sempre immediate e a volte richiedono mediazioni concettuali.

La posizione di GIBSON è stata tacciata di REALISMO INGENUO secondo il quale la realtà fisica e
percettiva/fenomenica coincidono ma questo non è vero perché esistono assenza del soggetto fenomenico
oppure di quello fisico

- uno stimolo può essere presente fisicamente ma non comparire a livello percettivo, si tratta di
assenza dell’oggetto fenomenico. Esempio: figure nascoste o mascherate
- uno stimolo può operare sul piano fenomenico ma può non esistere nella realtà fisica, assenza
dell’oggetto fisico. Esempio: figure anomale, contorni illusori

Adattamento della teoria gibsoniana proposto da Neisser :


Neisser ha cercato di integrare l’approccio di Gibson con il più tradizionale approccio informazionale. Nel
fare questo, Neisser si è lasciato alle spalle alcuni aspetti dell’approccio informazionale che lui stesso aveva
contribuito a stabilire. L’approccio informazionale, inteso nella sua forma più rigorosa, appare poco
realistico in molte circostanze dato che assume che l’osservatore sia del tutto passivo, quando in realtà
l’osservatore si muove nell’ambiente e acquisisce continuamente nuove informazioni.
Secondo Neisser, vale la pena di proseguire lo studi dei processi cognitivi per mezzo delle procedure
controllate del laboratorio sperimentale solo se questo studio viene condotto all’interno di contesti
ecologicamente validi. Un approccio ecologicamente valido è quello che si dedica allo studio dei processi
cognitivi all’interno di ambiente relativamente realistici e che fa riferimento alle opportunità che essi
offrono agli individui. In questo senso, lo studio dei processi cognitivi ha a che fare con lo studio delle abilità
che gli individui sviluppano nelle loro interazioni con l’ambiente.
Invece di caratterizzare i processi cognitivi nei termini di un modello lineare, Neisser ha proposto un
modello circolare. Quali sono le differenze tra questi due modelli?

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
All’interno dell’approccio informazionale, l’attenzione selettiva è stata studiata per mezzo del paradigma
dell’ascolto dicotico. Negli esperimenti di questo genere, a ciascun orecchio del soggetto viene presentato
un messaggio diverso per mezzo di due auricolari di una cuffia. Ai soggetti viene chiesto di prestare
attenzione al messaggio presentato ad un orecchio e di ripeterlo ad alta voce nel momento in cui viene
udito. Questa procedura è chiamata shadowing. I soggetti sono in grado di eseguire questo compito
abbastanza facilmente e questo fenomeno è chiamato fenomeno del cocktail party. L’idea è che lo
shadowing sia simile all’ascolto della conversazione svolta da una persona in una stanza in cui hanno luogo
contemporaneamente conversazioni tra altre persone. Le prime teorie informazionali avanzarono l’ipotesi
che gli individui debbano filtrare l’informazione alla quale non voglio prestare attenzione.
In uno dei suoi libri, Neisser ha criticato il modello del filtro perché esso è concepito per spiegare cosa
succede quando l’ascolto è passivo, come accade quando un individuo indossa una cuffia. Forse sarebbe più
utile studiare il fenomeno dell’attenzione selettiva considerando il modo in cui gli individui acquisiscono
attivamente le informazioni nell’ambiente. Uno studio di Neisser e Becklen è stato progettato per
esaminare questo problema. Immaginate di avere ripreso con una telecamera due differenti eventi. Cosa
succede se le due sequenze vengono mostrate sovrapposte l’una all’altra. È molto facile riuscire a prestare
attenzione soltanto ad una delle due sequenze, non importa quale. Non sembra che sia necessario filtrare
la sequenza a cui non si sta prestando attenzione. Semplicemente, gli individui vedono la sequenza a cui
prestano attenzione e non vedono la sequenza a cui non prestano attenzione.
Sulla base di studi simili a questo, Neisser ha concluso che percepire significa selezionare l’informazione
disponibile piuttosto che filtrare l'informazione irrilevante.

Connessionismo: un nuovo paradigma?:


Per certi versi l’approccio connessionista assomiglia all’associazionismo, ma ne costituisce un'alternativa
molto più potente.
Le due idee fondamentali del connessionismo sono che l’informazione è costituita da elementi, e da
connessioni tra questi elementi. Le connessioni possono avere valori diversi e il sistema può essere
“addestrato” a modificare la forza delle connessioni in modo tale da produrre l’output desiderato in
corrispondenza di ciascun input particolare. I modelli connessionisti consentono l’elaborazione in parallelo
dell’informazione (molte connessioni possono essere attivate allo stesso momento), anziché soltanto
l’elaborazione seriale dell’informazione. Inoltre, vi possono essere delle unità nascoste che mediano il
collegamento tra input e output.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
PERCEZIONE
Distinzione tra sensazione e percezione: La sensazione è come una risposta di un organo di senso, un
insieme di recettori, a una forma di energia fisica o meccanica. Vi sono dei recettori sul nostro corpo che
rispondono a variazioni dell’ambiente fisico, la sensazione dunque è un processo passivo.
La percezione invece è un insieme organizzato, una risposta organizzata dell’organismo ad un insieme di
stimoli. È come un’integrazione delle risposte sensoriali, si tratta di organizzazione immediata e
significativa delle informazioni sensoriali, che vengono raccolte e inviate alle aree del cervello che
analizzano questi stimoli. Ha quindi stimoli che vengono organizzati opportunamente dal nostro sistema
cognitivo. Potremmo dire che nella percezione convivono due procedure: BOTTOM UP e TOP DOWN:
-processi dal basso dove lo stimolo in entrata produce una sensazione immediata da parte dei recettori e
l’organizzazione di queste sensazioni dà luogo alla percezione, è quindi guidata dal basso, dal modo in cui
determinati eventi o stimoli producono delle sensazioni e l’organizzazione di queste sensazioni;
-Ma la percezione dipende anche dalle nostre conoscenze ed esperienze precedenti e dalla nostra
conoscenza del mondo.

Quindi la percezione è contemporaneamente un processo dal basso vero l’alto guidato dagli stimoli ma
anche da conoscenze ed esperienze precedenti e viene influenzata da questi

Energia luminosa e informazione ottica:


La luce è una condizione necessaria per la visione degli oggetti ma non sufficiente.
Infatti, se non vi è luce non vi è visione, ma se vi è luce non vi è necessariamente visione. La visione degli
oggetti non è determinata dunque dall’energia luminosa, poiché essa arriva in modo unitario sia al buio che
con la luce, bensì dall’informazione ottica degli oggetti.
Possiamo concludere che l’assenza di luce precluda la visione degli oggetti? Si. Possiamo concludere che la
presenza di luce sia una condizione sufficiente affinché un osservatore normale veda degli oggetti? No. Ad
esempio, la nebbia distrugge l’informazione ottica ma non la luce, infatti non ci permette di vedere gli
oggetti e ci costringe a muoverci alla cieca. La nebbia dimostra quindi che la variabile importante per la
visione degli oggetti, ancora una volta, non è l’energia luminosa ma l’informazione ottica.
L’esperimento naturale della nebbia è stato più volte riprodotto in laboratorio. Ci sono vari modi per
immergere un osservatore in un Ganzfeld (in tedesco “campo totale”), cioè nella condizione limite in cui
l’energia luminosa è identica in tutte le direzioni che si dipartono dal punto di vista. Ad esempio, può essere
chiesto all’osservatore di apporre mezza pallina di ping pong su ciascun occhio, in modo tale da far
trapassare la luce ma impedire l’informazione ottica e far sentire l’osservatore avvolto da una nebbia fitta.
Possiamo dire, sulla base di quello che si è visto dagli esperimenti che hanno l’effetto del Ganzfeld, ovvero
esposizione ad uno stimolo neutro come un cerchio bianco, che la visione è la disomogeneità presente nella
distribuzione della luce AD ESEMPIO la visione di macchie grigie che nel cerchio bianco in realtà non vi sono
e sono create dal sistema percettivo per uno scopo fisiologico di alternanza figura-sfondo alla quale siamo
abituati.
Grazie ai processi percettivi di base viene raccolta l’informazione (che è stata colta dagli organi sensoriali),
codificata per essere resa disponibile ai processi di riconoscimento. Questi processi corrispondono
all’emergere di oggetti strutturati (o distensione tra figura e sfondo).

Codificazione e organizzazione:
L’informazione è un tipico concetto relazionale, essa è una proprietà che dipende dall’osservatore che la
utilizza. Contiamo due tipi di osservatore:

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
-ideale = in grado di utilizzare tutte le informazioni possibili;
-reale = un normale essere umano, che riesce ad utilizzarne solo una parte.

Non sempre però ciò che c’è si vede, infatti nel caso della connessione sappiamo che essa non è sempre
percepita, ma dipende dalle condizioni in cui si trova l’oggetto. Molte volte per identificare una
connessione c’è bisogno di un’analisi attenta, che solitamente non è presente quando guardiamo
normalmente ciò che ci è attorno. Molti studi scientifici sulla percezione si basano proprio sulla
contrapposizione tra quello che c’è nell’immagine e quello che viene percepito.

L’asimmetria della ricerca visiva indica che la percezione è organizzata e che possiede una struttura
gerarchica. Al fine della rilevazione dell’informazione ottica, abbiamo vari elementi importanti:
- contesto = non ci è sempre facile identificare un elemento deviante in un contesto. Il riconoscimento sarà
più facile se avremo un tipo di contesto normale, ma se avremo un elemento normale in un contesto
irregolare l’identificazione sarà più difficile. Avremo infatti una ricerca visiva asimmetrica, ovvero differente
in un contesto normale ed in un contesto irregolare. Inoltre sappiamo che in un contesto normale il tempo
in cui viene identificato l’elemento deviante sarà costante e non sarà influenzato dagli elementi distraenti,
ovvero dagli elementi circostanti. In un contesto irregolare invece, gli elementi distraenti influiscono sulla
tempistica in cui viene identificato l’elemento deviante.
- orientamento = nel caso dell’orientamento, la percezione si sofferma molto su assi verticali ed orizzontali,
infatti ogni deviazione è interpretata come un’anomalia che fa scaturire la voglia di raddrizzarla.

La percezione di un oggetto dipende anche dall’orientamento che esso ha, infatti vi sono due tipi di mondi:
-mondo fisico in cui gli oggetti non cambiano al variare del loro orientamento;
-mondo fenomenico in cui gli oggetti appaiono mutati al variare del loro orientamento.

Struttura dello spazio visivo:


Lo spazio percepito è strutturato intorno a due assi, verticale e orizzontale, che fungono da riferimenti
cardinali. La forma degli oggetti, ovvero la forma geometrica, non muta se cambiamo il loro orientamento,
ma cambia la forma percepita. Se prendiamo in considerazione l’esempio del quadrato sappiamo che esso
geometricamente ha diverse proprietà (4 angoli, 4 lati, 2 diagonali di uguale lunghezza) ma esse sono
sempre evidenti. Infatti a seconda dell’orientamento del quadrato sono messe in risalto solo alcune delle
sue proprietà come gli angoli uguali o le diagonali perpendicolari, se il quadrato ruota di 45°.
La percezione di un oggetto, dunque, è una rappresentazione selettiva che mette in evidenza solo alcuni
aspetti dell’oggetto stesso. Un quadrato inoltre, può essere categorizzato sia come un particolare
rettangolo con base ed altezza uguali, che come un particolare rombo con diagonali uguali, a seconda di
come viene percepito ma mai come un continuum di entrambi. La percezione può essere differente a
seconda del fatto che l’oggetto sia dritto o storto, ma non vi è solo l’influenza della direzione della verticale
dello spazio percepito, bensì anche della polarità, ovvero di un sopra e di un sotto (dritto e capovolto),
perciò sappiamo di dare una lettura parziale degli oggetti fisici poiché essi dovrebbero essere percepiti da
più punti di vista per poterli analizzare nel complesso e che, inoltre, alcuni segni grafici, cambiando
l’inclinazione, possono mutare o meno la propria funzione. Trovare un elemento capovolto in mezzo a tanti
elementi dritti è più facile che non viceversa.

Oggetti, immagini e percetti:


Fino ad ora, però, non abbiamo badato troppo alle molteplici differenze tra oggetti esterni, immagine ottica
che arriva all’occhio e oggetti percepiti. Per essere adeguata, una teoria della percezione, deve collegare
appropriatamente almeno tre tipi di entità:
- oggetti fisici = che crediamo esistenti e dotati di proprietà materiali anche in assenza di luce;

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
- immagini = le immagini di questi oggetti che possono essere percepite in qualsiasi punto di un ambiente
illuminato;
- oggetti percepiti = (precetti)

Questi tre elementi formano la catena psicofisica che lega l’osservatore con il mondo esterno. Se
prendiamo in considerazione un oggetto visto da uno specifico punto di osservazione, abbiamo
un’immagine determinata, mentre non è possibile ricostruire lo stato di cose che hanno determinato
un’immagine. L’informazione ottica è indeterminata, infatti la nostra percezione ottica è limitata. Dal
prodotto di due fattori scaturisce un unico risultato [6 x 4 = 24], ma dal risultato specifico possono scaturire
diversi fattori [24 =? x?]. Allo stesso modo, sappiamo che attraverso il prodotto di un oggetto fisico e di un
precetto scaturisce un’immagine, ma dall’immagine possono scaturire diverse combinazioni di oggetti fisici
e precetti. A tal proposito l’informazione ottica è indeterminata. Ma la nostra percezione ottica è anche
limitata poiché, ad esempio, nel caso della grandezza, se guardiamo da uno spioncino non possiamo
definire se ciò che vediamo è reale o fittizio.

Psicologia della Gestalt:


Nota anche come “scuola di Berlino”, dove lavoravano i fondatori di questa prospettiva, nasce prima della
Seconda Guerra Mondiale.
Questa scuola si oppone all’empirismo di Helmholtz, sostiene che la percezione non è frutto di sensazioni
slegate o diverse ma un processo immediato che risulta dall’organizzazione delle “forze” che si vengono a
creare e che il sistema percettivo impone alle diverse componenti di uno stimolo (concetto di campo
percettivo). Questi studiosi parlano dunque di forze che agiscono all’interno di un campo, dove le forze non
sono della fisica ma sono interne ovvero tendenze innate del sistema percettivo che impongono una
strutturazione agli stimoli che appaiono nel mondo esterno. Gestalt, ovvero forma, sta ad indicare che il
nostro sistema percettivo tende ad imporre agli stimoli esterni una buona forma, un’unità e coerenza, una
totalità strutturata. Questa psicologia ha approfondito molto il principio di unificazione degli stimoli, cioè i
processi in base ai quali tendiamo a percepire degli stimoli come qualcosa di internamente coerente e non
stimoli slegati tra di loro, e anche il problema della relazione figura-sfondo e della percezione del
movimento.
L’obiettivo della teoria è dunque di spiegare perché il campo percettivo non è caotico ma è organizzato
secondo unità percettive in funzioni delle leggi dell’unificazione della percezione:
- vicinanza
- somiglianza
- destino comune
- buona direzione
- continuità
- chiusura

Inoltre, l’organizzazione dell’esperienza presente è più importante di quanto lo sia l’apprendimento


precedente. La forma dell’esperienza viene determinata in misura maggiore da ciò che succede qui e ora
piuttosto che da ciò che è accaduto in passato.

L’idea che sia possibile descrivere il processo di apprendimento nei termini della formazione di semplici
associazioni, o connessioni, tra gli eventi era del tutto inaccettabile per gli psicologi della Gestalt. Loro
credevano che la mera contiguità non fosse sufficiente affinché l’apprendimento potesse avere luogo. Se un
elemento è semplicemente accoppiato con un altro, è poco probabile che gli individui possano apprendere
che vi è un legame tra i due.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Fenomeno Phi: La nascita della Gestalt si ebbe con un famoso esperimento di Wertheimer, del 1911, sul
movimento apparente o stroboscopico: il “fenomeno phi”. Esso consiste nel fatto che, presentando due luci
proiettate su uno schermo a una certa distanza l'una dall'altra, e separate da un breve intervallo temporale,
il soggetto non percepisce due luci immobili, ma un'unica luce in movimento dalla prima alla seconda
posizione. Il fenomeno in quanto tale era noto già da tempo (e del resto è alla base del movimento
cinematografico), ma l'originalità di Wertheimer consiste nell'interpretazione che ne diede. Il fenomeno phi
dimostrava, infatti, come il fatto percettivo fosse inanalizzabile; il movimento (in questo caso il dato più
importante che emergeva a livello percettivo) sarebbe stato distrutto da un processo di analisi, che avrebbe
portato solo a trovare degli stimoli stazionari.

Articolazione figura/sfondo:
Solitamente gli spazi vuoti non vengono mai notati, tranne quando ci si concentra su di essi e gli si
appropria una figura.
Vi è un inversione tra sfondo e figura quando, ad esempio, il cielo, che è uno sfondo, viene modellato dalle
colline e diviene figura.
Vi è un inclusione di sfondo e figura, invece, quando abbiamo una regione inclusa che diviene figura e una
regione includente che diviene sfondo e viceversa.
La percezione di un individuo, dunque, dipende dall’ambito locale dell’oggetto. Egli crederà che si tratta di
una freccia bianca su sfondo nero o di una freccia nera su sfondo bianco a seconda della freccia su cui si
soffermerà. Perciò le regole dell’organizzazione visiva hanno un carattere locale.
Il contorno in una figura/sfondo, ovvero in un’immagine inclusiva, ha una funzione unilaterale, poiché
delinea solo la figura e ne definisce la forma, mentre senza di esso lo sfondo sarebbe informe. La funzione
unilaterale del bordo viene definita come principio di minimo.
Se abbiamo la stessa ampiezza del nero o del bianco, le due soluzioni, nero su bianco o bianco su nero,
sono egualmente probabili, poiché il nero è circondato dal bianco in egual misura di come il bianco è
circondato dal nero. Quando invece abbiamo un’ampiezza maggiore di un colore tendiamo a definire
questo come sfondo e gli altri colori come figura. Quindi le regioni con area minore sono viste come figure.
L’unificazione percettiva è necessaria per formare i precetti, i quali scaturiscono dal raggruppamento di
diversi elementi o parti dell’immagine. La percezione delle costellazioni, ad esempio, avviene tramite la
prossimità, infatti gli individui sono soliti collegare le stelle, punti nel cielo, che sono più vicine.
Gli individui, inoltre, tendono a rappresentare un’immagine semplice, infatti, attraverso il principio di
minimo, sappiamo che avviene un risparmio sui costi di rappresentazione degli oggetti.
Inoltre gli individui tendono anche a creare un’articolazione senza resti, ovvero ad accoppiare o a creare
un’immagine in cui non vi siano elementi isolati dagli altri.
L’unificazione percettiva può avvenire anche attraverso il fattore di buona continuazione, ovvero quando
vengono minimizzati i cambiamenti di direzione e, quindi, viene preferita l’organizzazione che comporta
meno mutamenti. Ad esempio il segmento ac è percepito come una curva continua, mentre il segmento b
come una linea che parte dal centro della curva ac. La percezione inversa sarebbe insolita.
Dunque, infine, i fattori di unificazione tendono a rendere la percezione il più semplice possibile. Secondo la
teoria della Gestalt il principio di minimo, ovvero la tendenza verso la rappresentazione più semplice, è una
proprietà intrinseca del sistema visivo e non dipende dalle esperienze dell’osservatore.
Helmholtz, invece, sosteneva che la percezione sia il frutto di giudizi inconsci e che l’osservatore abbia
determinate percezioni solo dopo aver valutato se sia possibile o meno che una determinata immagine sia
effettivamente presente nel mondo esterno.
Gibson, infine, sosteneva che le situazioni semplificate non possono essere reali, poiché nel mondo esterno
vi sono diverse informazioni. Infatti l’individuo non può far altro che cercare di sfruttare al meglio il proprio
sistema visivo per estrarre più informazioni possibili dalle immagini disponibili.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Percezione dei caratteri grafici:
Nella percezione dei caratteri grafici la metodologia che viene normalmente utilizzata è quella dei
movimenti oculari.
Vi sono macchine che sulla base dei raggi infrarossi permettono di seguire quali sono i movimenti che i
nostri occhi descrivono quando percorrono un testo scritto. Quando un testo scritto viene esplorato i nostri
occhi non lo fanno da sinistra verso destra o viceversa ma lo fanno compiendo movimenti rapidi chiamati
saccadi. I saccadi sono movimenti molto rapidi di dieci millisecondi che permettono di abbracciare
contemporaneamente una decina di caratteri, queste saccadi spiegano perché in alcuni casi la velocità di
lettura è cosi pronunciata per alcune persone. Alle Saccadi si alternano anche le Fissazioni e le Ricorsioni:
- Fissazioni: riguarda lo stato in cui l’occhio si sofferma maggiormente su una porzione di testo
- Ricorsioni: movimenti degli occhi che ritornano su una porzione di testo che era stata già esplorata

Attraverso la rilevazione dei movimenti oculari è possibile dimostrare che il nostro sistema percettivo visivo
è molto duttile e da segno di fermarsi anche su corrispondenza di passaggi semanticamente e
sintatticamente più complessi, attraverso le ricorsioni o fissazioni, dove si trovano nelle preposizioni molto
lunghe e complesse

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
ATTENZIONE
La necessità di far intervenire l’attenzione venne formulata già alla fine dell’ottocento, quando William
James, uno dei padri fondatori della psicologia, osservava che l’essere umano deve elaborare una quantità
di informazioni sensoriali troppo elevata per essere, in ogni istante, consapevole di tutto. Il sistema
cognitivo dell’uomo possiede una quantità di risorse di elaborazione limitate. L’attenzione può quindi
essere identificata come l’insieme dei meccanismi che consentono di concentrare le proprie risorse mentali
su alcune informazioni piuttosto che su altre, determinando ciò di cui siamo coscienti in ogni dato istante.

Attenzione selettiva e attenzione divisa:


A quante cose è possibile prestare attenzione allo stesso momento?
Secondo alcune teorie, come la teoria della croce maltese di Broadbent (modello di flusso informazionale
interattivo), l’attenzione costituisce un processo che dipende da un elaboratore centrale che governa
diversi tipi di comportamenti complessi. Com’è formato? Vi è un registro sensoriale, che corrisponde alla
memoria sensoriale, che permette di registrare temporaneamente la natura fisica di uno stimolo visivo o
uditivo (in questo caso si parla di memoria ecoica). È una memoria labile e affinché venga registrato uno
stimolo in modo permanente è necessario che la traccia sensoriale venga trasformata in memoria di lavoro
o a breve termine che riesce ad elaborare lo stimolo, permette un ulteriore passaggio da questa memoria
temporanea alla memoria di associazione a lungo termine.
In termini di attenzione, questi meccanismi di memoria sono per Broadbent interconnessi con un sistema di
elaborazione centrale e che i nostri diversi magazzini di memoria sono messi in comunione attraverso un
sistema attentivo che distribuisce le risorse attentive. Secondo questo modello di Broadbent la capacità di
selezionare un elemento dell’ambiente e di dirigere l’attenzione su di esso dipende dal funzionamento di
elaborazione centrale che governa diversi tipi di comportamenti complessi. Da questo punto di vista,
dovrebbe essere possibile prestare attenzione soltanto ad una cosa per volta. Per eseguire
simultaneamente due compiti, dunque, gli individui dovrebbero alternare rapidamente la loro attenzione
nei loro confronti e prestare attenzione in maniera selettiva soltanto ad uno di essi alla volta.
Spelke, Hirst e Neisser hanno condotto uno studio molto importante sull’attenzione divisa. I risultati dei
loro esperimenti implicano che è possibile dividere l’attenzione tra due compiti, anziché semplicemente
dirigerla in maniera alternata nei confronti di ciascuno di essi.

Attenzione come risorsa:


L’attenzione è stata talvolta caratterizzata come una risorsa limitata. Non è facile definire con precisione
che tipo di risorsa sia l’attenzione. Secondo Hirst e Kalmar, questa ipotesi significa molte cose diverse:
- Modello delle capacità = attenzione simile ad una riserva di energia. È come se l’esecuzione di un compito
facesse uso di una riserva di carburante;
- Limiti di carattere strutturale = se due compiti diversi richiedono lo stesso tipo di attività, allora essi
potrebbero interferire gli uni con gli altri in misura maggiore che nel caso in cui ciascuno di essi richieda un
tipo diverso di attività;
- Insieme di abilità diverse = un compito viene eseguito per mezzo delle abilità che gli competono. I compiti
che richiedono le medesime abilità dovrebbero interferire gli uni con gli altri in misura maggiore dei compiti
che richiedono abilità differenti. VERSIONE PREFERITA DI HIRST E KALMAR

Hirst e Kalmar hanno studiato le strategie per mezzo delle quali l’attenzione viene distribuita a diverse
attività mentali. Nel paradigma sperimentale usato vi erano due compiti differenti, che chiameremo Tipo I e
Tipo II. Alcuni soggetti dovevano eseguire simultaneamente un compito di Tipo I e un compito di Tipo II.
Altri soggetti dovevano eseguire simultaneamente due compiti di Tipo I, o due compiti di Tipo II. Quando i

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
soggetti cercavano di prestare attenzione simultaneamente ad un compito grammaticale e ad un compito
aritmetico, la prestazione era migliore rispetto a quando cercavano di prestare attenzione simultaneamente
a due compiti uguali. In generale, la conclusione a cui sono giunti Hirst e Kalmar è che l’attenzione può
essere divisa più facilmente se i compiti utilizzano risorse diverse.
Gli individui sembrano essere in grado di portare a termine in parallelo processi cognitivi diversi. È
necessario però anche ricordare che processi differenti possono interferire gli uni con gli altri a causa di ciò
che Hirst e Kalmar hanno chiamato cross-talk (comunicazione incrociata). Se due processi sono costituiti da
due sequenze di eventi, può succedere che gli eventi appartenenti ad un processo possano interferire con
quelli appartenenti all’altro processo. Per poter eseguire due compiti allo stesso tempo noi dobbiamo
tenere segregate le differenti sequenze. Questo non accade sempre e può essere causa di confusione.

Errori di attenzione:
Talvolta può accadere che si pianifichi una sequenza di azioni che però non viene poi eseguita nel modo che
si intendeva (es: se si è abituati a prendere il pullman o la propria auto per tornare a casa, può capitare di
prendere l’autobus e lasciare la macchina lì oppure andare al parcheggio ma non trovarla). Norman e
Reason hanno studiato gli errori di questo tipo. Di seguito, i tipi di errori:

Errori dovuti alla formulazione erronea delle intenzioni, si suddividono in due classi:
- errori di modalità = quando eseguiamo un’azione che sarebbe opportuna in una situazione (o modalità)
diversa da quella in cui l’azione viene effettivamente eseguita; esempio: quanto tentiamo di toglierci gli
occhiali anche se non li indossiamo.
- errori di descrizione = quando non abbiamo una comprensione adeguata della situazione in cui ci
troviamo; esempio: quando si versa il caffè in un bicchiere e non nella tazzina nella quali lo si voleva versare
e che è di fianco al bicchiere;

Errori dovuti all’attivazione erronea di uno schema:


- errori di cattura = quando uno schema familiare “cattura” il comportamento sostituendosi ad uno schema
non familiare (es: effetto stroop); altro esempio: se andiamo nel garage per prendere la macchina e
prendiamo gli attrezzi per il giardinaggio dato che quando andiamo nel garage di solito ci andiamo per
prendere questi attrezzi

Errori dovuti a quando si esegue lo schema appropriato nel momento sbagliato:


- errori di anticipazione esempio: rientro a casa, al posto di prendere chiavi portone prendo già chiavi di
casa (???)

Spesso gli individui si rendono conto di avere compiuto n errore. Per rendersi conto di avere fatto un
errore, però, essi devono prestare attenzione a quello che stanno facendo al giusto livello.

Effetto Simon:

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Vengono presentate due figure geometriche, quadrato o cerchio, e i soggetti devono classificare le due
figure o come quadrato o cerchio e devono schiacciare un pulsante; se la figura è un cerchio devono
schiacciare il pulsante di sinistra, se la figura è un quadrato schiacciare il pulsante di destra. Ci sono dei casi
in cui lo stimolo chiave (figura geometrica) viene presento a sinistra o a destra e non al centro e il soggetto
deve però trascurare (come gli viene detto) il punto dello schermo in cui appare la figura geometrica e
tenere conto di dover rispondere solamente in base all’apparizione di un quadrato o di un cerchio; ma
anche se i soggetti sanno che il punto dello schermo in cui appare la figura è un informazione irrilevante
non possono fare a meno di codificarla, dunque se la risposta quadrato è a destra ma viene presentata la
figura a sinistra questo indica un forte senso di interferenza e a volte i soggetti schiacciano il pulsante
sbagliato, ovvero quello di sinistra , questo perché non possono fare a meno di codificare
quell’informazione che sanno essere irrilevante ma che influenza la loro risposta inevitabilmente. Questo
indica che se ci sono due informazioni (ovvero la posizione del pulsante da premere e l’apparizione della
figura) che vengono codificate all’inizio sensorialmente poi percettivamente e nel meccanismo della
memoria a breve termine arriva a sopravvivere anche l’informazione irrilevante, conosciuta dai soggetti,
ovvero il fatto di non dover guardare la posizione nello spazio dello stimolo, quest’informazione irrilevante
arriva addirittura fino al momento della risposta. Questo effetto è significativo ed è a favore delle teorie
della late selection.
Cosa ci dice l’effetto Simon?

- Risponde alla domanda su in che modo il sistema attentivo riesce a distinguere in modo selettivo
l’informazione rilevante da quella irrilevante e su quale sia il destino dell’informazione irrilevante
- L’informazione irrilevante arriva e sopravvive fino al momento della risposta, i tempi di risposta sono
più rapidi quando la posizione dello stimolo e la posizione della risposta (il pulsante) coincidono
- In conclusione, una caratteristica non rilevante dello stimolo (ovvero la posizione dello stimolo nello
spazio) genere effetto sul processo di attenzione e sui tempi e rapidità di risposta (dove la risposta
può essere anche sbagliata in molti casi)

Effetto Stroop:

Serie di nomi di colori, ma ciascuna parola indica un colore diverso da quello dell’inchiostra con cui la parola
è stampata (ad esempio, “rosso” scritto in inchiostro blu). Vedremo che per denominare il colore delle
parole impiegheremo più tempo che non per leggere i nomi di colore. Prende il nome da Stroop.
L’idea geniale di Stroop è stata dunque quella di presentare stimoli che hanno al proprio interno una
contraddizione. Quindi anche in questo caso abbiamo in contrasto due informazioni, una rilevante per il
compito richiesto dallo sperimentatore, ovvero di dover guardare il colore dello stimolo e non il significato

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
della parola, ed una irrilevante che si impone, ovvero l’attivazione del significato della parola (dove i
soggetti non possono fare a meno di riconoscere ad esempio la parola giallo e di attivare il significato del
giallo). Si attivano dunque due rappresentazioni diverse.

Effetto Navon:

Vengono presentati degli stimoli in cui c’è un’informazione globale e locale, nel primo stimolo se
consideriamo la configurazione come unica corrisponde alla lettera H maiuscola ma a livello locale vediamo
un H globale formata da tante S, ci sono due informazioni che contrastano tra di loro. Se lo sperimentatore
chiede di denominare la lettera a livello globale dovreste dire H, se chiede di denominare le lettere a forma
più locale dire S, quindi una è rilevante e l’altra è irrilevante. Anche qui vengono presentati due tipi di
stimoli, uno congruente e l’altro incongruente:
- Stimolo congruente: H globale formata da tante H locali
- Stimolo incongruente: H globale formata da tante S locali

Questo effetto è stato usato sia scegliendo l’informa locale o globale come target ma più spesso è stata
richiesta l’informazione globale e nella variante più adoperata dell’effetto Navon bisogna denominare la
lettera globale che risulta dalla combinazione delle lettere piccole.
Cosa succede? Anche qui possiamo avere combinazioni incongruenti o meno, succede che i TR sono più
rapidi per distinguere quelle congruenti da quelle incongruente anche se i soggetti hanno in mente qual è
l’informazione rilevante e irrilevante.
Conclusione: la presenza di un’informazione incongruente a livello globale interferisce con un’informazione
locale alla quale bisogna prestare attenzione. (l’effetto vale soprattutto quando bisogna denominare le
lettere più piccole a livello locale)

Selezione dell’informazione è appunto tardiva. Questi tre effetti dimostrano che l’attenzione elabora lo
stimolo in maniera completa per quanti sforzi facciamo per non rilevare date informazioni irrilevanti che
vengono comunque rilevate, quindi l’attenzione tratta tutte le caratteristiche dello stimolo e anche quelle
che apparentemente cadono fuori dal fuoco dell’attenzione e che sembrano irrilevanti ma vengono
comunque elaborate del sistema attentivo. La risposta a quando opera il filtro dell’attenzione selettiva è
che il filtro interviene piuttosto tardi ovvero al momento della risposta da fornire e quindi la selezione
tardiva può essere vista, alla luce dei dati sperimentali, come l’ipotesi più verosimile rispetto alla selezione
precoce.

Attenzione, consapevolezza ed elaborazione inconscia :


James ha osservato che gli individui non sono consapevoli di tutto ciò di cui potrebbero essere consapevoli.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Accadono molte cose di cui gli individui non sono consapevoli.
La codifica si riferisce al processo per mezzo del quale l’informazione viene trasformata in una o più
rappresentazioni. Gli individui codificano gli eventi in modi differenti.
Come si verifica questo processo di codifica? Secondo Wickens, questo processo è largamente automatico.
Il mondo è troppo ricco perché noi possiamo essere consapevoli di tutte le dimensioni in base alle quali
esso viene codificato. Inoltre, sempre secondo Wickens, questo processo non soltanto è inconscio, ma è
anche molto rapido.

- percezione subliminale = si riferisce a quella classe di fenomeni in cui uno stimolo è in grado di influenzare
il comportamento anche se è stato presentato troppo velocemente, oppure ad un livello d’intensità troppo
basso, perché il soggetto sia in grado di identificarlo. La percezione subliminale ha, potenzialmente, un
grande valore commerciale;
- figura e sfondo = gli individui solitamente articolano la loro esperienza in una parte a cui prestano
attenzione (figura) e in una parte a cui non prestano attenzione (sfondo). È possibile però cambiare la
direzione dell’attenzione in maniera tale che ciò che un momento fa costituiva la figura diventi ora sfondo e
viceversa;
- mascheramento retroattivo = consiste nella presentazione di uno stimolo (target) e nel mascheramento di
questo ultimo per mezzo di un altro stimolo, rendendone difficile, se non impossibile, l’identificazione;
- priming = utile nell’ottenere prove indirette di una analisi inconscia dell’informazione. Il priming è un
fenomeno di facilitazione prodotto da uno stimolo (prime) su uno stimolo successivo (target). Ad esempio,
dovendo decidere se una parola indica un elemento della categoria “animali” le persone ci mettono meno
tempo e commettono meno errori se poco prima è stata presentata un’altra parola appartenente alla
stecca categoria, ance se irrilevante per il compito. (Es: le persone ci mettono meno tempo a decidere che
la parola target “cane” appartiene alla categoria “animali” se il prime è la parola “cavallo” e non, poniamo,
la parola “cavolo”).
Esiste anche un tipo di priming chiamato priming subliminale. Questo termine si riferisce al fatto che alcuni
stimoli usati in qualche tipo di esperimenti non raggiungono la soglia della coscienza.

Attenzione spaziale:
Lo spostamento dell’attenzione fu studiato attraverso il paradigma del suggerimento spaziale, anche detto
PARADIGMA DI POSNER. Con tale esperimento veniva chiesto agli individui di focalizzare l’attenzione su
una croce, situata giusto al centro tra due quadrati, nei quali apparivano poi degli stimoli, e di rilevare il più
velocemente possibile la comparsa dello stimolo bersaglio (target). Prima della comparsa del target,
tuttavia, una freccia appariva sopra il punto di fissazione, suggerendo, con un’alta percentuale di
probabilità (80%), la posizione più probabile in cui il target sarebbe apparso. In alcune prove lo stimolo
appariva nel quadrato suggerito (prove “valide”), mentre in altre nel quadrato opposto (prove “invalide”). I
risultati hanno mostrato che i soggetti rispondevano più velocemente al target nelle prove valide che nelle
invalide, cioè che lo spostare preventivamente l’attenzione nella posizione indicata dal suggerimento
accresce la velocità di elaborazione dell’informazione in quel punto. Attraverso questo ed altri esperimenti,
l’attenzione è stata metaforicamente descritta come un fascio di luce che si muove nell’ambiente, andando
ad illuminare differenti regioni dello spazio in momenti diversi.
Un altro problema interessante è stabilire se, nel passare da una posizione ad un’altra, l’attenzione “salti”
da un punto ad un altro, oppure investa anche le posizioni intermedie (come farebbe un fascio di luce). I
risultati degli esperimenti hanno fornito prove a favore sia dell’una sia dell’altra ipotesi.
Inoltre è possibile controllare le dimensioni del fuoco dell’attenzione. Alcune ricerche hanno dimostrato
che un osservatore può, entro certi limiti, focalizzare la propria attenzione su un’area ampia o su un’area
ristretta, in quest’ultimo caso le informazioni vengono analizzate più velocemente.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Controllo dell’attenzione:
Il paradigma di Posner ci permette di parlare anche di attenzione volontaria ed involontaria. Infatti,
nell’esperimento di Posner, l’attenzione è diretta in modo volontario (o endogeno). Usando questo tipo di
paradigma, è stato inoltre dimostrato che l’attenzione può essere diretta anche in modo involontario (o
esogeno), cioè indipendentemente dalla volontà del soggetto. Nell’orientamento automatico non c’è
nessun avvertimento iniziale e l’attenzione viene catturata in modo spontaneo e immediato da un evento e
si dirige su quell’evento senza consapevolezza. Di solito questo tipo di orientamento ha luogo in seguito alla
comparsa improvvisa di un breve segnale luminoso in una certa posizione. Alcuni esperimenti hanno
confermato che un segnale luminoso periferico è in grado di produrre un orientamento automatico, e sono
stati inoltre suggeriti tre criteri che un orientamento deve rispettare per essere definito tale:
- è indipendente dal carico cognitivo, cioè ha luogo anche se il soggetto svolge un’altra attività mentale;
- è resistente alla soppressione, quindi una volta iniziato non può essere interrotto;
- non dipende dalle aspettative, cioè non dipende dal fatto che l’informazione veicolata dal suggerimento
sia utile ai fine del compito.
In sostanza, l’orientamento automatico si comporterebbe come un riflesso.

Interazione tra fattori volontari e automatici:


Messo in chiaro che abbiamo sia componenti automatiche che volontarie, capita nella vita quotidiana che
alcuni elementi possano catturare la nostra attenzione mentre stiamo cercando volontariamente
qualcos’altro. In questo caso i fattori automatici e quelli volontari competono per il controllo
dell’attenzione.
In generale, si ritiene che l’attenzione possa essere catturata automaticamente da eventi irrilevanti rispetto
al compito dell’osservatore. Tuttavia, secondo la recente TEORIA DELLA CATTURA CONTINGENTE un
orientamento puramente automatico non esiste. I risultati di alcuni esperimenti sembrano dimostrare che
un distrattore è in grado di catturare l’attenzione solo se è in qualche modo simile al target.

Attenzione “basata sugli oggetti”:


Esiste un’ipotesi secondo la quale l’attenzione non si muove e non è distribuita nello spazio, ma è piuttosto
basata sugli oggetti. Per dimostrare che l’attenzione può selezionare gli oggetti a prescindere dallo spazio,
sono stati condotti degli esperimenti in cui venivano presentate ai soggetti due figure di oggetti sovrapposti,
occupanti la medesima posizione spaziale. Il compito dei soggetti era riportare due caratteristiche degli
oggetti, una volta le due caratteristiche riguardava lo stesso oggetto, un’altra volta due oggetti diversi.
L’esperimento ha dimostrato che la prestazione dei soggetti era più accurata quando le due caratteristiche
riguardavano lo stesso oggetto. Questi risultati sono stati interpretati come prova del fatto che l’attenzione
opera selezionando gli oggetti, e non in base a coordinate spaziali. L’idea che gli oggetti siano le unità sulle
quali opera l’attenzione era stata già proposta in passato. Secondo questa ipotesi, prima dell’intervento
dell’attenzione il campo visivo sarebbe già segmentato in unità percettive (o oggetti), che costituirebbero gli
elementi su cui opererebbe successivamente l’attenzione. Tali unità sarebbero il prodotto delle leggi di
raggruppamento percettivo formulate nell’ambito della psicologia della Gestalt.

Distinzione tra elaborazione attentiva e preattentiva:


L’attenzione non riguarda solo una posizione o un oggetto nello spazio ma tutte le proprietà degli oggetti e
degli eventi o singole proprietà (colore, forma, dimensione, suono…).
La distinzione dunque è tra la capacità di sottoporre interi oggetti o caratteristiche di oggetti all’attenzione.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
- elaborazione preattentiva: quando sottoponiamo le singole caratteristiche dello stimolo come la presenza
o assenza di un elemento in quell’oggetto quindi le singole caratteristiche vengono elaborate
immediatamente senza che intervenga il filtro dell’attenzione. È automatica e richiede l’estrazione delle
singole proprietà. (precede l’elaborazione attentiva);
- elaborazione attentiva: l’attenzione focalizzata interviene per combinare tra di loro le diverse
caratteristiche per esempio la forma il colore la dimensione l’orientamento nello spazio ecc. (soggetto a
controllo da parte di individui ed è involontaria e investe interi oggetti);

Ricerca visiva:
Allo scopo di studiare i meccanismi di analisi del sistema visivo, Anne Treisman ed i suoi collaboratori resero
famoso un nuovo paradigma per lo studio dell’attenzione, il PARADIGMA DELLA RICERCA VISIVA. Il
paradigma consiste nel presentare sullo schermo di un computer un certo numero di elementi. Il soggetto
deve verificare se tra gli elementi è presente il target specificato all’inizio del test. Questo paradigma viene
utilizzato per studiare quali caratteristiche del target (rispetto ai distrattori, ossia gli altri elementi) rendono
la sua ricerca più o meno efficiente, e per inferire i meccanismi adottati dal sistema visivo per analizzare la
scena. Se un elemento possiede una caratteristica che lo rende unico rispetto a tutti gli altri, la ricerca
risulta essere molto efficiente, ed il TR (tempo di risposta) per la sua individuazione non varia all’aumentare
del numero complessivo di elementi. La funzione TR X numerosità degli elementi risulta essere pressoché
piatta in questo caso, segno che il processo di ricerca del target potrebbe avvenire in “parallelo”.

Deficit percettivi indotti sperimentalmente:


- Attentional blink = consiste nell’impossibilità di discriminare correttamente un evento quando la nostra
attenzione è temporaneamente concentrata su qualcos’altro. Per fare emergere questo limite
dell’attenzione, che causa a sua volta il deficit percettivo, è necessario porre l’attenzione in condizioni
critiche, cioè rendere il compito di selezione dell’informazione difficile.
- Change blindness = o “cecità al cambiamento”, consiste nell’incapacità di notare consapevolmente
cambiamenti rilevanti nella scena quando questi hanno luogo assieme ad altri eventi visivi di disturbo
(come quando si sta osservando una immagine su uno schermo e lo schermo viene momentaneamente
spento e poi riacceso). Uno dei paradigmi più usati per riprodurre tale fenomeno è il paradigma del
“flicker”, che consiste nel presentare ripetutamente al soggetto due immagini identiche in tutto tranne che
per un particolare, intervallandole da un breve spegnimento della scena.

Deficit percettivi causati da patologie neurologiche:


Sindrome di negligenza spaziale unilaterale (neglect) = patologia neurologica comunemente associata ad
una lesione del lobo parietale destro del cervello. Quantomeno nella fase acuta di questa patologia, i
pazienti mostrano una completa mancanza di consapevolezza degli stimoli presenti nella parte sinistra del
loro campo visivo, cioè in quella opposta all’area del cervello in cui si è verificata la lesione. Si noti che il
problema delle persone afflitte da questa sindrome non è quello di non vedere gli stimoli, ma il fatto che ciò
che sta alla loro sinistra semplicemente “non esiste”. Questo deficit comporta conseguenze importanti e
bizzarre anche nella vita quotidiana di questi pazienti, i quali possono completamente ignorare le persone
che li avvicinano dal lato sinistro, mangiare solo metà di quello che è presente nel piatto di fronte a loro.
Accade inoltre che vestano solo metà del corpo, oppure che si radano (o trucchino) solo metà del viso,
arrivando in alcuni casi a non riconoscere come loro il braccio o la gamba controlesionali (cioè dal lato
opposto a quello della lesione cerebrale).

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/
Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
MEMORIA – TRACCE E SCHEMI DI MEMORIA
Teorie della memoria basate sulla nozione di schema:
Tracce di memoria e schemi di memoria: Paul ha notato che l’idea di traccia di memoria è coerente con
l’ipotesi che concepisce la memoria come un dispositivo di registrazione. Immaginate che la memoria sia
simile ad una macchina in grado di produrre e immagazzinare copie fedeli degli eventi, come un
videoregistratore. Un tale dispositivo non solo è in grado di creare delle copie degli eventi, ma anche di
conservare queste copie per un periodo di tempo indefinitamente largo. In principio, gli eventi registrati
possono essere rivisti un numero illimitato di volte, e possiedono sempre le medesime caratteristiche,
anche se col tempo, però, possono in qualche modo deteriorarsi.
Freud ha proposto l’analogia del notes magico, e questa proposta è stata discussa sia da Paul che da
Erdelyi. Il notes magico è un giocattolo per bambini, composto da un foglio di plastica trasparente che
copre un foglio di carta cerata posto sopra uno strato di cera. Se qualcosa viene scritto sul foglio di plastica
trasparente è possibile leggere ciò che è stato scritto. Se il foglio di plastica viene sollevato, però, ciò che è
stato scritto scompare. Il foglio di plastica trasparente rappresenta la percezione di un evento. Le nostre
percezioni sono transitorie. La memoria può invece essere intesa come ciò che rimane impresso sulla cera
dopo che il foglio di plastica trasparente è stato sollevato. Questa analogia non è perfetta, perché è poco
probabile che la memoria abbia una struttura così poco organizzata. Tuttavia questa analogia ci aiuta a
chiarire la distinzione tra tracce di memoria e schemi di memoria. Se le tracce di memoria esistessero
veramente, allora esse sarebbero depositate in memoria come copie ben definite delle esperienze
precedenti. Da questo punto di vista ricordare significa fare nuovamente esperienza delle esperienze del
passato. Questa ipotesi è stata chiamata da Neisser l’ipotesi della riapparizione.

Flash di memoria: È possibile avere ricordi particolarmente lucidi e chiari? Brown e Kulik chiesero ad
ottanta studenti universitari di cercare di ricordare in che circostante fossero venuti a conoscenza
dell’assassinio del presidente Kennedy. I risultati hanno condotto i due a capire che tanto più un evento
veniva giudicato importante, tanto più spesso esso veniva reiterato in seguito. Loro hanno deciso di
chiamare questo tipo di ricordi flash di memoria, creando un’apposita teoria chiamata NOW PRINT:

1 – in primo luogo, è necessario giudicare il valore di sorpresa di un evento


2 – è necessario valutare quanto un evento sia importante
3 – se un evento è sorprendente e importante allora avviene la formazione di un flash di memoria
4 – reiterazione. Gli individui tendono a pensare più spesso ai flash di memoria che ad altri ricordi, e
tendono a creare per loro un resoconto verbale
5 – queste reiterazioni portano al quinto stadio, quello dei resoconti dei flash di memoria che vengono
raccontati ad altre persone

Secondo Brown e Kulik un meccanismo come quello del Now Print potrebbe rappresentare una forma di
memoria molto primitiva, la quale poteva essere stata utile quando le testimonianze degli eventi non
potevano essere conservate per mezzo di ausili artificiali della memoria.

Esiste un meccanismo per i flash di memoria?: Nei flash di memoria le inesattezze si verificano quando le
informazioni che non possono essere recuperate dalla memoria vengono sostituite dalle nostre inferenze o
congetture. McCloskey, Wible e Cohen hanno concluso che i flash di memoria non sono necessariamente
più accurati dei ricordi normali e che non vi è alcun bisogno di postulare uno speciale meccanismo per
spiegarli. I flash di memoria, piuttosto, sono il prodotto degli stessi fattori che influenzano i ricordi normali.
Tanto più i ricordi somigliano al classico flash di memoria quanto più importante è un evento, più forte è la
reazione emotiva che esso suscita, e più frequente viene ripetuta la vicenda oggetto del flash. Tanto più i
resoconti di un flash di memoria sono incompleti, infedeli e tendenti a divenire meno precisi nel tempo,
quanto più mancano queste caratteristiche. Weaver, come Neisser, suggerisce che la fiducia che abbiamo

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
nei flash di memoria derivi dal fatto che ci rendiamo conto di essere stati testimoni di un evento
storicamente importante, e desideriamo conservare nella memoria il sentimento di esserne stati partecipi.
Tuttavia, il nostro effettivo ricordo di eventi storicamente importanti può non essere più accurato del
nostro ricordo di altri eventi.

Teoria di Bartlett:
Bartlett ha fatto uso di una tecnica chiamata metodo delle riproduzioni in serie. Ad un primo soggetto, A,
viene dato qualcosa da ricordare. A mette per iscritto tutti i particolari che è in grado di rievocare. La
versione fornita da A, a sua volta viene fatta leggere ad un secondo soggetto, B, il quale cerca di rievocarla.
La versione fornita da B, a sua volta, viene presentata ad un terzo soggetto, C, e così via.
In questo modo, ciascun soggetto deve cercare di rievocare la versione del materiale originale fornita dal
soggetto precedente.
Bartlett credeva che le trasformazioni che possono essere individuate all’interno di questa frequenza di
riproduzioni rivelano ciò che succede alla memoria nel corso del tempo. Gli individui tendono a selezionare
solo una parte del materiale che deve essere ricordato e ad ometterne un’altra parte. Queste omissioni
riflettono un processo di razionalizzazione. Gli individui fanno in modo di rendere il racconto per quanto
possibile coerente e ragionevole dal loro punto di vista. Il materiale incoerente tende ad essere escluso.

Nozione di schema per Bartlett: Uno schema rappresenta un’organizzazione flessibile e questo è ciò che la
rende utile. Se la memoria fosse costituita semplicemente da un insieme di tracce, la rigidità che ne
conseguirebbe ne diminuirebbe enormemente l’utilità. Uno schema è un arrangiamento più astratto e
generale.

Ricerche basate sulla teoria degli schemi mnestici:


Alba e Hasher hanno suggerito che le teorie basate sulla nozione di schema solitamente descrivono la
memoria nei termini dei seguenti processi:
a) selezione
b) astrazione
c) interpretazione
d) integrazione

Lo schema seleziona le informazioni che sono coerenti con i nostri interessi correnti. In seguito,
l’informazione selezionata viene convertita in una forma più astratta. Piuttosto che cercare di conservare in
forma esatta l’evento in questione, noi estraiamo da esso il suo senso generale. Queste informazioni sono
poi interpretate facendo riferimento alle altre informazioni contenute in memoria. Inoltre, le informazioni
vengono poi integrate in modo tale da rendere coerenti con lo schema.

Selezione: Questo processo ha luogo quando le informazioni vengono ricevute oppure quando esse
vengono rievocare? Bransford e Johnson hanno presentato evidenze a sostegno della prima ipotesi, mentre
Anderson e Pichert hanno presentato evidenze a sostegno della seconda ipotesi.
L’esperimento di questi ultimi sostiene che ci sia una selezione dell’informazione nel corso del processo di
rievocazione. A questo punto, infatti, è più probabile che vengano recuperate soltanto quelle informazioni
che sono rilevanti per il punto di vista assunto al momento della rievocazione.
Presi insieme, gli studi di questi quattro indicano che il processo di comprensione richiede l’attivazione di
uno schema.
Esistono anche delle interferenze, in particolare due tipi:
- interferenza proattiva = ha luogo quando si apprende A, poi B, e poi, dopo un certo periodo di tempo, si
prova a rievocare B. In generale, risulta più difficile rievocare B se in precedenza si è appreso A.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
- interferenza retroattiva = ha luogo quando si apprende A, poi si apprende B, e poi, dopo un certo periodo
di tempo, si prova a rievocare A.

Astrazione: È vero che gli individui tendono a formare una rappresentazione astratta del significato delle
loro esperienze, ricordandone solo l’essenza ma non i dettagli? Uno studio di Jacqueline Sachs viene spesso
citato a sostegno dell’ipotesi che gli individui ricordino il significato delle frasi che sentono, ma
dimentichino le parole che sono state effettivamente pronunciate.
Dagli esperimenti effettuati, è uscito fuori che: se non passa troppo tempo tra la frase originale e la frase di
controllo, i soggetti sono in grado di ricordare le esatte parole usate nella fase originale. D’altra parte,
invece, i soggetti non sono in grado di ricordare molto bene la frase originale se essa + presenta all’inizio o a
metà della storia. In questo caso, i soggetti non erano in grado di notare un cambiamento lessicale fra la
frase originale e la frase di controllo, anche se erano in grado di notare un cambiamento semantico.
La capacità di ricordare la forma letterale delle frasi udite è confermata da altri esperimenti.

Interpretazione: Alba e Hasher hanno ipotizzato che gli individui interpretino l’informazione che hanno a
disposizione facendo delle inferenze, per poi ricordare queste inferenze come parte del materiale
originario.

Integrazione: Secondo Alba e Hasher, il processo di integrazione costituisce “l’elemento centrale delle
teorie basate sulla nozione di schema”. Molte evidenze sono state presentate a sostegno dell’ipotesi che il
significato che è astratto da un evento viene combinato con il resto delle nostre conoscenze in modo tale
da formare un insieme coerente, o Gestalt.
I risultati degli esperimenti condotti da Bransford e Franks indicano che maggiore è la semplicità di una
frase test, tanto più grande è la probabilità che essa venga riconosciuta erroneamente come una frase di
acquisizione. Questi falsi riconoscimenti devono essere considerati come evidenze a favore dell’ipotesi che
noi dimentichiamo i particolari delle nostre esperienze? In varie pubblicazioni successive, Elisabeth Loftus
ha sostenuto che informazioni fuorvianti acquisite successivamente all’evento vengono spesso integrate
con le informazioni originarie. Va sottolineato che secondo Loftus e Palmer gli individui talvolta non sono in
grado di determinare da quale fonte si origina l’informazione fuorviante che è stata acquisita dopo l’evento.

Script:
Le critiche rivolte alla teoria degli schemi non dovrebbero oscurare il fatto che il concetto di schema può
essere (ed è stato) usato per spiegare molti fatti. Il concetto di script (copione), per esempio, può essere
usato per dar conto degli stessi fatti spiegati mediante il concetto di schema.
Schank e Abelson sono stati i primi a far uso della nozione di script nella ricerca sulla memoria. Essi hanno
definito uno script come una “struttura che descrive una sequenza appropriata di eventi in un contesto
particolare”. Si intende uno schema che ha interazioni con la memoria procedurale ed è uno schema più
fisso e rigido che ci prescrive cosa dobbiamo fare in date situazioni, come quali comportamenti adottare
quando andiamo al ristorante.

Gli script sono organizzati in forma gerarchica nella memoria:


1 – memoria di eventi = costituita da ricordi più concreti, quelli cioè che riguardano le esperienze specifiche
2 – memoria di eventi generalizzati = contiene le informazioni che sono state astratte a partire da eventi
particolari
3 – memoria situazionale = contiene le informazioni che riguardano il contesto generale all’interno del quali
si realizzano differenti eventi specifici
4 – memoria intenzionale = livello ancora più grande della memoria situazionale. Contiene regole molto
generali per il conseguimento degli scopi degli individui

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Teoria dei livelli di elaborazione:
Craik ha notato che i primi modelli informazionali si sono preoccupati più degli aspetti strutturali che di
quelli procedurali dell’attività cognitiva. All’inizio si cercava, infatti, soprattutto di definire le differenti
componenti del sistema cognitivo (memoria primaria, secondaria o a breve e lungo termine), senza magari
dire nulla a proposito dei processi che determinano ciò che avviene effettivamente ricordato.
Craik ha notato che la capienza della memoria primaria è di circa 5 item se gli item non hanno rapporti gli
uni con gli altri. La capienza diventa molto più grande se gli item da ricordare sono collegati tra loro.
Lui e Lockhart hanno posto l’accento sui processi che influenzano la memoria. Essi distinguono una
modalità superficiale e una modalità profonda di elaborazione (si parla di profondità di elaborazione).
Secondo loro, l’attività cognitiva costituisce un sistema volto alla percezione e alla comprensione degli
eventi. Tanto più profonda è l’elaborazione tanto maggiore è la comprensione. Tanto più grande è
l’importanza che attribuiamo ad un evento tanto più cerchiamo di comprenderlo.
Secondo loro, il ricordo non è altro che il resoconto delle operazioni eseguite per elaborare un evento. Se
l’elaborazione è superficiale il ricordo sarà povero; se l’elaborazione è profonda il ricordo sarà ricco.

Ciò che è stato identificato come una struttura da Waugh e Norman, ovvero la memoria primaria, viene
considerato dalla teoria dei livelli di elaborazione come un processo attentivo che rende possibili due
differenti tipi di reiterazione:
- reiterazione di mantenimento = semplice ripetizione del medesimo processo
- reiterazione integrativa = sottopone un evento ad un’elaborazione più profonda

Craik e Lockhart hanno notato che l’approccio da loro proposto ha ricevuto numerose critiche, come ad
esempio la presunta generalità di questa teoria riguardo i meccanismi soggiacenti della memoria. Loro
hanno replicato che la loro teoria ha stimolo un gran numero di ricerche che ha poi portato allo sviluppo di
concetti come la complessità di rielaborazione e la distintività:
- complessità di rielaborazione = quantità di elaborazione ulteriore effettuata dall’individuo che produce
materiali addizionali, associati o ridondanti
- distintività = precisione con la quale un elemento è codificato.

Approcci ecologici alla memoria:


Ebbinghaus fu il primo a utilizzare le sillabe prive di senso, consistenti di una consonante seguita da una
vocale seguita da una consonante, come PIB o WOL. Esperimento: leggeva e rileggeva una lista di queste
consonanti, e determinava di quanto tempo avesse bisogno per recitare la lista senza errori per due volte.
Egli riuscì a stimare in che misura la lista veniva dimenticata dopo i vari intervalli di tempo. In generale,
l’oblio era maggiore immediatamente dopo l’apprendimento, ed era seguito da un declino più graduale.
La ricerca di laboratorio di Ebbinghaus miravano a scoprire i principi generali della memoria, questo
orientamento può essere contrapposto all’approccio ecologico allo studio della memoria. Questo
approccio è stato spesso identificato con le ricerche di Neisser. Coloro che seguono l’approccio ecologico
allo studio della memoria sono spesso altamente critici nei confronti della ricerca sulla memoria improntata
a principi generali.

Bahrick e il “permastore”: ha studiato la ritenzione a lungo termine del materiale appreso a scuola. Questi
studi si prestano perfettamente ad esseri messi a contrasto con gli studi sulla memoria di Ebbinghaus.
Bahrick ha rilevato che mentre sono stati condotti molti studi di laboratorio sull’apprendimento, ben poche
ricerche si sono occupate di quel che accade di ciò che apprendiamo a scuola.La maggior parte di noi
trascorre anni a scuola, in teoria ad imparare una gran quantità di cose, ma non ci è dato di sapere per
quanto a lungo siamo effettivamente in grado di ricordare quello che abbiamo appreso in questo modo.
Bahrick ha tentato di darsi delle spiegazioni in uno studio naturalistico del ricordo a lungo termine della
lingua spagnola appresa a scuola. Risultati alla mano, ha ipotizzato l’esistenza di uno stato di memoria

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
relativamente permanente che ha chiamato PERMASTORE. La maggior parte dei precedenti studi sulla
memoria non si sono occupati della capacità di ritenzione nel corso di lunghi periodi di tempo per rendersi
conto del fatto che la qualità di alcuni ricordi non peggiora dopo che è passato un certo periodo di tempo.
Questi ricordi sono immagazzinati nel permastore. Esempi, secondo Bahrick, sono le regole aritmetiche, le
capacità motorie e forse anche i flash di memoria.
Dal momento che Bahrick ha trovato così poche evidenze di reiterazione dopo che l’apprendimento aveva
avuto luogo, si potrebbe concludere che la reiterazione dopo la fase di apprendimento non influenza il
trasferimento delle informazioni nel permastore. Il fatto che le informazioni finiscano o meno con l’essere
immagazzinate nel permastore viene determinato nel momento dell’apprendimento, anche se il
meccanismo preciso per mezzo del quale l’informazione viene trasferita nel permastore non è ancora
chiaro.
Gli studi di Bahrick indicano che il successo di uno studente in una materia non è affatto l’unico fattore che
determina quanto, alla lunga, lo studente ricorderà quella materia.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
MEMORIA – SISTEMI DI MEMORIA (+ ALTRO)
Dal momento che la memoria, al pari di altre componenti del sistema cognitivo, è estremamente
complessa, ci sono diversi modi per esplorarla

La strada verso il ricordo: codifica, ritenzione e recupero:


Perché ci possa essere un ricordo, deve verificarsi una qualche forma di apprendimento; l’informazione
deve cioè essere acquisita. Una volta che l’informazione viene acquisita, essa deve essere mantenuta nella
memoria fino a che non ci serve. Infine, questa informazione viene usata, noi, cioè, ricordiamo. Queste
sono le tre fasi del ricordo:
- codifica = si riferisce al modo in cui la nuova informazione viene inserita in un contesto di informazioni
precedenti. Gli individui codificano gli eventi in modi differenti. La forza della traccia di memoria dipende
dalla profondità della codifica.
- ritenzione = si sostiene che se si codifica l’informazione basandosi sul significato (elaborazione profonda)
si ottiene una migliore ritenzione. Generalmente, la strategia più comune per immagazzinare l’informazione
è la ripetizione (tecnicamente, reiterazione).
- recupero = perché il recupero avvenga è necessario che sia presente un appropriato suggerimento che in
qualche modo “riattivi” gli elementi focali dell’evento da ricordare. Non sono le caratteristiche della traccia
in quanto tali a determinare il ricordo, ma piuttosto la compatibilità tra le proprietà della traccia e le
caratteristiche dell’informazione fornita al recupero.

La durata dei ricordi: memoria sensoriale, memoria a breve termine e memoria a lungo termine :
In un certo senso, tutta la memoria potrebbe essere divisa in due grandi entità:
- memoria primaria = transitoria e fragile (memoria a breve termine)
- memoria secondaria = spiega i fenomeni di ricordo permanente e ci permette di effettuare la codifica,
ritenzione e recupero su contenuti che si perpetuano per una durata quasi illimitata di tempo (memoria a
lungo termine)

Uno dei fattori che favoriscono la visione multisistemica della memoria fu la convincente spiegazione dei
risultati delle ricerche di Sperling. I risultati delle ricerche di Sperling sembrarono subito molto interessanti
perché fornivano la prima prova sperimentale dell’esistenza di un magazzino di memoria di natura
sensoriale, di grande capacità, ma nel quale le informazioni decadono molto più rapidamente che nella
memoria a breve termine. Questo tipo di memoria è stato chiamato da Neisser memoria iconica. Mella
memoria sensoriale uditiva, il corrispondente della rappresentazione iconica è la memoria ecoica.
Oggi, quando si parla di ricordo temporaneo o di memoria a breve termine si fa riferimento ad un sistema
chiamato memoria di lavoro che mantiene ed elabora le informazioni durante l’esecuzione di compiti
cognitivi. La memoria di lavoro rappresenta il nostro presente. Essa inoltre ci aiuta a trasformare il passato
in presente (riportando i ricordi ad uno stavo attivo). Questa struttura di memoria ha però una capacità
limitata e può mantenere l’informazione solo per un breve periodo di tempo.
Cosa significa allora parlare di memoria a breve termine o di memoria a lungo termine? Il modello standard
sviluppato alla fine degli anni sessanta si basava sulla metafora della mente come computer e ipotizzava
l’esistenza di tre “magazzini” di memoria: la memoria sensoriale o registri sensoriali, la memoria a breve
termine e la memoria a lungo termine. Oggi sappiamo, invece, che un’interpretazione “letterale” della
distinzione in memoria sensoriale, MBT e MLT non è del tutto corretta, in quanto cattura soltanto la
dimensione della durata temporale del ricordo, senza tener conto di altre importanti dimensioni come ad
esempio il sistema coinvolto nel ricordo, il tipo di meccanismo sottostante e la natura della
rappresentazione.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Altri tipi di memoria che non verranno citati dopo nel riassunto, o quasi (by me) :
CONSAPEVOLEZZA:
- memoria dichiarativa = si riferisce, a differenza di quella procedurale, alla conoscenza di fatti accessibili
alla coscienza ed espressi nella nostra mente in forma proposizionale e forma simile a quella delle frasi
della lingua usata. Memoria alla base della conoscenza dei fatti. Esempio: la conoscenza della definizione di
una nuova parola in lingua straniera o delle esatte circostanze in cui abbiamo conosciuto una persona.
- memoria procedurale = se io chiedessi di spiegarmi come si va in bicicletta, è probabile che la vostra
risposta assuma la forma di un’azione, non ci sarebbe altro modo di dimostrare di sapere se non fare. Gli
studiosi di memoria parlano in questo caso di memoria procedurale, cioè una memoria legata alla reale
attuazione del compito e accessibile e valutabile solo attraverso l’esecuzione di un’azione (questa memoria
non riguarda solo le attività motorie).

TEMPO:
- memoria retrospettiva = recuperare dalla nostra memoria fatti ed episodi del passato, quindi quello che
abbiamo già compiuto o vissuto.
- memoria prospettica = “ti telefono verso le quattro”, questa frase esprime l’intenzione di compiere una
data azione in un futuro che non sempre è immediato. Ricordare i piani, le intenzioni, le azioni che
svolgeremo in futuro.

Altre non ho voglia di scriverle, tipo memoria a lungo termine visiva, a breve termine visiva, a lungo termine
uditiva, a breve termine uditiva.

Tulving e i sistemi di memoria:


La distinzione tra memoria episodica e memoria semantica ha esercitato una grande influenza sin da
quando è stata inizialmente proposta da Tulving.

- memoria episodica = si riferisce all’immagazzinamento e al recupero di eventi ed episodi temporalmente


databili, localizzabili spazialmente ed esperiti personalmente
- memoria semantica = si riferisce all’immagazzinamento e al recupero di conoscenze che riguardano le
parole e i concetti, le loro proprietà e relazioni reciproche

Nel corso degli anni Ottanta, Tulving ha dovuto poi però apportare alcuni cambiamenti per far fronte alle
nuove informazioni acquisite. Egli ha ora ipotizzato tre tipi di memoria: episodica, semantica e procedurale.
La distinzione tra la memoria procedurale e le altre forme di memoria può essere esemplificata facendo
riferimento alla distinzione tra conoscenza tacita e conoscenza esplicita. La conoscenza procedurale è una
forma di conoscenza tacita: riguarda ciò che conosciamo senza necessariamente essere consapevoli di che
cosa è che sappiamo.
Se gli individui sono capaci di descrivere quello che sanno, allora essi fanno riferimento alla loro memoria
semantica.

Tulving ha suggerito che a ciascuno dei tre sistemi di memoria è associata una diversa forma di coscienza:

- memoria episodica → autonoetica (consapevolezza di sé. Riguarda il ricordo di esperienze personali)


- memoria semantica → noetica (presenza di consapevolezza. Consapevoli sia della situazione immediata in
cui ci troviamo, ma anche delle cose che possono essere assenti in quella situazione specifica)
- memoria procedurale → anoetica (assenza di consapevolezza. Consapevoli soltanto di ciò che caratterizza
la situazione immediata in cui ci troviamo)

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
MEMORIA IMPLICITA: Jacoby e Witherspoon scrivono della memoria senza consapevolezza. Nella maggior
parte degli esperimenti ai soggetti viene implicitamente chiesto di ricordare qualcosa. Ai soggetti viene
presentata una lista di parole, e viene chiesto loro di rievocarne il maggior numero possibile. I soggetti
solitamente sanno che dovranno rievocare qualcosa e la loro memoria è episodica. Ma ci sono anche
situazioni sperimentali dove i soggetti non si rendono conto che il ricordo di un evento può influenzare
l’interpretazione e la codifica di un evento successivo senza che l’individuo sia consapevole di ricordare
l’evento precedente. Questa memoria senza consapevolezza viene spesso dimostrata per mezzo della
metodologia del priming.
Se si fa leggere al soggetto dell’esperimento parole scritte male questo si ripercuoterà inconsapevolmente
sulla sua ortografia.

Amnesia: Sia Schacter che Baddeley hanno notato la rilevanza della psicosi di Korsakoff per lo studio della
memoria. La psicosi di Korsakoff è una forma di amnesia che si verifica come conseguenza dell’alcolismo
cronico. La sua causa più probabile è l’atrofia dei tessuti cerebrali dovuta alla malnutrizione, in particolare
modo alla deficienza della vitamina B12.
Warrington e Weiskrantz hanno recensito vari studi che sembrano suggerire che i pazienti affetti da
amnesia abbiano un rendimento peggiore nei compiti che richiedono l’uso della memoria esplicita e un
rendimento migliore in quelli che richiedono l’uso della memoria implicita.

Memoria semantica:
La memoria semantica si riferisce alle informazioni di carattere generale che possediamo a proposito del
mondo. Tulving ha paragonato la memoria semantica ad un dizionario mentale che contiene parole,
concetti e le loro relazioni. L’uso della memoria semantica può essere esemplificato facendo riferimento,
per esempio, ai tentativi di ricordare il nome di una persona. Può capitare talvolta, e capita alquanto
spesso, che un nome non ci venga in mente. James ha descritto questo come il fenomeno della parola sulla
punta della lingua”.

Fenomeno della parola “sulla punta della lingua”: Brown e McNeill hanno condotto un famoso studio su
questo fenomeno. Dai loro esperimenti arriviamo a varie conclusioni:
- i soggetti sono in grado di accedere a una grande quantità di informazioni a proposito di una parola prima
di essere capaci di rievocarla (rievocazione generica);
- i soggetti sono spesso in grado di identificare alcuni aspetti della parola critica come, per esempio, la
lettera iniziale e il numero di sillabe;
- i soggetti è probabile che rievochino parole simili a quella che si tenta di rievocare in quanto al suono o al
significato;
- i soggetti spesso rievocano il termine desiderato solo quando non si cerca più di rievocarlo;

Modello a rete gerarchica di Quillian (1969):

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Uno dei primi esempi di un modello di rete di memoria semantica è il TLC (Teachable Language
Comprehender) di Collins e Quillian. In questo modello, ogni nodo è una parola, che rappresenta un
concetto (come "uccello"). In ogni nodo è memorizzato un insieme di proprietà (come "può volare" o "ha le
ali") così come puntatori (cioè collegamenti) ad altri nodi (come "pollo").
Un nodo è direttamente collegato a quei nodi di cui è una sottoclasse o superclasse (ad esempio, "uccello"
sarebbe collegato sia a "pollo" che a "animale"). Quindi, il TLC è una rappresentazione di conoscenza
gerarchica in quanto i nodi di alto livello, che rappresentano le grandi categorie, sono collegati
(direttamente o indirettamente) a molte istanze di quelle categorie, mentre i nodi che rappresentano
istanze specifiche sono a un livello inferiore, connessi solo alle loro superclassi.
Inoltre, le proprietà sono memorizzate al livello di categoria più alto a cui si applicano. Ad esempio, "è
giallo" verrebbe memorizzato con "canarino", mentre "ha le ali" verrebbe memorizzato con "uccello" (un
livello superiore) e "può muoversi" verrebbe memorizzato con "animale" (un livello ancora superiore).
I nodi possono anche memorizzare la negazione delle proprietà dei loro nodi sovraordinati (ad esempio,
"non può volare" verrebbe memorizzato con "pinguino").
Ciò fornisce un'economia di rappresentazione in quanto le proprietà vengono memorizzate solo al livello di
categoria in cui diventano essenziali, ovvero al punto in cui diventano caratteristiche critiche.

Modello della propagazione dell’attivazione (Collins e Loftus, 1984):

La nozione di propagazione dell’attivazione è stata proposta da Quillian e successivamente elaborata da


Collins e Loftus. Secondo questa nozione, nel corso di una ricerca all’interno di una rete gerarchica vengono
attivati tutti i percorsi della rete lungo i quali la ricerca ha luogo.
L’attivazione si propaga dal nodo dove inizia la ricerca, e si espande costantemente.
Tanto maggiore è l’attivazione di un nodo, tanto più facilmente la sua informazione può essere elaborata.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Modello a reti preposizionali: Anderson e la teoria ACT (1984):

La teoria ACT-R (Controllo Adattativo del Pensiero azionale) è una teoria cognitiva dell’apprendimento che
riguarda come la memoria è strutturata. La cosiddetta architettura cognitiva dell’ACT-R è composta da tre
parti principali: memoria di lavoro, memoria dichiarativa e memoria procedurale.
- Memoria di lavoro: La memoria di lavoro (Working Memory, WM) è la parte cosciente della memoria. In
passato la memoria di lavoro veniva chiamata memoria a breve termine. La memoria di lavoro si pensa sia
costituita da diversi tipi di memoria, ad esempio visiva e auditiva (fare riferimento ad esempio ai lavori di
Baddeley and Hitch). La memoria di lavoro interfaccia i sensi con la memoria di lungo termine. La memoria
di lungo termine è composta da almeno due diversi tipi di blocchi di memoria che hanno a che vedere con
una parte “dichiarativa” cioè quella che comprende i fatti e li riconosce e una seconda di tipo
“procedurale”, cioè sul come le cose devono essere fatte;
- Memoria dichiarativa: La memoria dichiarativa contiene quel tipo di conoscenze fattuali che sono
immagazzinate nelle reti semantiche. La memoria dichiarativa trattiene la conoscenza dei fatti ed ogni
associazione rilevante e i contesti di ciò che viene memorizzato;
- Memoria procedurale: La memoria procedurale, come abbiamo già visto, contiene le nostre conoscenze a
proposito di come fare qualcosa. La memoria procedurale, nella teoria di Anderson, fa uso di sistemi di
produzione. Secondo Anderson la memoria procedurale consiste di sequenze di azioni basate sul
riconoscimento di schemi. Le sequenze di azioni sono molto simili alle istruzioni di un linguaggio di un
computer, come “if-then”, cioè “se questo accade allora fai quello”;

Principale caratteristica che lo distingue dai modelli precedenti: nei modelli precedenti i concetti erano
corrispondenti alle parole della lingua e appartengono alla categoria di base che massimizza le proprietà
che deve avere un concetto, un concetto non troppo specifico ma neppure troppo astratto. Elementi che
appartenevano alla categoria di base, cosa diversa nel modello di Anderson.
L’unità di base non è una parola ma una frase.

-Connessioni tra reti o concetti hanno forma di preposizioni e questo permette di dare un significato e
interpretazione anche a frasi paradossali, come ad esempio: l’alto avvocato credeva che gli uomini
venissero da Marte;
- Attribuisce le relazioni corrette tra gli elementi della frase
- Anche qui circola attivazione dove è tanto forte quanto meno si disperde
- Questo principio della rete proposizionale fa un’assunzione forte; i concetti hanno corrispondenza
biunivoca con le frasi della lingua

Modello riesce a spiegare l’effetto ventaglio; sono stati fatti esperimenti con soggetti molto competenti in
una determinata area esempio medici o avvocati ecc. Questi venivano confrontati con soggetti che non

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
erano laureati o non si interessavano di sport ecc. Ai soggetti venivano sottoposte delle frasi sulla disciplina
che per il primo gruppo era oggetto di interesse. Vuol dire che riguardo alla voce di legge un avvocato ha
una memoria semantica più fitta rispetto a uno che non ha mai studiato legge. Risultato: se si rivolgono
delle domande che riguardano quell’aria di interesse le persone esperte impiegano più tempo a rispondere
rispetto a quelli che non si occupano di quell’area. Il motivo di ciò è che dato che l’attivazione parte da un
nodo e va a interessare altri oggetti della rete, in una rete molto più ricca per soggetti che praticano la
conoscenza su un dato dominio l’attivazione si disperde su molti più nodi mentre in una rete meno fitta
l’attivazione ha sempre valore 100.

Modelli connessionistici della memoria:


I modelli connessionisti assumono che l’informazione venga elaborata per mezzo delle interazioni fra un
ampio numero di unità elementari di elaborazione, ciascuna delle quali invia segnali di tipo eccitatorio
oppure inibitorio ad altre unità.

(In foto, il modello per il riconoscimento di pattern proposto da McClelland e Rumelhart). Il funzionamento
del sistema è parallelo, in un senso che potremmo definire verticale e orizzontale. I modelli connessionisti
tentano di specificare la microstruttura dei processi cognitivi. Questo significa che questi modelli
costituiscono dei tentativi di specificare in maniera dettagliata le modalità di funzionamento di processi
come la memoria, per esempio.
Nella parte inferiore del modello sono rappresentate le unità corrispondenti alle caratteristiche di base
delle lettere. Un’unità viene attivata se la caratteristica che essa rileva è presente all’interno dello stimolo.

Come viene recuperata l’informazione dalla memoria? Secondo l’approccio connessionista, le copie di
particolari esperienze non vengono immagazzinate in memoria nella forma di tracce di memoria. Piuttosto,
viene ipotizzata l’esistenza di unità per le esperienze individuali, connesse ad altre unità che rappresentano
le varie proprietà dell’esperienza. McClelland, Rumelhart e Hinton hanno sottolineato che alcune
esperienze sono dotate delle medesime proprietà; ciò significa che l’unità che rappresenta una particolare
proprietà tenderà ad essere connessa con ricordi differenti. Ogni volta che una proprietà viene attivata,
essa tenderà ad attivare tutti i ricordi ai quali è connessa. Per questa ragione, per poter facilitare la
rievocazione di una particolare esperienza, il sistema deve possedere sia connessioni inibitorie che
connessioni eccitatorie tra le varie unità.

Memoria autobiografica:
La memoria autobiografica è una forma di memoria episodica nella quale gli eventi vengono rievocati
insieme all’indicazione del momento della vita dell’individuo in cui si sono verificati. Riguarda degli eventi

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
dove l’attore principale è colui che ricorda l’evento stesso. È caratterizzata in relazione al sé.
Non può essere studiata attraverso tecniche standardizzate e classiche visto che i ricordi sono proprio delle
persone, quindi la tecnica di studio usata è quella che consiste nella presentazione di parole accompagnate
dalla richiesta di recuperare eventi proprio associati a quelle parole lette.
Alcuni esperimenti indicano che di solito le persone dovrebbero essere in grado di rievocare circa 220
episodi autobiografici relativi agli ultimi vent’anni. Questo valore è chiamato numero di Galton.
Altri studi invece forniscono evidenze a proposito della presenza di un effetto di reminiscenza nei soggetti
anziani. Il fenomeno della reminiscenza consiste nella tendenza a ricordare gli eventi del periodo iniziale
della vita meglio di quanto ci si aspetterebbe di conseguenza del graduale declino della memoria con l’età.
Un altro processo che sembra influenzare la memoria autobiografica è costituito dalla cosiddetta amnesia
infantile. Questo fenomeno concerne il fatto che la quantità di episodi che vengono ricordati a proposito
dei primi anni di vita è minore di quella che ci si aspetterebbe se la memoria declinasse gradualmente col
passare del tempo.
Alcuni sostengono che la questione della fedeltà dei ricordi autobiografici è irrilevante. Quando una
persona ricorda gli eventi che ha vissuto in sta cercando di essere fedele. I ricordi autobiografici sono invece
influenzati dagli scopi che cerchiamo di perseguire. Non è che mentiamo deliberatamente; è che la verità è
irrilevante.

Livelli strutturali gerarchici della memoria autobiografica:


1° livello: è il livello più astratto e generale della memoria autobiografica. Si riferisce ai periodi estesi della
vita di un individuo e alle emozioni che si provavano o stati d’animo;
2° livello: è il livello degli eventi generali. Si riferisce a giorni o settimane e prende la forma di riassunti di
eventi ripetuti, eventi accomunati dalla loro ripetizione all’interno dello stesso ambiente e con le stesse
persone in arco di tempo di giorni e settimane;
3° livello: è il livello di conoscenza di eventi specifici. È un livello di conoscenza percettivo che può durare
fino ad alcune ore, si parla di un singolo evento e dell’intervallo tra l’evento e la rievocazione che si riferisce
ad ore.

Invecchiamento, morbo di Alzheimer e riabilitazione:


Che la memoria declini con l’età è opinione comune. Più gli anni passano, più le persone riferiscono di avere
difficoltà a riconoscere gli altri e/o a ricordarne il nome. Ma mentre sulla proposizione generale c’è ampio
consenso, lo stesso non si può dire dell’esatta natura di tale declino. Le ricerche più recenti hanno suggerito
alcune possibilità. Mitchell, ad esempio, ha studiato le differenze nel modo in cui declinano con l’età la
memoria episodica e quella semantica.
Howard, Fry e Brune hanno confermato che le persone anziane possono avere difficoltà a rievocare
volontariamente gli eventi recentemente accaduti loro. Tuttavia, se sono sottoposte a prove più sottili, esse
dimostrano di avere conoscenza di quegli stessi eventi.
È possibile che i deficit cognitivi che si presentano nelle persone anziano siano piuttosto specifici, e non
generali. Non solo possono esserci grandi differenze individuali nella rapidità con cui la memoria declina,
ma il deficit di memoria manifestato può dipendere dal particolare contesto nel quale viene saggiato.

Morbo di Alzheimer: Uno dei più temuti disturbi della memoria. È opinione generale che nei pazienti di
Alzheimer sia danneggiata la conoscenza generale, vale a dire la memoria semantica.
Gli esperimenti suggeriscono che il morbo non comporti tanto l’incapacità di recuperare conoscenze
esistenti quanto il deterioramento di conoscenze preesistenti.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
IMMAGINI VISIVE E MAPPE COGNITIVE (+ RICONOSCIMENTO DI OGGETTI)
Oggetti e categorie:
Riconoscere un oggetto significa categorizzarlo. Per poter studiare il riconoscimento, quindi, dobbiamo
innanzitutto ricordare che la mente umana rappresenta le categorie in maniera gerarchica:
- 1° livello = categorie di base
- 2° livello = categorie subordinate
Inoltre, un caso particolare di categoria subordinata è quello delle categorie che hanno un solo membro, ad
esempio “la mia penna stilografica”. Quest’ultimo caso assume speciale rilevanza quando riconosciamo
quegli oggetti particolari che sono le persone. Il livello di gerarchia in cui si situa spontaneamente il
riconoscimento ha il nome di categoria di entrata.
Sembra che la categoria di entrata dipenda da quanto l’oggetto è tipico di una certa categoria (un merlo è
molto tipico rispetto alla categoria “uccelli”, mentre un pinguino no), ma anche da quanto l’oggetto ci è
familiare. La distinzione fra i diversi livello a cui può avvenire il riconoscimento è importante anche perché,
fra le informazioni connesse ai singoli livelli, vi possono essere anche rappresentazioni sull’uso che di un
oggetto potremmo fare. Pertanto, riconoscere un oggetto rappresenta anche un mezzo per associare
l’oggetto con le rappresentazioni che descrivono i suoi utilizzi.
Non c’è dubbio che la mente possiede sistemi per il riconoscimento assai efficienti e veloci. Ma al di là della
velocità, ciò che più colpisce del processo di riconoscimento è la sua straordinaria adattabilità. Pensate alle
innumerevoli variazioni che un oggetto può subire a seguito di modifiche nella forma, colore, composizione
materiale delle sue parti, pur continuando a far parte della stessa categoria. Oppure, per un singolo
membro di una categoria, ricordate che l’informazione ricevuta dal nostro sistema percettivo si modifica
moltissimo con i cambiamenti del punto di vista o del livello di illuminazione.

Riconoscimento e punti di vista:


Nel percorso di riconoscimento, l’informazione raccolta viene confrontata con rappresentazioni contenute
in memoria. Ma l’informazione percettiva varia da in funzione dei cambiamenti di posizione reciproca fra
l’oggetto e il punto di vista. Esempio: se pensiamo ad una tazza di caffè essa è formata da un cilindro che
sarebbe la tazza e da un altro cilindro più stretto che è il manico, in modo che i punti del secondo cilindro si
trovino allineati con l’asse principale del primo cilindro. Ma quando osserviamo la tazza da caffè da diversi
punti di vista, l’informazione disponibile è data dalla proiezione dei due cilindri sul mosaico piatto dei
fotorecettori retinici. Come fa il nostro sistema di riconoscimento a rendersi conto che ha davanti sempre
una tazza da caffè?

Le descrizioni strutturali: Il nostro sistema di riconoscimento riesce a ricostruire sempre la stessa


descrizione della struttura tridimensionale dell’oggetto. Questa descrizione strutturale viene confrontata
con analoghe descrizioni in un catalogo interno. La descrizione interna che corrisponde a quella meglio
ricostruita viene scelta per il riconoscimento.
Questa idea di riconoscimento è stata proposta da David Marr, il quale tentò una ambiziosa sintesi teorica,
combinando l’ottica ecologica di James J. Gibson, da cui ricavò la teoria delle invarianti e dell’informazione
fornita dall’ambiente, con le conoscenze allora disponibili sulla neurofisiologia del sistema visivo, in
particolare sull’esistenza di unità neurali capaci di rilevare relazioni sempre più articolate fra contorni
orientati. Il risultato del suo tentativo fu un modello a tre stadi:

INPUT → ABBOZZO PRIMARIO → ABBOZZO A 2D E ½ → MODELLO 3D → RICONOSCIMENTO

Inizialmente abbiamo un input, ovvero un oggetto del mondo esterno/fisico che si presenta a noi e questo
determina una prima elaborazione interna, ovvero l’abbozzo primario. Questa prima elaborazione interna
attiva una seconda fase di elaborazione più avanzata, l’abbozzo a due dimensioni e mezzo che viene poi

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
trasformato in una rappresentazione a modello tridimensionale, dopo averlo elaborato si ha il
riconoscimento ovvero quando si affida la rappresentazione dell’oggetto a una data categoria. Nel primo
caso la rappresentazione delle posizioni spaziali non costituisce una vera descrizione della struttura 3D di
un oggetto, perché vi sono rappresentate solo le superfici visibili dal punto di vista corrente. Nel secondo
caso la descrizione è completa: la struttura tridimensionale dell’oggetto è rappresentata in maniera
indipendente da un particolare punto di vista. Nel modello di Marr il passaggio dall’abbozzo 2D e ½ al
modello 3D costituisce un passaggio da una rappresentazione spaziale riferita al punto di vista (centrata
sull’osservatore) ad una riferita a un sistema di coordinate indipendenti dal punto di vista.

Il modello di Marr ha avuto una grande influenza. Fra i molti sviluppi contemporanei quello più autorevole si
deve a Biederman: altro modello di descrizione strutturale. Ha caratteri in comune con il modello di Marr e
altre con cui si differenzia. L’analogia: consiste nel fatto che la rappresentazione usata per il riconoscimento
dell’oggetto è la formazione della descrizione strutturale dell’oggetto che si sposa in memoria con la
rappresentazione iconica a lungo termine. Una delle differenze con Marr: è che Biederman ritiene che
qualsiasi oggetto si può rappresentare in una descrizione strutturale attraverso primitive volumetriche dette
GEONI (esempio delle lettere dell’alfabeto che sono in numero finito, e con questo numero limitato noi
siamo in grado di creare un numero molto elevato di parole o strutture composte da questi elementi),
quindi quello che succede per gli oggetti è simile, possono essere scomposti in varie forme di base che
composte tra di loro e grazie alla disposizione nello spazio possono formare una rappresentazione
approssimata di tutti gli oggetti possibili.
Biederman ha anche fatto un catalogo di queste forme, ovvero una 40ina, a seconda di quale di esse
entrano in comunicazione tra loro si può rappresentare una pluralità infinita di oggetti. Quindi con
Biederman la descrizione strutturale è una descrizione dell’oggetto in termini di geoni che comprende due
componenti: una lista di geoni che fanno parte dell’oggetto e le informazioni sulle loro relazioni spaziali (ad
esempio: il geone X è sopra del geone Y e così via.)
Il modello contiene un principio di scomposizione interna degli oggetti che è assente all’interno del modello
di Marr, il modello di Biederman porta appunto alla semplificazione dal punto di vista strutturale e dall’altra
parte la maggiore economia della struttura delle rappresentazioni in memoria ma tutto ciò è
controbilanciato da una maggiore complessità di elaborazione perché dobbiamo scomporre l’oggetto e
ricomporlo per arrivare ad una descrizione strutturale.
Biederman sfrutta inoltre le cosiddette proprietà non accidentali. Cosa sono queste proprietà? I matematici
utilizzano questo termine per far riferimento a certe proprietà (geometriche) della proiezione retinica
corrispondente ad un oggetto tridimensionale. Per la precisione, si tratta di proprietà che tendono ad essere
altamente “diagnostiche” (pertinenti, relative alla diagnosi) della presenza di una certa struttura proiettata.
Sono proprietà associate sistematicamente a degli oggetti e devono essere rilevate dell’avvenuta estrazione
dei contorni. Sono proprietà geometriche che corrispondono a un oggetto tridimensionale e ci permettono
di fare una diagnosi sulla natura di quell’oggetto. Ad esempio se i contorni della retina si incontrano
formando una Y questa è una proprietà non accidentale perché se incontriamo una Y questa corrisponde a
uno spigolo all’interno dello spazio tridimensionale ed è formata dall’incontro di tre superfici piane diverse
nello spazio tridimensionale.
Mentre Marr ipotizzava descrizioni strutturali del tutto indipendenti dal punto di vista, le descrizioni a geoni
ipotizzate da Biederman sono solo parzialmente indipendenti dal punto di vista. La struttura a geoni è
ricavabile da qualsiasi immagine a 2D che dipende dalle proprietà non accidentali che vi sono presenti.

RICONOSCIMENTO

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Confronto con descrizioni in memoria

Descrizione strutturale in termini di geoni

Rilevazione PNA

Estrazione dei contorni

INPUT

Templates:
Altra teoria basata sul riconoscimento degli oggetti. Il concetto di template deriva dalla ricerca sul
riconoscimento automatico di caratteri tipografici. Infatti i primi tentativi di costruire sistemi automatici
confrontavano l’immagine rilevata da uno strumento ottico con dei modelli interni della sagoma delle
lettere (in inglese, template è la sagoma di cartone o di metallo che si usa come guida per ritagliare una
sagoma). Template (sagoma) è una fotografia dell’oggetto come appare da un particolare punto di vista.
Questo significa che questo approccio è basato sul fatto che il problema del riconoscimento di un oggetto
basato su diversi punti di vista è risolto dal fatto che noi abbiamo in memoria una rappresentazione
dell’oggetto che è basata su un particolare punto di vista, ma che la proiezione degli oggetti reali non si
discosta molto da questa rappresentazione prototipica dell’oggetto che noi abbiamo in memoria, quindi il
riconoscimento di un oggetto è basato su un confronto tra l’informazione disponibile da un dato punto di
vista e un template (o sagoma) che rappresenta quell’oggetto da quel punto di vista.
Ciò vuol dire che possiamo suppore che ciascun oggetto abbia un’unica rappresentazione prototipica basata
su un punto di vista che è quello più comune con cui di solito vediamo quel dato oggetto, ma ogni volta c’è
da effettuare una rotazione mentale in memoria, ad esempio se vedo questo oggetto dal basso e non dal
solito punto di vista più comune con il quale sono solita vederlo. Esempio: una tazzina di caffè vista dal
basso e non frontalmente come di solito, quindi qui noi dobbiamo effettuare una rotazione mentale
dell’oggetto per riportare l’oggetto alla sua posizione canonica e riconoscerlo come tale.
Oppure, nel secondo caso, posso ipotizzare che ci siano tanti template (o sagoma) per quanti sono i
possibili punti di vista dal quale possiamo guardare quell’oggetto, quindi ora il problema diventa che il
numero di rappresentazioni in memoria ( o template) per ogni oggetto diventa un numero troppo alto.
Il “confronto rispetto a un template” mostrò, dunque, ben presto dei limiti.
In conclusione, la teoria del template matching ha punti di forza e punti deboli.
Punto di forza: questa teoria coglie il fatto che per riconoscere un oggetto c’è bisogno di un confronto con
una rappresentazione interna nella memoria a lungo termine e quindi qui il matching con l’oggetto è
immediato senza la costruzione di una descrizione strutturale. Il sistema opera solo un confronto con la
memoria a lungo termine e dice se l’oggetto coincide oppure no con la rappresentazione interna (sagoma o
template). Processo semplificato;
Punto debole o critiche: se noi ipotizziamo che vi è riconoscimento solo quando la forma visiva combacia
con la rappresentazione interna, succede che gli oggetti che hanno anche piccole differenze rispetto allo
schema non dovrebbero essere riconosciuti. Sarebbe quindi necessario formare un numero infinito di
template corrispondenti a tutte le forma visive dell’oggetto incontrato rispetto a tutti i punti di vista dai
quali è possibile incontrare l’oggetto e si dovrebbero anche formare un numero infinito di schemi
corrispondenti a tutte le forme visive incontrate e riconosciute. Il processo però diventerebbe troppo
laborioso rispetto a come appare;

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Uno o più meccanismi per il riconoscimento? ///

Due approcci teorici sulle immagini mentali:


- Approccio immaginista (immaginisti): PAIVIO e SHEPARD; sostengono che la capacità umana di creare
immagini mentali (quindi l’immaginazione) è una capacità autonoma ed ha analogie con le funzioni
percettive.
L’immaginazione quindi ha le stesse leggi dei processi percettivi, con la differenza che questi si svolgono in
presenza di oggetti fisici del mondo reale mentre la creazione di immagini mentali avviene in assenza di
oggetti fisici, quindi non sarebbe riconducibile agli altri fenomeni come quelli di memoria.
Una delle caratteristiche delle immagini mentali che ha fatto pensare a una stretta analogia con i processi
percettivi è il fatto che le immagini mentali possono essere dinamiche attraverso due processi:
- Rotazione di IM: viene chiesto di formare un IMentale e si è indagata la relazione tra la quantità di
rotazione impressa all’oggetto ruotato (200 gradi ecc.) e il tempo di reazioni in cui i soggetti dovevano
effettuare la rotazione mentale richiesta dell’oggetto. Se i soggetti riescono a fare questa rotazione mentale
e se si trova che è simile alla percezione di oggetti che ruotano realmente nello spazio e che seguiamo con
lo sguardo, allora questo è un elemento di appoggio alla nozione secondo cui la manipolazione di immagini
mentali ha qualcosa di simile al processo percettivo visivo di oggetti che ruotano. Il risultato
dell’esperimento mostra che effettivamente ruotare un’immagine mentale richiede più tempo quanto più è
grande l’angolo di rotazione necessario per allineare gli oggetti. Questo vale anche per oggetti sconosciuti, i
soggetti negli esperimenti riescono a ruotare mentalmente anche oggetti nuovi che non hanno mai visto in
precedenza;
- Ispezione di Immagini mentali: si è indagata la relazione tra le distanze immaginate e i tempi di reazione.
In questi esperimenti si chiede ai soggetti di immaginare due luoghi distanziati di un tot di metri o cm nello
spazio e si chiede di percorrere mentalmente la distanza tra i due luoghi, si rilevano poi i TR. I risultati
sembrano confermare la predizione dell’approccio immaginista secondo la quale i processi immaginativi
sarebbero processi simil-percettivi, in effetti Passare da un punto all’altro dell’IM richiede tanto più tempo
quanto è maggiore la distanza tra i due punti. Quindi le distanze oggettive tra due punti sono anche
mantenute nelle immagini mentali.

L’interpretazione possibile dei due esperimenti sui processi di rotazione di IM e di ispezione di IM è che in
entrambi i casi i processi che portano ad immaginare un oggetto sono simili a quelli percettivi. Le
rappresentazioni immaginative sono quindi trasformate o esplorate in modo continuo e analogico, simile a
quello che ci porta a manipolare o ispezionare oggetti e superfici reali.
La conclusione di Kosslyn (che ha effettuato questi esperimenti) è che gli individui ispezionano l’immagine
mentale di una scena per mezzo degli stessi processi di scansione di una scena esterna reale o di una figura
(movimenti oculari).

- Approccio proposizionalista (proposizionalisti): PYLYSHIN e ANDERSON; le funzioni immaginative non


sono autonome e le rappresentazioni mentali immaginative hanno un formato proposizionale, cioè
riducibile ai contenuti della memoria semantica e dichiarativa che immagazzina la conoscenza sottoforma di
frasi.
Quindi le immagini sarebbero solo il condimento della conoscenza che ha un fulcro di natura
proposizionale; le immagini mentali sono un’appendice immaginativa di conoscenze in forma proposizionali
(semantico-concettuale).
Questo approccio cerca di trovare prove che dimostrino che le immagini mentali hanno struttura interna
simile a quella dei concetti astratti. Il punto di partenza è che non esistono rappresentazioni mentali in
forma di immagini, o meglio esistono ma sono solo la facciata esterna e una delle informazioni recuperabili
di una struttura di rappresentazione di conoscenza che è proposizionale.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Come funziona: vi è un codice di tipo proposizionale (esempio: ha una testa, delle zampe ecc.). Questo
codice immagazzina un concetto, e il codice visivo viene creato trasformando delle informazioni concettuali
(come “ha una testa”) in immagini mentali; quindi queste immagini mentali sarebbero un prodotto
secondario della rappresentazione di tipo dichiarativo proposizionale.

I proposizionalisti hanno mostrato che spesso le immagini mentali non subiscono vincoli del mondo fisico
come gli oggetti che percepiamo. Molto spesso gli individui riproducono non l’immagine mentale
dell’oggetto ma ciò che loro sanno dell’oggetto, verso o falso che sia (punto su cui si è soffermato molto lo
studioso Pylyshin). Inoltre, le immagini mentali sono rappresentazioni attendibili ma in parte distorte;
capita che nelle immagini mentali parti diverse di una scena possono essere visti contemporaneamente in
punti di vista diversi e questo è diverso da quello che accade nella realtà percettiva.

Quindi l’immagine mentale che formiamo non è come l’immagine percettiva ma è un immagine che
riproduce ciò che sappiamo di quell’immagine o scena e quindi possiamo manipolarla, ciò che non sarebbe
possibile nelle realtà reale

Secondo Rock alcune interpretazioni di esperimenti che sembrerebbero essere consoni con
l’approccio immaginista sono sbagliati

La rotazione delle immagini che è stata interpretata come una rotazione che ricalca i processi percettivi si
potrebbe avvalere di strategie di pensiero (inferenze) o del focus attentivo

- Secondo Rock: Nella rotazione delle immagini focalizziamo l’attenzione su uno degli aspetti della
figura (esempio uno spigolo ) e sottoponiamo a rotazione solo quell’elemento e poi aggiungiamo delle
nuove informazioni ricostruendo su base inferenziale ( di pensiero ) il rapporto tra il segmento della
figura e altri elementi. Quindi le risposte che diamo sarebbero funzione del fatto che abbiamo
focalizzato l’attenzione su quella singola parte della figura e su quella parte abbiamo poi dato il
giudizio
- Inoltre , come abbiamo visto dagli esperimenti di Farra, le immagini mentali possono essere usate
come previsioni: dispongono il sistema percettivo a ricevere informazioni , dunque sono un fenomeno
che ha più a che fare ed è più simile a fenomeni di tipo attentivo che percettivo
- È stato anche trovato che la conoscenza proposizionale influenza il modo in cui vediamo le imm
mentali e le manipoliamo
ad esempio, in alcuni esperimenti venivano presentate figure ambigue non nel fatto che fossero
reversibili ma che nel loro schematismo potevano essere interpretate in due modi diversi.
Quindi vi era la presentazione di figure con due etichette verbali possibili
O come la figura schematica di un sole o come un timone di una barca

Queste figure schematiche e vaghe sono state etichettate verbalmente in uno dei due o più modi
possibili da parte dei soggetti.
Nell’esperimento la figura stimolo era una figura che assomigliavano vagamente o alle tende di una
finestra o a un diamante in un rettangolo, dopo che era stata presentata ai soggetti viene chiesto di
riprodurre con un disegno la figura.
- Si vede che i soggetti distorcono la figura in base a come era stata etichettata verbalmente quindi o
come diamante o come tende.
- Quindi è l’informazione proposizionale che influenza l’immagine mentale, chiamare la figura come
tenda o diamante rafforza le caratteristiche nell’immaginazione che sono proprie dell’uno o dell’altro
oggetto

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Immagini mentali e memoria:
Teoria della doppia codifica di Paivio: Nel quadro della teoria di Paivio, il termine imagery (immaginabilità,
o valore di immagini) viene definito come la facilità con cui qualcosa suscita immagini mentali, le quali si
riferiscono a esperienze come quelle di “una figura o un suono che si producono nella mente”. L’approccio
proposto da Paivio è chiamato teoria della doppia codifica poiché postula l’esistenza di due sistemi di
codifica indipendenti: quello verbale e quello non verbale (distinzione avvalorata da dati neuropsicologici
secondo cui le due modalità sono localizzate in parti differenti del cervello). L’informazione in entrata può
essere verbale o non verbale. Dopo essere stata raccolta dal sistema sensoriale, l’informazione può essere
rappresentata nel sistema verbale o in quello non verbale. Le unità di cui è composto il sistema verbale
sono chiamate logogens, che contengono le informazioni di cui ci serviamo quando usiamo le parole. Le
unità che costituiscono il sistema non verbale sono chiamate imagens, e contengono le informazioni
necessarie per generare le immagini mentali. Gli imagens “corrispondono ad oggetti naturali, a componenti
olistiche di oggetti e a raggruppamenti naturali di oggetti”. Gli imagens operano in sincronia: le parti che
contengono sono simultaneamente disponibili all’ispezione. Ciò significa che gli imagens possono generare
varie immagini mentali associate tra loro. Contrariamente, i logogens operano in maniera sequenziale.
La teoria di Paivio sostiene che le parole che suscitano con facilità un’immagine mentale tendono ad essere
concrete (tavolo, per esempio), mentre le parole che non suscitano con facilità un’immagine mentale
tendono ad essere astratte (intenzione, per esempio). La concretezza è definita con il grado in cui una
parola si riferisce ad “oggetti concreti, persone, luoghi, o a cose che possono essere udite, di cui è possibile
sentire la consistenza, l’odore o il gusto”. La concretezza, dunque, misura per definizione il grado in cui una
parola si riferisce a qualcosa che può essere esperito per mezzo dei sensi. L’immaginabilità (la facilità con
cui qualcosa suscita un’immagine mentale) e la concretezza (il grado in cui una parola si riferisce a un
oggetto sensibile) misurano due aspetti del medesimo processo dal momento che la nostra esperienza di
eventi concreti è necessariamente satura di immagini.

Metodo dei loci (immagini mentali e mnemotecniche): Il libro di Frances Yates “The art of memory” è una
storia delle mnemotecniche, ovvero delle procedure usate per soccorrere la memoria. La Yates cita l’“Ad
Herennium”, opera che enuncia delle regole per ricordare accuratamente e in ordine una grande quantità
di item. Questa tecnica, nota come metodo dei loci, si serve di due cose: luoghi (o loci) ed immagini. Il
metodo richiede anzitutto l’apprendimento di una serie di luoghi – di solito le parti di un edificio, come un
tempio per esempio. I luoghi non devono essere troppo simili fra loro e devono essere distanti l’uno
dall’altro. Una volta che i luoghi sono stati appresi, lo studente possiede un’accurata mappa cognitiva
dell’edificio. Dopo aver costruito la sua mappa cognitiva, lo studente deve inventare delle immagini in
grado di rappresentare il materiale che deve essere ricordato. Un’immagine deve essere formata per
ciascuna delle cose da ricordare. Ciascuna immagine viene poi collocata in un particolare luogo (loci),
tenendo presente il fatto che una qualità desiderabile delle immagini è quella di essere, per quanto
possibile, distinte e persino bizzarre. A questo punto, il processo del ricordo può essere concepito come
una specie di passeggiata attraverso i loci della memoria nel corso della quale vengono raccolte le immagini
che sono tate collocate nei loci.

Immagini bizzarre (immagini e distintività): La possibilità che le immagini bizzarre possano facilitare il
ricordo è stata ripetutamente studiata nel corso degli ultimi vent’anni. I primi esperimenti compiuti non
hanno dimostrato alcun effetto della bizzarria. Ricerche seguenti, però, hanno dimostrato che in alcune
circostanze la bizzarria può avere effetto. Einstein e McDaniel hanno considerato una serie di possibili
spiegazioni per l’effetto bizzarria. Una delle possibili ipotesi è che le immagini bizzarre producano tracce di
memoria dotate di distintività maggiore rispetto alle immagini ordinarie. Le immagini ordinarie non
possiedono un aspetto caratteristico quasi per definizione. È possibile dunque che le tracce di memoria

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
prodotte dalle immagini bizzarre subiscano in misura minore l'interferenza suscitata dalle altre tracce di
memoria, in particolare modo nel corso di intervalli di tempo prolungati. Data la bassa frequenza di
immagini bizzarre nella vita di ogni giorno, la formazione di immagini bizzarre potrebbe dunque costituire
un’efficace strategia mnemonica.
Winograd e Soloway hanno notato che gli individui spesso credono di essere in grado di rievocare più
facilmente il materiale dotato di maggiore distintività. Questa credenza viene messa in pratica, per
esempio, riponendo gli oggetti in un luogo particolare. Fin troppo spesso, però, quando cerchiamo di
recuperare l’oggetto che è stato nascosto in un luogo particolare, ci rendiamo conto di non riuscire a
ricordare dove lo abbiamo messo. Winograd e Soloway sono partiti dall’osservazione che un luogo speciale
sia un luogo dove è poco probabile che un oggetto possa trovarsi. Questa è la ragione per cui i luoghi
speciali sono usati per nascondere gli oggetti. In uno dei loro esperimenti, questi due hanno presentato ai
soggetti frasi del tipo “Il latte è nel frigorifero” o “I biglietti sono nel congelatore” e chiesto loro di valutare
la verosimiglianza delle frasi o la memorabilità delle frasi. Confrontando i risultati degli esperimenti, veniva
fuori che gli item a bassa verosimiglianza venivano rievocati meno facilmente degli item ad alta
verosimiglianza, indipendentemente dalla memorabilità.
Si noti che la strategia che ci porta a nascondere gli oggetti in luoghi particolari è diversa dal metodo dei
loci. In quest’ultimo, infatti, dapprima apprendiamo una serie di luoghi e poi immagazziniamo gli oggetti in
quei luoghi, formando un'associazione immaginaria fra i due. Quando proviamo a ricordare qualcosa,
dapprima rievochiamo i loci e poi gli oggetti in essi collocati. D’altra parte, invece, solitamente non viene
creata alcuna associazione immaginaria fra gli oggetti che devono essere nascosti e i luoghi in cui essi
vengono collocati. La strategia che ci porta a nascondere gli oggetti in luoghi particolari costituisce un
esempio di falsa credenza a proposito del funzionamento della memoria, e il ricorso a questa strategia
rappresenta un fallimento della nostra metamemoria.

Ipermnesia: Un altro aspetto della nostra metamemoria è costituito dalla credenza che la memoria peggiori
col passare del tempo. Se ci venisse detto che la memoria può migliorare col passare del tempo,
quest’affermazione risulterebbe incoerente con la nostra metamemoria. In alcune circostanze,
effettivamente, tentativi ripetuti di rievocazione possono portare ad un miglioramento della rievocazione.
Questo fenomeno è chiamato ipermnesia.
Attraverso degli esperimenti è stato dimostrato che il rendimento dei soggetti che avevano appreso delle
parole senza formare delle immagini mentali non migliorava nel corso del tempo.
Esperimenti di Erdelyi: usato un compito di rievocazione forzata. Venivano presentate liste di parole o
immagini e veniva chiesto di rievocarli a intervalli di tempo e di ritenzioni diversi. La rievocazione è forzata
perché ai soggetti veniva richiesto di sforzarsi per ricordare il maggior numero di elementi presenti nella
lista. Si evincono due cose:
- la prestazione è migliore sulle figure, anche se accompagnate con parole, rispetto alle parole a
prescindere dell’intervallo di ritenzione (15 min o 20 min ecc.);
- all’aumentare dell’intervallo di ritenzione aumenta il numero di parole che viene recuperato, accade solo
se lo stimolo da ricordare è una figura o una parola che corrisponde ad una figura che era stata presentata;
- l’intervallo di rievocazione nel tempo per le parole è invece piatto;
- i risultati mostrano che la rievocazione di chi attiva immagini mentali migliora rispetto a chi non le ha
usate per rievocare le parole e si potenzia addirittura nel tempo;

La spiegazione è che accade un po’ ciò che accade nel fenomeno sulla punta della lingua, quando non
riusciamo a recuperare una parola ma abbiamo delle informazioni su questa parola.
Nel fenomeno dell’ipermnesia succede che l’immagine che è rimasta “sulla punta dell’occhio” e quindi in
memoria non può essere recuperata dalla memoria in quel momento, ma attraverso vari tentativi necessari
di rievocazione, in maniera anche implicita, improvvisamente può ripresentarsi alla memoria. Fenomeno di
codifica e recupero implicito.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Sinestesia: Si ha quando uno stimolo proprio di un senso (per esempio, un suono) suscita un’esperienza
propria di un altro senso (per esempio, un colore). Vi sono persone che hanno tali esperienze nella vita
quotidiana; tra queste esperienze, una delle più comuni è la sinestesia cromatica. Essa consiste nell’udire i
colori: cioè nell’avere l’esperienza di un colore in risposta a uno stimolo uditivo. Ad esempio, una persona
può avere l’esperienza di un colore quando sente il nome di una persona.

Rotazione mentale:
Diversamente dalle immagini appese ai muri, le immagini mentali possono avere un carattere dinamico.
Una delle dimostrazioni più famose della natura dinamica delle immagini è stata fornita da Shepard e
Metzler. Ai soggetti venivano presentate 1.600 coppie di disegni. In alcuni casi, i due disegni di ciascuna
coppia rappresentavano lo stesso oggetto, mentre in altri casi essi rappresentavano oggetti diversi. Le
coppie di disegni che rappresentavano lo stesso oggetto si differenziavano nei termini della rotazione
angolare necessaria per allineare le due rappresentazioni dell’oggetto. La rotazione angolare variava da 0° a
180° a intervalli di 20°. La consegna sperimentale era quella di decidere, nel caso di ciascuna coppia, se i
disegni rappresentavano lo stesso oggetto oppure oggetti diversi. Secondo Shepard e Metzler, i risultati
degli esperimenti possono essere interpretati dicendo che i soggetti eseguono questo compito
sperimentale per mezzo di un processo di rotazione mentale. Forse i soggetti immaginano di ruotare uno
degli oggetti raffigurati per determinare se esso può venire allineato con l’altro membro della coppia. Tanto
più grande è la rotazione angolare necessaria, tanto più grande è il tempo impiegato dai soggetti per
eseguire l’allineamento degli oggetti raffigurati. Sulla base dei dati raccolti da Shepard e Metzler si può
concludere che la velocità della rotazione mentale sia di circa 60° al secondo.
Secondo Shepard, inoltre, il processo che ci porta ad immaginare un oggetto è abbastanza simile al
processo per mezzo del quale lo stesso oggetto viene percepito. “Ciò che noi immaginiamo, così come ciò
che percepiamo, sono degli oggetti esterni a noi; nel caso dell’immaginazione, però, questi oggetti possono
essere assenti o anche non esistenti”.

Perlustrazione delle immagini mentali: Kosslyn ha recensito una serie di esperimenti eseguiti nel suo
laboratorio e volti ad esplorare la relazione tra percezione e immaginazione. In uno di questi studi, i
soggetti dovevano memorizzare la mappa di un’isola nella quale erano contrassegnati differenti luoghi, in
corrispondenza di un albero, una spiaggia, una capanna, e così via. Questi luoghi si trovavano a distanze
diverse gli uni dagli altri. Il tempo necessario a passare da un luogo a un altro della mappa dipende dalla
distanza reale tra di essi. I risultatiti di questo esperimento indicano che, per i luoghi effettivamente
presenti sulla mappa, il tempo necessario per passare da un oggetto a un altro è proporzionale alla distanza
tra questi oggetti nella mappa.
Finora abbiamo parlato soltanto di immagini visive, ma sono state studiate anche le immagini uditive.
Halpern ha investigato la perlustrazione mentale di immagini uditive prodotte da canzoni familiari. La
Halpern ha rilevato che è possibile individuare una serie di luoghi diversi all’interno di un’immagine uditiva
allo stesso modo che all’interno di un’immagine visiva. Le canzoni che noi immaginiamo sono dotate di un
inizio, una parte centrale e una fine allo stesso modo delle canzoni che noi sentiamo. È possibile che
un’immagine uditiva si estenda nel tempo allo stesso modo in cui un’immagine visiva si estende nello
spazio. Nel caso delle canzoni, la posizione di una parola è definita dal numero delle battute dall’inizio della
canzone.

Immagini mentali e figure reali:


L’esperienza che proviamo quando immaginiamo una scena è simile a quella che proviamo quando
guardiamo una figura. È per questa ragione che è così naturale considerare le immagini come delle figure
nella mente. Pinker e Finke hanno notato che i risultati del loro esperimento implicano però che figure

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
differenti possano essere generate a partire dalle medesime informazioni. Ai soggetti del loro esperimento,
infatti, veniva mostrata soltanto una singola configurazione di un insieme di oggetti, ma dalla memoria di
questa situazione i soggetti erano in grado di generare l’immagine della configurazione corrispondente alla
rotazione di quegli oggetti. Questo significa che noi siamo in grado di percepire ed immagazzinare in
memoria le informazioni riguardanti la struttura tridimensionale di una configurazione di oggetti e siamo
poi in grado di trasformare queste informazioni in modo tale da produrre diverse vedute immaginarie di
questa medesima configurazione. Pinker e Finke hanno confrontato le proprietà delle immagini mentali con
le proprietà delle figure reali. Benché le immagini sembrino essere delle rappresentazioni accurate di una
scena così come appare da un particolare punto di vista, i disegni che gli individui eseguono non sempre
posseggono queste proprietà. A volte appaiono come delle rappresentazioni distorte di una scena reale,
poiché nella figura c’è di più di quanto sia possibile vedere da un particolare punto di vista.
Come può essere spiegata l’apparente discrepanza tra l’accuratezza delle nostre immagini mentali e
l’imprecisione dei disegni eseguiti da molti di noi? Secondo Pinker e Finke, ci sono almeno tre possibili
spiegazioni per questa discrepanza:
1) Anche se gli individui sono in grado di immaginare accuratamente le sembianze di qualcosa, essi
potrebbero non essere in grado di disegnare accuratamente quell’immagine.
2) Gli individui non cercano di riprodurre l’immagine mentale di un oggetto, ma piuttosto di rappresentare
ciò che essi sanno a proposito dell’oggetto.
3) Quando parti diverse di una scena vengono disegnate come se fossero percepite da punti di vista diversi.

Immagini eidetiche: L’icona è un’istantanea delle informazioni contenute in uno stimolo visivo. L’icona è
importante perché essa sembra presupporre che l’occhio sia stazionario, ciò che di rado accade in
condizioni naturali. È comunque utile confrontare l’icona con un fenomeno connesso, quello delle immagini
eidetiche. Come le immagini iconiche, le immagini eidetiche persistono anche dopo che uno stimolo, ad
esempio una figura, è venuto meno. Diversamente dall’icona, che decade rapidamente, le immagini
eidetiche possono persistere per un minuto o più. Caratteristiche immagini eidetiche:
- avere un’esperienza eidetica non è lo stesso che avere un’immagine mentale vivida: l’immagine è situata
nel mondo esterno, non nella testa della persona;
- l’immagine può essere perlustrata e le sue parti possono essere descritte;
- le descrizioni di un’immagine eidetica sono più rapide e più affidabili dei resoconti basati sulla memoria;
- le immagini eidetiche sono molto più frequenti tra i bambini che non tra gli adulti.
In generale le descrizioni delle immagini eidetiche non sono più fedeli degli ordinari ricordi di osservatori
non eidetici della stessa scena. È perciò chiaro che le immagini eidetiche non sono immagini fotografiche,
perché non sono copie letterali della scena.

Immagini come previsioni: Farah ha usato un esperimento per dimostrare che le immagini mentali possono
servire da previsioni. Ai soggetti veniva chiesto di immaginare una lettera sovrapposta ad un reticolo. In
questo esperimento, però, il pallino nero usato come probe veniva presentato soltanto per un breve
intervallo. Il compito dei soggetti era quello di decidere se il probe era stato presentato o meno. Farah ha
presentato delle evidenze a sostegno dell’ipotesi che la presenza di un’immagine mentale abbassi il criterio
usato dai soggetti per la detenzione di uno stimolo. La presenza di un’immagine mentale non migliora la
sensibilità nella detenzione ma rende i soggetti meglio preparati ad identificare la presenza di uno stimolo.
Quando prevediamo qualcosa, il ciclo percettivo è pronto per l’acquisizione di qualcosa che non è ancora
presente. Nell’esperimento di Farah, quando i soggetti proiettano un’immagine sul reticolo è come se
stessero prevedendo di vedere qualcosa in quella porzione del reticolo.
L’immaginazione è un processo attivo che predispone l’individuo alla percezione dell’informazione,
piuttosto che una rappresentazione passiva dell’informazione.

Immagini e figure ambigue: Se l’immagine di una configurazione fosse simile alla percezione della
medesima configurazione, allora anche le immagini mentali delle figure ambigue dovrebbero possedere

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
interpretazioni alternative. Esperimento di Chambers e Reisberg: ai soggetti veniva spiegato che cosa sono
le figure ambigue, venivamo mostrati alcuni esempi e lo sperimentatore verificava che i soggetti fossero
effettivamente in grado di percepire le interpretazioni alternative di ciascuna figura. I soggetti venivano
istruiti a formare “una immagine mentale di questa diapositiva, così da essere in grado in seguito di
riprodurla”. Ai soggetti veniva chiesto di provare ad invertire l’immagine mentale della figura ambigua, ma
nessuno di loro si dimostrò in grado di eseguire questo compito. Ciò nonostante tutti i soggetti erano in
grado, a partire dalla loro immagine mentale, di disegnare esattamente la figura anatra/coniglio (esempio).
Chambers e Reisberg hanno sostenuto che i risultati di questo esperimento, suggeriscono che le immagini
non sono ambigue. Un’immagine sembra avere un’unica interpretazione.
Finke, Pinker e Farah, però, hanno messo in dubbio la generalità dei risultati dell’esperimento di Chambers
e Reisberg. Questi ricercatori hanno chiesto ai soggetti di generare un’immagine passando attraverso alcuni
stadi intermedi. Il risultato di questo esperimento indica che i soggetti possono interpretare un’immagine
anche dopo che è stata costruita. Questo è un fatto importante perché significa che all’interno di
un’immagine noi possiamo scoprire qualcosa che non abbiamo usato per costruire la medesima immagine.
Durante la costruzione di un’immagine possono emergere delle nuove proprietà. Queste proprietà sono
spesso chiamate proprietà emergenti. Secondo Chambers e Reisberg, quali informazioni siano disponibili in
un’immagine dipende dal modo in cui i soggetti interpretano inizialmente l’immagine.

Immagini mentali e narrazioni: Come è stato osservato da Franklin e Tversky, la lettura di una storia suscita
un’enorme quantità di immagini mentali. Consideriamo un soggetto che vede qualcosa su cui poi esegue
delle operazioni mentali, come accade nell’esperimento di rotazione mentale. Tuttavia, quando una
persona legge una storia, può immaginare una scena senza propriamente vedere alcunché. Quando
leggiamo una storia, tipicamente costruiamo una rappresentazione immaginaria dell’ambiente descritto nel
testo. Solitamente, quando ci viene chiesto di immaginare qualcosa, ci vuole poco tempo per situare
qualcosa che sia sopra o sotto di noi, e ci vuole meno tempo per situare qualcosa davanti a noi di quanto
non ce ne voglia per situare qualcosa dietro di noi. Invece, situare qualcosa che sia alla nostra destra o alla
nostra sinistra è un’operazione relativamente lenta. Questi risultati possono essere dovuti al fatto che
normalmente immaginiamo di trovarci in posizione eretta in uno spazio che ha una dimensione verticale
(sopra-sotto) e due dimensioni orizzontali (davanti-dietro e destra-sinistra). Rispetto al nostro corpo, sopra-
sotto e davanti-dietro sono dimensioni asimmetriche.

Critiche rivolte alla ricerca sulle immagini mentali:


Nel corso degli ultimi venti anni il fenomeno delle immagini mentali è stato oggetto di un enorme numero
di ricerche, ma non tutti i ricercatori ritengono ne sia valsa la pena. Al centro di questa controversia c’è il
problema della rappresentazione della conoscenza. Ad esempio, si è perlato del modello di Anderson, il
quale sostiene che le nostre conoscenze del mondo sono immagazzinate in memoria in forma
proposizionale. Ma, se la nostra conoscenza fosse proposizionale, quale ruolo giocherebbero le immagini
mentali nei processi cognitivi? Una delle possibilità è che le immagini siano degli epifenomeni. Un
epifenomeno è un sottoprodotto, ovvero un sintomo, di qualcosa d’altro. Allo stesso modo, le immagini
mentali potrebbero non avere funzione alcuna. Esse potrebbero essere puramente decorative, come i
quadri sulle pareti delle nostre abitazioni e, dunque, potrebbero rappresentare degli aspetti non essenziali
del funzionamento della mente.
Irvin Rock ha condotto delle ricerche che hanno messo in discussione l’assunzione che noi siamo in grado di
immaginare il modo in cui gli oggetti apparirebbero se noi li guardassimo da un altro punto di vista.
Naturalmente, quest’assunzione è necessaria affinché il fenomeno della rotazione mentale possa essere
considerato come un autentico fenomeno psicologico. Rock ha osservato che, in molti casi, è necessario
che venga preservato l’orientamento di un oggetto nei confronti dell’osservatore affinché il riconoscimento
possa avere luogo.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Mappe cognitive e modelli mentali:
Proprietà fondamentali delle mappe cognitive: La discussione a proposito delle mappe cognitive inizia con
Tolman. Tolman credeva che l’informazione proveniente dall’ambiente venisse “elaborata in modo tale da
produrre una mappa dell’ambiente dotata di un carattere provvisorio e cognitivo – ed è proprio questa
mappa provvisoria, che indica gli itinerari, i percorsi e le relazioni tra oggetti presenti nell’ambiente” che
determina il nostro comportamento. Tolman pensava che le mappe cognitive di carattere generale fossero
più utili delle mappe cognitive specifiche. Le mappe molto specifiche contengono soltanto informazioni di
un numero limitato di itinerari nell’ambiente.
Le nostre mappe cognitive sono, almeno in parte, comode finzioni, create per rappresentare la realtà in un
modo che ci risulta utile ma che può non essere particolarmente fedele.

Mappe cognitive e modelli mentali: Il termine modelli mentali è spesso usato per fare riferimento alle
nostre rappresentazioni di oggetti ed eventi. Gli individui posseggono modelli mentali per una vasta gamma
di situazioni e li usano per descrivere, spiegare e prevedere lo svolgimento futuro degli eventi. Gli individui
spesso possiedono modelli mentali che descrivono il funzionamento delle macchine, come l’aspirapolvere,
per esempio. I modelli spesso possiedono le proprietà di essere “non scientifici” e “superstiziosi” [Norman,
1983]. Ciò nonostante, essi costituiscono delle utili rappresentazioni del mondo. Una delle loro funzioni è
quella di consentire a colui che ne fa uso di scoprire analogia tra domini diversi.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
APPRENDIMENTO (+ RETI NEURALI)
Che cosa significa apprendere?
A questa domanda gli psicologi hanno cercato da tempo di dare una risposta, e l’apprendimento è
diventato uno dei temi centrali della ricerca e della teorizzazione psicologica, in particolare nel periodo in
cui il comportamentismo è stato il quadro teorico dominante in psicologia. Esso definiva l’apprendimento
come l’insieme dei cambiamenti osservabili nel comportamento dell’individuo in seguito ai cambiamenti
prodotti nella situazione in cui l’individuo stesso si trova. Oggi non ci si può limitare a considerare
l’apprendimento solo in termini di modifiche nel comportamento di un individuo. Esistono tanti tipi di
apprendimento e non tutti sono facilmente descrivibili nei termini delineati dai comportamentisti.

Le teorie comportamentistiche classiche:


La teoria comportamentista si fonda sul presupposto che si può studiare solo ciò che è osservabile. Ne
consegue che solo il comportamento esterno (osservabile) di un individuo può essere studiato, mentre il
contenuto della sua mente, e cioè i suoi processi cognitivi, non può essere oggetto di indagine scientifica.
L’indagine per i comportamentisti si era quindi incentrata prevalentemente sulla relazione tra variabili
esterne e comportamento, con lo scopo di capire quali variabili osservabili e misurabili producono
cambiamenti duraturi nel comportamento osservabile e misurabile di un individuo.

Il condizionamento classico:
Le teorie comportamentiste definiscono l’apprendimento come la comparsa di un nuovo comportamento,
semplice o complesso che sia, cioè un comportamento che prima non esisteva, e che poi si mantiene nel
tempo. In base a questa definizione un comportamento occasionale, che si può manifestare ad esempio
quando un individuo è soggetto a condizioni temporanee e peculiari, non viene considerato indice di
avvenuto apprendimento. Inoltre, un comportamento che si manifesta solo grazie alla maturazione del
sistema nervoso non può essere definito come apprendimento perché questa definizione è riservata ai
nuovi comportamenti che si manifestano in risposta ad uno stimolo.
Secondo il comportamentismo classico le due condizioni principali perché si crei un’associazione tra stimolo
e risposta sono:
- la contiguità temporale tra le variabili in gioco;
- il fatto che la connessione tra le variabili venga ripetuta un numero di volte sufficiente.
In altri termini si crea apprendimento quando stimolo e risposta sono presentati in tempi ravvicinati per un
numero sufficiente di volte.

Che l’apprendimento associativo fosse governato da queste regole era già stato scoperto da Ivan Petrovic
Pavlov, studiando i processi digestivi del cane. Pavlov ne misurava la produzione salivare in risposta a vari
tipi di stimolazione gustativa. Egli aveva notato come in realtà l’animale iniziasse a salivare già prima di
ricevere un po’ di polvere di carne sulla lingua, anche alla semplice vista dello sperimentatore. Questo
fenomeno portò Pavlov a chiedersi se fosse la vista dello sperimentatore, oppure qualche altro fattore, a
indurre la salivazione. La procedura sperimentale di base adottata da Pavlov consisteva nello scegliere uno
stimolo neutro (SN), ad esempio uno stimolo sonoro (un campanello), e nel presentarlo con uno stimolo,
detto stimolo incondizionato (SI) che produce la salivazione in modo spontaneo (la polvere di carne). La
salivazione così indotta viene chiamata risposta incondizionata (RI). Poiché lo stimolo incondizionato
provocava la salivazione, scopo degli esperimenti era stabilire se, dopo un certo numero di ripetizioni dei
due stimoli accoppiati, l’animale iniziava a salivare anche con la sola presentazione dello stimolo neutro
(campanello). Pavlov scoprì che l’animale iniziava a salivare nel momento in cui compariva il suono. Il
fenomeno era dovuto, secondo Pavlov e colleghi, allo stabilirsi di un’associazione tra lo stimolo

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
(inizialmente neutro) e la risposta di salivazione (inizialmente non condizionata). Lo stimolo neutro
diventava così stimolo incondizionato.
Lo studio del condizionamento classico si è dimostrato importante perché le relazioni tra stimolo e risposta
sono risultate spesso regolari e, in quanto tali, si prestano alla formulazione di leggi. Regolarità:
- rafforzamento: maggiore è la frequenza di accoppiamento tra stimolo condizionato, stimolo
incondizionato e risposta incondizionata, e maggiore è l’intensità e la regolarità di comparsa delle risposte
condizionate;
- estinzione: quando lo stimolo incondizionato viene omesso ripetutamente, allora la risposta condizionata
perde di intensità fino a sparire;
- recupero spontaneo: l’estinzione non comporta la reale perdita della possibilità di produrre la risposta
condizionata, dal momento che, dopo un certo tempo, questa tende a riapparire anche se non viene
presentato nessuno stimolo incondizionato;
- generalizzazione: la risposta condizionata è sensibile alla generalizzazione dello stimolo condizionato. Ad
esempio, se il cane inizia a salivare quando sente il suono di un campanello, è probabile che inizi a salivare
anche in risposta a campanelli che emettano un sono diverso;
- discriminare: tuttavia tramite la procedura di condizionamento classico è possibile anche apprendere a
discriminare tra stimoli simili. Questo effetto si ottiene solo quanto l’iniziale stimolo neutro è associato con
lo stimolo incondizionato (cioè solo il suono originale è seguito dalla carne). Altri suoni simili vengono
presentati ma non sono seguiti dalla presentazione di carne.

Secondo alcuni studiosi, il condizionamento classico permette di spiegare certe forme di comportamento
che si osservano nell’uomo, ad esempio le manifestazioni emotive. Le emozioni verrebbero associate a
nuovi oggetti tramite il condizionamento (esempio: una canzone ascoltata durante un’esperienza
infelice...). è noto l’esperimento condotto da Watson con un bambino di nome Albert, il quale inizialmente
cercava di afferrare un topolino bianco senza mostrare alcuna paura. Quando però veniva spaventato
ripetutamente da un forte rumore mentre giocava col topolino (la coppia di stimolo topo-rumore veniva
ripetuta), Albert iniziava a manifestare paura alla vista del topo bianco, anche in assenza di rumore.
Un aspetto importante dei riflessi condizionati è il loro valore adattivo. Un esempio è il cosiddetto effetto
Garcia, cioè il processo attraverso cui un individuo acquisisce l’avversione per un dato sapore.
Nell’uomo si sono potuti condizionare solo alcuni rifletti, e su questa base operano alcune delle tecniche
messe a punto nell’ambito della psicoterapia comportamentale. Tuttavia non è possibile individuare per
ogni forma di apprendimento un riflesso innato che abbia una risposta simile a quella poi manifestata
nell’apprendimento. In questi casi è problematico attribuire la comparsa di quel comportamento ad un
processo di condizionamento classico.

Il condizionamento operante:
Una seconda prospettiva è quella basata sul condizionamento operante. Edward Lee Thorndike fu il primo
ad occuparsi di condizionamento operante e a proporne un principio esplicativo, la cosiddetta “legge
dell’effetto”. Essa afferma che lo stabilirsi e il rafforzarsi di legami associativi tra stimolo e risposta non
deriva semplicemente dalla loro continuità temporale, ma dagli effetti che seguono la risposta.
Esperimento di Thorndike col gatto in gabbia: mentre era chiuso in gabbia l’animale metteva in atto tutta
una serie di comportamenti, tra i quali casualmente anche quello che permetteva l’apertura della porta
oltre la quale si trovava il cibo. Thorndike aveva osservato che dopo la prima volta in cui era riuscito ad
uscirne, il gatto apriva la gabbia con sempre maggiore frequenza e rapidità. Questo comportamento
avveniva per due principi:
- l’apprendimento avveniva per prove ed errori;
- la legge dell’effetto: un comportamento viene appreso e si stabilizza solo se la risposta produce un certo
effetto sull’ambiente e sull’individuo.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Il principio di base è comunque ancora lo stabilirsi di una connessione tra stimolo e risposta, ma la
connessione si stabilisce solo se si stabilisce anche un’associazione tra la risposta e l’effetto che ad essa
consegue.
Una versione forse più completa del comportamentismo operante è stata sviluppata da Burrhus Frederik
Skinner, il quale riconosceva il ruolo del comportamento condizionato, ma era più interessato ai
comportamenti che sono messi in atto pur non essendo condizionati da nessuno stimolo. Quando suona il
campanello ed andiamo ad aprire la porta, non mettiamo in atto un comportamento che è condizionato allo
stimolo. Possiamo infatti aprire o non aprire la porta. Il suono del campanello viene definito stimolo
discriminativo, e l’azione di aprire la porta è un comportamento operante in quanto “agisce” sull’ambiente
per produrre un determinato effetto. L’associazione, se tale si può chiamare in questo caso, si stabilisce tra
la risposta e la conseguenza della risposta.
Consideriamo un esperimento tipico di Skinner in modo da rendere chiare le variabili in gioco. Un animale
viene messo in una scatola in cui è presente una leva. Il premere la leva ha come conseguenza un evento
positivo, una ricompensa, (erogazione di cibo) o negativo, una punizione (somministrazione di scossa
elettrica). L’animale viene abituato a mangiare nella zona della gabbia dove, al premere della leva, apparirà
il cibo e viene messo in gabbia affamato, libero però di muoversi e di agire. Si osserva di solito che è nel giro
di una decina di minuti l’animale, tra i vari comportamenti che mette in atto, preme la leva e ottiene in
questo modo una razione di cibo. L’azione del premere la leva, inizialmente casuale, diventa poi man mano
sempre più frequente perché essa ha una conseguenza positiva, l’erogazione del cibo. Ciò non accade
invece nel caso in cui l’agire sulla leva non dia mai luogo all’erogazione di cibo. In questo caso la leva viene
ugualmente premuta, ma sempre in modo totalmente casuale e non più frequentemente rispetto ad altri
comportamenti quali, ad esempio, mordere le sbarre della gabbia o correre avanti e indietro.
Il principio chiave per spiegare questo fenomeno è il rinforzo, ossia la conseguenza positiva che produce un
aumento della frequenza del comportamento in questione:
- rinforzo positivo;
- rinforzo negativo;
È facile confondere il concetto di rinforzo negativo con quello di punizione. Dal momento che si tratta di
due aspetti molto diversi, è bene chiarire che un rinforzo negativo è dovuto alla eliminazione di una
situazione sgradevole (ad esempio, interrompendo una scossa elettrica), mentre la punizione è costituita
dalla realizzazione di una situazione sgradevole (ad esempio, somministrando una scossa elettrica) allo
scopo non di aumentare (come il rinforzo), ma di diminuire la frequenza di un dato comportamento.

I rinforzi possono inoltre essere primari o secondari:


- rinforzo primario: soddisfa i bisogni primari dell’individuo, quali fame, sete, sonno ecc.
- rinforzo secondario: soddisfa i bisogni non primari, e funge da intermediario tra il comportamento e il
rinforzo primario; assicura la gratificazione anche se non la fornisce direttamente, ed è molto importante
nel caso dell’apprendimento nell’uomo. Si pensa all’importanza che ha il denaro!

Perché un comportamento venga consolidato, il rinforzo deve sempre seguire il comportamento? Un po’
per caso Skinner aveva studiato diverse di modalità di accoppiamento comportamento-rinforzo, scoprendo
che un rinforzo continuo, come quello che si determinava quando il cibo veniva erogato ogni volta che il
ratto premeva la leva, aveva come conseguenza una grande rapidità nell’apprendimento, ma anche una
rapida estinzione del comportamento appreso. In altri termini, quando l’agire sulla leva non dava più cibo,
l’animale smetteva progressivamente di premere la leva. Una modalità di rinforzo più efficace per
mantenere un comportamento appreso è il cosiddetto rinforzo parziale, come quello che si determina nei
casi in cui non viene sempre fornito cibo all’animale che agisce sulla leva. Inoltre il rinforzo può essere
fornito ad intervalli fissi o variabili. Tale distinzione si riferisce alla distribuzione dei rinforzi nel tempo. Ad
esempio se l’animale riceve cibo (rinforzo) ogni tre minuti esatti, si tratta di un piano di rinforzo ad intervalli
fissi.
Una seconda distinzione rilevante riguarda il numero di risposte fornite dall’animale. In un piano di rinforzo

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
a rapporto fisso l’animale può ricevere cibo ogni tre volte in cui preme la leva. Se invece il numero di
comportamenti non rinforzati varia, allora si dice che il piano è a rapporto variabile.
È importante sottolineare come i vari piano di rinforzo abbiano un diverso effetto sull’apprendimento. Ad
esempio, mentre il piano di rinforzo ad intervalli fissi produce una serie sempre più frequente di risposte
man mano che si avvicina il momento in cui verrà fornito il rinforzo, quello ad intervalli variabili produce
comportamenti costanti nel tempo. Quando il rinforzo è fornito ad intervalli regolari, si ottengono
comportamenti assai frequenti fino al momento in cui viene erogato il rinforzo, dopo di che la frequenza
cala. Il piano ad intervalli irregolari produce invece risposte assai frequenti e continue nel tempo. Si tratta
del piano di rinforzo più efficace, che meglio resiste all’estinzione nel tempo.

Condizionamento operante e apprendimenti complessi: l’apprendimento verbale :


Secondo Skinner il linguaggio è un insieme complesso di risposte operanti create in un bambino da genitori,
insegnanti ecc. Riportiamo l’esempio di come, secondo Skinner, un bambino impara a chiamare “gatto” i
gatti che incontra. Quando in un’occasione qualunque un bambino vede un gatto, il gatto rappresenta lo
stimolo discriminativo, che controlla l’emissione della parola “gatto”. Se il bambino dice “gatto”, questo
comportamento viene rinforzato dal comportamento dei genitori in risposta alla parola. Se il bambino dice
“gatto” in presenza di uno stimolo inappropriato (ad esempio, un cane), i genitori in risposta correggono il
bambino e non rinforzano questo comportamento verbale.
Skinner cercò di applicare questo metodo anche a comportamenti verbali più complessi, come la
produzione di frasi quali ad esempio “Cerco il portafoglio”, “Studio psicologia” ecc. questa proposta è stata
però radicalmente criticata da Chomsky, secondo il quale lo sviluppo del linguaggio possiede delle
caratteristiche che non possono essere spiegate utilizzando la teoria del comportamento operante. Una di
tali caratteristiche è l’uso di “ipercorretismi”, ossia l’uso di forme errate che però seguono una regola di
base non arbitraria. Ne sono un esempio la coniugazione dei verbi irregolari al presente – dicete anziché
dite – o al passato – dicerono anziché dissero. Una seconda caratteristica del linguaggio che non è spiegabile
dalla teoria comportamentista riguarda la possibilità di creare un numero infinito di frasi nuove, che non
sono mai state incontrate in precedenza.

Alcuni cenni storici: Tutte le proposte che si sono sviluppate nell’ambito del comportamentismo classico
si basano sul principio associazionista, ossia sulla convinzione che si possa parlare di apprendimento solo
nel caso in cui si osservi la comparsa di un comportamento in risposta alla presentazione di uno stimolo. Il
principio associazionista riguarda anche i modelli dell’apprendimento operante. Tuttavia, va ricordato che
Skinner, il principale esponenti di questo filone di ricerca, si considerava completamente ateorico e
sosteneva che i dati empirici disponibili non permettevano di sviluppare una teoria soddisfacente
sull’apprendimento.

Spiegazioni meccanicistiche e spiegazioni cognitive dell’apprendimento :


Gli studi sul condizionamento classico ed operante rappresentano i primi tentativi di capire le regole che
governano l’apprendimento, ma si limitano ad esaminare la relazione tra ambiente e comportamento e non
spiegano quali siano i processi responsabili dell’apprendimento che si osserva in queste due forme di
apprendimento. Tali processi sono ancora oggi oggetto di discussione. Da un lato vi sono le spiegazioni che
fanno appello a teorie di tipo meccanicistico, dall’altro quelle che fanno appello a teorie di tipo cognitivista.
Secondo le teorie meccanicistiche, quelle che stanno alla base delle ricerche di cui abbiamo parlato finora,
l’apprendimento tramite condizionamento dipende da una connessione diretta tra lo stimolo e la risposta.
In altri termini, l’apprendimento consiste in una risposta di tipo automatico (ad esempio, chiudere gli occhi

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
di fronte a un oggetto che ci potrebbe colpire), che si manifesta come un riflesso, e che segue sempre uno
stimolo identificabile (ad esempio, una mano che sta per colpirci). Le teorie meccaniciste utilizzano il
principio associativo tra stimolo e risposta (o tra risposta e conseguenza) senza ipotizzare che l’individuo si
crei una rappresentazione mentale della risposta (premere la leva), del rinforzo (ottenere cibo) e della loro
relazione (se premo la leva, allora ottengo cibo). Le teorie cognitiviste, invece, presuppongono che il
comportamento di chiusura degli occhi non dipenda in modo automatico, immediato e “riflesso” dalla
mano che sta per colpirci, ma dalla rappresentazione mentale della relazione tra la mano e quello che può
accadere quando la mano colpisce. In altri termini, gli occhi vengono chiusi perché l’individuo si è creato
una rappresentazione mentale (ossia un’aspettativa) della mano che colpisce e delle sue possibili
conseguenze. Le teorie cognitiviste sembrano oggi prevalenti. Già nel 1932 Tolman aveva denunciato
l’insufficienza del principio associativo, e aveva fatto una proposta nuova: l’apprendimento non si manifesta
necessariamente sul piano dei comportamenti osservabili, ma su quello delle rappresentazioni mentali.

L’apprendimento per segnali:


Secondo Tolman l’animale apprende perché si crea una rappresentazione mentale della situazione; sarebbe
questa rappresentazione mentale a guidarne poi l’azione. Faccio l’esempio del ratto che corre in un
labirinto: per imparare a percorrere il labirinto, l’animale deve imparare la mappa del labirinto, ossia averne
una rappresentazione spaziale nella mente. In base a questa si può muovere e trovare vie di uscita. Oltre
alla rappresentazione della relazione tra azione e ricompensa. Riprendiamo la situazione in cui un ratto si
deve muovere in un percorso o un labirinto per raggiungere del cibo che è posto in una certa posizione. Per
dimostrare che l’animale apprende una mappa spaziale del percorso e non una serie di comportamenti
motori, Tolman creò le seguenti condizioni: un ratto viene posto su una piattaforma di legno a forma di
croce, e fatto partire da un’estremità indicata come il punto P del percorso, ed è libero di muoversi in tutte
le direzioni senza scendere dalla piattaforma. In una prima fase riceve cibo nelle altre tre estremità della
piattaforma, mentre da un certo momento in poi viene alimentato per un certo numero di volte solo
nell’estremità A che si trova a destra del punto di partenza. Il ratto quindi impara a percorrere il tratto che
va da P ad A, dove trova il cibo. La domanda che ci si pone riguarda la natura dell’apprendimento: è questo
apprendimento puramente motorio (gira a destra) in risposta allo stimolo, oppure è un apprendimento
della posizione del cibo relativamente all’intero piano del percorso? Per stabilire ciò il ratto veniva posto in
una nuova posizione di partenza, ad esempio P1, rispetto al quale il punto A, quello in cui viene alimentato,
si trova a sinistra, e non più a destra. Il ratto andrà direttamente verso il cibo dimostrando quindi che non
ha appreso una serie di movimenti, ma con l’esperienza si è creato una mappa mentale delle relazioni
spaziali all’interno del percorso.
Questa forma di apprendimento veniva chiamata da Tolman apprendimento per segnali, perché ciò che
impara il topo è una serie di segnali che definiscono sequenze spaziali.
L’apprendimento per segnali può anche essere considerato come l’apprendimento di una aspettativa, ossia
l’apprendimento di una conoscenza. Ad esempio, l’animale impara che il cibo, o la ricompensa, si trova in
un certo luogo, perché quello è il luogo in cui l’ha sempre trovata e mostra sorpresa se questa non c’è. La
sorpresa è segno della mancata corrispondenza da ciò che l’animale si attendeva di trovare e ciò che ha
effettivamente trovato.
Il fatto che l’apprendimento non consista di acquisizione di schemi motori “ciechi” (come presupporrebbe il
paradigma del condizionamento classico), ma di rappresentazioni mentali è ulteriormente dimostrato da un
altro tipo di fenomeno osservato da Tolman. Un animale che percorre un labirinto senza alcuna ricompensa
per numerose volte è poi in grado di scegliere la via più breve per raggiungere del cibo quando questo
viene posto nuovamente nel labirinto. Questo processo, detto di apprendimento latente, dimostra che
attraverso l’esperienza si possono creare nuove strutture cognitive.

Condizionamento classico e operante: una spiegazione cognitiva: ///

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Dai neuroni al comportamento:
Le reti neurali artificiali sono dei sistemi di elaborazione dell’informazione (in pratica, dei programmi di
computer) ispirati al funzionamento del cervello, caratterizzati dalla capacità di apprendere a svolgere
compiti complessi. Una rete neurale è formata da semplici elementi, ispirati ai neuroni biologici, che
agiscono in parallelo e che sono collegati tra di loro a formare una “rete”. Nell’ambito della psicologia e
delle neuroscienze, le reti neurali – note anche come modelli connessionisti – sono utilizzate per simulare
le capacità cognitive e il comportamento umano, allo scopo di comprendere come le nostre funzioni
mentali si realizzino nel cervello a partire dall’attività delle reti di neuroni. In altre parole, la domanda cui si
cerca di rispondere è: come si passa dai neuroni al comportamento? La sfida è quella di tentarne una
“ricostruzione” come proprietà emergenti dei sistemi neuronali.

Gli elementi di base di una rete neurale:


Nel cervello, una rete neurale è formata da un certo numero di neuroni che agiscono e si influenzano a
vicenda attraverso le connessioni che li collegano. L’analogia più semplice per il funzionamento del neurone
è quella di un rilevatore di fumo tipo-hotel. Ogni neurone “rileva” un qualche insieme di condizioni (nel
nostro esempio il fumo) e ciò che viene rilevato può essere considerato il più semplice livello di
rappresentazione (c’è fumo, oppure non c’è fumo). Allo stesso modo, un neurone del nostro sistema visivo
può rilevare la presenza di una faccia, piuttosto che di un altro oggetto comune, e persino rilevare se la
faccia è vista di fronte oppure di profilo. In ogni caso, il neurone segnala ciò che ha rilevato attraverso una
frequenza di scarica. I neuroni possono ricevere segnali da altri neuroni, formando quindi strati di rilevatori
più complessi. Analogamente, una rete neurale artificiale è basata su delle semplici unità di elaborazione
ispirate al neurone biologico. È importante sottolineare la parola “ispirate”: non si tenta infatti di riprodurre
la complessità del neurone biologico (caratterizzato da sofisticati meccanismi biochimici) ma di catturarne i
principi base di funzionamento.

Il neurone: Un neurone formale è un semplice modello matematico che astrae gli aspetti fondamentali del
funzionamento neuronale. Un neurone è caratterizzato da uno stato di attivazione, che varia in funzione
delle attivazioni dei neuroni dai quali riceve (input) e che verrà a sua volta propagato ad altri neuroni che si
trovano a valle (output). L’attivazione di un neurone formale è semplicemente un numero reale, di solito
compreso tra 0 e 1 oppure tra -1 e 1 (in quest’ultimo caso il valore negativo significa che il neurone si trova
in uno stato di inibizione). Il calcolo dello stato di attivazione si realizza attraverso un processo a due stadi: il
primo prevede semplicemente la sommazione di tutte le attività provenienti dalle altre unità (neuroni)
collegate, cioè il calcolo dell’input totale, mentre il secondo prevede il calcolo dello stato di attivazione
finale del neurone attraverso una funzione di output. Quest’ultima può essere semplicemente una funzione
a soglia, in cui il neurone sarà attivo solo se l’input totale supera un certo valore di soglia, oppure una più
complessa funzione che simula meglio le proprietà di neuroni biologici. La funzione più utilizzata è la
sigmoide, una finzione non-lineare caratterizzata da una forma a S.

L’architettura: Definire le caratteristiche delle unità di elaborazione non è sufficiente per costruire una rete
neurale. Il passo successivo è di stabilire l’architettura della rete, cioè uno schema di connettività.
L’architettura di una rete identifica da due aspetti:
- Gruppi o strati di neuroni diversi tra di loro;
- Il modo in cui i neuroni sono connessi tra di loro (schema di connettività);

Strati:
All’interno della rete è di solito possibile distinguere tra gruppi di neuroni diversi, organizzati in strati:

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
- strato di input: formato dalle unità che ricevono l’input direttamente dall’ambiente;
- strato di output: formato dalle unità che producono l’output finale della rete;
- unità nascoste: tutti i neuroni che non sono in contatto con l’ambiente.
Presentare alla rete uno stimolo significa attivare quelle unità di input che codificano gli attributi dello
stimolo – le altre unità rimangono “spente” (inattive). Con il termine configurazione ci riferiremo allo stato
di attivazione complessivo di tutte le unità di uno strato.
L’influenza di un neurone su di un altro neurone si realizza in corrispondenza dei punti di giunzione tra le
due cellule, chiamate sinapsi. Le sinapsi sono regolate attraverso complessi meccanismi biochimici
(neurotrasmettitori), ma nelle reti artificiali viene preso in considerazione solo l’aspetto più importante
della sinapsi, cioè la sua efficacia (forza). Quindi, ogni connessione tra una coppia di neuroni nelle reti
artificiali è caratterizzata da un peso sinaptico, un valore scalare che indica la forza della connessione. Il
peso può essere positivo, e quindi definire una connessione eccitatoria; oppure può avere un valore
negativo, e quindi definire una connessione inibitoria.

Schemi di connettività:
- Rete feed-forward: sono reti dove vi sono solo connessioni unidirezionali dalle unità di input alle unità
nascoste e da queste alle unità di output; sono reti che possono essere usate per la simulazione di alcuni
compiti ma non sono molto realistiche per la simulazione dei compiti cognitivi che devono essere
simulazioni bidirezionali;
- Rete ricorrente: vi sono connessioni bidirezionali dove l’attivazione può fluire anche all’indietro,
dall’output verso l’input;
- Reti ricorrenti con connessioni laterali e anche bidirezionali.

L’apprendimento nelle reti neurali:


Il terzo elemento fondamentale di una rete neurale è la procedura di apprendimento. L’apprendimento
consiste nel trovare l’insieme di pesi sinaptici che permette alla rete di svolgere un certo compito. Prima
dell’apprendimento i pesi sono a zero oppure hanno valori casuali, quindi la rete non sa fare niente – è una
sorta di tabula rasa. Qualsiasi procedura di apprendimento si basa quindi sulla modifica dei pesi.
La ricerca sulle reti neurali artificiali ha prodotto negli ultimi vent’anni un numero notevole di algoritmi di
apprendimento (per algoritmo si intende un insieme finito di istruzioni o di passi che servono per risolvere
il problema). Una descrizione dei vari algoritmi va al di là degli scopi di questo capitolo; è però utile
descriverne alcuni aspetti generali per capire cosa e come apprende una rete neurale. In generale, dato un
sistema (artificiale o naturale) che riceve una serie di input sensoriali, possiamo distinguere tre tipi diversi di
apprendimento:
- apprendimento supervisionato: lo scopo di un sistema sottoposto a questa forma di apprendimento è
imparare a produrre una risposta corretta (output) ogni volta che si presenta un nuovo stimolo (input)
adeguato. Nella fase di apprendimento il sistema riceve anche l’output desiderato: in altre parole, è
presente un insegnante esterno;
- apprendimento per auto-organizzazione: il sistema non ha alcun compito specifico da eseguire. Lo scopo
dell’apprendimento è di costruire rappresentazioni dell’input più complesse e informative, che possono
essere successivamente usate per il ragionamento, la decisione, la comunicazione;
- apprendimento per rinforzo: il sistema può anche produrre azioni che hanno un effetto sul mondo, e
riceve rinforzi (o punizioni). Lo scopo dell’apprendimento è di imparare ad agire in un modo che massimizza
il rinforzo nel lungo termine. Si noti che, a differenza dell’apprendimento supervisionato, non viene fornito
l’output desiderato ma solo un’informazione sulla bontà dell’output prodotto.

Per dare un’idea più precisa di come funziona l’apprendimento prenderemo in considerazione il tipo più
semplice di rete neurale, un’associazione tra configurazioni. Questo è costituito da uno strato di unità di
input e da uno strato di unità di output, collegati solo attraverso connessioni unidirezionali; ogni unità di

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
input è connessa con tutte le unità di output e non ci sono connessioni tra unità dello stesso strato. Dato un
insieme di configurazione di input, la rete deve imparare ad associare ciascuna configurazione di input con
una determinata configurazione di output. Riprendendo l’esempio dell’apprendimento della lettura, il
compito sarà di imparare ad associare la forma scritta di una parola (le lettere che la compongono) con la
corrispondente forma fonologica (la sequenza di fonemi).
Dopo l’apprendimento, la rete sarà in grado di produrre l’output corretto per ogni configurazione di input.
Inoltre, la rete può essere in grado di generalizzare, cioè di utilizzare in modo appropriato la conoscenza
appresa anche di fronte a nuovi esempi del problema rispetto al quale ha avuto luogo l’apprendimento. Ad
esempio, posso riconoscere come “cane” anche l’esemplare di una razza che non ho mai visto.

Reti neurali e memoria:


Per prima cosa è importante sottolineare che una rete non contiene una sorta di magazzino di memoria e
neppure una “traccia” per ogni configurazione appresa. I pesi delle connessioni dopo l’apprendimento
permettono alla rete di riprodurre semplicemente lo stato di output appropriato per un certo input, in
questo senso, abbiamo una memoria di tipo “ricostruttivo”. Si tratta dunque di memoria a lungo termine
(MLT), perché i pesi delle connessioni non si cancellano e si modificano (gradualmente) solo se c’è ulteriore
apprendimento, al contrario, l’attivazione delle unità della rete è un fenomeno temporaneo: è specifico per
lo stimolo presentato in input e si esaurisce con la sua scomparsa. Tuttavia, se l’attivazione non cessa
bruscamente, è possibile che l’attivazione residua influenzi l’elaborazione dello stimolo successivo: questo
processo è alla base di molti fenomeni di priming. Alcuni compiti cognitivi richiedono di ricordare uno
stimolo (o un suo attributo) per qualche secondo anche quando questo non è più presente nell’ambiente,
cioè richiedono l’utilizzo della memoria di lavoro o a breve termine (MBT). In una rete neurale ciò che si
può realizzare mantenendo attive determinate unità anche quando l’input non è più presente.
Fino a che punto le reti neurali artificiali rappresentano un buon modello della memoria umana? La
capacità di memorizzare informazioni è una caratteristica necessaria ma non sufficiente perché un sistema
artificiale sia considerato tale, come dimostra il fatto che un computer non è certamente un modello valido
della memoria umana. È fondamentale quindi un confronto sia qualitativo che quantitativo tra reti neurali e
soggetti umani: in particolare, è possibile far eseguire a una rete gli stessi esperimenti psicologici sulla
memoria fatti eseguire a soggetti umani e confrontarne i risultati.

Due sistemi complementari di apprendimento e memoria: Un importante vincolo che ci viene fornito dagli
studi sulla memoria umana riguarda il modo in cui l’apprendimento di materiale nuovo interferisce con
quanto già appreso. Un classico esempio di questo tipo di interferenza si trova nel compito di
apprendimento associativo AB – AC. La lettera A rappresenta un insieme di parole associate con due
diversi insiemi di altre parole, B e C. Ad esempio, la parola “cane” sarà associata con la parola “sole” nella
lista AB e con la parola “treno” nella lista AC. È possibile fare questo esperimento utilizzando come soggetto
una rete neurale. Tutto procede bene nell’apprendimento della lista AB, quando si passa però
all’apprendimento di AC si osserva che la prestazione della rete è molto diversa da quella dei soggetti
umani. L’interferenza è molto più grande per la rete, addirittura “catastrofica” nel senso che la prestazione
sulla lista AB dopo l’apprendimento di AC si avvicina a zero. Vari studi hanno messo in luce le cause di
questo fenomeno, dimostrando che due fattori influiscono sull’interferenza nell’apprendimento associativo
in una rete neurale: il grado di sovrapposizione delle rappresentazioni, e il tasso di apprendimento (ovvero
la rapidità d’apprendimento). Si parla di rappresentazioni sovrapposte quando alcune unità della rete sono
condivise da rappresentazioni di stimoli diversi. Si parla di tasso di apprendimento invece in riferimento a
quanto grandi possono essere i cambiamenti dei pesi delle connessioni durante l’apprendimento.
Prima di discutere la soluzione del problema dell’interferenza, è utile considerare brevemente il suo
opposto, l’integrazione. Integrare molte esperienze significa estrarre le regolarità presenti nell’ambiente.
Questo processo è alla base della nostra capacità di generalizzare (ad esempio, categorizzare in modo

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
adeguato degli stimoli mai visti prima) e di compiere inferenze. Un tasso di apprendimento lento permette
il processo di integrazione. Quest’ultimo beneficia però anche della presenza di rappresentazioni
sovrapposte, perché l’uso degli stessi pesi per rappresentare esperienze differenti permette di astrarre
dagli eventi individuali. Notiamo quindi che evitare l’interferenza e ottenere integrazione delle conoscenze
sono due processi incompatibili, ma anche riconducibili a due diversi aspetti della memoria:
1) evitare l’interferenza è essenziale per la memoria episodica, che richiede un rapido apprendimento dei
dettagli di specifici eventi, tenendoli separati da quelli di altri eventi;
2) integrare esperienze diverse è essenziale per costruire una conoscenza generale della struttura
dell’ambiente, astraendo dalla specificità dei singoli eventi per permettere la generalizzazione a situazioni
nuove. Nelle reti neurali si può ottenere l’integrazione utilizzando rappresentazioni sovrapposte e un tasso
di apprendimento lento.
Questa incompatibilità di funzioni può essere risolta solo utilizzando due sistemi diversi. Nel cervello, questi
ruoli complementari sarebbero assegnati rispettivamente all’ippocampo e alla neocorteccia.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
CONCETTI
Approccio classico:
Che cosa sono i concetti? Il libro “A study of thinking” di Bruner, Goodnow e Austin riporta una serie di
esperimenti sull’acquisizione dei concetti. Tutti gli individui fanno uso dei concetti. Raramente gli eventi
vengono concepiti nella loro unicità. Piuttosto ciascun evento viene percepito come il rappresentante di
una categoria. Se un evento viene percepito come appartenente ad una categoria, quell’evento viene
percepito come un esemplare di un concetto. Un oggetto viene classificato come libro se possiede attributi
come pagina, copertina, carattere di testo. Ciascun attributo può assumere valori diversi. Per esempio le
pagine possono essere piccole o grandi ecc.
Il libro di Bruner, Goodnow e Austin si occupa della selezione tra attributi e concetti. Alcuni concetti
possono essere costituiti semplicemente da una congiunzione di attributi. Altri concetti sono più complessi.
Per appartenere ad un concetto disgiuntivo, per esempio, l’oggetto deve possedere una qualsiasi di due
classi di attributi. Così, un individuo può essere cittadino americano a causa del fatto di essere nato negli
Stati Uniti e di avere conseguito la cittadinanza americana. Un altro tipo ancora di concetti è rappresentato
dai concetti relazionali. In questo caso è la relazione tra gli attributi che determina la categoria di
appartenenza di un evento. Un esempio a questo proposito è costituito dal concetto di matrimonio che
rappresenta una relazione tra due individui.
Bruner, Goodnow e Austin, nei loro esperimenti, hanno usato come stimoli delle carte. Se una di queste
carte costituisce un esempio di un dato concetto, essa viene detta un caso positivo. Un semplice concetto
congiuntivo, per esempio, può essere definito in base all’attributo nero e all’attributo quadrato. Ciascuna
carta con questi due attributi è un caso positivo del concetto. Per capire perché un oggetto costituisce un
caso positivo di un concetto disgiuntivo come quello dell’esempio precedente è necessario sapere quali
sono gli attributi rilevanti in base ai quali il concetto è stato definito e quali sono gli attributi irrilevanti. Voi
potreste cercare di ottenere quest’informazione considerando gli attributi che ricorrono nei casi positivi del
concetto. Se un attributo fosse presente in tutti i casi positivi del concetto, allora potreste concludere che
questo è un attributo rilevante – la sua presenza è necessaria affinché qualcosa possa essere considerato
come un membro del concetto.
Il processo di inclusione degli attributi ricorrenti e di esclusione degli attributi non ricorrenti costituisce un
processo di astrazione. Il significato etimologico di astrarre è quello di “trarre, separare da”.
Gli attributi ricorrenti formano un insieme che definisce il concetto.
Talvolta il processo di astrazione è paragonato a una sorta di fotomontaggio, ma questa ipotesi presenta
molti problemi. È possibile individuare un insieme di attributi che siano posseduti da ciascun membro della
vostra famiglia? È possibile che qualche membro della vostra famiglia non possieda alcuni degli attributi
posseduti dagli altri membri della famiglia? Che cosa realmente significa somiglianza di famiglia?
- Compiti usati nello studio della formazione dei concetti: Il processo di astrazione non è un processo passivo
in cui gli attributi rilevanti vengono astratti automaticamente dopo la presentazione di un numero
sufficiente di casi positivi del concetto. Piuttosto, i soggetti formulano delle ipotesi. Questo significa che i
soggetti usano una strategia per cercare di scoprire il concetto. La strategia che abbiamo descritto
nell’esempio precedente è chiamata focalizzazione conservativa perché i soggetti si focalizzano su di un
attributo soltanto e scelgono gli stimoli che variano solo sulla dimensione rappresentata da questo
attributo.
Bruner e i suoi collaboratori hanno scoperto che i soggetti usano varie strategie per cercare di risolvere
questo problema. Queste strategie includono il tentativo di indovinare il nucleo concettuale, la scansione
simultanea e la scansione successiva. Quando i soggetti tentano di indovinare il nucleo concettuale, essi
scelgono gli stimoli che differiscono dal caso positivo del concetto nei termini di più di un attributo. Con un
poco di fortuna, in questo modo è possibile eliminare velocemente varie ipotesi. Questa strategia richiede
un grosso sforzo mnemonico, perché è necessario tenere a mente tutte le ipotesi potenzialmente corrette e

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
tutte le ipotesi che sono state provate sbagliate.
- Strategie di ricezione: il processo di formazione dei concetti può essere studiato per mezzo di una
procedura che consente di mantenere l’ordine di presentazione degli stimoli sotto il controllo dello
sperimentatore. Negli esperimenti in cui viene usata una procedura di ricezione i soggetti tendono a fare
ricorso a strategie di tipo:
- olistico = i soggetti inizialmente assumono che il concetto sia definito in base a tutti gli attributi presenti
nel caso positivo del concetto che è stato presentato loro in precedenza.
- elementaristico = l’ipotesi formulata inizialmente dai soggetti è definita nei termini di un sottoinsieme
degli attributi del caso positivo del concetto presentato in precedenza. Quest’ipotesi viene mantenuta fino
a quando vengono trovate evidenze contrastanti.

Critiche all’approccio classico: Nei tardi anni Sessanta e all’inizio degli anni Settanta molti psicologi
iniziarono ad avere seri dubbi a proposito delle ricerche sulla formazione dei concetti condotte per mezzo
del metodo precedentemente descritto. È possibile, infatti, che i concetti usati nel mondo reale siano più
complessi dei concetti studiati per mezzo della metodologia di Bruner. La prima soluzione potrebbe essere
quella di continuare a studiare i concetti artificiali, dato che essi consentono un maggior controllo
sperimentale, rendendo però questi concetti maggiormente simili ai concetti che normalmente vengono
usati nel mondo reale.

Apprendere regole complesse:


Grammatica a stati finiti: tali diagrammi sono anche detti diagrammi a rete ferroviaria. I binari possono
essere percorsi soltanto in una direzione, quindi è possibile viaggiare soltanto nella direzione indicata dalla
freccia. La grammatica a stati finiti in realtà rappresenta un insieme di regole in base alle quali è possibile
generare una sequenza di lettere. In un’affascinante serie di esperimenti, Reber e collaboratori hanno
studiato il processo di apprendimento di grammatiche artificiali. Reber ha distinto fra apprendimento
implicito e apprendimento esplicito. Supponete che ai soggetti appartenenti ad un primo gruppo
sperimentale vengano presentate delle sequenze di lettere e che essi vengano istruiti a memorizzarne il
maggior numero possibile. Ai soggetti compresi in questo gruppo non viene spiegato che le sequenze di
lettere sono state generate in base ad una serie di regole (condizione di apprendimento implicito). Ai
soggetti appartenenti ad un secondo gruppo sperimentale, invece, viene spiegato che le sequenze di lettere
sono state generate in base ad una serie di regole e che il loro compito è quello di scoprire queste regole
(condizione di apprendimento esplicito). In quale gruppo sperimentale i soggetti sono in grado di
distinguere con maggiore accuratezza le sequenze di lettere compatibili con la grammatica dalle sequenze
incompatibili di essa? I soggetti nella condizione sperimentale di apprendimento implicito erano in grado di
astrarre la struttura della grammatica senza rendersene conto.
Secondo Reber, gli individui che apprendevano in modo implicito avevano un vago sentore di ciò che era
grammaticale e di ciò che non lo era, senza però essere in grado di formulare in forma esplicita la struttura
grammaticale. Questa conoscenza, in ogni caso, rimaneva largamente una conoscenza tacita.
Il lavoro di Reber può fornirci indicazioni preziose a proposito del processo di apprendimento di sistemi
complessi di regole come, per esempio, quelli che stanno alla base dei linguaggi naturali.
Noi sappiamo che i bambini in età prescolare sono in grado di acquisire molte informazioni a proposito
della struttura della lingua dal momento che essi sono in grado di produrre delle frasi approssimativamente
corrette dal punto di vista grammaticale. Potremmo dunque dire che i bambini in età prescolare sono in
una situazione simile a quella dei soggetti nel gruppo sperimentale di apprendimento implicito di Reber.
Dulany et al. si sono resi conto del fatto che anche i soggetti che avevano appreso implicitamente una
grammatica erano in grado di formulare delle ipotesi a proposito delle regole grammaticali. queste ipotesi,
però, non erano sempre corrette. Piuttosto, esse rappresentavano una descrizione imperfetta e in qualche
modo personale delle regole della grammatica.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
In una replica, Reber, Allen e Regan hanno notato che il ruolo dei processi inconsci ha assunto una notevole
importanza all’interno della psicologia negli ultimi anni. Questo problema potrebbe avere a che fare,
almeno in parte, con la difficoltà di distinguere in maniera precisa fra i processi che sono sotto il controllo
della consapevolezza e i processi inconsci. Dopo una serie di ipotesi, si è arrivati alla conclusione che il
sistema cognitivo implicito è evolutivamente molto antico, e in questo lungo lasso di tempo non è
cambiato. “Una volta che un sistema adattivo, funzionale si è evoluto e […] il sistema è, grosso modo, in
grado di far fronte a diversi ambienti, il cambiamento non ha valore adattivo”. Per contro, la cognizione
esplicita è più recente e meno vincolata a processi evolutivi. Di conseguenza, mentre le persone
differiscono ampiamente in termini di capacità cognitive esplicite, esse non differiscono granché in termini
di processi cognitivi impliciti. La cognizione implicita è qualcosa che tutti possediamo, e possediamo in
misura simile.

La natura dei concetti secondo Wittgenstein:


Il problema che Wittgenstein affronta è: “Che cosa hanno in comune tutti i membri di una categoria?”
I membri di una categoria possono non avere in comune le stesse caratteristiche. Gli attributi posseduti dai
membri di una categoria costituiscono invece una complicata rete di caratteristiche che si sovrappongono
le une alle altre. I membri individuali di un concetto possono sfumare gli uni negli altri senza che il concetto
medesimo abbia confini precisi.

Rosch e il carattere prototipico dei concetti:


Rosch ha individuato due principi che regolano l’uso che gli individui fanno dei concetti:
- principio dell’economia cognitiva: si riferisce al tentativo di bilanciare due tendenze contrapposte. La
prima tendenza è quella di usare le categorie in modo tale da massimizzare la quantità di informazioni che
esse ci forniscono (questo scopo può essere raggiunto usando quante più categorie è possibile. Tanto più
grande è il numero delle categorie tanto maggiore è la possibilità di differenziare eventi diversi); di
conseguenza è necessario bilanciare una tendenza verso la minimizzazione fra le categorie da una parte,
con una tendenza verso la differenziazione di categorie dall’altra.
- principio della struttura del mondo percepito: si riferisce al fatto che particolari combinazioni di attributi
ricorrono nel mondo più frequentemente di altre.

La dimensione orizzontale e la dimensione verticale: Secondo Rosch, a causa di questi principi, i concetti
finiscono per essere organizzati all’interno di un sistema caratterizzato da dimensioni verticali e orizzontali:
- dimensione verticale: questo tipo di organizzazione è formato da tre livelli:
- sovraordinato (es. mobile)
- base (tavolo)
- subordinato (tavolo da cucina)
È interessante che Rosch ha scoperto che i bambini sono in grado di usare in maniera accurata le categorie
a livello base prima delle categorie a livello sovraordinato. Parole come “sedia”, per esempio, vengono
acquisite prima di parole come “mobili”.
Rosch ha spesso osservato che ciò che costituisce il livello base dipende dal grado di sofisticazione della
persona. Il pianoforte, per esempio, rappresenta un oggetto base per la maggior parte delle persone. Ma
che dire dei musicisti? Forse nel loro caso vi è una maggiore differenziazione fra gli strumenti musicali
cosicché ciò che si trova a livello subordinato per un non musicista potrebbe trovarsi a livello base per un
musicista. Tanto più grande è l’esperienza con una particolare classe di oggetti, tanto di più gli individui si
rendono conto delle azioni che quegli oggetti rendono possibili;

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
- dimensione orizzontale: All’interno di ciascun livello della gerarchia categoriale (ovvero all’interno della
dimensione orizzontale della struttura categoriale) alcuni esemplari sono più prototipici di altri. Rosch e
Mervis hanno trovato che gli esemplari prototipici di una categoria condividono molti attributi con gli altri
membri della medesima categoria e pochi attributi con i membri di altre categorie.
La dimensione orizzontale della struttura categoriale è chiarita dagli esperimenti precedenti nel senso che i
concetti hanno struttura graduata se alcuni membri della categoria sono miglior esempio della categoria
stessa che non altri e, inoltre, i confini della categoria non sono rigidamente definiti.

Il modello delle tracce di memoria di Hintzman:


Il modello delle tracce di memoria multiple proposto da Hintzman dà conto in modo interessante degli
effetti della prototipicità. Questo modello è basato sull’assunzione che la traccia di ciascuna esperienza
individuale venga registrata in memoria. Per quanto spesso un evento si ripeta, ogni qual volta se ne ha
esperienza viene registrata una traccia di memoria. Le tracce di memoria sono dotate di proprietà
corrispondenti a quelle dell’esperienza. Queste proprietà includono il tono emotivo dell’esperienza, le
qualità sensoriale come l’odore e il colore e altre proprietà più astratte.
Hintzman distingue fra memoria primaria e memoria secondaria. La memoria primaria si riferisce a tutto
ciò di cui gli individui hanno esperienza in un dato momento, mentre la memoria secondaria si riferisce alle
tracce di memoria che sono state create dalle esperienze avute dagli individui. La memoria secondaria può
essere attivata per mezzo di un probe (sonda) a partire dalla memoria primaria.
Hintzman ha suggerito che la rievocazione può essere paragonata all’ascolto di un coro. Se vi sono tracce
simili all’esperienza corrente allora, in risposta ad un probe di memoria, un individuo può sentire un intero
coro di voci anziché una voce sola. All’interno di questo coro, le proprietà delle tracce di memoria
individuali tendono ad essere perdute e viene conservata soltanto un’impressione generale di ciò che le
tracce di memoria hanno in comune. In questo modo, il ricordo può essere schematico senza che vi sia
alcunché di simile ad uno schema.

Barsalou e le categorie “ad hoc”:


Se casa vostra andasse a fuoco cosa cerchereste di mettere anzitutto in salvo? Potreste elencare cose; ciò
che va sottolineato a proposito di questo elenco è che esso rappresenta qualcosa cui forse non avete mai
pensato prima di questo momento. Nulla vi impedisce invece di costruire su due piedi la categoria delle
cose da salvare in caso di incendio. Le categorie di questo tipo sono chiamate categorie “ad hoc”. Le
categorie ad hoc possono essere composte da membri che non hanno nessun attributo in comune e
possono non essere mai state concepite in precedenza. Barsalou ha mostrato che le categorie ad hoc hanno
una struttura graduata.
Le categorie ad hoc sono categorie create per servire agli scopi di una circostanza particolare. Secondo
Rosch, gli individui preferiscono classificare inizialmente gli oggetti nei termini delle categorie base. Così, la
prima risposta che viene in mente di fronte ad un particolare mobile potrebbe essere che sia una sedia.
Barsalou ha notato che la categoria ad hoc: legna da ardere in situazione d’emergenza può far si che una
sedia venga classificata in più modi. La capacità di classificare gli oggetti in più modi, nei termini delle
categorie base e nei termini delle categorie ad hoc, potrebbe rappresentare un aspetto importante del
pensiero creativo.
Per definizione, le categorie ad hoc non sono presenti nella memoria prima del loro uso. Queste categorie
emergono invece come un particolare stato del sistema di memoria. Le circostanze del momento generano
uno e un solo stato, e questo stato rende possibile una categoria ad hoc.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Lakoff e i modelli cognitivi idealizzati:
C’è un libro di George Lakoff che ha per titolo “Women, fire and dangerous things”. Il titolo sembra
suggerire che vi sia qualcosa in comune tra le donne, il fuoco e le cose pericolose. È possibile che le donne
siano ardenti e pericolose? Di fatto, c’è una lingua nella quale le donne, il fuoco e le cose pericolose fanno
parte della medesima categoria. Questa lingua è il dyirbal, una lingua parlata dagli aborigeni australiani. In
questa lingua, tutti gli eventi possibili possono essere classificati sulla base di quattro termini: bayi, balan,
balam e bala.
Com’è mai potuto succedere che questi eventi siano classificati in questo modo? Secondo Lakoff, il principio
più generale è il principio del dominio dell’esperienza: se alcune esperienze sono associate con A allora è
normale che esse vengano classificate in A.
Lakoff ha poi proposto altri due principi più specifici, ovvero il principio mito-e-credenza e il principio della
proprietà importante. Il principio di mito-e-credenza consente l’associazione tra oggetti che si trovano in
relazione gli uni con gli altri per effetto di miti o credenze (le donne sono collegate al sole in un mito e così
pure al fuoco). Il principio della proprietà importante afferma che, se un oggetto possiede una proprietà
particolarmente importante (per esempio, la proprietà di essere pericoloso), questo oggetto può entrare a
far parte di una classe diversa da quella a cui sarebbe normalmente assegnato.
Lakoff ha messo in evidenza il fatto che il sistema concettuale dyirbal non è accidentale o fortuito. Esso, a
dispetto della sua complessità, è regolato invece da principi. Gli individui dispongono di modelli cognitivi
idealizzati che vengono modificati per far fronte a circostanze particolari. Il sistema di base dyirbal è stato
continuamente modificato mano a mano che veniva usato per rappresentare la complessità del mondo
reale. I modelli cognitivi idealizzati non sono del tutto adeguati per descrivere il mondo reale e, per questa
ragione, i sistemi concettuali vengono modificati per meglio adattarsi alle condizioni nelle quali gli individui
vengono a trovarsi.
Benché il sistema di classificazione dyirbal possa sembrare bizzarro, esso non è stato creato diversamente
dal modo in cui sono state create le categorie della nostra cultura.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
PENSARE CON I NUMERI (ARITMETICA COGNITIVA)
Un mondo di numeri:
La capacità di utilizzare i numeri è fondamentale per vivere in tutte le culture basate sul commercio e la
tecnologia. Ma quali sono le basi psicologiche della nostra capacità di utilizzare i numeri? Come sono
rappresentati i numeri nella nostra mente, e quali processi mentali ci permettono di eseguire calcoli
mentali più o meno complessi?

La rappresentazione dei numeri:


Comunicare con i numeri: Esistono due sistemi principali di espressione numerica: le parole-numero (ad
esempio, “venticinque”) e i numeri arabi (ad esempio, “25”). Qualunque sia il formato utilizzato, un numero
va posto in uno specifico contesto e può assumere tre significati diversi:
1. Numerosità: ovvero il numero di elementi di un insieme. Essa corrisponde alla classica definizione di
numero cardinale. Ad esempio, un insieme di 5 mele è più grande di un insieme di 3 mele.
2. Posizione seriale: ovvero l’ordine di un elemento in una sequenza. Ad esempio, pagina 5 viene dopo (ma
non è più grande) di pagina 4.
3. Etichetta: ovvero un modo arbitrario, che non implica né grandezza né ordine, di identificare oggetti. Ad
esempio 568963 può essere usato come un’etichetta per indicare un utente del telefono e 7 un canale
televisivo.

La linea numerica mentale: Gli studi sulla rappresentazione mentale dei numeri naturali ci rivelano che la
grandezza numerica è rappresentata in modo analogico e visuo-spaziale piuttosto che in modo simbolico-
linguistico. Nel 1880 Francis Galton chiese a persone normali di descrivergli come pensavano ai numeri.
Molti riferirono di avere delle rappresentazioni visuo-spaziali dei numeri, a volte caratterizzate da colori
specifici. In particolare, era frequente il riferimento ad una linea nella quale i numeri comparivano in un
formato continuo ed analogico. Questa divenne nota come linea numerica mentale. Fra coloro che
riferiscono esplicitamente l’uso di rappresentazioni visuo-spaziali dei numeri ci sono matematici famosi
come Einstein. È interessante notare che la maggior parte delle persone riferiscono di una linea orientata
da sinistra verso destra, con i numeri piccoli all’estrema sinistra. A dimostrazione dell’orientamento
spaziale della linea numerica mentale, abbiamo anche ad esempio l’effetto SNARC (Spatial-Numerical
Association of Response Codes) o ancora lo studio sui pazienti affetti da neglect (negligenza spaziale
unilaterale).
Effetto SNARC: SNARC è un acronimo che sta per “codice di risposta di associazione spaziale-numerica”.
Supponiamo che sulla linea numerica mentale numerica i numeri più piccoli siano rappresentati a sinistra e
i più grandi a destra. Cosa succede se dobbiamo giudicare quale dei due numeri sia più grande o pari e
dispari usando l’una o l’altra mano? Le risposte sono più rapide quando stimolo e risposta si trovano sullo
stesso lato del corpo rispetto a quando sono sui lati opposti. Dunque, anche l’effetto SNARC è compatibile
con l’ipotesi della linea numerica mentale e della rappresentazione anche analogica dei numeri e non solo
simbolica. In conclusione, vi sono dei dati che sono stati rilevati da alcuni esperimenti e fanno propendere
per una rappresentazione dei numeri di tipo analogico che è simile a quella che abbiamo per le grandezze
fisiche.

Il confronto di grandezze numeriche: La capacità di scegliere il più grande tra due numeri è
apparentemente uno dei compiti numerici più semplici, tuttavia è considerata il criterio base per stabilire se
un individuo comprende il significato dei numeri. Infatti, i pazienti con lesioni cerebrali che hanno difficoltà
a risolvere questo semplice compito sono anche profondamente acalculici, cioè falliscono in una vasta
gamma di compiti numerici, che includono l’abilità di eseguire semplici calcoli come 3-2=1.
Il confronto di grandezza numerica può essere eseguito utilizzando come stimoli i numeri arabi, le parole-

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
numero, o anche degli insiemi di punti. In quest’ultimo caso la grandezza (numerosità) dello stimolo può
essere direttamente percepita. Dopo aver effettuato degli esperimenti, l’analisi dei TR e degli errori
dimostra che le risposte sono tanto più rapide ed accurate quanto maggiore è la differenza fra i due
numeri: ad esempio, risulta più veloce e più facile confrontare la coppia 5 e 3 che non la coppia 5 e 4.
Questo fenomeno, noto come effetto distanza, si osserva indipendentemente dal formato degli stimoli.
Abbiamo poi anche l’effetto grandezza: a parità di distanza tra due numeri da comparare, le risposte
rallentano con l’aumentare della grandezza dei numeri. Ad esempio, i TR sono più rapidi per il confronto tra
4 e 6 che per il confronto tra 6 e 8 (in entrambe le coppie la distanza tra i due numeri è di 2).
Il compito di confronto di grandezze numeriche è stato utilizzato anche con varie specie di animali e con i
bambini, ovviamente utilizzando compiti diversi. È stato recentemente dimostrato che alcuni primati non
umani possono essere addestrati a ordinare correttamente anche degli stimoli più astratti (composti da
figure geometriche) sulla base della loro numerosità, indipendentemente dai cambiamenti di forma,
dimensione e colore. Anche i bambini di pochi mesi sembrano in grado di percepire la differenza di
numerosità tra due stimoli, specialmente se questa differenza è sufficientemente grande.

La matematica mentale:
Quasi ogni giorno ci capita di dover eseguire calcoli “a mente”. L’esecuzione di operazioni aritmetiche a
mente ci è così familiare che è utile soffermarsi su alcuni aspetti importanti della struttura dell’aritmetica
semplice. Primo, tutti i fatti aritmetici hanno una relazione ben definita tra loro. Ad esempio, se 5+3=8
allora 3+5=8. Queste relazioni sono descritte da semplici leggi. Secondo, gli elementi sono ordinati per
grandezza cardinale: quindi, non solo (5+1)+3=8+1, ma anche 5+1>5 e 8+1>8. Questi aspetti conferiscono
all’aritmetica una caratteristica unica: le conoscenze possono essere recuperate dalla memoria o possono
essere computate utilizzando delle procedure.

L’effetto della grandezza del problema: Le ricerche sul calcolo mentale hanno portato alla conclusione che
gli adulti utilizzano in combinazione il recupero di fatti aritmetici dalla memoria, le procedure
(trasformazione in un altro problema), e perfino il conteggio. Più controversa è la descrizione dei processi
psicologici coinvolti, in particolare per quanto riguarda l’organizzazione della memoria per i fatti aritmetici.
È evidente che le procedure vengono utilizzate quando il recupero fallisce, ma cosa determina la relativa
facilità o difficoltà di un’operazione mentale? Tutte le ricerche sull’argomento concordano che il maggior
determinante delle risposte ottenute è la grandezza del problema. Una misura operativa della grandezza
del problema è data dalla somma dei suoi operandi. Quindi, 4+6 è più “grande” di 3+5, perché le rispettive
somme sono 10 e 8. Sia i tempi di risposta che la probabilità di commettere errori aumentano in modo
proporzionale alla grandezza del problema. Questo fenomeno ha però due eccezioni:
- problemi che hanno due operandi uguali, ad esempio 3+3 o 5x5;
- problemi che hanno 0 come operando, ad esempio 3+0=3 o 4x0=0.

Il formato dei fatti aritmetici: Una questione particolarmente controversa è quella che riguarda il formato
in cui i fatti aritmetici, ed in particolare delle tabelline, non sarebbe diverso dall’imparare una poesia a
memoria. Eseguire una moltiplicazione come 3x8=24 non richiederebbe quindi abilità matematiche:
sarebbe sufficiente un processo mentale di recupero della memoria a lungo termine. In questa prospettiva,
l’effetto della grandezza del problema si spiega con il fatto che i problemi “grandi” sono meno frequenti dei
problemi piccoli”.
Secondo un’ipotesi opposta, i fatti aritmetici sono rappresentanti sulla base del principio che è unico per i
numeri – la cardinalità degli operandi; in altre parole, il recupero della memoria sarebbe basato su
rappresentazioni della quantità numerica (la linea numerica mentale) piuttosto che su semplici associazioni
verbali. In questo caso, l’effetto della grandezza del problema dipenderebbe proprio dall’organizzazione
intrinseca dei fatti aritmetici nella memoria.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Entrambe le teorie si sono dimostrate però inadeguate, e l’ipotesi più plausibile sembra essere una via di
mezzo tra le due posizioni opposte.

Il cervello e la matematica:
Esiste un’area del cervello dedicata alla matematica? Gli studi su pazienti che, in seguito a un danno
cerebrale, soffrivano di acalculia, cioè presentavano una difficoltà specifica nell’esecuzione di calcoli e
nell’elaborazione di quantità numeriche, avevano fatto sospettare che il lobo parietale avesse un ruolo
specifico in questa abilità. Questa ipotesi è stata confermata da recenti studi di neuroimmagine funzionale.
infatti, il solco intraparietale e la porzione superiore del lobulo parietale posteriore si attivano
selettivamente in tutti i compiti che richiedono la manipolazione di quantità, indipendentemente dal tipo di
notazione usata, e in particolare si attivano durante l’esecuzione di tutte quelle operazioni aritmetiche che
richiedono l’accesso a rappresentazioni numeriche di quantità e nel confronto di grandezza fra numeri.

Calcolatori eccezionali: È necessario avere un cervello “speciale” per essere eccezionali nel calcolo e nella
matematica? Si può trovare una risposta a questa domanda negli studi sulle persone considerate
“calcolatori prodigio”. A volte questi individui sono dei grandi matematici, ma in altri casi possono essere
degli idiots savants, individui con un’intelligenza molto inferiore alla norma che sono però in grado, ad
esempio, di riconoscere in pochi secondi se un numero di cinque cifre è un numero primo, moltiplicare
mentalmente numeri a tre cifre, o recitare il valore di pi-greco fino al centesimo decimale. In realtà, va
ricordato che sia i grandi matematici sia i savants passano la maggior parte del loro tempo a fare
matematica o a “giocare” con i numeri e a risolvere problemi. Sembra quindi che queste capacità
apparentemente sovrumane dipendano principalmente dalla grande quantità di pratica. Ricordare questo
non significa ignorare le basi biologiche, e persino quelle genetiche, delle nostre abilità numeriche: alcune
persone soffrono infatti di discalculia evolutiva, una difficoltà specifica con i numeri che si manifesta nei
primi anni di scuola. Difficoltà di questo tipo sembrano proprio dipendere da anomalie genetiche che si
riflettono sullo sviluppo del cervello. Tuttavia, anche considerando solo gli individui normali, i test di
matematica dimostrano che c’è una grande variabilità di prestazioni tra il miglior individuo ed il peggiore.
Questo può dipendere da fattori motivazionali ed emotivo (ad esempio, l’ansia da esami), ma il confronto
tra paesi diversi dimostra che molta della variabilità può essere attribuita alla cultura ed al sistema
educativo.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
LINGUAGGIO
Il linguaggio è la facoltà mentale che permette ai membri della specie umana di usare una o più lingue,
mentre le lingue sono un prodotto sociale: tutte le società umane possiedono una lingua per mezzo della
quale i loro membri comunicano verbalmente. La lingua non è l’unico mezzo di comunicazione, né
necessariamente il più efficace. Le persone si scambiano informazioni anche attraverso la postura,
l’espressione del volto, l’intonazione della voce ecc.
Molte specie animali possiedono strumenti anche molto raffinati per comunicare sia coi conspecifici che,
talora, con membri di altre specie. Tuttavia, nessuno dei sistemi simbolici impiegati da altre specie ha
caratteristiche confrontabili con le lingue umane.

Struttura delle lingue:


Soltanto in epoca recente le nostre conoscenze hanno subito un’improvvisa accelerazione, grazie a
Ferdinand de Saussure e Noam Chomsky.
Secondo Saussure, una lingua è un sistema di suoni dotati di significato, cioè suoni usati per riferirsi a
qualcos’altro. I suoni linguistici non hanno valore assoluto: il loro valore dipende dal sistema di cui fanno
parte (“burro” in italiano significa una cosa, mentre in spagnolo “asino” o “asinello”).

Struttura: Fonema (o suono), come /a/ o /p/. Nessuna lingua possiede l’intero repertorio di suoni

Morfema: l’unità linguistica più piccola dotata di significato. Stringhe di fonemi formano morfemi.
Es: “tavol-”

Parola = radice di parole di significato come “tavol-” + suffissi come “o”, oppure morfemi liberi
come “caffè” formano le parole

Sintagma = parole si combinano assieme in gruppi più grandi (es: “Il tavolo”) e formano sintagmi

Frase = costituita da vari sintagmi

In una lingua, sono le regole della sintassi quelle che determinano il modo in cui le parole devono
combinarsi ed è sulla base della nostra conoscenza di queste regole che siamo in grado di valutare la
correttezza di un’espressione. Le varie lingue differiscono in più fattori, ma tutte hanno una propria sintassi.
Perché si ritiene che la capacità di usare la lingua sia ciò che ci contraddistingue dalle altre specie? Per
Chomsky, l’unicità delle lingue umane sta nella sintassi. Tutti i sistemi di comunicazione hanno segni dotati
di significato, ma le lingue possiedono la sintassi che fa sì che i simboli semplici (parole), si compongano per
produrre significati più complessi. È nella sintassi che risiede la creatività delle lingue.
Una caratteristica di tutte le lingue è avere una struttura gerarchica: noi produciamo sì suoni che formano
una sequenza lineare, ma i “pezzi” della frase che vanno assieme non sono necessariamente quelli che
stanno vicini.
La conoscenza della sintassi è implicita, nel senso che una persona di norma non è in grado di descrivere o
rendere esplicite le regole linguistiche che usa.

Lo sviluppo del linguaggio / Le basi biologiche del linguaggio : ///

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Grafema: Con il termine grafema si indica il segno elementare e non ulteriormente suddivisibile che
costituisce l'unità minima dei sistemi di scrittura: un grafema rappresenta un'unità linguistica (un fonema,
una sillaba o un morfema).

Lessemi (libro prof): “Anno nuovo, vita nuova”. In questa frase abbiamo in teoria quattro parole. Ma si
può anche dire che nella frase ci sono tre parole: ANNO, VITA, NUOVO. Questa frase contiene perciò
quattro occorrenze di tre lessemi, ovvero tre elementi del lessico della lingua italiana. Le diverse forme di
lessemi VITA, ANNO, NUOVO sono forme flesse di questi lessemi, ossia forme che portano il significato
lessicale del lessema unito ad alcuni significati grammaticali, quali numero e genere.

Esempi:
- “notte”: Morfema lessicale “nott” + “e” morfema grammaticale flessivo
- “barista”: Morfema lessicale “bar” + morfema grammaticale derivazionale “ist” + morfema
grammaticale flessivo “a”
- “portacenere”: Due morfemi lessicali, che rappresentano il verbo PORTARE e il nome CENERE.

“Barista” è una parola derivata, mentre “portacenere” è una parola composta. Si noti che queste ultime
due entità andrebbero denominate, più correttamente, lessema derivato e lessema composto.

Regole di formazione dei lessemi: Una regola di formazione di lessemi (RFL) permette di derivare un nuovo
lessema a partire da un lessema già esistente (o da due, nel caso della formazione di lessemi composti),
attraverso un’operazione che ha effetti sintattici, semantici e fonologici. Ogni RFL specifica una classe di
lessemi cui la regola può applicarsi, detti basi della regola, e un’uscita, cioè il tipo di lessema risultante
dall’applicazione della regola a una base.
Le RFL sono soggette a restrizioni: non ogni affisso può unirsi a ogni base, come prova il giudizio di non
grammaticalità che parlanti dell’italiano danno di fronte a parole come “bevista”, “moritore”,
“danneggiazione”, “sutile”.

Forme flesse dei lessemi: Le forme flesse di un lessema si formano per esprimere una serie di valori di
determinate categorie grammaticali che la grammatica di una lingua richiede che siano obbligatoriamente
espressi. Ogni lingua ha una sua grammatica che rende obbligatoria l’espressione di determinate categorie
grammaticali da parte dei lessemi che appartengono a determinate classi di parole.

Chomsky e la grammatica trasformazionale:


In “Le strutture della sintassi”, Chomsky ha considerato il problema di produzione delle frasi. Una frase è un
enunciato grammaticale ed è riconosciuta in quanto tale dai parlanti della lingua in cui è espressa. La lingua
è un insieme aperto ed è costituita da tutte le frasi possibili mentre l’insieme delle frasi effettivamente
pronunciate rappresenta soltanto un piccolo sottoinsieme della lingua.
Chomsky ha fatto notare che una frase grammaticalmente corretta non è necessariamente una frase dotata
di significato. Ad esempio: “idee verdi prive di colore dormono furiosamente”. Questa ed altre osservazioni
di questo genere hanno condotto Chomsky a distinguere nettamente la grammatica dalla semantica, cioè
dallo studio del significato. Chomsky ha sostenuto che i processi che rendono grammaticale una frase sono
molto diversi da quelli che assegnano un significato ad una frase.
Chomsky ha fatto notare che la grammatica a stati finiti non può generare tutte le frasi di una lingua, visto
che opera in maniera sequenziale, su un solo livello, dalla prima all’ultima parola di una frase, da sinistra a
destra. È impossibile costruire una grammatica a stati finiti capace di generare tutte e solo frasi
grammaticali di una lingua naturale. L’alternativa proposta da Chomsky è quella di un processo che opera
dall’alto verso il basso (top-down) e che fa uso di regole di struttura sintagmatica e di trasformazioni

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
grammaticali. Diagramma ad albero, F (frase), SN (sintagma nominale), SV (sintagma verbale). Questo
processo di riscrittura continua sino a che non vengono generate le parole vere e proprie. Ciascuno stadio
di questo processo produce una diversa stringa e la sequenza finale delle parole che sono state generate è
chiamata stringa finale.

Competenza ed esecuzione: Che cosa significa avere una buona conoscenza di una lingua? Secondo
Chomsky, questo significa interiorizzare una serie di regole che mettono in relazione suoni e significati.
Questo sistema di regole internalizzate costituisce una competenza linguistica di base per mezzo della quale
un individuo è in grado di comprendere e usare il linguaggio. La competenza linguistica non è sempre
riflessa nell’uso che viene effettivamente fatto della lingua. L’esecuzione linguistica, infatti, non è
determinata soltanto dalla competenza linguistica di base ma, secondo Chomsky, anche da fattori cognitivi
come, per esempio, la memoria e la comprensione che un individuo possiede della situazione in cui si trova.

Struttura profonda e struttura superficiale: Secondo Chomsky, la struttura della competenza linguistica è in
larga parte innata. Questa struttura innata è chiamata grammatica universale. Una parte della grammatica
universale è la sintassi universale, che ci fornisce le regole per mezzo delle quali i significati possono essere
trasformati in parole. Il significato è collocato al livello della struttura profonda, mentre le parole sono
situate al livello della struttura superficiale. La distinzione tra struttura profonda e struttura superficiale ci
consente di spiegare molti fenomeni linguistici, tra cui il fenomeno delle frasi ambigue.
Comprensione della frase = struttura superficiale -> struttura profonda
Produzione della frase = struttura profonda -> struttura superficiale

L’ipotesi innatista:
Come abbiamo notato, Chomsky credeva che la competenza linguistica fosse largamente innata.
I tipici enunciati degli adulti contengono molti errori e rappresentano un campione incompleto della lingua;
per questo motivo essi non forniscono al bambino le informazioni necessarie per generare una grammatica
della lingua. Questo punto di vista è chiamato argomento della povertà dello stimolo.
Si ritiene che i bambini posseggano un dispositivo per l’acquisizione del linguaggio (Language Acquisition
Device, LAD). Le conoscenze contenute nel LAD riguardano, per esempio, il fatto che nella lingua ci siano
entità come i sintagmi nominali e i sintagmi verbali e relazioni come quelle di soggetto e predicato:
L’ipotesi innatista di Chomsky è stata ampiamente criticata negli anni Settanta, notando il fatto che i dati
linguistici cui i bambini sono esposti sono spesso molto chiari. Nel rivolgersi ai bambini, infatti, gli adulti
solitamente usano frasi più semplici di quelle usate con interlocutori adulti. Questo significa che i bambini
ricevono proprio quel tipo di input linguistico di cui hanno bisogno per sviluppare una comprensione della
lingua.

Principi e parametri: Ogni teoria scientifica subisce modifiche con il passare del tempo e la teoria di
Chomsky non fa eccezione. Una proprietà cruciale dell’attuale versione della teoria, che va sotto il nome di
approccio principi e parametri, è l’ipotesi che l’acquisizione del linguaggio avvenga attraverso una
specificazione di parametri. Secondo Chomsky, la grammatica universale contiene una serie di interruttori
di controllo (switches) che possono assumere differenti valori, o parametri. Un parametro è un aspetto
universale del linguaggio che può assumere un determinato valore di una limitata serie di alternative.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
COMPRENSIONE DEL LINGUAGGIO
Che cosa accade quando riconosciamo una parola?
Cosa accade nel cervello quando riconosciamo una parola? In poche centinaia di millisecondi (ms)
distinguiamo nella scena uditiva una stringa di suoni, o assembliamo le lettere se la parola è scritta,
facciamo corrispondere a tale segnale una delle decine di migliaia di rappresentazioni contenute nel lessico
mentale.

La parola:
La comprensione di parti interne alla parola: Riconoscere le parole che sentiamo o leggiamo, e
recuperarne il significato, sono operazioni di base della comprensione

“Verba volant, scripta manent”: La percezione del parlato è diversa, e più difficile, di quella delle parole
scritte per una varietà di ragioni:
- le condizioni di rumore ambientale in cui parliamo e sentiamo parlare;
- il parlato è distribuito nel tempo mentre la scrittura lo è nello spazio;
- chi legge può determinare da sé la durata del processo di lettura, tornando indietro per rileggere. Mentre
il lettore può decidere la quantità di informazioni da acquisire per unità di tempo, il destinatario deve
elaborare il linguaggio alla velocità decisa dal parlante;
- il processo di segmentazione del parlato è più difficile dell’isolare le lettere in una parola scritta, o
determinare i confini fra le parole e le frasi.

Come riconosciamo una parola mentre la sentiamo? Il parlato si snoda come un nastro di suono complessi
e coordinati che sta a noi segmentare assegnando un ruolo e un significato a ciò che arriva al nostro
apparato percettivo. Mentre sentiamo una parola viene mentalmente costruito un insieme di possibili
candidati al riconoscimento, una coorte, comprendente le unità che condividono la parte iniziale della
parola (grossomodo la prima sillaba). In breve, il processo di comprensione procede secondo tre fasi:
l’accesso, in cui la rappresentazione linguistica è usata per attivare la coorte,
cui segue la selezione
e infine l’integrazione in cui le proprietà sintattiche e semantiche della parola sono integrate nella
rappresentazione complessiva della frase. Il contesto interviene nella fase di selezione e integrazione.

Come riconosciamo una parola mentre la leggiamo? Una parola scritta ha una struttura interna complessa.
Anzitutto vi sono i tratti che compongono le lettere dell’alfabeto, cioè la combinazione di linee verticali,
orizzontali, oblique, di curve aperte e chiuse, di intersezioni e così via: le persone sono generalmente più
abili e veloci nel cercare visivamente una lettera quando compare in un insieme di lettere con cui ha in
comune pochi tratti. Ma per riconoscere le parole scritte non basta combinare le lettere che la formano.
Il rapporto fra riconoscimento delle lettere e della parola è illustrato dal cosiddetto effetto di superiorità
della parola. Tale effetto si tiene presentando per pochi ms su uno schermo una lettera (k) o una parola
(WORK) oppure una stringa prima di significato, cioè una non-parola (OWRK). Dopo la presentazione di una
configurazione visiva interferente (ad esempio, ####), appaiono sullo schermo due lettere (D e K) e i
partecipanti devono scegliere quella presente nello stimolo iniziale (la K, ovviamente). I risultati dimostrano
che la scelta è più accurata quando le lettere sono precedute da una parola piuttosto che dalla lettera
stessa (o dalla non-parola). Ciò significa che una parola che contiene una data lettera ne facilità il
riconoscimento più della lettera stessa: una volta che la parola è stata riconosciuta anche il riconoscimento
della lettera risulta facilitato.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Possiamo leggere una parola in italiano ricorrendo a due modalità, o vie, che si differenziano per il tipo di
informazioni che sfruttano e per il modo in cui le utilizzano:
a) una via lessicale diretta in cui recuperiamo dal lessico mentale la parola in quanto input ortografico
globale e la sua pronuncia corretta;
b) una via non-lessicale che utilizza, invece, le regole di conversione grafema-fonema.

Dall’ortografia alla pronuncia e ritorno: La capacità di comprendere una parola scritta è influenzata dal
tipo di scrittura, dai metodi di apprendimento e dalle caratteristiche dei sistemi ortografici che
caratterizzano le diverse lingue. Decidere se il riconoscimento di una parola sia diretto (cioè si passi
dall’ortografia al suono) o mediato fonologicamente (secondo una sequenza del tipo ortografia-fonologia-
suono) ha prodotto controversie infinite, anche per le implicazioni sui metodi di insegnamento della lettura.
La posizione di oggi prevalente è che l’informazione fonologica sia rapidamente attivata anche nel corso
della lettura silente.

La frase e il testo:
Dalla comprensione di una parola a quella di un discorso o di un testo: Assai raramente dobbiamo capire
parole presentate isolatamente e non in frasi o discorsi. Indubbiamente la comprensione di un discorso,
benché utilizzi le parole come elementi di base, non si limita a concatenarne la sintassi o la semantica.
Inoltre, le intenzioni di chi parla, il registro linguistico scelto e gli effetti che si vuole ottenere, nonché la
comunicazione verbale che modula la frase, incorniciamo le frasi definendone il contenuto reale.
La comprensione del linguaggio deve quindi integrare, rapidamente e in modo ottimale, fonti di
informazione sintattiche, semantiche e pragmatiche. Ci sono due grandi ipotesi circa le relazioni esistenti
tra queste fonti: una basata su un principio di interattività e una sulla indipendenza o modularità sulla
nozione di modulo. Secondo l’ipotesi interattiva, le informazioni interagiscono fra loro ad ogni livello di
elaborazione. Secondo l’ipotesi modulare, i diversi sottosistemi (sintattico, semantico ecc.) sono
indipendenti e specializzati nell’elaborazione di un solo tipo di informazione.

Il ruolo della struttura sintattica di una frase: Talvolta può essere difficile interpretare una frase in modo
univoco a causa della struttura sintattica. “Giorgio ha detto che ha telefonato a tua madre ieri”. “ieri” può
essere riferito tanto al momento in cui è stata fatta l’affermazione (“ha detto ieri”) quanto a quello in cui è
stata effettuata l’azione (“ha telefonato ieri”). Il principio di elaborazione generalmente preferito in italiano
si basa sulla scelta della soluzione più semplice in termini di complessità di elaborazione.
Ma non sempre l’interpretazione iniziale è confermata. Ad esempio, in genere si attribuisce il ruolo di
soggetto grammaticale al primo nome menzionato in una frase. “Nessuno conosceva il ragazzo con la
strana fidanzata che sedeva in cucina” Chi sedeva in cucina, il ragazzo o la fidanzata? Le persone di solito
rispondono “la strana fidanzata”, cioè interpretano la parte ambigua sulla base della distanza fra questa e i
possibili antecedenti e scelgono quello più vicino (“principio di “località”)

Che ruolo hanno la struttura semantica e l’interpretazione pragmatica della frase? ///

Cosa determina la complessità di un discorso o di un testo? A rendere una frase o un testo difficili da
capire possono contribuire vari fattori: le caratteristiche delle parole che lo formano; la complessità della
struttura sintattica delle frasi e di quella semantica; la competenza di chi legge o le conoscenze richieste dal
testo. Anche l’ordine in cui vengono presentate le conoscenze può giocare un ruolo importante.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Io so che tu sai… La comunicazione umana si basa su un principio di cooperazione tale per cui ogni nostro
intervento dovrebbe essere ispirato a chiarezza, pertinenza, informatività e veridicità. Ma alcune ricerche
hanno mostrato come tali principi convivano con un diffuso egocentrismo comunicativo.

Dire, inferire e lasciare intendere: Le inferenze rappresentano una delle modalità attraverso cui integriamo
l’informazione linguistica con quella concettuale e contestuale:
- implicazioni logiche, che dipendono dal significato delle parole (ad esempio, “nubile” implica “donna non
sposata”);
- inferenze retrospettive, che connettono nuove informazioni alle precedenti e sono necessarie per
comprendere un testo;

Anafora: Figura retorica che consiste nella ripetizione, in principio di verso o di proposizione, della parola o
espressione con cui ha inizio il verso o la proposizione principale: Non s'accorge il meschin che quivi è
Amore, Non s'accorge che Amor lì drento è armato (Poliziano); è lui che ha fatto il danno, è lui che deve
pagare

Ironia: L’ ironia appartiene ad un insieme di concetti tra i quali troviamo la satira e il sarcasmo. Un
commento satirico mette in ridicolo il suo oggetto. L’ironia e il sarcasmo sono gli strumenti per mezzo dei
quali il fine della satira può essere realizzato. Il sarcasmo è definito dall’Oxford English Dictionary come
“un’osservazione acuta, amara o tagliente”. Lo stesso dizionario definisce l’ironia come “una figura retorica
in cui ciò che si vuole dire è esattamente l’opposto di ciò che è espresso dalle parole usate”. Se il contesto e
il tono di voce sono appropriati, riuscirete a comunicare perfettamente quello che provate nei confronti di
una persona. Secondo Clark e Gerrig, quelle che seguono sono le tre principali caratteristiche dell’ironia:
- asimmetria dell’affetto: colui che fa dell’ironia solitamente si esprime positivamente nei confronti di
qualcosa che invece viene valutata negativamente;
- vittimismo immaginario: quando gli individui si esprimono in maniera ironica, essi fingono, allo stesso
tempo, di essere delle persone ignoranti e di rivolgersi ad altre persone ignoranti. Queste persone possono
essere delle vittime immaginarie;
- tono della voce: questa particolare caratteristica è difficile da esprimere con chiarezza…

È possibile che gli interlocutori condividano una quantità sufficiente di conoscenze comuni da essere in
grado di comprendere il significato ironico più o meno direttamente.
Teoria del promemoria ecoico: gli ascoltatori comprendono gli enunciati ironici riconoscendone il carattere
ecoico, ovvero riconoscendo il fatto che l’enunciato in questione allude a pensieri, opinioni, parole o
comportamenti di una persona diversa da colui che parla.
Se l’ironista descrive l’opposto di quello che è effettivamente accaduto il racconto si dice controfattuale.

Linguaggio letterale e linguaggio figurato:


Le espressioni idiomatiche: Per comprendere un’espressione idiomatica occorre andare oltre alla
composizione dei significati delle parole che formano, e recuperare un livello di significato che è
predefinito, convenzionalizzato all’interno di una cultura: “Lea era al settimo cielo”, è necessario conoscere
anche il significato dell’espressione idiomatica essere al settimo cielo.

Metafora: Sostituzione di un termine proprio con uno figurato, in seguito a una trasposizione simbolica di
immagini: le spighe ondeggiano (come se fossero un mare); il mare mugola (come se fosse un essere
vivente); il re della foresta (come se il leone fosse un uomo).

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
PRODUZIONE DEL LINGUAGGIO
Gli studi sulla produzione del linguaggio:
Durante una conversazione, una persona è allo stesso tempo un ascoltatore e un parlante. Le conoscenze
che vengono utilizzate nei due casi sono fondamentalmente le stesse, anche se i processi che sono
necessari per parlare (sistema fonatorio) sono radicalmente diversi da quelli per capire (sistema uditivo).

La struttura fondamentale:
Gli studi della produzione di una frase sono fondamentalmente tre: concettualizzazione del messaggio,
formulazione o pianificazione e articolazione.
- concettualizzazione: non è legata alla specifica lingua del parlante. È il momento in cui una persona
concepisce l’intenzione di parlare e decide cosa vuol dire, scegliendo quale parte della sua comunicazione è
rilevante;
- formulazione: il messaggio prende forma linguistica. Il parlante sceglie le parole da usare e la struttura
sintattica della frase. Sempre in questa fase, si specifica il suono della frase;
- articolazione: si recuperano i fari “pezzi” e vengono emessi, nell’ordine appropriato, i suoni che
compongono la frase.

Esitazioni ed errori:
Un attore che recita o un conferenziere che legge il testo della sua presentazione sono immediatamente
identificabili da un ascoltatore rispetto a una persona che parla spontaneamente. Il discorso spontaneo non
è altrettanto fluido e scorrevole di un discorso recitato. Si parla infatti di esitazioni ed errori:
- esitazioni: esistono due tipi di esitazioni: quelle vuote che si realizzano restando brevemente in silenzio e
quelle piene o riempite, in cui la momentanea esitazione è “nascosta” dalla ripetizione di materiale verbale
già disponibile;
- errori: sono vere e proprie deviazioni, che noi notiamo solo molto raramente, per lo più quando
producono situazioni buffe o imbarazzanti. Esistono molti tipi di errori. Tra i più comuni sono gli scambi (ad
esempio, “ho visto la barca di Piero” -> “ho visto la parca di Biero), le anticipazioni (ad esempio, “ho visto la
barca di Piero” -> ho visto la parca di Piero) , le sostituzioni (ad esempio, “ho visto la barca di Piero” -> ho
visto la moto di Piero), i malapropismi (ad esempio, “ho visto la barca di Piero” -> ho visto la marca di
Piero).

Produrre una frase:


In questa fase il parlante sceglie le parole e la struttura sintattica della frase che vuole pronunciare. La
scelta delle parole, detta lessicalizzazione, è il processo mediante il quale trasformiamo una
rappresentazione semantica, cioè il significato di una parola, nel suono corrispondente. Parecchie delle
conoscenze a nostra disposizione su come si svolge questo processo e sul suo corso temporale provengono
da studi sperimentali condotti col paradigma detto in inglese picture-word interference (interferenza figura-
parola). Il paradigma si basa su un fenomeno noto da molto tempo: se si presenta a una persona una figura
e le si chiede di denominarla, cioè di produrre una parola target, il tempo necessario per eseguire il compito
è maggiore se assieme alla figura viene presentata, con l’istruzione di ignorarla, una parola detta
distrattore.
Il livello concettuale contiene i significati delle parole organizzati a seconda della loro somiglianza
concettuale, mentre al livello successivo i lemmi, uno per ogni concetto, contengono le informazioni
grammaticali relative alle parole. Ma i lemmi sono parole mute, ed è solo a livello dei lessemi, dove sono

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
rappresentati i suoni, che le parole prendono la loro forma fonologica. Una volta che la selezione del lemma
target ha avuto luogo, distrattori che hanno con esso una relazione semantica non dovrebbero più produrre
effetti.
Naturalmente, non basta produrre parole per dire una frase, ma vanno prodotte in sequenze appropriate e
queste sequenze sono determinate dalla struttura sintattica della frase che vogliamo dire (pianificazione
sintattica). I processi mediante i quali avverrà l’ordine delle parole hanno luogo durante la fase posizionale.
Si tratta di una fase cruciale nella pianificazione della frase, dal momento che è in larga misura attraverso
l’ordine delle parole che noi rendiamo esplicite le relazioni sintattiche fra le parole di una frase e quindi il
significato della frase.
Una volta completata la codifica grammaticale, le rappresentazioni che ne risultano possono essere
utilizzate per pianificare l’appropriata fonologia della frase, sulla base anche della descrizione fonologica
delle parole recuperata dal lessico. Ciò fatto, non resta al parlante che prepararsi a compiere i gesti
articolatori che gli permetteranno di far suonare la sua voce e parlare, sperando che gli inciampi e gli errori
non siano molti.

La conversazione:
I meccanismi che abbiamo discusso finora sono indispensabili per poter svolgere questa attività, ma non
sono sufficienti a far sì che noi la usiamo in maniera socialmente competente. Perché una conversazione si
svolga con successo è necessario che i partecipanti tengano conto del contesto nel quale si trovano e si
attengano a principi condivisi che regolano la loro attività linguistica. In genere, anche se non
consapevolmente, siamo assai abili nell’uso dei principi sociali che regolano le conversazioni e, nonostante
si tratti di regole complesse, esse per la maggior parte vengono acquisite dai bambini prestissimo.
Si è già accennato che, normalmente, chi partecipa a una conversazione utilizza il cosiddetto principio di
cooperazione, secondo il quale una conversazione è un’impresa collaborativa e si realizza attraverso
l’utilizzo di una serie di massime come, ad esempio, “dai contributi che siano informativi quanto necessario,
ma non di più”.
Capita sovente di violare una o più massime convenzionali; abbiamo tutti esperienza, ad esempio, di
persone le cui conversazioni non hanno né capo né coda. Ogni tano queste violazioni hanno luogo per
l’incompetenza di uno degli interlocutori. Più di frequente, però, si tratta di violazioni volontarie dettate da
motivazioni più o meno innocenti, come divertire o ingannare.
Un aspetto importante nella conversazione è la presa dei turni. Perché la conversazione possa procedere è
necessario che le persone non parlino tutte assieme, il che di norma avviene grazie al fatto che i
partecipanti, senza rendersene conto, si attengono a una complessa procedura di presa di turno che si basa
su tre regole fondamentali:
- chi parla ha diritto di scegliere chi parlerà dopo di lui e spesso esercito questo diritto rivolgendosi
direttamente alla persona scelta;
- se chi parla non sceglie, allora parla chi vuole;
- chi parla può continuare, ma non è obbligatorio farlo.

Queste semplici regole vengono messe in pratica attraverso un’ampia gamma di segnali, anche poco vistosi,
come il breve allungamento delle ultime sillabe pronunciate da chi parla quando vuole passare il turno.
Un aspetto della comunicazione che ha attirato l’attenzione dei ricercatori riguarda le procedure di
apertura e chiusura di una conversazione. Le prime possono essere schematizzate come una sequenza di
chiamate e risposte. Le chiamate hanno lo scopo di richiamare l’attenzione dell’interlocutore da parte di chi
decide di aprire la conversazione. A questo punto, chi ha fatto la chiamata deve introdurre il tema della
conversazione, giustificando così la richiesta di attenzione. Non mi va più di scrivere…

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Modello di Levelt (pronunciato “Lefelt”):
Il modello rende visibili i tre stadi del processo di produzione, abbiamo una Prima fase del processo di
produzione che corrisponde alla fase di concettualizzazione. C’è una fase finale che corrisponde alla fase di
articolazione.
Ciò su cui si sofferma il modello è la parte centrale, che è la codifica grammaticale e che sarebbe la fase di
formulazione. È suddivisa in due macro-processi, ovvero processi funzionali e processi posizionali:
- nella fase funzionale viene decisa la struttura sintattica astratta della frase e vengono selezionati i lemmi
che faranno parte della frase. Sono processi funzionali dove vengono definite le caratteristiche funzionali
astratte nella frase e gli elementi che dovranno saturare quelle caratteristiche funzionali astratte;
- nella fase posizionale la frase assume la forma lineare che produciamo nel parlato dove vengono
assemblati i costituenti, come l’ordine delle parole nella frase, e selezionate le flessioni dei nomi e dei verbi
e, in accordo con la struttura sintattiche selezionata, vengono usate delle flessioni e non altre.

Quindi questo modello si occupa sia del versante lessicale che di quello sintattico del processo di
produzione del linguaggio.
Uno dei problemi di questo modello è la sua caratteristica di rigida sequenzialità che è contraddetta da dati
empirici che dimostrano che nel parlato continuo le tre fasi si sovrappongono, le frasi vengono pianificate a
cascata e materiali diversi (della stessa frase o di frasi diverse) si trovano a diversi stadi di elaborazione.
Quindi il modo in cui produciamo le frasi non è rigido perché mentre stiamo producendo una frase stiamo
anche pianificando alla frase successiva; questo è evidenziato da alcuni errori sono di anticipazione, dove
viene detto in un momento precedente qualcosa che doveva essere detto in un momento successivo.
Momentanee mancanze di sincronizzazione possono portare a:
- esitazioni
- errori
Gli errori e le esitazioni sono un indizio che ci fanno fare inferenze su come si svolgono i processi normali
del parlato.

Abbiamo visto che nella fase di formulazione il parlante sceglie la struttura sintattica della frase e le parole,
Levelt si sofferma di più sul processo di scelta di parole o lessicalizzazione, è il processo tramite il quale una
rappresentazione semantica è convertita passo dopo passo nei suoni corrispondenti.
Il principale paradigma che è stato usato è quello dell’interferenza figura-parola: è un paradigma che
sfrutta i meccanismi classici di interferenza. Vengono presentati degli stimoli in concomitanza con altri
stimoli e in questo paradigma in particolare vengono presentate delle figure. Il compito del soggetto è
quello di denominare la figura ma contemporaneamente o prima o dopo alla figura viene presentata anche
la parola che può essere legata alla figura. La presentazione della parola determina degli effetti di
interferenza o di facilitazione sulla denominazione della figura.
Il paradigma quindi si basa sul fenomeno per cui i tempi di denominazione di una figura (CANE) si
modificano quando, più o meno allo stesso tempo, viene presentata una parola (distrattore) collegata al
nome della figura. A seconda dell’ordine di presentazione delle figure di distrattori si hanno conseguenze
diverse:
- quando il distrattore è presentato prima o assieme alla figura la relazione semantica ritarda la risposta,
mentre la relazione fonologica è ininfluente. Se la parola gatto è presentata prima o contemporaneamente
interferisce con la denominazione della figura cane;
- quando il distrattore è presentato dopo la figura la relazione fonologica facilita la risposta mentre la
relazione semantica è ininfluente. Se presentiamo prima la figura cane e poi immediatamente dopo il
distrattore, scompare l’effetto di interferenza semantica e la parola gatto non da effetto e c’è un effetto del
distrattore fonologicamente correlato pane e questo effetto è un effetto di facilitazione della
denominazione della figura cane e tempi quindi più veloci e non effetto di inibizione.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Il risultato viene spiegato da Levelt in un modello che distingue TRE FASI all’interno del processo di
produzione delle parole:
- supponiamo che l’input da denominare sia una figura di un leone. Il primo elemento che viene attivato a
partire dalla forma visiva è il livello concettuale nel quale sono rappresentate delle caratteristiche
semantiche della parola. La parola leone attiverà informazioni come SELVAGGIO, HA LA CRINIERA;
- una volta selezionata un’entrata a livello concettuale questa va ad attivare un livello che è livello del
lemma, l’aspetto che contraddistingue questo modello. Il lemma è una rappresentazione delle
caratteristiche sintattiche della parola, nel caso di leone saranno rappresentate informazioni relative al
genere grammaticale maschile oppure informazioni sulla classe grammaticale e quindi sostantivo. Siamo
quindi in un livello che non è più semantico e che non è ancora fonologico ma è un livello di parole mute
dove sono solo attivate le caratteristiche sintattiche e grammaticali delle parole. Il livello del lemma si
interpone tra il livello concettuale e del lessema;
- livello del lessema, che è un livello di tipo fonologico.

L’idea originale di questo modello è che il segno linguistico che deve essere prodotto è posto in una
struttura tripartita nel quale per passare dal livello semantico a quello fonologico è necessario passare
attraverso un’attivazione delle proprietà sintattiche delle parole (maschile, ausiliare, sostantivo). Questo
modello spiega i dati grazie alla distinzione tra livello concettuale, livello dei lemmi e dei lessemi.
I risultati si possono spiegare ipotizzando che la lessicalizzazione avvenga in due fasi, la prima delle quali è
la selezione del lemma e la seconda è la selezione del lessema.
Spiega i risultati che provengono dal paradigma di interferenza figura-parola. Il processo di selezione
lessicale permette di recuperare un lemma e ciò avviene tramite un processo di competizione tra lemmi
corrispondenti a concetti lessicali simili

Vygotskij e il contesto sociale del linguaggio:


Vygotskij era particolarmente interessato alle interazioni tra il pensiero e il linguaggio. Egli ha esaminato
criticamente ciò che Piaget chiamava linguaggio egocentrico. Piaget ha osservato che il linguaggio dei
bambini più piccoli spesso non tiene conto del punto di vista dell’ascoltatore. Il linguaggio egocentrico
declina quando il bambino inizia a sviluppare la capacità di intrattenere rapporti sociali. Al linguaggio
egocentrico subentra il linguaggio sociale. Vygotskij ha sostenuto che il linguaggio egocentrico non
scompare ma si trasforma in linguaggio interno, che così si distingue dal linguaggio esterno. È normale che
gli adulti parlino a sé stessi, anche se è preferibile non farlo ad alta voce.
Dal momento che il linguaggio interno è tacito, esso costituisce un veicolo molto rapido per i pensieri. Il
linguaggio interno costituisce inoltre una forma di rappresentazione condensata.
Una funzione del linguaggio interno particolarmente importante, secondo Vygotskij, è quella della
pianificazione delle operazioni cognitive. Vygotskij ha paragonato il linguaggio interno ad uno schizzo
mentale.

Protolinguaggio di Bickerton:
Vi sarebbero forme di comunicazione (protolinguaggio) che sono anche note come linguaggio telegrafico
(lingua pidgin), dove vi sono poche parole e prive di grammatica (più informativo e meno proposizionale).
Il passaggio dal protolinguaggio al linguaggio sarebbe avvenuto all’improvviso, grazie ad una mutazione
genetica e con l’homo sapiens. Quindi è una teoria che da un lato vede l’antecedente del linguaggio umano
in forme di comunicazione di specie anteriori a noi e dall’altra parte è d’accordo con l’ipotesi del salto,
perché il passaggio dal protolinguaggio al linguaggio è avvenuto mediante un salto e la comparsa dell’homo

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
sapiens.
Prove a favore di questa teoria: le lingue pidgin, bambini selvaggi, linguaggio dei bambini piccoli,
apprendimento del linguaggio nelle scimmie

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
LETTURA E SCRITTURA
Linguaggio scritto e linguaggio parlato:
Su quali processi si basano le nostre capacità di leggere e scrivere? Dal punto di vista psicologico, alcune
rilevanti differenze tra il linguaggio scritto e il linguaggio parlato risultano subito evidenti. I processi di
percezione, comprensione e produzione del linguaggio orale, se sorretti da un’adeguata stimolazione, si
sviluppano in tutti gli individui in età molto precoce e in modo del tutto naturale, sfruttando meccanismi
biologicamente specializzati e universali. Al contrario i processi di percezione, comprensione e produzione
della lingua scritta che sono implicati nelle attività di lettura e di scrittura, si sviluppano, attraverso processi
apprendimento esplicito, solo a partire dall’età scolare e appartengono ancora soltanto a una parte della
popolazione mondiale. L’apparizione delle lingue scritte rappresenta inoltre un fenomeno relativamente
recente nell’evoluzione culturale della specie umana.
Quali sono, dal punto di vista psicologico, i problemi principali relativi ai processi di elaborazione delle
parole scritte? Nel caso della lettura, è necessario comprendere quali meccanismi intervengono tra il
momento in cui le serie di caratteri grafici che costituisce la parola viene percepita dal sistema visivo e il
momento in cui la parola viene compresa. Nel caso della scrittura, è necessario comprendere quali
meccanismi intervengono tra il momento in cui la sequenza di suoni linguistici che costituisce la parola
viene percepito dal sistema uditivo e il momento in cui il significato attivato da quella sequenza, o attivato
automaticamente, viene tradotto in una sequenza di segni grafici.

I sistemi di scrittura:
- sistemi logografici: un simbolo, il logogramma, costituito da un carattere o un insieme di due caratteri,
corrisponde ad un’intera parola;
- sistemi sillabici: i simboli scritti rappresentano più o meno fedelmente le sillabe che costituiscono una
parola;
- sistemi alfabetici: adoperano un ristretto insieme di segni scritti, le lettere, che corrispondo a grandi linee
ai suoni distinti (fonemi) della corrispondente lingua parlata.

La lettura (VARI MODELLI):


- MODELLO A 2 VIE di COLTHEART
1. VIA LESSICALE: che permette il riconoscimento su base visiva della forma intera di una parola e un
recupero diretto dal lessico mentale del suo significato e della sua pronuncia.
-via lessicale diretta: collega il lessico ortografico con quello fonologico
-via lessicale semantica: attiva il lessico fonologico attraverso connessioni col sistema semantico
2. VIA NON LESSICALE: analizza i caratteri che compongono una stringa di lettere (grafemi) e poi converti
questi in fonemi.
Entrambe le vie convergono al BUFFER FONEMICO, che computa la sequenza dei fonemi che costituisce lo
stimolo.

- MODELLO A UNA VIA (LETTURA PER ANALOGIA):


Secondo la teoria della lettura per analogia, la pronuncia è data integrando informazioni che sono
automaticamente attivate durante la lettura. Tali informazioni sono rappresentazioni fonologiche delle
parole conosciute, delle parole che contengono lettere simili a quello dello stimolo e anche le conoscenze
sulla corrispondenza tra lettere e suoni.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
- MODELLO DI GLUSHKO (CONOSCENZA ORTOGRAFICA):
Conoscenza ortografica basata su capacità di mettere in relazione insiemi di lettere con corrispondenti
pronunce. Questi insiemi di lettere possono contenere una sola lettera (t) o un gruppo di lettere (gl).
Dunque tra parole e non-parole esiste solo una differenza quantitativa. Propone anche che l’effetto di
regolarità ortografica derivi dall’attivazione di pronunce più o meno incongruenti

.- MODELLO DRC (MODELLI COMPUTAZIONALI) (MODELLO A DUE VIE A CASCATA???):


Coltheart ha elaborato versione computazionale del modello a due vie, DRC (Dual-Route Cascaded Model).
3 caratteristiche:
1. Attivazione e inibizione di ciascuna unità si accumula nel tempo attraverso cicli di elaborazione;
2. Attivazione si propaga a cascata da un livello di rappresentazione all’altro;
3. Elaborazione è interattiva;

- MODELLO CONNESSIONISTA PDP (ELABORAZIONE PARALLELA E DISTRIBUITA):


Per sti modelli connessionisti elaborazioni linguistiche sono risultato di interazioni di tipo cooperativo e
competitivo tra numero ampio di unità. Vi è un unico meccanismo che associa forma scritta di ogni parola a
forma fonologica. Parole e non-parole sono elaborate allo stesso modo attraverso rete in cui le info sono
rappresentate in pattern di attivazione. Le unità (fonologiche, ortografiche ecc.) interagiscono fra loro fino a
ottenere ATTRATTORE, cioè schema di attivazione stabile. Procedure per generare pattern fonologici:
1. Unità ortografiche direttamente connesse a quelle fonologiche;
2. Attivazione mediata dalle unità semantiche;

- MODELLO CONNESSIONISTA A DUE VIE:


Come il PDP, usa le reti neurali connessionistiche per trasformare codice ortografico in fonologico. Due
percorsi:
1. SUB-LESSICALE: assembla i suoni a partire dai grafemi che formano la stringa;
2. LESSICALE: basato su connessioni tra unità ortografiche e fonologiche.
Competenza sub-lessicale appresa da rete strutturata in due livelli (TLA): primo comprende unità
ortografiche di input, secondo unità fonologiche di output. Questa rete commette molti errori con parole
irregolari.

- MODELLO LOGOGEN di MORTON (RICONOSCIMENTO PAROLA SCRITTA):


Riconoscimento della parola NO con attivazione di unità più piccole di essa, MA grazie allo stabilirsi di
corrispondenze dirette tra parola scritta e rappresentazione (logogen) della parola intera. Ogni parola ha
una rappresentazione. Ogni logogen ha un proprio livello di attivazione, che dipende dalla frequenza d’uso
della parola, e un valora di soglia da raggiungere per il riconoscimento. Parole più frequenti hanno bisogno
di minore quantità di attivazione per raggiungimento soglia. Principio di competizione: ogni parola può
avere più logogen.

- MODELLO IAM (M. AD ATTIVAZIONE INTERATTIVA):


McClelland e Rumelhart, alternativa a modello a due vie. Parole hanno una struttura interna analizzabile a
più livelli; livelli possono essere utili per accedere al lessico mentale. Tre livelli/strati:
1. TRATTI ORTOGRAFICI: determinano attivazione di rappresentazione corrispondenti alle lettere contenute
nella parola;
2. LETTERE: vengono attivate lettere che combinate tra loro formano parola-target da leggere; lettere
inviano a loro volta un’attivazione alle parole ad esse compatibili;

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
3. PAROLE: avviene il riconoscimento di una singola parola, quella che accumula più alto grado di
attivazione nel corso di tutto il processo svolto;
Due tipi di processi:
- ATTIVAZIONE: collegano i tratti alle lettere compatibili e le lettere alle parole compatibili;
- INIBIZIONE: uniscono tratti e lettere non compatibili, lettere e parole compatibili

Funzionamento modello è PARALLELO, in quanto la scansione avviene sia fra le lettere che compongono la
parola (orizzontale) sia tra i vari livelli di attivazione (verticali).

Il recupero del significato della parola: L’ipotesi più comunemente diffusa circa l’organizzazione del
sistema semantico è che i concetti corrispondenti alle parole siano rappresentati come nodi di una rete.
L’organizzazione del sistema non è gerarchica, i legami tra i nodi sono “orizzontali”: il significato della parola
“cane”, ad esempio, potrebbe essere collegato ai significati delle parole “animale”, “gatto”, “mastino”,
“abbaiare” ecc. una volta che un certo nodo è stato attivato, tale nodo manda un’attivazione diffusa ai nodi
vicini con i quali è collegato; da questi l’attivazione si propaga ai nodi ad essi collegati, e da questi ad altri
ancora. La quantità di attivazione diminuisce mano a mano che ci si allontana dal nodo iniziale: quindi,
maggiore è il grado di associazione tra due sistemi significati, maggiore e più forte sarà la loro tendenza ad
attivarsi reciprocamente.

L’attivazione della forma fonologica della parola: le parole ortograficamente regolari possono essere lette
attraverso una qualsiasi delle due vie esplicate dal modello a due vie. Le parole irregolari, al contrario,
possono essere lette correttamente solo attraverso l’attivazione nel lessico fonologico di output della
rappresentazione fonologica della parola intera la quale è attivata, a sua volta, prima dalla
rappresentazione ortografia e poi dal significato. Le parole nuove, invece, possono essere lette solo
attraverso la via di conversione non-lessicale e, prevedibilmente, subiscono una tendenza alla
regolarizzazione.
I processi finora descritti potrebbero apparire certamente plausibili, ma solo per lingue a ortografia
profonda come l’inglese. Tuttavia alcune ricerche dimostrano che questi processi potrebbero essere usati
anche con l’italiano. Consideriamo per un momento il fenomeno dell’accento sulla parola. In italiano tale
accendo ha una sede variabile. Per il lettore, l’assegnazione corretta dell’accento rappresenta
presumibilmente un’informazione che deve essere recuperata nel lessico fonologico di output, poiché
spesso l’analogia ortografica e fonologica con parole simili da sole non basterebbero.

DISTURBI ACQUISITI DELLA LETTURA: La dislessia acquisita è un disturbo della lettura, spesso conseguente
a lesione cerebrale, che colpisce persone adulte le quali in precedenza avevano acquisito in maniera
normale la capacità di leggere. Il modello a due vie ha permesso di spiegare alcune forme di dislessia
acquisita, in particolare:
- dislessia di superficie: si manifesta con la difficoltà di lettura delle parole regolari;
- dislessia fonologica: lettura deficitaria delle non-parole;
- dislessia profonda: presenza di errori semantici e di effetti di categoria grammaticale;

La lettura: i fenomeni principali:


- frequenza: più ricorrente è una parola nell’uso, tanto più rapida e accurata è la sua lettura;
- regolarità: quanto più le parole tendono alla regolarità, ossia quanto più alto è il loro grado di
corrispondenza tra grafemi e fonemi, tanto più facilitata è la loro lettura;
- interazione tra regolarità e frequenza: l’effetto di regolarità riguarda soprattutto, se non esclusivamente,
le parole a bassa frequenza. L’interazione si spiega col fatto che le parole irregolari ad alta frequenza
vengono lette con rapidità ed efficienza dalla via lessicale, mentre quelle a bassa frequenza, più lente ad

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
attivarsi nel sistema lessicale, subiscono il conflitto tra le diverse pronunce computate dalle due vie;
- “priming”: quando una parola bersaglio è preceduta a breve distanza dalla rappresentazione di un’altra
parola ad essa collegata per significato, la rapidità e l’accuratezza nella lettura della parola bersaglio
aumentano rispetto a una condizione di controllo;
- struttura morfologica: le lingue variano rispetto a quanto le loro parole siano composte da unità più
piccole, i morfemi, ciascuna delle quali è portatrice di una parte del significato dell’intera parola (“flautista”
= “flaut-“). Soprattutto in lingue morfologicamente ricche come l’italiano, la lettura di parole nuove o di
parole a bassa frequenza è facilitata dal fatto che queste siano composte da morfemi riconoscibili e
presenti in altre parole conosciute;
- lunghezza: nella lettura ad alta voce, la rapidità di lettura delle parole varia in maniera quasi proporzionale
all’aumentare del numero di lettere. L’effetto lunghezza è visibile più nelle parole a bassa frequenza che in
quelle ad alta frequenza e più nei lettori non esperti rispetto a quelli esperti;
- vicinato: per vicini ortografici di una parola si intendono quelle parole che possono essere create
cambiando una sola lettera della parola di partenza e preservando la posizione di altre lettere: dunque, una
parola come “sedia” avrebbe quattro vicini: “media”, “tedia”, “seria”, “sedie”.

La scrittura:
Nel caso della scrittura, l’attenzione dei ricercatori è stata rivolta soprattutto allo spelling, ossia alla capacità
di produrre la forma scritta corretta per una data parola.

La maggior parte delle ricerche sulla scrittura ha fatto riferimento al modello a due vie della scrittura,
simile a quello della lettura. Il modello prevede innanzitutto vi sia un’analisi acustico-fonologica dell’input. Il
risultato di tale analisi permette l’attivazione prima del lessico fonologico di input, laddove sono
immagazzinate le informazioni sulla forma fonologica delle parole conosciute, e successivamente del
sistema semantico, il componente nel quale sono rappresentati i significati delle parole. A questo punto, il
modello assume che per le parole conosciute e soprattutto per quelle in cui la corrispondenza suono-
scrittura non è regolare, la forma scritta della parola debba essere recuperata nel lessico ortografico, ossia
in quel componente del lessico mentale che rappresenta le forme scritte dalle parole. In una fase
successiva, l’informazione ortografica viene immagazzinata temporaneamente nel buffer grafemico.
Contemporaneamente a tale percorso di elaborazione dell’informazione lessicale, una via di elaborazione
non-lessicale analizza i suoni che compongono la sequenza fonologica (fonemi o insiemi di fonemi) e
converte progressivamente tale sequenza in una stringa di grafemi che andrà anch’essa ad attivare il buffer
grafemico.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
L’apprendimento della lettura e della scrittura:
Dal momento che l’apprendimento della lettura e della scrittura sono profondamente collegati, la maggior
parte delle teorie e delle ricerche che si sono occupate di questo argomento hanno considerato
congiuntamente questi due processi e hanno cercato di comprendere soprattutto due aspetti:
1. Quali sono le differenti strategie apprese durante lo sviluppo delle competenze ortografiche;
2. Qual è l’ordine temporale nel quale esse si presentano.
Nel modello più comunemente accettato, quello proposto dalla psicologa tedesca Frith, l’apprendimento
della lingua scritta procede attraverso varie fasi di sviluppo. In ogni fase vengono acquisiti nuovi aspetti
della competenza sulla lingua scritta, che modificano o assorbono le competenze precedentemente
possedute. Per prima cosa descriveremo brevemente i tre stadi principali di apprendimento della lettura:
1° stadio: lettura tramite il processo logografico di riconoscimento dell’intera parola; il bambino ha
imparato a riconoscere le parole senza conoscere l’alfabeto;
2° stadio: stadio alfabetico, durante il quale il bambino, potendo discriminare le singole lettere, legge
prevalentemente compilando, spesso ad alta voce, la parola e imparando a mettere in corrispondenza le
lettere con i suoni;
3° stadio: si instaura a partire dai 9-10 anni, ed è ortografico: in questa fase il bambino impara a
padroneggiare le abilità di lettura e di scrittura.

Un ritardo in uno qualsiasi degli stadi di apprendimento descritti può determinare delle difficoltà di lettura,
note come dislessia evolutiva. Tali difficoltà, che solitamente riguardano l’uso delle regole di conversione,
limitano nel bambino la capacità di leggere parole nuove e quindi di espandere il proprio vocabolario.

2 stadi di apprendimento della scrittura:


- fonologico: i bambini usano le corrispondenze fonemi-grafemi per scrivere ciò che intendono o ciò che
sentono (equivalente stadio alfabetico nella lettura);
- ortografico: i bambini cominciano ad usare rappresentazioni lessicali di tipo ortografico (equivalente
dell’omonimo stadio descritto per la lettura).

Abilità di base richiesta per l’apprendimento della scrittura è la segmentazione fonologica, capacità di
scomporre le parole dette nei suoni che la compongono.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
SOLUZIONE DI PROBLEMI (PROBLEM SOLVING)
Wertheimer e il pensiero produttivo:
Libro “Il pensiero produttivo” di Wertheimer, psicologo spesso considerato come il fondatore dell’approccio
gestaltista. Per capire il pensiero produttivo, esempio della finestra circolare su un altare che deve essere
decorata con dell’oro. Dai resoconti, alcuni soggetti provavano a calcolare il tutto grazie alle formule che si
ricordavano dalla scuola, ma quando dovevano calcolare le “quattro ridicole parti rimanenti” non sapevano
che fare; un bambino invece capisce che i due semicerchi potevano essere inseriti perfettamente nella
finestra. L’istruzione superficiale di alcuni soggetti aveva impedito loro di vedere ciò che risultava ovvio. Si
dice infatti che un’educazione superficiale possa essere pericolosa.
Due tipi di pensiero:
- pensiero strutturalmente cieco: quello fatto dagli adulti. Pensare in maniera non produttiva
- pensare in maniera produttiva.

Problemi per lo studio dell’Insight :


La tendenza ad applicare meccanicamente le nozioni che sono state acquistate in precedenza può portarci
talvolta alla soluzione corretta senza farci capire quale sia la soluzione corretta.
I gestaltisti credevano che le soluzioni strutturalmente cieche, come quelle prodotte con l’ausilio di un
calcolatore, non fossero applicabili a problemi nuovi. Soltanto la soluzione accompagnata da insight può
essere trasferita con successo a situazioni nuove, o almeno questo era quello che credevano gli psicologi
della Gestalt.

Duncker, fissità funzionale e insight:


Come Wertheimer, anche Duncker si è interessato all’influenza esercitata dalle esperienze precedenti sui
processi di soluzione di problemi. Analisi della situazione: cercare di capre quali siano le funzioni che
possiedono gli oggetti in una data situazione. Alcune volte però, non capiamo che uno specifico oggetto
possa eseguire la funzione necessaria per risolvere il problema: fissità mentale. È un tipo di impostazione
negativa che consiste nel non riuscire a sganciare un oggetto dalla sua modalità d’uso canonica. In questo
caso, siamo funzionalmente fissati. Per risolvere un problema può essere necessario superare la fissità
funzionale. Talvolta, soltanto dopo aver constatato l’inadeguatezza della procedura di soluzione usuale, il
solutore si rende disponibile alla riorganizzazione del problema che consente di trovare la soluzione.

La distinzione di Duncker tra pensiero analitico e pensiero sintetico: “Qual è il colore del tetto di casa tua?”
per rispondere un’immagine mentale del tetto. Questo è un esempio di pensiero analitico: pensiero la cui
conclusione non contiene alcuna informazione che non sia già contenuta nelle premesse. Nel pensiero
sintetico, invece, la conclusione non è contenuta nelle premesse dal momento che non è necessaria alla
costruzione dell’oggetto mentale corrispondente. Dopo la costruzione di un modello mentale, possono
essere scoperte relazioni che non erano evidenti prima che il modello fosse costruito. L’insight non è altro
che la scoperta di queste nuove relazioni. Secondo Duncker, l’insight è il prodotto del processo che ci porta
a scoprire quello che deriva necessariamente da ciò che già conosciamo.

Valutazione di Newell delle idee di Duncker: non me ne frega

L’insight esiste veramente? Fenomeno della fissità funzionale ritorna in auge. Weisberg e Alba con il
problema dei nove punti. In questo problema i soggetti devono collegare tutti i nove punti per mezzo di
quattro linee rette senza mai sollevare la penna dal foglio. Uno psicologo della Gestalt direbbe che la

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
soluzione del problema viene impedita perché il solutore è “funzionalmente fissato”. Allora Weisberg e
Alba formulano l’ipotesi che il processo di soluzione possa venire facilitato se si da un suggerimento ai
soggetti. Ma molti di loro, anche dopo il suggerimento, non arrivano alla risoluzione del problema? Ma
come? Non bastava rimuovere la fissità per far emerge tutto d’un tratto l’insight? Dato ciò, Weisberg e Alba
concludono che l’approccio gestaltista non è in grado di spiegare il processo di risoluzione dei problemi.

Ellen ha fatto però notare che nemmeno quello che dicono Weisberg e Alba è corretto, grazie al problema
delle funi elaborato da Maier. Quando gli individui non trovavano la soluzione, Maier dava loro un
suggerimento. Dopo fatto ciò, alcuni soggetti arrivavano alla soluzione, in molti casi improvvisamente, come
in un “lampo”. Quando questo si verificava, raramente i soggetti attribuivano la soluzione al suggerimento
fornito da Maier: l’esperienza di insight può mascherare il suggerimento che l’ha provocata.

Recenti studi sull’insight: Caratteristica essenziale dei problemi di insight è il fatto che la soluzione appaia
improvvisamente, mentre i problemi senza insight vengono risolti in maniera graduale, si arriva
gradualmente alla conclusione. Metcalfe e Weibe avanzano l’ipotesi che i soggetti siano in grado di
distinguere tra queste due tipi di problemi.
Sensazione di vicinanza: mentre risolvi un problema senza insight dovresti accorgerti di stare arrivando alla
soluzione, essendo una cosa graduale.
Sensazione di conoscenza: i soggetti sono consapevoli delle procedure che possono essere usate per
risolvere i problemi senza insight.

Lockhart et al. hanno notato che ci sono grandi differenze individuali nella capacità di selezionare le
informazioni rilevanti per la soluzione di un problema, un punto questo che James chiamò sagacia. La
sagacia si distingue dall’apprendimento, ovvero dalla capacità di ricordare le informazioni pertinenti al
problema. La sagacia ha a che fare con la sensibilità per i dettagli, la capacità di discernere ciò che è
importante in una situazione.

Rigidità e atteggiamento mentale passivo:


La ripetizione di un particolare processo di soluzione può rendere un individuo incapace di rendersi conto
dell’esistenza di processi di soluzione alternativi. Una delle dimostrazioni fornite da Luchins è quella dei
problemi di travasi dei liquidi. Dopo aver risolto cinque problemi usando la stessa procedura, i soggetti
sviluppavano un set, o Einstellung (“impostazione soggettiva”). Un set è un modo specifico di rispondere ad
una data situazione. Luchins e Luchins hanno usato questa procedura con più di 5.000 soggetti dimostrando
che l’effetto Einstellung è ben fondato.
Langer ha suggerito che la distinzione tra flessibilità e rigidità dei procedimenti di soluzione di un problema
possa essere concettualizzata nei termini del concetto di atteggiamento mentale attivo/passivo. Le
persone che manifestano l’Einstellung hanno un atteggiamento mentale passivo, cioè agiscono come se la
situazione avesse una sola interpretazione possibile. Avere un atteggiamento mentale attivo, invece,
significa impegnarsi nella ricerca di nuove possibilità. La capacità di rispondere a nuovi oggetti ed eventi in
maniera condizionale sembra essere un aspetto importante dell’atteggiamento mentale attivo. La
comprensione condizionale permette infatti agli individui di evitare di rispondere meccanicamente. Anche
se le descrizioni non-condizionali costituiscono un modo economico per categorizzare gli oggetti, sembra
che questo beneficio sia ottenuto al prezzo di rendere gli individui incapaci di rendersi conto di nuove
possibilità.

Intelligenza artificiale e soluzione di problemi:


Abbiamo osservato che un calcolatore può essere programmato in modo tale che il suo operato sia
indistinguibile da quello di un operatore umano. Ci sono programmi per calcolatori che risolvono i problemi

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
in modo intelligente così come lo fanno gli esseri umani. Questi programmi costituiscono degli esempi di
intelligenza artificiale. Polya ha scritto un libro sulla soluzione di problemi dal titolo “How to solve it”,
dedicato ai metodi euristici di soluzione. Un’euristica è una procedura di soluzione utile. Le euristiche si
contrappongono agli algoritmi, ovvero alle procedure che garantiscono il raggiungimento della soluzione.
Una divisione, ad esempio, è un algoritmo. Le euristiche, invece, sono delle regole pratiche, delle
scorciatoie che ci consentono di arrivare in modo efficiente ad una soluzione.

Un semplice esempio di intelligenza artificiale:

Il “General Problem Solver” di Newell, Shaw e Simon: Risoluzione dei problemi generali o GPS è un
programma per computer creato nel 1959 da Simon, Shaw e Newell destinato a lavorare come una
macchina risolutore di problemi universali. Qualsiasi problema che può essere espresso come un insieme di
formule ben formate (fbf) o clausole di Horn, e che costituiscono un grafo orientato con una o più sorgenti (
cioè., Assiomi) e lavelli (viz., Conclusioni desiderati), può essere risolto, in linea di principio, da GPS. Le
prove della logica dei predicati e euclidei spazi problema di geometria sono i principali esempi di dominio
l'applicabilità del GPS. Esso si basa su lavoro teorico Simon e Newell su logiche macchine. GPS è stato il
primo programma per computer che separava la sua conoscenza di problemi (regole rappresentate come
dati di ingresso) dalla sua strategia di come risolvere i problemi (un generico risolutore motore). GPS è stato
implementato nel linguaggio di programmazione del terzo ordine, IPL.
Mentre GPS risolto problemi semplici come le Torri di Hanoi che potrebbero essere sufficientemente
formalizzato, non potrebbe risolvere i problemi del mondo reale a causa di ricerca è stato facilmente perso
nell’esplosione combinatoria. In altre parole, il numero di "passeggiate" attraverso il digramma inferenziale
è diventato punto di vista computazionale insostenibile. (In pratica, anche una ricerca spazio di stato
semplice come le Torri di Hanoi può diventare computazionalmente impossibile, anche se potature
giudiziosi dello spazio degli stati possono essere raggiunti da tali tecniche di IA elementari come A * e IDA
*).
Gli oggetti definiti dall'utente e le operazioni che potrebbero essere fatte sugli oggetti e GPS generati
euristiche da mezzi-fini analisi al fine di risolvere i problemi. Si è concentrata sulle operazioni disponibili,
trovando quali input erano accettabili e quali risultati sono stati generati. E 'poi creato sotto-obiettivi per
avvicinarsi sempre di più alla meta.
Il paradigma GPS finalmente si è evoluto nella Soar architettura per l'intelligenza artificiale.

I protocolli verbali nello studio della soluzione di problemi:

Critiche rivolte alla simulazione su calcolatore:

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
RAGIONAMENTO
Il ragionamento è un’attività mentale che sottopone a delle trasformazioni le informazioni date così da
poter giungere a delle conclusioni. Il sistema aristotelico è il più vicino a dei sistemi logici.

Raggiungere e tirare una conclusione:


Vi sono classicamente due modalità di ragionamento principali che vogliono raggiungere conclusioni:
- Ragionamento deduttivo: consiste nel partire da premesse generali (due di solito) e trarre delle
conclusioni vere. Se le premesse sono vere e la modalità inferenziale è corretta dal punto di vista formale,
allora le conclusioni sono necessariamente vere. Esempio sillogismo aristotelico, si parte da due premesse e
sulla loro base si raggiunge conclusione necessariamente vera. Quindi il ragionamento deduttivo parte da
premesse generali e raggiunge conclusioni che possono essere anche particolari.
Sillogismo categorico (aristotelico): si basa su delle premesse che stabiliscono un rapporto tra categorie,
quindi se le premesse e la forma del ragionamento sono corretti, le conclusioni sono necessariamente vere.
Nel ragionamento entrano in gioco due componenti: una legata ai valori di verità, e con la semantica che si
riferisce al riscontro nella realtà, e una dimensione sintattica, che riguarda la correttezza formale delle
procedure di ragionamento;
- Ragionamento induttivo: si parte da conoscenze particolari e si arriva a conclusioni generali. Esempio:
sulla base dell’osservazione che tutti i cigni che ho incontrato sono bianchi raggiungo induttivamente la
conclusione che tutti i cigni sono bianchi. Nella maggior parte dei casi non c’è un carattere di necessità nelle
conclusioni del ragionamento ma queste hanno carattere fallibile e probabilistico.

RAGIONAMENTO SILLOGISTICO CATEGORICO:


I sillogismi sono costituiti da due premesse e da una conclusione. Le premesse possono assumere 4 forme:
- universale affermativa: Tutti gli A sono B
- universale negativa: Nessun A è B
- particolare affermativa: Alcuni A sono B
- particolare negativa: Alcuni A non sono B

FONTE DI ERRORE NEL RAGIONAMENTO SILLOGISTICO:


La validità di un sillogismo dipende dal fatto che la conclusione derivi o meno dalle premesse. Può
succedere che un sillogismo valido venga rigettato perché la sua conclusione non viene considerata
empiricamente vera. Questo effetto è detto INTRUSIONE DELLE CONOSCENZE CHE POSSEDIAMO A
PROPROSITO DEL MONDO all’interno del processo di ragionamento.
Il ragionamento non è una fonte trascurabile di conoscenza, come dimostrato dall’ILLUSIONE DI SANDER (il
segmento AE appare più lungo di quello CE, in realtà i due segmenti hanno la stessa lunghezza). Se
seguissimo un processo di ragionamento giungeremmo ad una conclusione empiricamente corretta (AE =
CE), mentre se ci basassimo solo sulle evidenze dei sensi giungeremmo ad una conclusione sbagliata.

EFFETTO ATMOSFERA:
Woodworth e Sells hanno avanzato l’ipotesi che differenti tipi di premesse producano un EFFETTO
ATMOSFERA. “Alcuni A sono B.” “Alcuni B sono C”. “Quindi alcuni A sono C”. il fatto che entrambe le
premesse contengano il quantificatore “alcuni” crea un’atmosfera a favore di “alcuni” che conduce gli
individui ad accettare una conclusione contenente tale quantificatore e quindi a fare alcuni errori di
ragionamento piuttosto che altri. In questo esempio poi la conclusione non segue delle premesse, quindi
viene avanzata l’ipotesi che una premessa negativa crei “un’atmosfera a favore della negazione”.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
ERRORI DI CONVERSIONE:
Chapman e Chapman ritengono che molti errori di ragionamento dipendano dalla tendenza a sottoporre le
premesse a conversioni illecite. Hanno ipotizzato che talvolta gli individui convertano una premessa e
accettino la conclusione erronea.
Begg e Denny hanno analizzato le predizioni dell’effetto atmosfera e dell’ipotesi della conversione.
Entrambe le ipotesi predicono che i soggetti accettino come valide conclusioni universali affermative
quando entrambe le premesse sono universali affermative. Hanno concluso che l’analisi degli errori di per
sé non è molto informativa riguardo i processi di ragionamento.

INTERPRETAZIONE QUANTIFICATORE “ALCUNI”:


L’uso del quantificatore “alcuni” con il significato di “alcuni ma non tutti” non è coerente con le regole della
logica. Begg ha notato che gli individui spesso usano il quantificatore “alcuni” con il significato di “meno
della metà”. Questo non è però il modo in cui questo quantificatore viene usato in logica dove invece
significa “almeno uno e forse tutti”.

MODELLI MENTALI E RAGIONAMENTO SILLOGISTICO:


Importante teoria del ragionamento sillogistico è quella proposta da Johnson-Laird. Egli riteneva gli
individui costruiscono un modello mentale della situazione a cui si riferiscono le premesse e poi traggono
delle conclusioni a partire da questo modello mentale. Un insieme di premesse rende possibile la
costruzione di vari modelli mentali. Ciò che rende difficile un sillogismo è il fatto che esso è compatibile con
numerosi modelli mentali alternativi.
Il modello di Johnson-Laird è in grado di spiegare quali sono le fonti di errore nel ragionamento sillogistico.

Fenomeno della PSEUDODIAGNOSTICITÀ:


A volte facciamo diagnosi (ovvero analisi) e fotografia di una situazione, ma trascuriamo alcune
informazioni che sono utili per formulare tale diagnosi. Quindi si tende a fissarsi solo su alcune
rappresentazioni dei problemi e solo su una parte di questi.
Per studiare il fenomeno sono stati usate le due modalità di ragionamento condizionale: “se … allora dove
c’è un antecedente e un conseguente, se il primo è vero allora il secondo è vero
È un ragionamento che usiamo spesso nella vita come ad esempio: se piove allora devo portare l’ombrello

Modus ponens: si basa su due premesse e una conclusione necessaria

Se A allora B

quindi B

se piove allora la strada è bagnata quindi piove e la strada è bagnata

vi è anche il modus tollens

si basa sulla negazione del conseguente e vi è quindi una conclusione obbligata

se A allora B

Non- B

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Quindi: NON A

Se piove la strada è bagnata – la strada non è bagnata quindi non piove

Queste due modalità di ragionamento condizionale sono apparentemente entrambe comprensibili ma nei
fatti si trova che in alcuni individui il modus tollens è più difficile da applicare e qualcuno ha ipotizzato che
alcuni individui forse non hanno la struttura inferenziale che permette il modus tollens

Nel modus tollens il problema è simile a quello del ragionamento per falsificazione, per il sistema cognitivo
umano È molto più naturale trarre conclusione basandosi su caratteristiche di verità di premessa che sulla
caratteristica di falsità di una premessa

WASON – PROBLEMA GENERATIVO:


Secondo Wason un problema generativo è un problema in cui i soggetti non si limitano a ricevere
passivamente le informazioni ma devono invece generare da sé le informazioni necessarie per risolvere il
problema. In un esperimento proposto da Wason non è vantaggioso per i soggetti generare sequenze di
numeri coerenti con l’ipotesi formulata, ma è più vantaggioso generare sequenze di numeri incompatibili
con l’ipotesi formulata. Quindi è possibile giungere ad una regola corretta attraverso una STRATEGIA
ELIMINATIVA. La tendenza a cercare evidenze confermatorie per un’ipotesi è chiamata TENDENZA ALLA
CONFERMA.

WASON – PROBLEMA DEL THOG:


Supponete di avere scritto su un pezzo di carta il nome di un colore (nero o bianco) e il nome di una delle
forme (losanga o cerchio). Un disegno è considerato un THOG se esso presenta il colore o la forma prescelti
ma non entrambi. Sapendo che il rombo nero è un thog, quali tra le figure rimanenti sono thog?
I soggetti hanno la tendenza ad affermare che la losanga bianca e il cerchio nero sono thog, ma che il
cerchio bianco sicuramente non lo è. Questo tipo di risposte errate vengono dette ERRORI INTUITIVI.
Wason ha notato che gli individui trovano difficile separare le proprietà di un oggetto dalle proprietà che
definiscono l’appartenenza ad una classe. Gli ERRORI INTUITIVI possono essere il risultato di un processo
chiamato MATCHING BIAS (tendenza alla corrispondenza), tendenza a considerare tanto più simili due cose
quanti più attributi esse hanno in comune.
Pe risolvere il problema del thog, i soggetti devono usare la regola della DISGIUNZIONE ESCLUSIVA. I
soggetti devono capire che una figura per essere un thog deve avere uno oppure l’altro di due attributi ma
non entrambi.

WASON – COMPITO DI SELEZIONE/PROBLEMA DELLE QUATTRO CARTE :


Ai soggetti di quest’esperimento vengono mostrate 4 carte. Ciascuna carta ha una lettera su un lato e un
numero sull’altro. Il compito dei soggetti è di dire quale carta è necessaria girare per controllare la verità
dell’affermazione che se una carta ha una vocale su un lato, allora ha un numero pari sull’altro.
Il compito di selezione di Wason è un esempio di RAGIONAMENTO CONDIZIONALE, ovvero fare uso di
proposizioni condizionali che hanno la forma “Se P allora Q”, dove P è l’antecedente mentre Q il
conseguente. Una TAVOLA DI VERITÀ costituisce un modo per rappresentare le varie combinazioni dei
costituenti delle proposizioni logiche. Attraverso l’esperimento Wason voleva dimostrare che se noi
tendiamo alla verifica e non siamo in grado di falsificare la regola ci manca uno schema inferenziale
(MODUS TOLLENS) deputato alla falsificazione, che ci dice che c’è almeno un controesempio possibile che
va pensato per poter dire che quella regola è vera o falsa.
Cosmides sostiene che tipi differenti di problemi possono richiedere l’uso di procedure inferenziali

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
differenti. Cosmides chiama il suo approccio TEORIA DEL CONTRATTO SOCIALE. Un tipo di problema
adattivo che gli esseri umani devono risolvere riguarda i processi di “scambio sociale-cooperazione tra due
o più individui con reciproco vantaggio”. Secondo la sua teoria i meccanismi innati di elaborazione
dell’informazione della mente umana sono destinati a risolvere problemi legati all’adattamento. Al fine di
garantire una cooperazione adattiva, la mente umana utilizza degli algoritmi che operano su
rappresentazioni in termini di COSTI e BENEFICI e che contemplano procedure inferenziali finalizzate a
smascherare imbrogli.
Il COMPITO DI SELEZIONE viene rivalutato in quest’ottica con le carte “costo non pagato” e “beneficio
accettato” che devono essere girate. In un contratto sociale standard (se vuoi il beneficio, allora devi pagare
il costo) esse corrispondono a p e non q. In un contratto girato (se paghi il costo allora puoi prendere il
beneficio) corrispondono a non p e q.
Negli esperimenti di Cosmides i soggetti tendevano a scegliere le carte che rappresentavano potenziali
imbroglioni a prescindere dal tipo di contratto sociale e dalla conoscenza della regola.

RAGIONAMENTO RICORSIVO:
Un processo che fa riferimento a sé stesso viene detto RICORSIVO. I fenomeni ricorsivi talvolta possono
condurre a complicate forme di pensiero. Esempi: il PARADOSSO DEL MENTITORE e L’ARTICOLO DI
MORTON.
Hofstadter ha osservato che, per uscire da un ciclo di pensiero improduttivo e ricorsivo, è necessario
spostarsi ad un livello di pensiero generale. Quindi per risolvere un problema è necessario uscire dallo
spazio del problema poiché il problema stesso può contenere una contraddizione e il solutore deve
comprendere che in realtà esso non può essere risolto.

MODUS TOLLENS: MODUS PONENS:


se p allora q se p allora q
non q p
non p q

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
GIUDIZIO E DECISIONE
Le EURISTICHE rappresentano delle strategie mentali adottate per far fronte a situazioni problematiche;
esse consentono alle persone di giungere ad una soluzione nonostante la complessità del problema e la
propria capacità limitata di elaborazione delle informazioni. Le euristiche sono scorciatoie mentali flessibili
che però comportano il rischio di errori sistematici (bias) proprio in virtù della loro natura intuitiva.

STATISTICA INTUITIVA:
LEGGE DEI GRANDI NUMERI -> per un numero di ripetizioni identiche dello stesso esperimento, che tende
all’infinito, la probabilità di un determinato evento tende a coincidere con la sua frequenza. Fenomeno
scoperto da Jacob Bernoulli.
Specifica quanto spesso un evento si verifica a lungo andare.
Uno dei fraintendimenti che circondano questa legge ha a che fare con la sua relazione con la LEGGE DELLE
MEDIE.

EURISTICA DELLA RAPPRESENTATIVITÀ E LEGGE DEI PICCOLI NUMERI :


Spesso gli individui credono che un piccolo campione sia rappresentato dalla popolazione da cui è stato
tratto. Questa credenza è detta LEGGE DEI PICCOLI NUMERI.
La credenza nella legge dei piccoli numeri conduce gli individui a fare uso dell’EURISTICA DELLA
RAPPRESENTATIVITÀ, ovvero a fare inferenze assumendo che piccoli campioni siano simili fra loro e siano
anche simili alla popolazione da cui sono stati tratti.
Esempio di esperimento: c’è Gianni, una persona introversa, precisa, artistica, ed ha passione per il
dettaglio. Poi viene chiesto ai soggetti se Gianni è insegnante o orafo. Le persone tendono a usare un
rapporto tra somiglianza e probabilità: visto che l’essere introverso, preciso e artistico è vista più come la
propensione degli orafi che degli insegnanti, le persone rispondono che Gianni ha probabilità di essere
orafo, perché viene stabilita la probabilità di appartenenza alla categoria e la somiglianza dei tratti di quella
categoria.
FENOMENO DELLA MANO CALDA -> Avere una mano calda significa realizzare una sequenza di canestri che
difficilmente poteva essere prodotta da un processo casuale. I dati mostrano che il 91% dei tifosi credeva
che un giocatore avesse una probabilità maggiore di realizzare un canestro se i suoi precedenti tiri sono
andati a segno. L’analisi di tante partite non hanno mostrato evidenze di questa credenza. Quindi difficile
capire l’utilità di percepire un ordine laddove vi è soltanto qualcosa di casuale.

AGGIUSTAMENTO E ANCORAMENTO (EURISTICA):


Si verifica quando le persone, dovendo fornire una stima, si basano su di un punto di riferimento iniziale per
poi operare degli aggiustamenti e raggiungere una decisione finale. Al fine di stimare il valore di un dato
evento si utilizza il punto di riferimento noto che viene poi aggiustato. I valori successivi possono essere
sovrastimati o sottostimati in virtù del valore basso o alto dell’ancora.
L’ANCORAGGIO e l’ACCOMODAMENTO si verificano quando dovendo emettere giudizi in condizioni di
incertezza, le persone riducono l’ambiguità ancorandosi ad un punto di riferimento stabile per poi operare
degli aggiustamenti ed infine raggiungere una decisione finale. In altre parole, si tratta di processi di stima
di un qualche valore a partire da un certo valore iniziale, rispetto al quale viene accomodato il nuovo
esemplare.
Esperimento: viene chiesto di stimare il prodotto di due serie di fattori: qual è il prodotto delle seguenti
serie di fattori?
-8x7x6…
-1x2x3…
I soggetti dovrebbero dare una risposta uguale in entrambi i casi, anche nel caso in cui i numeri sono posti

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
dal più piccolo al più grande, ma ciò non avviene. L’errore è dovuto dal fatto che il numero iniziale piccolo o
il numero iniziale grande funge da perno sul quale prendere una decisione finale e sul quale sono aggregati
gli elementi successivi, infatti i soggetti tendono a giudicare maggiore il prodotto della prima sequenza di
numeri (2250 vs 512). Cos’è successo? È successo che la prima informazione ha ancorato a sé le
informazioni successive e c’è stata la tendenza a sovrastimare il punto di partenza, rendendolo quindi più
importante.

Principio di compatibilità:
Ci sono alcuni principi nel nostro agire che contraddicono i principi della scelta razionale. Esempio di
esperimento: “hai a disposizione due pacchetti turistici entrambi offerti a un prezzo ragionevole. Il dépliant
informativo ti dà solo alcune informazioni sui due pacchetti. In base a queste informazioni in quale località
preferiresti andare?”
- località A: condizioni climatiche normali, hotel media qualità, vita notturna normale;
- località B: clima soleggiato, barriere coralline, hotel moderni ma temperatura fredda, assenza vita
notturna.
Nell’esperimento succede che la maggioranza delle persone sceglie la località B, ma se si presenta lo stesso
quesito posto in precedenza e si chiede di dire la località dove non si vorrebbe andare, le persone scelgono
sempre B, avendo quindi un comportamento contraddittorio. Le persone quindi scelgono e rifiutano la
stessa alternativa a seconda del modo in cui viene chiesto di esprimerla. Questi dati sono attribuiti al
principio di compatibilità: le persone danno più peso alle caratteristiche positive delle opzioni quando
scelgono mentre danno più peso alle caratteristiche negative quando eliminano le opzioni che ritengono
peggiori. Seguendo il principio di compatibilità si possono compiere scelte che violano il principio di
coerenza procedurale.

Principio di cancellazione:
Sostiene che le preferenze di un individuo devono dipendere dalle caratteristiche che distinguono le opzioni
di scelta e non da quelle che le accomunano, dovrebbero dare un aiuto nelle scelte le caratteristiche
differenti. Esperimento che pone una situazione immaginaria: dovete comprare una giacca e una
calcolatrice, il venditore dice che la calcolatrice è in vendita a 10 dollari invece di 15 dollari al negozio che
dista venti minuti di auto. Siete disposti a guidare fino all’altro negozio? In questo caso la maggioranza
accetta di fare altri venti minuti di auto per andare nell’altro negozio e per ottenere lo sconto, ma se la
domanda è formulata nuovamente i soggetti si comportano in modo diverso. Seconda formulazione della
domanda: la calcolatrice costa 125 dollari e il venditore dice che la calcolatrice è in vendita a 120 dollari al
negozio che dista 20 minuti di auto. In questo caso la percentuale di soggetti che scelgono o no di andare
nell’altro negozio si inverte e la maggioranza non andrebbe nell’altro negozio per risparmiare gli stessi 5
dollari che voleva risparmiare nel precedente esperimento.
Questo perché quello che guida le persone in questa scelta è una valutazione dello sconto sulla base del
prezzo di partenza, ma dal punto di vista complessivo il vantaggio che si ha dal recarsi all’altro negozio è
esattamente lo stesso dato che dal punto di vista globale il risparmio sarebbe esattamente lo stesso se si
sommano i costi della giacca con la calcolatrice in entrambi i casi.
Questi dati hanno portato Tversky e Kahneman a ipotizzare che per decidere le persone possano adottare
tre diversi tipi di rappresentazione mentale:
- calcolo minimo: si dovrebbero esaminare solo le differenze tra le opzioni senza tenere conto delle
caratteristiche comuni;
- calcolo compressivo: vengono integrati tutti i costi sostenuti e tutti i benefici ottenuti;
- calcolo tematico: che attrae più chi risponde a questi esperimenti: le conseguenze della decisione

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
vengono valutate in funzione di un punto di riferimento che, a sua volta, è determinato dal contesto in cui
la decisione è inserita. Questo calcolo tematico prende come punto di riferimento il prezzo iniziale
dell’articolo e la percentuale di sconto che c’è sull’articolo. Se noi usassimo i primi due calcoli dovremmo
dare una stessa risposta ma se usiamo il calcolo tematico prendendo un elemento come punto di
riferimento i due casi si distinguono e portano a scelte diverse. Secondo il calcolo tematico il beneficio che
si ottiene viene valutato solo in rispetto alla calcolatrice e lo sconto sarà valutato maggiormente nella prima
versione del problema rispetto alla seconda versione del problema.

In conclusione, secondo Tversky e Kahneman vi una è tendenza spontanea degli individui a rappresentare i
problemi di scelta in modo tematico. L’applicazione del calcolo tematico viola però il principio della
cancellazione.

Principio della cosa certa:


Sostiene che “se ho deciso a priori che opto per l’opzione A accada ciò che accada, avere delle informazioni
sull’esito di eventi che ho deciso che non influiranno sulla mia decisione non dovrebbe modificare la presa
di decisione effettuata”. Esempio: Tversky e Shafir chiesero a degli studenti di immaginare di aver sostenuto
un esame e di dover decidere se andare in vacanza, accettando un’offerta ragionevole su un pacchetto da
un’agenzia di viaggi.
- se gli studenti avessero dovuto immaginare di superare l’esame avrebbero risposto in modo affermativo;
- se avessero immaginato di non averlo superato avrebbero continuato a rispondere in modo affermativo;
- se avessero dovuto immaginare che l’esito dell’esame non fosse ancora noto, buona parte di loro avrebbe
preferito aspettare l’esito prima di effettuare la scelta, pagando addirittura una penale all’agenzia di viaggi.

Vi è quindi violazione del principio di cosa certa perché gli individui hanno difficoltà a ragionare
nell’incertezza e in condizioni di incertezza può essere violato il principio di cosa certa.

EURISTICA DELLA DISPONIBILITÀ:


Consiste nel giudicare la frequenza di una classe o la probabilità di un evento in base alla facilità con la
quale esemplari o casi possano venire alla mente. Quindi, elementi che, ad esempio, appartengono ad
un’ampia classe sono ricordati meglio oppure eventi ritenuti molto probabili vengono ricordati meglio.
Inoltre, nell’euristica della disponibilità vi è un’ASIMMETRIA COGNITIVA nel trattare il vero e il falso, ovvero
la difficoltà nel trarre le conseguenze di un’ipotesi, non sapendo se tale ipotesi sia vera o falsa o avendo
delle difficoltà quando si tratta di avere a che fare con la falsità di un’ipotesi.
Esempio malattia araba: immaginate di essere il ministro della sanità di un paese che sta per essere invaso
da un’insolita malattia asiatica che in assenza di interventi ucciderebbe 600 persone, e di dover scegliere tra
due programmi per combatterla;
- se verrà usato il Programma A verranno salvate 200 persone;
- se verrà adottato il programma B con un 1/3 di probabilità saranno salvate 600 persone e con 2/3 di
probabilità nessuno verrà salvato.
La domanda è: quale programma scegliereste? L’adozione dell’euristica della disponibilità è dovuta al modo
in cui sono state presentate le alternative in questo caso, qui c’è una focalizzazione sul fatto che 200
persone saranno sicuro salvate se verrà scelto il programma A e ci sarà un certo vantaggio.

IL PRINCIPIO DELLA QUANTITÀ:


Euristica che tende a farci confondere la qualità con la quantità-

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
CORRELAZIONI ILLUSORIE:
È quell’errore di pensiero per cui una persona, a fronte di due eventi che accadono insieme nel tempo, è
portata a credere che essi siano correlati o che uno causi l’altro.

REGRESSIONE VERSO LA MEDIA:


Fenomeno descritto da Galton nel 1886.
Il termine regressione significa “ritorno a”, per cui se due variabili non sono perfettamente correlate, allora
i valori alti della prima variabile tendono ad essere associati a valori più bassi della seconda variabile,
mentre i valori bassi della prima variabile tendono ad essere associati ai valori più alti della seconda
variabile. I valori della variabile predetta sono dunque maggiormente simili alla media dei valori del
predittore. Questa legge costituisce una chiara evidenza contro l’ipotesi della completa trasmissione
ereditaria di qualsiasi talento. Tversky e Kahneman hanno messo in rilievo l’importanza posseduta dal
fenomeno della regressione verso la media per la comprensione dell’influenza di ricompense e punizioni
nei confronti del comportamento.

ADDESTRAMENTO NEL RAGIONAMENTO STATISTICO:


La capacità di fare uso delle corrette procedure di ragionamento dipende da tre fattori:
- chiarezza dello spazio del problema;
- comprensione dei processi casuali;
- prescrizioni culturali;

PENSIERO MAGICO:
Ritenuto un esempio della permanenza di aspetti infantili nella vita adulta. Ricerca classica sul pensiero
magico è quella effettuata da Frazer. Egli credeva che le pratiche magiche fossero regolate da due leggi:
- legge della somiglianza: le cose simili si influenzano reciprocamente. Pratiche basate sulla legge della
somiglianza sono chiamate MAGIA OMEOPATICA.
- legge del contagio: le cose che una volta sono state in contatto le une con le altre continueranno in
seguito ad esercitare un’influenza reciproca. Pratiche basate sulla legge del contagio costituiscono la
MAGIA DEL CONTAGIO.

COINCIDENZE SIGNIFICATIVE:
Falk ha dimostrato che gli individui giudicano le coincidenze che li riguardano diversamente dal modo in cui
giudicano quelle che riguardavano gli altri. Ha suggerito che una coincidenza è sorprendente nella misura in
cui è personale. Gli individui tendono a considerare le coincidenze accadute nel loro passato come fatti
importanti e degni di essere ricordati. Questo fenomeno è detto BIAS EGOCENTRICO.

TENDENZA ALLA POSITIVITÀ:


La tendenza ad esprimere più spesso giudizi positivi che negativi.

DIVERSI APPROCCI ALLO STUDIO DELLE IMMAGINI MENTALI: IMMAGINISTA E PROPOSIZIONALISTA


Immaginisti (Paivio e Shepard): sostengono che la capacità umana di creare immagini mentali e quindi
l’immaginazione è una capacità autonoma ed ha analogie con le funzioni percettive.
L’immaginazione quindi ha le stesse leggi dei processi percettivi con la differenza che questi si svolgono in presenza di
oggetti fisici del mondo reale mentre la creazione di immagini mentali avviene in assenza di oggetti fisici, quindi non
sarebbe riconducibile agli altri fenomeni come quelli di memoria
Per la teoria degli immaginisti le immagini mentali hanno una struttura isomorfa a quella degli oggetti fisici, quindi per
il concetto di orso avremo una rappresentazione autonoma e visiva rispetto a quella semantica e che rappresenta e

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
conserva i tratti fondamentali dell’oggetto rappresentato in memoria. Queste immagini mentali sono di tipo fisico-
percettivo ovvero conservano la stessa forma e sono di natura pittorica, hanno rappresentazione visiva e sono
analogiche e a differenza di rappresentazione semantiche che sono astratte qui le rappresentazioni hanno dei tratti in
comune , quindi hanno la stessa forma degli oggetti reali che rappresentano. Immagini con carattere fisico e non
astratto
Una delle caratteristiche delle IM che ha fatto pensare a una stretta analogia con i processi percettivi è il fatto che le
IM possono essere dinamiche attraverso due processi: la rotazione e l’ispezione di immagini mentali. in entrambi i casi
i processi che portano ad immaginare un oggetto sono simili a quelli percettivi
Le rappresentazione immaginative sono quindi trasformate o esplorate in modo continuo e analogico ,simile a quello
che ci porta a manipolare o ispezionare oggetti e superfici reali
La conclusione di Kosslyn ( che ha effettuato questi esperimenti) è che gli individui ispezionano l’immagine mentale di
una scena per mezzo degli stessi processi di scansione di una scena esterna reale o di una figura (movimenti oculari)

Proposizionalisti (Pylyshin, Anderson): le funzioni immaginative non sono autonome e le rappresentazioni mentali
immaginative hanno un formato proposizionale cioè riducibile ai contenuti della memoria semantica e dichiarativa che
immagazzina la conoscenza sottoforma di frasi.
Quindi le immagini sarebbero solo il condimento della conoscenza che ha un fulcro di natura proposizionale; le
immagini mentali sono un’appendice immaginativa di conoscenze in forma proposizionali (semantico-concettuale)
la rappresentazione di un IM è una rappresentazione che non ha attributi della rappresentazione proposizionale visiva
in memoria del concetto di orso, abbiamo solo delle rap di tipo semantico astratto, sappiamo che è un carnivoro ecc..
insieme alle rappresentazioni astratte vi sono anche rappresentazioni che riguardano degli elementi di conoscenza che
possono essere trasformati in elementi visivi o immagini visive come il fatto che sappiamo che un orso ha una testa
ecc…
Sono quindi immagini astratte e non avrebbero nulla a che fare con l’immagine visiva, sono simboliche e discrete e
quindi avrebbero delle caratteristiche del tipo tutto o niente, non c’è isomorfismo ma solo una corrispondenza
convenzionale ad esempio la proposizione l’orso ha uno testa può essere trasformata in immagine visiva senza che vi
sia isomorfismo tra rapp astratta sottoforma di frase e le dimensioni e parti della figura che la rappresentazione
designa
Questo approccio cerca di trovare prove che dimostrino che le IM hanno struttura interna simile a quella dei concetti
astratti. Il punto di partenza è che non esistono rappresentazioni mentali in forma di immagini o meglio esistono ma
sono solo la facciata esterna e una delle informazioni recuperabili di una struttura di rappresentazione di conoscenza
che è proposizionale
Vi è un codice di tipo proposizionale ad esempio ha una testa, ha delle zampe ecc…
Questo codice immagazzina un concetto e il codice visivo viene creato trasformando delle informazioni concettuali
come ha una testa ecc… in immagini mentali, quindi queste IM sarebbero un prodotto secondario della
rappresentazione di tipo dichiarativo proposizionale
La conclusione: è che la rappresentazione proposizionale influenza o determina le immagini mentali, se riusciamo a
dimostrare che le IM dipendono dalle rappresentazioni proposizionali abbiamo rafforzato questa teoria o
orientamento delle immagini mentali

MODELLO COORTE
Riconoscimento di una parola quando la sentiamo.
-Accesso
Si intende che quando sentiamo una parola costruiamo un insieme di possibili candidati al riconoscimento (insieme
chiamato coorte) vengono attivati via via tutti i candidati compatibili con un dato input
-Selezione
La coorte si restringe a mano a mano che arriva nuova informazione percettiva fino al punto di unicità (il punto in cui
la coorte contiene un solo candidato) è scattato quindi il momento del riconoscimento e si attiva la terza fase
-Integrazione
A selezione avvenuta avviene l’integrazione delle proprietà sintattiche e semantiche della parola nella
rappresentazione complessiva della frase
Teoria ha il pregio di spiegare come facciamo a riconoscere in tempi così brevi le parole

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Oltre al modello coorte abbiamo il MODELLO TRACE
È un modello a rete neurale connessionista di McClelland

Struttura: abbiamo tre strati in cui la rete è organizzata. Si parte dall’estrazione delle caratteristiche uditive e sono
legati da una doppia freccia ai fonemi e anche qui i tratti uditivi e fonetici attivano i fonemi con essi compatibili e i
fonemi attiveranno le parole che contengono quei fonemi. I legami tra uno strato e l’altro sono di tipo eccitatorio

È un modello simile al modello interactive ma applicato al riconoscimento del parlato

La differenza con il modello interactive è che qui non viene data una priorità all’inizio della parola e questo è
compatibile con alcuni dati sperimentali che avevano messo in discussione il modello coorte, il fatto che se si presenta
una parola con una parola incassata a destra es trombone contiene alla fine una parola bone osso che non ha niente a
che fare con la parola trombone ma è solo sequenza fonica che occorre in quella parola che corrisponde ad un’altra
parola

- Le connessioni tra livelli sono bi-direzionali ed eccitatorie


- Le connessioni entro i livelli sono inibitorie

TEORIA DEL PROSPETTO di KAHNEMAN & TVESKY pag 85 riass.


Uno degli elementi centrali della teoria del prospetto è la funzione di valore soggettivo.
Essa ha tre proprietà fondamentali:
- Avversione per le perdite: una perdita ha impatto maggiore di un guadagno di pari entità. Siamo più sensibili alle
perdite dal punto di vista cognitivo rispetto a benefici o vantaggi di pari entità
- Funzioni matematiche /le curve: la curva dei guadagni è concava (più rallentata) mentre quella delle perdite è
convessa (sale in modo più veloce) I soggetti tendono a evitare scelte rischiose nel dominio dei guadagni e
tendono a fare scelte rischiose nel dominio delle perdite
- Punto di riferimento: i guadagni e le perdite sono definiti in base a un’operazione mentale di codifica rispetto a
un punto di riferimento

Ad esempio, nella prima versione del problema della malattia asiatica il punto riferimento è l’aspettativa di morte di
600 persone
- Le persone valutano l’esito di salvare un certo numero di persone come un guadagno rispetto al punto di
riferimento e quindi scelgono il programma A

Nella seconda versione del problema invece il punto di riferimento è lo stato attuale in cui nessuna persona è ancora
morta
- Le persone valutano la morte di un certo numero di individui come perdita rispetto al punto di riferimento e
quindi scelgono il programma B

Articolazioni figure-sfondo
Altro aspetto su cui la Gestalt ha fatto studi è l’articolazione figura sfondo e su quali sono i principi che fanno si che
all’interno di una configurazione alcuni elementi vengano visti ed emergono come figure e altri come sfondo amorfo
- Questo è il caso più semplice di stratificazione di un’immagine ed evidenziazione di un’immagine
- Tendenza del sistema percettivo che fa sì che la figura abbia forma mentre lo sfondo è amorfo e indistinto
- All’interno di questa articolazione figura-sfondo emerge anche un'altra legga o meglio sotto-legge , quella
della funzione univoca e unilaterale dei bordi dove il contorno appartiene solamente alla figura e non allo
sfondo

Leggi dell’articolazione figura-sfondo


Vi sono delle leggi che determinano anche il modo in cui segmentiamo la figura
 Legge dell’Inclusione: se abbiamo una figura inclusa e una includente percepiamo come figura la regione
inclusa
 Area minore: qui vengono viste come figure le regioni di area minore rispetto a quelle di area maggiore
 Larghezza costante: variante del principio di simmetria. Qui siamo portati a codificare una forma regolare
dato che ci risulta meno faticoso rispetto alla codificazione di una forma irregolare

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Queste leggi dunque sono espressioni del principio di minimo per il quale il sistema visivo tende a minimizzare
l’organizzazione degli oggetti

esempio di organizzazione figura-sfondo è quello dell’esperimento detto priming


Vengono presentati due stimoli, un chiamato stimolo Prime che viene presentato per primo e stimolo Target che viene
presentato dopo. Qui il primo stimolo serve a influenzare la risposta sullo stimolo target
Priming di immagine: nell’esperimento viene prima presentata una prima un’immagine dove vi è un ovale , un cerchio
e una figura più complessa
Poi l’immagine scompare e vengono presentate due figure A e B , i soggetti devono dire quale delle due figure era
precedentemente contenuta nel primo stimolo o immagine
I soggetti sono addestrati a rispondere di sì alla figura A ma in realtà la figura esatta che era contenuta nella prima
immagine era la B che è lo sfondo verde che correva dietro e che era interrotto dalle tre figure che risaltavano
Questo dimostra che quando una figura emerge rispetto allo sfondo questo cessa di avere una forma che neppure
viene percepita, se viene anche ripetuta dopo secondi questa non viene vista come tale dai soggetti dell’esperimento

L’architettura di una rete


L’architettura di una rete identifica da due aspetti:
- Gruppi o strati di neuroni diversi tra di loro
- Il modo in cui i neuroni sono connessi tra di loro (schema di connettività)
Strati di unità
- Le unità che ricevono l’input direttamente dall’ambiente e formano lo strato di input, simulano quelle aree del
sistema nervoso in cui vi sono neuroni che ricevono informazioni dai recettori sensoriali
- Le unità che producono l’output finale della rete e sono lo strato di output , sono quelle unità che simulano il
funzionamento dei neuroni motori e che presiedono il funzionamento degli arti, bocca ecc…
- Le unita che non sono in contatto con l’esterno e che non operano sull’esterno e non ricevono informazioni
dall’esterno sono lo strato di unità nascoste e sono in contatto tra di loro
Schema di connettività; vi sono vari schemi di connettività tra strati
- Rete feed-forward: sono reti dove vi sono solo connessioni unidirezionali dalle unità di input alle unità nascoste
e da queste alle unità di output , sono reti che possono essere usate per la simulazione di alcuni compiti ma non
sono molto realistiche per la simulazione dei compiti cognitivi che devono essere simulazioni bidirezionali
- Rete ricorrente: vi sono connessioni bidirezionali dove l’attivazione può fluire anche dall’output verso l’input
- Reti ricorrenti con connessioni laterali e anche bidirezionali

Un modello che ha influenzato per molto tempo lo studio della produzione del linguaggio e che aveva come base
empirica gli errori commessi dai parlanti è il modello di Lefelt

- Il modello rende visibili i tre stadi del processo di produzione, abbiamo una Prima fase del processo di
produzione che corrisponde alla fase di concettualizzazione
- C’è una fase finale che corrisponde alla fase di articolazione

- Ciò su cui si sofferma il modello è la parte centrale che è la codifica grammaticale e che sarebbe la fase di
formulazione, è suddivisa in due macro-processi ovvero funzionali e posizionali:
1. Nella fase funzionale viene decisa la struttura sintattica astratta della frase e vengono selezionate i lemmi che
faranno parte della frase. Sono processi funzionali dove vengono definite le caratteristiche funzionali astratte
nella frase e gli elementi che dovranno saturare quelle caratteristiche funzionali astratte
2. Nei processi posizionali la frase assume la forma lineare che produciamo nel parlato dove vengono assemblati
i costituenti come l’ordine delle parole nella frase e selezionate le flessioni dei nomi e dei verbi e in accordo
con la struttura sintattiche selezionata vengono usate delle flessioni e non altre
Quindi Questo modello si occupa sia del versante lessicale che di quello sintattico del processo di produzione del
linguaggio
Uno dei problemi di questo modello è la sua caratteristica di rigida sequenzialità che è contraddetta da dati empirici
che dimostrano che nel parlato continuo le tre fasi si sovrappongono, le frasi vengono pianificate a cascata e materiali
diversi (della stessa frase o di frasi diverse) si trovano a diversi stadi di elaborazione
Quindi il modo in cui produciamo le frasi non è rigido perché mentre stiamo producendo una frase stiamo anche
pianificando alla frase successiva; questo è evidenziato che alcuni errori sono di anticipazione dove viene detto in un
momento precedente qualcosa che doveva essere detto in un momento successivo
Momentanee mancanze di sincronizzazione possono portare a:

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
- Esitazioni
- Errori
Gli errori e le esitazioni sono un indizio che ci fanno fare inferenze su come si svolgono i processi normali del parlato

Teoria della specificità di codifica (Tulving)


La teoria della specificità di codifica sostiene che uno stimolo viene codificato a seconda del contesto nel quale è
inserito e che sarebbe un meccanismo articolato
- Se il contesto della codifica di un’informazione e il contesto del recupero sono simili o si sovrappongono allora
sarà più probabile che l’informazione venga recuperata
- La compatibilità tra la traccia com’è stata codifica e le caratteristiche dell’informazione al momento del
recupero determina il ricordo (è il principio della specificità di codifica)
Esperimento di Tulving (per spiegare la compatibilità tra codifica della traccia e caratteristiche dell’informazione al
momento del recupero)
Nell’esperimento di Tulving vi era un compito di rievocazione con indizi o suggerimenti
- Venivano presentate liste di parole in coppia e dopo un intervallo di tempo dovevano essere rievocate. Le
parole erano presentate in coppia e una di queste parole della coppia era una parola ambigua che in inglese ha
più significati ad esempio la parola ground (terreno oppure sfondo)
- Questa parola poi veniva presentata insieme ad un’altra parola in coppia che ne rendeva saliente il significato
secondario ad esempio ground con la parola figura e quindi ground veniva codificato più probabilmente sulla
base del suo significato secondario sfondo.

- Nella seconda parte dell’esperimento erano presentati degli indizi o suggerimenti e per dare un probabile
recupero della parola ground veniva presentata una parola che si riferiva al primo significato di ground ovvero
ground e pavimento. Quello che Tulving rilevava era che anche un indizio molto forte come pavimento che
dovrebbe far pensare subito a ground non sortiva l’effetto desiderato; se l’indizio non era pertinente con il
contesto nel quale era stata presentata la parola nella prima fase dell’esperimento non si otteneva alcuna
facilitazione nel recupero che si otteneva usando dei suggerimenti
La conclusione è che il riconoscimento dello stimolo viene facilitato da un contesto di recupero simile a quello di
codifica e quindi se il contesto di codifica e di recupero sono simili vi è la facilitazione del ricordo

MEMORIA SENSORIALE
È Legata soprattutto agli esperimenti di Sperling, che ha usato un paradigma
 Il paradigma consisteva nella presentazione per 50millisecondi di stimoli, sequenze di lettere casuali che
venivano presentate in una griglia 4x3 , poi la matrice scompariva e veniva richiesto di rievocare il maggior
numero di lettere alle quali erano stati esposti i soggetti
 Il risultato era che la memoria sensoriale rivelava una capacità limitata, i soggetti rievocavano solamente la
metà delle lettere che erano state presentate
 Questa variante del paradigma era chiamata procedura di resoconto totale
Punto di novità di Sperling all’interno di questi esperimenti fu la decisione di introdurre una variazione nel paradigma:
anche qui viene presentata la matrice con le lettere che viene poi tolta e poi c’è un indizio visivo come una frecci o un
tono acustico che si riferivano al punto nel quale erano apparse le lettere della riga centrale o delle altre due; il tono
poteva essere acuto, medio o basso. In seguito ai soggetti veniva richiesto di riferire solamente le lettere che erano
state contrassegnate dall’indizio visivo o dal tono acustico
Questa modifica apportata da Sperling e chiamata resoconto parziale permetteva di vedere meglio cosa accadeva
nella memoria sensoriale, di fatti la critica di sperling verso gli esperimenti precedenti era che questi non
coinvolgevano solo la memoria sensoriale ma anche quella a breve termine. La differenza tra i due paradigmi è che in
quello di resoconto totale viene richiesto di riportare tutte le lettere che erano state presentate, ciò richiedeva un
certo numero di secondi dove la fase di recupero era troppo lunga, ciò faceva si che non si stesse più indagando la
memoria sensoriale ma il processo di decadimento. Se si testa immediatamente la memoria sensoriale con un
intervallo molto limitato di tempo si vedrà che la capacità di immagazzinazione della memoria sensoriale è molto più
superiore. Dunque vi è un rapido decadimento si ma l’immagazzinamento è rapido.
Nota bene: la percentuale di lettere riportate correttamente è del 50% nel primo paradigma e quasi del 100% nel
secondo dove vengono riportate quasi tutte le lettere

IL MODELLO DI LEVELT
Questo modello Prende in esame solo la parte lessicale del processo di produzione del linguaggio

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Abbiamo visto che nella fase di formulazione il parlante sceglie la struttura sintattica della frase e le parole, Levelt si
sofferma di più sul processo di scelta di parole o lessicalizzazione, è il processo tramite il quale una rappresentazione
semantica è convertita passo dopo passo nei suoni corrispondenti
Il principale paradigma che è stato usato è quello dell’interferenza figura-parola
È un paradigma che sfrutta i meccanismi classici di interferenza. Vengono presentati degli stimoli in concomitanza con
altri stimoli e in questo paradigma in particolare vengono presentate delle figure. Il compito del soggetto è quello di
denominare la figura ma contemporaneamente o prima o dopo alla figura viene presentata anche la parola che può
essere legata alla figura. La presentazione della parola determina degli effetti di interferenza o di facilitazione sulla
denominazione della figura
Il paradigma quindi si basa sul fenomeno per cui i tempi di denominazione di una figura (CANE) si modificano quando ,
più o meno allo stesso tempo, viene presentata una parola (distrattore) collegata al nome della figura
Compito: dire il più velocemente possibile il nome di una figura presentata su uno schermo (per esempio un cane)
Prima, dopo o contemporaneamente appare un distrattore
- Il distrattore può avere con la figura una relazione semantica (gatto) , una relazione fonologica (pane) o nessuna
relazione (ricotta)
A seconda dell’ordine di presentazione delle figure di distrattori si hanno conseguenze diverse
- Quando il distrattore è presentato prima o assieme alla figura la relazione semantica ritarda la risposta, mentre
la relazione fonologica è ininfluente. Se la parola gatto è presentata prima o dopo interferisce con la
denominazione della figura cane

- Quando il distrattore è presentato dopo la figura la relazione fonologica facilita la risposta mentre la relazione
semantica è ininfluente. Se presentiamo prima la figura cane e poi immediatamente dopo il distrattore
scompare l’effetto di interferenza semantica e la parola gatto non da effetto e c’è un effetto del distrattore
fonologicamente correlato pane e questo effetto è un effetto di facilitazione della denominazione della figura
cane e tempi quindi più veloci e non effetto di inibizione

Il risultato viene spiegato da Levelt in un modello che distingue TRE FASI all’interno del processo di produzione delle
parole

- Supponiamo che l’input da denominare sia una figura di un leone. Il primo elemento che viene attivato a partire
dalla forma visiva è il livello concettuale nel quale sono rappresentate delle caratteristiche semantiche della
parola. La parola leone attiverà informazioni come SELVAGGIO, HA LA CRINIERA
- Una volta selezionata un’entrata a livello concettuale questa va ad attivare un livello che è livello del lemma,
l’aspetto che contraddistingue questo modello. Il lemma è una rappresentazione delle caratteristiche sintattiche
della parola, nel caso di leone saranno rappresentate informazioni relative al genere grammaticale maschile
oppure informazioni sulla classe grammaticale e quindi sostantivo. Siamo quindi in un livello che non è più
semantico e che non è ancora fonologico ma è un livello di parole mute dove sono solo attivate le caratteristiche
sintattiche e grammaticali delle parole. Il livello del lemma si interpone tra il livello concettuale e del lessema
- Livello del lessema è un livello di tipo fonologico
L’idea originale di questo modello è che il segno linguistico che deve essere prodotto è posto in una struttura tripartita
nel quale per passare dal livello semantico a quello fonologico è necessario passare attraverso un’attivazione delle
proprietà sintattiche delle parole (maschile, ausiliare, sostantivo)
Questo modello spiega i dati grazie alla distinzione tra livello concettuale, livello dei lemmi e dei lessemi
- I risultati si possono spiegare ipotizzando che la lessicalizzazione avvenga in due fasi, la prima delle quali è la
selezione del lemma e la seconda è la selezione del lessema
Spiega i risultati che provengono dal paradigma di interferenza figura-parola
- Il processo di selezione lessicale permette di recuperare un lemma e ciò avviene tramite un processo di
competizione tra lemmi corrispondenti a concetti lessicali simili

Apprendimento nelle reti neurali


- Comincia in uno stato in cui la rete è una tabula rasa e a secondo dell’input che riceve e del tipo di
algoritmo la rete trova il bilanciamento ottimale dei pesi sulle connessioni per svolgere in modo
corretto il compito per cui era stata progettata. Dunque, L’apprendimento in una rete consiste nel
trovare l’insieme di pesi sulle connessioni che permette alla rete di produrre l’output desiderato da un
certo input
Solitamente le reti neurali artificiali nell’apprendimento seguono la regola di Hebb

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
- Regola di Hebb: se due neuroni collegati tra di loro sono contemporaneamente attivi l’efficacia
sinaptica (ovvero peso sulla connessione) viene rafforzata , ad esempio, se un input viene presentato
molte volte (un certo pattern di lettere alla rete che deve imparare a leggere) la rete impara ad
attribuire al pattern di lettere una pronuncia e quindi se responsabili di questo compito di pronuncia
sono dei neuroni collegati la loro coattivazione fa si che il peso sulla connessione venga rafforzato
Tipi di algoritmi di apprendimento
- Apprendimento supervisionato: non è l’apprendimento più verosimile dal punto di vista biologico.
Alla rete viene fornito l’output desiderato e da produrre ma questo algoritmo non è plausibile perché
di solito noi apprendiamo direttamente attraverso le interazioni con l’ambiente e sappiamo qual è il
comportamento ottimale per risolvere una data situazione senza che ci sia un omuncolo nella testa
che ci dica se abbiamo fatto bene o male
- Apprendimento per rinforzo: alla rete vengono solo fornite informazioni sulla bontà dell’output
prodotto ma non viene fornito l’insieme di elementi che corrisponde all’output da produrre
- Apprendimento per auto-organizzazione: apprendimento che appare più simile a quello dei reali
sistemi cognitivi biologici. La rete costruisce delle rappresentazioni dell’input che sono sempre più
complesse e vicini a quelli desiderati

Focalizzazione:
La differenza tra le due elaborazioni ci permette di dare più di sostanza al concetto di focus dell’attenzione.
La focalizzazione è quello che differenzia i processi attentivi dai processi pre attentivi ed è caratterizzata dal
fatto di sottoporre lo stimolo selezionato ad ulteriori elaborazioni confrontando la totalità dello stimolo con
altri stimoli
I processi preattentivi:
 Richiedono lo svolgimento di operazioni mentali in parallelo ovvero se c’è un aumento dei
distrattori nella configurazione non c’è un minore tempo di rilevazione dell’elemento
incongruo perché non si devono scansionare uno dopo l’altro tutti gli elementi.
 Conducono alla segmentazione del campo visivo in oggetti rilevanti ed estraggono singole
caratteristiche e la presenza o assenza della singola caratteristica permette di dare una
risposta immediata senza processi attentivi
I processi attentivi:
 Intervengono in un secondo momento per integrare le informazioni quindi richiedono
integrazione delle diverse informazioni presenti a livello visivo (forma orientamento
dimensioni…)
 Procedono in modo seriale (un’operazione dopo l’altra) infatti se si aumenta il numero
di distrattori si aumenta anche il tempo di rilevazione dell’elemento incongruo

MASCHERAMENTO VISIVO:
Tecnica indiretta usata per misurare qualcosa che non dipende dalla risposta volontaria del soggetto. Tale
tecnica consiste nel presentare uno stimolo target seguito da un altro stimolo che lo nasconde, rendendone
difficile l’identificazione. Vantaggio di questa tecnica è la possibilità di verificare direttamente se il
mascheramento è stato efficace e se i target è stato percepito consapevolmente, chiedendo al soggetto di
identificarlo. Se le risposte non sono fornite a caso si può essere che ci sono anche altre due tecniche che
hanno lo stesso scopo:
Ascolto dicotico-> che consiste nel presentare al soggetto simultaneamente due messaggi diversi,
chiedendogli di ripetere quello che sente dai due orecchi. L’attenzione del soggetto dovrebbe essere
focalizzata sul messaggio dell’orecchio richiesto e dovrebbe escludere l’altro. Gli studi hanno dimostrato
che i soggetti non solo non erano in grado di riferire il contenuto del messaggio non richiesto, ma non
sapevano dire nemmeno se la voce fosse maschile o femminile. Vediamo, quindi, che l’elaborazione
inconsapevole del messaggio cui non si presta attenzione è alquanto sofisticata, raggiungendo di fatto,
almeno il livello dell’associazione del significato delle parole;

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
Priming-> è un fenomeno di facilitazione prodotto da uno stimolo (prime) su uno stimolo successivo
( target) . Ad es. dovendo decidere se una parola presentata indica un elemento della categoria “animali”
le persone ci mettono meno tempo e commettono meno errori se poco prima è stata presentata un’altra
parola. . Questo dimostra che una parola non percepita consapevolmente è in grado di influenzare una
risposta consapevole.

STRATEGIE DI UN LETTORE PER LETTERE OPACHE:


La differenza tra i sistemi di memoria di scrittura trasparenti e opachi hanno portato ad un’ipotesi che
riguarda le strategie che usano i lettori per assegnare un valore fonologico alle sequenze scritte, quella della
profondità ortografica, secondo questa ipotesi i lettori hanno a disposizione 2 strategie: quella di tipo
olistico, che trasforma un’intera sequenza di simboli grafici in sequenza fonologica come nell’inglese, dove
bisogna sapere la pronuncia di quella specifica parola; strategia poi analitica, che usiamo quando
incontriamo parole nuove, quindi costruiamo quella sequenza di suoni che corrisponde a quella data
sequenza di lettere. L’idea di base è che queste strategie sono entrambi presenti nel cervello di i lettori,
maa che venga dato un peso maggiore o minore a seconda della superficialità o opacità della struttura
ortografica della lingua in questione.

IPOTESI DEL BIOPROGRAMMA DI BICKERTON:


Bickerton fa una distinzione tra le protolingue e le lingue vere e proprie. Nel protolinguaggio (noto anche
come linguaggio telegrafico, come il pidgin) le parole sono ordinate in un modo poco strutturato e vi è
un’assenza di sintassi corrente. Il passaggio da protolinguaggio al linguaggio sarebbe avvenuto
all’improvviso. Grazie ad una mutazione genetica e con l’homo sapiens. Quindi è una teoria che da un lato
vede l’antecendente del linguaggio umano in forme di comunicazione di specie anteriori a noi e dall’altra
parte è d’accordo con il fatto che il passaggio sia avvenuto mediante un salto e la comparsa dell’homo
sapiens. Gli studi delle lingue pidgin e creola coincidono con l’ipotesi che distingue una componente
concettuale e una computazionale all’interno della capacità linguistica. La prima fornisce i significati di base
mentre la seconda organizza e traduce questi significati in veri e propri enunciati linguistici. Il pidgin
avrebbe solo la componente concettuale, mentre il creolo ha una cooperazione di entrambe.

APPRENDIMENTO LETTURA:
3 stadi principali->
1) PROCESSO LOGOGRAFICO: stadio che sarebbe comune ai bambini che entrano a contatto con la lingua
scritta scelta in età prescolare. Essi iniziano ad apprendere info. Ortografiche che non solo di tipo alfabetico,
ma riguardano le proprietà visive delle parole;
2)PROCESSO ALFABETICO: qui vengono discriminate le singole lettere e il bambino impara a mettere in
corrispondenza le lettere con i suoni;
3)PROCESSO ORTOGRAFICO: localizzato verso i 9-10 anni. Qui il bambino ha un lessico più strutturato e
riesce a riconoscere la forma globale della maggior parte delle parole.
Dopo questo stadio si forma la via lessicale. Un ritardo di uno qualsiasi di questi stadi può portare a
difficoltà di lettura: dislessia evolutiva che porta ad avere capacità limitate nel leggere parole nuove.

APPRENDIMENTO SCRITTURA:
2 STADI->
1)FONOLOGICO: in cui il bambino utilizza le corrispondenze fonemi-grafemi per scrivere ciò che intende o
sente.
2)ORTOGRAFICO: il bambino comincia ad utilizzare delle rappresentazioni lessicali. Il prerequisito
necessario per la scrittura è la segmentazione fonologica, ovvero la capacità di scomporre le parole dette o
ascoltate nei suoni che le compongono.

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)
MODELLO DI GARRETT:
la pianificazione sintattica ha luogo in parallelo con il recupero dell’info lessicale e usa le info estratte dal
lessico per la costruzione della frase. Avviene in 2 tappe: elaborazione funzionale, durante la quale la
pianificazione usa le info semantiche e sintattiche recuperate dal lessico per assegnare ai lemmi selezionati
la funzione che avranno nella frase. E una elaborazione posizionale, che è la fase cruciale in cui viene
specificato l’ordine delle parole e vengono attivate le info sulla struttura morfologica dei lemmi
precedentemente selezionati.

APPROCCIO HIP:
Neisser propose questo modello che considera la mente umana come un elaboratore di info. Sosteneva
l’analogia tra operazioni della mente umana e processi di elaborazione dei dati eseguiti dai computer. Si
arriva a quest’idea partendo dell’assunto che la mente sia dotata di registri sensoriali che selezionano e
raccolgono i dati provenienti dall’esterno di un magazzino a breve termine, memoria che ricorda le
operazioni in corso di esecuzione e organizza le info appena ricevute e di un magazzino a lungo termine,
memoria che trattiene i dati e le strategie destinati al ricordo nei tempi più lunghi. I processi cognitivi, come
i comportamenti che essi producono, si svolgono all’interno di catene temporali. Sono analizzati in
sequenze di stadi e ognuno riflette una parte del processo elaborazione.
Successivamente fu lo stesso Neisser a criticare questa metafora uomo-computer, influenzato
dall’approccio ecologico di Gibson (secondo il quale l’info è disponibile nell’ambiente ed è formata da
invarianti strutturali a cui è solo necessario prestare attenzione). Neisser cerca di integrare l’approccio di
Gibson con quello informazionale e propone un modello circolare

Document shared on https://www.docsity.com/it/fondamenti-di-psicologia-generale-103/8157577/


Downloaded by: giusy899 (cimminiello.carloantonio@gmail.com)

Potrebbero piacerti anche