Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Definizione.
Significa letteralmente scienza dell’anima. Il termine deriva dalle parole psiché (anima) e logos (studio) ed è
stato coniato nel rinascimento. Solo durante il XVIII secolo comincia ad essere usato nella accezione attuale.
Alcune conquiste culturali hanno preparato il terreno per la nascita della psicologia, come:
La nascita della psicologia scientifica viene fatta risalire agli studi di Wundt (1832-1920) a Lipsia e in
particolare all’istituzione del primo laboratorio scientifico.
La psicologia può essere definita come la scienza del pensiero e del comportamento umano. Qualunque
azione (mangiare, frequentare altre persone, dormire, parlare, allacciarsi le scarpe) può essere considerata
un comportamento. Ma la psicologia si interessa anche a comportamenti che non sono direttamente
osservabili, ossia ai processi mentali, come: il pensiero, il sogno, il ricordo ed altre esperienze soggettive
condivise da più persone.
Gli obiettivi specifici della psicologia sono: descrivere, comprendere, prevedere e modificare il
comportamento.
La psicologia si fonda sul pensiero critico, quindi sulla capacità di riflettere, valutare, confrontare,
analizzare, criticare e sintetizzare le informazioni.
È una disciplina ampia ed articolata, comprende ad esempio la psicologia clinica dello sviluppo,
dell’apprendimento, ecc.
Scienza secondo il paradigma positivista: metodo di indagine vigoroso, metodo di misura oggettivo, trovare
un modo per misurare e quantificare gli eventi psichici.
La misurazione costituisce il punto di partenza per poter esaminare la relazione tra fenomeni di interesse.
In fisica e chimica i fenomeni di studio sono facilmente riconoscibili (es. reazioni chimiche), in psicologia i
fenomeno interni non sono direttamente osservabili ma inferibili.
Il metodo scientifico
Il metodo scientifico è un processo fondato sulla raccolta attenta delle prove attraverso descrizioni e
misurazioni precise, sulla ricerca di leggi di carattere generale attraverso osservazioni controllate e risultati
ripetibili. Nella sua forma ideale, il metodo scientifico è costituito da sei tappe: 1 effettuare delle
osservazioni; 2 definire un problema; 3 proporre un ipotesi; 4 raccogliere le prove per verificare l’ipotesi; 5
pubblicare i risultati; 6 costruire una teoria.
Il metodo sperimentale
Gli psicologi per spiegare perché ci comportiamo in un determinato modo, analizzano i collegamenti di
causa-effetto. Per scoprire le cause di un comportamento è necessario in genere realizzare un esperimento,
ossia una prova formale svolta per confermare o negare un’ipotesi relativa alle cause di un
comportamento. Per realizzare un esperimento bisogna procedere nel seguente modo:
1 Modificare in maniera diretta una condizione che si ritiene condizioni un comportamento.
2 Creare due o più gruppi di soggetti che dovrebbero essere simili sotto tutti gli aspetti a eccezione
della condizione che si decide modificare.
3 Verificare se la modifica sulla condizione ha qualche effetto sul comportamento.
L’esperimento psicologico più semplice prevede il controllo fra due gruppi di soggetti sperimentali (animali
o persone di cui si studia il comportamento; se si tratta di esseri umani si parla di partecipanti). Un gruppo
viene chiamato gruppo sperimentale e l’altro costituisce il gruppo di controllo. Il gruppo di controllo e il
gruppo sperimentale vengono sottoposti alle stesse prove a eccezione della condizione o fattore che,
intenzionalmente, viene modificato. Questa condizione viene definita variabile indipendente. Una variabile
è qualsiasi condizione considerata che può cambiare valore o essere modificata durante un esperimento.
Per identificare le cause e gli effetti di un esperimento occorre prendere in considerazione tre tipi di
variabili:
1 Le variabili indipendenti sono condizioni o aspetti dell’ambiente studiati empiricamente che possono
essere manipolate dallo sperimentatore che ne decide la grandezza, la quantità o il valore. Le variabili
indipendenti sono le cause ipotizzate di un determinato fenomeno o comportamento.
2 Le variabili dipendenti corrispondono ai risultati dell’esperimento, ossia rivelano gli effetti osservati
attribuiti alle variabili indipendenti. Di solito, sono un aspetto ben definito del comportamento misurato
dallo sperimentatore attraverso dei punteggi ottenuti, ad esempio, nei test.
3 Le variabili estranee o intervenienti sono fattori che possono agire liberamente e influire sulla variabile
dipendente. Queste variabili devono essere controllate per evitare che influenzino il risultato
dell’esperimento.
Un gruppo sperimentale è costituito dai partecipanti che ricevono il trattamento sperimentale, cioè che
sono esposti alla variabile indipendente, mentre i membri del gruppo di controllo sono esposti a tutte le
condizioni ad eccezione della variabile indipendente.
Le differenze individuali tra i soggetti (variabili estranee) possono influenzare l’esperimento, tuttavia è
possibile controllarle assegnando in maniera casuale le persone a uno dei due gruppi. Con l’assegnazione
casuale o randomizzazione un partecipante ha la stessa possibilità di far parte del gruppo sperimentale o
del gruppo di controllo; essa consente perciò di distribuire in maniera equilibrata le differenze personali nei
gruppi e, quindi, di effettuare un controllo sulle variabili esterne.
Le conclusioni sono accurate se non influenzate da distorsioni ( o bias). I bias possono essere: dei soggetti
sperimentali (aspettative dei soggetti che partecipano alla ricerca es. effetto placebo – singolo cieco) o del
ricercatore ( es. effetto Rosenthal o profezia che si autodetermina – doppio cieco).
Strategie utilizzare dai ricercatori per mantenere costanti tutte le variabili e le condizioni non legate
all’ipotesi che deve essere verificata:
1 controllo a singolo cieco: Procedura per cui i partecipanti sono inconsapevoli delle condizioni sperimentali
in cui si trovano, nonché dello scopo effettivo dell’esperimento.
2 Controllo a doppio cieco: Procedura per cui i partecipanti sono inconsapevoli delle condizioni
sperimentali in cui si trovano, nonché dello scopo effettivo dell’esperimento e lo sperimentatore è nella
condizione di non sapere a quale condizione sperimentale siano stati assegnati i soggetti che sta
esaminando.
Il metodo quasi-sperimentale.
Si usa quando non è possibile manipolare le variabili indipendenti; es. variabili del soggetto. Non è possibile
assegnare casualmente i soggetti di gruppi sperimentali e di controllo, inferenza casuale non certa. Per
verificare gli effetti di variabili di questo tipo costruiamo gruppi per il confronto sulla base del livello della
variabile posseduta (es depresso/non depresso).
Gruppo di soggetti: simile ma con assenza della variabile da studiare (es:non depresso).
Quindi il quasi esperimento si utilizza quando c’è un’ipotesi da verificare, la possibilità di manipolare la
variabile indipendente non è completa, vi è la possibilità di confrontare due o più condizioni sperimentali
ma le inferenze basate sui dati di un quasi esperimento non sono del tutto affidabili, poiché non possiamo
attribuire casualmente i soggetti alle condizioni. I quasi esperimenti sono empre condotti in un contesto
naturale o sul campo.
Metodo correlazionale
Descrive il rapporto tra due variabili in termini associativi. Non consente di ricavare conclusioni circa la
relazione causa-effetto tra le variabili. Da informazioni sul grado di associazione tra variabili.
Negli studi correlazionali non esaminiamo relazioni di causa-effetto tra le variabili, ma analizziamo
semplicemente le associazioni tra variabili:
Il metodo correlazionale in sintesi serve ad indagare la misura in cui due determinati eventi sono in
relazione tra loro.
La correlazione non implica casualità: l’associazione tra due variabili potrebbe essere dovuta ad una
relazione di causa-effetto tra le due, ma potrebbe anche esistere una terza variabile sottoistante, che
determina la correlazione. “A causa B”, oppure “B causa A”, oppure “C causa A-B”. Lo studio correlazionale
non consente di dipanare la questione del rapporto casuale.
La psicologia scientifica viene fatta risalire agli studi di Wundt a Lipsia con l’istituzione del primo laboratorio
di psicologia sperimentale nel 1879. Nel suo laboratorio Wundt cercava di capire i processi che guidano la
mente nell’elaborazione delle sensazioni provenienti dal corpo.
L’oggetto di studio della psicologia è l’esperienza diretta, o immediata, per rilevarla il metodo è
l’introspezione, richiede:
1 controllo accurato dello stimolo che produce l’evento mentale oggetto d’osservazione
Lo strutturalismo
Titchener riteneva che lo scopo principale della psicologia sperimentale fosse quello di analizzare la
struttura della mente (intesa come somma di molteplici elementi coscienti semplici) attraverso l’analisi
della coscienza.
Il metodo degli strutturalisti prevedeva l’esposizione di uno stimolo e la successiva analisi dell’esperienza
cosciente suscitata dallo stimolo stesso (scindendo gli aspetti socio-culturali) in modo da individuare le
componenti semplici e irriducibili, attraverso un metodo analitico.
Esempio= L’esperienza cosciente di una mela può essere ricondotta ad alcune componenti irriducibili:
colore, rotondità, peso.
L’analisi del contenuto di coscienza era basato sull’introspezione e aveva come obiettivo l’individuazione
delle sensazioni semplici che si combinavano nel formare l’esperienza complessa legata allo stimolo.
L’idea di fondo degli strutturalisti era che la mente contiene un certo numero di sensazioni elementari che
in una sorta di “chimica mentale” vengono ricombinate tra loro dando origine alle esperienze complesse.
Il funzionalismo
Si contrapponeva allo strutturalismo, il capostipite può essere considerato William James (1842- 1910).
Secondo James non ha senso studiare la coscienza. I processi mentali sono così come sono in quanto
rispondono alle leggi dell’evoluzione dell’adattamento dell’ambiente. Per questo vanno studiate in
rapporto alla loro funzione e finalità e non spezzettate in tanti elementi privi di significato.
Sulla scia delle scoperte darwiniane, i funzionalisti hanno dato vita a delle importanti riflessioni sulla
condizione umana e hanno portato alla nascita della psicologia evolutiva e la psicologia animale.
-La psicologia evolutiva permette di studiare l’evoluzione dell’uomo da un punto di vista ontogenetico (Hall,
Badwin)
-La psicologia animale, invece, ha permesso di studiare l’evoluzione dell’uomo da un punto di vista
filogenetico.
La psicanalisi
Negli stessi anni Freud (1856-1939) elabora la teoria psicoanalitica, introducendo un elemento
rivoluzionario nello studio della psiche umana. Il concetto di inconscio e l’idea che la maggior parte dei
nostri comportamenti, sentimenti, stati d’animo e pensieri dovuti a fattori di cui non siamo direttamente
consapevoli.
-Prima teoria dell’apparato psichico (prima topica mentale): 1 CONSCIO, 2 PRECONSCIO (parte accessibile
alla coscienza, ma spesso “camuffato” –es sogni, lapsus,ecc), 3 INCONSCIO (nella prospettiva psicoanalitica
il vero motore della psiche)
Contenuti inaccettabili o dannosi per la coscienza vengono rimossi e spesso trasformati (es. meccanismi di
difesa Anna Freud) e sono alla base della formazione dei sintomi.
Sebbene alcune idee freudiane siano state accettate dalla comunità scientifica, i metodi d’indagine non
sono considerati oggettivi e scientifici.
L’eredità freudiana è stata raccolta dalla psicologia dinamica il cui fuoco sono i processi inconsci,
motivazionali, e i conflitti psichici.
Psicologia della Gestalt
Gli psicologi tedeschi Max Wertheiner, Kurt Koffka e Wolfgang Kohler sono stati certamente i promotori e
teorici scientifici di questa corrente psicologica. I loro studi, intrapresi all’inizio del XX secolo, si basavano
sul principio secondo cui: “ il tutto è qualcosa in più della somma delle sue partii” e la parola Gestalt
significa proprio “forma, modello o insieme”. Tale principio si contrappone al modello strutturalista che
analizza gli eventi psicologici in frammenti separati, o “elementi”.
La Gestalt contribuì a sviluppare indagini o modelli teorici sul pensiero, la memoria, l’apprendimento e la
percezione come unità globali non dividendo le esperienze nei suoi costituenti principali.
Esempio= se suoniamo una melodia con un violino o con un flauto riusciamo comunque a riconoscerla in
quanto per quanto producano suoni diversi gli strumenti la relazione tra le note resta la stessa. Ma se noi
suonassimo una nota ogni ora sarebbe impossibile riconoscere la melodia, perché per la nostra percezione
la melodia è qualcosa di più delle semplici note.
Es. von Ehrenfels, a cui si deve l’espressione “qualità gestaltica”, afferma che una melodia è una gestalt in
quanto si mantiene tale anche al variare della tonalità delle note. La melodia dipende nel complesso dai
rapporti tra le note e non dalla semplice somma delle note stesse.
Le unità psicologiche complesse vengono definite gestalt, ed indicano una configurazione articolata,
unitaria e organizzata, che è qualcosa di più e di diverso dalla somma delle sue costituenti elementari. Il
tutto è più della somma delle sue parti. I gestaltisti hanno analizzato le regole alla base della percezione
umana e hanno evidenziato l’esistenza dei fattori innati nel processo percettivo.
1 Legge della pregnanza o della buona forma, dove per buona forma si intende una serie di caratteristiche
che rendono la forma particolarmente armonica, simmetrica e semplice (es. un cerchio è più pregnante di
un ovale,; un triangolo equilatero è più pregnante di uno scaleno). La legge afferma che gli elementi del
campo percettivo tendono a costituire Gestalt quanto più pregnanti possibile.
2 Legge dell’esperienza passata. I gestaltisti ritengono che il nostro sistema nervoso sia predisposto per la
percezione della buona forma. Di conseguenza, l’esperienza passata non può modificare le leggi
dell’organizzazione strutturale, sebbene possa imporre dei vincoli all’affermazione di certe organizzazioni
piuttosto che altre.
Il comportamentismo
Nasce negli Stati Uniti ad opera di Watson in contrapposizione con l’introspezionismo e alla psicologia
intesa come studio della “mente”.
Watson nota come la mente non sia qualcosa di osservabile per cui il suo studio è privo di interesse per la
psicologia scientifica. Compito della psicologia sarà, dunque, quello di scoprire le leggi che determinano il
comportamento.
Watson sostiene nel suo articolo “La psicologia dal punto di vista comportamentista”. La psicologia per
diventare scientifica deve dedicarsi allo studio di fenomeni direttamente osservabili, cioè i comportamenti.
In questo modo, la psicologia diventa scienza dello studio del comportamento e si prefigge lo scopo di
prevedere e controllare il comportamento stesso.
Per i comportamentisti, l’organismo è una scatola nera al cui interno lo psicologo non può entrare. Sulla
scatola impattano stimoli ambientali in base ai quali l’organismo emette specifiche risposte.
Lo psicologo deve studiare semplicemente le S-R (stimolo-risposta), cioè deve valutare come le risposte del
soggetto variano in rapporto agli stimoli ambientali.
Watson: “Affidatemi una decina di bambini piccoli in buona salute e di una sana costituzione, permettetemi
di educarli in un ambiente realizzato come intendo io, e vi garantisco che, prendendo a caso uno qualsiasi di
loro, ne farò uno specialista di qualunque genere, a scelta: medico, avvocato, artista, commerciante,
dirigente, persino mendicante o ladro, e questo a prescindere dalle sue origini etniche”.
Neocomportamentismo
Verso gli anni 30 si fa strada quello che viene definito il neocomportamentismo, Tolman introduce un
nuovo concetto rispetto al riduzionismo watsoniano.
Tolman prende come esempio un topo di laboratorio che posto all’interno di un labirinto impara ad
associare una serie di stimoli e risposte e apprende la strada per uscire dal labirinto stesso. Tolman afferma
che secondo le ipotesi di Watson, se non introducessimo dell’acqua nel labirinto, dal momento che i
movimenti per nuotare sono diversi da quelli per correre, il procedimento dovrebbe ricominciare da zero,
mentre evidentemente non è così: il topo nuota subito verso l’uscita. Tolman ritiene che il topo abbia
costituito una rappresentazione mentale della forma del labirinto, cioè una mappa cognitiva
(evidentemente non osservabile).
Tolman comunque non vuole tornare alla psicologia dei contenuti di coscienza: ritiene che la mappa
cognitiva così come le altre variabili, quali le intenzioni, siano da considerarsi come variabili intervenienti.
Una variabile interveniente è un costrutto ipotetico e, quindi, non è né reale né misurabile, ma comunque è
in grado di alterare la relazione Stimolo e Risposta.
Il cognitivismo
Verso gli anni 50 cominciarono a nascere alcuni dubbi sul riduzionismo del comportamentismo. Le critiche
nacquero all’interno del movimento da studiosi comportamentisti quali Miller e Broadbent e si estesero a
vari campi non strettamente psicologici. Questo avvenne perché le spiegazioni fornite dal
comportamentismo rispetto ad alcuni problemi centrali della psicologia (come lo sviluppo linguistico) non
trovavano un’adeguata collocazione in questa impostazione teorica.
La maggior parte dei processi psicologici risultano complessi e articolati e non riducibili a semplici catene
associative di stimoli e risposte. I modelli S-R non erano soddisfacenti e si faceva sempre più forte l’idea che
lo stimolo viene in qualche modo trasformato e rielaborato prima di produrre una risposta
comportamentale. La mente divenne nuovamente centrale e si svilupparono i cosiddetti modelli S-O-R
(dove o sta per organismo). I processi interni dell’organismo non possono essere negati, certo non sono
direttamente osservabili, ma sono inferibili e per questo possono essere oggetto di studio della psicologia.
Negli anni 50 si svilupparono tutta una serie di studi sui processi cognitivi quali memoria (Miller e il magico
numero 7; Sperling e la memoria iconica) e l’attenzione (Broadbent e la teoria del filtro). Un punto fermo
importante è la diffusione della teoria di Chomsky sullo sviluppo linguistico che mostra l’ineguatezza della
prospettiva comportamentista. Inoltre cominciò a svilupparsi l’interesse per le macchine e l’analogia uomo-
macchina.
Nel 1960 esce il libro “Piani e strutture del comportamento” di Miller Galanter e Pribram. Miller Galanter e
Pribram ritengono che l’azione umana sia costituita da comportamenti orientati ad uno scopo e altamente
strutturati non riconducibili a semplici associazioni S-R. ogni azione è diretta ad uno scopo e per
raggiungere tale scopo l’individuo prepara dei piani d’azione. Il comportamento può essere organizzato
gerarchicamente e i processi che regolano comportamenti dall’alto vengono definiti piani. Gli autori
descrivono la struttura dei piani attraverso una unità di monitoraggio che viene definita TOTE (Test;
Operate; Test; Exit).
TOTE = Ho lo scopo di appendere un chiodo alla parete. 1 valuto la congruenza tra il mio scopo e la realtà
esterna: valuto se c’è già il chiodo sul muro (Test) 2 se non c’è passo alla fase operativa: pianto il chiodo nel
muro (Operate) 3 controllo se il chiodo è piantato bene e nella corretta posizione (Test) 4 se è così, posso
uscire dal piano di azione (Exit).
La proposta di Miller, Galanter e Pribram è stata accolta con molto entusiasmo nell’ambiente psicologico
del tempo e ha dato una spinta ai tentativi di costruire dei programmi per calcolatori in grado di simulare le
operazioni eseguite da uomini. Un programma per calcolatore è realmente in grado di simulare il
comportamento umano solo se si supera il test di Turing: cioè se una persona esterna non è in grado di
distinguere la risposta data dal calcolatore da quella data da un uomo alla stessa domanda.
Nel 1967 Neisser formalizzerà i principi del nuovo modello psicologico e darà vita al paradigma dello Human
Information Processing (HIP).
L’uomo come elaboratore di informazioni. La psicologia cognitiva non si occupa più solo di comportamenti
e neppure di contenuti o vissuti, ma di processi mentali.
Il modello ecologico
All’interno del movimento cognitivista cominciano a sorgere alcuni dubbi sull’utilità dell’analogia uomo-
computer e sulla visione dell’uomo come semplice elaboratore di informazioni. Lo stesso Neisser,
influenzato dalle teorie di Gibson, in “Cognition and Really” (1976) muove tre critiche fondamentali:
1 il cognitivismo si sta chiudendo in laboratorio ignorando ciò che succede nel mondo reale, nella vita
quotidiana;
2 le attuali ricerche sono molto sofisticate ed eleganti, ma ci si chiede quale sia la loro utilità
3 le informazioni che l’individuo elabora vanno viste nell’ambiente, perché è lì che sono ed è l’ambiente che
le offre; l’individuo possiede degli schemi che gli permettono di coglierle e utilizzarle
Ulteriori sviluppi
Il modello socio-cognitivo: tale modello considera la rilevanza non solo degli aspetti cognitivi ma anche dei
fattori sociali e culturali della strutturazione del comportamento.
La percezione
La sensazione è l’informazione base, immediata e semplice che corrisponde a una data intensità dello
stimolo fisico. Implica un cambiamento a livello neuronale a seguito del fatto che i nostri organi sensoriali
sono entrati in contatto con specifici stimoli ambientali.
La percezione è l’organizzazione e integrazione dei segnali provenienti dagli organi recettori che porta ad
un’esperienza complessa a livello cognitivo. Tiene conto anche della conoscenza pregressa del mondo per
formare una rappresentazione interna di uno stimolo esterno. Implica l’interpretazione e l’attribuzione di
senso ai dati provenienti dagli organi sensoriali.
Principali teorie sulla percezione
2 le informazioni sensoriali che arrivano al cervello, il modo in cui il nostro sistema organizza e dà forma agli
stimoli
La percezione ha rappresentato un tema centrale negli studi psicologici fin dallo sviluppo della psicologia
sperimentale. Una questione chiave è stata la disputa tra innato e acquisito della percezione.
Empiristi e Innatisti
La disputa tra innatismo e empirismo nello studio delle determinanti dell’esperienza ha un’origine antica e
può esser fatto risalire addirittura alla filosofia greca e ai diversi approcci allo studio della conoscenza di
Platone e Aristotele, per poi continuare fino alla diatriba tra razionalisti e empiristi. Per molti anni le due
posizioni hanno avuto un carattere rigido portando ad estremismi che sono stati in gran parte superati dalle
concezioni attuali.
3 inizialmente il bambino è immerso in uno stato di confusione percettiva che solo con l’esperienza si
specifica assumendo le caratteristiche che conosciamo nell’adulto?
Secondo gli empiristi ogni processo percettivo è frutto di un apprendimento, cioè dell’esperienza passata
che è in grado di influenzare la percezione attuale. La posizione innatista, invece, ritiene che gli stessi
fenomeni possano essere spiegati sulla base di leggi innate che guidano e organizzano i processi percettivi.
Empirismo: Helmoltz
Si parte dal presupposto che le ripetute esperienze con l’ambiente influiscano sulla percezione degli
oggetti, a causa dell’apprendimento precedente di specifiche associazioni tra le sensazioni elementari.
Secondo questa impostazione le percezioni sono costruite combinando insieme le sensazioni più
elementari. I nostri organi di senso inviano sensazioni semplici al cervello che su queste opera delle
interferenze dando vita alle percezioni. Il meccanismo è talmente accurato e automatico che non ci
rendiamo conto del processo inferenziale, per questo Helmoltz ha definito tali inferenze inconsce.
Hebb
Secondo Hebb, l’accumularsi di esperienze percettive determina delle modificazioni successive nl tessuto
nervoso, creando connessioni nuove e via, via più stabili tra i neuroni. Il bambino alla nascita sarebbe in
grado di effettuare solo discriminazioni grossolane che tendono a specificarsi e specializzarsi con il ripetersi
delle esperienze.
La Gestalt si oppone all’empirismo e sostiene che la percezione è un processo primario e immediato, nel
quale non è necessario ricorrere a sensazioni semplici. I processi percettivi siano guidati da principi innati
che danno un senso alla percezione del mondo fenomenico, con un ruolo molto secondario dell’esperienza.
L’esperienza non può influire sull’organizzazione percettiva, può imporre dei vincoli che fanno emergere
alcune organizzazioni invece che altre.
La tesi innatista è in parte confermata da alcuni studi in ambito neurofisiologico. Una serie di ricerche
effettuate con ciechi dalla nascita che, in seguito ad un’esperienza riacquistano la vista, confermano il
carattere innato del principio figura-sfondo, ma portano a risultati non univochi in rapporto al principio di
costanza percettiva.
Innato e Acquisito
È probabile che la relazione tra innato e acquisito sia molto più articolata di quanto non si credesse in
realtà. Studi in ambito neurofisiologico, hanno portato a evidenziare la presenza di cellule neuronali
specializzate per la ricezione di alcuni aspetti percettivi specifici (cellule sensibili ai contorni retti, altre
sensibili ai contorni curvi, ecc), ciò indicherebbe una base innata dei principi di organizzazione percettiva.
-Altri studi (Hubel e Wiesel), effettuati su animali in varie condizioni di deprivazione, hanno evidenziato che:
se è vero che il sistema percettivo ha una base innata, è anche vero che la mancanza di interazione con
l’ambiente in un periodo critico (che dipende da specie a specie) porta ad una perdita funzionale
irreparabile.
La percezione è un processo attivo e costruttivo nel quale il soggetto interviene pesantemente con le sue
aspettative, conoscenze, stati motivazionali, ecc…
In tal senso, il processo percettivo dipende dall’interazione tra le caratteristiche dello stimolo esterno e
delle caratteristiche del soggetto che percepisce. Le informazioni provenienti dai sensi sono frammentarie e
prive di coerenza, sarà il soggetto percepiente a dare senso e coerenza agli stimoli, attraverso un processo
inferenziale che scaturisce dalle aspettative e conoscenze del percepiente stesso.
Altra questione cardine nello studio della percezione riguarda il problema della prevalenza di processi
dall’alto verso il basso (top down) e dal basso verso l’alto (bottom up) nella percezione dell’ambiente.
I processi dall’alto verso il basso (top-down) ricercano ed estraggono attivamente le informazioni sensoriali
e sono guidati dalle conoscenze, dalle credenze, dalle aspettative e dagli obiettivi.
I processi dal basso verso l’alto (bottom-up) sono guidati dalle informazioni sensoriali provenienti dal
mondo fisico.
La seconda prospettiva ipotizza che la percezione sia guidata dai dati ambientali, la prima ipotizza che sia
guidata dalla conoscenza (e dalle aspettative del soggetto). Entrambi i processi hanno un ruolo nella
percezione. È stato notato che in condizioni ottimali i processi bottom-up tendono a prevalere su quelli top-
down, mentre in condizioni di ambiguità dello stimolo o presentazione veloce dello stesso, prevalgono
processi inferenziali del tipo top-down.
Organizzazione percettiva
Principi gestaltici di raggruppamento: Tali principi si riferiscono alla tendenza, apparentemente universale,
a organizzare in gruppi insiemi di stimoli isolati sulla base della loro vicinanza, similarità, tendenza a
formare figure chiuse (chiusura), continuità, simmetria.
Vicinanza
Tendiamo a vedere gli elementi di uno stimolo fisicamente vicini come parti dello stesso oggetto, e gli
elementi distanti come parti di oggetti diversi.
Similarità: tendiamo a vedere gli elementi di uno stimolo fisicamente simili come parti dello stesso oggetto,
e gli oggetti dissimili come parti di oggetti diversi.
Chiusura: tendiamo a vedere le forme come delimitate da un contorno chiuso e a ignorare le eventuali
interruzioni di tale continuità.
Continuità: quando varie linee si intersecano, tendiamo a riunire i segmenti in modo da formare linee il più
possibile continue, col minimo cambiamento di direzione.
Buona forma
Il nostro sistema percettivo cerca di produrr percezioni il più possibile eleganti: semplici, ordinate,
simmetriche, regolari e prevedibili.
Organizzazione percettiva
Organizzazione figura-sfondo: per comprendere questo principio, pensate alla lettura di un libro, in genere
individuate le parole che costituiscono delle figure nere che si stagliano sullo sfondo bianco. La tendenza a
far emergere delle figure (in genere scure) su uno sfondo più chiaro è molto forte.
Si tratta di figure in grado di dar vita a due organizzazioni che producono percezioni stabili. È impossibile
avere simultaneamente, esperienze di entrambe: per avere l’altra percezione occorre rovesciare
l’organizzazione. Normalmente, comunque, non percepiamo stimoli isolati, bensì stimoli immersi in un
ambiente, e , in genere, proprio il contesto ambientale ci fornisce delle indicazioni su come risolvere
l’ambiguità degli stimoli.
Indici monoculari.
Sono legati alla messa a fuoco o accomodazione; infatti gli oggetti posti a distanza diversa hanno una
diversa nitidezza. Altri indici monoculari sono l’interposizione, l’elevazione, l’ombreggiatura, la prospettiva
lineare, il gradiente tissurale (la densità della trama aumenta quanto più la superficie si allontana). La
nostra tendenza a utilizzare questi indici di profondità monoculari è talmente forte da produrre effetti
illusori.
Indici binoculari
Le due immagini monoculari provenienti dagli occhi non sono perfettamente identiche (disparità
binoculare o retinica), ma in genere vengono automaticamente combinate e fuse in singola visione (visione
ciclopica o stereoscopica), attraverso un processo chiamato fusione binoculare. La convergenza, cioè la
rotazione degli occhi verso l’interno per la messa a fuoco di oggetti vicini, è un altro indizio binoculare di
profondità. Noi non siamo consapevoli della disparità binoculare perché in genere tendiamo a focalizzare
la nostra attenzione su una particolare immagine; così facendo ruotiamo gli occhi in modo da limitare al
massimo la disparità relativa al dettaglio e, in questo modo, l’immagine si fonde.
La disparità binoculare costituisce un buon indice di profondità, in quanto permette di stabilire la distanza
(o vicinanza) degli oggetti rispetto all’oggetto fissato. Infatti, gli oggetti posti a distanze diverse presentano
una differente nitidezza.
Allo stesso modo la convergenza è un indizio di profondità in quanto oggetti posti a distanza diversa
richiedono una diversa rotazione degli occhi per la messa a fuoco. Quando un oggetto è più vicino di quello
fissato, proietta la sua immagine nell’emiretina nasale di ogni occhio. Gli indici binoculari sono i principali
responsabili della visione stereoscopica che permette di cogliere la profondità e tridimensionalità degli
oggetti.
La stereopsi comincia a svilupparsi già due settimane dopo la nascita e si completa attorno al 6° mese di vita
grazie all’interazione con l’ambiente. Esperimenti condotti con il paradigma del precipizio visivo: i piccoli si
rifiutano di attraversare il precipizio visivo anche se incitati a farlo dalla madre.
Le costanze percettive
Nonostante gli oggetti proiettino sulla nostra retina immagini diverse a seconda della distanza e della
posizione che occupano, noi siamo in grado di riconoscerli come invarianti, cioè come gli stessi oggetti con
le stesse caratteristiche. Ciò avviene perché ci basiamo su una serie di indici che individuiamo nell’ambiente
e sull’esperienza passata.
L’immagine che un oggetto proietta sulla retina è inversamente proporzionale alla sua distanza
dall’osservatore. Più è lontano un oggetto e più piccola sarà l’immagine proiettata sulla retina. Quindi un
oggetto che si allontana da noi, proietta sulla retina immagini via, via più piccole, ma noi non abbiamo
l’impressione che l’oggetto si rimpicciolisca. Abbiamo, invece, la percezione che l’oggetto mantenga le sue
dimensioni, e si allontani da noi. Secondo alcuni questo avviene perché il nostro sistema percettivo effettua
una compensazione dell’immagine retinica attraverso gli indici di distanza. Tale concezione è in linea con
l’idea delle inferenze inconsce elaborato di Helmoltz. Noi sappiamo che due oggetti che proiettano la stessa
immagine sulla retina, se sembrano posti a distanze differenti, verranno giudicati diversamente. Infatti,
quello che sembra più lontano verrà percepito come più grande.
La costanza della grandezza sarebbe questa tendenza a compensare 6 variazioni dell’immagine retinica
sulla base delle variazioni di distanza. Altri ritengono che non sia necessario far riferimento a questo
processo di compensazione; infatti, l’oggetto o l’ambiente circostante, al variare della distanza dell’oggetto,
variano in sintonia, ma le proporzioni restano costanti. Quando un oggetto si allontana da noi, le
proporzioni di grandezza tra quell’oggetto e gli altri oggetti presenti nell’ambiente restano uguali. In
particolare la teoria della percezione diretta di Gibson si colloca su questa linea interpretativa. Secondo
Gibson, il nostro sistema percettivo non si basa sulla grandezza della rappresentazione retinica degli oggetti
(che varia al variare della distanza), ma piuttosto sulle proporzioni esistenti tra lo stimolo e l’ambiente
circostante.
La costanza della forma è la tendenza ad attribuire agli oggetti la stessa forma nonostante il variare delle
forme che si proiettano sulla retina, es. porta aperta, chiusa, socchiusa.
Si riferisce al fatto che, a seconda dell’illuminazione presente in un ambiente, la luce riflessa nei nostri occhi
degli oggetti vari notevolmente, ma noi continuiamo a vedere gli oggetti della stesso colore. Questo tipo di
costanza sembra molto influenzata dall’apprendimento precedente e dalle aspettative (es. frutta e fogli di
carta illuminati da luci colorate).
Attenzione
L’attenzione è l’insieme dei dispositivi e meccanismi che consentono di concentrare e focalizzare le proprie
risorse mentali su alcune informazioni, definendo ciò di cui siamo consapevoli in un dato momento.
Potremo dire che noi stessi scegliamo su cosa focalizzare la nostra attenzione (attenzione volontaria);
spesso la nostra attenzione viene catturata involontariamente (es. stimoli nuovi, complessi, incongruenti).
Oltre alla distinzione tra attenzione volontaria e involontaria, spesso si distingue tra:
Attenzione Selettiva
Nello studio dell’attenzione si è cercato di capire come si collocasse l’attenzione stessa nell’ambito del
processo di elaborazione degli stimoli. La percezione di uno stimolo è un passaggio indispensabile per la
successiva elaborazione dello stimolo stesso, se non percepiamo uno stimolo non possiamo elaborarlo. Ma
la percezione dello stimolo è legata all’attenzione. Il nostro sistema cognitivo è costantemente bombardata
da stimoli sensoriali e non è in grado di elaborare contemporaneamente tutte le informazioni che riceve,
per questo si è specializzata una tendenza alla selezione delle informazioni che di volta in volta risultano
maggiormente pregnanti per il sistema stesso.
L’attenzione selettiva è stata studiata in rapporto al fenomeno del cocktail party. Colin Cherry (1953) era
interessato a capire come le persone siano in grado di seguire una conversazione, mentre molte altre
parlano contemporaneamente. Cherry scoprì che questa capacità si basa sull’identificazione di differenze
fisiche dei messaggi uditivi (sesso, intensità della voce, localizzazione del parlante). L’individuazione di
queste differenze permette di isolare la conversazione che interessa.
Il paradigma è il seguente: Al soggetto vengono trasmessi in cuffia due messaggi verbali differenti, uno
all’orecchio destro e uno all’orecchio sinistro. Nelle diverse condizioni sperimentali viene chiesto di
ascoltare o solo uno dei due messaggi o entrambi, o di passare dall’uno all’altro. Quando Cherry faceva
sentire contemporaneamente due messaggi pronunciati dalla stessa voce, i soggetti si trovavano
maggiormente in difficoltà.
Il filtro attentivo
Per spiegare i risultati dell’ascolto dicotico, Broadbent ha proposto una teoria basata su un ipotetico filtro.
Egli sostiene che non possiamo prestare attenzione a più di una cosa per volta, per cui, in un paradigma con
ascolto dicotico, se al soggetto viene detto di ascoltare entrambi i messaggi tenderà a spostare l’attenzione
da uno all’altro (attenzione selettiva).
Broadbent ipotizza una sorta di filtro attentivo che spiegherebbe il fenomeno della selezione delle
informazioni.
2 Sulla base delle caratteristiche fisiche, uno dei due messaggi viene fatto passare attraverso un filtro, l’altro
rimane in stand by per breve tempo e potrà essere elaborato successivamente (ma in un modo superficiale
a causa di limiti strutturali del sistema)
Il filtro attenuato
L’elaborazione pre-attiva.
Secondo Treisman, prima di poter prestare attenzione agli oggetti dell’ambiente il nostro sistema cognitivo
ne estrae le caratteristiche principali, individuando i cosiddetti effetti emergenti, cioè caratteristiche
distintive rispetto al contesto (es. diverso orientamento).
L’elaborazione preattiva opera in modo automatico senza che ne siamo consapevoli. I processi pre-attentivi
estraggono caratteristiche come forma, colore, profondità e movimento, con particolare riferimento
all’orientamento delle linee.
Rovee-Colier e collaboratori (1992) hanno dimostrato che la capacità di individuare effetti emergenti è
presente già in bambini molto piccoli (3 mesi). I bambini addestrati a muovere un mobile costituito da
blocchi in cui è rappresentato un L.
Successivamente viene mostrata una configurazione costituita da blocchi che mostrano tutte L tranne uno,
in cui c’è un X. In questa situazione l’attenzione del bambino è catturata dall’elemento emergente X e, di
conseguenza, il bambino non cerca di muovere il mobile. Quando, invece, al bambino si mostra una
configurazione costituita da tutti X tranne una L, il bambino cerca di muovere il mobile. In questo caso è la L
ad emergere dalla configurazione e a catturare l’attenzione del bambino.
Attenzione divisa.
Altri studiosi si sono occupati delle capacità attentive in riferimento allo svolgimento di più compiti
contemporaneamente (Spelke, Hirst e Neisser, 1976; Hirst et al. 1980). Negli esperimenti di Hirst (1976)
alcuni soggetti venivano addestrati a svolgere contemporaneamente due compiti: legger un brano e
scrivere parole che venivano loro dettate. Gli studi di Hirst sembrano indicare che: è possibile dividere
l’attenzione quando si svolgono compiti che insistono su abilità cognitive differenti. La capacità di dividere
l’attenzione viene facilitata dalla pratica di due compiti. Negli esperimenti di Hirst, i soggetti all’inizio
avevano prestazioni piuttosto modeste, mentre dopo sei settimane le prestazioni erano notevolmente
migliorate.
L’effetto Stroop prende il nome dal suo scopritore. Stroop attraverso un tachiscopio elaborò la seguente
situazione sperimentale: sul tachiscopio venivano proiettati dei nomi di colore scritti in un inchiostro
diverso rispetto al nome , ai soggetti veniva chiesto alternativamente di dire il colore della scritta o di
leggere il nome del colore. Stroop ha notato che il primo compito (di che colore è la scritta) era più difficile
del secondo (leggere la scritta) e richiedeva uno sforzo attentivo maggiore: i tempi di reazione dei soggetti
nella prima condizione sono risultati statisticamente più lunghi rispetto a quelli della seconda condizione.
Questo fenomeno viene spiegato col fatto che, per una persona che sa leggere, la tendenza a mettere in
atto questo comportamento è praticamente automatica e, di conseguenza, interferisce con il compito, in
quanto distrae il soggetto. La lettura può essere considerata come un compito sovra-appreso che si attiva
automaticamente e autonomamente. Si tratta quindi di un compito che può essere eseguito senza prestarvi
attenzione particolare.
Gli studiosi hanno distinto tra processi controllati e processi automatici. L’automaticità di un compito è
legata alla pratica. Un processo automatico deve possedere le seguenti caratteristiche:
Velocità;
Assenza di sforzo attentivo (nessun intralcio rispetto all’esecuzione di altri compiti);
Assenza di consapevolezza;
Inevitabilità (es. Effetto Stroop)
Le ricerche del settore hanno mostrato che i processi automatici sono molto più rapidi ed efficienti dei
processi controllati, infatti lavorano in parallelo e di conseguenza permettono l’esecuzione contemporanea
di più compiti. Ma presentano anche un forte limite dato dalla loro estrema rigidità. I processi automatici,
infatti, non si adattano al cambiare delle circostanze ambientali. Di contro, i processi controllati, sono lenti,
ma sono anche estremamente flessibili.
L’effetto Stroop è stato utilizzato da alcuni come prova del fatto che la selezione dell’informazione rilevante
da elaborare viene effettuata in fase tardiva e non precoce. Se l’attenzione focalizzata fosse precoce non si
spiegherebbe perché le due condizioni sperimentali portano a tempi di reazione differenti (il soggetto
dovrebbe essere in grado di ignorare le informazioni irrilevanti per la domanda che gli viene posta).
Apprendimento.
L’apprendimento può essere definito come una duratura modificazione del comportamento che nasce
dell’esperienza.
Aspetti cruciali:
Antecedenti: ciò che precede l’apprendimento è centrale nel condizionamento classico (stimolo
neutro, stimolo che attiva riflesso, risposta comportamentale).
Conseguenti: ciò che segue l’apprendimento è centrale nel condizionamento operante (stimolo,
risposta comportamentale, rinforzo).
Nel condizionamento classico, uno stimolo antecedente neutro, cioè che non produce una risposta, è
associato a uno stimolo che scatena una risposta (ad esempio un clacson è associato a un soffio d’aria
sull’orecchio). L’apprendimento si verifica quando anche lo stimolo neutro scatena la risposta.
Nel condizionamento operante, l’apprendimento è basato sulle conseguenze della risposta. La risposta
comportamentale può essere seguita da diversi eventi (rinforzo, punizione, nessun evento). A secondo del
tipo di evento che segue alla risposta comportamentale, dipende la probabilità che quella risposta
comportamentale si verifichi nuovamente.
Il condizionamento classico
Durante i suoi studi sul sistema digerente, Pavlov aveva notato che i cani, secondo un riflesso naturale,
avevano un aumento di salivazione appena gli si metteva del cibo nella bocca. Questo è un comportamento
del tutto automatico e geneticamente programmato.
Ma Pavlov notò che, dopo alcune settimane passate nel laboratorio, i cani cominciavano a salivare anche
solo al sentire il rumore della ciotola che veniva riempita di cibo o al vedere la persona che normalmente
dava loro da mangiare. Questo episodio gli diede spunto per una serie di studi sul condizionamento.
Pavlov chiamò:
Poi passò a far suonare una campanella prima della presentazione del cibo, e notò che, dopo alcune volte, il
cane cominciava a salivare al solo suono della campanella. Il suono della campanella viene definito stimolo
condizionato (SC) e la salivazione che adesso segue è la risposta condizionata (RC del tutto simile a quella
incondizionata).
S1: Stimolo condizionato (SC): es. suono della campanella, deve produrre una risposta di
orientamento, quando presentato la prima volta.
S2: Stimolo incondizionato (SI), biologicamente significativo (es. cibo)
Il processo di acquisizione del condizionamento è tanto più breve quqanto più lo stimolo condizionato e
quello incondizionato sono ravvicinati, ma non contemporanei (contiguità spazio-temporale tra SC e SI). Lo
stimolo condizionato deve precedere quello condizionato. Il suono della campanella, che inizialmente era
uno stimolo neutro, diventa uno stimolo condizionato. Infatti, si è stabilita una associazione traq il suono e
il cibo, per cui il suono diventa un segnale per la comparsa del cibo; e determina l’emissione di un
comportamento condizionato (salivazione), e quindi appreso, formalmente identico alla risposta riflessa
innata (solo lievemente meno intenso).
Estinzione
Recupero e Riacquisizione
In genere dopo una pausa, si ha un recupero spontaneo. Se, dopo che il comportamento è stato estinto, si
fa passare un po’ di tempo e poi si ripresenta all’animale lo stimolo condizionato, l’animale avrà una
risposta condizionata anche senza la presentazione di cibo. Infine, dopo l’estinzione il processo di
riacquisizione è più breve.
Generalizzazione
Pavlov ha notato che il cane tende a rispondere con la salivazione (RC – risposta condizionata) anche per
stimoli semplicemente simili allo stimolo condizionato. Parliamo di processo di generalizzazione es. un cane
che ha imparato a salivare con un suono si 1000Hz, successivamente avrà una risposta condizionata anche
con suoni simili (es.1100Hz).
Discriminazione
È possibile addestrare il cane a discriminare specifici stimoli. Es. dopo un addestramento classico veniva
associato a un tono di 1000Hz b(addestramento che prima prevedeva una certa generalizzazione anche per
toni simili). In seguito il cane veniva addestrato a salivare solo con toni da 1000Hz e non con toni di 900 o
1100Hz.
Inoltre, è possibile ottenere risposte condizionate associando lo stimolo condizionato ad un altro stimolo,
anche senza la presentazione di cibo. Es. associando la presentazione di una luce al suono di una
campanella (stm già condizionato), senza presentare poi il cibo. Tale processo è definito condizionamento
di ordine superiore, ma è valido per un numero limitato di stimoli, in quanto la non presentazione dello
stimolo incondizionato, per diverse volte, porta all’estinzione del comportamento.
Sono stati fatti anche diversi studi in cui si associa uno stimolo avversivo (es. scossa elettrice) ad uno
stimolo neutro (es. luce). In questo caso, la presentazione dello stimolo neutro porterà immediatamente
alla risposta evocata dalla scossa (risposta specie-specifica). Si è visto che, in questo caso, basta anche una
sola associazione per dare origine ad un forte condizionamento, resistente all’estinzione.
Condizionamento è alla base di molte nostre passioni, avversioni e paure. Anche risposte emotive
complesse, o “viscerali”, possono essere associate a nuovi stimoli. Es. dolore durante la prima visita del
dentista, scatena ansia e paura nelle visite successive (es. aumento battito cardiaco, sudorazione,ecc).
Fobie vengono apprese attraverso meccanismi legati al condizionamento classico. Amigdala, porzione
sistema limbico – area subcorticale, è particolarmente attiva durante la risposta emotiva condizionata
( pertanto non direttamente controllabile con l’acquisizione di semplici informazioni). Possono essere
superate attraverso la desensibilizzazione sistematica (= esposizione graduale agli stimoli tenuti mentre la
persona è calma e rilassata).
Condizionamento vicario
Si verifica quando una persona impara a rispondere ad uno stimolo neutro osservando le reazioni emotive
di un’altra persona (es. paura serpente).
Condizionamento operante.
I comportamenti operanti aumentano o diminuiscono in funzione dal rinforzo che viene dato loro. Tali
comportamenti non sono automatici, ma sono posti sotto il controllo del soggetto e modificano l’ambiente.
Il rinforzo
Skinner definisce il rinforzo come qualunque processo in grado di far aumentare la probabilità di emissione
di un comportamento:
Rinforzo positivo, ogni sorta di ricompensa che viene data all’animale quando emette il
comportamento bersaglio.
Rinforzo negativo, consiste nella cessazione di uno stimolo avversivo ogni volta che l’animale mette
in atto il comportamento bersaglio.
Importante non confondere rinforzo negativo con punizione. La punizione, infatti, dovrebbe servire a far
estinguere un comportamento, mentre il rinforzo negativo aumenta la probabilità di emissione del
comportamento.
Esempio di un rinforzo negativo: Un ratto posto dentro una gabbia è sottoposto ad un forte rumore
fastidioso e impara che se abbassa una leva il rumore cessa.
Esattamente come nella situazione classica, l’animale impara ad abbassare la leva, ma non a seguito di un
rinforzo positivo (es. cibo), bensì grazie ad un rinforzo negativo (cessazione del rumore).
Il rinforzo positivo è relativo ad un comportamento che produce uno stimolo appetitivo per il soggetto (il
ratto abbassa la sbarra e ottiene il cibo).
Il rinforzo negativo è relativo ad un comportamento che previene uno stimolo avverivo (il ratto abbassa la
sbarra e previene o interrompe una scarica elettrica).
Per rinforzo si intende il processo tramite il quale l’offerta di uno stimolo avversivo aumenta la probabilità
di un comportamento.
Per punizione si intende il processo tramite il quale la somministrazione di uno stimolo avversivo o
l’eliminazione di uno stimolo appetitivo riduce la probabilità di un comportamento.
Contingenza
Anche per l’acquisizione del condizionamento operante i tempi sono importanti, infatti, è necessario che
dopo l’emissione del comportamento da apprendere per aumentare la probabilità di acquisizione dello
stesso.
Il modellaggio.
Nei suoi studi Skinner lavorava, soprattutto, con dei topi posti all’interno di una gabbia, in cui
l’abbassamento di una leva forniva al topo una pallottolina di cibo. Prima che il ratto abbassasse la leva la
prima volta, poteva passare molto tempo (il ratto infatti esplorava l’ambiente), per questo Skinner adottò
una tecnica che viene definita modellaggio.
Modellaggio (shaping)
Si tratta di una tecnica che prevede delle approssimazioni successive. Consiste nel rinforzare soltanto le
variazioni di risposta che vanno nella direzione desiderata dallo sperimentatore. Inizialmente, Skinner
forniva un rinforzo positivo all’animale quando si avvicinava semplicemente alla zona della gabbia in cui era
presente la leva. Dopo che il comportamento era stato appreso, Skinner forniva il rinforzo positivo solo
quando l’animale toccava la parete in cui era presente la leva, e così via. In questo modo, i tempi per
l’apprendimento del comportamento target diminuivano notevolmente.
1 Piccione affamato
Procedere non troppo lentamente – per poter usufruire adeguatamente degli effetti positivi del
modellaggio.
Gabbia dove è presente un manipolandum, cioè un oggetto facilmente manipolabile dal soggetto: es. la
leva per i ratti, pulsanti per i piccioni – cioè strumenti adatti alle capacità dei soggetti coinvolti nello studio.
Le leggi a cui si arriva con lo studio, però, si generalizzano a tutti gli animali a prescindere dal tipo di
manipolandum utilizzato nello studio.
Es. topo affamato all’interno della gabbia dove è presente una leva – Misurazione pressione iniziale della
leva (dovuta ad un comportamento di esplorazione casuale) – Livello base di pressione – Dopo la pressione
iniziale, si fa cadere del cibo nella ciotola posta nella gabbia – Il livello di pressione aumenta con il rinforzo.
Tipi di rinforzo
I rinforzi possono essere primari e secondari: i rinforzi primari fanno riferimento a bisogni primari o
fisiologici (es. bere, mangiare); qualunque stimolo può diventare un rinforzo secondario (o rinforzo
condizionato) se costantemente abbinato ad un rinforzo primario (es. nell’uomo rinforzi sociali quali lodi,
sorrisi, o simbolici come il denaro).
Programmi di rinforzo
Skinner si rese conto che l’acquisizione di un comportamento bersaglio viene consolidata (e la sua
estinzione è più lenta), quando il rinforzo non è fornito sempre dopo l’emissione del comportamento
bersaglio. In fase di acquisizione del comportamento è più utile un rinforzo continuo, ma dopo
l’acquisizione basta anche un rinforzo “saltuario”, o parziale (intermittente).
1 a intervallo fisso: es. rinforzo fornito alla prima risposta utile dopo 20 secondi;
2 a intervallo variabile: es. rinforzo fornito alla prima risposta utile eseguita dopo una media di 20 secondi;
Quest’ultimo è lo schema più efficace: produce il tasso più elevato di risposte ed è più resistente
all’estinzione.
Nei programmi a rapporto la frequenza di emissione delle risposte è superiore a quella dei programmi ad
intervallo. L’elevata velocità di risposta porta ad un numero maggiore di rinforzi a breve tempo. Gli schemi
di tipo fisso portano ad un rallentamento nella emissione della risposta target subito dopo il ricevimento
del rinforzo. Gli schemi variabili producono comportamenti più resistenti all’estinzione. Es. le slot machine
sfruttano i principi del condizionamento operante: rinforzo positivo fornito con programma di tipo
variabile.
2 All’istruzione.
Parliamo di applicazione dell’analisi del comportamento. Usare opportunamente i rinforzi per modificare
comportamenti sgradevoli.
Training:
Rinforzare i comportamenti desiderati
Non-rinforzare i comportamenti indesiderati
Fase 2 . Training:
Nell’indagine in questione, in una fase successiva, si chiese alle insegnanti di tornare sui loro vecchi
comportamenti. L’effetto fu un riapprendi mento del pianto “operante”.
Token economy.
Per token economy si intende una sorta di economia simbolica. Con questo metodo, i soggetti (es. residenti
di un ospedale psichiatrico; carcerati; ma anche studenti) guadagnano dei buoni o dei gettoni (tokens)
mettendo in atto specifici comportamenti o non mettendo in atto altri comportamenti. Tali gettoni (che
fungono da rinforzi condizionati) possono essere scambiati con dei rinforzi primari.
Es. gli alunni di una classe possono ricevere dei buoni per ogni pagina di esercizio completata, e poi
raggiunto un certo numero di buono potranno scambiarli con un giocattolo.
Ricevere i buoni o gettoni (rinforzi condizionati) in mano aiuta i soggetti a colmare l’intervallo di tempo che
li separa dall’ottenimento del premio.
Skinner ideò le cosiddette macchine per insegnare (teaching machines). L’idea di partenza di Skinner era di
trattare l’apprendimento scolastico alla stregua di un qualunque altro tipo di comportamento.
- L’alunno deve passare da elementi che già conosce a elementi meno familiari.
Il tipo di programmazione pensato da Skinner era lineare con uno stesso percorso pensato per tutti gli
alunni. Con l’avvento dei computers, invece, si sono fatti strada i programmi di tipo ramificato, nei quali
sono le risposte date dagli allievi a determinare il tipo di materiale che verrà affrontato immediatamente
dopo (istruzione assistita da computer – IAC). L’istruzione assistita da computer è basata sulla
presentazione di piccoli pacchetti di informazioni che vengono utilizzate immediatamente, ricevendo un
feedback continuo sui propri risultati.
I serious games sono attività digitali interattive che, attraverso una simulazione virtuale, consentono ai
partecipanti di far esperienze precise e accurate, in grado di promuovere attraverso giochi percorsi attivi,
partecipanti e coinvolgenti di apprendimento nei vari domini dell’esistenza umana.
Di contro, non sempre le punizioni sono efficaci. La punizione positiva (es. schiaffo) può provocare paura
nei confronti di chi la ha somministrata (o del luogo dove si è verificata). Il rinforzo trasmette il messaggio:
“ripeti ciò che hai fatto”, il soggetto quindi ha un modulo da seguire. La punizione veicola il messaggio:
“smetti di fare così” ma non fornisce nessun modello alternativo – lascia il soggetto senza una indicazione
sul comportamento corretto o adeguato.
Contingenza
Contingenza positiva, significa che qualcosa viene dato: -Stimolo appetitivo fornito dal rinforzo positivo (es.
cibo); -Stimolo avversivo fornito dalla punizione positiva (es. scarica elettrica).
Contingenza negativa, significa che qualcosa viene tolto: -Stimolo avversivo tolto nel rinforzo negativo (es.
scarica elettrica); -Stimolo appetitivo tolto nella punizione negativa (es. cibo).
Tendenzialmente, la punizione negativa è preferibile rispetto a quella positiva. Inoltre è opportuno fornire
anche una indicazione sul comportamento adeguato.
Contingenza e punizione
Anche per l’estinzione del comportamento a seguito di punizioni, la contingenza è rilevante: infatti, è
necessario che la punizione sia fornita immediatamente dopo l’emissione del comportamento da eliminare.
L’apprendimento dell’evitamento ha molto a che fare con il comportamento di fuga. L’animale viene
addestrato a rispondere a uno stimolo presentato prima di uno stimolo negativo, e ad evitare, in questo
modo, lo stimolo negativo stesso.
Ad esempio, Salomon e colleghi hanno addestrato un gruppo di cani. Il cane veniva posto in una gabbia
divisa in due settori separativa una barriera. Il settore in cui si trovava il cane veniva illuminato, dopo
qualche secondo il pavimento di quel settore veniva elettrificato.
Modo per interrompere il legame tra un evento e la risposta di evitamento è associare esperienze positive
all’evento che scatena risposte di evitamento.
Seligman ha studiato la condizione in cui i cani non possono evitare la punizione. Ha usato due gruppi di
cani. In entrambi i gruppi, i cani erano legati dentro una gabbia e ricevevano uno stesso numero di scosse
elettriche. Un gruppo, però, aveva la possibilità di interrompere la scossa, premendo una leva con il muso
(gruppo con via di scampo).
Dopo l’addestramento, i cani venivano posti in una gabbia simile a quella di Salomon e sottoposti alla stessa
procedura. I cani del gruppo con via di scampo, imparavano rapidamente ad evitare le scosse saltando
dall’altra parte. Mentre gli altri si accasciavano senza fare alcun tentativo di fuga. Seligman ha chiamato
questo fenomeno impotenza appresa essa ha conseguenze molto negative per l’individuo (es. è implicata in
fenomeni quali l’abbandono scolastico).
Il comportamento parte dal presupposto che l’apprendimento possa verificarsi solo se il comportamento
target viene rinforzato adeguatamente. Gli studi di Tolman hanno, invece, mostrato come l’apprendimento
possa verificarsi anche in assenza di rinforzo o di una specifica motivazione ad apprendere (che porterebbe
all’apprendimento intenzionale).
Uno degli esperimenti più esaustivi di Tolman prevedeva un confronto tra due gruppi sperimentali e un
gruppo di controllo.
- I ratti esploravano l’ambiente fino ad arrivare in una stanza labirinto. Il primo gruppo sperimentale
riceveva del cibo tutte le volte che raggiungeva la stanza bersaglio. Il gruppo di controllo non
riceveva mai cibo quando raggiungeva la stanza bersaglio.
- Il secondo gruppo s0erimentale, nei primi 10 giorni dell’esperimento non veniva ricompensato,
mentre a partire dall’undicesimo giorno veniva ricompensato quando arrivava alla tanza bersaglio.
Tolman ha notato che le prestazioni di questo secondo gruppo sperimentale, nel giro di pochi giorni,
raggiunsero i livelli del primo gruppo sperimentale.
Ciò significa che nella prima fase dell’esperimento i ratti del secondo gruppo sperimentale avevano,
comunque, costruito una rappresentazione mentale del labirinto. Vi era stato, cioè, un apprendimento
latente non manifestato inizialmente nel comportamento (in quanto non necessario).
Il cognitivismo
Gli studi di Tolman hanno portato alla distinzione tra apprendimento e prestazione, e hanno aperto le
porte agli studi cognitivi sull’apprendimento.
Le prestazioni dell’animale, possono non modificarsi tanto da una prova all’altra, ma ciò non significa
che non ci sia stato apprendimento, semplicemente l’animale manifesta l’apprendimento quando ne ha
bisogno.
Gli psicologi della Gestalt intendevano che i lavori dei comportamentisti sugli animali fossero troppo
meccanici e che non dessero la possibilità agli animali di esprimere i reali processi di apprendimento
spontaneo.
Wertheimer criticava i metodi di studio della psicologia dell’epoca. Scomporre in parti la coscienza equivale
a distruggerne l’essenza. Wertheimer era interessato allo studio della coscienza e delle sue manifestazioni,
non la sua scomposizione.
Intuizione ed istruzione
Esempio: confronta apprendimento meccanico e intuitivo per il calcolo area del parallelogramma.
Kohler ideò alcune situazioni sperimentali in cui gli animali mostrarono dei comportamenti intuitivi e
creativi.
L’insight è un’intuizione sulla struttura del problema che porta ad una sua ristrutturazione per poi arrivare
alla soluzione. L’apprendimento per insight (intuizione improvvisa) è un apprendimento improvviso in cui il
campo percettivo del soggetto tende a riorganizzarsi e il soggetto “vede” soluzioni cui prima non aveva
pensato. Si tratta di un apprendimento particolarmente resistente all’oblio e facilmente generalizzabile.
Es. imparare operazioni chirurgiche per prove ed errori non sarebbe auspicabile.
Es. diverso comportamento alimentare dei bambini prescolari a casa e alla scuola materna.
Molti degli apprendimenti dei bambini piccoli avvengono soprattutto per osservazione degli adulti di
riferimento o dei pari. Quando gli adulti dicono ad un bambino di fare qualcosa, ma essi modellano una
risposta completamente diversa, i bambini tendono a riprodurre ciò che fanno i genitori e non ciò che i
genitori dicono.
Si usa il termine apprendimento per osservazione per indicare che l’individuo che osserva riproduce
specifiche azioni eseguite da un individuo osservato. Cognitivamente si tratta di un fenomeno complesso:
Gli studi più famosi e sistematici fanno riferimento al lavoro di Alfred Bandura. L’apprendimento per
osservazione permette di evitare la noiosa fase di apprendimento per prove ed errori. I modelli ci
consegnano le conseguenze dei comportamenti. L’apprendimento per osservazione non riguarda solo
azioni specifiche, ma anche stili di comportamento più generali. Posti in una situazione nuova, in genere,
prima di agire guardiamo cosa fanno gli altri e poi facciamo come fanno loro, senza necessariamente
riprodurre il comportamento punto a punto.
Si parte da un modello (qualcuno che funge da esempio – modello autorevole e forte preferibile):
1 Prestare attenzione
3 Motivazione. Se il modello è vincente o viene ricompensato, è più probabile che si cerchi di imitarlo –
colui che imita si aspetta di essere ricompensato alla stregua del modello).
Aggressività e Media
Prima fase= 1 Gruppo sperimentale: osservava un adulto che si comportava in maniera aggressiva nei
confronti del pupazzo Bobo. 2 Gruppo di controllo: esposizione a comportamenti non aggressivi.
Seconda fase= 1 I bambini di entrambi i gruppi vengono portati in un’altra stanza piena di giochi invitanti,
ma gli viene detto che quei giochi sono riservati ad altri. 2 Si creava così uno stato di frustrazione.
Terza fase= 1 I bambini venivano portati in una terza stanza dove potevano interagire con vari giochi tra cui
il pupazzo Bobo.
2 I bambini del gruppo sperimentale mettevano in atto più comportamenti aggressivi nei confronti del
pupazzo Bobo. 3 I bambini riproducevano i comportamenti messi in atto dall’adulto (imitazione dell’azione
vera e propria). 4 Inoltre spesso adottavano nuovi comportamenti violenti – non osservati nel modello
(apprendimento di uno stile di comportamento aggressivo).
L’aggressività nei media NON determina in maniera diretta aggressività nei telespettatori, ma può rendere i
comportamenti aggressivi più PROBABILI. Fattori che aumentano tale probabilità: 1 Ritenere che
l’aggressività sia un modo idoneo a risolvere i problemi; 2 Identificazione con i personaggi.
Memoria.
Memoria: capacità di tenere nel tempo le informazioni apprese e di recuperarl quando servono in maniera
pertinente. È un sistema dinamico in continuo divenire: ricordare è un processo attivo che modifica il
ricordo stesso.
Codifica
La codifica si riferisce al modo in cui l’informazione viene immagazzinata nel sistema, es. forma visivao
semantica o in forma multidimensionale. Il codice si riferisce all’insieme di regole che noi utilizziamo per
trasformare le informazioni provenienti dall’ambiente circostante in modo che possano essere conservate
nella memorie.
Ritenzione
La ritenzione si riferisce a come viene conservata l’informazione, cioè la modalità che consentono
l’immagazzinamento. La strategia più comune per ritenere l’informazione è quella della reiterazione o
ripetizione dell’informazione.
Recupero
Il recupero si riferisce al modo in cui l’informazione vien estratta dal sistema. Il recupero avviene attraverso:
1 Riconoscimento 2 Rievocazione. Il riconoscimento del materiale appreso è generalmente più semplice
della rievocazione, in quanto il soggetto deve semplicemente stabilire se si tratta di materiale presentato in
precedenza oppure no. La rievocazione può essere seriale, libera o guidata. La rievocazione seriale è la più
complessa, perché il soggetto deve recuperare le informazioni nell’ordine in cui le ha apprese. La
rievocazione libera è un po’ più semplice perché non vi sono vincoli nel recupero. Infine, la rievocazione
guidata è la più semplice in quanto vengono forniti dei suggerimenti.
Riapprendimento
L’oblio e interferenze.
Prima ipotesi è quella secondo cui l’oblio è causato dal tempo. Tanto più ampio è l’intervallo tra
l’apprendimento e il recupero, e tanto più facile sarà dimenticarsi. In realtà però non è sempre così.
Accade, in situazioni particolari, di ricordarsi perfettamente un evento anche se è accaduto molto tempo
prima, o di dimenticarsi qualcosa avvenuto solo pochi istanti prima (es. durante le presentazioni). Diversi
fattori possono influenzare l’oblio. Tra questi: 1 L’attenzione che poniamo all’apprendimento; 2 La codifica
dell’evento; 3 La situazione in cui si tenta il recupero. È evidente che se non si presta attenzione durante la
presentazione dello stimolo, l’evento non viene memorizzato e, dunque, non può essere recuperato. Una
distrazione immediatamente successiva alla presentazione dello stimolo può impedirne il ricordo. Invece, le
distrazioni che possono verificarsi durante la fase di recupero hanno un effetto solo temporaneo, in un
contesto di maggiore tranquillità sarà possibile recuperare le informazioni. Le capacità di ricordare qualcosa
può essere ridotta dall’interferenza di ricordi simili che creano e impediscono una buona prestazione.
Es. un gruppo si soggetti deve apprendere una lista di parole (contenete frutti e ortaggi), un secondo
gruppo un’altra lista sempre di frutti e ortaggi, ma diversa dalla prima, e un terzo gruppo deve impararle
entrambe. Il terzo gruppo ha molte più difficoltà di rievocazione dei primi due, in quanto il materiale da
apprendere è molto simile.
I primi studi, propriamente psicologici, sulla memoria umana sono stati condotti da Ebbinghaus alla fine
dell’ottocento. Ebbinghaus riteneva che per studiare in modo scientifico la memoria bisognasse utilizzare
del materiale neutro che non avesse alcun significato per i soggetti sottoposti agli esperimenti. Per
questo,ideò una serie di sillabe senza senso (trigrammi es. DEK, MOR) che i soggetti dovevano memorizzare
e sulle quali venivano testate le capacità di rievocazione, riconoscimento e riapprendi mento da parte dei
soggetti sperimentali. Il numero delle sillabe ricordate veniva considerato un indicatore delle capacità
mnestiche del soggetto.
Ebbinghaus aveva proposto un metodo in cui la memoria vniva valutata in una condizione asettica, ben
presto ci si rese conto che la memoria normalmente opera in contesti più complessi e dotati di significato.
Bartlett (1932), in particolare, ha sottolineato che il significato del materiale da apprendere ha una notevole
influenza sulla rievocazione (e in generale sul recupero).
Es. la guerra degli spettri: storia breve ma complessa su una leggenda degli Indiani d’America.
Nell’esperimento un soggetto doveva leggere per due volte la storia e, dopo 30 minuti, provare a rievocarla
per iscritto. La sua versione della storia passava ad un altro soggetto che doveva usare lo stesso
procedimento, e così via. Alla decima riproduzione, la storia si presentava molto semplificata e con parecchi
punti di divergenza rispetto all’originale.
A Bartlett, si deve la concezione di schema divenuta famosa in ambito cognitivo. Secondo Bartlett la
memoria non può essere costituita semplicemente da tracce mnestiche perché queste hanno un carattere
di rigidità, la nostra memoria, invece, è flessibile. Lo schema è definito come una organizzazione di
conoscenze che guida il comportamento: una sorta di modello che può adattarsi alle circostanze
ambientali. L’ipotesi degli schemi di memoria spiega il fatto che molti dei nostri ricordi passati tendono a
modificarsi nella direzione di schemi familiari e routinari, proprio come hanno fatto i soggetti della guerra
degli spettri.
Per la sua stretta connessione con il significato, la memoria spesso opera in maniera ricostruttiva, abbiamo
la tendenza a colmare ciò che non ricordiamo, sulla base delle nostre conoscenze generali del mondo e
della plausibilità e coerenza che possiamo dare ai ricordi. Questo è un punto molto importante soprattutto
per ciò che concerne i cosiddetti testimoni oculari. A questo proposito, la Loftus (1979) ha effettuato uno
studio molto interessante. Due gruppi di soggetti venivano sottoposti alla visione di un filmato di un
incidente automobilistico. Dopo la visione del filmato Al primo gruppo veniva chiesto “a che velocità
stavano andando le macchine quando si sono scontrate?”, al secondo gruppo “a che velocità stavano
andando le macchine quando si sono urtate?”. Si è visto che i soggetti del primo gruppo (scontro)
presentavano delle stime di velocità nettamente superiori a quelle del secondo gruppo (urto). Inoltre dopo
una settimana ai due gruppi veniva posta la domanda “avete visto vetri rotti?”. I soggetti che affermavano
di aver visto vetri rotti (sebbene nel filmato non ce ne fossero) nel primo gruppo erano in numero doppio
rispetto a quelli del secondo gruppo. In vari studi successivi, la Loftus ha trovato che informazioni fuorvianti
acquisite dopo l’evento, spesso vengono integrate con le informazioni originarie. Inoltre gli studi
evidenziano che spesso: I soggetti non sono in grado di identificare la fonte delle informazioni fuorvianti,
possono ritenere che tali informazioni fossero presenti nell’evento d’origine. Non sempre sono in grado di
distinguere tra eventi reali ed eventi solo immaginati. Secondo Loftus questo avviene soprattutto se il
ricordo dell’evento originario è imperfetto.
Attorno agli anni cinquanta, l’interesse per la memoria è andato crescendo nel mondo accademico. I
risultati delle molte ricerche nel settore hanno evidenziato che la memoria non poteva essere più
considerata come un sistema unitario. Venne fuori, invece, un modello costituito da più sistemi
interconnessi tra loro e ognuno caratterizzato da specifiche proprietà. Atkinson e Shiffrin cercarono di
unificare le nuove conoscenze in un unico modello multimodale.
Secondo questo modello l’informazione sensoriale viene conservata per un breve periodo di tempo in un
registro sensoriale, viene focalizzata in attraverso processi attentivi, quindi viene parzialmente codificata e
passa nella MBT, dove può essere mantenuta attiva conservata attraverso il processo di reiterazione. In
entrambi i sistemi di memoria l’informazione può essere perduta per decadimento o interferenza. Quindi
grazie alla reiterazione, viene passata nella MLT e ricodificata. Alcuni ipotizzano che nella MLT la ritenzione
dell’informazione sia permanente, sebbene il processo di recupero non sia sempre immediato.
Troppa enfasi sul processo di reiterazione come processo di immagazzinamento da MBT a MLT. Concezione
semplificata della memoria, in particolare la MBT.
Memoria Sensoriale
Il registro a memoria sensoriale implica l’esistenza di diversi registri deputati al processa mento delle
informazioni provenienti dai vari sensi. I primi studi sull’argomento riguardano la cosiddetta memoria
iconica scoperta da Sperling. Successivamente si è ipotizzata una memoria ecoica (Neisser). Entrambe
farebbero parte del registro sensoriale. Si tratta di sistemi bdi memoria ad elevata capacità e rapido
decadimento. Tali sistemi implicano la codifica dell’informazione sensoriale in una forma simile all’originale,
l’informazione viene ritenuta per un periodo limitato di tempo. Immaginate una sorta di polaroid al
contrario, per cui il sistema scatta una foto che all’inizio è chiara e nitida, ma svanisce nel giro di pochi
secondi. Gli studi di Sperling sono estremamente interessanti. Questo autore voleva capire quanto è
possibile “vedere” di un’immagine in pochi secondi. A questo scopo presentò ad un gruppo di soggetti una
matrice 4x3 contenente 12 lettere, il tempo di presentazione era solo di 50 millisecondi.
Q C F G
P B L M
V T R S
Inizialmente chiese ai soggetti di elencare quante più lettere ricordassero. I soggetti riuscivano ad
elencare quattro o cinque lettere, anche se sostenevano di vederle tutte. Sperling ipotizzò che si trattasse di
un problema di conservazione dell’informazione, le lettere sfuggivano ai soggetti come a chiunque
sfuggirebbe un elenco di 12 lettere. Per questo Sperling elaborò un sistema di resoconto parziale. Chiedeva
ai soggetti di rievocare la riga superiore della matrice, quella intermedia o quella in basso, a seconda che
avessero sentito un segnale acustico alto, medio o basso. In questo modo i soggetti riuscivano a rievocare 3
delle 4 lettere della riga, e ciò significa che vedevano almeno 9 lettere delle 12 presentate. La capacità di
recupero dei soggetti era molto buona se il suono era immediatamente successivo alla presentazione della
matrice; ma decresceva con l’aumentare dell’intervallo. Esistono diverse evidenze empiriche che mostrano
l’esistenza anche di un registro sensoriale ecoico (uditivo). Il funzionamento è simile a quello del registro
iconico. Una prova dell’esistenza di questo registro sta nel comportamento tipico di chi è concentrato in
una qualche attività, viene interrotto da una domanda inaspettata e subito chiede “cosa hai detto”, ma
immediatamente risponde alla domanda postagli poco prima.
Dal registro sensoriale, l’informazione viene focalizzata attraverso i processi attentivi, e, se non
intervengono interferenze, passa nella MBT. Si ttratta di un sistema di memoria in cui l’informazione viene
elaborata e codificata. Tale sistema ha una capacità limitata, infatti può contenere un massimo di 7 + o – 2
elementi (dai 5 ai 9) o pezzi di informazioni –chunks (Miller,1956).
1 4 9 2 1 7 8 9 2 0 0 1
Set di processori indipendenti neuro sistemi) in comunicazione tra loro, che concorrono alla realizzazione di
un sistema comune (WM) a capacità limitata.
Esecutivo centrale: è una sorta di sistema attentivo che coordina i sottosistemi, pianifica le operazioni da
svolgere e monitora quelle svolte.
Il buffer episodico: elabora ed integra in episodi coerenti le informazioni provenienti dai sottosistemi
(temporaneamente). Costituisce un passaggio intermedio importante per l’apprendimento a lungo termine.
Evidenze a favore della separazione tra i due magazzini si riscontrano nel paradigma di rievocazione libera
immediata di lista di parole (di ampiezza superiore allo span), in cui è comune osservare i seguenti
fenomeni: Effetto recency ed effetto primacy.
Effetto recenza (recency effect): rievocazione corretta e accurata degli ultimi elementi della lista (sostenuta
dal sistema MBT)
Effetto di priorità (primacy effect): discreta rievocazione dei primi elementi (sostenuta dal sistema di MLT).
Gli elementi che occupano una posizione centrale vengono invece rievocati in numero inferiore e con minor
accuratezza.
Se la rievocazione viene differita in pochi secondi nei quali il soggetto viene occupato in compiti
interferenti: scompare l’effetto recency, mentre permane l’effetto primacy.
Gli eventi recenti della lista provengono dalla MBT e se la reiterazione viene impedita la traccia decade
rapidamente. Gli stimoli iniziali sono passati nella MLT dove la traccia non è soggetta a rapido decadimento
e vengono quindi conservati.
Memoria procedurale: sistema che soggiace alle esecuzioni che richiedono destrezza, riguarda il aper-fare
(es. andar in bicicletta). È qualcosa che si apprende
Consapevolezza e memoria
Il sistema procedurale è anoetico, cioè privo di consapevolezza (vi è consapevolezza solo del qui e ora).
Secondo Collins e Quillian, la memoria semantica è organizzata secondo deinodi associativi di natura
gerarchica (es. animale, uccello, canarino). Ad ogni nodo sono associate caratteristiche specifiche. I nodi più
in alto nella gerarchia presentano caratteristiche più generali (che per economicità non vengono ripetute
nei nodi inferiori).
La teoria procedurale può essere considerata una forma di memoria tacita o implicita, mentre la memoria
semantica e quella episodica costituiscono la memoria esplicita. La memoria implicita ha luogo quando
l’informazione che è stata codificata nel contesto di un particolare episodio, viene in seguito espressa o
utilizzata senza che ci sia un ricordo cosciente o deliberato dall’evento (Schacter).
Contesto e cues
Tulving ha ipotizzato che i fattori contestuali (esterni ed interni al soggetto) siano importanti per la
memoria. Ciò che viene immagazzinato nella memoria rappresenta una sorta di combinazione tra lo stesso
materiale da ricordare e il contesto in cui il materiale viene appreso. Di conseguenza la somiglianza tra
l’informazione presente in memoria e l’informazione contestuale presente al momento del recupero
favorisce il ricordo. In generale, l’adeguata presenza di cues (indizi) ambientali facilita il ricordo
aumentando l’accessibilità dello stesso, cioè facilitandone la locazione e il recupero. Distinzione tra
disponibilità e accessibilità.
Memoria ed emozione.
I suggerimenti (cues) più efficaci per il recupero di informazioni apprese in precedenza, sono gli stimoli e le
idee prevalenti nella mente di una persona al momento della codifica originale (fenomeno dello state-
dependency). Brower in un esperimento ormai classico ha trovato che lo stato emotivo provato mentre si
viveva una certa esperienza può aiutare nel suo ricordo successivo. Cioè, se lo stato d’animo al momento
della rievocazione è simile a quello provato al momento dell’immagazzinamento, il ricordo sarà più facile
(state-dependency). È stato identificato anche un altro effetto che viene definito state-congruency. In
questo caso se una persona è felice, tende a ricordare eventi felici, ma se è triste tende a ricordare cose
tristi.
Ricordo flashbulb.
Il coinvolgimento emotivo stimola il ricordo. Le esperienze emotigene attivano l’amigdala la quale a sua
volta intensifica il consolidamento mnestico.
Ricordo flashbulb: immagine vivida che sembra “essersi congelata” nella memoria a seguito di eventi
tragici, importanti o con elevato impatto emotivo. Col tempo i ricordi flashbulb tendono a cristallizzarsi in
storie coerenti, anche se non sempre accurate.
Studi di Rovee-Collier hanno mostrato che anche i lattanti hanno ricordi. La memoria si struttura dapprima
come episodica e poi i diversi episodi si sedimentano nella memoria semantica. Il fenomeno dell’amnesia
infantile (gli adulti non ricordano molti episodi avvenuti prima dei 3 anni di età): Limiti delle abilità
linguistiche impongono di vincoli a come i ricordi vengono codificati; I ricordi autobiografici si possono
sviluppare solo dopo che il bambino ha sviluppato un senso di sé (attorno ai due anni).
Pensiero e ragionamento
Il pensiero: processi che rendono accessibili in mente informazioni prive o meno di un immediato
riferimento sensoriale. Esempi di attività di pensiero: (ragionare, progettare, inventare). Alcuni definiscono
il pensiero come il linguaggio della mente. Pensiero implica la capacità di costruire rappresentazioni mentali
di un problema o di una situazione.
Alcune unità di pensiero: immagini mentali (rappresentazioni mentali iconiche o relative ad altre modalità
sensoriali); concetti (idee che rappresentano categorie di oggetti o eventi); Ragionamento (capacità di
effettuare operazioni mentali astratte di varia natura).
I CONCETTI
Un concetto è un’idea che rappresenta una categoria o evento. I concetti consentono di riconoscere un
concetto come appartenente ad una categoria, attribuendogli le caratteristiche tipiche della categoria, e
quindi comportandosi di conseguenza (es. vipera).
IPOTESI SULLA FORMAZIONE DEI CONCETTI
Interferenze= da specifiche premesse si fanno discendere delle conseguenze. Di tipo induttivo o deduttivo.
Esempio una figura per essere definita triangolo deve essere una figura chiusa formata da tre linee rette e
da tre angoli.
PROTOTIPI.
In realtà tra le varie caratteristiche degli oggetti, alcune sono maggiormente pregnanti. Inoltre, alcuni
esemplari sono più rappresentativi di altri per la definizione del concetto (es. pettirosso è più
rappresentativo di struzzo per la categoria uccello).
Prototipi = modelli ideali per identificare concetti. I prototipi vengono normalmente utilizzati come oggetti
di paragone per definire l’appartenenza di altri oggetti di una specifica categoria.
IL RAGIONAMENTO
Viene definito come “un’attività mentale che sottopone l’informazione data (cioè una serie di premesse) a
delle trasformazioni così da poter giungere a delle conclusioni”
Deduttivo: va dal generale al particolare, si parte da un insieme di assunzioni date per vere, le premesse, cui
devono seguire necessariamente determinate conclusioni.
Induttivo: va da particolare al generale, basato sui dati di esperienza o osservazioni che fungono da indizi.
RAGIONAMENTO DEDUTTIVO
Il ragionamento deduttivo è un tipo di ragionamento certo ed esatto da un punto di vista logico, poiché si
basa su regole fisse, non crea nuove informazioni, ma estrae conoscenze già intrinsecamente presenti nelle
premesse. Il ragionamento deduttivo è implicato nella soluzione di problemi di natura silogistica: silogismi
categoriali (aristotelici), silogismi condizionali (se…allora), silogismi lineari (problemi seriali).
Includono una serie di premesse che vanno ordinate in modo serial sulla base di proposizioni che
esprimono vari confronti. Tale processo è necesario per arrivare all conclusione. Le promesse descrivono
una relazione tra due enti dei quali almeno uno è in comune con entrambe le premesse.
Il compito del ragionamento deduttivo nel caso del problema seriale è quello di determinare una relazione
tra i due elementi che non compaiono nella stessa premessa.
I silogismi aristotelici sono argomenti deduttivi che implicano l’interferenza di conclusioni a partire da due
premesse. Le premesse sono affermazioni relative ad un dato argomento. Le premesse esprimono
l’appartenenza dei termini (persone o oggetti) a categorie e la conclusione rende esplicita la relazione tra di
essi.
Includono una premessa maggiore, una premessa minore una conclusione, le premesse affermano
qualcosa circa l’appartenenza categoriale dei termini. Ciascun termine rappresenta tutti, nessuno o
qualcuno dei membri di una classe o di una categoria particolare.
Premessa maggiore: tutti gli animali sono esseri viventi; premessa minore: tutti gli uomini sono animali;
conclusione: quindi tutti gli uomini sono esseri viventi.
Quando dobbiamo giudicare la validità di un silogismo, la verità o la falsità di una particolare premessa è
del tutto irrilevante. La validità di un silogismo dipende solo dal fatto che la conclusione derivi
necessariamente dalle premesse.
Il ragionamento condizionale richiede l’uso di preposizioni condizionali del tipo “se…allora”. Una
preposizione condizionale è costituita da un antecedente e un conseguente. L’antecedente segue il termine
SE, il conseguente segue il termine ALLORA.
Quando sia l’antecedente che il conseguente sono vere e viene applicato il se… allora l’implicazione è vera;
se l antecedente è vera e il conseguente è falso allora l’implicazione sarà falsa; se l’antecedente è falso e il
conseguente è vero potrebbe essere considerata veritiera da un certo punto di vista; se entrambi sono falsi
l’implicazione potrebbe essere vera.
IL RAGIONAMENTO INDUTTIVO
Non si basa su assunti “certi” come il ragionamento deduttivo, ma consente di effettuare delle ipotesi a
partire da alcune osservazioni e di arrivare a conclusioni generali (plausibili/p probabili o implausibili/
improbabili). Il ragionamento induttivo è di tipo probabilistico, la soluzione non è certa, ma può essere più o
meno probabile. Normalmente, la soluzione dei problemi che implicano il ricorso del ragionamento
induttivo è basato su euristiche (regole pratiche e/o metodi empirici e intuitivi per arrivare a soluzioni;
scorciatoie del pensiero). Le euristiche se utilizzate in modo eccessivo o inadeguato, possono portare ad
errori di ragionamento e a conclusioni errate.
La soluzione del problema viene basata sul grado con cui il fenomeno da valutare presenta caratteristiche
tipiche (rappresentative) delle classi o gruppi cui è possibile attribuirlo.
La soluzione di un problema viene basata sulla facilità con la quale un elemento può venire in mente
(accessibilità dell’informazione). Es. stima della percentuale di morte può essere influenzata dalle
informazioni fornite in quel periodo dai mass media.
Obiettivo: scoprire la regola usata dallo sperimentatore per costruire una serie di 3 numeri. Nella prima
fase, lo sperimentatore chiedeva al soggetto di pensare alla regola che stava alla base della serie 6,8,10.
Nella seconda fase, il soggetto doveva proporre delle serie di tre numeri al ricercatore che avrebbe
risposto: si, se la sequenza avesse rispettato la regola, no se la sequenza non l’avesse rispettata.
La maggior parte delle persone avevano ipotizzato che la regola fosse: una serie di numeri pari crescenti per
due. Ma avendo seguito strategie di conferma e non di falsificazione, non scoprirono mai che la regola era:
qualunque serie crescente di numeri.