Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Def. Psicologia:
1. un sistema teorico/operativo per rapportarsi al mondo, una chiave di lettura della realtà
2. una forma di conoscenza e quindi una scienza
3. una forma di costruzione della propria identità (almeno per gli psicologi), un modo di vivere
4. una professione (regolamentata da leggi, presuppone una formazione)
Capitolo 2:
QUALE PSICOLOGIA? QUESTIONI STORICHE ED EPISTEMOLOGICHE DELLA PSICOLOGIA
(Maria Armezzani)
Def. Epistemologia: la riflessione sui caratteri di scientificità che informano una disciplina
Def. Dizionario: quella branca della teoria generale della conoscenza che si occupa di problemi quali la natura , i fondamenti, i
limiti e le condizioni di validità, tanto delle scienze cosiddette esatte, quanto delle scienze empiriche (vedi psicologia); lo studio
dei criteri generali che permettono di distinguere le affermazioni di tipo scientifico, dalle opinioni religiose, etiche, etc… Parte
essenziale della filosofia della scienza.
Ogni stile di ricerca e professionale dipende dalle categorie conoscitive che si sono ammesse (più o meno
esplicitamente) all’inizio: si considerano “assunte” scelte che all’inizio erano problematiche.
Se l’assunzione di modelli diversi non è peculiarità della psicologia, qui la frantumazione disciplinare è tale
che si impone una prospettiva storico-epistemologica per comprendere questo quadro, è una delle
condizioni di “competenza professionale”.
La conoscenza storico-epistemologica:
- rivela le implicazioni dei paradigmi e ne determina le possibilità e i limiti;
- allontana il rischio di ideologizzare la propria prospettiva;
- esplicita l’esistenza e la natura del “punto di vista”;
- rende possibile e favorisce il confronto tra modelli.
LA SCUOLA DI LIPSIA
La psicologia ha “due anime”:
- sperimentale (processi di BASE)
- filosofica (processi SUPERIORI)
1
¾ Fondatore ufficiale: Wundt, ha fondato a Lipsia nel 1879 il primo laboratorio di psicologia
sperimentale. E’ il primo che decise di applicare la metodologia delle scienze naturali all’indagine
sulla “psiche” (da criteri filosofici si passa a criteri sperimentali-quantitativi).
¾ Oggetto di indagine: “l’esperienza umana immediata”, ciò che è reperibile immediatamente nella
coscienza soggettiva.
¾ Variabili controllate: processi sensoriali semplici (escluse tutto quello che oggi chiamiamo
psicologia)
¾ Scopo: indagare sulla struttura della mente per scoprirne regole e componenti
Accanto a questa psicologia sperimentale, lo stesso W. sostiene la necessità di una psicologia filosofica,
vicina alle scienze “umane”.
→ la psicologia è iniziata come scienza della “coscienza”: è proprio l’idea di analizzare la soggettività con
criteri empirici, che fonda la psicologia moderna.
Le correnti si dividono:
In Europa continua la tradizione filosofica, mentre in USA quella sperimentale
Correnti in Nord-America:
Strutturalismo
¾ Fondatore : Cattell, allievo di Wundt, ma dà una interpretazione diversa agli studi di Lipsia: i dati
ottenuti non sono misura delle sensazioni, ma misura dell’entità fisica oggettiva degli stimoli, da
misure dell’esperienza soggettiva si passa a misure dell’oggetto che provoca l’esperienza.
Collabora con Galton e introduce la statistica e i test mentali; l’interesse si sposta dal soggetto, alle
prestazioni soggettive (e poi alle differenze individuali).
¾ Fondatore: Titchener, allievo di Wundt, esclude tutta la parte filosofica dalla sua traduzione
dell’opera di Wundt e sposta tutto l’interesse sulla parte sperimentale, “risolvendo” così la
contraddizione interna. Vuole indagare la struttura della mente. Alla sua morte il movimento si
dissolve.
Funzionalismo
¾ Metodi: eclettismo, basato sull’utilità pratica e sulla capacità di indagare le interazioni dell’uomo
con l’ambiente naturale (NO laboratorio!) Declino dell’introspezione!
2
Rif. culturali: teorie di Darwin, Neopositivismo.
COMPORTAMENTISMO (“manifesto” del 1913)
¾ Fondatore: Watson, per garantire la scientificità della psicologia, W. elimina come oggetti di studio
gli “eventi mentali”.
Confermato dagli studi di Pavlov, W. utilizza il modello S-R (stimolo-risposta) che risponde ai criteri di
previsione e controllo delle variabili.
¾ Oggetto: diventa l’apprendimento, con gli esperimenti sul condizionamento (classico e operante),
per stabilire le leggi del comportamento.
La psicologia immette così sul mercato i primi strumenti di misurazione psicometrica che offrono garanzie
di controllabilità e prevedibilità.
Dalla fine degli anni trenta, si introduce il criterio della significatività statistica come ulteriore
rassicurazione: si può generalizzare i risultati come nelle altre scienze naturali.
(criterio molto criticato: la significatività è un criterio di ordine matematico, che non può rispondere tout
cour a domande di natura psicologica! Anche Hathaway critica il suo stesso test, l’MMPI)
Def. Cognitivo: “indica tutti quei processi che comportano trasformazioni, elaborazioni, riduzioni , immagazzinamenti, recuperi
e altri impieghi dell’input sensoriale. Termini […] che si riferiscono a ipotetici stadi o aspetti dell’attività cognitiva” (Neisser,
1976)
E viene utilizzata la metafora del computer: la conoscenza umana è una manipolazione di simboli
realisticamente rappresentabile con l’analogia con il software.
3
- PDP: connessionista, il sistema cognitivo è visto come una rete di interconnessioni auto-organizzato, la
metafora è con il SNC reale, con i neuroni.
¾ Metodi: costruzione di modelli e verifica tramite PC
¾ Critiche:
- rapporto debole tra modello e esperimento
- artificialità dei modelli (situazioni lontane dalla vita quotidiana)
- dalla costruzione dei significati, si è passati a studiare l’elaborazione dell’informazione: di nuovo
impersonalità e oggettività
- sono stati esclusi dalle ricerche i processi che poco si adattano alla rappresentazione computazionale:
emozioni, creatività, interazioni tra soggetti, ecc.
- come nel comportamentismo, il cognitivismo è limitato dalla riduzione dell’oggetto di studio al metodo
disponibile.
¾ Autori: Watzlawick
¾ Teoria: non esiste un mondo reale pre-esistente e indipendente dall’osservatore, ma esistono varie
versioni di mondo a seconda del punto di vista. Ogni pensiero/giudizio/percezione è un’operazione
costruttiva e autoreferenziale dell’osservatore.
¾ Oggetto: l’uomo come essere attivo, costruttore di significati e l’ambiente come universo di simboli
e di esperienze possibili.
¾ Metodo: rivalutazione dell’osservazione nelle situazioni di vita quotidiana, dei metodi qualitativi e
di strategie che prevedono un’interazione tra ricercatore e soggetto.
¾ Critiche:
il cognitivismo aveva enfatizzato il metodo, adattandovi l’oggetto di studio. In modo inverso, il
costruttivismo recupera il “significato” come oggetto di studio, non avendo però un metodo per studiarlo.
Correnti Europee:
→ La psicologia Resta legata alle discipline filosofiche ed ha un carattere più accademico della psicologia
nordamericana, e minore influenza sociale.
¾ Fondatore: Wertheimer, nel 1912 pubblica un importante lavoro sul movimento stroboscopio che dà
inizio alla scuola della Gestalt.
→ Gestalt = forma, come totalità significativa, le cui proprietà sono conoscibili attraverso un atteggiamento
e un metodo fenomenologico..
¾ Oggetto: “l’esperienza umana immediata” (N.B. come Wundt!!!), ma la intendono in modo diverso:
l’esperienza è un “campo psicologico organizzato” dove il soggetto si lega in modo intenzionale
all’ambiente.
Per la Gestalt:
- l’esperienza diretta è il materiale grezzo sia della fisica, come della psicologia;
4
- non esiste osservazione neutra, l’osservazione è sempre prospettica;
- sia la realtà fisica che quella psicologica sono “esperienze soggettive”, “fenomeni”.
¾ Metodi: esperimenti percettivi
→ Kohler (1917) def. Insight:“ristrutturazione improvvisa del campo percettivo“ (≠ apprendimento per
prove ed errori di Thorndike)
PSICOANALISI (1900)
¾ Fondatore: Freud, nel 1900 pubblica “L’interpretazione dei sogni”: propone un’interpretazione
psicologica dei disturbi psichiatrici (N.B. novità assoluta!!)
Def. Psicoanalisi:
1) un procedimento per l’indagine dei processi psichici
2) un metodo terapeutico basato su tale indagine
3) una serie di conoscenze sul funzionamento psichico acquisite per questa via
→ Dopo Freud la psicoanalisi si è diversificata anche a causa dell’esportazione dal contesto austrotedesco,
restando accomunata unicamente dal riferimento alla dimensione inconscia.
¾ Fondatore: Biswanger
¾ Scopo: pervenire alle forme strutturali della conoscenza, attraverso un’analisi sistematica dei tratti
comuni delle esperienze umane.
¾ Metodo: limitazione dell’analisi a ciò che è reperibile nella coscienza (≠psicoanalisi), analizzare
l’esperienza umana per comprenderne le strutture fondamentali che lo mettono in rapporto con lo
spazio, il tempo, mettendo da parte ogni distinzione pregiudiziale tra normale e patologico e ogni
interpretazione causalistica-meccanicistica (≠comportamentismo).
5
Teoria: l’attività senso-motoria determina la costruzione del reale secondo processi alternati di
assimilazione e accomodamento combinati tra individuo e ambiente e, attraverso una riorganizzazione delle
strutture mentali, determina lo sviluppo ontogenetico del soggetto.
Osservazioni sulle diverse scuole:
- coerenza e rigore sono comunque attributi della scientificità, in qualunque modo la si concepisca;
- nella dialettica tra metodo e oggetto, spesso è stato sacrificato l’uno per l’altro senza trovare un giusto
equilibrio;
- è inevitabile operare una scelta di “punto di vista”, esserne consapevoli e esplicitarla nel lavoro di
professionisti.
Capitolo 3:
CRITERI DI COERENZA TRA TEORIA E PRATICA IN PSICOLOGIA CLINICA
(Franco Di Maria e Calogero Lo Piccolo)
La difficoltà di def., sta nella mancanza di coerenza tra teoria e pratica: le teorie più diffuse NON hanno al
centro la relazione (ma l’intrapsichico), la pratica ha sempre al centro la relazione.
Ri-def: psicologia clinica = action-research che mira a valutare, comprendere ed trasformare i sistemi relazionali
umani, tenendo presente che agire-conoscere-trasformare sono fasi inseparabili.
¾ E’ importante che ogni professionista faccia della sua tecnica un oggetto di studio, apra una riflessione
teorica sul proprio operare.(teoria della tecnica)
¾ L’intervento si configura come la costruzione di uno spazio relazionale “altro” che renda pensabili e
osservabili i comportamenti degli attori, anche al di fuori del setting clinico tradizionale. La relazione è
il metodo di conoscenza-intervento.
¾ Analisi della domanda: come analisi di tutti gli aspetti anche fantasmatici della relazione, per la
costruzione di un area di senso “comune” che possa fare da base alla relazione.
6
Capitolo 4:
CONSIDERAZIONI SUL CONCETTO DI NORMALITA’ NELLO SVILUPPO COGNITIVO
(Silvia Perini)
Quesito della ricerca moderna: Normalità e ritardo cognitivo fanno parte di un continuum o di continua
differenti?
Def. Teoria: è esplicativa e rappresenta un tentativo di organizzare una serie di leggi derivate da dati empirici allo
scopo di spiegare e prevedere eventi.
Def. Modello: non è esplicativo, è un’applicazione metaforica della teoria, una rappresentazione della realtà, non una
descrizione. Non richiede dati empirici su cui basarsi.
¾ Oggetto: sia per la teoria che per il modello, studiare lo sviluppo, significa studiare il cambiamento
lungo la dimensione temporale.
Per Piaget si tratta delle strutture che sottostanno al pensiero, mediando le interazioni con l’ambiente
esterno. I processi di assimilazione e accomodamento fanno evolvere e sviluppare sia le strutture cognitive
sia le modalità con cui esse fungono da mediatori: prima i riflessi, poi schemi non simbolici, quindi
rappresentazioni mentali.
- Anni 60: la teorizzazione piagetiana viene influenzata dalle scienze dell’informazione, e vede la mente
come un sistema che manipola simboli. Æ il sistema cognitivo elabora i simboli in modo seriale e li
finalizza in accordo a regole che si modificano nel tempo.
7
- Come può il sistema essere adattato a compiti particolari?
- I modelli connessionisti sembrano dare una soluzione: l’immagazzinamento e l’elaborazione
dell’informazione sono visti come processi che avvengono in parallelo anziché in sequenza seriale,
grazie a unità che hanno un reciproco effetto facilitante o inibente.
- Fine anni 70: metacognizione, come conoscenza introspettiva sul proprio funzionamento mentale e sui
processi che lo regolano.
Sviluppo:
- interazioni continue tra bambino che si evolve biologicamente e cambiamenti dell’ambiente
- queste interazioni cambiano sia l’individuo, sia l’ambienteÆ le interazioni si modificano nel tempo in base all’età.
¾ Watson: C = f (s), gli stimoli colpiscono gli organi di senso e le risposte sono azioni del corpo.
(condizionamento della paura di Albert)
Capitolo 5:
METODOLOGIA DELLA RICERCA IN PSICOLOGIA: PIANIFICAZIONE, CONTROLLO E MISURA
(Paolo Moderato e Renato Gentile)
Ogni disciplina scientifica è caratterizzata, oltre che da affermazioni teoriche specifiche, da una serie di
riconoscimenti (assunti) più o meno espliciti che riguardano:
- la filosofia della scienza (assunti metateorici)
- i fenomeni da osservare (assunti teorici)
- i metodi di ricerca (assunti metodologici)
Kuhn ha utilizzato per identificare questi elementi, il termine paradigma.
Questo termine viene utilizzato in un senso più ristretto per definire:
- i dispositivi fondamentali usati dal ricercatore per produrre il fenomeno che lo interessa (rif. paradigma
di ricerca).
La scelta del paradigma dipende strettamente da ciò che vogliamo studiare.
Quindi ogni buona ricerca deve partire da una buona definizione del proprio oggetto di studio.
Considerare un fenomeno, significa formulare delle ipotesi sul processo: su quali sono le variabili e che
funzione reciproca svolgono.
Va elaborato, a partire dal paradigma, un piano sperimentale (progettazione del disegno sperimentale) che
permetta lo studio dei singoli elementi (e la verifica delle ipotesi specifiche) con il minimo possibile di
errori.
Per cui vanno definite le possibili variabili interferenti (possono minacciare la validità della ricerca).
8
Un buon disegno deve rispettare due esigenze di controllo(procedimenti utilizzati per eliminare le minacce
alla validità della ricerca):
- individuare le fonti di errore (funz. preventiva): controllo metodologico
- verificare l’effettiva influenza delle var. indipendenti che agiscono nell’esperimento (funz. diagnostica):
controllo statistico
¾ I disegni unifattoriali:
- between-subjects hanno tanti gruppi quanti sono i livelli della variabile, in modo da somministrarne uno
solo per ciascun gruppo.
- within-subjects hanno un unico gruppo che sottopongono a tutti i livelli della var. (disegni a misure
ripetute)Æ prestet (baseline), trattamento e post-test.
¾ I disegni multifattoriali sono più diffusi perché rispettano di più il contesto naturale dove si danno
numerose var. che interagiscono:
- quello between-subjects è noto come piano fattoriale a gruppi indipendenti
- quello within-subjects richiede l’uso di piani fattoriali a misure ripetute (una variante è il disegno a
trattamenti alternati).
9
- pratica: effetto dell’allenamento sulla prestazione (x ovviare: utilizzare disegno between-subjects o
controbilanciare l’ordine di presentazione dei compiti)
- carry over: influenza degli effetti dalla prova “prima” a quella “dopo”.(Difficile da eliminare. X
ovviare: distanziare temporalmente le prove)
- effetti relativi all’ordine e alla sequenza (x ovviare: bilanciare i trattamenti così che un sogg li riceva in
tutti gli ordini possibiliÆnel quadrato latino si controlla l’effetto dell’ordine,ma non la successione)
I disegni between-subjects risultano generalmente più validi (validità interna: la var. indipendente è la causa
degli effetti osservati sulla var. dipendente) di quelli within-subjects, che invece hanno una maggiore
validità ecologica (validità esterna: i risultati sono generalizzabili alla popolazione e a situazioni diverse) ed
hanno una più immediata generalizzabilità dei risultati.
CONTROLLO STATISTICO
MISURE E SCALE
Nella verifica delle ipotesi si possono usare test parametrici: si devono usare test non parametrici se le
osservazioni sono misurate su scala non parametrica o quando le popolazioni di riferimento non sono
normali.
Test parametrici sono più potenti dei non parametrici.
10
Def. misura: il procedimento mediante il quale le proprietà aritmetiche di un insieme ordinato di numeri reali,
vengono attribuite a un insieme di eventi empirici (Caracciolo).
Si considera che gli elementi dei due insiemi stabiliscano tra loro relazioni analoghe, tale per cui è possibile operare
sugli eventi come sui numeri. La relazione eventi-numeri è chiamata Scala di Misura.
Stevens studiò questo problema in psicologia e delineò quattro tipi di relazioni eventi-numeri:
1) relazioni di IDENTITA’: scala nominale, a classi o categorie omogenee al loro interno secondo un
“etichetta”, il numero ha valore nominale;
proprietà: equivalenza (riflessiva, simmetrica e transitiva)
es. Sistema diagnostico DSM IV
2) relazioni di ORDINE: scala ordinale, a ranghi, i numeri hanno valore di ordine crescente/decrescente;
proprietà: equivalenza + maggiore/minore di (non riflessiva, asimmetrica e transitiva)
es. valutazioni di profitto con voti agli studenti
4) relazione di RAPPORTO: scala a rapporti; scala a 0 reale che coincide con l’origine della scala stessa,
quantitativa, i numeri rappresentano i rapporti tra gli elementi;
proprietà: tutte le operazioni aritmetiche.
Solo le ultime due scale sono parametriche e solo agli elementi di queste possono essere applicati i test
parametrici: ANOVA, t di Student.
Capitolo 6:
IL METODO SPERIMENTALE NELLE APPLICAZIONI PSICOLOGICHE
(Santo Di Nuovo)
La ricerca di base tende all’incremento delle conoscenze e non si pone obiettivi pratici diretti, mentre la
ricerca applicata mira alla soluzione di problemi operativi ed è orientata verso decisioni mirate agli
interventi: il metodo sperimentale è tipico delle scienze “naturali” dove esiste una netta distinzione tra
“osservatore” e “osservato”ed è’ stato applicato alla psicologia fin dalle fasi della sua fondazione.
Questo metodo non si adatta in quelle aree:
- dove è importante la relazione soggetto-operatore;
- dove la complessità investe sia le relazioni tra variabili che le modificazioni dovute all’intervento dello
sperimentatore.
Per risolvere questo tipo di problematiche si utilizza la ricerca-intervento(def. action research proposta da
Lewin nel 1948): un tipo di ricerca che è al tempo stesso momento di conoscenza scientifica della realtà
(ricerca di base) e contributo all’attivo cambiamento di essa (ricerca applicata):
¾ Oggetto di studio:
- come avviene il cambiamento e in quale misura
- nel caso in cui avvenga come ipotizzato, quali siano i fattori di ostacolo e quali lo favoriscano
- quali sono gli effetti del trattamento a breve e lungo termine
11
¾ Metodo:
- la verifica delle ipotesi e il trattamento avvengono in contemporanea;
- i destinatari dell’intervento sono coinvolti attivamente nel processo di definizione e verifica degli
obiettivi;
- processo ciclico ricorrente: formulazione di ipotesi e obiettivi → intervento → verifica degli effetti →
aggiustamento delle ipotesi e degli obiettivi.
¾ Punti deboli: la necessità, a volte, di modificare il disegno di ricerca in itinere,sia per le variabili sia
per il campionamento.
Def. ricerca applicata rappresenta un processo di problem solving, nel quale la situazione-problema può
essere costituita di diverse situazioni (disagio psichico,stato di incompetenza, situazione di rischio di
malattia, ecc) Esso è un processo in diverse tappe:
1) delimitazione del problema
2) formulazione di un ipotesi diagnostica, mirata alla comprensione dei processi che mantengono il
problema e degli aspetti strutturali;
3) definizione degli scopi
4) intervento mirato alla soluzione del problema, inserito in un contesto relazionale e guidato del
ricercatore;
5) verifica periodica del cambiamento;
6) follow-up a distanza.
¾ Nella sperimentazione si usa il massimo controllo delle variabili, usando gruppi di controllo, al fine di
ridurre il più possibile l’errore. Il controllo tra gruppi non è usato perché spesso poco affidabile: è
difficile trovare gruppi confrontabili, o a volte eticamente scorretto, e spesso influenzato in maniera
poco prevedibile dal drop-out. Il metodo per garantire l’equivalenza è la randomizzazione (selezione
casuale della pop. di riferimento e assegnazione casuale a gruppi), ma se non è possibile, si può fare il
matching dei soggetti tra gruppo sperimentale e di confronto, che hanno le stesse caratteristiche nelle
var. da controllare. Se né randomizzazione, né matching sono possibili, si ha un disegno “quasi-
sperimentale”(il gruppo di controllo non è equivalente).
¾ La varianza di errore attribuibile a mancato controllo delle variabili diventa un’informazione essenziale
sulla diversità dei soggetti e degli effetti: con un campione ampio, anche se non casuale, è necessario
conoscere le caratteristiche dei soggetti e le variabili osservate per correlarle (disegno correlazionale).
Ma anche la correlazione può essere dovuta a una variabile “altra” latente, di livello superiore a quelle
analizzate. Al criterio di significatività si sostituisce quello di rilevanza in relazione agli obiettivi fissati:
il trattamento funziona e i risultati non sono dovuti al caso.
¾ La composizione del campione nell’action research, quasi mai ha criteri di casualità o stratificazione
tipici dei disegni sperimentali.
¾ Attività fondamentale diventa l’assessment: valutazione e monitoraggio degli effetti.
Servono strumenti:
- che possano essere somministrati in modo rapido;
- ripetibili frequentemente;
12
- adatti al contesto (≠ strumenti già validati, ma in altri ambiti);
- adatti al campione con cui si lavora;
Esempi: colloquio, l’intervista, questionari self-rating e altri strumenti utilizzati invece solo
occasionalmente, questo per avere un assessment multiplo che permetta ipotesi diversificate.
I disegni applicativi privilegiano misurazioni in fasi successive delle variabili da modificare mediante il
trattamento. I dati ottenuti si dispongono in serie temporali (time- series) che permettono lo studio del
cambiamento:
- Per controllare il fattore “tempo”, esso può essere inserito nei disegni fattoriali quale variabile.
- Disegno a un baseline:
1. misurazione della baseline: si registrano le var. a intervalli regolari;
2. intervento: continuano le misurazioni;
3. verifiche periodiche.
- Disegno a baseline multipli: verificare se gli effetti di trattamenti diversi si verificano in corrispondenza
dell’introduzione di questi in momenti diversi. Possono valutare:
• Var. differenti nello stesso sogg. (fra comportamenti)
• Stesso var. in sogg. diversi (fra soggetti)
• Stessa var. nello stesso sogg. In situazioni diverse (fra setting)
Questi disegni pongono molti problemi metodologici in aggiunta a quelli che già si pongono con la baseline
semplice.
¾ Critiche:
- il controllo delle var. è limitato a una o poche per volta;
- non vengono considerate adeguatamente le differenze individuali dei soggetti;
- gli strumenti di assessment spesso hanno effetti sulle var.
Capitolo 7:
PROBLEMI E METODOLOGIA NELLA RICERCA PSICOSOCIALE
(Saulo Sirigatti e Cristina Stefanile)
¾ Premessa
La ricerca psicosociale accetta una visione deterministica dei fenomeni, per cui il comportamento è un
oggetto definibile e causato da eventi specificabili.
Per questo, il metodo sperimentale è quello preferibile. Nel contesto applicativo, dove le var. sono
complesse e difficilmente isolabili, vengono utilizzati i disegni cosiddetti deboli come i disegni quasi-
sperimentali, correlazionali, descrittivi.
13
DISEGNI:
Le minacce alla validità della ricerca sono raggruppabili in 4 categorie: statistica, interna, di costrutto di
causa-effetto, esterna. Esaminiamo quindi diversi tipi di ricerca con validità diverse:
Viene incluso tra gli approcci pre-sperimentali. Si fa un test come diagnosi del quadro iniziale, si applica
l’intervento, e si fa un test di verifica sugli stessi soggetti.
¾ Minacce:
- drop-out selettivi (dovuti forse ad attenuazione dell’evento indipendentemente al trattamento)
- effetti dovuti alla storia (eventi estranei al trattamento,maturazione)
- effetto Hawthorne (miglioramento nelle prestazioni dovuto alla consapevolezza nei soggetti di essere
studiati)
- regressione verso la media (per probabile errore di misurazione)
¾ Qualità:
- disegno snello, poco invasivo e poco costoso
- l’effetto Hawthorne comunque va nel senso del cambiamento cercato
2. Pre-test e Post-test con due gruppi non equivalenti (es. Ed. motoria su bambini e funz. cognitive)
E’ il disegno quasi-sperimentale più frequente: si effettuano il pre-test e il post-test su due gruppi ma solo
su un gruppo si applica l’intervento.
¾ Minacce:
- interazione tra elementi come storia, maturazione, ecc. e modalità di selezione
- diffusione o imitazione del trattamento all’interno del gruppo di controllo (validità di costrutto)
- impiego di campioni “opportunistici” (validità esterna)
¾ Qualità:
- disegno snello
- controlla gli effetti principali: storia, maturazione, effetto Hawthorne
¾ Qualità:
- setting naturale
- acquisizione di informazioni utili sulla popolazione generale
- utile nelle fasi iniziali di una ricerca
14
Action-research lewiniana, introdotta negli anni 40, si proponeva di applicare sul campo i risultati degli
studi sulle dinamiche di gruppo. I punti cardine consistono quindi nell’attenzione al cambiamento sociale e
nella partecipazione attiva dei gruppi coinvolti.
¾ Qualità:
- procedura flessibile e adattabile durante l’esperimento
- prevede verifica in ogni fase
- può produrre profonda conoscenza socioculturale della realtà in cui si fa l’esperimento
- consente integrazione tra conoscenza teorica e applicazione
¾ Critiche:
- troppo influenzabile da eventi accidentali
- validità scientifica insufficiente e risultati poco generalizzabili
- campioni scarsamente rappresentativi
Dopo aver deciso il disegno da usare, si deve decidere con quale tecnica raccogliere i dati.
Le informazioni utili al ricercatore in psicologia sociale sono: comportamenti, stati emozionali o mentali,
dati riferiti al contesto-situazione.
¾ Possono derivare da varie fonti:
- informazioni soggettive-verbali acquisite da colloqui, questionari,ecc.
- informazioni acquisite dall’osservazione
- informazioni acquisite da registrazioni di indicatori psicofisiologici
¾ Colloquio e Intervista
Sono modalità di raccolta delle informazioni che prevedono lo scambio verbale faccia a faccia tra
ricercatore e soggetto. Possono essere impiegati in diverse fasi dell’esperimento. Sono più o meno
strutturati, duttili e flessibili: l’intervista può essere organizzata lungo un continuum che va da non
strutturata (detta anche tematica o in profondità) a completamente strutturata (detta anche standardizzata).
Comunque sia, il materiale ottenuto con un intervista è spesso molto abbondante e necessita di essere
organizzato per poterlo interpretare. Le informazioni vanno codificate per mezzo di griglie per poi
procedere ad un’analisi quantitativa.
¾ Questionario
Tecnica di auto somministrazione che richiede minima partecipazione da parte del ricercatore. E’ corredato
da istruzioni dettagliate, e la somministrazione può essere individuale o di gruppo.
Gli item sono domande o affermazioni, e attengono a svariati argomenti.
Diverse forme di risposta:
- domande aperte (risposta libera): utilizzato se non si hanno indicazioni circa la gamma delle possibili
risposte ottenibili dai soggetti.
- domande chiuse (risposta multipla):ampiamente usate, prevedono risposte a livello categoriale(es.
diploma, laurea, master,ecc), ma anche ordinale (quando si chiede di mettere in ordine di preferenza)
15
Qualità:
- strumento rigido e standardizzato Æ comparabilità delle risposte
- tempi di rilevazione modesti Æ riduzione dei costi
- strumento versatile Æimpiegabile in diversi tipi di ricerche
- impiegabile per grandi numeri e garantisce l’anonimato
Difetti:
- resoconto soggettivo: si presta a falsificazioni intenzionali delle risposte
- registra quello di cui una persona è consapevole (se non capisce la domanda, risponde male)
- non registra direttamente il comportamento, ma un resoconto di questo.
- scarsa motivazione dei soggetti Æ informazioni poco accurate
¾ Focus group
Affine all’intervista, si caratterizza per il tipo di setting e per le procedure di attuazione. E’ un’intervista
basata sulla discussione di gruppo, che produce un particolare tipo di dati qualitativi. Particolarmente usata
in psicologia della salute.
L’incontro è programmato quanto alle linee essenziali e finalizzato alla raccolta di informazioni. La
discussione si attiva a partire da uno “stimolo” che propone il ricercatore.
Questa tecnica evidenzia sia le dinamiche di interazione, che i contenuti.
Il gruppo deve avere da 6 a 12 persone. La durata di una sessione è di 1 o 2 ore. La discussione viene
generalmente audio- o videoregistrata.
¾ Osservazione diretta
Registrazione dei comportamenti verbali e non verbali di alcuni soggetti in una specifica situazione. Di
solito implica un osservatore esterno alla situazione che registra; si usa anche l’osservazione partecipante,
nella quale il ricercatore svolge duplice ruolo, prendendo parte attiva alla situazione che osserva.
La consapevolezza di essere osservati influenza il comportamento dei soggetti (effetto Hawthorne). Una
corretta osservazione è volta a ricavare campioni rappresentativi del comportamento e a questo scopo si
deve definire prima, chi e cosa osservare, per quanto tempo e in che modo.
Il ricercatore può registrare una vasta gamma di indicatori, vanno definite:
- le categorie di osservazione
- le unità di comportamento
- frequenza delle osservazioni
- durata delle osservazioni
Il ricercatore si costruisce una griglia di osservazione dove le categorie si autoescludono e coprono tutta la
gamma dei comportamenti possibili (registrazione degli eventi)
L’osservazione è considerato un buon metodo nella ricerca sociale, ma piuttosto complesso e impegnativo.
Il supporto audiovisivo consente una maggiore affidabilità dello strumento.
¾ Diari
La tecnica del diario trova utilizzi nella ricerca psicosociale, soprattutto negli ambiti della salute e del
lavoro. Registrazione di eventi, effettuate direttamente dalla persona coinvolta, e ancorati a determinati
periodi temporali. Possono essere più o meno strutturati.
Nell’ottica della ricerca-intervento, questa tecnica di auto-osservazione, facilita il coinvolgimento del
soggetto che può favorire il cambiamento desiderato.
Può produrre anche effetti reattivi indesiderati e minare la validità della ricerca.
¾ Tecniche proiettive
Vari materiali che hanno in comune l’ambiguità dello stimolo, ampia libertà di espressione, l’assenza,
spesso, di rigidi criteri quantitativi. Permettono di indagare in maniera indiretta vissuti profondi e aree
delicate della personalità. Sono stati oggetto di critiche per la loro scarsa obiettività, e per la supposta
16
appartenenza a modelli di riferimento aprioristici. Sono utili e hanno una validità accettabile, se utilizzati
nelle fasi preliminari di una ricerca.
¾ Tecniche psicofisiologiche
Tecniche che consentono di misurare reazioni psicofisiologiche in un soggetto in relazione a un evento-
stimolo. Il loro impiego richiede apparecchiature complesse e competenze specifiche. Sembra importante
evitare di fondarsi su singoli indicatori, ma utilizzare molteplici elementi che consentano di ottenere un
ampio profilo di risposta individuale.
¾ Previsione di eventi
Un obiettivo importante è dato dalla previsione di eventi futuri basato sui dati disponibili.
Procedure statistiche sui dati disponibili:
- regressione semplice
- regressione multipla
con il calcolo del coefficiente di correlazione.
→ sono tecniche parametriche e si posso applicare solo su dati parametrici!
¾ Analisi di contenuto
Nelle indagini psicosociale, spesso si raccolgono dati qualitativi. Per trattarli bisogna predisporre uno
schema di classificazione, conosciuto come analisi di contenuto. Vi sono diverse tecniche per la formazione
di uno schema di classificazione dei dati qualitativi secondo tre differenti approcci.
L’approccio può essere:
17
- qualitativo: se si vuol comprendere il significato del materiale
- quantitativo: per ottenere dati numerici da elaborare in seguito
- strutturale: mettere in luce relazioni latenti tra il materiale raccolto.
In ogni caso il ricercatore dovrà decidere quali categorie impiegare in base ai suoi scopi.
Per rendere questa procedura più attendibili è utile utilizzare più codificatori e poi calcolare un indice di
accordo.
PROCEDURE RECENTI
- Simulazioni al computer Æ reti neurali basate su modelli connessionistici.
- Meta-analisi Æ sintesi delle conoscenze acquisite da diversi studi sullo stesso argomento.
Capitolo 8:
EFFICACIA DEGLI INTERVENTI TERAPEUTICI E PSICOSOCIALI
(PierLuigi Morosini e Paolo Michielin)
Def. efficacia: in campo sanitario, la capacità di modificare in senso favorevole il decorso di una malattia o di un
problema, o in altri termini, di produrre esiti di salute migliori di quanto non possa avvenire in caso di decorso
spontaneo. Occorre inoltre che i benefici siano superiori ai possibili affetti collaterali.
Efficacia sperimentale ≠ efficacia nella pratica: la prima riguarda gli studi su soggetti selezionati e in
laboratorio, mentre la seconda riguarda le condizioni quotidiane della professione, con soggetti non
selezionati..
¾ Fattori che ostacolano l’attribuzione di successo di casi singoli alla psicoterapia applicata (var.
interferenti):
1. miglioramento o remissione spontanei
2. regressione verso la media
3. effetto placebo
4. fattori aspecifici appartenenti alle varie tipologie di psico-terapie (es. alleanza terapeutica)
5. selezione dei casi
6. soggettività nell’interpretazione degli esiti.
18
Perché lo studio sia ben condotto è necessario:
- mascheramento della randomizzazione
- doppio cieco
- scelta degli esiti importanti e completezza- sufficiente durata del follow up
- considerazione della var. casuale
Questo è il miglior strumento a disposizione, ma ha il limite della ricerca sperimentale: in centri di terapia-
ricerca applicata, con pazienti non selezionati e poche risorse, non è detto che si avrebbero gli stessi dati.
Un altro disegno è la meta-analisi: studio sistematico delle ricerche effettuate su un determinato argomento
e loro confronto al fine di ottenere evidenze di vari livelli.
Solo una piccola parte degli interventi psicosociale nel mondo è stata oggetto di valutazione rigorosa
dell’efficacia.
Si sa che spesso sono efficaci anche interventi brevi, interventi cognitivo-comportamentali e interventi
gruppali, che hanno un ottimo rapporto tra costi e benefici.
Capitolo 9:
IL PRIMO COLLOQUIO NELL’ASSESSMENT CLINICO
(Ezio Sanavio)
Assessment Æ valutazione iniziale che uno psicologo clinico svolge in rapporto alla possibile presa in
carico di un paziente, al fine di:
- ricostruire meccanismi che sottendono i problemi lamentati
- concordare obiettivi immediati e a lungo termine
- identificare un trattamento adeguato
- decidere per la presa in carico
Vengono formulate ipotesi su relazioni tra disturbi e situazioni, ipotesi di ordine eziopatogenetico, ipotesi
sulle strategie di approccio e sulle tecniche di trattamento: l’assessment procede quindi per falsificazione di
ipotesi. Il primo colloquio è un sottoinsieme dell’assessment. Nell’assessment si usano tre classi di indici:
- indici soggettivi (autoriferiti dal sogg) Æ cognitivo-verbale
- indici motori e comportamentali (dall’osservazione esterna del sogg) Æ comportamentale-motorio
- indici fisiologici (con strumenti di registrazione)Æ psicofisiologico
Il primo colloquio non è autonomo, ma si inserisce in un assessment multidimensionale (comunemente
l’assessment iniziale prevede 2-3 colloqui) e tende a stabilire una relazione collaborativi col paziente.
Attraverso ridefinizione e riformulazione del problema, il colloquio termina con un avanzamento
conoscitivo da parte del paziente.
¾ Topografia dei colloqui iniziali:
- presuppostiÆ il colloquio è reso possibile da un contesto motivazionale
- Fase dei preliminareÆ convenevoli e richiamo degli eventuali antefatti (invio da parte di altri)
- AperturaÆ qual è il problema?
- Specificazione del problemaÆ ottenere descrizione del problema
- Ipotesi di mantenimento Æ esaminare eventuali stimoli che elicitano i disturbi
- AllargamentoÆ specificare problemi attuali oltre al problema di base
- Storia dei problemiÆ ricostruzione dell’inizio del disturbo e formulazioni di ipotesi eziopatogenetiche
- Storia personaleÆtralasciando problemi e patologia, cenni storici sul paziente
- Aspettative di trattamentoÆapprofondire le aspettative del paziente
- Ipotesi di trattamentoÆ precisazione di obiettivi di trattamento possibili
- Formulazione conclusiva e chiusuraÆ restituzione delle informazioni raccolte dai colloqui ed esami
19
Capitolo 10
IL COLLOQUIO IN PSICOLOGIA CLINICA
(Franco Del Corno, Margherita Lang)
(Wiens) Def. Il colloquio è un processo interattivo che ha luogo tra almeno due persone, diverso dalla conversazione
in quanto l’interazione è finalizzata al conseguimento di un obiettivo predeterminato.
Il paziente che si autoinvia Æ è da considerare che c’è differenza tra un paziente che si rivolge per la prima
volta a un terapeuta ed uno insoddisfatto della diagnosi di un altro.
Il paziente inviato dai familiariÆ capire perché i familiari l’hanno inviato e cosa pensa il paziente.
Il paziente inviato da un collegaÆ capire perché lo invia e come il pz ha vissuto l’invio
Il paziente inviato da altre figureÆse l’invio è corretto bisogna differenziare l’approccio tra pz volontario o
coatto.
Dopo aver stabilito un’alleanza diagnostica, bisogna rilevare elementi informativi diretti o inferiti, in modo
da farsi un quadro del paziente. E’ fondamentale indagare anche il funzionamento emotivo, il
funzionamento mentale, le sue modalità di interazione ed eventualmente, se necessari, si possono
interpellare familiari che chiariscano i punti oscuri.
Capitolo 11:
VALUTARE E SCEGLIERE UN TEST
(Luigi Pedrabissi e Alessandra Romito)
Qualità di un test
¾ Il significato del costrutto
Bisogna che sia chiaro il significato del costrutto a cui si è interessati e vedere se corrisponde a quello del
test. I significati espliciti sono riportati nel manuale, ma i significati impliciti si possono ricavare solo
dall’analisi degli item e vanno quindi verificati.
Vanno controllate le affermazioni dell’autore del test in riferimento agli scopi e all’uso del test.
¾ Attendibilità
Grado di ripetibilità dei punteggi ottenuti con un test (necessaria ma non sufficiente per la validità di un
test). Le fonti di errori sistematiche sono eliminabili. La fonte di errore sempre presente è la casualità,
quindi un certo margine è tollerato (maggiore è l’errore casuale, minore la coerenza dello strumento).
Punteggio ottenuto = punteggio “reale” + quota di errore
Si può testare un gruppo di sogg e utilizzare medie e DS dei punteggi del gruppo per derivarne le stime
dell’attendibilità.
Questa stima sui gruppi si calcola come:
- fedeltà test-retest (correlazione tra risultati del test in due tempi diversi: maggiore è la correlazione,
maggiore è l’attendibilità)
- coerenza interna, cioè dell’omogeneità degli item (metodo dello split-half, alfa di Cronbach)
- coerenza tra forme diverse (coerenza tra punteggi in forme parallele di test)
¾ Validità
Posto che un test ha punteggi ripetibili (ed è quindi attendibile), ci si chiede se i suoi item hanno indagato
davvero il costrutto che volevamo.
Intesa tradizionalmente come:
- validità di costrutto (detta anche di contenuto) Æ gli item rappresentano il costrutto?
- validità predittivaÆ il punteggio predice il comportamento?
- validità concorrente Æ relazione con punteggi di altri test che misurano la stessa cosa
- validità discriminante Æ relazione col punteggio di altri test che misurano cose diverse
20
¾ Il campione normativo
Deve essere rappresentativo della popolazione e corrispondere alle caratteristiche del soggetto. Importante è
la metodologia di selezione, l’ampiezza e l’attualità del campione.
¾ Item
- Chiari come formulazioneÆprivi di bias
- Essere a una sola dimensioneÆ rappresentare solo un comportamento, concetto.
- Rappresentare il costrutto indagato
Questioni pratiche
¾ Somministrazione
Le istruzioni devono essere chiare ed assicurare l’interpretabilità di tutti i punteggi: item omessi, tempi,
livello di abilità necessarie,ecc.
¾ Scoring
Metodi di calcolo dei punteggi:
- Modello cumulativoÆ più alto è il punteggio, più è presente il costrutto nel sogg
- Modello di categorizzazioneÆinserisce la persona in classi,categorie a scopo predittivo
- Modello ipsativoÆ valuta se la prestazione del sogg è diversificata rispetto a certe variabili
¾ Costi
I costi di un test sono economici o sociali.
Capitolo 12
IL PROCESSO DIAGNOSTICO IN PSICOLOGIA CLINICA
(Francesco Rovetto)
Nessuna classificazione dei disturbi mentali può avere un numero sufficiente di categorie specifiche per
comprendere tutti i casi clinici immaginabili. Pertanto ogni operazione diagnostica, per quanto corretta e
accurata, costituisce una forzatura, un limite e non solo un vantaggio per la comprensione del paziente in
quanto individuo.
In psicologia clinica non esistono i casi puri e lineari, nonostante ciò bisogna cercare di collocare il quadro
patologico del paziente in un sistema nosografico, per potersi “intendere” con i colleghi. Bisogna evitare
21
impulsività diagnostica ed eccessivo tecnicismo: utilizzare test per confermare o respingere le ipotesi
costruite sulla prima impressione.
E’ anche vero che una precoce e puntuale diagnosi consente di fare riferimento alla esperienza della
comunità scientifica, di comunicare quanto si è fatto, di esprimere una prognosi o valutare i rischi di
trasmissione ereditaria o le possibili evoluzioni di un quadro patologico.
Il sistema multiassiale oltre a consentire di identificare in modo universale le patologie tiene conto di alcuni
dei principali aspetti della vita e dell’esistenza del paziente (DSM IV)
La diagnosi viene emessa solo quando i sintomi superano il valore di soglia sia per durata che per intensità,
diventando così invalidanti.
Def. La diagnosi è un ragionamento plausibile e utile che mette ordine tra i fenomeni psicopatologici osservati,
utilizzando un minimo di inferenze.
Se la diagnosi è corretta si tratta della migliore ipotesi fattibile in quel momento. A essa deve seguire un
costante tentativo di validazione. L’andamento nel tempo del caso e la risposta alla terapia possono fornire
occasione per una conferma, una modificazione o una smentita della diagnosi.
¾ Finalità diagnostiche:
1. indirizzare la scelta terapeutica
2. facilitare la comunicazione tra operatori
3. rendere possibili le indagini epidemiologiche ed eventuali studi genetici oltre alla stesura di
statistiche sanitarie
4. rendere possibile una prognosi in base all’andamento tipico di pazienti con patologie
5. valutare l’efficacia di un trattamento farmacologico psicoterapeutico.
6. facilitare la reperibilità su mezzi informatici
7. facilitare la formazione di gruppi omogenei di pazienti sui quali c0mpiere ricerche
8. fornire un chiarimento lo stesso paziente che può sentirsi rassicurato nel vedere che la sua
patologia è nota ed esistono realistiche possibilità terapeutiche
9. fornire i concetti base necessari per formulazioni teoriche i ambito scientifico
Il processo diagnostico, soprattutto se mal condotto e mal utilizzato, presenta notevoli rischi. La diagnosi è
una previsione che spesso tende ad autoavverarsi [ETICHETTATURA]. La persona deve essere vista come
un tutto senza dimenticare che i disturbi psicopatologici variano nel tempo, per cui la diagnosi ha una sua
validità limitata nel tempo
Una sindrome è un insieme di sintomi che, di solito, si manifestano in concomitanza.
Dopo aver identificato un sintomo, per esempio una condizione di tristezza, il passo successivo consiste
nell’analizzarlo più approfonditamente. La tristezza può essere un sintomo isolato o la punta di un iceberg.
Se è affiancata ad altri sintomi accuratamente descritti può consentire la diagnosi di disistima o depressione.
Una volta identificato il sintomo primario si va quindi alla ricerca di eventuali sintomi correlati.
22
¾ La diagnosi multiassiale secondo il DSM-IV
- Asse 1: disturbi clinici e altre condizioni che possono essere oggetto di attenzione clinica.
- Asse 2: disturbi di personalità e ritardo mentale. Utilizzato anche per annotare meccanismi di
difesa maladattivi che non raggiungono la soglia per un disturbo di personalità.
- Asse 3 : condizioni mediche generali
- Asse 4: problemi psicosociali e ambientali. Sull’asse IV si riportano i problemi psicosociali ed
ambientali che possono influenzare la diagnosi, il trattamento e le prognosi dei disturbi mentali.
- Asse 5: Scala per la valutazione globale del funzionamento (VGF): Questo tipo di informazione è
utile per pianificare il trattamento o misurare il suo impatto e per predire l’esito. Il VGF può essere
utile per misurare i progressi clinici. Il VGF riguarda il funzionamento psicologico, sociale e
lavorativo.
I sintomi, per diventare indicatori di patologia, devono essere quantificati, valutati, posti in relazione con le
condizioni di vita del paziente , con le sue condizioni fisiche e con la sua cultura di riferimento.
I = rapporti interpersonali
D = aspetto organico (farmaci e dieta)
Il modello legato alla diade S-R non è mai stato applicato fuori dall’ambito sperimentale. Negli ultimi anni
si è usata l’ analisi funzionale e la strategia diagnostica, definita come “formulazione del caso”: non
specifica una diagnosi, ma mette a fuoco le condizioni che precedono la comparsa del problema, compresi
gli schemi cognitivi appresi in età infantile e rinforzati dall’abitudine. Oltre agli aspetti motori vengono
compresi aspetti affettivi e fisiologici. Particolare importanza viene attribuita alle dinamiche individuali e
sociali di induzione e mantenimento del quadro patologico.
23
Capitolo 13
PSICOFISIOLOGIA SPERIMENTALE E CLINICA
(Daniela Palomba, Luciano Stegagno)
Def. Interessi primari della psicofisiologia clinica sono lo studio e la comprensione di quei meccanismi di
anomala reattività dell’individuo: la relazione reciproca tra eventi mentali, comportamento e disfunzioni
somatiche o psichiche è l’elemento centrale di studio.
La psicofisiologia clinica ha l’impianto concettuale e metodologico della psicofisiologia dalla quale deriva
ed ha due elementi fondanti:
- la psicologia sperimentale (da cui prende il metodo di studio)
- la fisiologia (da cui prende gli strumenti d’indagine e le basi funzionali)
es. patologia coronaria (correlazione tra personalità e modificazioni fisiologiche)
La psicologia clinica, la medicina e la psichiatria possono quindi ricorrere alla psicofisiologia clinica per
l’indagine dello stato funzionale di apparati fisiologici, risposte endocrine, ecc e per la correlazione delle
modificazioni osservate con eventi mentali e comportamentali.
¾ L’assessment psicofisiologico:
L’assessment si riferisce alla raccolta di tutte le informazioni necessarie per inquadrare il disturbo del
paziente, per stabilire un’ipotesi patogenetica e per impostare un intervento: l’accertamento può riferirsi sia
alla fase diagnostica, che alla fase di verifica dell’andamento del disturbo durante il trattamento.
¾ Criteri metodologici:
I dati devono essere decifrati e interpretati in modo da costituire elementi informativi utili alla diagnosi e al
trattamento. Per far ciò bisogna:
- effettuare misurazioni di base ripetute (baseline) e replicare l’accertamento in condizioni diverse (es. al
lavoro)
- eseguire l’accertamento ai tre livelli, soggettivo, comportamentale e psicofisiologico
- tentare una valutazione quantitativa della sintomatologia (in modo da confrontarla con il post-
trattamento)
L’accertamento psicofisiologico è utile se inserito in un programma più ampio che preveda tre aspetti:
ricerca(es. stress sul lavoro), prevenzione (es. prevenzione cefalea) e inquadramento diagnostico-
trattamento (es. disturbi d’ansia).
24
Capitolo 14:
APPRENDIMENTO
(Paolo Moderato e Maria Lea Ziino)
L’apprendimento è prima di tutto uno strumento di adattamento dell’uomo verso l’ambiente come
l’evoluzione: Darwin per primo mise in evidenza come l’evoluzione e l’apprendimento interagiscano.
In termini più moderni: la trasmissione genetica e l’apprendimento non sono fattori antagonisti, ma processi
che interagiscono in funzione di un miglior adattamento dell’uomo al suo ambiente.
Def. apprendimento: quella modificazione comportamentale che consegue a, o viene indotta da,
un’interazione con l’ambiente ed è il risultato di esperienze che conducono allo stabilirsi di nuove
configurazioni di risposta alle situazioni-stimolo esterne.
Ogni organismo percepisce le variazioni dell’ambiente in cui vive: queste variazioni sono chiamate stimoli
o evento-stimolo.
Il cambiamento ha come oggetto la risposta, intesa come forma diversa di comportamento. Le modalità di
produzione di risposte dono due:
- risposte elicitate: conseguono automaticamente alla presentazione dello stimolo, sono reazioni
psicofisiologiche in reazione al perturbamento di un sistema che le attiva in funzione di ritrovare
l’omeostasi;
- risposte emesse: comportamenti tendenti a modificare l’ambiente, sono molto variabili, dalle più
semplici alle più complesse, praticamente comprendono l’ampia gamma delle manifestazioni umane.
La relazione stimolo-organismo è influenzata (acquista significato e rilevanza differente) da una terza
variabile, il contesto: definibile come l’insieme di eventi situazionali che fanno da sfondo a una particolare
situazione.
I cambiamenti dovuti all’apprendimento hanno perlopiù valore adattivo: La sopravvivenza della specie è
assicurata dall’apprendimento e dalla selezione naturale.
Pavlov era un fisiologo russo che mise a punto, con la pubblicazione del 1927 di “Riflessi condizionati” , il
paradigma del condizionamento classico o rispondente.
Pavlov studiava l’attività digestiva dei cani, e notò che la salivazione compariva anche in presenza del solo
sperimentatore senza cibo.
25
Salivazione in presenza di cibo = risposta incondizionale (RI)
Cibo = stimolo incondizionale (SI)
Associando per un certo numero di volte uno stimolo neutro (SN) come una luce, al cibo (Si), si assisteva
alla comparsa del riflesso condizionato (RC).
Un evento neutro acquista valenza di evento-stimolo perché è associato (associazionismo) a un evento-
stimolo.
Si (carne) Æ Ri (salivazione)
Si (carne) + Sn (luce) Æ Ri (salivazione)
Sn (luce) Æ Rc (salivazione)
Negli ultimi anni si sono proposte nuove interpretazioni del condizionamento classico, in particolare con
Rescorla (1988) che ha pubblicato un celebre articolo “It’s not what you think it is” dove sostiene che
l’apprendimento avviene all’interno di un contesto, l’associazione non è condizione necessaria e sufficiente
per stabilire il condizionamento. L’organismo è visto come dotato di preconfezioni e attivo: utilizza
relazioni logiche tra eventi per costruirsi una visione del mondo sempre più sofisticata.
Questa concezione prende in considerazione gli effetti del comportamento sull’ambiente e di questi, in
retroazione, sull’organismo: le conseguenze di un comportamento aumentano/diminuiscono la probabilità
che questo avvenga successivamente.
Thorndike mise i gatti in una situazione di problem solving: una gabbia da cui si poteva uscire premendo su
un chiavistello, dall’altra parte c’era del cibo (scatole problema). Studiò il comportamento dei gatti: la
soluzione compariva per caso e poi l’animale gradualmente eliminava i comportamenti inutili e sviluppava
sempre più precisamente la risposta. Chiamò questo comportamento: apprendimento per prove ed errori. E
formulò la legge dell’effetto: è l’effetto (satisfaction) di un comportamento che determina la maggiore/
minore probabilità dell’associazione S-R .
Sulla base degli studi di Thorndike, Skinner costruì il paradigma del condizionamento operante.
I comportamenti sono di due tipi:
- rispondente (r. elicitate) Æ risposte condizionali o incondizionali provocate da stimoli conosciuti che
precedono il comportamento
26
- operante (r. emesse) Æ risposte emesse liberamente e rafforzate dalle conseguenze che producono
sull’ambiente
Metodo: Skinner box (gabbia con un operante programmato per emettere cibo).
Il processo mediante il quale un comportamento viene influenzato dalle sue conseguenze è detto rinforzo.
Positivo: quando si aggiunge alla situazione (es. cibo), negativo: quando viene a mancare (es. rumore che
cessa).
¾ Il concetto di rinforzo non è opposto a quello di punizione: l’apprendimento che ne consegue è minore
come intensità e durata, non seleziona un comportamento vincente. La punizione determina
comportamenti di fuga o evitamento: molto resistenti (forse collegati al piacere di un’immediata caduta
dell’ansia).
Thorndike ≠ Skinner:
- la situazione di Sk. non è problemica, in Th. sì
- in Th. c’è nesso tra compito e meta: uscire dalla gabbia vuol dire avere cibo, in Sk, no.
- in Th. c’è associazione S-R (stimolo – risposta)
in Sk. c’è associazione R-R (risposta rinforzo)
- in Th: punizione = cancellazione dell’apprendimento
in Sk: punizione = apprendimento a non fare
APPRENDIMENTO E VARIABILITA’
1- l’operante può essere sia un comportamento osservabile, sia non direttamente osservabile.
2- Il comportamento produce delle conseguenze che hanno qualche effetto sul comportamento stesso.
3- Le relazioni ambiente-comportamento sono di tipo contestuale (non meccanicistico) e funzionale (non
deterministico)
Def. modellamento: quel tipo di apprendimento che entra in gioco quando un comportamento di un
organismo che osserva si modifica in funzione di un altro organismo assunto come modello.
27
Il luogo della causa ha un effetto particolarmente forte sui sentimenti di stima e orgoglio: l’attribuzione
interna porta a credere nella stabilità e controllabilità delle proprie prestazioni e ad aspettative più positive
(teoria della self-efficacy), che diminuiranno l’ansia da prestazione.
La più nota è la behavior therapy, un approccio psicoterapico che spiega la maggior parte dei disturbi
psicopatologici come il risultato di pattern di risposta appresi inadeguati e disadattivi.
Le tecniche concernono l’apprendimento di nuovi comportamenti adattivi, eliminazione-riduzione di
risposte disadattive, potenziamento di comportamenti già presenti.
Def. comportamento governato da regole: esiste una classe di eventi-stimolo precedenti, detti “regole”,
che influenzano il comportamento attuale. La regola è una descrizione verbale che indica quale
comportamento eseguire in quale determinata circostanza. La regola permette di apprendere gli effetti di un
comportamento senza averne fatto esperienza.
IMPARARE AD APPRENDERE
Può succedere che la successione di due attività faciliti l’apprendimento o l’esecuzione dell’ultima di esse,
o comporti per la stessa qualche difficoltà. Questi effetti di interazione si chiamano transfer:
sperimentalmente consiste nell’effetto (positivo o negativo) giocato da un apprendimento su un altro che lo
segue o lo precede temporalmente. Per transfer di generalizzazione si ha il learning set, ossia la capacità che
si verifica come risultato di precedenti esperienze con problemi dello stesso tipo.
Capitolo 15;
MEMORIA
(Gesualdo Zucco)
La memoria associativa sembra essere la forma più primitiva di memoria e l’ultima a spegnersi.
28
2. ritenzione: fase durante la quale avvengono i cambiamenti nelle tracce mestiche (che non è dato rilevare
direttamente)
3. recupero: fase corrispondente alla riproduzione del materiale.
Primi studi:
Ebbinghaus (1885): usa sé stesso come soggetto sperimentale, nel suo laboratorio. Usò solo trigrammi
senza senso, e osservò che l’apprendimento di due serie (una originale e una derivata) era tanto più
semplice quanto più simili erano le serie: questa era una dimostrazione semplice e d efficace che la
memoria procede per associazioni.
¾ Metodi:
Presentazione seriale
Consiste nel presentare ai soggetti lettere, numeri, parole in serie, con un ritmo costante. E poi nell’invitarli
a riprodurli nell’ordine esatto.
Fenomeni studiati:
- Risparmio: se, dopo un certo periodo di tempo, si invitano i soggetti a imparare la serie fino alla prima
ripetizione corretta, si riducono sia il tempo, che il numero delle prove necessarie.
- Esercizio: è solo la pratica che favorisce l’apprendimento
- Span di memoria: capacità individuale, intesa come numero di elementi ricordati
Riconoscimento
Consiste nel riproporre ciascuno degli item oggetto di studio insieme a uno (r. binario) o più item nuovi (r.
multiplo) e nel chiedere ai soggetti di individuare l’item originale.
Nel riconoscimento occorre confrontare una traccia mestica con uno stimolo. Nella rievocazione occorre
una ricerca attiva della traccia mestica in assenza di indizi, per cui sono due compiti diversi.
- Teoria della detezione del segnale: si presentano 20 parole ai sogg, poi le si mischia con altrettante
parole nuove. Si mostrano ai sogg gli stimoli uno ad uno. I sogg possono riconoscere uno stimolo della
serie originale (Hit), rifiutare correttamente uno stimolo non appartenente alla serie originale (Correct
rejection), non riconoscere uno stimolo della serie originaria (Missing) o riconoscere uno stimolo che non
fa parte della serie originaria (False alarm).Su questi dati si calcola l’indice d’, che rappresenta la capacità
di discriminare tra uno stimolo nuovo e uno già presentato.
29
Categorizzazione e organizzazione
Bousfield (anni ’50) osservò che in compiti di rievocazione libera di elementi posti in serie in modo
casuale, i soggetti tendevano a raggrupparli per categorie semantiche.
Tulving (1962) osservò che i legami non erano solo oggettivi, ma riflettevano anche caratteristiche
personali dei soggetti.
Osservarono anche che item eterogenei, in categorie omogenee, si ricordano meglio.
Questa osservazione era già stata fatta da Von Restorff ed in modo più sistematico. Recentemente è stato
nominato “distintività dello stimolo” .
Per la teoria dell’interferenza la distinzione MBT – MLT non aveva molto senso, invece lo aveva per la
teoria del decadimento.
Attualmente, in modo curioso, si sostengono le ipotesi:
- teoria dell’interferenza
- MBT distinta da MLT
1) Miller nel 1960 pubblicò un lavoro sul “magico numero sette” ± 2 , che testimoniava come la MBT
avesse una capacità inferiore alla MLT;
2) Nei compiti di rievocazione libera si osserva che il ricordo degli item nella serie ha una distribuzione a
“U”: si ricordano meglio i primi e gli ultimi (effetto di “primacy” e “recency”). Il rehearsal sposterà i
primi item in MLT , e gli ultimi staranno in un magazzino a capacità limitata, cioè la MBT.
3) Le prestazioni dei soggetti in compiti di memoria, sono influenzate dal tipo di materiale: in MBT sono
influenzate da somiglianze acustiche tra gli item, in MLT semantiche.
4) Osservazioni di pazienti con danni neurologici dimostrano che i danni sono selettivi per MBT e MLT.
30
- concezione dell’uomo come soggetto dinamico e attivo (interviene sulle informazioni e le elabora a
differenti livelli)
Ci fu un proliferare di modelli.
Atkinson e Shiffrin (1968) presentano un modello di memoria che diventerà popolarissimo. La memoria
non era più un contenitore inerte, ma una funzione mentale attiva. Videro nel PC un modello della mente:
La trasmissione:
→ 1: modalità preattentiva e precategoriale
1→2: attenzione
2→ 3: rehearsal
La perdita avviene: in 1 per decadimento
in 2 per interferenza e per decadimento
in 3 per interferenza
Il formato: in 1 copia rudimentale dell’input
in 2 fonetica
in 3 semantica
Capacità: in 1 illimitata
in 2 variabile: 7±2
in 3 illimitata
Durata della traccia: in 1 millisecondi
in 2 fino a 30 secondi
in 3 illimitata
Recupero: in 1 non è recuperabile
in 2 favorito da indici fonetici
in 3 favorito da indici esterni riguardanti il contesto
Atkinson e Shiffrin utilizzarono solamente materiali visivi e verbali: non hanno mai confermato la validità
del loro modello per altri tipi di materiale.
¾ Critiche → ruolo del rehearsal: è stato dimostrato che non sempre la ripetizione libera produce
apprendimento. A. e S. hanno ipotizzato due tipi di rehearsal: superficiale e profondo (se si bada al
significato delle parole), solo il secondo produrrebbe apprendimento.
Sperling (1960, 1963) nel tentativo di spiegare il riconoscimento di stimoli presentati al tachistoscopio,
scoprì il registro sensoriale.
Dai suoi studi emerse con chiarezza l’esistenza di un magazzino sensoriale dalla capienza illimitata, ma in
cui le tracce restano un tempo brevissimo. S. chiamò questa memoria “iconica” .
Rilevò che è pre-categoriale e pre-attentiva, poiché non consente il riconoscimento del materiale in entrata
che avviene solo in MBT.
31
¾ TEORIA DELLA PROFONDITA’ DI CODIFICA
Critiche:
- non è chiaro perché un compito di natura semantica deve condurre a prestazioni migliori
- se i suggerimenti in fase di recupero corrispondono al livello di elaborazione in fase di codifica, il
ricordo può essere buono anche per livelli superficiali di elaborazione
- nell’eseguire elaborazioni semantiche le risposte di tipo sì erano ricordate meglio dei no, e non si sa
perché
- l’esistenza di una sequenza ordinata e lineare di stadi sperimentalmente è stata contraddetta.
Gli autori risposero:
- il codice semantico è superiore per complessità di elaborazione e distintività (effetto von Restoff): gli
altri livelli sono meno elaborati e meno specifici.
32
Questa teoria si è dimostrata utile, per la rievocazione di ricordi da parte di testimoni.
Memoria di lavoro
Tulving nel 1972, propose una interessante distinzione nella memoria a lungo termine, a seconda dei
contenuti:
¾ Conoscenze di tipo dichiarativo (o proposizionale): consentono di definire gli eventi per proposizioni.
Si divide in:
- Episodica: autoconsapevole (“autonoetica”), connotativa, contraddistinta da chiari riferimenti spazio-
temporali, spesso autoreferente (es. ieri marco mi ha detto del suo divorzio)
- Semantica: rigida, simbolica, impersonale, denotativa, consapevole (“noetica”), non ha riferimenti
spazio-temporali ed esprime le nostre conoscenze del mondo (es. il burro si ricava dal latte)
Questa distinzione è stata confermata a livello neuroanatomico: dagli studi su pazienti amnesici, e da studi
effettuati con la PET. Tulving ha inserito la memoria autobiografica all’interno del sistema episodico.
¾ Conoscenze di tipo procedurale: sono le conoscenze che abbiamo sul come si svolgono le attività (es.
andare in bici). Sono conoscenze “anoetiche” (non sappiamo quando e come le abbiamo apprese).
33
Anche qui si sono trovate prove sperimentali di una divisone neuroanatomica.
L’attenzione e la consapevolezza hanno un ruolo differente nei vari tipi di memoria: importante per
episodica, meno importante per semantica, nullo per procedurale.
Memoria e immaginazione
Il cognitivismo ha riacceso l’interesse per lo studio delle immagini mentali. Le ricerche hanno dimostrato
che la mente si crea immagini che hanno particolarità proprie rispetto agli altri tipi di rappresentazioni:
possono essere esplorate, ruotate e modificate, come gli oggetti esterni.
Una delle più note teorie è quella del “doppio codice” sviluppata da Paivio nel 1971 e poi perfezionata.
L’autore sostiene che le informazioni sono codificate ed elaborate da due sistemi distinti: verbale e non-
verbale.
Codifica verbale → processo sequenziale
Codifica per immagini → analisi globale e parallela
Spiega il fenomeno sperimentale per cui: figure e parole concrete ad alto valore di immagine vengono
codificate dai due sistemi e ricordate meglio di parole astratte.
Trovate sperimentalmente analogie tra immagini concrete e mentali: studi sullo “scanning” (ispezioni
mentali) hanno dimostrato che vi è analogia tra le operazioni svolte nella realtà e quelle rappresentate
mentalmente.
Kosslyn (1980) ha dimostrato che il tempo che si impiega mentalmente per spostarsi da un punto di un
immagine a un altro è funzione sia della distanza, sia degli oggetti che si frappongono, i tempi seguono le
leggi della percezione .
Shepard (1971) ha dimostrato che il tempo per decidere se due figure geometriche orientate in modo
diverso sono uguali oppure no, è funzione direttamente dell’angolo di rotazione.
Hasher e Zacks (1979)hanno ipotizzato che alcuni attributi degli stimoli, nel processo di memoria, sono
esenti dall’influenza di strategie di memorizzazione o dalla volontà di apprendere.
Tali attributi vengono quindi codificati in forma automatica.
Prendendo una serie di item, gli attributi più importanti sono:
- frequenza (es. serie di parole e figure presentate in una lista: quante volte la parola x è comparsa?)
- posizione spaziale (es. cartoncini con parole agli angoli: in che angolo era la parola x?)
- ordine temporale di comparsa
I primi due sono stati sottoposti a rigorose prove sperimentali.
Vi è accordo tra i ricercatori nell’affermare che: nella MLT le conoscenze sono organizzate in reti
gerarchiche in base al loro significato.
Un’organizzazione ad albero per categorie semantiche sovraordinate (es. animali), intermedie (es. pesce) e
sottordinate (es. trota), collegate da nodi.
34
¾ Esperimento di Collins e Quillian (1969)
Presentazione: item (affermazioni) in serie
Consegna: Giudicare VERO/FALSO il più velocemente possibile
Osservazione: tempi più lunghi per affermazioni che implicavano l’appartenenza a categorie sovraordinate
(“la trota è un pesce” era più veloce di “la trota è un animale”).
Conferme alla teoria.
Fu ripreso ed esteso da Anderson (1976) con il concetto di “priming semantico” : facilitazione prodotta da
uno stimolo nell’elaborazione del successivo (es. si riducono i tempi di reazione se si chiede “la trota ha le
branchie?” e poi “la trota è un pesce?”, perché appartengono alla stessa categoria semantica)
Idea sostanziale: la mante umana opera in modo analogo a un calcolatore, riceve informazioni, codifica,
elabora, decide, fornisce un output.
Da qui → il pensiero intelligente può essere riprodotto-simulato tramite un calcolatore.
In sintesi:
modello: analogia mente-computer
metodo: simulazioni dei processi cognitivi
applicazioni: programmi utili alla soluzione di svariati problemi: decisioni in campo economico,
progettazioni di manufatti, diagnosi mediche.
I programmi per PC che simulano il ragionamento umano sono composti da due tipi di elementi:
- euristiche: strategie generali e creative che consentono di affrontare situazioni nuove
- algoritmi: regole specifiche e rigide che favoriscono la soluzione in automatico di microproblemi
all’interno di quello generale.
Nel 1986 Rumehlart e Mc Clelland supplicano il volume: “Parallel distribued processing” che diffonde la
teoria delle reti neurali.
Fanno riferimento alla teoria pionieristica di Lashley (1929), per cui le informazioni non sono disposte in
punti precisi, ma distribuite su regioni (come la corteccia associativa). Queste informazioni possono essere
elaborate da più unità che lavorano simultaneamenteÆ la distruzione di alcune parti delle aree su cui sono
depositati i ricordi non da luogo alla perdita totale delle informazioni.
La metafora della mente stavolta è il cervello come organo, ed il PC diventa lo strumento per elaborare
simulazioni.
35
¾ Il modello di una rete PDP (Processi Distribuiti e Paralleli) concepisce:
- un organizzazione delle informazioni in rete
- un certo numero di nodi (informazioni)
- connessioni ± potenti tra i nodi e che agiscono in due sensi: eccitatorio (+) e inibitorio (-)
- organizzazione molto flessibile: la rete si riadatta continuamente per i nuovi apprendimenti
- le informazioni si trovano in più punti e non si cancellano se un nodo viene danneggiato
Capitolo 16:
PROCESSI COGNITIVI
(Marta Olivetti Belardinelli)
36
- la ricerca sul pensiero è caratterizzata da intrinseche difficoltà metodologiche (coincidenza oggetto e
metodo)
Nell’ultimo decennio, la ricerca sul pensiero è distinta in un approccio che considera il pensiero come
ragionamento guidato da regole di inferenza (come il linguaggio) e un approccio che caratterizza il pensiero
come ricerca euristica che procede attraverso il cambio di operatori. Questa dicotomia risale all’antica
dicotomia tra il pensiero accompagnato da rappresentazioni e pensiero senza immagini.
¾ L’intelligenza e il comportamento di soluzione dei problemi
Il comportamento di soluzione problemica fa parte della definizione stessa di intelligenza, poiché essa può
essere solo inferita come costrutto, attraverso l’osservazione di un comportamento che non è né abitudinale
né istintivo.
Per ragioni di ordine metodologico, gli associazionisti di Wundt ritennero le attività cognitive superiori non
indagabili sperimentalmente e focalizzarono il loro interesse sulla percezione.
I gestaltisti furono i primi ad indagare l’attività di modificazione del rapporto organismo-ambiente, posta
in essere dal soggetto, considerando il “pensiero produttivo” un buon esempio dell’attività strutturante
dell’organismo. Nascono così i problemi di “insight”, caratterizzati dal fatto che solo alcuni dei passi che
bisogna compiere per giungere alla soluzione sono cruciali. Una volta risolti, la soluzione segue
rapidamente, sempre che non subentri una fissazione funzionale, che ostacola la ristrutturazione produttiva.
Il comportamentismo escluse totalmente l’impiego della metodologia di tipo soggettivo: la ricerca adottò
come argomento privilegiato di indagine il problem solving.
L’avvento del cognitivismo frantuma lo stretto nesso deterministico fra stimolo e risposta, accentuando il
ruolo dei processi di elaborazione dell’informazione, a proposito dei quali si possono formulare solo dei
modelli di funzionamento (HIP)
¾ La regolazione affettiva della cognizione
Possiamo classificare gli argomenti relativi alla vita affettiva come pertinenti a:
- definizione-descrizione dei costrutti all’origine della determinazione affettiva del comportamento
- individuazione-definizione dei sistemi di controllo direzionale del comportamento
- individuazione-classificazione degli scopi del comportamento affettivamente regolato
- interazione-interferenza di fattori cognitivi e affettivi nella regolazione del comportamento
- origine-evoluzione-modificazione dei processi di regolazione affettiva.
O principali costrutti che si collocano all’origine del comportamento cognitivo, sono motivazione ed
emozione, anche se ne sono stati indicati altri (pulsione, istinto, tendenza, affetto, impulso)
Negli anni 90, tra i due costrutti, è stata svolta maggior ricerca sulle emozioni.
¾ I processi cognitivi di comunicazione
Lo sviluppo storico delle ricerche psicologiche sulla comunicazione è stato enormemente accelerato
dall’affermarsi dell’impostazione cognitivista: tutti i processi psichici vengono considerati come processi di
elaborazione di un’informazione comunicata in input al sistema elaboratore, il quale a sua volta comunica
al termine del processo, in output, la risposta.
Centrali per l’attuale scienza cognitiva sono le ricerche sul linguaggio: il linguaggio è un sistema
oggettivato di categorizzazione interrelate, passibile di manipolazioni sperimentali.
Al fine di ottenere indicazioni sulla struttura e le modalità di funzionamento della mente i cognitivisti hanno
individuato un altro linguaggio specie-specifico, quello musicale.
Capitolo 17:
MOTIVAZIONE E REGOLAZIONE DELLE EMOZIONI
(Pio Enrico Ricci Bitti e Roberto Caterina)
Il comportamento di un sogg è orientato alla realizzazione di un certo numero di scopi e alla soddisfazione
di determinati bisogni mediante azioni e attività coordinate.
L’attività cognitiva e l’attività comunicativo-espressiva fanno parte integrante del processo che porta
all’attivazione dell’organismo per il conseguimento di determinati obiettivi. In quest’ottica, si tende a
esaminare in maniera congiunta motivazione ed emozione (ruolo di mediazione tra esigenze ambientali e
individuali).
37
Motivazione ed emozione rappresentano due facce della stessa medaglia:
- studio della motivazione Æ perché un comportamento viene attivato (non verificato)
- studio dell’emozioneÆ analisi del come viene attivato.(sottoposto a controllo e verifica)
Il collegamento tra emozione e motivazione risiede nella potenzialità che hanno le emozioni di modificare
la relazione tra organismo e ambiente.
Concezione tradizionale: l’emotività era connessa a un’eccitazione disorganizzata e disfunzionale, la
motivazione a un’eccitazione organizzata e finalizzata a uno scopo.
Adesso si tende a evitare distinzioni così nette: si è visto che emozioni moderate aumentano la capacità di
raggiungere obiettivi. Le emozioni di paura e angoscia sono del tutto adeguate alla situazione e
predispongono l’organismo ad agire con la massima celerità; vi sono invece nella psicopatologia emozioni
non legate a situazioni di emergenza o in cui la reazione non è adeguata alla situazione. Esiste quindi una
quota dell’esperienza emotiva che può risultare non funzionale per il conseguimento di determinati scopi
da parte dell’organismo.
Soggetto ↔ Ambiente
↓ ↑
Bisogni (φ e ψ) → Obiettivi → Attività Comunicativo-espressiva
→ Attività Cognitiva
→ Azioni
¾ Sistema motivazionale-cognitivo-emotivo
Modello proposto dagli autori Bitti e Caterina:
Questo sistema può situarsi a tre livelli gerarchici, a cui corrispondono vari pattern di combinazione degli
aspetti (motivazionale, cognitivo ed emotivo):
- motivazionali
- emotivi
- cognitivi
- comunicativi
- strutture cerebrali prevalenti
- apprendimento
Istinto ≠ Pulsione
L’istinto: sequenza di comportamento automatica e diretta verso una meta. Dotazione genetica.
38
Pulsione: forza interna (es. fame e sete) senza essere correlato da comportamenti di soluzione, questi
devono essere appresi.
Con il cognitivismo, le motivazioni sono viste come concetti dinamici, che mutano in rapporto al numero di
informazioni provenienti dall’ambiente, che l’organismo è in grado di elaborare. Le informazioni in entrata
provocano una continua ristrutturazione dei piani progettati per il conseguimento degli obiettivi.
Critica: non in tutte le motivazioni c’è un’importanza fondamentale delle funzioni cognitive (es. fame e
sete).
Freud (1911) nella sua teoria “dei due principi dell’accadere psichico”, ipotizza due tipi di motivazione: il
principio del piacere (primaria) e il principio di realtà (secondaria).
I processi primari sono orientati dal principio del piacere. La necessità di dover agire sull’ambiente
comporta la rappresentazione a livello psichico di ciò che è reale. L’apparato psichico si ispira quindi al
principio di realtà. Il passaggio da uno all’altro comporta conseguenze in termini di ristrutturazione
cognitiva. Il primo non è annullato dal secondo , ma gli cede il passo per un migliore adattamento alle
richieste interne ed esterne.
39
I processi di base interagiscono con la motivazione, per esempio la percezione: vedere un oggetto
intensifica il desiderio di averlo, quando lo stimolo è ambiguo sono le motivazioni a influenzare la
percezione (vedi Test proiettivi).
Applicazioni:
- “psicologia del consumatore”
Si studia con metodi che mirano a individuare le motivazioni inconsce: interviste in profondità, tecniche
proiettive
- “motivazione al lavoro”
Tre tipi di approcci in linea con i bisogni di Maslow: razionale-economico (incentivi economici), sociale
(bisogno di affiliazione), di autorealizzazione (promuove un arricchimento qualitativo del lavoro). La
leadership più funzionale è diversa per ogni approccio e anche i compensi più motivanti.
EMOZIONE
Per D’Urso e Trentin (1998) esistono quattro prospettive teoriche abbastanza delineate:
1) filone di studi che inizia con James e definisce le risposte fisiologiche;
2) la prospettiva evoluzionistica darwiniana con gli studi sulle emozioni fondamentali;
3) la prospettiva cognitivista con la concezione dell’emozione come informazione da elaborare,
come uno dei processi inseriti nell’interazione individuo-ambiente;
4) il costruttivismo sociale con l’importanza data dal contesto sociale nella determinazione
dell’espressione e del significato delle emozioni.
Esperimento di Hohmann (1966) su pazienti con aree estese del corpo paralizzate: l’insensibilità corporea
era correlata con una diminuita capacità a provare emozioni intense.
40
Esperimento di Schachter e Singer (1962) Indussero mediante iniezione di adrenalina delle reazioni
fisiologiche tipiche di arousal.
Alcuni soggetti erano stati informati correttamente, un altro gruppo fu informato in modo sbagliato, un
terzo gruppo informato per nulla.
Gli ultimi due gruppi si lasciarono coinvolgere più facilmente da uno sperimentatore in compiti emotivi e
attribuirono alle emozioni le modificazioni dell’arousal.
Ma risulta valida la conferma dell’ipotesi di Darwin e James che l’attivazione può essere fonte della
valutazione cognitiva.
Oggi si tende a ridimensionare il peso di queste contrapposizioni e a considerare i rapporti tra sistema
cognitivo e sistema espressivo-motorio variabili a seconda del tipo di emozione e del tipo di stimolo. Non
sempre gli aspetti espressi dalle diverse componenti concordano tra loro (anche perché possono essere
inibiti-controllati in quantità diverse). Piuttosto che di primato, si parla di relativa autonomia tra le singole
componenti.
¾ Aspetti applicativi
Nel 1990 Salovey e Mayer proposero il concetto di “Intelligenza Emotiva”, reso famoso dal libro di
Goleman (1995) con lo stesso titolo.
Goleman riprende la concezione di Gardner e sostiene che esiste un tipo di intelligenza a carattere emotivo
che permette di vivere meglio e spesso più a lungo.
Riguarda:
- la consapevolezza delle proprie emozioni
- la capacità di controllo e regolazione
- la capacità di sapersi motivare
- l’empatia (riconoscimento delle emozioni altrui)
- capacità di gestire le relazioni di gruppo
Goleman vede l’applicazione di training per l’apprendimento emozionale in vari ambiti: scuole, lavoro, ecc
41
SNA: causa molteplici cambiamenti corporei: osservabili (sudore, arrossamento, modificazioni del
diametro pupillare, del ritmo respiratorio) e rilevabili solo con apparecchiature specifiche (modificazioni
nella conduttanza cutanea, pressione sanguigna,ecc). Sono tutti fenomeni involontari ed estremamente
difficili da inibire.
SNE: la produzione da parte delle surrenali di Adrenalina e Noradrenalina è essenziale per l’attivazione del
SNA. Ma esiste un vero e proprio profilo ormonale collegato all’attività emotiva, ed è particolarmente
evidente nelle manifestazioni di ansia e stress.
¾ Aspetti motivazionali
Le emozioni sono una forma di risposta orientata all’azione, reazioni di fronte al turbamento di un
equilibrio tra elementi pulsionali-cognitivi-esperienziali di un individuo.
Ekman e Friesen (1969) effettuarono uno studio molto importante: sottoposero al giudizio di un gran
numero di giudici provenienti da molte nazioni e di aree socioeconomiche diverse, delle espressioni facciali
da loro prodotte. Poi studiarono i giudizi di individui provenienti da due società “primitive” della Nuova
Guinea. Produssero un gran numero di dati che confermarono l’accordo di giudizio e quindi l’universalità
ipotizzata da Darwin.
Un’ipotesi che tiene conto delle differenze culturali è quella che le differenze stiano nelle regole che
governano l’espressione delle emozioni (es. società orientale).
Esperimento di Ekman: ha dimostrato che soggetti giapponesi controllano di più le espressioni facciali
rispetto a soggetti americani, e soprattutto se sono in presenza di compatrioti.
Molte ricerche hanno dimostrato come l’inibizione della comunicazione emotiva (soprattutto in
conseguenza a eventi traumatici e luttuosi) abbia importanti ripercussioni sulla salute degli individui a
lungo termine, a breve termine può aiutare a attenuare il dolore.
Capitolo 18
LINGUAGGIO E COMUNICAZIONE
(Guglielmo Gulotta)
Il concetto di comunicazione viene utilizzato in svariati ambiti: dalle relazioni umane, al più generale
contesto delle relazioni sociali, al mondo della tecnologia. In ambito psicosociale, l’attenzione si è
focalizzata sulla comunicazione nei termini dell’interazione sociale.
42
La comunicazione non è un processo lineare da un emittente e un ricevente. La comunicazione crea un
punto di contatto, apre un processo dinamico che vive degli apporti dei due comunicanti e usa canali e
strumenti appropriati al ruolo di ciascuno. Si parla di circolarità di sistema.
I processi comunicativi devono tener conto di alcuni elementi:
- elementi linguistici, nel senso di segni
- strutture che appartengono all’atto del linguaggio, come parlare/comprendere
Nei primi ambiti è prevalso lo studio dei processi cognitivi, nel secondo la dimensione di azione.
Il problema attuale è quello di conciliare queste due posizioni, come si propone di fare la prospettiva
conversazionale.
Storia:
Modello tecnico di Shannon e Weaver (1949)
Linguaggio come passaggio di informazioni da una fonte a un destinatario, mediante codifica dei segnali di
natura binaria (corrispondenza significante-significato)
Modello linguistico
Si riconosce l’importanza del contesto e del partecipante come soggetto sociolinguistico
Modello psicosociologico di Anzieu e Martin (1971)
Comunicazione come rapporto tra locutore e allocutario, finalizzato alla produzione di significati attraverso
registri verbali, non-verbali, paraverbali e prossemici.
Modelli a interlocutori
Comunicazione come interazione, come luogo di fondazione dell’intersoggettività in un rapporto di
reciprocità e cooperazione.
La comunicazione ha una dimensione contrattuale dove la posta in gioco è la persuasione e gli attori sono
enunciatario-comunicante e enunciatario-interpretante.
COMUNICAZIONE E INTERAZIONE
Nella prospettiva pragmatica, secondo Watzlawick ogni comunicazione ha un aspetto di contenuto e uno di
relazione, in modo tale che il secondo determina il primo ed è quindi “metacomunicazionale”.
La natura di una comunicazione dipende dalla punteggiatura delle sequenze di comunicazione tra i soggetti,
cioè dall’ordine causa-effetto che i sogg danno alle loro azioni e controreazioni.
43
Le relazioni complementari, tendono a incrinarsi quando sono troppo rigide.
Le manovre comunicazionali sono risposte che mirano a definire o ri-definire un rapporto e consistono in
richieste, suggerimenti, istruzioni all’altra persona, ecc.
Le strategie sono invece definite come metodi sottili, ma sleali, per raggiungere il controllo del
comportamento altrui e modificarlo in modo favorevole per se stessi. Le strategie disorientano
l’interlocutore consistono nell’uso di artifici dialettici che hanno la caratteristica di essere paradossali: es.
“io mi sbaglio sempre”, “io scherzo sempre”,ecc. Frequenti sono le prescrizioni paradossali, caratterizzate
da un’ingiunzione che richiede un comportamento da parte dell’altra persona, che può essere attuato
soltanto disobbedendo all’ingiunzione stessa. Es. “sii spontaneo!”, “dovresti amarmi”,ecc.
Le prescrizioni possono investire la sfera sessuale: diventano strategie per infrigidire e/o castrare. Ci sono
poi strategie per colpevolizzare e possono essere di tipo introiettivo (fare la vittima) o proiettivo
(dimostrare la colpevolezza dell’altro). Vi sono poi strategie per imbarazzare e per irritare.
La funzione essenziale della comunicazione è quella sociale: essa è il frutto di un gruppo di individui, ne
modifica la realtà soggettiva, è lo strumento di contatto.
Essenziale è quindi la funzione referenziale: lo scambio di informazioni tra interlocutori su un oggetto
(referente).
L’uso del linguaggio come di ogni altro strumento è condizionato dalla competenza, in questo caso,
linguistica.
Il concetto di competenza deriva dagli studi di Chomsky (1965): indica l’insieme di conoscenze che un
parlante ha della lingua che impiega, cioè delle regole che usa per produrre e comprendere potenzialmente
un numero infinito di frasi.
Assunti chomskyani:
- esiste una grammatica universale: tutti i linguaggi sono tagliati sullo stesso modello “profondo”
- le regole del livello profondo sono innate e non apprese e forniscono una base generale per
l’apprendimento del livello superficiale
Austin e Searle (1969, 1974): “Parlare è agire”, il fenomeno linguistico è equivalente a un’azione.
Distinguono tra enunciati
performativi Æ indicano il fare all’interno di un contesto (es.”mi dimetto”)
≠
constatativi (o referenziali)Æ sono usati per affermare proposizioni delle quali ci si può chiedere se siano
vere o false.
44
LINGUAGGIO
La comunicazione umana è un importante strumento per coinvolgere più individui, per portare parlante e
ascoltatore in uno stesso schema interpretativo. E’ un insieme complesso di segni e simboli, che ci servono
anche a interpretare il nostro ruolo sociale secondo un copione che noi stessi scriviamo.
Robinson (1978) il linguaggio copre tutta la gamma dei rapporti interpersonali, cioè:
- area operativa: domanda e offerta (es. chiedere o dare suggerimenti, giudizi, informazioni,ecc)
- area socioemotiva positiva: manifestazioni di solidarietà, ridere, comprendere, ecc.
- area socioemotiva negativa: manifestazioni di dissenso, odio, tensione, ecc.
Queste funzioni possono essere raggruppate in un ordine più elevato: analisi del problema, soluzione del
problema, sintesi della soluzione. Queste funzioni vengono utilizzate per risolvere specifiche situazioni
interattive. Principali funzioni:
¾ Funzione di eteroregolazione
Per realizzare la regolazione del comportamento altrui abbiamo a disposizione diverse forme, dalle più
dirette (es. dammi il libro) alle più sfumate (es. bisognerebbe comprare il pane)
- Regolatoria Æ è la prima funzione e consiste nell’intenzione del soggetto di far passare
un’informazione per esercitare un’influenza. Richiama la capacità di codifica e decodifica.
- Riproduzione Æ corrispondenza tra messaggio e mezzo di comunicazione che si intende usare.
¾ La funzione metalinguistica
Una volta intrappolati in una certa formulazione verbale che abbiamo dato al problema, può diventare
difficile vedere le cose diversamenteÆ watzlawick dice che le persone possono restare intrappolate dalle
stesse soluzioni che danno ai loro problemi.
45
- linguaggio degli oggetti: esibizioni intenzionali e non di cose materiali che ci circondano (auto,
vestiti, cellulare,ecc)
Il linguaggio non verbale è stato chiamato linguaggio silenzioso, e ne sono stati classificati vari tipi:
a) Apparenza fisica: la bellezza è un importante fattore che facilita i rapporti sociali;
b) Abbigliamento: come dato visibile, ancora prima in senso di distanza dell’espressione facciale;
c) Postura: manifesta il diverso grado di accessibilità consentita all’altro;
d) Orientamento spaziale: posizioni reciproche che le persone assumo nello spazio;
e) Mimica facciale e sguardo: per rinforzare ciò che viene detto e fornire feedback all’altro;
f) Distanza interpersonale: intima (0-35cm), personale(da 35 cm a 1 mt), sociale (da 1 a 3 mt),
pubblica (da 3 mt in su).
Studi sull’importanza dei fattori nell’attribuire il significato ai messaggi, hanno indicato che:
- le parole 10 %
- il tono della voce 40%
- comportamento non verbale 50%
Se il tono di voce e il comportamento non verbale contraddicono le parole, il messaggio non passa o passa
solo parzialmente, mentre l’effetto è massimo quando i canali si rinforzano tra loro.
46
I ricordi risentono della sequenza di apprendimento dei dati: effetto primacy (la prima informazione è più
importante delle altre) ed effetto recency (l’ultima informazione ha maggior rilievo delle precedenti)
La psicologia sociale ha individuato fattori paralinguistici che aumentano la persuasività del linguaggio: la
velocità del linguaggio aumenta la persuasività e l’attendibilità.
Toulmin (1979) ha studiato come deve essere strutturata un’argomentazione per essere efficace:
- Devono essere esposte in modo chiaro le asserzioni
- Devono essere supportate in modo attendibile da dati e fatti rilevanti
- Deve essere esplicitato il diverso grado di certezza o probabilità delle asserzioni
- Devono essere espresse riserve riguardo a circostanze eccezionali che potrebbero falsificare le
asserzioni
Anche la persuasione è considerata attualmente un processo interattivo tra persuasore e persuaso. La scelta
del tipo di tattica dipenderà di conseguenza dall’uditorio e dal contesto.
Capitolo 19
L’INTELLIGENZA
(Ornella Andreani)
Def. popolare: appare chiara, intuitiva, è un concetto d’uso comune per valutare una persona in molteplici
contesti in cui è necessaria una definizione di funzioni e ruolo oppure una previsione di successo nella
carriera (scolastica o lavorativa).
≠
Def. scientifica: criteri di misura frequentemente criticati come selettivi, poco affidabili, intrisi di
pregiudizi di razza, cultura, classe sociale.
STUDI PSICOMETRICI
I primi studi risalgono ai primi del ‘900 e si basavano sull’analisi delle differenze individuali in abilità
(talvolta specifiche e irrilevanti, talvolta più legate ai processi di base che ai processi superiori).
Ebbero però un forte sviluppo perché rispondevano alle esigenze della società industriale di allora
(selezione per scuola o lavoro).
Due linee principali nella costruzione dei test:
- Indici globali che differenziano diversi livelli di età (es. Scala di Binet) o di posizione rispetto alla
media dello stesso gruppo di età (Scala di Wechsler) Æ Nella scala binet, l’Età Mentale (EM)
presuppone un parallelismo tra maturazione cronologica e sviluppo intellettuale che non è lineare e
non c’è dopo i 15-18 anni, mentre le scale Wechsler colgono degli aspetti di esperienze e
conoscenze, piuttosto che potenzialità intellettuali.
- Metodi analitici (test di Thurstone) che misurano diverse dimensioni non correlate tra loro e
permettono di costruire un profilo dell’individuo confrontabile con i profili tipici del gruppo di
riferimento (classe o gruppo professionale) Æ il valore predittivo dei test fattoriali è minore rispetto
a quello degli indici globali
47
¾ Metodi fattoriali
Def. l’analisi fattoriale è un metodo statistico basato sull’analisi delle correlazioni tra vari test mentali e
prove, con cui si cerca di scoprire le unità funzionali :
- di tipo cognitivo Æ abilità
- di tipo comportamentale Æ tratti
oppure i fattori che stanno alla base di fenomeni associati tra loro.
I metodi fattoriali non partono da una definizione precisa e aprioristica dell’intelligenza (come le scale
wechsler o Binet), ma partendo da un largo numero di osservazioni empiriche (misurazioni effettuate con
uno o più test) fatte su larghi campioni di soggetti, calcola le correlazioni e cerca di identificare:
- la struttura fattoriale sottostante
- il peso dei singoli fattori
- attribuire ai fattori un significato
I fattori ripetutamente evidenziati sono di tre tipi:
1) Fattore generale, chiamato anche G di Sperman: corrisponde alle capacità di ragionamento
misurate dal Q.I., spiega la correlazione trovata più o meno tra tutti i test;
2) Dal fattore G derivano per effetto dell’educazione e della cultura due grandi fattori di gruppo:
verbale-numerico e percettivo-spaziale, spiega la correlazione tra test a contenuto simile;
3) La scuola americana (≠inglese) segnala l’esistenza di fattori specifici, le abilità mentali primarie,
presenti solo in un compito determinato, come la percezione, la memoria ecc. da cui deriverebbe
in seconda istanza il fattore G. Forse questa differenza è dovuta alla diversa impostazione delle
scuole americane dove la specializzazione è precoce.
I modelli più recenti hanno cercato di dare non solo una descrizione, ma anche una spiegazione:
- Guilford (1950) Pensiero divergente e convergente
Ipotizza una struttura dell’intelligenza a tre dimensioni (operazioni, contenuti e prodotti) con funzioni di
pensiero convergente (lineare e conformistico) e divergente (creativo). Critica ai test d’intelligenza di
misurare, con risposte predeterminate, solo il pensiero convergente.
Queste due distinzioni sono molto importanti, ma spesso sfuggono alle misurazioni testistiche e alle
valutazioni sul peso che hanno sui risultati. Entrambi gli autori hanno costruito questi modelli utilizzando
informazioni provenienti da test costruiti per verificare altre ipotesi e sottoponendoli ad analisi fattoriale.
Le applicazioni dei test psicometrici per l’intelligenza vanno dal campo clinico a quello della psicologia del
lavoro. I fattori trovati attraverso l’analisi matematica non hanno una realtà psicologica, ma servono per
semplificare la descrizione della mente e per costruire dei modelli che possono essere usati per scopi molto
diversi. I fattori isolati attraverso operazioni matematiche non hanno una realtà psicologica, ma funzionano
come modelli:
- descrivere il funzionamento di un individuo rispetto a un gruppo
- per comprendere il funzionamento
- per delineare le strutture
Negli anni ’60 / ’70 si accese un dibattito attorno al problema dell’importanza dei fattori ereditari-
ambientali e delle modalità educative (uguaglianza delle opportunità scolastiche)
Due blocchi ideologici:
- teorie che accentuano il peso dei fattori genetici e chiedono un’educazione tesa a valorizzare le
differenze individuali
48
- teorie che accentuano l’importanza dei fattori acquisiti e chiedono un’educazione completamente
egualitaria.
Tra le conseguenze più radicali: un attacco di Jensen nel 1969 ai programmi di educazione compensatoria
per bambini svantaggiati. J. Portò dati a favore dell’inferiorità razziale dei negri e affermò l’inutilità di
questi programmi.
Recentemente Herrnstein e Murray (1994) hanno portato dati provenienti dall’analisi di molti studi che
attribuiscono un Q.I. medio diversificato per razze:
- Giapponesi: 105
- Bianchi: 100
- Negri: 84
I risultati mostrano un’inferiorità delle classi più basse e anche che in certi casi i programmi compensatori
non sono stati molto utili perché l’intervento non ha cambiato le dimensioni veramente importanti
dell’ambiente che influisce anche sugli aspetti biologici (malnutrizione, malattie,ecc) oltre che psicologici.
In quasi tutti gli studi sulle differenze individuali l’ “effetto razza” viene confuso con l’ “effetto classe
sociale”.
Le ricerche più recenti hanno messo in dubbio non solo il peso dei fattori, ma anche la loro interazione e
evidenziato l’esistenza di modelli individuali di sviluppo e la plasticità dell’intelligenza soprattutto nel caso
di interventi precoci.
L’ambiente:
- esercita un’influenza più forte nelle prime e nelle ultime fasi della vita
- agisce già a livello prenatale aumentando i fattori di rischio a svantaggio delle classi povere
L’intelligenza è molto più plastica di quanto si credeva (aumento di 10/15 punti di QI nei bambini adottati
da classi di livello socioculturale più alto).
Agli effetti dell’ambiente sulla biologia dell’organismo e sul bagaglio culturale, vanno aggiunti:
- effetto cumulativo dei deficit di esperienze culturali e di linguaggio sullo sviluppo delle operazioni
logiche
- effetti delle esperienze di successo/insuccesso nel formare l’immagine di Sé,
- effetto dell’ambiente sui valori culturali e quindi sulla motivazione al rendimento
intellettivo(curiosità, bisogno di competenza).
Il QI misurato in età adulta è abbastanza stabile, ma varia molto in età di passaggio, anche nell’adolescenza
dove le influenze emotive sono molto importanti e possono influenzare in un senso o in un altro la
prestazione a seconda di come sono gestite.
STUDI SPERIMENTALI
Nel periodo dal 1920 al 1950 si affermò il behaviorismo e gli studi sperimentali sull’intelligenza.
L’interesse era centrato soprattutto :
- sull’osservazione del comportamento intelligente
- sui processi di apprendimento
- l’associazione stimolo-risposta
- il ruolo dei rinforzi esterni
Nel 1956, Bruner e coll. Pubblicarono un interessante lavoro sulle strategie del soggetto per il problem
solving e per la decisione: l’innovazione era lo studio di processi non direttamente osservabili.
Negli stessi anni, nascono gli studi di psicolinguistica di Chomsky che elabora il suo modello della
Grammatica Generativa.
Nel 1958 compaiono i primi lavori di Newell e Simon sull’Intelligenza Artificiale.
Nel 1960 , Miller, Galanter e Pribram pubblicano “Piani e strutture del Comportamento” e danno l’avvio
al Cognitivismo.
49
In Europa: è la scuola della Gestalt che si occupa dell’intelligenza e si applica il concetto di ristrutturazione
unitaria del campo percettivo (insight) anche ad ambiti più vicini all’intelligenza come la memoria e il
problem solving.
Kyllonen (1994) Si basa sulle ricerche della recente psicologia cognitiva e ipotizza che l’Intelligenza sia un
processo dell’elaborazione dell’informazione che si basa su quattro componenti:
A. Capacità della memoria di lavoro
B. Velocità di esecuzione dei sistemi di elaborazione
C. Ampiezza delle conoscenze dichiarative
D. Ampiezza delle conoscenze procedurali
Sperimentalmente, una batteria di test costruita su questo modello rende conto di circa la metà della
varianza individuale
50
Si studiano non solo i risultati del comportamento intelligente, ma i processi e le strutture che lo
compongono.
Si sentono le influenza di Chomski e dell’I.A.
Attualmente il più importante esponente è Sternberg (1988 – 1996) che ha proposto un modello di
intelligenza triarchico.
Tre processi fondamentali:
1. metacomponenti:processi esecutivi che pianificano e controllano l’elaborazione
dell’informazione;
2. componenti di performance: che eseguono le strategie pianificate;
3. componenti per l’acquisizione delle conoscenze.
Capitolo 20
PERSONALITA’
(Gian Vittorio Caprara e Concetta Pastorelli)
La Psicologia della personalità affronta tematiche che riguardano i nessi tra natura e cultura, mente e corpo,
individuo e società. Questi temi hanno una tradizione antica di riflessioni, ma una storia recente di studi
sistematici.
“Persona” = termine latino che significa maschera dell’attore, evoca sia l’apparenza individuale, sia
l’appartenenza a un ruolo sociale che può essere interpretato da molti.
Gli interrogativi recenti concernono le radici e le espressioni di quanto vi è di condiviso e unico nel modo
di presentarsi, agire, sentire di un individuo.
Def. personalità: un’organizzazioni di modi di essere, di conoscere, di agire, che assicura unità, stabilità e
coerenza e progettualità alle relazioni dell’individuo con il mondo.
51
La personalità si muove tra i due poli:
- struttura (come la personalità si presenta e si identifica nei tratti dell’individualità)
Tratti: sono disposizioni ad agire relativamente stabili rispetto al variare delle circostanze. E’ un
concetto centrale nella psicologia della personalità
Carattere: termine usato come sinonimo di personalità, o in alternativa al concetto di personalità con
un’accentuazione delle componenti valutative-morali.
Rimane controversa la tematica relativa alla natura e al numero dei tratti: alcuni li considerano
espressioni del patrimonio genetico (→ genetisti), altri espressioni fenotipiche che risultano
dall’interazione con l’ambiente. La configurazione dei tratti dà l’elemento strutturale dell’individuo.
Temperamento: aspetti che concernono caratteristiche energetiche e temporanee dell’individuo: la
reattività, l’irritabilità, … più collegate al substrato biologico, rispetto ai tratti.
Tipi: costellazioni di tratti o mega-tratti riassuntivi.
La Psicologia della Personalità mira a svolgere una funzione di giuntura tra gli studi degli aspetti di base e
le applicazioni nei contesti operativi. Spesso in contesti applicativi si è dovuto sopperire con l’intuito alle
lacune date dall’impossibilità di sperimentare in questi campi.
Recentemente si è affermata la posizione che la personalità è una costruzione che avviene nel corso dello
sviluppo e alla quale l’individuo può contribuire attivamente.
- Tra gli anni ’40 e ’70: dopo aver creduto nella possibile integrazione di varie discipline (sociologia,
antropologia e psicologia) e di vari indirizzi (comportamentismo, Gestalt e psicoanalisi), viene meno
questa convinzione e si rafforzano le scissioni tra:
- studio del comportamento individuale vs studio dei movimenti sociali e culturali
- le diverse prospettive vs. principi della psicologia scientifica.
La psicologia della personalità è sempre più confinata allo studio delle differenze individuali. Sembra
quindi inevitabile rinunciare ai grandi temi e ripiegarsi su problemi meno ambiziosi: proliferano le
micro-teorie.
- Con gli anni ’80, si apre una nuova fase, si afferma il paradigma “socialcognitivo”:
- nuova curiosità per le differenze individuali
- rinnovato interesse per la ricerca su casi singoli
- nuove tecniche di elaborazione
Il funzionamento e lo sviluppo della personalità è concepito come un processo triadico di reciproche
influenze: persona → ambiente → condotta (che risulta dagli scambi tra ambiente e persona e li
condiziona a sua volta).
Il dualismo eredità-ambiente si risolve con il concetto di interazione: sin dal concepimento l’interazione
ambiente-eredità determina ciò che una persona è.
52
INDIRIZZI E STRATEGIE DI RICERCA
Diverse scuole o correnti di pensiero:
quelle che si fondano sul metodo clinico: di ispirazione psicoanalitica e fenomenologia;
quelle che utilizzano il metodo correlazionale: studi sull’individuazione dei tratti e ricerca della
struttura di personalità;
quelle fedeli al metodo sperimentale: che mirano a trovare leggi generali che regolano i vari
aspetti della personalità.
Adler: “psicologia individuale”, in cui acquista maggiore importanza la sfera della consapevolezza, si
accentua l’importanza delle relazioni interpersonali e delle condizioni sociali e la tendenza dell’individuo
all’autorealizzazione.
Jung: “psicologia analitica”. La personalità appare il risultato di una storia personale, di una storia collettiva
e di un’istanza che spinge all’autorealizzazione del Sé. La libido diventa energia psichica e l’inconscio si
divide in personale e collettivo.
La personalità risulta dalla combinazione di quattro funzioni psicologiche fondamentali:
- pensiero
- sentimento
- sensazione
- intuizione
e di due orientamenti:
- introversione
- estroversione
Sviluppi post freudiani:
- Anna Freud: “Psicoanalisi dell’Io”
- Klein e Winnicott: “Psicoanalisi delle relazioni oggettuali”
- Bion: studio dei gruppi
¾ Psicologia umanistica
Gli indirizzi fenomenologico-esistenziali hanno sottolineato soprattutto il valore dell’esperienza soggettiva,
e il diritto di ogni uomo a realizzare un proprio progetto di vita. Le fonti di disagio psichico sono le
limitazioni poste dagli altri a questo progetto. C’è una decisa lotta al riduzionismo psicologico che
penalizza l’individualità.
53
Altri autori: Cattell e Guilford
Le ricerche attuali convergono sostanzialmente su 5 tratti fondamentali, i cosiddetti Big Five:
1) Estroversione/Introversione
2) Amicalità
3) Coscienziosità
4) Stabilità emotiva/Nevroticismo
5) Intelletto
Il Modello Big Five si basa sull’”ipotesi lessicale” che assume che il vocabolario naturale contenga le
parole per descrivere la personalità, più importanti sono le differenze individuali e più è probabile che
vengano espresse con singole parole.
Da qui il Big Five Questionnaire (BFQ).
¾ Situazionismo (Comportamentismo)
Quello che caratterizza le teorie dell’apprendimento in psicologia della personalità, oltre agli elementi che
valgono anche in altri ambiti, è l’attenzione al contesto.
La personalità corrisponde a una gerarchia di abitudini e di apprendimenti consolidati da rinforzi.
Recentemente la diffidenza verso il mentale si è stemperata e l’erede è la teoria cognitivo-sociale di
Bandura.
¾ Social-Cognition
Autore fondamentale è Bandura. L’ambiente ha ancora una grande importanza ma svolge la sua influenza
su un apparato mentale strutturato, i rinforzi sono esterni, ma anche interni e la personalità si configura
come un sistema attivo. La personalità riflette, assimila e trasforma le influenze del mondo esterno.
Concetto di “Autoefficacia percepita”: la fiducia nelle proprie capacità di organizzare una serie di azioni al
fine di raggiungere uno scopo. Nasce da specifiche condizioni che ha un soggetto sulle proprie capacità di
far fronte a specifiche prove. E’ di conseguenza, una misura del controllo che un soggetto ha sull’ambiente.
Si modifica con le esperienze, la persuasione verbale, l’osservazione di modelli.
¾ L’Interazionismo
Ha avuto due fasi: il primo interazionismo era “meccanicistico”, mirava alla spiegazione delle differenze
individuali impiegando l’analisi della varianza.
Una seconda generazione “dinamica” ha studiato i rapporti di causalità reciproca tra gli individui come
soggetti attivi con l’ambiente.
L’interazionismo non si pone il problema di stabilire il primato tra strutture e situazione, ma di capire come
avvengono le influenze tra i due sistemi. La ricerca longitudinale è il metodo privilegiato.
Da questi studi emerge la stabilità nel tempo dei tratti, non come comportamenti, ma come stili di condotta
personali.
Capitolo 21
PERCEZIONE
(Walter Gerbino)
54
Nel quotidiano, la scena visiva appare come un mondo internamente coerente, con strutture e attributi
integrati in un unico codice linguistico.
Sintesi:
La funzione del sistema visivo è assicurare una rappresentazione adeguata del mondo esterno.
Per farlo il sistema ricorre a regole di funzionamento. In situazioni di input visivo ridotto, si assiste a
fenomeni (illusioni) di instabilità percettiva o ambiguità che rivelano le regole di funzionamento del sistema
visivo e il peso dato alle varie fonti di informazione.
La scienza della visione ha dei limiti strutturali riguardo alla conoscenza: l’esperimento di pensiero noto
come “Inversione dello spazio dei colori” (due individui con davanti colori diversi ai quali danno lo stesso
nome) dimostra come non ci è dato di conoscere i “qualia” (natura qualitativa degli elementi)
dell’esperienza visiva, ma solo i rapporti reciproci fra gli elementi.
Abbiamo solo prove di tipo comportamentale che confrontano la percezione (appunto!) ma non i “qualia”.
Possiamo comunque rassicurarci di stare studiando un insieme di rappresentazioni equivalenti allo spazio
dei colori per esempio, e essere sicuri che la struttura del nostro sistema e di quello “esterno” non varia.
Catena psicofisica:
Mondo fisico → informazione ottica → input sensoriale
(1) (2)
Il primo passaggio è un mappaggio distruttivo (confusione tra componenti che nel mondo fisico son ben
separate e riduzione da 3 a 2 dimensioni), il secondo passaggio è un mappaggio ricostruttivo (il sistema
visivo cerca di recuperare le proprietà del mondo fisico, perse).
FENOMENI ACROMATICI
¾ L’ “indeterminazione fotometrica”:
la quantità della luce che raggiunge l’occhio è:
Da questa equazione risulta impossibile stabilire dalla luminanza direttamente la riflettanza (proprietà
dell’oggetto).
55
Questa conclusione è formalmente corretta, ma errata.
¾ Esperimento Gelb (1929):
Apparecchiatura: proiettore, stanza buia, cerchio di cartone.
Un cerchio grigio appare bianco, ma se mettiamo accanto un cerchio più chiaro, appare bianco quest’ultimo
e grigio l’altro.
In condizioni quotidiane prevale la “costanza del colore acromatico”, ma se mancano le condizioni per la
determinazione fotometrica (sotto illuminazione localizzata), si verificano grossolane illusioni.
Conclusioni: il sistema usa, per determinare il colore di superficie, non la luminanza locale, ma i rapporti
tra le varie luminanze e prende come riferimento la luminanza più elevata.
Esempi: Luna, neve/bianco delle case.
¾ Contrasto simultaneo: il grigio su sfondo bianco appare più scuro del grigio su fondo nero. Viene
attribuito a:
- un meccanismo fisiologico: l’inibizione laterale, che accentua il contrasto ai bordi,
- al “filling-in”: fenomeno di riempimento delle zone delimitate da bordi (vedi Anello di Benussi-Koffka-
Wertheimer)
Prove sperimentali ulteriori suggeriscono che più che il contrasto locale, sia importante l’appartenenza alle
varie unità:
- che danno luogo a fenomeni di luce/ombra (il contrasto si accentua se è disposto sulle facce di un cubo
in prospettiva)
- che creano effetti di trasparenza/sovrapposizione (effetto di tessuto “scozzese”)
L’intero sfondo (≠ zone di confine) circostante una determinata zona fa da schema di riferimento:
fenomeno dell’ “ancoramento al contesto”.
Regioni identiche sul piano pittorico assumono diversa forma/grandezza, se sono disposte in un contesto a
distanze e inclinazioni diverse .
Questi criteri rispondono a un’esigenza di coerenza dell’immagine visiva con il mondo fisico, nel quale le
grandezze rimangono costanti anche a dispetto di informazioni ottiche molto diverse.
Come queste costanza vengano ottenute, non è ancora chiaro.
¾ L’ “indeterminazione occlusiva”: gran parte dei corpi nel mondo fisico, non lasciano passare la luce,
quindi occludono parti di sé o parti di altri oggetti e determinano il problema dell’organizzazione
figura/sfondo.
Rubin dal 1921 studiò questi fenomeni, prendendo in causa il principio di minimo o di economia.
Dimostrò alcuni effetti:
- Area minore: a parità di altre condizioni, tendono a diventare figure le regioni più piccole
- Costanza di larghezza: a parità di altre condizioni, tendono a diventare figure le parti a larghezza
costante (segno del mulino a vento)
- Orientamento gravitazionale: tendono a diventare figure gli oggetti coerenti con l’orientamento
gravitazionale (nella parte bassa del campo visivo)
- Organizzazione duale: se la configurazione complessiva lo consente il sistema visivo ammette
l’esistenza di un bordo anche se non è segnato. Può essere:
1. stratificata: una figura davanti a un’altra
2. non-stratificata: due figure adiacenti
56
La stratificazione comporta la creazione di contorni:
- modali: che si vedono
- amodali: dati dall’interpolazione delle zone occluse, non si vedono
Petter (1956) ha dimostrato che la tendenza generale è quella di minimizzare i contorni modali (figure).
Un caso speciale di organizzazione duale sono le “figure anomale”, delimitate dai contorni illusori: la più
famosa è il “triangolo di Kanisza”. E’ un caso speciale perché il bianco si scinde in due parti: una fa da
sfondo e una da figura.
Il completamento amodale è un fenomeno tipico e molto diffuso: ha la funzione di costruire e mantenere
l’identità degli oggetti.
OGGETTI
Wertheimer fu il primo a occuparsi delle condizioni per la formazione degli oggetti fenomenici intesi come
totalità indipendenti dalle proprietà degli elementi che li formano.
Formulò una serie di leggi, molto eterogenee e ancora oggi non è chiara la loro sistematizzazione.
Principi di Wertheimer:
- Prossimità
Il sistema visivo collega gli elementi più vicini tra loro.
- Articolazione senza resti
Il sistema tende a formare unità in modo che non rimangano elementi isolati, senza significato.
- Somiglianza
E’ un concetto complesso anche in ambito filosofico: vanno definiti i criteri che usa un sistema per
rendere operativo il concetto di somiglianza.
Esperimento di Beck: sotto attenzione focale, la somiglianza tra le strutture è più importante della
somiglianza di orientamento es. le T sono più simili)
Capitolo 22
LO SVILUPPO SOCIOCOGNITIVO NELL’INFANZIA
(Paola Di Blasio ed Elena Camisasca)
Gran parte delle teorie attuali sullo sviluppo sociocognitivo nell’infanzia si fondano sulla genesi sociale e
interattiva dei processi psichici e sull’idea che tali interazioni vadano intese come attività coordinate in un
insieme unitario e significativo. La psicologia dell’età evolutiva tradizionale non considera questi aspetti,
centrandosi di più sull’ambiente esterno e sui processi ad esso impliciti, come l’allevamento, le modalità di
nutrizione, ecc. Si necessita però di un paradigma che tenga conto dell’interattività per comprendere meglio
aspetti del genitore e del bambino. La relazione non è un obiettivo dello sviluppo, ma una condizione
presente da subito, resa possibile dalla predisposizione dei neonati alla vita sociale. Nella relazione con
l’adulto e poi coi pari, si realizza un costante scambio-adattamento che modifica le risposte del bambino e
dei genitori-coetanei.
¾ Le competenze cognitive e sociali precoci
Fin dalle prime settimane di vita il bambino influenza la vita degli adulti ed è ad essi strettamente
coordinato.
Può identificare una sorgente odorosa e al sesto giorno può riconoscere l’odore della madre.
Fin dalla nascita è sensibile al gusto, tanto da manifestare preferenza per sapori dolci. E’ predisposto a
ricevere ed elaborare informazioni che provengono dall’ambiente, soprattutto se provenienti da voci e volti
umani. Ha preferenza per il volto umano del quale scopre prima i contorni e poi i dettagli interni.
Ha sensibilità percettiva per le espressioni dei volti e a tre mesi, le distingue, rispondendo in modo
appropriato.
L’udito, alla nascita, risulta particolarmente sensibile alla voce umana: la voce materna era nota già dalla
vita intrauterina. Si presuppone l’esistenza di un’organizzazione temporale endogena, che gli permette di
apprendere regole dell’interazione sociale, come l’alternanza dei turni.
57
Nei primi mesi si assiste alla coorientazione visiva, come premessa di ogni interazione; seguono gli pseudo-
dialoghi e infine, verso i 10 mesi, dialoghi veri e propri. Inizia a stabilirsi quindi una relazione con il
caregiver.
Æ nel periodo postatale l’obiettivo principale consiste nel regolarizzare i processi fisiologici fondamentali
per renderli compatibili con le richieste ambientali.
Dai 6/8 mesi, i bambini iniziano a dimostrare timore per l’estraneo: M. Ainsworth ha studiato in strange
situation l’attaccamento. Le reazioni del bambino all’estraneo variano in concordanza con la modalità
interattiva e sono modulate in base alle caratteristiche dell’ambiente circostante.
I genitori maltrattanti Æ accentuano emozioni negative e influenzano negativamente lo sviluppo della
competenza emotiva dei figli, che presentano difficoltà a regolare e comprendere le emozioni proprie e
altrui.
¾ Teorie della mente e comprensione delle intenzioni
Ricerche recenti sulla “teoria della mente”, negli anni 80, hanno contribuito a spiegare sia gli stati di
coscienza (es. credenze, pensieri), sia gli stati intenzionali (es. emozioni, intenzioni)
Def. Originale: teoria della mente Æ capacità di attribuire stati mentali agli altri, dove stati mentali sono
sia le esperienze soggettive emotivamente ricche (es. desiderare qualcosa), sia condizioni più astratte (es.
pensare, credere, ecc)
Secondo Wellman (1990) un bambino:
- a 2 anni Æ psicologia del desiderio
Riescono a rappresentarsi correttamente i desideri e la loro funzione nel modulare il comportamento
umano.
- mentre dai 3 in su Æ psicologia del desiderio-credenza
Cominciano a riferirsi agli stati cognitivi, di ciò che loro od altri sanno, pensano o ricordano. Non si
tratta di rappresentazioni adulte e quindi vere o false, ma di copie fedeli della realtà.
- 4-5 anni Æ il bambino è in grado di rappresentarsi l’altro, come un soggetto con desideri e credenze,
vere o false, rispetto alla realtà esterne e differenti dalle proprie. E’ in grado di risolvere il False belief
taskÆ paradigma sperimentale di Perner (1983), basato sul compito di preveder il comportamento di
un attore o in base alla sua credenza o in base al dato di realtà. E’ a quest’età che si arriva quindi a
formulare una teoria della mente e a capire come diverse percezioni, possano indurre le persone a
interpretazioni diverse.
Dunn (1990) sostiene che la natura dei rapporti intrafamiliari solleciti lo sviluppo delle capacità di intuire
sentimenti e intenzioni delle persone, rapporti di potere e principio di giustiziaÆ è nei rapporti coi fratelli
che i bambini vivono a 2-3 anni le esperienze sociali più intense, comprendendo sentimenti e intenzioni
altrui. A quest’età capiscono che le regole si applicano in modo diverso a persone diverse.
Perner et al. hanno ipotizzato dagli studi di Dunn, che sia il numero di fratelli presenti in una famiglia, sia la
loro differenza di età, possa favorire la capacità di comprendere i pensieri e sentimenti altrui.
Æ poiché i figli unici danno uguali prestazioni, si pensa che le variabili cruciali siano le sollecitazioni
fornite dall’interazione con gli adulti.
¾ Stili di attaccamento e competenze metacognitive e sociali nei bambini
Le relazioni sociali e i modelli mentali del bambino si organizzano a partire dalle prime esperienze affettive
con le figure di accudimento (madre). La rispondenza emotiva tra adulto e bambino sembra l’aspetto che
maggiormente condiziona la qualità del legame tra i due partners.
Ainsworth et al. sono tra i primi esponenti della teoria dell’attaccamento ed hanno individuato tre stili
diversi, presenti già nei bambini di 1 anno:
- attaccamento sicuro Æ rassicurante fiducia nella disponibilità e nell’appoggio dell’adulto: separati
dalla madre, dimostrano sconforto, ma poi esplorano l’ambiente
- attaccamento ansioso-ambivalente Æ madre che richiede il contatto solo quando vuole e non
secondo i bisogni del bambino: separati dalla madre, piangono inconsolabili, non esplorano
l’ambiente e quando la madre torna, dimostrano rabbia e aggressività.
- attaccamento ansioso-evitanteÆ madre completamente insensibile ai segnali del bimbo, che
scoraggia e rifiuta il contatto fisico quando il bimbo sta “male”: separati dalla madre, anche se
58
hanno paura, non dimostrano sconforto. Esibiscono eccesso di autonomia e concentrazione sul
compito. Al ritorno della madre, sono distaccati ed evitano il contatto.
- Attaccamento disorganizzato o disorientatoÆpresentano modalità comportamentali particolari. Si
riscontra in bambini maltrattati fisicamente e/o trascurati, in cui la madre è depressa gravemente o
che soffre di lutti irrisolti.
Strutturazione e mantenimento degli stili di attaccamento Æ attraverso i primi scambi con le figure di
attaccamento significative, l’individuo forma dei modelli operativi interni (working models) sempre più
complessi, sia delle figure di attaccamento, sia di sé stesso. Queste rappresentazioni interne indirizzeranno
poi l’individuo nella interpretazione delle informazioni del mondo esterno e guideranno il suo
comportamento nelle situazioni nuove (es. A. evitanteÆ immagine di sé come di non degno d’amore e della
figura d’attaccamento, come di colui da cui non aspettarsi nulla) Tali aspettative verranno poi estese a tutte
le figure affettive nel corso della vita e determineranno i comportamenti indirizzati ad esse.
Studi recenti hanno evidenziato come la sensibilità del caregiver, influenzi la capacità del bambino di
attribuire stati mentali a sé o agli altri. Rifacendosi a ciò, alcuni autori hanno cercato di individuare le
connessioni tra sicurezza nell’attaccamento e sviluppo delle capacità cognitiveÆ il caregiver sensibile, fa
comprendere al bambino che il suo comportamento può venir meglio capito se fatto risalire a sentimenti ed
idee. Il bambino è visto quindi come avente un proprio stato mentale. Nella formazione del sé riflessivo
(Fonagy), ovvero del sé che comprende la consapevolezza dei propri stati mentali, è decisiva la capacità del
caregiver di catturare gli aspetti dell’attività del bambino e aggiungervi una “intentional stance”.
Bambini di 2-3 anni con attaccamento sicuro, rispetti a quelli con attaccamento insicuro, sono più socievoli
e fiduciosi, competenti nel risolvere problemi o conflitti sociali e si appoggiano efficacemente agli
insegnanti usandoli come risorse.
Gli insicuri-evitanti non mostrano il loro stato emotivo, soprattutto quando ne hanno bisogno, sono isolati e
ostili e dimostrano una crescente prudenza verso gli altri e la tendenza a percepire le relazioni sociali come
minacciose. Risultano essere più timorosi di subire privazioni, più sensibili a critiche e ironia, permalosi e
con atteggiamenti di vittimismo verso gli altri.
Negli incontri con più figure di attaccamento, i primitivi working models evolvono nel tempo, anche per la
necessità di integrare nuove esperienze relazionali.
¾ Il comportamento Prosociale
Già nei primi due anni di vita compaiono quelle capacità empatiche (precursori dell’altruismo), che
consentono di percepire il disagio altrui e reagirvi con risposte tese ad alleviare la sofferenza.
Con l’aumentare dell’età si suppone che si affini nel bambino la comprensione dei bisogni altrui, favorendo
la tendenza a condividere e prestare aiuto. La connessione tra età e comportamento d’aiuto sembra però
meno forte di quella tra età e generosità. Il comportamento d’aiuto richiede infatti una serie di operazioni
complesse, che possono interferire con l’attivazione dell’azione altruistica.
Ricerca di Staub Æ tendenza dei bambini a non rispondere alle invocazioni d’aiuto: forse perché
l’altruismo entra in conflitto con le paura della disapprovazione dell’adulto.
Tra le condizioni che possono favorire o inibire il comportamento prosociale è il positivo valore dato alle
pratiche educative, alle esperienze familiari e all’atteggiamento dei genitori: uno stile educativo basato sulla
tendenza a dare spiegazioni, a usare il ragionamento, più che le punizioni, costituisce un fattore facilitante il
comportamento altruistico e la comprensione delle esigenze altrui.
59
La relazione amicale rappresenta un fattore determinante che attiva facilmente una sensibilità emotiva più
spiccata e interventi prosociale più frequenti.
Capitolo 23
LA VALUTAZIONE DELLO SVILUPPO
(Marta Montanini Manfredi e Paola Corsano)
La valutazione è un processo attraverso cui si descrive il cambiamento nel tempo di un individuo rispetto a
una dimensione evolutiva.
Il punto di partenza è costituito dalla definizione precisa degli obiettivi da perseguire:
- obiettivi di tipo normativo Æ stabilire la normale progressione dei cambiamenti nel tempo per
individuare, rispetto alla popolazione standard, quali comportamenti sono caratteristici di un’età.
Metodologia: ricerca logintudinale (stesso sogg nella crescita) o trasversale (gruppi di età diverse
ma equivalenti per altre variabili). Si possono unire entrambi gli approcci, analizzando gruppi di età
differenti in modo sequenziale.
- obiettivi di tipo applicativo Æ in questo ambito c’è maggior diffusione della valutazione dello
sviluppo: deve essere basata su un esame in profondità effettuato sul caso singolo.
Metodologia: può avvalersi di metodologie collaudate, come l’osservazione diretta e indiretta, i test
e gli strumenti standardizzati.
Una volta definiti gli obiettivi della valutazione, bisogna individuare gli strumenti. Esiste una relazione tra
ipotesi teoriche sullo sviluppo in generale e le rispettive modalità di valutazione di esso:
- prospettiva organismica-contestuale (piaget e neopiagetiani) Æ uomo è organismo attivo e
competente che si costruisce ed è costruito. Si può usare l’osservazione, il metodo sperimentale o il
colloqui clinico piagetiano.
- prospettiva ermeneutico-comprendente (teorie psicoanalitiche) Æ l’individuo costruisce una “sua
storia”, dalla cui interpretazione si può estrapolare un racconto tipico e costruire una casistica. Si
possono usare il colloquio clinico psicoanalitico, ma soprattutto l’osservazione psicoanalitica.
Parallelamente alle varie prospettive teoriche, c’è una divergenza sullo sviluppo come processo continuo o
discontinuo.
¾ Quale sviluppo?
Lo sviluppo è un processo interattivo e multifattoriale che si svolge nel tempo e che si estende dalla nascita
fino alla morte. La recente prospettiva life-span ha individuato in ogni fase del ciclo di vita la possibilità di
sperimentare cambiamenti positivi. Non tutte le età sono state ugualmente indagate: l’infanzia è stata
privilegiata, insieme all’aspetto cognitivo. Negli ultimi anni sono state condotte numerose ricerche sul
temperamento e sul periodo neonatale.
Per lo sviluppo fisico o cognitivo è più facile individuare una progressione continua, anche se “per salti”,
con una quota innegabile di discontinuità, nella direzione di una sempre maggiore maturità (livelli diversi di
sviluppo quantificabili). Per le dimensioni evolutive di tipo sociale invece non è sempre agevole la
misurazione: questo tipo di valutazione non mira a quantificare o collocare un soggetto rispetto alla
sequenza considerata normale, ma di comprendere come i diversi fattori individuali, relazionali e culturali
si combinano nella competenza sociale.
¾ Valutazione del neonato
Uno strumento di valutazione neonatale dovrebbe avere elevato potere diagnostico e prognostico e
dovrebbe consentire di monitorare tutte le situazioni definite “a rischio”: subito dopo la nascita vengono
effettuate diverse procedure finalizzate a valutare lo stato di salute del bambino (indice Apgar). Per una
valutazione neurologica del neonato lo strumento più usato è l’esame di Prechtl e Beintema.
Le scale neurocomportamentali comprendono prove sia neurologiche sia comportamentali. La più utilizzata
è quella di Brazelton, nota come NBAS, somministrata nel primo mese di vita: valuta le abilità interattive
del neonato, il suo comportamento sociale e di sollecitare nel caregiver un’interazione adeguata.
¾ Intelligenza: come valutarne lo sviluppo?
Permangono modalità differenti di considerare e valutare l’intelligenza:
60
- modello piagetiano Æ cerca principi generali, l’approccio è qualitativo e privilegia la discontinuità
dello sviluppo (es Scale ordinali di Uzgiris e Hunt, EPL e BAS)
- modello psicometrici Æ cerca differenze individuali, l’approccio è quantitativo e interessato a
rilevare la continuità evolutiva (es WAISS) Sono moltissimi i test costruiti a partire dalla scala di
Binet e Simon, per valutare l’intelligenza. Vengono classificati in due gruppi:
- misurano un’abilità mentale generale (fattore G dell’intelligenza) Æ WAISS
- misurano una serie di abilità specifiche, individuate mediante l’analisi fattoriale
Negli ultimi anni Sternberg cercò di spiegare l’intelligenza tramite il modello triarchico (1984): tale
approccio supera la divergenza tra continuità e discontinuità nello sviluppo, individuando la prima a livello
di prestazioni (componenti) e la seconda a livello delle funzioni di controllo (metacomponenti). I tre distinti
processi possono essere valutati con test che valutano le prestazioni dei soggetti in relazione al contesto e
alla precisa situazione in cui l’individuo si trova Æ i soggetti si differenziano rispetto alla loro capacità di
utilizzare dati offerti dal contesto ed elementi della propria esperienza.
¾ La valutazione della personalità e dello sviluppo socioaffettivo
Si sta affermando un nuovo approccio allo studio della personalità che rivaluta la nozione di temperamento
e che tenta di valutarlo. La definizione più credibile di temperamento è in termini di “stile
comportamentale” Æ differenze individuali nel comportamento del bambino, caratteristiche presenti dalla
nascita, permettono di ipotizzare stili comportamentali diversi che influenzerebbero fortemente le modalità
allevanti della madre o del caregiver.
Uno sviluppo positivo del bambino è garantito dalla goodness of fit e cioè, una perfetta concordanza tra le
caratteristiche del bambino e le aspettative e le risposte dell’ambiente.
Le dimensioni rispetto alle quali i bambini differiscono già alla nascita sono: livello di attività, regolarità
delle funzioni biologiche, ritirata o approccio a stimoli nuovi, adattabilità, soglia sensoriale, umore
prevalente, intensità delle reazioni, distraibilità e persistenza. Queste dimensioni permettono di individuare
tre categorie di temperamento: bambino facile, bambino difficile e bambino lento a scaldarsi. Oltre ai test e
questionari, nella ricerca viene usata l’osservazione.
Capitolo 24
LA MEMORIA : PROCESSI, MECCANISMI E FATTORI DELLO SVILUPPO
(Olimpia Pino)
La memoria che presuppone l’intenzione di ricordare è chiamata: strategica; quella che si verifica senza
intenzione: automatica.
Con il processo evolutivo dovrebbero evolvere le strategie e quindi evidenziarsi differenze solo nella
memoria strategica e non in quella automatica (questa distinzione è molto popolare, anche se dubbia).
Riferimento al modello di Memoria di Tulving, in particolare alle relazioni tra memoria e
consapevolezza:
Episodica → Autonoetica Ægestisce la ritenzione di episodi o eventi specifici, sperimentati personalmente
Semantica o generale → Noetica Æconoscenza del mondo posseduta da un soggetto
(Procedurale → Anoetica)
Tulving (1985) ha insistito molto sulla differenza tra ricordare (esperienza autonoetica) e sapere
(esperienza noetica).
Perlmutter (1988) distingue tra:
a) conoscenza epistemica (conoscenza del mondo: semantica ed episodica)*
b) conoscenza operativa (procedure, abilità e strategie, anche di memoria)
c) conoscenza metacognitiva (conoscenza sul funzionamento della memoria)*
* bambini avranno prestazioni più scarse rispetto ai sogg adulti, poiché non possono correlare gli eventi a
esperienza personale.
Memoria:
retrospettiva: che si riferisce alle cose fatte
prospettica: che si riferisce alle cose da fare
61
Questa distinzione è di interesse recente, perché interessa abilità e fenomeni della vita quotidiana più che
del laboratorio.
Memoria implicita ed esplicita:
Memoria autobiografica: assume un’importanza soprattutto applicativa, in psicologia giudiziaria, per
questo è importante attualmente.
a- Diverse forme di memoria, se veramente distinte, richiedono procedure diverse di indagine e sollevano
problemi metodologici diversi: le memorie prospettica e autobiografica pongono problemi metodologici per
quanto riguarda lo studio con i bambini, per questo sono poco studiate.
b- Alcune forme di memoria hanno guadagnato maggior interesse da parte degli studiosi, come la memoria
strategica, episodica e retrospettiva.
Negli anni ’70 e ’80, la memoria è stata descritta in base a due deficit nei bambini: deficit di mediazione e
di produzione. Quindi si sono molto studiate le strategie, il loro sviluppo e il modo di migliorarle.
Negli anni ’90 si sono ampliati gli studi a carattere “ecologico” e si è giunti a considerare lo sviluppo della
memoria un processo interattivo, di adattamento all’ambiente, che considera come fattori determinanti per
la prestazione: il contesto, lo stato del soggetto, il livello di sviluppo, le differenze individuali.
C’è un sostanziale accordo tra i ricercatori sul fatto che nell’infanzia le strategie, quando ci sono, sono
limitate: il comportamento mnesico abitualmente manifestato dai bambini non è strategico, e può diventarlo
solo se il contesto favorisce la messa in atto di strategie.
Si ritiene che lo sviluppo aumenti l’ efficienza di elaborazione , per tre ordini di fattori:
1. aumentano le abilità di codifica che influenza il grado di accessibilità dei concetti;
2. emerge l’organizzazione automatica degli stimoli(individuare relazioni tra eventi);
3. aumenta la capacità di utilizzare le strategie mnesiche.
L’organizzazione degli eventi-stimoli nell’infanzia si basa su tre classi di relazioni, che compaiono in modo
diverso al variare dell’età :
Relazioni associative:
- due o più eventi che spesso si presentano insieme
- per lo più automatiche
- si formano dall’esperienza diretta.
→ Memoria Autobiografica
Relazioni schematiche:
- gli eventi si collocano in successioni causali o spazio-temporali
- gli eventi sono associati per appartenenza al medesimo “script” o routine
- si formano dall’osservazione dell’esperienza
→ Memoria Episodica
Relazioni categoriali:
- gli eventi sono membri della stessa categoria tassonomica
- gli eventi si associano per relazioni orizzontali di generalizzazione
- si formano dalle generalizzazioni sulle conoscenze del mondo attraverso etichette
→ Memoria Semantica
Sembra che lo sviluppo consista nell’aumento della facilità con cui queste categorie sono attivate.
62
Negli ultimi 10 anni, è considerato particolarmente importante per lo studio dello sviluppo della memoria, il
concetto di contesto ambientale, diviso in:
- contesto esterno all’organismo Æ caratteristiche del materiale e del compito sperimentale
- contesto dell’organismo (stato)Æ es. ritardo mentale, demenza senile, ansia e depressione
Sono scarse le conoscenze sulle origini delle strategie, particolarmente negli anni prescolari.
Schneider e Sodian (1991) hanno studiato le origini e lo sviluppo delle strategie, con uno studio quasi
longitudinale: due misurazioni a 4 e a 6 anni.
Gli aiuti di memoria “interni” non bastano a spiegare tutti i possibili comportamenti strategici della vita
quotidiana (anche in un adulto!).
Gli autori hanno dimostrato che le strategie esterne(es. indicare, toccare) giocano un ruolo fondamentale
nello sviluppo cognitivo e che possono essere i precursori delle strategie interne.
E’ degli anni ’90 lo studio della “memoria quotidiana” (everyday memory) in contesti naturali, ma con
l’attenzione al rigore del metodo sperimentale.
Sono emersi tre importanti aspetti della memoria autobiografica:
- vi sono lacune di conoscenza (che non sempre si coprono con l’uso di strategie)
- non si può “sfogliare”: l’organizzazione dei dati non è disposta linearmente nel tempo
- l’apparente oblio di determinati episodi è superabile con suggerimenti adeguati
I ricordi colmi di emozione sono percepiti come più vividi, ma non è detto che siano più completi o chiari,
spesso sono ricostruiti sulla base di inferenze logiche.
La maggior parte delle reminescenze autobiografiche sembra attendibile se ci si limita a ricordare gli eventi
generali (non essendoci intenzionalità nel ricordare, non c’è precisione dei dettagli).
La relazione tra emozioni e ricordo è stata studiata facendo ricorso soprattutto ai modelli a rete: le emozioni
corrispondono a nodi, che con il tempo sviluppano connessioni. Un’esperienza emotiva può legarsi a un
evento (che avviene nello stesso momento) connotandolo. La possibilità di ricordare un evento può
dipendere quindi anche dal contesto interno dell’individuo.
Questa teoria spiega:
- perché la coerenza tra stato d’animo nel momento dell’apprendimento e nel momento del recupero
facilita il ricordo: l’emozione fa da cue per il recupero (teoria della specificità di codifica)
- perché la memoria è facilitata se il significato emotivo degli eventi coincide con lo stato d’animo del
soggetto.
63
Capitolo 25
INVECCHIAMENTO BIOLOGICO E PSICOLOGICO
(M e G Cesa-Bianchi, Pravettoni)
Per invecchiamento o senescenza si intende il processo attraverso il quale si diventa vecchi, modificandosi
in alcune caratteristiche personali.
Dal punto di vista biologico non è possibile stabilire un dato che contrassegni l’inizio dell’invecchiamento
(la cessazione dell’attività riproduttiva è troppo variabile).
Il sistema nervoso è stato maggiormente studiato allo scopo di scoprire quali modificazioni intervengono
nel processo di invecchiamento:
- diminuzione irreversibile del numero di neuroni
- rallentamento nella produzione di certi neurotrasmettitori
- funzionamento meno efficace dei meccanismi di regolazione
- aumento progressivo delle cellule gliali
- comparsa di placche
- progressivo irrigidimento nelle pareti dei vasi sanguigni
Le esperienze individuali facilitano la conservazione di determinate funzioni e l’attenuazione di altre: sono
conservate le funzioni maggiormente utilizzate nel corso della vita, mentre decadono quelle scarsamente
esercitate.
¾ Percezione
Nell’invecchiamento c’è una progressiva diminuzione delle abilità visive e acustiche. Facilitano un buon
funzionamento in vecchiaia della percezione visiva:
- teoria del campo percettivo Æ la percezione si realizza come espressione di un campo collocato nel
nostro cervello in cui operano forze di coesione e freno. Un aumento delle forze centrali di coesione
rispetto a quelle periferiche di freno, rende la percezione migliore, poiché più espressione del
cervello e meno delle sensazioni.
- persistenza della costanza percettiva Æ capacità di non modificare la percezione visiva anche se
variano le modalità fisiche con cui l’oggetto viene presentato.
- Teoria del filtro Æ fra le migliaia di stimoli che pervengono agli organi di senso, possono
raggiungere i centri del cervello solo alcuni, che riescono a bypassare il filtro. In vecchiaia, il filtro
diviene più selettivo, quindi passano meno stimoli, ma risultano più precisi.
Nell’anziano peggiora la percezione dei particolari, ma non la percezione globale di un oggetto.
¾ Attenzione
Le caratteristiche che la contraddistinguono sono:
- arousal Æ livello di soglia
- capacità dei meccanismi attentivi Æ quantità di informazione elaborabile in parallelo
- capacità di essere selettivi Æ ignorare alcune informazioni e considerarne altre
Il nostro sistema di elaborazione è limitato.
Studi sull’effetto Stroop dimostrano che esso aumenta negli anziani a causa di una ridotta efficienza del
sistema percettivo.
Studi sull’attenzione fluttuante, indica difficoltà negli anziani, dovuta all’incapacità di mantenere in stand-
by uno stimolo.
¾ Linguaggio
E’ una delle funzioni che risente meno dell’invecchiamento. Sono più frequenti errori sintattici e
grammaticali, specialmente in frasi complesse che richiedono un maggior uso della memoria a breve
termine. La comprensione lessicale risulta conservata, così come la comprensione superficiale di un brano.
¾ Affettività e adattamento
Vi è una riduzione dell’intensità soggettiva dell’affettività, che corrisponde a una diminuzione della sua
espressività, riconducibile all’accresciuta capacità di rappresentazione simbolica degli affetti.
La vita affettiva si viene caratterizzando da minori emozioni positive. Il disadattamento in età senile (fra i
60 e 70 anni) può essere scatenato da un pensionamento forzato e condurre a depressione e isolamento.
¾ Sessualità e Creatività
64
Può essere mantenuta, soprattutto la psicosessualità. In media l’efficienza sessuale, in persone sane, è
mantenuta fino a 70-75 anni, a meno che non intervengano condizionamenti culturali e sociali, che
inibiscano tale funzione.
Lo svolgimento di un’attività creativa può facilitare e regolare l’andamento dell’invecchiamento.
Capitolo 26
I PROCESSI COGNITIVI NELL’INVECCHIAMENTO NORMALE E PATOLOGICO
(Amoretti)
Le ricerche psicologiche sull’invecchiamento sono iniziate con lo studio del rapporto tra età e intelligenza e
sono state favorite dall’applicazione su larga scala dei reattivi, durante la prima guerra mondiale in USA.
Modello del declino intellettuale globale: Yerkes confrontando i risultati tra gruppi di età diversa sostenne
che il declino intellettuale inizia a partire dai 30 anni di età. Le ricerche di Wechsler confermarono il
modello. Le prime critiche al modello giunsero dall’applicazione delle tecniche di analisi fattoriali ai
reattivi e dal riconoscimento dell’importanza del fattore “istruzione” nelle prestazioni dei test cognitivi.
¾ Intelligenza fluida e cristallizzata
Una rettifica alla teoria del declino intellettuale globale giunse dalle ricerche di Horn e Cattel e dalla loro
ricerca su intelligenza fluida e cristallizzata:
- Intelligenza fluida Æ riguarda i processi base dell’informazione e della soluzione di problemi (es.
velocità di organizzazione, memoria associativa, ecc)
- Intelligenza cristallizzata Æ collegata alla dimensione socioambientale e culturale ed è influenzata
da fattori educativi
La senescenza è caratterizzata da un deterioramento delle abilità fluide e da una sostanziale stabilità di
quelle cristallizzate.
¾ Il contributo degli studi longitudinali
Il modello del declino intellettuale globale è stato messo in dubbio anche da Arenberg: utilizzando compiti
tradizionale di problem solving esaminò soggetti compresi tra 24 e 87 anni a intervalli di 6 anni. Con
confronti trasversali emerse un aumento degli errori con l’avanzare dell’età. Analizzati longitudinalmente si
osservò un declino solo a partire dai 70 anni.
Ha sottolineato l’importanza, nello sviluppo delle attività cognitive, della dotazione intellettuale di
partenza. Il Seattle Longitudinal Study (Schaie e coll.) diede il via a rinnovamento nella ricerca
sull’invecchiamento Æ fondatori della life-span psychology, hanno sviluppato modelli di studio
dell’invecchiamento inteso come processo di cambiamento.
Un filone di ricerca sviluppatosi negli anni 70 è costituito dalle ricerche-intervento: si distinguono in
training cognitivi e training non cognitivi.
Una grossa mole di dati ha dimostrato sostanziali differenze interindividuali nello sviluppo (es. istruzione,
anno di nascita, ecc) e una considerevole variazione nei ritmi di crescita e declino delle singole abilità Æ i
cambiamenti involutivi dell’età sono legati a complessi eventi ambientali (senescenza biologica = processo
discontinuo e individualizzato).
Denney suddivide le abilità intellettive in due gruppi distinti: abilità poco esercitate e abilità ottimizzate.
Entrambe raggiungono l’apice del loro sviluppo nella prima età adulta per poi iniziare a declinare.
Baltes e col. Sostiene che l’intelligenza ha due aspetti:
- uno meccanico-psicometrico (formale) Æ risolvere i problemi svincolati dai contenuti appresi
- un aspetto pragmatico (di contenuto), chiamato expertiseÆ abilità acquisite e capacità di rispondere con
efficacia ai problemi concreti e specifici.
¾ La memoria
Lo studio dell’apprendimento e della memoria è iniziato con Ebbinghaus, ma le ricerche sull’età delle
capacità mestiche hanno origini recenti. I motivi di questo ritardo sono:
- predominio della teoria del declino intellettuale globale
- avvento dell’orientamento HIP
65
Non esistono oggi teorie d’insieme che si riferiscano allo sviluppo mnestico nel corso della vita: i dati sono
contraddittori e variano secondo il materiale usato.
L’invecchiamento è caratterizzato dall’accentuarsi di una serie di cambiamenti che interessano il sistema
nervoso centrale. Fra i 20-25 anni c’è il massimo sviluppo delle abilità mestiche, che cominciano a
declinare con la terza decade. E’ stata proposta anche l’ipotesi del massimo adolescenziale con un picco
massimo delle abilità tra i 13 e i 20 anni.
Welford ipotizzò che il declino mestico fosse dovuto alla mancanza d’esercizio, al disuso delle funzioni
mestiche. Postulò anche l’ipotesi di interferenza (interferenza proattiva sulla memoria a breve termine che
ne causa deficit)
Gli studi degli anni 70 si focalizzarono sull’importanza della velocità Æ allungando il tempo di prestazione
e di risposta, le prestazioni di soggetti di qualsiasi età vengono migliorate.
La maggior parte delle ricerche non ha messo in evidenza riduzioni significative delle capacità del registro
sensoriale: la memoria iconica sarebbe più persistente nell’anziano. La tendenza degli anziani a fornire
prestazioni analoghe ai giovani nei compiti di riconoscimento è data dal fatto che le difficoltà mnestiche
degli anziani sono a livello di recupero dell’informazione e non a livello di codifica.
Deficienza di produzione Æ anziani sono meno abili dei giovani nell’uso spontaneo di strategie efficaci di
memorizzazione. Questa teoria è stata formulata in due versioni:
- deficit di ricerca: anziani hanno difficoltà nella formulazione spontanea di strategie efficaci
- profondità dell’elaborazione: gli anziani non raggiungono la codifica profonda (semantica)
Il ruolo delle conoscenze metamnestiche determina le differenze giovane-anziano: nell’anziano,
l’esperienza di fallimenti, può dare origine a convinzioni di impotenza e caduta dell’autostima.
Il contributo di fattori affettivo-motivazionali al deficit mnestico negli anziani è stato rilevato sia
sperimentalmente che con metodi ecologici: avere fiducia e alta motivazione sono connesse con buona
conservazione della memoria.
Il deficit mnestico senile è spiegabile ipotizzando che l’informazione passi per tre fasi:
acquisizione:
• lo stimolo deve essere percepito (la vecchiaia ha difficoltà percettive)
• la ridotta velocità senile, determina una riduzione del materiale acquisito
• l’attenzione selettiva non sembra declinare con l’età
codifica
• riduzione della capacità di working memory
• difficoltà strategiche
• problemi metamnestiche
recupero
• ridotte prestazioni della MLT
• ridotta quantità di materiale appreso
• problemi nel ricordo soprattutto dopo i 70 anni
Per ciò che concerne l’invecchiamento patologico, la senilità può essere caratterizzata da demenza. La
demenza si divide in sottocorticale e corticale.
Capitolo 27
CAMBIAMENTI EVOLUTIVI IN ADOLESCENZA
(Cigala, Zammuner)
Verso la fine dell’800 emerge un’idea biologica di adolescenza: Hall sostiene che il rinnovamento totale
della personalità che avviene in questo periodo è determinato biologicamente ed è quindi indipendente da
variabili culturali e ambientali. A questo si è aggiunta la prospettiva antropologica che evidenzia il ruolo
determinante della cultura e studi di derivazione sociologica.
Con la psicoanalisi, la psicologia si è focalizzata più sui cambiamenti interiori dell’adolescente. Un altro
contributo viene dalle teorie cognitive, che provano a spiegare le modalità di pensiero e acquisizione della
conoscenza. In ultimo l’apprendimento sociale di Bandura ha evidenziato i meccanismi attraverso i quali in
66
adolescenza lo sviluppo è condizionato da stimoli ambientali. I cambiamenti nel pensiero dell’adolescente
permeano lo sviluppo affettivo e sociale dell’adolescente: secondo Piaget l’intelligenza è una forma di
adattamento all’ambiente, che si modifica nel tempo organizzandosi in strutture più complesse.
Autori neopiagetiani reinterpretano le teorie piagetiano alla luce delle teorie dell’elaborazione
dell’informazione Æ gli individui sono solutori di problemi che elaborano le informazioni per mezzo di
piani mentali attraverso cui si rappresentano una soluzione problematica.
I cambiamenti che vive l’adolescente con la loro conflittualità, si esprimono nella famiglia: separazione
reciproca, individuazione correlata Æ rinegoziazione delle distanze interpersonali.
Capitolo 28
PSICOLOGIA DELLA FAMIGLIA
(Cusinato)
Studiamo quindi le relazioni all’interno di una famiglia, cioè come ciascun membro si relaziona alla
famiglia e al terapeuta.
Si indagano gli antecedenti della relazione disfunzionale familiare (es. figlio malato, madre depressa) Æ ci
sono effetti multidirezionali (feedback loop) fra i membri della famiglia, dove ognuno ha influenza ed è
influenzato da ciò che ogni altro dice o fa.
L’Abate costruisce una teoria evolutiva delle relazioni familiari riassumibile in:
- continuum sentire dentro-esprimere Æ da come le informazioni vengono elaborate ed espresse in casa,
possiamo capire se la famiglia funziona o no. Le informazioni percepite vengono gestite lungo un
continuum a cinque modalità:
- emotività Æ competenza della famiglia di trattare i sentimenti
- razionalità Æuso della famiglia delle proprie competenze cognitive e logiche per elaborare
l’emotività
- attività Æquanto una famiglia sia attiva o passiva nell’esprimere ciò che ha ricevuto
- consapevolezzaÆmodalità correttiva di cambiamento determinata dal livello di coscienza
e ammissione circa ciò che la famiglia è disposta e capace di rivelare
- contestoÆ modalità con cui la famiglia interpreta il problema, caricando più o meno la
famiglia stessa della responsabilità
La buona stella permette di evidenziare la dimensione degli aspetti.
- livelli di analisi:
- 1°. va valutato come un individuo funzioni, come influenzi e come sia influenzato dagli
altri
- 2°. Valutazione della diade (padre-figlio,fratello-fratello,ecc)
- 3°. Valutazione della dimensione delle proprietà di gruppo 8come ogni membro è
influenzato e influenza gli altri)
- 4°. Valutazione parentale: famiglie di origine
- 5°. Valutazione di comunità: come la famiglia si comporta con parenti e vicini.
- livelli di interpretazioneÆ livello descrittivo (presentazione e fenotipico), livello esplicativo (genotipico
e storico)
- continuum di somiglianzaÆ tre modalità relazionali che rappresentano ciò che viene scambiato fra i
membri della famiglia: essere (come una famiglia attribuisce importanza ai suoi membri e quanto siano
67
intimi fra loro), Fare (quante informazioni e servizi vengono scambiati in famiglia) e avere (come il
denaro e i beni sono procurati valutati e tenuti in famiglia).
68