Sei sulla pagina 1di 82

PSICOMETRIA

.
PSICOMETRIA

Psicometria: disciplina che si occupa della rilevazione e della misurazione dei fenomeni psicologici per
affrontare i problemi di quantificazione e di elaborazione di dati psicologici.

Statistica descrittiva: presenta e sintetizza i dati.


Statistica inferenziale: inferisce le caratteristiche di un’intera popolazione a partire da dati raccolti in un
suo sottoinsieme.

Soggetto (o partecipante): i partecipanti a uno studio o a un esperimento.


Oggetto: caratteristica o costrutto1 che io voglio misurare.

Campione: parte della popolazione. I valori che vengono misurati sono detti statistiche o indicatori.
Popolazione: la totalità delle persone o degli eventi che sono oggetto di studio. I valori che vengono
misurati sono detti parametri.

Costante: attributo comune a tutti i partecipanti della ricerca.


Variabile: qualsiasi attributo o caratteristica misurabile X che può cambiare o assumere valori o categorie
diverse.

- Variabili qualitative (o categoriali): quelle i cui valori sono categorie.


- Variabili quantitative (o metriche): quelle i cui valori sono numeri.
o Variabili discrete: i possibili valori sono interi (numero di figli).
o Variabili continui: i possibili valori sono valori in un continuum infinito (età).

Le variabili possono essere costituite dunque da categorie (o modalità) oppure da valori.

- Variabile indipendente (o predittore): quella che viene manipolata dallo sperimentatore. Se tale
variabile è manipolabile abbiamo un esperimento; se invece è propria dei partecipanti, sarà un
quasi esperimento.
- Variabile dipendente (o criterio): quello che risulta dalla manipolazione della variabile indipendente.

Frequenza: numero di volte in cui si presenta una certa categoria o valore in un insieme di dati.

Item: operazionalizzazione di un oggetto che io voglio misurare.

1
Costrutto: fenomeno che non ha una realtà empirica ma che è possibile misurare indirettamente.
Scale di misura (Stevens, 1951)

La scelta della scala dipende dalla definizione della variabile (per esempio riguardo all’età se chiedo se si è
maggiorenni o minorenni sarà una variabile nominale, se si è in una fascia di età sarà ordinale mentre se
domando esattamente quanti anni si hanno sarà una scala a rapporti).

Ogni scala possiede le caratteristiche di quella che la precede, quindi è meglio usare una variabile di livello
più alto e poi eventualmente ricodificarla a livelli più bassi.

- Scala nominale
La variabile è categoriale; è possibile classificare le categorie associando a ognuna di esse
un’etichetta numerale che però non ha un valore quantitativo. Un caso particolare è la variabile
dicotomica, definita da due sole categorie.
Esempi: collocazione politica, sesso.
Proprietà: classificazione.
Operazione: misurazione della frequenza.

- Scala ordinale
La variabile è categoriale ma è anche ordinale, ma la posizione indica una qualità, non una quantità. Anche in
questo caso posso associare a ogni categoria un’etichetta numerale che però non ha un valore quantitativo.
Esempi: scolarizzazione, scale di valutazione (bassa, media, alta; non voti), scale a classi (da 1 a 5,
da 5 a 10, oltre 10), scala Likert2.
Proprietà: ordine.
Operazioni: misurazione della frequenza.

- Scala a intervalli
La variabile è quantitativa (il valore corrisponde a una quantità di una certa caratteristica), ma la
variabile è stabilita arbitrariamente (per es. la felicità) e dunque il valore zero è convenzionale e
non assoluto (posso anche dire che lo zero è un punteggio inferiore a x), ovvero non indica una
reale assenza di una certa caratteristica, dunque può assumere valori positivi ma anche negativi.
Esempi: temperatura, misurazione di caratteristiche psicologiche (in cui lo zero rappresenta una
teorica mancanza di una certa caratteristica rispetto a un certo modello di misurazione).
Proprietà: quantificazione.
Operazioni: addizione e sottrazione, medie. Non è possibile stabilire rapporti diretti tra le misure
(20°C non è il doppio di 10°C, un QI di 50 non è il doppio di un QI di 25)

- Scala a rapporti
La variabile è quantitativa e il valore zero è assoluto, dunque non potrò avere valori negativi.
Esempi: numero di (figli, errori, ecc.), età, tempi di reazione.
Proprietà: quantificazione
Operazioni: tutte. È possibile fare rapporti tra le misure (dieci risposte esatte sono il doppio di
cinque).

2
Scala Lickert (a x passi): scala ordinale/a intervalli che va da 1 a x (il singolo item è di per sé ordinale, ma il risultato
dell’intero test è a intervalli in quanto posso fare operazioni di media, ecc.). Se i valori sono dispari, è possibile
selezionare un valore medio, mentre, se sono pari, questo obbliga a “prendere posizione”.
STATISTICA DESCRITTIVA

- Distribuzioni di frequenza
Consentono semplicemente di misurare le frequenze delle varie caratteristiche o valori.
- Indici di tendenza centrale
Indicano dei valori che sintetizzano i vari dati secondo caratteristiche che voglio misurare (moda,
mediana, media).
- Indici di variabilità
Indicano come si distribuiscono i valori (se per esempio sono concentrati intorno a un certo valore
o sono molto dispersi).
- Indici di posizione
Sono dei valori che hanno una certa posizione nella distribuzione e che mi possono indicare come
sono distribuiti i risultati al di sotto o al di sopra di un certo valore.
- Rappresentazioni grafiche

DISTRIBUZIONI DI FREQUENZA

Distribuzioni

- Distribuzione assoluta: range di categorie o valori che una certa variabile può assumere (in un test
con 20 risposte il range della distribuzione assoluta va da 0 a 20)
- Distribuzione osservata: range di categorie o valori emersi (in un test con 20 risposte il range della
distribuzione osservata potrebbe andare per esempio da 1 a 12).

Frequenza assoluta: la frequenza assoluta fi è il numero delle volte in cui una variabile X si presenta una
certa modalità xi . Si può usare anche per le scale nominali.

Per rappresentare la frequenza assoluta si usa una tabella di frequenza semplice costituita dall’insieme
delle caratteristiche o dei valori della variabile e dalle frequenze di ciascuna modalità. Ogni categoria o
valore avrà una frequenza corrispondente.

Sia X una variabile che si intende misurare; per ogni caratteristica o valore x che una variabile X può
assumere avrò una frequenza f corrispondente, dunque avrò xi valori e fi frequenze.

X f
x1 f1
x2 f2
x3 f3
… …
TOTALE Fn

La somma delle frequenze F è quale a ∑  ovvero alla sommatoria di tutte le fi per i che va da 1 a n,
quindi F=f1+f2+…+fn ed è uguale al numero n delle unità statistiche.
Frequenza in classi: si ottiene raggruppando i valori in classi o intervalli.

Frequenza relativa: la frequenza relativa firel di una modalità xi che può assumere una variabile X è la
frazione o proporzione di unità statistiche che presentano tali modalità. È “relativa” perché mette in
relazione una certa frequenza con la frequenza totale.

 
  = =
∑ 


Se io moltiplico la frequenza relativa (che sarà un valore inferiore a 1 in quanto la somma delle frequenza
relative è uguale a 1) per 100 ottengo la frequenza percentuale.

Frequenza cumulata: la frequenza cumulata assoluta è la somma delle frequenze assolute sino alla
modalità considerata, mentre la frequenza cumulata relativa è la somma delle frequenze relative fino alla
modalità considerata.

Se esprimo le frequenze relative in percentuale avrò anche una frequenza percentuale cumulata.

Si può usare solo con categorie o valori ordinati.


INDICI DI TENDENZA CENTRALE

Moda (Mo, Mod)

La moda è la categoria o il valore che si presenta più spesso in una distribuzione ovvero che ha la frequenza
più elevata. Si può fare con tutte le scale di misura.

Se c’è un unico valore o categoria con la frequenza più elevata la distribuzione sarà unimodale, se ci sono
due valori con la stessa frequenza la distribuzione sarà bimodale, se tutte le categorie o valori hanno la
stessa frequenza – e dunque non ci sarà un valore che ha una frequenza diversa – sarà amodale.

Mediana (Me, Mdn)

La mediana è il valore o la categoria che occupa la posizione centrale nella distribuzione osservata e
ordinata progressivamente, ovvero al di sopra o al di sotto del quale sta il 50% dei casi. Se la media è il
baricentro della distribuzione, la mediana ci informa di come sono distribuiti i valori, dato che divide a metà
l’intera distribuzione; se la mediana è lontana dalla media, vuol dire che la distribuzione è “sbilanciata” in
un certo verso.

Si può utilizzare a partire da variabili su scala ordinale.

Per calcolare la mediana occorre ordinare i casi in modo crescente, calcolare la frequenza assoluta, calcolare la
frequenza cumulata, calcolare la posizione del valore corrispondente alla mediana (per esempio è il valore
corrispondente al valore in sesta posizione), trovare tale valore nella frequenza cumulata e vedere a quale
categoria o valore corrisponde.


+1

Casi dispari Casi pari


 =  = <  < + 1
2 2 2
In questo caso si può anche fare
la somma parziale tra due valori.

38 38
 = <  < +1
2 2
X F Fc
1 3 3

PosMe = 19 < PosMe < 20


2 5 8
3 6 14
4 7 21
5 8 29 La posizione tra la 19 e la 20 nella tabella
6 9 38 corrisponde al valore di x = 4
TOTALE 38
Media (M, µ)

La media è la somma delle misure osservate diviso il numero delle osservazioni fatte (totale dei casi).

∑ 
=

Si può usare quando la variabile è quantitativa, ovvero dalla scala a intervalli.

- La media si può calcolare solo con variabili quantitative.


- La media è compresa tra il valore minimo e il massimo dei valori osservati (proprietà
dell’internalità).
- La media ha una posizione di “baricentro” della distribuzione ovvero la somma degli scarti3 dei
valori sopra o sotto la della media è sempre uguale a zero (proprietà della baricentricità).
Questo fa sì che la media risenta delle variazioni apportate dai valori anormali – detti outlier –,
ovvero tende a spostarsi nella direzione della coda più lunga della distribuzione.
Per questo motivo a volte è meglio usare la mediana rispetto alla media come indice di tendenza
centrale; per esempio in una distribuzione 2, 4, 5, 6, 7, 8, 99 la media è 17.6 che è un numero poco
significativo, mentre la mediana è 6 che è più in linea con i valori ottenuti senza tener presente il
valore outlier. Ma può essere anche vero il contrario: per esempio in una distribuzione 2, 4, 5, 6, 91,
98, 99 la media è significativa, mentre la mediana rimane 6, come nell’esempio precedente.

- Scale nominali: è possibile calcolare la moda.


- Scale ordinali: possiamo calcolare la moda e anche la mediana, in quanto i valori sono ordinati.
- Scale a intervalli e a rapporti: si possono usare tutti gli indici di tendenza centrale.

3
Scarto: differenza di ciascun valore con la media.
INDICI DI DISPERSIONE E VARIABILITÀ
-

- Campo di variazione (o range)


- Devianza
- Varianza
- Deviazione standard
- Coefficiente di variazione

Campo di variazione (o range)

Il campo di variazione è l’intervallo dei valori di una certa variabile ed è dato dalla differenza tra il valore
maggiore e quello minore di una distribuzione di frequenza.

 =  !" − 

Questo indice non mi dice però come si organizzano i valori all’interno di questo range, quindi devo utilizzare
degli indici che prendano come riferimento la media, quali la devianza, la varianza e la deviazione standard.

Devianza (Dev)

La devianza è la somma di tutti gli scarti dalla media al quadrato. Vengono elevati al quadrato per
trascurare il segno degli scarti (altrimenti la somma degli scarti sarebbe sempre zero).


$% = & ( − )) intendendo  ( − ))


Varianza (s2 o σ2)

La varianza è il rapporto tra devianza e frequenza totale, ovvero è la media degli scarti al quadrato. Misura
la dispersione intorno alla media.

∑( − )) $% ∑ ) ∑  ∑ )


)
. =
)
= . =
)
−/ 0 = − )




sempre intendendo  ( − ))   

Proprietà della varianza

- La varianza è sempre maggiore o uguale a zero (in quanto la devianza è un valore già positivo
perché quadratico).
- Minore è la varianza e più i casi sono concentrati intorno alla media; maggiore è la varianza e più i
casi sono dispersi intorno alla media.
È un valore utile da sapere perché mi dice per esempio quanto un gruppo sia omogeneo; se per
esempio un gruppo è omogeneo il mio intervento potrà essere specifico, mentre se è meno
omogeneo dovrà essere più modulare.
Deviazione standard (o scarto quadratico medio o scarto tipo) (s o σ oppure ds o sd)

È la radice quadrata della varianza. Come la varianza misura la dispersione intorno alla media, ma con
l’unità di misura uguale alla media (ovvero non elevato al quadrato).

∑ ( − )) ∑  ) ∑  ∑  )
)
. = 4  = 5. ) . = 4   − /  0 = 4   − ) = 5. )



sempre intendendo fi (xi -M)2 e fi xi

La deviazione standard condivide le stesse proprietà della varianza.

Solitamente gli indici relativi a un insieme di dati vengono riportati come 6 ± 89 o 6 ± :, ovvero come la
media più o meno una deviazione standard.

Coefficiente di variazione (o indice di variabilità relativa) (CV)

Il coefficiente di variazione consente di confrontare la variabilità di due o più distribuzioni. È detta


“variabilità relativa” in quanto messa in relazione con la media (la “variabilità assoluta” è la deviazione
standard).

In genere viene espressa in percentuale moltiplicando il valore per 100.


s
 = × 100


A questo punto si confrontano i coefficienti di variazione delle varie distribuzioni, per esempio per
confrontare le performance di due gruppi.
INDICI DI POSIZIONE

Gli indici di posizione forniscono informazioni sui valori della variabile osservata al di sotto dei quali ricade
una certa percentuale di osservazioni della distribuzione; per esempio due gruppi possono avere una media
o una deviazione standard simile ma diversa collocazione delle frequenze nella distribuzione.

Possono essere utilizzati a partire dalla scala ordinale.

- Mediana (corrispondente al quartile centrale)


- Quartili
- Decili
- Percentili

Per calcolare i vari indici si procede come per trovare la mediana, ovvero si ordinano in senso crescente le
modalità o i valori della variabile, si calcolano le le frequenze cumulate, si calcola la posizione di un
determinato indice e si cerca nella distribuzione il valore corrispondente alla posizione trovata.

Quartili

La distribuzione viene divisa in quattro parti.

- 1° quartile (o quartile inferiore): valore sotto il quale ricade il 25% dei casi
- 2° quartile (o quartile mediano o mediana): valore sotto il quale ricade il 50% dei casi
- 3° quartile (o quartile superiore): valore sotto il quale ricade il 75% dei casi


+1
< = = > @×A
4

11 + 1
< = = > @×1=3
4
X F Fcum
23 2 2

11 + 1
34 1 3
< = = > @×1=6
4
38 2 5
45 1 6
11 + 1
48 2 8
< = = > @×1=9
4
54 1 9
57 2 11
Tot: 11
Decili

La distribuzione viene divisa in dieci parti.

- 1° decile: valore sotto il quale ricade il 10% dei casi


- 9° decile: valore sotto il quale ricade il 90% dei casi


+1
< $ = > @×A
10

Percentili

La distribuzione viene divisa in cento parti.


+1
<  = > @×A
100
La standardizzazione

La standardizzazione ci permette di confrontare le performance di due soggetti diversi in una stessa


distribuzione oppure di uno stesso soggetto in distribuzioni diverse.

Questo è possibile in quanto i valori standardizzati z esprimono il punteggio confrontando i valori con la
media e con quanto i valori si allontanano da essa (ovvero con la deviazione standard).

Per fare questo dobbiamo trasformare i valori x di un certo soggetto in valori z, ovvero in distanze dalla
media usando come unità di misura (quindi dividendo per) la deviazione standard.
DE
C =

L’unità di misura dei punteggi standardizzati sarà dunque la deviazione standard, quindi un punteggio pari
alla media avrà valore zero.

Il segno dice se la performance del soggetto è sopra o sotto la media e il valore mi dice di quante deviazioni
standard il valore è lontano dalla media.

Possiamo fare anche il ragionamento inverso, ovvero dal punteggio standardizzato z tornare al punteggio x

 = ×C+
RAPPRESENTAZIONI GRAFICHE

Grafico a barre

Si utilizza con le variabili qualitative. Sull’asse delle x c’è il nome della variabile, mentre l’altezza delle barre
rappresenta la frequenza (assoluta o relativa/percentuale).

Le barre sono separate tra di loro perché non c’è continuità tra le categorie della variabile.

Istogramma

Si utilizza con le variabili quantitative.

Le barre sono una attaccata all’altra perché c’è continuità tra i vari valori.

Poligono di frequenza e curva continua

Si utilizza con le variabili quantitative.

Quando una variabile continua ha molti valori il poligono assume una forma di curva. Un esempio di questo
tipo di rappresentazione è la curva gaussiana che rappresenta una distribuzione normale in cui la curva è
simmetrica.

Se la curva è spostata verso i valori alti la curva ha una asimmetria negativa, se è spostata verso i valori
bassi avrà invece una asimmetria positiva.

Box-plot

Si utilizza con le variabili quantitative e rappresenta i vari quartili.


RELAZIONI TRA VARIABILI

Analisi bivariata

L’analisi bivariata è lo studio della relaziona tra due variabili, che può essere

- di covariazione (o covarianza o correlazione o associazione): quando osserviamo che due variabili


presentano variazioni concomitanti (al variare di una varia anche l’altra), ovvero c’è una relazione
simmetrica,
- causale: quando X causa Y e dunque c’è un nesso causale che è però sperimentalmente più difficile
da provare anche perché va escluso che tale legame sia dovuto a fattori terzi.

La variabile indipendente viene convenzionalmente indicata con X (riga) e quella dipendente con Y (colonna).

È necessario all’inizio definire le variabili e il tipo di scala di misura:

- variabili nominali tabelle di contingenza (o di frequenza a doppia


- variabili ordinale entrata o a entrata multipla)

- variabili a intervalli diagramma di dispersione (e conseguente calcolo


- variabili a rapporti del coefficiente di correlazione)

Tabelle di contingenza (o a doppia entrata)

Sono tabelle in cui i dati sono classificati secondo due variabili e le frequenze sono calcolate tenendo conto
delle combinazioni delle modalità delle due variabili.

Una tabella 4x3 è una tabella con quattro righe e tre colonne che produce dodici celle che indicano la
combinazione delle due variabili (detta distribuzione congiunta).

La somma delle frequenze di ogni riga è il marginale di riga e quella di ogni colonna è il marginale di colonna
(dette frequenze marginali di riga e di colonna).

La frequenza delle varie celle e quelle marginali possono essere trasformate in percentuale ottenendo le
frequenze percentuali marginali dividendo le frequenze marginali per quelle totali e moltiplicando per 100.


 = × 100

È possibile inoltre calcolare la percentuale condizionata di riga o di colonna utilizzando come riferimento la
frequenza totale di una sola condizione, ovvero quella totale di una riga o di una colonna (e non la
frequenza totale).

Questo ci fa capire meglio le variazioni all’interno dei sottogruppi specialmente se sono composti da un
numero diverso di partecipanti.


  = × 100

Maschi Femmine
f % f %
3 anni 20 26.7 20 26.7
4 anni 30 40.0 30 40.0
5 anni 25 33.3 25 33.3
75 100 75 100

Per rappresentare una distribuzione di frequenza bivariata si usano i grafici a barre nel caso di variabili
qualitative, in cui le barre sono separate tra di loro (perché non c’è una continuità tra i valori).

Si possono rappresentare le frequenze di cella oppure le frequenze condizionate in modo da poter rendere
meglio le relazioni tra le variabili.
Il diagramma di dispersione

Sulla ascissa va messa la X e sulle ordinate la Y e inserisco i vari punti relativi alle misurazioni.

Possono essere quindi fatte misure di associazione che

- stabiliscono la forza del legame esistente tra le variabili,


- misurano quanto varia una variabile al variare dell’altra,
- sono diverse a seconda del tipo di variabile, ovvero in base alla scala di misura.

Il tipo di relazione può essere lineare, se i punti si approssimano a una retta, oppure essere dispersa, e
quindi rappresentare una nube.

L’intensità della relazione, ovvero quanto sono distanti i punti dalla retta, ed è indicata dalla covarianza.

La direzione della relazione indica il verso della relazione, ovvero se la relazione è direttamente o
inversamente proporzionale ed è indicata dalla covariazione.

La covarianza (S)

La covarianza è la misura del grado di associazione di due variabili. È pari alla media aritmetica del prodotto
degli scarti delle due variabili dalla loro rispettive medie.

∑( − " )(H − G )


F"G =
(
− 1)

(al denominatore si usa (n – 1) perché dà una stima più corretta)

Coefficiente di correlazione di Pearson (r)

Il limite della covarianza è che è una misura relativa in quanto spesso confronta variabili di tipo diverso.

Si preferisce quindi utilizzare il coefficiente di correlazione di Pearson, che opera sui valori standardizzati.

∑ C"I CGI


=
(
− 1)


∑  H − ∑  ∑ H
=
) )
JK
∑ ) − L∑  M N K
∑ H) − L∑ H M N

Il segno della correlazione è positivo se y aumenta all’aumentare di x; è negativo se y aumenta al diminuire


di x.

Se la correlazione assume un valore vicino allo zero significa che non c’è una relazione tra le variabili.
Il coefficiente di correlazione è un numero puro (in quanto standardizzato e dunque non dipendente
dall’unità di misura delle variabili ) e assume un valore compreso tra 0 e -1 e +1, quando c’è una relazione
perfetta negativa o positiva. Tuttavia i valori estremi di -1 e +1 sono praticamente impossibili perché le
misurazioni hanno sempre un minimo di errore o di approssimazione.

L’assenza di relazione lineare non implica l’assenza di relazione. Ci possono essere infatti relazioni non
lineari (per esempio in un andamento normalizzato) ma con una correlazione rxy=0

Per calcolare il coefficiente di correlazione di Pearson con la formula con i dati grezzi conviene organizzare una tabella
con i vari valori

ID Xi Yi XiYi X2 Y2
1


Totale
CAUSALITÀ

La causalità è difficile da misurare nell’ambito psicologico perché spesso due variabili si possono influenzare
a vicenda (ho ansia perché so di avere basse performance o ho basse performance perché sono in ansia?).

I nessi causali possono dunque solamente inferiti e mai osservati.

Per stabilire la causalità devono essere presenti tre criteri:

- presenza di una variazione reciproca tra due varianti (covariazione),


- esistenza di una sequenza temporale tra le variabili (il cambiamento della variabile indipendente
deve precedere il cambiamento di quella dipendente),
- assenza di spiegazioni alternative (dunque tra le due variabili c’è una relazione spuria).
Il rischio è di introdurre delle distorsioni sistematiche nel trovare delle covariazioni:
 affermare una correlazione quando proprio non esiste,
 stabilire un nesso di causa e effetto quando c’è solo una correlazione,
 stabilire una relazione che invece è dovuta a una terza variabile.

Inoltre, perché si tratti di un esperimento, la variabile indipendente deve essere modificata dallo
sperimentatore (variabile manipolata, per es. somministrazione di un trattamento); se invece la
caratteristica è già presente (variabile non manipolata, per es. età, titolo di studio, presenza o meno di una
caratteristica, ecc) si tratta di un quasi esperimento.

Sia in un esperimento che in un quasi esperimento inoltre avrò tanti campioni sperimentali quanti sono i
livelli della variabile indipendente (per es. uno che riceve un trattamento e uno no, i diversi colori degli
occhi presi in considerazione) e un eventuale campione di controllo.
PROBABILITÀ

Inferenza statistica: il processo che consente di trarre delle conclusioni a proposito delle caratteristiche di
una popolazione utilizzando le informazioni fornite da un campione tratto da una popolazione.

Variabilità campionaria: la variabilità della misura su diversi campioni. Una caratteristica fondamentale
delle statistiche è infatti quella di variare da campione a campione. La teoria della probabilità consente di
capire quanto il risultato di un campione – di n casi – sia simile a quello della popolazione.

Teoria della probabilità: branca della matematica che si occupa di fenomeni aleatori, ovvero che non
hanno una regolarità deterministica (sebbene la ripetizione dei fenomeni aleatori esibisca una regolarità).

Esperimento casuale: esperimento che dà luogo a differenti risultati se ripetuto più volte sotto le stesse
condizioni. Es: tirare un dado.

Spazio campionario: l’insieme che contiene tutti i possibili esiti dell’esperimento. Può essere discreto, se ha
un numero limitato di possibili risultati, oppure continuo, se i risultati possibili sono potenzialmente infiniti.
Es: lo spazio campionario dei risultati possibili tirando un dado è 6.

Probabilità dell’evento (o grado di avverabilità): valore numerico che indica le regole per associare un
risultato a un evento aleatorio. Es: la probabilità di ottenere un numero pari tirando un dado è uguale al
3/6.

Evento: il risultato di un esperimento casuale. Può essere semplice, se costituito dal risultato di un solo
esperimento casuale, o composto, se frutto della combinazione di più esperimenti casuali. Può essere
certo, quando coincide con lo spazio campionario (nel lancio di un dado il risultato deve essere tra 1 e 6,
quindi la probabilità è 1), impossibile quando non corrisponde allo spazio campionario (nel lancio di un
dado ottenere 7, quindi la probabilità è 0).

Probabilità a priori (o classica): può essere stabilita indipendentemente dalla realizzazione della prova. la
probabilità di un evento A è data dal rapporto tra il numero degli eventi favorevoli f e il numero degli aventi
possibili n.


<(O) =

Lo spazio campionario Ω èdato dall’insieme degli eventi A e dagli eventi non-A e la somma di tali eventi è
sempre 1.

P = <(O) + <(OQ ) = 1

Postulati della probabilità

- la probabilità è un numero positivo compreso tra 0 (evento impossibile) e 1 (evento certo).


- la probabilità può essere espresso con una frazione o un numero decimale o in percentuale.
Probabilità frequentista (o a posteriori o empirica): probabilità stabilita in modo relativo, ovvero
calcolandola in base alla frequenza in cui l’evento si è verificato in base alle osservazioni fatte. Usata negli
eventi legati alla vita reale in cui non è possibile calcolare assolutamente la frequenza a priori.

Il valore è approssimativo della probabilità reale dell’evento ed è tanto più accurato quanto più numerose
sono le misurazioni ripetute nelle medesime condizioni.


<(O) = lim
→T

Eventi semplici

Sono gli eventi determinati da un solo esperimento casuale.


<(O) =

Eventi composti

Sono gli eventi determinati dalla combinazione di due esperimenti casuali. Possono avere una

- probabilità disgiunta (l’uno O l’altro) A∪B (vanno bene entrambi gli eventi)

o con eventi mutualmente escludentisi (o incompatibili) (A∩B = 0)


Il verificarsi dell’uno esclude il verificarsi dell’altro. Non possono verificarsi
contemporaneamente.
Es: estrarre una carta di cuori o di fiori.
<(O ∪ V) = <(O) + <(V)

o con eventi non mutualmente escludentisi (o compatibili) A∩B≠0


Il verificarsi dell’uno non esclude il verificarsi dell’altro. Possono verificarsi
contemporaneamente.
Es: estrarre una carta di cuori o una figura.
<(O ∪ V) = <(O) + <(V) − <(O ∩ V)

- probabilità congiunta (l’uno E l’altro) A∩B (si devono verificare entrambi gli eventi)

o con eventi indipendenti


Il verificarsi di A non influenza il verificarsi di B. Sapere che A si è verificato non dà
informazioni sul verificarsi di B.
Es: estrarre una carta di cuori e poi una di fiori reinserendo la prima carta.
<(O ∩ V) = <(O) × <(V)

o con eventi dipendenti


Il verificarsi di A influenza il verificarsi di B. Sapere che A si è verificato dà informazioni sul
verificarsi di B.
Es: estrarre una carta di cuori e poi una di fiori senza reinserire la prima carta oppure
rispondere a una domanda e poi a un’altra a condizione di aver risposto bene alla prima.
<(O ∩ V) = <(O) × <(V|O)
(V|O) = V Y Z
[ACA
 [A O
Probabilità condizionata

La probabilità condizionata si ha quando voglio sapere qual è la percentuale in cui accade un evento B posta
una condizione A, ovvero “se A, qual è la possibilità di avere B?”

È uguale alla probabilità congiunta diviso le probabilità dell’evento condizione.

Es: se so che è stata estratta una carta di fiori, che possibilità ho che sia una figura?

< (O ∩ V)
< (V|O) =
<(O)
Z
<(O ∩ V) = <(O) × <(V|O)
DISTRIBUZIONI DI PROBABILITÀ

La distribuzione di probabilità è definita dalle probabilità di tutti i possibili risultati.

Alcune distribuzioni di probabilità possono essere previste in modo teorico attraverso un modello
matematico: quello più frequente è la curva normale.

Le distribuzioni di probabilità sottendono un’area uguale a 1 che costituisce lo spazio campionario.

- Se la variabile è discreta, l’area sarà costituita dalla somma delle probabilità di tutti gli eventi
discreti;
- se la variabile è continua, l’area sarà quella sottesa a una curva.

Variabile continua

Quello che succede nella popolazione viene rappresentato a una variabile continua e può essere
rappresentata con tipi di modelli di distribuzione di probabilità teoriche: normale, t di Student e F di
Fischer.

Distribuzione normale o gaussiana

Spesso rappresentativa le caratteristiche psicologiche possono essere rappresentate da una distribuzione


di probabilità teorica normale.

La curva gaussiana ha alcune caratteristiche:

- tutte le curve gaussiane sono uguali,


- è infinita e asintotica (va da + a - ∞)
- è simmetrica
- è unimodale (media, moda e mediana coincidono)

Nelle curve normali cambiano solo la media µ e la deviazione standard σ, ma l’area della porzione di area
sottesa nella curva delimitata dalla media e una certa deviazione standard è costante.

Per esempio la misura del QI nella scala Wechsler la µ=100 e la σ=15, significa che il 68% della popolazione
ha un QI che va da 85 e 115.
µ ± σ = 68.26%

µ ± 2σ = 95.46%

µ ± 3σ = 99.73%

Distribuzione normale standardizzata

Trasformando i valori di x in punti z si ottiene una distribuzione normale standardizzata con media uguale a
0 e deviazione standard uguale 1

La standardizzazione è utile perché ci consente di trovare le aree sottese usando delle tavole.

I valori di probabilità relativi a una certa area sarà sempre compreso tra 0 e 1 (che corrisponde al totale
delle probabilità); moltiplicando tale valore per 100 si ottiene la percentuale della distribuzione.

Per trovare il punto z relativo a un certo valore x si deve utilizzare questa formula:
−µ
C=
.

Si può fare anche il procedimento inverso, ovvero trovare il valore di x partendo dalla percentuale di
probabilità (ovvero l'area sottesa).

Se si conosce la probabilità (ovvero la porzione di area associata A) e il numero N dei casi della popolazione
di riferimento (non del campione), io posso trovare la frequenza teorica relative a tale probabilità.

 = O × ] = % [A ]
DISTRIBUZIONI CAMPIONARIE

Incertezza e probabilità

Se estraiamo due campioni casuali e della stessa ampiezza dalla stessa popolazione, se calcoliamo la media
di una certa variabile, le due medie saranno diverse anche se i campioni derivano dalla stessa popolazione.

Questa è la variabilità campionaria che è dovuta alla variabilità di una certa caratteristica e agli errori di
campionamento. Più la variabilità campionaria è grande e meno il campione è informativo rispetto alla
popolazione.

DISTRIBUZIONE CAMPIONARIA DELLE MEDIE (DCM)

Distribuzione di probabilità creata considerando tutti i possibili campioni di una certa ampiezza estraibili da
una popolazione e calcolando su ognuno di essi una certa statistica (in questo caso la media).

Tale distribuzione campionaria delle medie avrà anch’essa una media µM – ovvero la media delle medie di
tutti i campioni possibili – e da una deviazione standard detta errore standard σM – calcolata sulle medie di
tutti i campioni.

In sostanza creare la distribuzione campionaria delle medie e calcolarne l’errore standard ci consente di
rispondere alla domanda “Che probabilità ho che un certo gruppo ottenga un certo risultato medio rispetto
a una popolazione?”.

Prendiamo per esempio una popolazione costituita da quattro famiglie con una certa media di numero di
figli e una certa deviazione standard.

∑_ ∑_
e che . = J
b
I`a " I`a "I
(ricordando che µ = − ) = √. ) )
 

Famiglia N. di figli Popolazione (N) = 4


A 1 µ = 2.5
B 2 σ = 1.12
C 3
D 4

Se io estraggo campioni di ampiezza n=2 da questa popolazione ottengo 6 combinazioni: AB, AC, AD, BC,
BD, CD.

(secondo la formula d =


!
d! × (Dd)!
che trova il numero di combinazioni di ordine k (insiemi composti da k elementi
diversi tra di loro) di n elementi presi a k a k)
A questo punto posso trovare le medie di tutti questi campioni di ampiezza n=2.

Campione M
AB (1+2)/2 1.5
AC (1+3)/2 2.0
AD (1+4)/2 2.5
BC (2+3)/2 2.5
BD (2+4)/2 3.0
CD (3+4)/2 3.5

Ottengo così una nuova distribuzione (la distribuzione campionaria della media, appunto) costituita dai
valori delle varie medie e dalle loro frequenze che riporto in una tabella di distribuzione

M F
1.5 1
2.0 1
2.5 2
3.0 1
3.5 1

di cui posso calcolare la media µM e la deviazione standard

ottenendo in questo caso µM = 2.5 e σM = 0.65.

Se confrontiamo la media della popolazione µ con la media della distribuzione campionaria della media µM
queste sono uguali mentre cambia la deviazione standard (detta errore standard nella distribuzione
campionaria della media).

µM = µ σM < σ

Esistono delle formule per trovare al volo l’errore standard σM (ovvero la deviazione standard di una
distribuzione campionaria della media) relativo a un campione costituito da n elementi presi da una
popolazione di N unità.

In ogni caso più grande è il campione e minore sarà l’errore standard. Questo significa che più grande sarà il
campione rispetto alla popolazione e più la distribuzione campionaria sarà simile alla distribuzione di tutta
la popolazione, ovvero le due curve saranno più simili.
Con una popolazione infinita o con un campionamento con reinserimento:
.
.E =

con n = numero degli elementi del campione

Con una popolazione finita (N) o con un campionamento senza reinserimento:

. ]−

.E = ×4

]−1

quindi influisce anche la grandezza numerica N della popolazione finita.

Se non conosciamo la deviazione standard σ della popolazione, non potendo usarlo nella formula dobbiamo
trovare un errore standard stimato ricavandolo dalla deviazione standard del campione.

.E
^
=

− 1

Legge dei grandi numeri

La variabilità (varianza e deviazione standard) della distribuzione campionaria delle medie diminuisce
all’aumentare dell’ampiezza n del campione, ovvero più è grande il campione e minore sarà l’errore
standard, ovvero più i risultati saranno generalizzabili sulla popolazione.

Teorema del limite centrale

Se si estraggono ripetuti campioni di ampiezza n da una popolazione, qualsiasi sia la forma della
distribuzione nella popolazione, all’aumentare di n la distribuzione campionaria delle medie tende a
distribuirsi secondo una curva di distribuzione normale.

Se n≥30 (ovvero se il campione è di almeno trenta elementi) allora possiamo considerare in via teorica che
la distribuzione campionaria delle medie si distribuisca in modo normale e dunque io posso usare le tavole
dei valori di probabilità della curva normale.

Errore standard

È la deviazione standard delle distribuzioni campionarie. È uguale alla media delle deviazioni standard di
ciascun campione. Più grande è il campione e minore è l’errore standard e dunque più i risultati sono
generalizzabili sulla popolazione (ovvero minore è l’errore dei valori del campione rispetto ai valori della
popolazione).
Poniamo il caso che io sappia che nella popolazione (infinita) i valori del quoziente di intelligenza abbiano
una =100 e una =10.

Dalla popolazione io estraggo un campione di 35 persone (n=35).

A questo punto io posso calcolare la distribuzione campionaria della media per un campione di questa
ampiezza.

Questo significa che io è come se in via teorica estraessi dalla popolazione tutti i possibili campioni (che
saranno infiniti, dato che la popolazione è infinita) di 35 persone, per ogni campione facessi la media dei
valori del quoziente di intelligenza delle 35 persone e poi calcolassi la media e la deviazione standard di
tutte le medie ottenute dai vari campioni.
g h
µ = µE = 10 .E = = = 1.69. La deviazione standard della distribuzione
√ √ij
Otterrei dunque e
campionaria delle medie è l’errore standard di un campione di n elementi estratti dalla popolazione.

Dato che l’ampiezza del campione n è maggiore di 30, io, secondo il teorema del limite centrale, posso
immaginare che tutti i valori delle medie di tutti i possibili campioni di 35 persone estratti dalla popolazione
si distribuiranno secondo una distribuzione normale rappresentabile con una curva normale.

Dunque avrò per esempio pochi campioni la cui media sarà molto bassa o molto alta e tanti la cui media
sarà vicina alla media della popolazione.

Inoltre posso sfruttare le tavole di probabilità della distribuzione normale per calcolare la probabilità che un
certo campione di n elementi abbia un certo valore medio.

Per fare questo devo standardizzare un certo valore medio M rispetto alla deviazione standard σM della
distribuzione campionaria della media.
"DE
La formula sarà quindi simile a quella solita per calcolare i valori standardizzati z, ovvero C =
l
, ma
sostituendo x con M e s con σM.

Avrò quindi due formule a seconda che la popolazione sia infinita o finita.
Per esempio io voglio sapere che possibilità ho che un campione di 35 elementi (n=35) estratto a
caso da una popolazione abbia una media tra 98 e 102
Dato che l’ampiezza del campione è maggiore di 30, io posso pensare la distribuzione campionaria
della media si distribuirà secondo una curva normale, quindi i valori delle varie medie M sono
trasformabili in punti z e poi posso comportarmi come al solito con le tavole di probabilità della
curva normale.
LA VERIFICA DELLE IPOTESI

Ipotesi statistiche

Un’ipotesi statistica è un’affermazione sulla popolazione in cui facciamo una previsione su un certo
parametro (per esempio prevediamo che un trattamento produca un aumento del QI in generale sulla
popolazione).

Avremo dunque un’ipotesi sperimentale (o alternativa) Ha in cui ipotizziamo che le medie della
popolazione µ e della popolazione sperimentale µM siano diverse (ovvero riteniamo che nella popolazione
di chi riceve un certo trattamento otterremo una media del QI più alta della media del QI della popolazione
che non lo ha ricevuto).

L’ipotesi alternativa Ha è dunque generalmente Ha: µM ≠ µ e potrà prendere diverse forme quali:

- semplice (prevediamo di ottenere un certo valore) Ha: µM = 25 (ipotizzo che la media di un


campione sperimentale sia uguale a un certo valore a causa per esempio di un certo trattamento,
ma non si usa quasi mai),
- composta (prevediamo di ottenere un range di valori per il parametro esaminato):
o monodirezionale Ha: µM < µ oppure Ha: µM > µ (ipotizzo che la media di un campione
sperimentale sia minore o maggiore di un certo valore a causa di un certo trattamento),
o bidirezionale Ha: µM ≠ µ (ipotizzo che la media di un campione sperimentale sia diversa da
un certo valore, dunque che sia maggiore o minore di esso a causa di un certo
trattamento).

Ipotizziamo di somministrare il trattamento a un campione di N = 50 persone. Poi dovremo misurarne i


valori.

Per verificare l’ipotesi utilizziamo un test statistico, ovvero un test standardizzato su una popolazione della
quale conosco la media e la deviazione standard. (per esempio possiamo usare un test per il QI, dato che
sappiamo che quel test misura effettivamente il QI e conosciamo che la media del QI della popolazione è
100 con deviazione standard 15).

Il fatto che il test stia standardizzato ci permetterà eventualmente poi di fare un’inferenza statistica dal
campione all’intera popolazione (ovvero di poter affermare che il trattamento somministrato sul campione
– e che ha prodotto certi risultati – produrrebbe risultati uguali anche sulla popolazione).
A questo punto dobbiamo capire se un eventuale media diversa (ovvero un QI più alto nel campione che ha
ricevuto un trattamento) sia significativa (ovvero se la differenza è dovuta al trattamento oppure no e
dunque se posso generalizzare i risultati e prevedere che tale trattamento sia efficace su tutta la
popolazione).

Poniamo il caso che il QI della popolazione abbia µ = 100 e σ = 15. Somministriamo un trattamento a un
campione di N = 50 persone e otteniamo che il QI in quel gruppo è salito a M = 104 e ds = 15. Questo
cambiamento è dovuto al trattamento oppure no? Come facciamo a stabilirlo?

Intanto creiamo una distribuzione campionaria delle medie per un gruppo di N = 50 persone sulla
popolazione. Troveremo che la media della distribuzione campionaria delle medie è µM = 15 (come per la
popolazione ovviamente) e la deviazione standard della distribuzione campionaria delle medie è
g
.E = = 2.14.
√

In questo modo saprò come si distribuirebbero media e deviazione standard per i valori relativi alla
popolazione prendendo però come campione un campione di grandezza N uguale a quella del campione a
cui è stato somministrato il cambiamento.

In questo modo posso confrontare il campione sperimentale con i valori medi della popolazione se estraessi
un campione di grandezza uguale.

Per verificare se la media del campione sperimentale è significativamente diversa non verifichiamo che
l’ipotesi sperimentale Ha sia vera (in questo caso che Ha: µM > µ), ma procediamo per falsificazione ovvero
verifichiamo che ipotesi nulla H0: µM = µ sia falsa. Questa è detto “test dell’ipotesi nulla”.

Procediamo così perché ipotizzare che µM = µ (ovvero che i valori medi di chi riceve il trattamento e di chi
non lo riceve siano uguali) significa avere un’unica distribuzione dei valori (visto che ipotizziamo che sono
uguali) e semplicemente trovare la probabilità della media M del campione all’interno di quella
distribuzione di probabilità.

Questo significa trasformare la media M in un punto z all’interno della distribuzione campionaria delle
medie che abbiamo creato.
E D µm hn D hh
Per fare questo usiamo la formula CE = (nel nostro caso CE = = 1.86).
gm ).n

A questo punto non ci resta che trovare la probabilità di ottenere un punteggio nel nostro caso maggiore di
M, ovvero l’area da zM a infinito (troviamo che è del 3.14%).
Tale valore di probabilità è detto p (o p value):

o un p basso significa che è poco probabile ottenere quel risultato, dunque la media M del campione è
un risultato poco probabile e quindi posso ipotizzare che sia dovuto ad un certo trattamento,
o un p alto significa che è molto probabile ottenere quel risultato, dunque la media M del campione è
un risultato molto probabile e quindi un certo trattamento non ha prodotto risultati insoliti.

Qual è la percentuale per cui posso dire che un risultato è poco probabile?

Tale percentuale è detta livello di significatività α e viene fissata convenzionalmente in valori del 5%, 1% o
0.1%.

Il valore di α indica la regione di probabilità entro cui accetto l’ipotesi sperimentale; esso è dunque un
livello di rischio perché un’α del 5% significa che io accetto di correre il rischio di sbagliare in 5 casi su 100
(pensiamo per esempio di dover stabilire se una medicina produce un effetto significativo su un certo
numero di casi su 100).

Questa percentuale non è altro che un’area all’interno della distribuzione campionaria delle medie della
popolazione relativa a una certa grandezza del campione (nel nostro esempio N = 50).

Se io prevedo che un certo trattamento produca risultati significativamente più alti o più bassi della media
della popolazione (ovvero che la media M del campione caschi su uno degli estremi della curva), l’ipotesi è
monodirezionale e dunque l’area di rifiuto di H0 è data da α, ovvero dall’area – cioè dalle percentuali –
inferiori o superiori a un certo valore.

Se io invece prevedo semplicemente che un certo trattamento produca risultati significativamente diversi
dalla media della popolazione, l’ipotesi è bidirezionale e l’area di rifiuto di H0 è di α/2 su entrambe le code,
ovvero dall’area – cioè dalle percentuali – inferiori e superiori a un certo valore.

Se p > α allora la probabilità che si verifichi l’ipotesi nulla è maggiore di quella per cui la rifiutiamo quindi
accettiamo l’ipotesi nulla, mentre se p < α la rifiutiamo.
Oltre a confrontare p con α, ovvero confrontare due aree di probabilità, io posso anche trovare uno zcritico,
ovvero il valore estremo dell’area α, ovvero il valore che delimita la regione di accettazione da quella di
rifiuto.

Dalla regione α (che è un’area di probabilità) trovo il punto relativo al limite massimo di tale area

o Se l’ipotesi è monodirezionale (α) si trova il valore z sulla tavola collocandolo nella coda appropriata
(quindi avrà segno + o – a seconda delle tavole)
(per esempio se α = .05 il valore di z corrisponde al punto la cui probabilità di 0.0500 ovvero 1.65).
o Se l’ipotesi è bidirezionale (2 x α/2)
(per esempio se α = .05 allora α/2 = 0.025 e il valore di z corrisponde al punto in cui la probabilità di
0.0250 ovvero ±1.96).

α = .05 zcritico = 1.65


α = .01 zcritico = 2.33
α = .001 zcritico = 3.09

Il confronto avviene tra z e zcritico:

o se |zcritico| < |z| = α < p allora si accetta H0 ovvero l’ipotesi nulla è vera,
o se |zcritico| > |z| = α > p allora si rifiuta H0 ovvero l’ipotesi nulla è falsa.

Conviene dunque farsi una tabella di questo tipo:

Popolazione Campione Distribuzione camp.


delle medie
N=… n=… n=… H0 : µM = µ
µ=… M=… µM = µ = … Ha : µM > < ≠ µ
σ=… s=… σM = …

α=…
zα = …
z=…
Esempio di descrizione della verifica delle ipotesi

1. Definizione dei dati


o Definire i campioni (dipendenti, indipendenti)
o Definire le variabili (per es: variabile metrica: numero di errori).
o Indicare i vari parametri.

2. Definizione delle ipotesi


o Spiegazione della ricerca.
o Indicare l’ipotesi nulla H0 : µM = µ.
o Indicare l’ipotesi sperimentale Ha : µM > < ≠ µ.
o Indicare l’α e se l’ipotesi è mono o bidirezionale.

3. Verifica di H0
o Spiegare la verifica di H0 (calcolo di α o dello zcritico, calcolo di p o di zM, confronto e
accettazione/rifiuto di H0)

4. Commento finale
o Posta l’uguaglianza tra µM = µ, la probabilità di ottenere una media come quella osservata
nel campione è minore/maggiore del x% fissato con α, quindi possiamo rifiutare/accettare
l’ipotesi nulla e rifiutare/accettare l’ipotesi sperimentale.
Il campione ha / non ha avuto dunque una prestazione significativamente
maggiore/minore/diversa e il trattamento ha / non ha avuto un effetto significativo.

La scelta dell’ipotesi mono o bidirezionale è a scelta personale; in generale nella somministrazione di un


trattamento (per es. per ridurre l’ansia) tenderemo ad avere un’ipotesi monodirezionale, mentre in se non
so come si possa comportare un campione allora preferiremo un’ipotesi bidirezionale.

Sarà poi la spiegazione a cambiare

- se l’ipotesi era monodirezionale, spiegheremo che il trattamento ha prodotto un effetto e si è


rivelato più o meno efficace,
- se l’ipotesi era bidirezionale, semplicemente verificheremo che c’è stata una differenza.
DISTRIBUZIONE DI PROBABILITÀ T DI STUDENT

Se il campione è piccolo (n<30) oppure se il campione è grande ma non conosco la deviazione standard
della popolazione, non si usa la distribuzione campionaria delle medie ma la distribuzione di probabilità t
di Student.

Essa è infinita, simmetrica, unimodale e asintotica. Anch’essa è una distribuzione teorica.

La forma della distribuzione t di student varia seconda la dimensione n dei campioni, definita in gradi di
libertà gdl (gdl = n-1). Minore è l’ampiezza campionaria e più la curva sarà schiacciata, ovvero per esempio
se io ho un campione di 100, 30, 10 o 2 persone il valore z relativo a un certo α sarà sempre più alto. Per
contro maggiore è l’ampiezza campionaria e più la curva si avvicinerà a una curva normale.

Per ottenere il valore t devo standardizzare il valore della media M della popolazione dividendolo per la
deviazione standard stimata della popolazione.

 − µE
o=
.E
^

p[qrstrsu =
− 1

Se nella tavola non c’è il valore v relativo al nostro campione, si usa il valore inferiore (quindi si è più
restrittivi).

Per fare il test dell’ipotesi nulla H0, possiamo procedere confrontando il tM con il tcritico oppure confrontando
la probabilità p con il valore di probabilità di α. Tali valori vanno trovati sulla tavola relativa alla
distribuzione t di Student.
CONFRONTO TRA GRUPPI INDIPENDENTI (DISEGNI TRA SOGGETTI)

- I soggetti nei due gruppi sono diversi.


- Le osservazioni sono indipendenti:
o due campioni indipendenti sono stati estratti casualmente da una popolazione con
un’assegnazione casuale alle diverse condizioni sperimentali (esperimento),
o due campioni indipendenti estratti casualmente da due popolazioni diverse e assegnazione
non casuale alle diverse condizioni sperimentali (quasi esperimento).
- Dei due gruppi uno viene sottoposto al trattamento (gruppo sperimentale) e uno no (gruppo di
controllo).
o La variabile indipendente è quella che viene manipolata (o quella che cambia tra i gruppi),
o la variabile dipendente è quella che ci aspettiamo dipenda da quella indipendente ed è
quella che viene misurata in entrambi i gruppi.
Quindi prima si stabiliscono le due variabili e poi si definiscono i gruppi.
Tanti sono i campioni quanti sono i livelli della variabile indipendente.

- Alla fine viene fatta un’analisi statistica per rilevare le differenze tra le due variabili.

L’H0 porrà un’uguaglianza tra i due gruppi, Ha stabilirà una ipotesi sperimentale e infine dovrà essere
stabilito un livello di errore α.

DISTRIBUZIONE CAMPIONARIA DELLA DIFFERENZA TRA LE MEDIE (DCDM)

Serve per valutare se ci sono differenze tra i valori medi di due gruppi; tali gruppi possono essere estratti
all’interno di due popolazioni (per esempio tra studenti maschi e femmine di una scuola di cui potrei
conoscere anche media e deviazione standard) oppure essere due gruppi estratti da una popolazione (per
esempio due gruppi di studenti che seguono due trattamenti diversi o un gruppo sperimentale e uno di
controllo e dunque non conoscerò media e deviazione standard di tutta la popolazione ma solo dei gruppi
che partecipano alla ricerca).

Per confrontarli devo creare una distribuzione campionaria della differenza tra le medie.

Tale distribuzione sarà dunque caratterizzata da una media campionaria data dalla differenza delle medie.

µEa DEb = µ − µ)  − )

L’errore standard sarà invece dato dalla somma degli errori standard, ovvero dalla somma degli errori
relativi a gruppi di n elementi delle popolazioni (se si conoscono le deviazioni standard delle popolazioni)
oppure alla somma degli errori standard stimati (se non si conoscono le deviazioni standard delle
popolazioni).
. .)
.Ea DEb = + = .Ea + .Eb

 √
)
Verifica delle ipotesi

Definizione delle ipotesi

H0 : µ1 = µ2 (quindi µ1 - µ2 = 0) ovvero le due medie sono uguali e dunque non posso stabilire una differenza
in base all’appartenenza a un gruppo.

Ha : µ1 ≠ > < µ2 ovvero c’è una differenza per cui un gruppo ottiene una performance diversa, maggiore o
minore dell’altro.
-

Scelta del test statistico

Se i campioni sono grandi con n > 30 e conosco le deviazioni standard delle popolazioni, utilizzo la
distribuzione normale standardizzata.
(Ea DEb )D(µa Dµb ) (Ea DEb )
C= tuttavia, avendo stabilito in H0 che (µ1 - µ2 = 0), la formula diventa C =
gmavmb gmavmb
.

. .)
.Ea DEb = +

 √
)

Se i campioni sono piccoli con n < 30 oppure non conosco le deviazioni standard delle popolazioni, utilizzo
la distribuzione t di Student.

In questo caso si usa l’errore standard stimato.

( − ) ) − (µ − µ) ) ( − ) )


o= quindi o =
.E^ aDEb .E^ aDEb

Per calcolare l’errore standard stimato

1 2
- se entrambi i campioni sono grandi (n > 30):
.E^ a DEb = + = .^1 + .^2
5
1 − 1 5
2 − 1
- se almeno uno dei due campioni è piccolo (n < 30):

1 21 +
2 22
1 +
2
.E^ aDEb = 4/ 0> @

1 +
2 − 2
1
2

Confronto tra i valori

Trovo lo zcritico oppure il t critico e li confronto con z o t.

Per il t critico i gdl sono pari a

p[qrstrsu =
 +
) − 2

In base ai valori critici e quelli della nostra ipotesi, possiamo poi accettare o rifiutare H0.

Inoltre su un disegno con gruppi indipendenti – su cui facciamo la distribuzione della differenza delle medie
– è possibile anche calcolare la misura dell’effetto (d di Cohen).
CONFRONTO TRA GRUPPI DIPENDENTI (ENTRO I SOGGETTI)

Questo tipo di distribuzione viene usata soprattutto quando si vuole vedere l’effetto di un trattamento in
un gruppo confrontando i valori prima e dopo.

Viene infatti usato in questi due casi:

- i soggetti del campione pre- e post- test sono gli stessi (disegno pre- e post-test) oppure
- esiste un appaiamento naturale tra ciascun soggetto in un campione e un altro soggetto nell’altro
(per esempio quando la misurazione della depressione di madre e figlio che hanno subito una
violenza domestica).

Distribuzione delle differenze

Creeremo una distribuzione data dalle differenze tra ogni valore misurato pre e post trattamento.

$ =  − H

La media di questa distribuzione sarà data da

∑ $
y =

mentre la deviazione standard sarà

∑ ($ − y )) ∑ $ )
y = 4  = 4   − y)

DISTRIBUZIONE CAMPIONARIA DELLA MEDIA DELLE DIFFERENZE

Nella distribuzione campionaria della media delle differenze non confronteremo dunque due medie diverse
ma lavoreremo su una sola distribuzione data – come visto sopra – dalla differenza dei valori pre e post.

Tale distribuzione avrà una sua media campionaria e un suo errore standard stimato (in quanto non c’è una
popolazione a cui riferirsi).

µE = y
y
.y^ =

− 1

Come modello teorico di distribuzione useremo il t di Student (in quanto non c’è una deviazione standard
della popolazione a cui riferirsi) con n-1 gradi di libertà.
Verifica delle ipotesi

Definizione delle ipotesi

H0 : µD = 0 (ovvero M1 = M2) (non c’è variazione tra la misurazione prima e quella dopo il trattamento, tanto
che i due valori sono uguali, la loro differenza è zero e quindi anche la media delle differenze è zero)

Ha : µD ≠ > < 0 (se per esempio la media delle differenze µD > 0, vuol dire la differenza è positiva, ovvero che
xi > yi, quindi il mio intervento produce una riduzione di un certo parametro)

Scelta del test statistico


Ez D µz Ez
oEz = ^ tuttavia, avendo stabilito in H0 che µD = 0, la formula diventa oEz = ^
gz gz

Confronto tra i valori

Trovo il t critico e lo confronto con t.

Per il t critico i gdl sono pari a

p[qrstrsu = n − 1

In base ai valori critici e quelli della nostra ipotesi, possiamo poi accettare o rifiutare H0.
ANALISI DELLA VARIANZA (ANOVA, ANalilsys Of VAriance)

Il modello lineare generale

Il modello lineare generale è un modello matematico che studia la dipendenza di una variabile
dipendente Y da un numero k di variabili indipendenti esplicative X, dette fattori.

- Se le variabili indipendenti sono qualitative si farà un’analisi della varianza;


- se le variabili indipendenti sono quantitative si farà un’analisi della regressione.

Prima di continuare dobbiamo fare delle assunzioni preliminari:

- le popolazioni da cui provengono i k campioni si distribuiscono in modo normale,


- le varianze delle popolazioni sono omogenee (omoschedasticità) ovvero le varianze sono simili tra
loro e non ce n’è una talmente diversa da fare pensare a un fattore interno al gruppo),
- i campioni sono indipendenti,
- la variabile indipendente ha k  2 livelli ed è su scala nominale o ordinale,
- la variabile dipendente è su scala metrica.

Il modello di previsione è dunque così strutturato:

Y = α + βx + ε

ovvero il punteggio Y che osserviamo è dato da

- una costante α (il livello generale della variabile dipendente), corrispondente all’intercetta sull’asse
delle Y,
- un effetto β di una variabile indipendente X, corrispondente al coefficiente angolare,
- un errore ε.

Nella variabilità della variabile dipendente c’è sempre dunque una parte che non dipende da quella
indipendente e che è anche difficile da spiegare.

L’analisi della varianza permette di valutare gli effetti di una o più variabili indipendenti qualitative X dette
fattori su una variabile dipendente quantitativa Y, quindi spiega se i punteggi osservati dipendono
effettivamente dalla variabile indipendente.

Le fonti di variazione possono essere

- sistematiche (sotto il controllo dello sperimentatore),


- casuali (non sotto il controllo dello sperimentatore, come per esempio variabilità biologica,
condizioni ambientali, errori di misura ecc.)
-

Le fonti di variazione sistematica sono le variabili indipendenti (o fattori), le quali assumono più valori,
detti livelli.
Avrò quindi un numero di campioni per ogni modalità o livello e su di essi misuro la variabile dipendente
della ricerca.

1. Definizione della variabile indipendente (il reddito)


2. Definizione dei livelli (basso, medio, alto)
3. Definizione del numero dei campioni.
(si definisce prima la variabile e i suoi livelli e di conseguenza il numero dei campioni)
4. Misurazione della variabile dipendente
ANOVA A UNA VIA (o UNIVARIATA)

L’ANOVA serve a verificare se i punteggi osservati dipendono effettivamente dalla variabile indipendente.

Se la varianza spiegata nei punteggi (che immaginiamo dipendere dalla variabile indipendente) è
significativamente maggiore della varianza interna ai gruppi (ovvero quella dovuta ad altri fattori), si
conclude che le medie sono significativamente diverse e dunque i punteggi osservati dipendono dalla
variabile indipendente.

La variabilità totale sarà quindi divisa tra

- variabilità dovuta alla variabile indipendente: varianza spiegata o sperimentale o tra gruppi,
- variabilità dovuta a variabili non controllate: varianza residua o di errore o non spiegata o entro i
gruppi.

Tanto maggiore sarà la variabilità all’interno di un gruppo tanto minore sarà la variabilità legata alla
variabile indipendente.

In una ricerca avrò dunque

 k = numero dei campioni, ovvero dei livelli della variabile indipendente


 n1, 2, 3…j = numero dei soggetti dei vari campioni
 N = numero totale dei soggetti

Comincio col trovare la media dei vari campioni M1, 2, 3… j e la media totale MT (che posso calcolare sia
sommando i vari valori e dividendoli per N sia sommando le medie dei campioni e dividendole per il
numero dei campioni).

Trovo la devianza entro i gruppi DevW sommando gli scarti al quadrato di ogni valore in un campione dalla
media di quel campione.

Dividendo la devianza entro i gruppi per i gradi di libertà entro i gruppi gdlW (N – k) ottengo la varianza
entro i gruppi VarW.

Trovo la devianza tra i gruppi DevB facendo la somma degli scarti al quadrato dalla media totale
sostituendo a ogni valore la media del campione a cui appartiene, ovvero sommando n1, 2, 3…j volte lo scarto
al quadrato della media di ciascun campione dalla media totale.

Dividendo la devianza tra i gruppi per i gradi di libertà tra i gruppi gdlW (k – 1) ottengo la varianza tra i
gruppi VarB.

Infine trovo la devianza totale DevT pari alla somma della devianza tra e entro i gruppi.

Dividendo la devianza totale per i gradi di libertà totali gdlT (N – 1) ottengo la varianza totale VarT.

Attenzione che la VarT non è uguale a VarW + VarB!


Devianze

DevT = DevW + DevB

DevT = somma degli scarti al quadrato di ogni valore dalla media totale.
DevW = somma degli scarti al quadrato di ogni valore in un campione dalla media di quel campione.
DevB = somma degli scarti al quadrato dalla media totale sostituendo a ogni valore la media del campione a
cui appartiene, ovvero n1, 2, 3…j volte lo scarto al quadrato della media di ciascun campione dalla media
totale.

Gradi di libertà

gdlT = gdlW + gdlB


N-1 = (N-k) + (k-1)
gdlW = N – k
gdlB = k – 1 (numero dei campioni – 1)
gdlT = N – 1 (numero dei soggetti – 1)

Varianze

$% $%
{|}~ = =
p[q ]−€

$%‚ $%‚
{|} = =
p[q‚ €−1

$%„ $%„
{|}ƒ = =
p[q „ ]−1

Tavola riassuntiva

Fonte di variazione Dev gdl Var


tra gruppi (var. indip.) DevB gdlB VarB
entro i gruppi DevW gdlW VarW
totale DevT gdlT
Il test F di Fischer (o di Snedecor)

Il test di F consente di confrontare le varianze tra ed entro i gruppi e quindi di verificare l’omogeneità dei
diversi valori; più le varianze tra e entro i gruppi sono simili e più i valori saranno omogenei, ovvero non
diversi in base alla variabile indipendente.

Y‚
…(†‡ˆ‰ ,†‡ˆ‹ ) =
Y

Essendo definito da rapporti di valori al quadrato, F è un valore sempre positivo.

I valori di F possono essere trovati nell’apposita tavola in base al valore di α (.05, .01, .001), i gdl1 riferiti alla
VarB (righe) e i gdl2 riferiti alla VarW (colonne).

- Più il valore di F è vicino a 1 e più le varianze tra ed entro i gruppi sono simili, quindi non dovute alla
variabile indipendente.
- Più il valore di F è alto e più la varianza tra i gruppi è maggiore di quella entro i gruppi, quindi la
varianza tra i gruppi dipende dalla variabile indipendente.

Verifica dell’ipotesi con F

In questo caso come ipotesi nulla poniamo H0: 1 = 2 = …. = k ovvero che le medie dei vari campioni siano uguali.

Come ipotesi sperimentale poniamo invece che almeno due medie siano diverse (non sto a scrivere tutte le
possibili differenze, come per esempio Ha : 1  2  3).

Dobbiamo poi decidere il livello di significatività α e trovare il valore di Fcritico(gdlB, gdlW) sulle tavola del test F.

A questo punto possiamo confrontare il nostro valore di F e confrontarlo con Fcritico per prendere una
decisione su H0.

- Se F < Fcritico (quindi p > ), allora accetto H0.


Le varianze tra ed entro i gruppi sono omogenee, quindi le medie delle popolazioni da cui i
campioni sono state estratti non sono significativamente diverse.
- Se F > Fcritico (quindi p < ), allora rifiuto H0.

 Le varianze tra ed entro i gruppi non sono omogenee, quindi almeno due medie delle popolazioni
da cui i campioni sono state estratti sono significativamente diverse. La variabile indipendente
influenza significativamente quella dipendente.
Il test F di Fischer è un “test omnibus”, ovvero consente di stabilire solo se le variazioni tra i gruppi sono
significative in rapporto a quelle entro i gruppi e dunque di sapere che le variazioni sono dovute alla
variabile indipendente, ma non tra quali livelli della variabile ci sia una differenza significativa.

Per sapere questo dobbiamo usare un “test post hoc” che invece confronta i valori dei vari livelli a due a
due (e quindi utilizzando il test t).
MISURA DELLA DIMENSIONE DELL’EFFETTO

La statistica non consente di poter prendere decisioni certe, ma sempre probabilistiche, ovvero
caratterizzate da una parte di incertezza e di errore che però può essere quantificata.

La procedura è di tipo falsificatorio, ovvero verifica l’ipotesi nulla H0 : µM = µ.

Immaginiamo di voler essere particolarmente rigorosi: questo significa che nella curva in cui H0 è vera
ridurremo al minimo l’ α, ovvero la parte in cui H0 è falsa e accettiamo l’ipotesi alternativa, che per essere
significativa dovrà avere una possibilità p molto grande, dovrà essere un risultato davvero difficile da
ottenere.

Ma possiamo anche ragionare in un altro modo, considerando la curva in cui H1 è vera (e dunque H0 falsa).
Nella curva in cui H1 è vera infatti possiamo aumentare il β, ovvero la parte in cui l’H1 è falsa.

È un ragionamento simile a quello precedente: sopra abbiamo diminuito la parte in cui accettiamo l’ipotesi
alternativa, qui aumentiamo quella in cui accettiamo quella nulla. In questa zona di errore dunque più
diminuiamo α e più aumentiamo β e viceversa.

Ma posso anche commettere degli errori. Se sbaglio nel primo caso e rifiuto H0 quando è vera farò un
errore detto di primo tipo, mentre se rifiuto H1 quando è vera - e dunque accetto H0 quando è falsa –
commetterò un errore di secondo tipo.

Per convenzione ci si riferisce sempre all’H0 (vera o falsa).

H0 vera H0 falsa
Accetto H0 Decisione corretta Errore di secondo tipo
(1-α) (β)

Rifiuto H0 Errore di primo tipo Decisione corretta


(α) (1-β)
Errore di primo tipo: respingere H0 quando è vera (e quindi accettare H1 quando è falsa). Probabilità: α.

Significa sostenere che ci sia una differenza tra il gruppo sperimentale e il gruppo di controllo quando
invece non esiste e dunque a dire che un certo trattamento funziona quando invece non è così.

Per evitarlo dobbiamo cercare di tenere α il più basso possibile; tuttavia non possiamo eliminarla del tutto,
altrimenti non potremmo mai accettare H1.

Errore di secondo tipo: respingere H1 quando è vera (e quindi accettare H0 quando è falsa). Probabilità β.

Significa sostenere che tra i campioni non ci sia differenza e dunque dire che non sono presenti certi effetti
quando invece ci sono.

Per cercare di evitarlo possiamo cercare di tenere β il più basso possibile, ma non possiamo eliminarla del
tutto altrimenti accetteremmo sempre H1.

Le due tipologie di errore sono in relazione tra di loro: più ne diminuisco una e più aumento l’altra. In altre
parole, per esempio se io cerco di evitare un errore di primo tipo può portare al rischio di commettere
errori di secondo tipo.

La potenza del test (1- β) corrisponde alla capacità del test di portare a una risposta corretta nel campione
sperimentale (H1 vera e H0 falsa), ovvero è la probabilità di respingere H0 quando è falsa ed è vera H1,
ovvero. (La zona 1-α non si considera in quanto è relativa ai valori del campione non sperimentale.)

Nel test dell’ipotesi nulla ci basiamo unicamente sul livello di α e dunque si ragiona considerando l’errore di
primo tipo, anche se più diminuiamo α e più aumentiamo β e dunque diminuiamo 1- β, ovvero la potenza
del test.

Dobbiamo dunque cercare un compromesso arbitrario tra le probabilità connesse ai due tipi di errore.
Il test dell’ipotesi nulla come “procedura ibrida”

Il test dell’ipotesi nulla è largamente utilizzato (circa l’80% degli articoli pubblicati) e nasce dalla fusione di
due approcci:

- il test p-value di Fischer,


in cui la probabilità associata ai dati (p value) fornisce la veridicità di H1, ovvero l’ipotesi si rifiuta
quando p è inferiore a una probabilità definita come livello di significatività;
- il Fixed Alpha Approach di Neyman e Pearson,
che si basa sul criterio che α venga stabilito a priori ed sia arbitrario.

Il limite del p value è che dipende dalla numerosità campionaria (tanto più il campione è grande e tanto
più sarà significativo) e che permette solo di falsificare l’ipotesi nulla senza poter calcolare il valore di
probabilità di tale scelta (aspetto che invece viene analizzato nell’approccio bayesiano).

Il limite del test dell’ipotesi nulla è che α sia arbitrario e che la decisione sia netta (una volta stabilito il
valore critico, il valore sperimentale o è minore o è maggiore anche se di millesimi di punto).

Oltre a una significatività statistica, dobbiamo invece definire anche una significatività pratica.

La significatività statistica è quella che si trova con il test dell’ipotesi nulla, che però non ci dice nulla sulla
significatività pratica, ovvero quanto effettivamente funziona un certo trattamento, non solo che un valore
è significativo.

Si può ovviare

- calcolando la dimensione dell’effetto (ovvero misurando la significatività pratica, l’effetto),


- valutare gli intervalli di confidenza,
- effettuando la misura della potenza,
- usando un approccio bayesiano (che permette di stabilire in che percentuale si può accettare H0 e
non solo se si può accettare o no).
MISURA DELL’EFFETTO

La misura dell’effetto consente di valutare la significatività pratica di un risultato.

Un effetto può avere significatività statistica viene spesso raggiunta quando il campione è abbastanza
grande, ma d’altro canto se il campione è molto piccolo esso potrebbe non avere significatività statistica
ma un effetto pratico.

La misura dell’effetto è un modo per quantificare la grandezza della differenza tra i due gruppi, ci permette
di capire se un trattamento funziona rispetto a un particolare contesto.

È possibile calcolare la misura dell’effetto su tutti i test statistici; generalmente si utilizza riguardo

- alla distribuzione campionaria della differenza delle medie (d di Cohen)


- all’ANOVA (test F) (η2).

d di Cohen

È la misura dell’effetto associata alla differenza delle medie, quindi si usa per confrontare le performance
di due gruppi indipendenti.

 − )
[=
.^
d=.50 significa che M1 è 0.5 deviazioni standard più grande di M2.


1 21 +
2 22
.^ = 4

1 +
2

Dimensione dell’effetto d
Piccolo: d ≤ .20 Medio: d ≤ 0.5 Grande: d ≥ .80 Gigante: d ≥ 1
Più d è piccolo e più significa che il nostro trattamento avrà poca
significatività pratica.
η2

Quando utilizziamo il test F per confrontare le varianze tra gruppi dobbiamo tener conto che F è tanto
maggiore quanto maggiore è la dimensione dei campioni. Inoltre anche F informa solo sulla significatività
del rapporto della varianza tra e entro i gruppi, ma non informa sulla significatività pratica.

η2 è dunque la misura dell’effetto del test F ovvero quantifica la porzione della devianza totale che dipende
dalla variabile indipendente.

$%‚
Œ) =
$%„

Dimensione dell’effetto η2
Trascurabile: η ≤ .01 Piccola: .01 ≤ η ≤ .06 Moderata: .06 ≤ η ≤ .14 Grande: η ≥ .14
REGRESSIONE

Relazione tra variabili metriche – Il coefficiente di correlazione di Pearson

Abbiamo già visto che possiamo rappresentare graficamente i valori in un diagramma di dispersione e
calcolare il coefficiente di correlazione di Pearson.

Nel coefficiente di correlazione non è rilevante considerare la variabile dipendente / indipendente come X o
Y, ma per convenzione X è la variabile indipendente e Y quella dipendente.

Esso indica se c’è una relazione tra i vari valori e il suo andamento (direttamente proporzionale se r è
positivo o inversamente proporzionale al contrario). Il coefficiente di correlazione può andare da -1 a +1,
anche se tali valori sono teorici.

∑ C"I CGI


=
(
− 1)


∑  H − ∑  ∑ H
=
) )
JK
∑ ) − L∑  M N K
∑ H) − L∑ H M N

(per calcolare r utilizzando i dati grezzi conviene creare una tabella


2 2
con i valori di x, y, xy, x e y e le relative sommatorie)

Verifica dell’ipotesi di correlazione

Ora, oltre al livello descrittivo relativo al campione, possiamo vedere se questa relazione può essere estesa
alla popolazione (ovviamente nel caso in cui ci sia una correlazione almeno a livello descrittivo). Il valore di r
per la popolazione sarà indicato con ρ).

Definiamo l’ipotesi:

- H0: ρ = 0 (le variabili sono completamente non correlate tra loro)


- H1: ρ ≠ 0

Stabiliamo α e i gradi di libertà:

- α sarà α /2 dato che l’ipotesi è bidirezionale (perché abbiamo posto H1: ρ ≠ 0)


- gdl = n - 2

Troviamo il tcritico attraverso le tavole.

Calcoliamo il t relativo a r:

√
− 2
o=
√1 −  )

p[qrstrsu =
− 2
Se |t|<|tcritico| accetto H0, dunque l’ipotesi di un’assenza di relazione ( = 0) è probabilmente vera e
perciòla relazione tra le due variabili non è significativa.

Se |t|>|tcritico| rifiuto H0, dunque l’ipotesi di un’assenza di relazione ( ≠ 0) è probabilmente falsa e perciò la
relazione tra le due variabili è significativa

Per esempio possiamo dire che “esiste/non esiste una relazione lineare positiva/negativa significativa (r=…,
p<.05) abbastanza forte/debole.

Tuttavia la significatività di r è sensibile all’ampiezza campionaria, ovvero più è grande il campione e più r
tenderà ad essere significativo.

Regressione lineare

Adesso che abbiamo trovato che il nostro risultato è generalizzabile alla popolazione dobbiamo anche
capire se la variabile indipendente ha però davvero un effetto – se è esplicativa - su quella dipendente.

La regressione lineare è infatti un modello teorico che descrive come variano i valori medi di una variabile
dipendente continua (y) rispetto ai valori di una variabile indipendente quantitativa (x). È un modello
deterministico, ovvero per ciascun valore di X predice un valore di Y.

Mentre per l’ANOVA la variabile indipendente era qualitativa, ovvero avevamo tanti gruppi quanti erano
livelli della variabile indipendente, con variabili indipendenti metriche dobbiamo usare la regressione
lineare.

- Nel caso di una sola variabile indipendente: regressione bivariata


- Nel caso di più variabili indipendenti: regressione multipla.

La regressione lineare è una funzione teorica lineare rappresentata da una retta che rappresenta
l’andamento teorico più vicino a quello relativo ai dati osservati.

α = intercetta (il punto in cui la retta intercetta l’asse delle y)


β = coefficiente angolare (quanto la retta è inclinata)

ŷ = α + βx + ε
- b positivo: y aumenta all’aumentare di x
- b negativo: y diminuisce all’aumentare di x
- b = 0 : la retta è orizzontale.
ε = parte di errore, ovvero quello che non dipende da x, la
differenza tra il valore osservato y e il valore predetto ŷ.

La retta da trovare è quella che che interpola meglio i punti del diagramma di dispersione, ovvero quella che rende
minime le distanze in verticale (ei) tra i punti relativi alle osservazioni rispetto alla retta presa come modello.

Tale distanza non potrà mai essere uguale a zero perché la retta rappresenta un modello teorico mentre i
punti sono valori osservati reali (e dunque inevitabilmente soggetti a errore).

Le quantità ei sono denominate residui di regressione, ovvero la parte ineliminabile di differenza tra il
modello teorico. Tale quantità rappresenta la parte non spiegabile dalla variabile indipendente.
Metodo dei minimi quadrati

Per trovare tale a retta si usa il metodo dei minimi quadrati, che calcola la sommatoria minima degli scarti
quadratici tra i valori di y relativi alle varie misurazioni e quelli del modello teorico esteso alla popolazione
(rappresentato dalla retta).

F=’tt = &(H − ŷ )) = “A



∑ H − • ∑ 
” = G − •" =

∑( − " )(H − G )


∑  H − ∑  ∑ H
–= = ≅
∑( − " ))
∑  ) − L∑  M
)
   

2
(avendo calcolato r, abbiamo già le sommatorie di x, y, x , xy)
Il modello di regressione lineare

Il modello di regressione lineare ŷ = α + βx + ε scompone il valore di ŷ (ovvero il valore di y previsto per una
certa x) in due componenti:

- α + βx: la parte deterministica, ovvero quella predicibile da x (per ogni x corrisponde un y),
- ε: la parte stocastica, ovvero quella di errore che si aggiunge e che corrisponde alla differenza tra il
valore y osservato per una certa x e uno ŷ previsto dal modello.

Scomposizione della devianza

Per quanto riguarda y (che, ricordiamoci, è il valore della variante dipendente da x), la devianza, ovvero lo
scarto quadratico dei valori registrati da quelli medi, viene scomposta in

- una componente predicibile da x (devianza di regressione o spiegata),


- una componente di errore non predicibile da x (devianza residua o di errore).

Dunque la devianza totale (Y – MY)2 (lo scarto quadratico tra il valore di Y osservato e la media delle Y)
risulta composta da una devianza di regressione o spiegata (Ŷ – MY)2 (lo scarto quadratico tra il valore Ŷ
previsto dal modello e la media delle Y) e la devianza di errore o residua (Y – Ŷ)2 (lo scarto quadratico tra il
valore Y osservato e quello Ŷ previsto dal modello).

) )
&(™ − š )) = &LŶ − š M + &L™ − Ŷ M

$%rur = $%t’† + $%’tt

Dalla devianza poi si può calcolare la varianza: la varianza di regressione o spiegata dovrà essere maggiore
di quella non spiegata, altrimenti vuol dire che il modello non spiega la variazione dei dati.

Maggiore è la correlazione tra le due variabili (più r è vicino a ±1) e maggiore è la devianza spiegata, ovvero
maggiormente le misurazioni tendono al modello.

Tuttavia dobbiamo anche tener conto anche della significatività di r perché è un valore che è influenzato dal
numero delle rilevazioni (tende ad essere significativo all’aumentare dei valori osservati).
Coefficiente di determinazione (R2)

Il coefficiente di determinazione R2 misura la dispersione delle misurazioni rispetto alla retta di regressione,
ovvero esprime il rapporto tra la devianza spiegata e quella totale.

Questo valore spiega dunque quanto della variabilità della variabilità della variabile dipendente è spiegabile
da quella indipendente.

F=t’†
œ) = = )
F=rur

La parte residua è 1 - R2, ovvero la parte residua della variabilità e che è uguale al rapporto tra la devianza
non spiegata e la devianza totale.

F=’tt
1 − œ) =
F=rur

Il valore di R2 può andare da 0 a 1.

- Se R2 = 1, tutti i valori cadono sulla retta di regressione (tutto è predicibile dal modello teorico);
- se R2 = 0, la dispersione totale dei valori osservati rispetto al modello è totale.

Per esempio R2 = .72 significa che il 72% della varianza della variabile dipendente è spiegato da quella
indipendente e il restante 28% non è predicibile con la relazione lineare.

Coefficiente di determinazione e correlazione

œ) = )

Sviluppare un modello lineare serve per prevedere i valori di Y per una certa X anche oltre ai dati che noi
abbiamo; per esempio io posso sapere il valore che avrà la Y a un certo valore di X (per esempio se io ho i
valori di un certo aspetto a 1, 2, 3 e 4 mesi da un intervento, posso calcolare anche come tali valori
cambieranno a 5 e 6 mesi).

Conoscere il coefficiente di determinazione mi fa sapere la percentuale di errore nel fare tali previsioni.
ANALISI MULTIVARIATA

A volte possiamo avere ricerche con più variabili dipendenti o indipendenti; in questi casi si usano metodi di
analisi diversi.

 Una variabile indipendente: disegni a una via (ANOVA o regressione bivariata)


 Due o più variabili indipendenti: disegni fattoriali (ANOVA fattoriale o regressione multipla)
 Una variabile dipendente: analisi univariata
 Due o più variabili dipendenti: analisi multivariata (MANOVA)

Disegni fattoriali – ANOVA a due fattori o ANOVA fattoriale

Sono quei disegni in cui si manipolano contemporaneamente più variabili indipendenti e si cerca di vedere
le loro interazioni.

Si deve dunque analizzare la varianza capendo qual è quella relativa a ciascuna variabile e quale quella
dovuta all’effetto della loro interazione. Inoltre ci sarà anche una parte di varianza interna ai gruppi.

Varianza totale
- Varianza tra i gruppi
o Varianza relativa a un fattore (effetto principale)
o Varianza relativa a un altro fattore (effetto principale)
o Varianza relativa all’interazione tra questi due fattori (effetto semplice)
- Varianza entro i gruppi

Il numero dei campioni aumenta ed è pari al prodotto dei k livelli di ciascuna variabile e su ciascun
campione viene misurata la variabile dipendente oggetto della ricerca.

ktot = ki × kj

Per esempio io voglio vedere l’effetto di una terapia (comportamentale o dinamica) su delle patologie (ansia e
depressione) nel miglioramento dei sintomi.

Io potrò dunque vedere quanto cambia il miglioramento a seconda della terapia, quanto cambia il miglioramento in
base alla patologia ma anche quanto cambia il miglioramento quando una certa terapia si presenta con una certa
patologia.
Creo una tabella con i valori delle rilevazioni (per esempio in un disegno 3 x 2, ovvero a tre righe e due colonne).

Fattore A1 Fattore A2
Fattore B1 Cella: effetto Marginale di riga:
semplice effetto principale del
dell’interazione dei fattore B1
due fattori
Fattore B2
Fattore B3
Marginale di colonna:
effetto del fattore A1

Già dai marginali di riga è possibile vedere l’effetto principale rispetto a un livello di ogni variabile indipendente. Non è
detto tuttavia che tali dati siano significativi.

Facendo la differenza tra celle contigue di una riga o una colonna possiamo vedere anche quali sono i cambiamenti
significativi.

Posso anche rappresentare graficamente tali valori: nell’asse delle x si tenderà a mettere la variabile che viene
temporalmente prima, nell’asse delle y i valori rilevati e poi si fanno tanti segmenti quante sono i livelli dell’altra
variabile.

Attraverso tale grafico posso anche vedere se ci sono variazioni significative: se le rette si incrociano o non sono
parallele ci sono delle interazioni significative, mentre più sono parallele e meno c’è interazione tra di loro.
FORMULARIO PSICOMETRIA

INDICI DI TENDENZA CENTRALE

Mediana (Me, Mdn)


+1

Casi dispari Casi pari


 =  = <  < + 1
2 2 2
In questo caso si può anche fare
la somma parziale tra due valori.

Media (M, µ)

∑ 
=

INDICI DI DISPERSIONE E VARIABILITÀ

Campo di variazione (o range)

 =  !" − 

Devianza (Dev)

$% = & ( − )) intendendo  ( − ))


Varianza (s2 o σ2)

∑( − )) $% ∑ ) ∑  ∑ )


)
.) = = .) = −/ 0 = − )




Deviazione standard (o scarto quadratico medio o scarto tipo) (s o σ oppure ds o sd)

∑ ( − )) ∑  ) ∑  ∑  )
)
. = 4  = 5. ) . = 4   − /  0 = 4   − ) = 5. )



Coefficiente di variazione (o indice di variabilità relativa) (CV)


s
 = × 100

INDICI DI POSIZIONE

Quartili


+1
< = = > @×A
4

Decili


+1
< $ = > @×A
10

Percentili


+1
<  = > @×A
100

La standardizzazione
DE
C =

 = ×C+

 = O × ] = % [A ]

RELAZIONI TRA VARIABILI

La covarianza (S)

∑( − " )(H − G )


F"G =
(
− 1)

Coefficiente di correlazione di Pearson (r)

∑ C"I CGI


=
(
− 1)


∑  H − ∑  ∑ H
=
) )
JK
∑ ) − L∑  M N K
∑ H) − L∑ H M N
PROBABILITÀ

Eventi semplici


<(O) =

Eventi composti

- probabilità disgiunta (l’uno O l’altro) A∪B

o con eventi mutualmente escludentisi (o incompatibili) (A∩B = 0)


<(O ∪ V) = <(O) + <(V)

o con eventi non mutualmente escludentisi (o compatibili) A∩B≠0


<(O ∪ V) = <(O) + <(V) − <(O ∩ V)

- probabilità congiunta (l’uno E l’altro) A∩B


o con eventi indipendenti
<(O ∩ V) = <(O) × <(V)

o con eventi dipendenti


<(O ∩ V) = <(O) × <(V|O)
(V|O) = V Y Z
[ACA
 [A O

Probabilità condizionata

< (O ∩ V)
< (V|O) =
<(O)
Z
<(O ∩ V) = <(O) × <(V|O)
DISTRIBUZIONI DI PROBABILITÀ - DISTRIBUZIONE NORMALE O GAUSSIANA

µ ± σ = 68.26%

µ ± 2σ = 95.46%

µ ± 3σ = 99.73%

−µ
C=
.

 = O × ] = % [A ]
DISTRIBUZIONE CAMPIONARIA DELLE MEDIE (dCM)

Media

µM = µ σM < σ

Errore standard

Con una popolazione infinita o con un campionamento con reinserimento:


.
.E =

Con una popolazione finita (N) o con un campionamento senza reinserimento:

. ]−

.E = ×4

]−1

Errore standard stimato



.E
^
=

− 1

Standardizzazione

 − µE
C=
.E

 − µE
o=
.E
^

p[qrstrsu =
− 1
DISTRIBUZIONE CAMPIONARIA DELLA DIFFERENZA TRA LE MEDIE (dCDM)

Media

µEa DEb = µ − µ)  − )

Errore standard
. .)
.Ea DEb = + = .Ea + .Eb

 √
)

Errore standard stimato

Se entrambi i campioni sono grandi (n > 30):


1 2
.E^ aDEb = +
5
1 − 1 5
2 − 1

Se almeno uno dei due campioni è piccolo (n < 30):


1 21 +
2 22
1 +
2
.E^ aDEb = 4/ 0> @

1 +
2 − 2
1
2

Standardizzazione

(Ea DEb ) (Ea DEb )


C= gmavmb
oppure C= .^ −
.
1 2

( − ) )
o=
.E^ aDEb

p[qrstrsu =
 +
) − 2
DISTRIBUZIONE CAMPIONARIA DELLA MEDIA DELLE DIFFERENZE

Distribuzione delle differenze

$ =  − H

∑ $
y =

∑ ($ − y )) ∑ $ )
y = 4  = 4   − y)

Media

µE = y

Errore standard stimato


y
.y^ =

− 1

Standardizzazione

y
oEz =
.y^

p[qrstrsu = n − 1
ANALISI DELLA VARIANZA (ANOVA A UNA VIA)

Devianze

DevT = DevW + DevB

Gradi di libertà

gdlT = gdlW + gdlB


N-1 = (N-k) + (k-1)
gdlW = N – k
gdlB = k – 1 (numero dei campioni – 1)
gdlT = N – 1 (numero dei soggetti – 1)

Varianze

$% $%
{|}~ = =
p[q ]−€

$%‚ $%‚
{|} = =
p[q‚ €−1

$%„ $%„
{|}ƒ = =
p[q „ ]−1

F di Fischer

Y‚
…(†‡ˆ‰ ,†‡ˆ‹ ) =
Y
MISURA DELL’EFFETTO

d di Cohen

 − )
[=
.^


1 21 +
2 22
.^ = 4

1 +
2

Dimensione dell’effetto d
Piccolo: d ≤ .20 Medio: d ≤ 0.5 Grande: d ≥ .80 Gigante: d ≥ 1
Più d è piccolo e più significa che il nostro trattamento avrà poca
significatività pratica.

η2

$%‚
Œ) =
$%„

Dimensione dell’effetto η2
Trascurabile: η ≤ .01 Piccola: .01 ≤ η ≤ .06 Moderata: .06 ≤ η ≤ .14 Grande: η ≥ .14
REGRESSIONE

Coefficiente di correlazione di Pearson

∑ C"I CGI


=
(
− 1)


∑  H − ∑  ∑ H
=
) )
JK
∑ ) − L∑  M N K
∑ H) − L∑ H M N

(per calcolare r utilizzando i dati grezzi conviene creare una tabella


2 2
con i valori di x, y, xy, x e y e le relative sommatorie)

Verifica dell’ipotesi di correlazione

√
− 2
o=
√1 −  )

p[qrstrsu =
− 2

Regressione lineare

ŷ = α + βx + ε

∑ H − • ∑ 
” = G − •" =

∑( − " )(H − G )


∑  H − ∑  ∑ H
–= = ≅
∑( − " ))
∑  ) − L∑  M
)
   
Scomposizione della devianza

) )
&(™ − š )) = &LŶ − š M + &L™ − Ŷ M

$%rur = $%t’† + $%’tt

Coefficiente di determinazione e correlazione (R2)

F=t’†
œ) = = )
F=rur

F=’tt
1 − œ) =
F=rur
RICERCA “GAMBLING E ADOLESCENTI”

Operazioni preliminari

- Domanda di ricerca
Perché c’è un’ampia diffusione del gioco d’azzardo (gambling) tra gli adolescenti?
- Che cos’è il gambling?
Casinò, videopoker, slot machines, bingo, lotterie, scommesse, ecc..
“scommettere denaro o qualcosa di valore su un evento il cui esito è incerto con lo scopo
principale di vincere ulteriore denaro e/o beni materiali” (Molde et al., 2009).
Il gambling si basa dunque sul caso e ha la possibilità di vincere un premio (questo
determina una distorsione cognitiva per cui si ritiene di poter influire sul risultato che invece
è probabilistico, quindi un primo intervento potrebbe far conoscere le regole della
probabilità).
È stato inserito nel DSM-5 tra le “Dipendenze senza sostanze”.
- Che diffusione ha tra gli adolescenti?
Circa un terzo degli studenti tra i 15 e 19 anni ha giocato durante l’anno, mentre il 7%
mostra sintomi problematici (frequenza meno che settimanali).
- Che conseguenze ha?
Maggiori livelli di comportamento problematico rispetto alla popolazione adulta, calo del
rendimento a scuola, discussioni con i genitori, isolamento sociale.
- Quali sono i fattori di rischio che determinano questo fenomeno?
La frequenza stessa è un fattore di rischio (più gioco e più vorrò giocare).
Il disturbo è tuttavia multifattoriale (quindi devo operare su più aspetti) e basato su tre
macroaree: la prima cognitiva ovvero le conoscenze pregresse (scarsa conoscenza delle
regole di probabilità, bias), la seconda di personalità ovvero le disposizioni (atteggiamento
favorevole verso il gioco d’azzardo come una fonte di reddito, elevata sensation seeking,
pensiero magico e superstizioso) e la terza sociale (condivisione del gambling con amici e
genitori, pubblicità con testimonial famosi).

- Analisi della letteratura


Quali sono le teorie principali, quali sono gli strumenti di rilevamento esistenti.

- Obiettivi di ricerca
- Analizzare il fenomeno del gambling degli adolescenti attraverso un approccio intergrato.
 ragionamento probabilistico
 atteggiamento verso il gioco d’azzardo
 comportamento di gambling di genitori e amici
- Analizzare le differenze di genere
- Mettere a punto un intervento di prevenzione per la promozione di un comportamento di
gambling responsabile
- Verificare l’efficacia dell’intervento.
- Pianificazione del disegno di ricerca
- Definizione degli strumenti di misura
o Variabili dipendenti:
 frequenza e severità
o frequenza di gioco nell’ultimo anno (da mai a una volta al giorno)
o severità dei sintomi legati al disturbo (attraverso domande)
 ragionamento probabilistico corretto
o sei problemi da risolvere
o misurazione della fallacia del giocatore (credenze sulla probabilità)
 distorsioni cognitive
o assunzioni su scala Likert
 atteggiamento
o misurazione della percezione del gambling come attività
vantaggiosa come fonte di denaro
 sensation seeking
o assunzioni su scala Likert
 pensiero superstizioso
o assunzioni su scala Likert
 partner di gioco
o Variabile dipendente: comportamento di gioco.

Raccolta dei dati.

- Raccolta dei dati

Analisi dei dati

- Analisi dei dati


ESEMPI REPORT SU JASP

Descrittive sesso

Variables: Sesso

Sesso Frequency Percent Cumulative Percent


1 457 60.132 60.132
2 303 39.868 100.000
Missing 0 0.000
Total 760 100.000

Il campione della ricerca “Gambling e adolescenti” è composto da 760 partecipanti provenienti dalle classi
dalla prima alla quarta delle scuole superiori.
Descrittive età

Variables: Eta_anni

Età_anni
Valid 760
Missing 0
Mean 15.678
Std. Deviation 1.130
Minimum 13.750
Maximum 20.833

Per quanto riguarda l’età il range va dai 14 (13,75 anni) ai 21 anni (20.83 anni).

L’età media è di 15.68 anni, la moda 15,25 anni e la mediana 15.5 anni.

Nonostante lo studio riguardasse adolescenti che frequentano le prime quattro classi delle scuole superiori,
si nota la presenza di cinque partecipanti la cui età è superiore a 19 anni.
T test - Campioni indipendenti (distribuzione campionaria della differenze delle medie)

Dependent Variables: SOGS_TOT


Grouping variable: Sesso

Independent Samples T-Test


t df p Cohen's d
SOGS_TOT 3.754 748 < .001 ᵃ 0.280

Group Descriptives
Group N Mean SD SE
SOGS_TOT 1 452 0.765 1.490 0.070
2 298 0.403 0.924 0.054
(SD: standard deviation, SE: standard error)

SOGS_TOT

Dall’analisi dei dati della ricerca emerge una differenza significativa (t(748) = 3.754, p < .001, d =.28) nel
comportamento di gioco patologico (SOGS_TOT) nei maschi (M = 0.76, DS = 1.49) e nelle femmine (M =
0.40, DS = 0.92).

In particolare i maschi hanno sintomi di comportamento di gioco patologico maggiori rispetto alle femmine
con una grandezza dell’effetto relativamente piccolo.
ANOVA e Post-hoc test

Dependent Variables: SOGS_TOT


Fixed Factors: BSSS_CAT

ANOVA - SOGS_TOT
Cases Sum of Squares df Mean Square F p η²
BSSS_CAT 15.291 2 7.645 4.521 0.011 0.012
Residuals 1263.168 747 1.691
(Sum of Squares: devianza, Mean Square: varianza.
Il primo valore della Sum of Square è la devianza tra i gruppi, mentre Residuals è la devianza entro i gruppi.)

Descriptives - SOGS_TOT
BSSS_CAT Mean SD N
1 0.608 1.191 237
2 0.402 0.720 189
3 0.759 1.604 324
(BSSS_CAT è una variabile ordinale a tre livelli: basso, medio, alto)

Post Hoc Comparisons - BSSS_CAT


Mean Difference SE t Cohen's d
1 2 0.205 0.127 1.620 0.158
3 -0.152 0.111 -1.365 -0.117
2 3 -0.357 0.119 -3.001 -0.275

I risultati hanno indicato un effetto significativo del sensation seeking (BSSS_CAT) sul comportamento di
gioco patologico (SOGS_TOT) con un effetto piccolo (F(2,747) = 4.52, p < .05, η2 = .01).

I test post-hoc indicano una differenza significativa (seppur con un effetto piccolo) tra gli studenti che
hanno un livello di sensation seeking medio (M = 0.4, DS = 0.72) rispetto a quelli con sensation seeking alto
(M = 0.76, DS = 1.6) (p < .01, d= -.27) (ovvero chi ha un sensation seeking medio ha un comportamento di
gioco significativamente più basso rispetto a chi ha un sensation seeking alto)
Correlazione e regressione

Vogliamo confrontare frequenza di gioco (CG_FREQ) e comportamento patologico (SOGS_TOT).

Correlazione

Variables: CG_FREQ e SOGS_TOT

Pearson's Correlations
Variable CG_FREQ SOGS_TOT
1. CG_FREQ Pearson's r —
p-value —
2. SOGS_TOT Pearson's r 0.422 —
p-value < .001 —

Risulta una relazione significativa positiva (r=.42, p<.001) tra la frequenza di gioco (CG_FREQ) e il
comportamento di gioco patologico (SOGS_TOT).
Regressione (Linear Regression)

Avendo verificato che esiste una correlazione significativa, posso calcolare anche la regressione lineare.

Dependent Variable: SOGS_TOT


Covariates: CG_FREQ

JASP inizia impostando – in Model Summary – un’ipotesi nulla H0 in cui i due valori non correlano (R = 0) e
un’ipotesi sperimentale H1 in cui correlano (R ≠ 0).

Infatti l’R di H0 è zero, mentre l’R di H1 è pari al coefficiente di correlazione di Pearson (già trovato).

Da R trova R2, ovvero quanto in percentuale quanta parte della variazione viene spiegato dal modello
lineare (bontà del modello).

Model Summary - SOGS_TOT


Model R R² Adjusted R² RMSE
H₀ 0.000 0.000 0.000 1.306
H₁ 0.422 0.178 0.177 1.185

A questo punto JASP fa un test ANOVA con cui scompone la devianza tra devianza di regressione o spiegata
e devianza residua o di errore; dalla devianza trova poi la varianza. Perché ci sia significatività la varianza
spiegata deve essere più grande di quella di errore; dividendo questi due valori si ottiene un valore F.

Tale valore è importante per rifiutare o accettare H0.

Infatti H0 aveva posto R = 0 mentre H1 che R ≠ 0. Se F è significativo allora possiamo accettare H1 e questo
significa che R2 è significativo ovvero la variabile indipendente spiega una quota di varianza significativa di
quella dipendente.

ANOVA
Model Sum of Squares df Mean Square F p
H₁ Regression 227.685 1 227.685 162.079 < .001
Residual 1050.774 748 1.405
Total 1278.459 749
(Sum of Squares: devianza, Mean Square: varianza.
Questi valori si riferiscono alla scomposizione della devianza: i valori relativi alla Regression sono quelli spiegati dal
modello di regressione, mentre quelli relativi a Residual sono quelli di errore.)
L’ultima oarte – Coefficients – ci dice anche qual è il coefficiente angolare della retta di regressione. In
realtà nell’analisi monovariata β = r e pβ = pr, dunque è un valore che conosciamo già e che qui possiamo
trovarlo nella colonna “Standardized”.

In un’analisi multivariata invece il software può dare il β di ogni variabile e quindi consentire di capire quale
variabile indipendente sia più significativa.

Coefficients
Standard
Model Unstandardized Standardized t p
Error
H₀ (Intercept) 0.621 0.048 13.024 < .001
H₁ (Intercept) 0.020 0.064 0.306 0.760
CG_FREQ 0.124 0.010 0.422 12.731 < .001

A questo punto possiamo scrivere il report finale.

Report finale

Il modello di regressione tra frequenza di gioco (CG_FREQ) e comportamento patologico (SOGS_TOT) è


risultato significativo (F(1,748) = 162.1, p < .001) e spiega il 18% della varianza del comportamento di gioco
patologico. In linea con l’ipotesi, la frequenza di gioco d’azzardo è risultata essere un predittore significativo
e positivo del comportamento di gioco patologico (β=.42, p<.001).
ARGOMENTI TRATTATI

Statistica descrittiva

- Indici di tendenza centrale


- Indici di variabilità
- Indici di posizione
- Indici di associazione (correlazione)
- Rappresentazioni grafiche

- di una singola variabile


- di due variabili
o attraverso tabelle di contingenza (con variabili qualitative)
o attraverso associazione e relazione (con variabili metriche)

Statistica inferenziale

- Distribuzioni di probabilità teoriche


o normale
o normale standardizzata
o distribuzione t
o distribuzione F

- Distribuzioni campionarie
o della media
o della media delle differenze
o della differenza delle medie

- Errore standard
- Teorema del limite centrale
- Legge dei grandi numeri

Probabilità

- Probabilità congiunta
- Probabilità disgiunta
La verifica dell’ipotesi

- Probabilistica, falsificazionista
- Le due ipotesi
- Il livello di significatività
- Errore di primo e secondo tipo
- Perché questa procedura è considerata ibrida
- I limiti e le critiche di questa procedura ed eventuali soluzioni

Modello lineare generale

- I presupposti di questo modello


- In caso di variabile indipendente qualitativa
- In caso di variabile indipendente metrica

Domande d’esame

- Matrice dei dati (3 quesiti, 15 punti)


Tabella con 8/10 soggetti e delle variabili in colonna e su esse dovranno essere operazioni di tipo
descrittivo (per es. distribuzioni di frequenza, indicatori di tendenza centrale, indicatori di variabilità,
indicatori di posizione, rappresentazioni grafiche, creare una tabella di contingenza tra due variabili
qualitative, misura di associazione (correlazione) se metriche)

- Domande a scelta multipla (5 domande, 5 punti)


Per esempio differenza tra correlazione e causalità, presupposti per poter stabilire una relazione
causale, i gradi di libertà, i parametri nella retta, l’errore standard, ecc.)

- Domanda aperta (5 punti)


o Ipotizzare una ricerca che possa sfruttare una certa tecnica di analisi
Definire variabili, domanda di ricerca e tecnica di analisi.
o Ipotizzare una ricerca che possa sfruttare una certa tecnica di analisi riguardante la nostra ricerca
Definire variabili, domanda di ricerca e tecnica di analisi relative alla nostra ricerca.

- Output da commentare (file gambling) (5 punti)


o Report
Commentare l’output creando un report.
o Tecnica di analisi
Spiegare quale tecnica di analisi è stata utilizzata a partire dall’output.

All’esame portare carta dello studente e documento d’identità, calcolatrice, tavole, formulario, legenda del
file gambling.

Potrebbero piacerti anche