Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1. INTRODUZIONI GENERALI………………………………………………..……..1
2. CENNI SUI TEST PSICOLOGICI……………………………………..………..…2
3. ATTENDIBILITÀ E VALIDITÀ…………………………………………..……….…3
4. MUTABILI, VARIABILI, FREQUENZA……………………………………….…...3
5. DIVERSI TIPI DI SCALE DI MISURA……………………………………...……..4
6. RAPPRESENTAZIONI GRAFICHE……………………………………….……...5
7. INDICATORI DI TENDENZA CENTRALE………………………………..………7
8. INDICI DI POSIZIONE: QUARTILI, DECILI E PERCENTILI ………….………8
9. INDICATORI DI VARIABILITÀ (O DI DISPERSIONE)……………………..…...9
10. CURVA DI GAUSS E INDICE DI ASIMMETRIA……………………………….10
11. STANDARDIZZAZIONE DELLE MISURE…………………………………...…11
12. DIAGRAMMI DI DISPERSIONE…………………………………………………13
13. COEFFICIENTI DI CORRELAZIONE…………………………………………..14
14. LA REGRESSIONE……………………………………………………………….16
15. COEFFICIENTE DI ATTENDIBILITÀ, DI EQUIVALENZA E FORMULA
PROFETICA DI SPEARMAN-BROWN………………………………….……...17
16. LA PROBABILITÀ………………………………………………………………...18
17. PERUTAZIONI, COMBINAZIONI E DISPOSIZIONI………………….…….…20
18. LA DISTRIBUZIONE BINOMIALE……………………………………………….21
19. LA DISTRIBUZIONE NORMALE O GAUSSIANA……………………………..22
20. DISTRIBUZIONE chi2……………………………………………………………..26
21. DISTRIBUZIONE F DI FISHER………………………………………………….26
22. DISTRIBUZIONE t DI STUDENT………………………………………………..26
23. VERIFICA DELLE IPOTESI……………………………………………………...27
1. INTRODUZIONI GENERALI
1
2. CENNI SUI TEST PSICOLOGICI
● TEST COGNITIVI sono TEST di LIVELLO che misurano specifiche competenze:
✔ Test di ABILITÀ: misurano le capacità dei soggetti in ambiti specifici (es: logico,
matematico, verbale…). In genere consistono in una serie di problemi che il
rispondente deve risolvere individuando la risposta corretta. Tali test sono utilizzati
spesso in ambito scolastico.
✔ Test di PERSONALITÀ: non esiste una risposta giusta in termini assoluti, bensì
esiste la risposta che maggiormente si avvicina alla descrizione del proprio
comportamento o sentimento. Lo scopo è di misurare i tratti di personalità.
I test di personalità sono vari e diversificati tra loro.
Abbiamo l’intervista faccia a faccia, utilizzata soprattutto nella pratica clinica e nella psicologia
del lavoro. Può svolgersi tramite interviste strutturate, non strutturate o semistrutturate.
Abbiamo l’osservazione diretta del comportamento, in quanto l’assunto è che i tratti di
personalità regolano i comportamenti degli individui. Usato soprattutto negli studi dell’età
dello sviluppo.
Infine abbiamo i metodi proiettivi che, pur non essendo prettamente dei test psicometrici,
consentono di indagare caratteristiche di personalità profonde e inconsce dell’individuo.
Altra scala largamente usata è la Scala Likert che misura il grado di accordo con
un’affermazione:
Es: quando studi, leggi e ripeti?
Mai □ Raramente □ A volte □ Spesso □ Sempre □
Altre scale ormai cadute i disuso sono la Scala Thurstone (serie di affermazioni in cui il
rispondente deve indicare se è in accordo o in disaccordo con sì/no, favorevole/ contrario) e
la Scala Guttman (serie di affermazioni in ordine gerarchico di favore verso l’oggetto, dalla
meno condivisibile alla più condivisibile).
2
3. ATTENDIBILITÀ E VALIDITÀ
Ogni test deve soddisfare i requisiti di:
➢ ATTENDIBILITÀ: si riferisce alla precisione dello strumento utilizzato. Un test è
attendibile quando, ripetendo la misurazione distanza di tempo con il medesimo
strumento, si giunge al medesimo risultato.
Tuttavia, le misure non sono esenti da errori dovuti al caso, ecco perché si esprime la
formula dell’attendibilità come:
𝑋 = 𝑉+𝐸
Dove X è il dato osservato, V è la misura vera, E è l’errore. Chiaramente
minore è l’errore E, maggiore è l’attendibilità (in quanto la misura vera V si
avvicina al dato osservato X). A tal proposito esistono degli indici da 0 a 1, in cui il
valore 1 indica l’assenza di errore, ma vengono normalmente accettati anche valori con il
75% di punteggio vero V.
➢ VALIDITÀ: un test è valido quando misura ciò che intende misurare.
Nello specifico abbiamo:
• Validità di contenuto: quando gli item di un test devono coprire l’intera
definizione teorica de costrutto in esame;
• Validità di criterio: in particolare abbiamo la validità concorrente quando il
punteggio del test concorda con altre misure già validate dello stesso costrutto, e
la validità predittiva che indica la capacità del test di predire accuratamente la
prestazione nel dominio teorico cui il test appartiene;
• Validità di costrutto: è riferita alla corrispondenza tra il piano della ricerca e la
teoria di riferimento. Verifica se un punteggio al test misura il costrutto di interesse.
In particolare si parla di validità convergente quando è presente un alto grado di
accordo con altre misure fatte sullo stesso costrutto, e la validità discriminante
quando è presente un basso grado di accordo con altre misure di altri costrutti.
3
5. DIVERSI TIPI DI SCALE DI MISURA
SCALA A RAPPORTI EQUIVALENTI: è il più alto grado di misura possibile. Simile alla scala
ad intervalli, differisce da questa perché in essa è possibile individuare lo zero assoluto,
ovvero quell’elemento del sistema empirico in cui la caratteristica misurata è ad intensità nulla
(es: zero peso).
4
6. RAPPRESENTAZIONI GRAFICHE
IL GRAFICO A BARRE
✔ viene utilizzato per le mutabili (scala nominale, scala ordinale, variabili discrete)
✔ le barre sono divise
✔ base: sull’asse delle ascisse gli intervalli sono tutti di uguale ampiezza
✔ altezza: sull’asse delle ordinate abbiamo le frequenze o le f% (h=f o f%)
L’ISTOGRAMMA
✔ viene usato per variabili su scala a intervalli o a rapporti equivalenti
✔ variabili continue
✔ le barre sono adiacenti
✔ base: sull’asse delle ascisse abbiamo i limiti reali degli intervalli (classi)
✔ area: rappresenta la frequenza della classe
✔ sull’asse delle ordinate troviamo il valore che si ottiene dividendo ciascuna frequenza
per l’ampiezza dell’intervallo
✔ se l’intervallo della classe non varia da classe a classe allora è consentito
rappresentare in ordinata direttamente la frequenza (poiché sono proporzionali
all’altezza)
5
POLIGONO DI FREQUENZA
✔ viene usato per variabili su scala a intervalli o a rapporti equivalenti
✔ sull’asse delle ascisse abbiamo Xc
✔ sull’asse delle ordinate:
• se classi di stessa ampiezza: h=f
• se classi di ampiezza diversa: h= f/b
6
7. INDICATORI DI TENDENZA CENTRALE
MODA (Mo): corrisponde al valore più frequente nella distribuzione di dati osservata. È
applicabile alla scala nominale, ordinale, a intervalli equivalenti e a rapporti equivalenti.
MEDIANA (Me): corrisponde al valore che occupa la posizione centrale in una distribuzione
ordinata; il valore al di sopra o al di sotto del quale cade il 50% dei casi, poiché divide a metà
un insieme ordinato di dati. È applicabile alla scala ordinale, a intervalli equivalenti e a rapporti
equivalenti.
Per trovare il valore della mediana Me:
1) ordinare i dati, o le categorie, in ordine crescente
2) calcolare fcum (frequenze cumulate)
3) trovare la posizione della mediana tramite PosMe (Attensione!!! Qui si trova solo la
posizione, non il valore corrispondente!!!)
4) se n è dispari la Me è facilmente individuabile
5) se n è pari la Me cade in un punto intermedio tra due valori (fare M dei 2 valori)
6) calcolare la Mediana tramite Me se abbiamo raggruppamenti in classi
MEDIA (M, 𝑿 ̅ ): è la media aritmetica data dalla somma delle misure osservate diviso il
numero di osservazioni. Corrisponde al valore intermedio tra il maggiore e il minore dei valori
osservati. È applicabile alle scale a intervalli o a rapporti equivalenti.
7
8. INDICI DI POSIZIONE: QUARTILI, DECILI E PERCENTILI
Oltre alla mediana (che divide a metà un insieme di dati ordinati) esistono altri indici di
posizione che suddividono l’insieme di dati ordinati in un dato numero di parti uguali.
QUARTILI: suddividono l’insieme di dati ordinati in 4 parti, per cui avremo Q 1, Q2, Q3.
In analogia al calcolo della Me, per il calcolo dei Qj si procederà come segue:
1) ordinare i dati, o le categorie, in ordine crescente
2) calcolare fcum (frequenze cumulate)
3) trovare la posizione Qj tramite PosQj e vedere nella colonna x a quale valore
corrisponde
4) calcolare il valore di Qj tramite formula se raggruppamento in classi
Le formule da applicare per trovare la posizione e poi il valore corrispondente sono:
8
9. INDICATORI DI VARIABILITÀ (O DI DISPERSIONE)
CAMPO DI VARIAZIONE: è il più semplice indice di variabilità dato dalla differenza tra il
valore massimo e il valore minimo di una distribuzione di dati.
SCARTO SEMPLICE MEDIO (SSM) o scarto medio assoluto: è la media delle differenze
(in valore assoluto) dalla media aritmetica della distribuzione:
VARIANZA (S2, σ2, VAR): è la media del quadrato degli scostamenti dalla media aritmetica:
9
10. CURVA DI GAUSS e INDICE DI ASIMMETRIA
La distribuzione normale o curva di Gauss è la curva della probabilità più usata nell’analisi
statistica perché descrive con buona efficacia gran parte dei fenomeni naturali.
Ha una caratteristica forma a campana
Simmetrica rispetto alla media e unimodale (ossia una unica moda)
L’area complessiva sotto la curva è pari a 1.
Le probabilità più elevate di un fenomeno si concentrano intorno alla media, e le
probabilità si riducono man mano che ci si allontana dal valore medio verso destra o
verso sinistra.
Nella curva gaussiana Media, Mediana e Moda coincidono
È applicata a variabili continue
I due parametri che caratterizzano posizione e forma sono media (μ) e varianza (σ).
A volte tuttavia, la distribuzione dei valori può assumere anche forma e posizione differenti
rispetto alla curva ideale di Gauss.
In tal caso è utile calcolare l’INDICE DI ASIMMETRIA che esprime un valore circa la misura
dell’asimmetria stessa, indicando anche se quest’ultima è di tipo positivo o negativo.
3 (𝑥̅ − 𝑀𝑒𝑑𝑖𝑎𝑛𝑎)
𝐴𝑠 =
𝑠
10
11. STANDARDIZZAZIONE DELLE MISURE
Nella pratica statistica è utile ricondurre i dati osservati durante l’esecuzione di un test, ad
una curva di distribuzione normale standardizzata, ossia una curva che non dipenda dall’unità
di misura della variabile xi utilizzata (test differenti possono avere unità di misura diverse).
Per fare questo si ricorre alla standardizzazione delle misure attraverso scale convenzionali
con media e deviazione standard note.
11
RANGHI PERCENTILI, RP(x): si basa sulla posizione che i soggetti occupano nella
distribuzione dei punteggi ottenuti dal campione.
Si procede come segue:
1) ordinare i dati, o le categorie, in ordine crescente
2) calcolare fcum (frequenze cumulate)
3) trovare la PosPj,
12
12. DIAGRAMMI DI DISPERSIONE
Nella ricerca sociale e psicologica molto spesso si studiano in modo simultaneo più variabili
nello stesso gruppo, e la natura della relazione che le lega.
13
13. COEFFICIENTI DI CORRELAZIONE
Gli indici di correlazione individuano in maniera quantitativa la forza, o l’intensità, del
legame tra variabili
COEFFICIENTE DI CORRELAZIONE r BRAVAIS-PEARSON viene anche chiamato
coefficiente di correlazione prodotto-momento, ed è definito come il rapporto tra la
covarianza di x e y ed il prodotto delgi scarti quadratici medi di x e di y.
Si utilizza per analizzare in simultanea due variabili rilevate ambedue con scala a intervalli o
a rapporti equivalenti.
È un coefficiente atto a cogliere una relazione di tipo lineare tra variabili, per tanto un r vicino
allo 0 indica la mancanza di una relazione lineare, ma le variabili potrebbero essere legate
tra loro da altri tipi di relazione (parabolico, esponenziale...).
L’indice può assumere valori che vanno da -1 a +1. In particolare:
r = +1 quando la concordanza tra variabili è positiva lineare perfetta (all’incremento di x si
incrementa di una quantità costante y);
r = - 1 quando la concordanza tra variabili e negativa lineare perfetta (all’incremento di x
si decrementa di una quantità costante y);
r compreso tra + 1 e + 0,5 relazione positiva molto elevata;
r compreso tra - 1 e - 0.5 relazione negativa molto elevata;
r compreso tra +0,05 e +0,2 tendenza alla relazione positiva;
r compreso tra -0,05 e -0,2 tendenza alla relazione negativa;
r compreso tra +0,2 e -0,2 relazione nulla.
Dopo aver messo una delle due graduatorie nell’ordina naturale crescente, si accosta la
seconda graduatoria, e si vanno a confrontare i risultati della prima classifica con quelli della
seconda classifica per tutti i soggetti.
D2 è la differenza al quadrato delle posizioni, per ciascun soggetto, nelle rispettiva graduatorie
(es: Silvia è 1° in matematica, e 4° in storia D = 3, D2 = 9).
Tuttavia, qualora vi fossero troppi soggetti con la stessa posizione in entrambe le graduatorie,
il risultato di rs verrebbe falsato per eccesso. Ecco perché in questi casi si utilizza il
coefficiente Ƭ di Kendall.
14
COEFFICIENTE DI CORRELAZIONE Ƭ DI KENDALL viene utilizzato per le graduatorie,
ovvero scale ordinali . Ha anch’esso risultati che vanno da -1 a +1.
𝑆
𝜏=
𝑛/2(𝑛 − 1)
Dopo aver messo una delle due graduatorie nell’ordine naturale crescente, si vanno a
confrontare i valori dell’altra classifica, partendo dal primo soggetto con tutti gli altri che lo
seguono. Qui si valorizza + 1 se ordine corretto (es: Paolo è il primo nell’ordine della
graduatoria ordinata per ordine crescente ed è, in merito alla seconda classifica, il 1° in
matematica su Marco che è 2°), -1 se ordine non corretto (Francesca che è al 5° posto
nell’ordine della graduatoria ordinata per ordine crescente è, in merito all’altra classifica, 6°
in storia su Silvia che è 4°) e 0 se ordine uguale (Michela è 7° nella graduatoria ordinata in
ordine crescente, si è classificata 2° in storia a pari merito con Marco).
S è la somma dei valori -1, 0, +1 assegnati.
Va ricordato che:
Viene costruita una tabella 2x2 in cui si riportano le frequenze calcolate per i due test
15
14. LA REGRESSIONE
EQUAZIONE DI REGRESSIONE: quando la correlazione tra due variabili è molto alta, una
indipendente e l’altra dipendente, dato un valore x è possibile prevedere il corrispondete
valore di y’ (y predetto) attraverso l’equazione di regressione.
Y’ = a + bx
La RETTA DI REGRESSIONE è la migliore tra tutte le infinite rette che si possono far
passare attraverso i punti del diagramma di dispersione.
a è l’intercetta (il punto in cui la retta lineare interseca l’asse delle ordinate e corrisponde al
valore atteso di y quando x=0);
Il CRITERIO DEI MINIMI QUADRATI è il metodo di stima usato per scegliere la migliore retta
possibile, cioè quella retta che rende MINIMA la somma delle distanze al quadrato tra le y
(variabili osservate) e le y’ (variabili stimate).
L’errore standard della stima Sestim/y misura la variabilità degli scostamenti dei valori osservati
dai valori previsti.
e = (Y – Y’)
16
15._COEFFICIENTE DI ATTENDIBILITÀ, DI EQUIVALENZA E
FORMULA PROFETICA DI SPEARMAN-BROWN
Il Coefficiente di Attendibilità Test-retest rtt esprime il grado di correlazione fra due
misurazioni ottenute somministrando lo stesso test allo stesso gruppo di soggetti dopo un
certo intervallo di tempo (test re-test). Il coefficiente di correlazione calcolato (r di Bravais-
Pearson, rs di Spearman, Ƭ di Kendall, rpb punto-biseriale, o rphi tra variabili dicotomiche) viene
identificato come coefficiente di attendibilità di test-retest.
Se riprendiamo la formula dell’attendibilità X=V+E si può dimostrare che la varianza del
punteggio osservato è uguale alla somma della varianza della parte V e della parte E
17
16._CONCETTO DI PROBABILITÀ
Prima di introdurre il concetto di probabilità è necessario definire:
EVENTO: ogni possibile risultato;
EVENTO SEMPLICE: ogni possibile risultato non scomponibile (es: esca il nr. 6
lanciano un dado);
EVENTO COMPOSITO: ogni possibile risultato scomponibile nelle sue parti (es:
lanciando due volte un dato esca 6 e poi esca 1);
Esistono due definizioni di probabilità che si rifanno a due filoni di pensiero distinti:
Teoria della probabilità a priori la probabilità che si verifichi un evento A è uguale a
rapporto tra i casi favorevoli e i casi ugualmente possibili (es: la probabilità di pescare
da un mazzo di 40 carte l’asso di cuori è pari a 1/40);
Teoria frequentista la probabilità che si verifichi un certo evento A è uguale alla
frequenza con cui l’evento si verifica in un numero n di prove sufficientemente grande,
ripetute nelle medesime condizioni
𝑓𝐴
𝑃(𝐴) = 𝑙𝑖𝑚
𝑛→∞ 𝑛
P(A) è la probabilità che si verifichi l’evento A, 𝑙𝑖𝑚 limite per n che tende a infinito, fA
𝑛→∞
rappresenta la frequenza con cui si è verificato l’evento A nelle n prove.
Sulla base di questa definizione pertanto, non è possibile determinare la probabilità sulla
base di un'unica prova, ma solamente avvicinarci alla probabilità vera sulla base di tantissime
prove.
Va inoltre detto che non sempre si conoscono a priori il numero di casi possibili e se questi
sono tutti ugualmente possibili.
La probabilità che si verifichi un evento è indicata e P(non A) è la totalità dei casi, che è
sempre = 1, pertanto possiamo dire che
0 ≤ P(A) ≤ 1
18
PRINCIPIO DELLA SOMMA: la probabilità di verificarsi di due eventi mutualmente escludenti
è uguale alla somma delle probabilità del verificarsi dei singoli eventi (connettivo logico è o):
P(A o B) = P(A) + P(B)
Es: calcolare le probabilità che da un mazzo di 40 carte esca un asso o un re.
P(asso)= 4/40 e P(re) =4/40. Per cui P(asso o re) = 4/40+4/40= 8/40=0.2
Es con eventi indipendenti: calcolare la probabilità che nel lancio contemporaneo di due dadi
esca come somma 2. Dei 36 casi possibili sono 1 è quella che può verificarsi (1+1)
P(A e B) = 1/6 * 1/6 = 36
Es con eventi non indipendenti: calcolare la probabilità che da un mazzo di 40 carte esca un
asso alla prima estrazione e un altro asso alla seconda estrazione (senza reintegro)
P(asso1 e asso2) =4/40 * 3/39
la probabilità di ciascun successivo risultato è condizionato dai risultati precedenti, per tanto
la formula del principio del prodotto diventa
P(A e B) = P(A) * P(A/B)
dove P(A/B) viene letto come ‘probabilità condizionale di B una volta che si sia verificato
l’evento A’
19
17._PERMUTAZIONI, COMBINAZIONI E DISPOSIZIONI
Se alle disposizioni possibili vogliamo anche tener conto delle ripetizioni degli elementi
avremo la possibilità di avere anche AA, BB, CC e DD.
In tal caso la formula della disposizione con ripetizione è:
(R)
nDr = nr
20
18._DISTRIBUZIONE BINOMIALE
In teoria della probabilità, la DISTRIBUZIONE BINOMIALE è una distribuzione di probabilità
discreta. È un modello matematico che studia fenomeni che possono assumere solo 2 valori,
osservati n volte, e ne descrive il numero di successi (es: risposta Vero o Falso in un
questionario). La formula della distribuzione teorica di probabilità binomiale è
f(x) = nCxpxqn-x
in cui f(r) è la distribuzione di probabilità dell’evento x, p è la probabilità che si verifichi l’evento
desiderato e che esso non si verifichi (q = 1 – p), n è il numero delle prove e ncx il numero dei
modi in cui si possono combinare i successi e (n-x) gli insuccessi in n prove.
P(r) = (𝒏𝒓)prq(n-r)
P(r) probabilità di ottenere esattamente r successi in n prove
(𝑛𝑟) numero di modi in cui si possono combinare r successi e (n-r) insuccessi
coefficiente binomiale
Prq(n-r) probabilità di ogni singola sequenza con r successi e (n-r) insuccessi
21
19._LA DISTRIBUZIONE NORMALE O GAUSSIANA
La distribuzione normale o curva di Gauss è la curva della probabilità più usata nell’analisi
statistica perché descrive con buona efficacia gran parte dei fenomeni naturali.
Ha una caratteristica forma a campana
Simmetrica rispetto alla media e unimodale (ossia una unica moda) e continua
L’area complessiva sotto la curva è pari a 1.
Le probabilità più elevate di un fenomeno si concentrano intorno alla media, e
le probabilità si riducono man mano che ci si allontana dal valore medio verso destra
o verso sinistra.
Nella curva gaussiana Media, Mediana e Moda coincidono
È applicata a variabili continue per cui la funzione si applica su tutto l’asse dei numeri
reali da -∞ a +∞
È asinttotica all’asse delle ascisse (x) vale a dire che non tocca mai l’asse delle
ascisse se non per valori +/- ∞
Ha due flessi (punti in cui la curva passa da concava a convessa)
μ è il valore massino della funzione
22
23
24
25
20._DISTRIBUZIONE chi2 o χ2
È la più nota tra le distribuzioni non normali e viene generata della somma dei quadrati di
valori indipendenti di una variabile normale standardizzata.
Essendo valori al quadrato la distribuzione viene definita solo su valori positivi, da 0 e + ∞.
(𝑥− 𝜇)2
𝑐ℎ𝑖𝜈2 = ∑𝜈1 𝜎2
dove μ e σ2 sono noti (in quanto standardizzate, per cui μ = 0 e σ2 = 1) e l’unico parametro
che varia è ν (ni greco) che corrisponde all’ampiezza del campione.
In base alla formula avremo inoltre distribuzioni diverse per ogni ν differente, perciò si parla
di famiglia di distribuzioni che varia al variare di ν.
Come tutte le distribuzioni di probabilità l’area compresa tra la curva e l’asse delle ascisse è
pari a 1.
Tuttavia, se i valori della variabile normale non sono del tutto indipendenti tra loro è
necessario stabilite il numero di vincoli che li condizionano.
Se vi sono dei vincoli, il parametro ν può non coincidere con il numero effettivo dei valori che
generano la distribuzione, ma coincidere con i gradi di libertà (gdl) ovvero il numero dei valori
veramente indipendenti che generano la distribuzione.
Grado di libertà: è il numero di valori o di variabili indipendenti che sono liberi di variare
(ossia possono essere assegnati arbitrariamente)
Essa fornisce un criterio per stabilire se ci sia una connessione o meno tra 2 caratteri statistici
x e y qualitativi, ponendo a confronto le frequenze osservate nelle distribuzioni dei due
caratteri con le corrispondenti frequenze teoriche che si avrebbero nel caso di una loro
assoluta indipendenza
21._DISTRIBUZIONE F di Fisher
È il rapporto tra due variabili chi2 indipendenti con ν1 e v2 gradi di libertà.
Trattandosi del rapporto tra due distribuzioni positive, anche la distribuzione di Fisher viene
definita da 0 a +∞.
La famiglia di distribuzioni sono definite su v1 e v2.
2 𝑣
𝑐ℎ𝑖𝑣1 2
Fv1v2 = 2 𝑣
𝑐ℎ𝑖𝑣2 1
22._DISTRIBUZIONE t di Student
È utilizzata soprattutto per campioni di ampiezza inferiore a 30 unità.
La famiglia di distribuzioni dipendono anche in questo caso dai gradi di libertà.
Ricorda la distribuzione normale in quanto simmetrica rispetto all’asse delle ordinate e con
valori che vanno da – ∞ a + ∞.
𝑐ℎ𝑖2
1
𝑥̅ − 𝜇
t= 𝑠 =√ 1
𝑐ℎ𝑖2
𝑣
√ 𝑛−1 𝑣
26
23._ VERIFICA DELLE IPOTESI
27
Per la legge dei grandi numeri abbiamo che all’aumentare di n la variabilità della distribuzione
campionaria delle medie diminuisce fino a tendere a 0.
Per il teorema del limite centrale invece, abbiamo che per campioni > 30 la distribuzione
campionaria delle medie si approssima alla distribuzione normale, qualunque sia la forma
della distribuzione della popolazione.
Una stima non distorta della varianza 𝑠̂ 2 della popolazione si ottiene dividendo al devianza
del campione (o sqm del campione) per n-1 (anziché per n).
𝑛
𝑠̂ 2 = s2
𝑛−1
Per tanto la varianza della distribuzione campionaria della media stimata (partendo da un
campione) sarà:
𝑠2
𝜎𝑥̅2 = 𝑛−1
28