Sei sulla pagina 1di 18

METODOLOGIE STATISTICHE

(INTRODUZIONE)
INDICE ARGOMENTI:

• Confronto tra medie


– Test T
– Analisi della Varianza (ANOVA)
• Confronto tra Varianze
– Test F
VERIFICA DI IPOTESI

• Molto spesso nell’ambito della chimica analitica è


necessario confrontare tra loro serie di misure
ripetute (es. confronto tra i risultati di due o più
metodi).
• Il confronto può essere condotto mediante
appropriati test statistici.
• I test statistici consistono nel mettere alla prova l'
ipotesi che certi Parametri delle Popolazioni (es.
medie o varianze) siano uguali.
• Il test viene condotto fissando a priori la probabilità
di errore che potenzialmente può essere commesso.
VERIFICA DI IPOTESI

• Una ipotesi statistica è una asserzione o supposizione


sulla distribuzione di una o più variabili casuali, si
indica con la lettera H
• Generalmente si mettono a confronto due ipotesi,
contrarie tra loro:
– Ipotesi H0 (IPOTESI NULLA).NULLA) Costituisce l’oggetto della
verifica: specifica i valori dei parametri della popolazione da
cui si suppone provenga il campione in esame
H0: q = q0
• Dove q indica il parametro della popolazione e q0 il parametro
che ci si attende.
– Ipotesi H1 (IPOTESI ALTERNATIVA).
ALTERNATIVA) È l’ipotesi
contraria alla precedente (es H1: q ≠ q0).
VERIFICA DI IPOTESI

• Una ipotesi statistica è una asserzione o supposizione


sulla distribuzione di una o più variabili casuali, si
indica con la lettera H
• Generalmente si mettono a confronto due ipotesi,
contrarie tra loro:
– Ipotesi H0 (IPOTESI NULLA).NULLA) Costituisce l’oggetto della
verifica: specifica i valori dei parametri della popolazione da
cui si suppone provenga il campione in esame
H0: q = q0
• Dove q indica il parametro della popolazione e q0 il parametro
che ci si attende.
– Ipotesi H1 (IPOTESI ALTERNATIVA).
ALTERNATIVA) È l’ipotesi
contraria alla precedente (es H1: q ≠ q0).
ERRORE DI I E II TIPO
DECISIONE
Realtà Accetto Ho Rifiuto Ho
Decisione giusta Errore di tipo I
H0 vera
(1-α, Protezione) (α, significatività)
Errore di tipo II Decisione giusta
H0 falsa
(β) (1-β, Potenza)

• Errore di Tipo I (Significatività)


– rappresenta la probabilità di fare un errore decidendo di rifiutare
Ho cioè di affermare che vi è una differenza quando in realtà non
esiste tale differenza. Viene generalmente posta ad un valore basso
(α).
• Errore di Tipo II (Errore β)
– Rappresenta la probabilità di commettere un errore assumendo H0
vera anche quando in realtà è falsa. E’ la capacità del test di
individuare l’ipotesi alternativa quando è vera.
Dipende da α (α = 1- β).
VERIFICA DI IPOTESI

• Se il test statistico dimostra che la probabilità


a favore dell' ipotesi nulla è inferiore ad α, si
può affermare che fra le due misure esiste
una differenza statisticamente significativa.

• Non è invece possibile dai risultati del test


affermare che le due misure sono uguali
TESTS AD UNA E DUE CODE
• UNA CODA
– Il valore del parametro q è minore o maggiore di
un valore specificato q0

H :θ > θ0
H :θ < θ0
• DUE CODE:
– Il valore del parametro q è diverso da un valore
specificato q0

H :θ ≠ θ0
CONFRONTO TRA MEDIE
• Fino a due serie di misure
– Test t
• N serie di misure
– Analisi della Varianza (ANOVA)

• Requisiti:
• Distribuzione normale dei dati
• Varianze uguali
Test t ad un campione

• Serve a verificare se la media di una


serie di misure è diversa da un valore
prefissato:
( y − µ)
t= n
s
Test t per campioni indipendenti

• Serve a verificare se le medie di due


serie di misure indipendenti sono
diverse tra loro:
( y1 − y2 )
t=
s p 1 / n1 + 1 / n2
(n1 − 1) s12 + (n2 − 1) s22
sp =
n1 + n2 − 2
Test t per campioni dipendenti
(accoppiati)

• Serve a verificare se le medie di due


serie di misure dipendenti sono diverse
tra loro:
d −δ
t= n
sd
ANOVA

• Serve a verificare simultaneamente se le medie di n


serie di misure dipendenti sono diverse tra loro.
• Il metodo utilizza il rapporto tra varianze ma lo scopo
dell’analisi riguarda la verifica dell’ipotesi nulla tra
medie.
• Consiste nella scomposizione della varianza totale
dell’esperimento in varianze parziali (corrispondenti a
diverse e ben determinate fonti di variazione).
• La fonte delle variazioni dei dati viene chiamata
fattore sperimentale (o trattamento) e può essere:
– a più livelli quantitativi
– a diverse modalità qualitative
• Ogni unità od osservazione del gruppo sperimentale
viene detta replicazione
ANOVA AD UN FATTORE

• E’ detta anche ANOVA ad un criterio di classificazione od


ad una via (one way ANOVA).
• Rappresenta il modello più semplice

Fattore Risultati Medie


i-esimo parziali
i= 1 100.4 100.4 100.4 100.4 100.4 100.6

i= 2 99.6 99.6 99.6 99.6 99.6 101.5

i= 3 101.2 101.2 101.2 101.2 101.2 101.7

Media globale 101.3


ANOVA AD UN FATTORE

• H0 : i risultati provengono da una unica popolazione


• Ha : i risultati provengono da popolazioni diverse

Ho : µ1=µ2=µ3 Ha : µi≠µj.

H0 Ha
ANOVA AD UN FATTORE

• La varianza viene scomposta in:


– Varianza entro gruppi (MSw)
• Detta anche within, casuale, errore
• Esprime la variabilità (casuale) attorno alla media di
ciascun gruppo
– Varianza fra gruppi (MSB)
– Esprime la variabilità attorno alla media totale delle
medie di ciascun gruppo
• Se tutti i valori provengono da una unica popolazione (H0 è
vera), allora le differenze tra le medie dei diversi gruppi sono
dovute unicamente alla variabilità casuale:la varianza “entro” e
la varianza ”fra” gruppi sono quindi stime indipendenti della
stessa varianza “vera” (σ2) e dovrebbero avere statisticamente
lo stesso valore.
ANOVA AD UN FATTORE

• Per testare l’uguaglianza della varianza


“entro” e “fra” gruppi si utilizza il Test F di
Fischer:
Fischer

MS B
F=
MSW
• Se il valore di F calcolato supera quello tabulato, alla
probabilità prefissata, si rifiuta l'ipotesi nulla e si
accetta l'ipotesi alternativa: almeno una media e
diversa dalle altre.
ANOVA AD UN FATTORE

• ANOVA TABLE (ONE WAY)


ANALISI DELLA VARIANZA
Origine della Somma dei Quadrati Gradi di libertà Quadrati medi
variazione Fcalc
(SS) (DF) (MS)

MS B
SS B = SS T − SS W
SS
MS B = B
Fcalc =
Tra gruppi df B = k − 1 MS W
df B

( ) df W = k (n − 1)
k n
SSW = ∑ ∑ yij − y i .
2
SS W
All’interno dei MSW =
gruppi i j df W

( )
k n
SS T = ∑ ∑ yij − y .. df T = kn − 1
2
Totali
i j

Potrebbero piacerti anche