Sei sulla pagina 1di 22

STATISTICA

STATISTICA DESCRITTIVA
TABELLE STATISTICHE
1- SEMPLICI SERIE (storiche e semplici) E SERIAZIONI (discontinue o discrete e
continue)
2- STATISTICHE TABELLE COMPOSTE E A DOPPIA ENTRATA

VARIABILI QUALITATIVEmodalità rappresentate da sostantivi e aggettivi


1- NOMINALE (grafico a barre, a torta)
2- ORDINALE (grafico a barre)
VARIABILI QUANTITATIVEmodalità rappresentate da numeri
1- DISCRETE (grafico ad aste)
2- CONTINUE (istogramma)

SERIE STORICA successione delle intensità o frequenze corrispondenti a


MODALITA’ DI TEMPO (spezzata)
SERIE SEMPLICE successione delle intensità o frequenze della modalità di un
carattere QUALITATIVO
SERIAZIONE STATISTICA quando il carattere è QUANTITATIVO (discr. E cont.)
MODALITA’ caratteristica del carattere
FREQUENZA numero di volte in cui la modalità si presenta
DISTRIBUZIONE DI FREQUENZA tabella dove a sinistra si trovano le modalità di un
carattere o di classi a destra le frequenze
FREQUENZA RELATIVA (fi) ci permette di confrontare più distribuzioni statistiche,
pur riferendosi a totali diversi. Si trova facendo frequenze assolute (ni)/ numero
totali di osservazioni (N)
FREQUENZA CUMULATA (Fi) indica il numero di unità statistiche che hanno
manifestato una modalità inferiore o uguale alla i-esima. Si trova facendo la
sommatoria delle frequenze relative (fi)
FUNZIONE DI RIPARTIZIONE (caratteri quantitativi discreti) fornisce l’andamento
delle frequenze cumulate al variare delle modalità (funzione a gradini). Per trovare
la F(x) bisogna trovare le Fi.
FUNZIONE DI RIPARTIZIONE (caratteri quantitativi continui) funzione a spezzata.
Per trovare la F(x) bisogna trovare la hi (fi/dilunghezza della classe) e le Fi. Per la
prima bisogna prendere la hi(x-min classe), dalla seconda in poi bisogna prendere la
Fi-1+hi(x-min classe).

MEDIE ANALITICHE
MEDIA ARITMETICA∑xi/N
PROPRIETA’ M.A.
a) E’ interna essendo compresa tra il massimo e il minimo, cioè x1< µ>x2
b) La somma dei termini è uguale alla media aritmetica moltiplicata per le unità,
cioè rispecchia il criterio di invarianza. (∑xi=N µ)
c) La somma algebrica degli scarti è pari a 0, cioè (x-µ)=0.
d) La somma dei quadrati degli scarti dei termini della distribuzione di una
costante c è minima quando c è uguale alla media aritmetica.
[∑(xi- µ)2=min∑(xi-c)2]
e) Se si trasformano i termini x1, x2, …., xn secondo la funzione yi= a+bxi, dove
i= 1,2,3, …, N poi con a e b costanti. Questa proprietà si chiama PROPRIETA’ DI
LINEARITA’: proprietà di translatività se si aggiunge o si sottrae una
costante a ai termini di distribuzione, la media aritmetica della nuova
distribuzione è uguale a quella vecchia aumentata o diminuita dalla costante
a; proprietà di omogeneità se i termine della distribuzione sono moltiplicati
per la costante b, la media aritmetica della nuova distribuzione è b volte la
media aritmetica vecchia
f) Se un collettivo N è suddiviso in L sottoinsiemi aventi numerosità N (1), N(2), …,
N(L) e medie aritmetiche µ(1), µ(2),…, µ(L), la media aritmetica può essere
calcolata così: µ=( µ(1) x N(1))+…+( µ(L) x N(L))/ N(1)+…+N(L). Con questa proprietà si
dice che la media aritmetica è associativa.
g) Non è robusta, cioè non è influenzata da OUTLIER)

MEDIA PONDERATA µ= ∑xiwi/N. Valgono le proprietà elencate sopra.


MEDIA GEOMETRICA µ= n√x1 . x2 . x3 … . xn
PROPRIETA’ M.G.
a) Omogenea: se tutti i termini della distribuzione sono moltiplicati per una
costante b>0, la media geometrica dei termini così trasformati è b volte la
media geometrica dei termini originari
b) Associativa
c) Interna
d) Criterio di invarianza
MEDIA QUADRATICA µ=√∑x2i/N
PROPRIETA’ M.Q.
a) Interna
b) Criterio di invarianza
c) Omogenea
d) Associativa
MEDIE DI POSIZIONE
MEDIANA indica la posizione centrale tra i diversi termini ordinati in modo
crescente. Se N è pari bisogna fare la media tra i due numeri che si trovano nella
posizione centrale (N/2 e N/2+1), se N è dispari si trova il numero centrale [(N+1)/2].
Se il carattere è in classi bisogna fare così: N PARI N/2-Ni-1/ni x di+Ci-1;
N DISPARI N+1/2-Ni-1/ni x di+Ci-1
Si può calcolare anche tramite F(x): me= 0.5-Fi-1/hi + Ci-1
PROPRIETA’ MEDIANA
a) Interna
b) Lineare
c) Traslativa e omogenea
d) La mediana è il valore che minimizza la somma dei valori assoluti degli scarti
e) È robusta, cioè che è influenzata da OUTLIER
MODA  modalità con frequenza più alta.
 Carattere qualitativo frequenza più alta
 Carattere quantitativo discreto “
 Carattere quantitativo continuo uniforme” e fare la media della classe
 Carattere quantitativo continuo non uniformecon hi più alta (hi=fi/di)
QUARTILI tre quantità che suddividono la popolazione in 4 parti. Il Q1 è visto
come il separatore tra il primo quarto dei termini ordinati e i restanti tre quarti; il
Q2 è visto come il separatore tra la prima metà e il Q3 è visto come il separatore
tra i primi tre quarti dei termini ordinati e il restante quarto. Il Q2 è esattamente
la mediana.
Q1= N+1/4 Q3=3/4(N+1)
Se è in classi:
Q1=Ci-1 + N/4-Ni-1/ni x di Q3=Ci-1 + 3/4N-Ni-1/n1 x di

BOX-PLOT (diagramma a scatola a baffi) riassume l’intera distribuzione


(mediana, Q1,Q3,massimo e minimo)

VARIABILITA’ tendenza dei dati ad allontanarsi tra loro e dal centro,


ossia dalla mediana o dalla media.
DISPERSIONE attitudine di un fenomeno quantitativo a manifestarsi
sulle N di U con modalità tra loro diverse
INDICI DI VARIABILITA’ E DISPERSIONE
a) CAMPO DI VARIAZIONE o RANGE xmax-xmin
Il suo difetto è che non tiene conto di tutti i dati.
b) DIFFERENZA INTERQUALITICA Q3-Q1
Misura la variabilità del 50% della popolazione centrale, il suo
vantaggio è che non è influenzata da dati outlier
c) DEVIANZA ∑(xi-µ)2 per dati disaggregati
∑(xi-µ)2x ni per distribuzione di frequenze assolute
La devianza dipende da N se N aumenta anche la devianza
aumenta
d) VARIANZA µ2- µ2, dove µ2=xi2/N e µ2=media aritmetica2
E’ la media degli scarti al quadrato dalla media aritmetica.
PROPRIETA’ V.
- E’ sempre positiva o nulla, mai negativa
- Non c’è linearità
e) SCARTO QUADRATICO MEDIO (o deviazione standard)√varianza
f) COEFFICIENTE DI VARIAZIONE (CV) SQM/ µ
Consente operazioni tra diversi variabili (in termini di variabilità) che
hanno unità di misure diverse.
PROPRIETA’
- Assumono valore 0 in caso di assenza di variabilità, cioè quando i
termini sono uguali
- Non cambiano se a ciascun termine viene aggiunto una quantità
costante positiva o negativa
- La moltiplicazione di ciascun termine per una costante, positiva o
negativa, ha come conseguenza la moltiplicazione degli indici per
il valore assoluto della costante

CONCENTRAZIONE è l’attitudine di un carattere ad essere posseduto da


un certo numero di unità
INDICE DI GINI (G) per prima cosa bisogna ordinare i dati in modo
crescente, poi bisogna trovare Ai=∑xi o yi, poi bisogna trovare Qi=Ai/A
(tranne 1), poi bisogna trovare Pi=i/n (tranne 1)e infine fare Pi-Qi (tranne
1).
FORMULA G=∑Pi-Qi/∑Pi dove 0<G<1
Se G=0 c’è EQUIDISTRIBUZIONE (Pi=Qi)
Se G=1 c’è MASSIMA DISTRIBUZIONE (Q1=Q2=…=Qn-1=0)
PROPRIETA’ GINI
- Assume valori compresi tra 0 e 1, se è =0 equidistribuzione e se è
=1 massima concentrazione
- Diminuisce se si aggiunge a ogni termine una quantità positiva
- Non cambia se ogni termine è moltiplicato per una costante
positiva
- Aumenta se a seguito di un trasferimento di intensità da una data
unità a un’unità che presenta una modalità superiore.
RETTA DI EQUIDISTRIBUZIONE è la retta che va dal punto 0 al punto 1
AREA DI CONCENTRAZIONE (l’area interna tra la spezzata e la retta di
equidistribuzione) G x N-1/2N
Se Ac=0 EQUIDISTRIBUZIONE
Se Ac=max A ossia (N-1/2N) MASSIMA CONCENTRAZIONE
!!Se si ha già Ac si può calcolare G in questo modo: G= A x 2N/N-1!!
CURVA DI LORENZ (o spezzata di concentrazione) viene usata per
rappresentare graficamente la concentrazione si rappresenta unendo i
valori di Pi (ascisse) e di Qi (ordinate).

TABELLA A DOPPIA ENTRATA


 DISTRIBUZIONE MARGINALE DI X distribuzione di x
indipendentemente da y
 DISTRIBUZIONE MARGINALE DI Y distribuzione di y
indipendentemente da x
ESEMPIO
Gi 1 2 3 4 5 6 7 8 9 10
X 0 1 2 1 2 2 2 0 2 1
Y 10 13 10 13 12 13 13 10 12 10

Dalla tabella sopra bisogna costruire la tabella a doppia entrata:


X/Y 10 12 13 TOT (ni.)
0 2 0 0 2
1 1 0 2 3
2 1 2 2 5
TOT (n.j) 4 2 4 10
per trovare µx= (0x2)+(3x1)+(5x2)/10, invece per trovare
µy=(10x4)+(12x2)+(13x4)/10
DISTRIBUZIONI CONDIZIONATE
 DISTRIBUZIONE CONDIZIONATA DI X distribuzione di x in
corrispondenza di y
 DISTRIBUZIONE CONDIZIONATA DI Y distribuzione di y in
corrispondenza di x
FREQUENZA CONDIZIONATA= FREQ. CONGIUNTA/FREQ. MARGINALE
ESEMPIO
X/Y 10 12 13 TOT (ni.)
0 2 0 0 2
1 1 0 2 3
2 1 2 2 5
TOT (n.j) 4 2 4 10

- X/Y=13 - Y/X=1

Xi n=i/y=13 Yi n=j/x=1
0 0/4 10 1/3
1 2/4 12 0/3
2 2/4 13 2/3
∑ 1 ∑ 1
MEDIE CONDIZIONATE
µx/y=(0x0/4)+(1x2/4)+(2x2/4)
µy/x=(10x1/3)+(12x0/3)+(13x2/3)
TABELLA FREQUENZE RELATIVE fij= nij/N

X/Y 10 12 13 TOT (fi.)


0 0.2 0 0 0.2
1 0.1 0 0.2 0.3
2 0.1 0.2 0.2 0.5
TOT (f.j) 0.4 0.2 0.4 1

INDIPENDENZA STATISTICA nij= n.j x ni./N


- Si può usare sia per caratteri qualitativi sia per caratteri
quantitativi
- È simmetrica in x e in y
Se c’è assenza nella relazione tra x e y INDIPENDENZA ASSOLUTA
Le contingenze valgono sempre zero, perché sono la differenza tra le
frequenze osservate (realtà) e quelle teoriche (teoria).
- Se la differenza è POSITIVA, c’è ATTRAZIONE
- Se la differenza è NEGATIVA, c’è REPULSIONE
Per calcolare l’indipendenza statistica si possono utilizzare anche le
frequenze condizionate.
Se x e y sono indipendenti, come misuriamo il grado di dipendenza?
INDICE CHI-QUADRO (indice di connessione)
 ASSENZA DI CONNESSIONE indipendenza
 MASSIMA CONNESSIONE quando ad un valore (o modalità) è
associato un solo valore (o modalità di y), e viceversa
Per calcolarlo abbiamo bisogno dei seguenti passaggi:
1) Calcolo della tabella teorica in caso di dipendenza: ^fij^= fi. x f.j
2) Calcolo della tabella delle contingenze: cij= fij-^fij^
3) Indice chi-quadro∑∑cij2/^fij^
4) Indice chi-quadro normalizzato ꭓ2/min{R-1;C-1}
Il valore del chi-quadro è compreso: 0<ꭓ2<min{R-1;C-1}
Se è =0 INDIPENDENZA, cioè assenza di connessione
Se è =min…  MASSIMA CONNESSIONE
COVARIANZA media dei prodotti degli scarti di x e di y dalle rispettive
medie di x e di y µ11-(µx x µy), dove µ11= ∑(xi x yi)/N
Se Cov(x,y)>0 CONCORDANZA
Se Cov(x,y)=0 INDIPENDENZA STATISTICA
Se Cov(x,y)<0 DISCORDANZA
Per disegnare graficamente l’indipendenza statistica ci vuole un grafico a
dispersione.
COEFFICIENTE DI CORRELAZIONE LINEARE ( di Bravais) misura
l’intensità della dipendenza lineare
Pxy= Cov(x,y)/SQMx x SQMy
Il valore è compreso tra -1 e 1
- Se è =1 PERFETTA CORRELAZIONE LINEARE POSITIVA
- Se è =-1 PERFETTA CORRELAZIONE LINEARE NEGATIVA
- Se è =0 x e y sono CORRELATIVAMENTE INDIPENDENTI
REGRESSIONE studia come varia un carattere al variare dell’altro.
Si usa la RETTA DEI MINIMI QUADRATI, cioè quella retta che rende
minima la distanza totale fra i dati osservati e tra quelli teorici
Y= alfa+ beta x, dove alfa= µy-(beta x µx) e beta= cov(x,y)/var x
- Se cov positiva e beta positivo R.M.Q CRESCENTE
- Se cov negativa e beta negativo R.M.Q DECRESCENTE
L’ultima fase è quella di valutare la “BONTA’” di adattamento della
funzione di regressione individuata ai valori osservati, viene indicato da
R2.
Questo valore è compreso tra 0 e 1. Se è =0 INTERPOLAZIONE PESSIMA,
invece se è =1 INTERPOLAZIONE PERFETTA
FORMULA R2=P2xy
DIPENDENZA IN MEDIA
- Si dice che y dipende in media da x se le medie condizionate di
y/x sono diverse tra loro
- Si dice che x dipende in media da y se le medie condizionate di
x/y sono diverse tra loro
Si dicono indipendenti in media quando sono uguali tra loro.
VARIABILI CASUALI o ALEATORIE assumono valori numerici in
corrispondenza ai risultati di un esperimento aleatorio
- DISCRETE numero finito o infinità numerabile di valori
- ALEATORIE tutti i valori di un determinato intervallo di numeri
reali
FUNZIONE DI PROBABILITA’
Dalle variabili aleatorie discrete è importante trovare due indici di sintesi:
- VALORE ATTESO E(x)= ∑x*p(x)
- VARIANZA V(x)= E(x2)-[E(x)]2
TRASFORMAZIONE LINEARE DI X
Una particolare trasformazione è la STANDARDIZZAZIONE. Se x variabile
aleatoria con funzione p(x) nota e con VA µ=E(x) e varianza= V(x),
possiamo standardizzarla così:
Z= X-µ/var dove: ZE(z)=0; V(x)=1
Famiglie di distribuzioni notevoli per variabili discrete:
- BERNOULLI due esiti: successo con probabilità p e insuccesso
con probabilità p-1.
FUNZIONE DI PROBABILITA’ p(x)= px*(1-p)1-x
E(x)=p e V(x)=p*(1-p)
- DISTRIBUZIONE BINOMIALEX è il numero di successi in n
ripetizioni indipendenti di un medesimo esperimento di Bernoulli
FUNZIONE DI PROBABILITA’ (nx)*px*(1-p)n-x

E(x)=n*p e V(x)=n*p(1-p)

- POISSON X è il numero di eventi che accadono in un certo


periodo di tempo
FUNZIONE DI PROBABILITA’ p(x)= λx*e- λ/x!

E(x)=V(x)=  λ
LEGAME TRA BINOMIALE E POISSON
Possiamo approssimare la distribuzione binomiale in poisson se n*p<7 o
n*p>500
Famiglie di distribuzioni di variabili continue:
- UNIFORME CONTINUA f(x)= 1/b-a se a<x<b
0 se altrove

E(x)= a+b/2 e V(x)= (b-a)2/12 F(x)= x-a/b-a


- ESPONENZIALE NEGATIVA f(x)= - λx
 λ*e   se x>0
0 se altrove

E(x)= 1/ λ e V(x)= 1/ λ2 F(x)= 1-e- λ-x

- DISTRIBUZIONE NORMALE (o gaussiana) modella fenomeni che


hanno distribuzione simmetrica rispetto alla media e che possono
assumere valori su tutto R.
2 parametri distinti:
 Possiamo cambiare la media ma non la varianza se varianza
non cambia, la forma della distribuzione non cambia, se media
aumenta, trasla verso destra.
 Possiamo cambiare la varianza ma non la media se varianza
cambia, la forma cambia
- NORMALE STARDARDIZZATA Z= X-µ/sqm
Questa funzione di ripartizione è complicata da calcolare, infatti
c’è bisogno di una TAVOLA.
STATISTICA INFERENZIALE
Generalizza i risultati dal campione alla popolazione.
Come estrarre un campione rappresentativo da una popolazione di
riferimento?
- CAMPIONE PROBABILISTICO ogni unità della popolazione ha
probabilità nota e non nulla di essere astratto
- CAMPIONE NON PROBABILISTICO non tutte le unità della
popolazione hanno probabilità non nulla di essere estratte
CAMPIONAMENTO PROBABILISTICO (presuppostoconoscere lista pop.)
1) CAMPIONE CASUALE SEMPLICE tutte le unità della popolazione
hanno uguale probabilità di essere estratte
2) CAMPIONE CASUALE STRATIFICATO popolazione è formata da
strati: disoccupati (10%), lavoratore autonomo (40%), lavoratore
dipendente (35%) e casalinghe e studenti (15%).
3) Altri tipi…
APPROCCIO PARAMETRICO X-exp(λ)
Non osserviamo la popolazione ma solo il campione
- Scegliamo noi il modello di probabilità per x
- Il parametro che caratterizza la distribuzione scelta è NON NOTO,
da stimare usando il campione casuale
OBIETTIVO stimare il parametro non noto usando il campione
X-f(θ)
Stimare = approssimare perché il campione è diverso dalla popolazione
Parametro = caratteristica della popolazione, non noto
OBIETTIVO minimizzare gli errori campionari (che non sono annullabili)
CAMPIONE CASUALE = è un estratto da una popolazione di cui interessa il
fenomeno X-f(θ), il vettore aleatorio formato da n variabili aleatorie
indipendenti e identicamente distribuite.
Indipendenti = probabilità congiunta di vettori aleatori è uguale al
prodotto delle marginali
Identicamente distribuite = come X: le probabilità marginali di vettori
aleatori sono uguali a f(θ).
OBIETTIVO X-f(θ)
 è stimare θ, parametro non noto della popolazione
 Come? Con campione casuale teorico di ampiezza n e con
campione osservato
 Voglio stimare un numero non noto (θ) con un vettore di
numeri
Dunque devo sintetizzare il campione casuale.
 La sintesi del campione casuale teorico si chiama STIMATORE
STIMATORE è qualunque funzione solo di vettori aleatori a valori reali
Esempi: 1) X1+X2+…+Xn/n
2) X1+X2+…+Xn
3) max(X1,…,Xn)
STIMATORE DI θ T=T(X1,…,Xn) lo stimatore è variabile aleatoria, e
quindi ha una sua distribuzione di probabilità
STIMA DI θ t=T(x1, x2,…, xn) ciascuno dei possibili valori assunti dallo
stimatore
AD OGNI STIMATORE SI HANNO TANTE STIME!!!
STIMATORI PIU’ USATI
1) MEDIA CAMPIONARIA X= 1/n ∑xi
PROPRIETA’ 1:
E(x)=µ e V(x)=var/n un buon stimatore ha varianza bassa
PROPRIETA’ 2:
Se µ non noto e varianza nota, allora: E(x)=µ e V(x)=var/n è
importante per misurare l’errore campionario
PROPRIETA’ 3 (TEOREMA CENTRALE DEL LIMITE):
considera una popolazione generica. Se varianza è nota,
l’approssimazione si fa se n>30; se varianza non è nota,
l’approssimazione si fa se n>50
2) VARIANZA CAMPIONARIA S2= 1/n-1 ∑(Xi-µ)2
PROPRIETA’ 1:
come media campionaria
PROPRIETA’ 2:
popolazione normale e quindi: (n-1)*S2/var-chi quadro2n-1
Se S̴2=1/n ∑(Xi-µ)2
Allora E(S̴2)=n-1/n var ≠ sqm
Dunque S̴2 non ha proprietà 1
3) PROPORZIONE CAMPIONARIASolo per la BERNOULLI
p=E(x); µ= ∑xi/n = successi nel campione/ampiezza del campione
Conta la proporzione di successi nel campione
PROPRIETA’ 1:
E(x)= p e V(x)= p*(1-p)/n
PROPRIETA’ 2 (TEOREMA CENTRALE DEL LIMITE):
X= N_(p; p*(1-p)/n) se x>50

LE PROPRIETA’ DEGLI STIMATORI


1) CORRETTEZZA o NON DISTORSIONE T è corretto (o non distorto)
per θ se E(T)= θ per n=1, 2, …
2) CORRETTEZZA ASINTOTICA (o NON DISTORSIONE ASINTOTICA) T è
asintoticamente non distorto per θ se E(T) θ se n+infinito.
Questa proprietà è meno forte della prima; se stimatore T è non
distorto allora è anche asintoticamente non distorto, il viceversa
non vale.
MISURA DISTORSIONE
Bias(T, θ)=E(T)- θ
Se T non è distorto, allora Bias(T, θ)=0.
La proprietà 1 e 2 guardano solo la media delle stime: ma è importante
anche la variabilità delle stime. La proprietà 3 e 4 guardano la media e la
varianza delle stime attraverso:
EERORE QUADRATICO MEDIO (EQM):
EQM(T, θ)=E[(T- θ)2]
Proprietà (utile per conti) :
EQM(T, θ)=V(T)+[Bias(T, θ)]2 dove: [Bias(T, θ)]2=[E(T)- θ]2
3) EFFICIENZA RELATIVA se 2 stimatori alternativi per stimare θ, T1 e
T2, diciamo che T1 è più efficiente di T2 se EQM(T1, θ)<EQM(T2, θ).
Se T1 e T2 son entrambi non distorti (Bias=0), allora T1 è più
efficiente di T2 se V(T1)<V(T2).
4) CONSISTENZA FORTE Lo stimatore T è detto consistente (in senso
forte) per θ se EQM(T, θ)0 se n+infinito. Quindi uno stimatore è
consistente (in senso forte) se per ampioni grandi l’errore
quadratico medio diventa trascurabile (stime stabili ed affidabili)
STIMA PER INTERVALLI
Per fare inferenza sul parametro θ possiamo:
- Fornire una STIMA PUNTUALE , cioè individuare lo STIMATORE
MIGLIORE e quindi la STIMA basata sul CAMPIONE OSSERVATO. È
importante affiancare alla stima puntuale l’informazione sulla
VARIABILITA’ DELLO STIMATORE.
- Fornisce non solo un valore per θ ma un INTERVALLO DI VALORI
per θ che include sia la STIMA PUNTUALE che la VARIABILITA’
dello stimatore. Esempio: (stima puntuale +/- margine di errore).
DEF. INTERVALLO DI CONFIDENZA Sia (X1, …, Xn) un campione casuale di
n estratto da una popolazione X-f(θ).
Consideriamo 2 stimatori T1 e T2: T1(X1,…,Xn) e T2(X1,…,Xn)
Tali che:
1) T1 assume valori inferiori a T2
2) P(T1< θ<T2)=1-α con α tra 0 e 1
Allora (T1,T2) è detto INTERVALLO DI CONFIDENZA per θ a livello (1-α).
1-α è la probabilità che l’intervallo contenga il vero valore del parametro.
Solitamente si sceglie:
- 1-α=0,99 ammettiamo probabilità dell’ 1% che θ non sia
dell’intervallo
- 1-α=0,95 5% di probabilità che l’intervallo non include θ
- 1-α=0,90 10% di probabilità di “errore”

Per varianza nota:


Confronto tra 2 medie:

Confronto tra 2 medie senza conoscere la varianza:

VERIFICA DI IPOTESI
Essa si basa su 2 ipotesi messe a confronto:
- IPOTESI NULLA: H0 propone alcuni valori per θ
- IPOTESI ALTERNATIVA: H1 propone altri valori per θ
Occorre decidere a quale delle 2 ipotesi credere:
- ERRORE DI PRIMO TIPO: rifiuto H0 ma H0 è vera
- ERRORE DEL SECONDO TIPO: accetto H0 ma H1 è vera
La nostra decisione è in condizioni di incertezza, basata sul campione
perché si basa sui dati del campione casuale.
OBIETTIVO: prendere la decisione che minimizza gli errori, ma non è
possibile minimizzarli contemporaneamente.
STRATEGIA DI NEYMAN-PEARSON
1- Fissare la PROBABILITA’ DELL’ERRORE DI PRIMO TIPO, cioè α
2- Prendere la decisione che minimizza β, la probabilità di secondo tipo
(livello di significatività).
Verifica di ipotesi per media della popolazione normale:
Verifica di ipotesi per media popolazione generica:
Verifica di ipotesi sulla differenza delle medie di due popolazioni normali:

Potrebbero piacerti anche