Sei sulla pagina 1di 10

se vale zero indica che la distribuzione è simmetrica rispetto alla media

Statistica descrittiva se positivo denota una coda verso destra


se negativo denota una coda verso sinistra
indici
coefficiente di curtosi

 
indici (o misure) di posizione 1
n
xi −x
4

media campionaria di n osservazioni x1, x2, ..., xn


curt = ∑
n i=1 
n
1 misura quanto la distribuzione è appuntita
x = ∑ xi
n i=1 correlazioni
per k campioni xì ripetuti ciascuno con frequenza fi
1
k
covarianza
x = ∑x f
n i=1 i i di n osservazioni congiunte di 2 variabili {(x1,y1), (x2,y2), ..., (xn,yn)}:
n n
1
proprietà  xy = ∑  x − x  yi − y = 1n ∑ x i yi − x y
n i=1 i
Posto yi =a xi b : y=a x i=1
se  xy 0 x e y sono direttamente correlate: a valori grandi (piccoli) di
mediana m di n osservazioni x1 ≤ x2 ≤ ... ≤ xn x corrispondo valori grandi (piccoli) di y;
se n è dispari: m= x n1 /2 se  xy 0 x e y sono inversamente correlate: a valori grandi (piccoli)
x n / 2 x n/2 1 di x corrispondo valori piccoli (grandi) di y;
se n è pari: m=
2 se  xy =0 x e y sono incorrelate;
moda coefficiente di correlazione
punto di massimo della distribuzione di frequenza  xy
una distribuzione con un solo punto di massimo è detta unimodale  xy = ; −1 xy 1
x y
una distribuzione con più punti di massimo è detta plurimodale
indice normalizzato, adimensionale ed invariante per trasformazioni
indici di dispersione lineari delle variabili

varianza di n osservazioni x1, x2, ..., xn regressione lineare


n retta y= a x b che meglio approssima la nuvola di punti  xi , y i 
1
2 = ∑  x −x 2
n i =1 i  xy  y− x  xy
a = 2 ; b= 2
per k campioni xì ripetuti ciascuno con frequenza fi  x x
k k
1 1 valori stimati
 2 = ∑  xi − x 2 f i = ∑ x 2i f i − x 2
n i=1 n i= 1 y i = a xi  b
proprietà rappresentano i valori stimati di y a partire dalla retta di regressione
2 2 2
posto yi =a xi b :  y =a  x lineare
residui
deviazione standard o scarto quadratico medio
r i = yi − y i
=  
2
differenza tra i valori reali e stimati
range di n osservazioni x1 ≤ x2 ≤ ... ≤ xn valore previsto
differenza tra massima e minima osservazione y0= a x 0 b
range= xn − x1 x0 è un valore diverso dai valori xi già osservati
p-esimo quantile (o 100p-esimo percentile) di di cambiamento di scala
n osservazioni x1 ≤ x2 ≤ ... ≤ xn log y=a log xb
p ∈ℝ 0,1 , si considera il numero np y=e x
b a

se np non è intero: k è l'intero successivo , Q p = x k


devianza totale
x k  xk 1 n
se np è intero: k = np , Q p =
2 DEV TOT = DEV REG  DEV RES = ∑  yi − y 2
i=1
quartili n n

DEV REG = ∑  y i− y  ; DEV RES =∑  yi − y i 


2 2
Q1 primo quartile: quantile per p = 0.25
Q2 secondo quartile: quantile per p = 0.5 (= mediana) i =1 i=1
Q3 terzo quartile: quantile per p = 0.75 coefficiente di determinazione
differenza interquartile (IQR – InterQuartile DEV REG DEV RES  y
2

R2 = =1− = ; 2
Range) DEV TOT DEV TOT  2y 0≤ R ≤1
IQR=Q 3 −Q 1 tanto più esso si avvicina ad uno tanto più la funzione di regressione
indici di forma trovata è buona.

coefficiente di asimmetria (skewness)

 
n 3
1 x − x
sk= ∑ i
n i=1
Formulario di Probabilità e Statistica [2005-07-24] - Copyright © 2005 Nicola Asuni (info@tecnick.com – www.tecnick.com)
*** ATTENZIONE: Non posso garantire che le seguenti informazioni siano corrette. Usatele a vostro rischio. *** 1
Probabilità proprietà
P =1
definizioni P ∅=0
eventi elementari P A =1−P  A
tutti i possibili esiti di un esperimento aleatorio P  A∪ B= P  A P  B− P  A∩ B

P  ∪n=1 A n =∑ P  An  , con Ai ∩ A j =∅ se i≠ j

evento
n =1
ogni sottoinsieme di uno spazio campionario discreto 
probabilità classica
spazio campionario la probabilità di un evento è il rapporto dei casi favorevoli ed il numero
insieme di tutti gli eventi elementari; può essere: dei casi possibili
discreto posto Ω di N elementi  k (k = 1, 2, .., N) e
se gli elementi sono un numero finito o un'infinità numerabile P { k }= p , eventi elementari equiprobabili , A evento
P { k }= pk qualunque
continuo ∣A∣ ∣A∣
P  A= ∑ P { k }= p∣A∣= =
se è più numeroso (ad esempio: tutti i numeri reali in un certo  ∈A k
N ∣∣
intervallo) ∣A∣èil numerodi elementi di A
linguaggio permutazione di n oggetti
insiemi eventi è ogni allineamento di n oggetti distinti in n caselle
 , intero spazio campionario evento certo P n= n!=n n−1n−2⋯3⋅2
proprietà di n! (n fattoriale)
∅ , insieme vuoto evento impossibile
0!=1
insieme A l'evento si verifica n!
=n−1!
insieme A complementare di A l'evento non si verifica n
n!
A∪ B , (unione) si verifica almeno uno dei due eventi = nn−1n− 2⋯m1 , con m n
m!
A∩ B , (intersezione) gli eventi si verificano simultaneamente disposizione di n oggetti in k posti
)
A ∖ B , ( sottrazione = A∩ B si verifica A e non si verifica B è ogni allineamento di k oggetti scelti tra n oggetti distinti in k posti
Dn , k = n n−1n−2⋯n−k 1 , con 1≤k ≤n
A∩B=∅ , eventi disgiunti gli eventi sono incompatibili
Dn , n= P n= n!
B⊆ A ( B incluso in A ) B implica A disposizione con ripetizione di n oggetti in k
proprietà eventi A, B, C sottoinsiemi di Ω posti
A∪ A= A è ogni allineamento di k oggetti scelti tra n oggetti e ripetibili, in k posti
∗ k
A∩ A= A Dn , k = n , con k≥1
A∪ B= B∪ A combinazione di n oggetti di classe k
A∩ B= B∩ A è ogni sottoinsieme di k elementi dell'insieme di n oggetti
A∪ B∪C= A∪C∪C (modi per scegliere k oggetti tra n)
A∩ B∩C = A∩C∩C
A∪ B∩C= A∪ B∩ A∪C
A∩ B∪C= A∩ B∪ A∩C
C n , k=
Pk
=
k
=
k! 
D n , k n nn−1n−2⋯ n−k 1
,
con n≥1 ; 0≤k ≤n
A∪∅= A
coefficiente Binomiale
A∩∅=∅
A∪=
A∩= A
 
n = n =C
k n− k
n ,k ;
n =n
1
;
n = n =1
0 n  
A∪ A= combinazione con ripetizione di k oggetti scelti
A∩ A=∅ fra n
 A∪  B= A∩ B ogni gruppo formato di k oggetti scelti fra n, che possono essere ripetuti
 B= A∪ B (modi per disporre k oggetti uguali in n posti)
 A∩
 A =A

k 
C n , k = n k−1 = n k−1
n−1  
probabilità su Ω permutazione con ripetizione di n oggetti uguali
P : P [0,1] fra loro a gruppi
(allineamento in n posti di n oggetti)
n!
P∗k =
1, k 2,. .. k r
k 1!k 2!k r !

Formulario di Probabilità e Statistica [2005-07-24] - Copyright © 2005 Nicola Asuni (info@tecnick.com – www.tecnick.com)
*** ATTENZIONE: Non posso garantire che le seguenti informazioni siano corrette. Usatele a vostro rischio. *** 2
probabilità condizionata legge (o distribuzione) di una v.a.
applicazione che associa ad ogni intervallo I ⊆ℝ il numero:
probabilità dell'evento A, condizionata a B P  X ∈ I = P {∈ : X ∈ I }
P  A∩ B
P  A∣B= densità discreta di X
P  B
funzione che ad ogni valore assunto da X associa la probabilità che X
proprietà assuma quel valore
P  A∩ B= P  B∩A= P  A∣B PB= P  B∣ A P  A p X  x k = P X =x k 
P B∣ A P  A
P  A∣B= proprietà
P B
probabilità dell'evento X ∈I :
P A∣B=1− P  A∣ B
probabilità totali P  X ∈ I = ∑ pX  x k  , purché la serie converga
n x k ∈I

P  A=∑ P  A∣ B j ⋅P  B j  , v.a. indipendenti


j=1
n se scelti n intervalli I 1, I 2,  , I n⊆ℝ si ha
con ∪ j=1 jB = , B i ∩ B j =∅ per i≠ j , P B j ≠0 per ogni j
P  X 1 ∈ I 1, X 2 ∈ I 2, , X n ∈ I n = P  X 1 ∈ I 1 ⋅P  X 2 ∈ I 2 ⋯P  X n ∈I n 
caso notevole:
P  A= P  A∣B P  B P  A∣ 
B P  
B , valore atteso, o media , o speranza matematica
con {B , 
B } partizione di 
 X =EX =∑ x k p X  xk  , per X discreta
formula di Bayes k
P  A∣B k  P B k 
P  Bk ∣A= n , per ogni k  X =EX =∫ t⋅f X t  dt , per X continua
∑ P  A∣B j ⋅P  B j  ℝ

j=1 proprietà
indipendenza di eventi E aX b= a  EX b , con a , b ∈ℝ
E  X 1 X 2  X n= EX 1 EX 2 EX n
eventi A, B indipendenti E  X 1⋅X 2 ⋯ X n = EX 1⋅EX 2⋯ EX n ,
lo sono se soddisfano una delle seguenti condizioni
con X 1, X 2, , X n v.a. indipendenti
P  A∩ B= P  A⋅P  B
P  A∣B= P  A Ef  X =∑ f  x k  p X  x k  , purché la serie converga
P  B∣ A= P  B k

famiglia di eventi indipendenti E aX 1 b= aEX 1b , per ogni a , b∈ℝ  per v.a. continue
n eventi A1, A2, ..., An costituiscono una famiglia di eventi indipendenti
se per ogni sottofamiglia di r eventi ( 2≤r ≤n ), la probabilità di E  g X 1 =∫ g t  f t dt , per g : ℝ ℝ  per v.a. continue
X1
intersezione di questi r eventi è uguale al prodotto delle probabilità di ℝ
ciascuno di essi:
P  Ai ∩ A j = P  Ai  P  A j  , per ogni coppia di indici i ≠ j varianza
P  Ai ∩ A j ∩ ∩ An = P  Ai  P  A j  P  A n  X v.a. discreta:
2 2 2 2
data una famiglia di eventi indipendenti, anche sostituendo alcuni Ai  X =VarX = E  X − EX  = E  X −EX 
 i , rimane una famiglia di eventi indipendenti. X v.a. continua:
con i complementari A
2
Affidabilità di un sistema 2X =VarX = E  X 2− EX 2=∫ t 2 f X t dt −∫ t f X t  dt 
ℝ ℝ

componenti in serie proprietà


il sistema funziona se e solo se funzionano tutti i componenti VarX ≥0
affidabilità (probabilità che il sistema funzioni) VarX = E  X 2− EX 2
a =a 1⋅a 2 ⋯an Var c=0 , per ogni costante c
2
componenti in parallelo Var aX b=a VarX , per ogni a ,b ∈ℝ
il sistema funziona se e solo se funziona almeno un componente
VarX =∑  x k − EX 2 p X  x k = ∑ x 2k pX  xk −EX 2
affidabilità (probabilità che il sistema funzioni) k k

a=1−1−a1 ⋅1−a2 ⋯1−an  Var  X 1 X 2 X n =VarX 1VarX 2VarX n ,


con X i indipendenti
variabili aleatorie e modelli probabilistici
deviazione standard o scarto quadratico medio
variabili aleatorie  X =   X =  VarX
2

variabile aleatoria (v.a.) discreta covarianza


è una qualunque funzione: Cov  X , Y =E  X − EX ⋅Y − EY = E  XY − EX⋅EY ,
X :  ℝ con X , Y v.a. con varianza finita
 X ∈ I  , con I ⊆ℝ è un'abbreviazione di {∈ : X ∈ I }

Formulario di Probabilità e Statistica [2005-07-24] - Copyright © 2005 Nicola Asuni (info@tecnick.com – www.tecnick.com)
*** ATTENZIONE: Non posso garantire che le seguenti informazioni siano corrette. Usatele a vostro rischio. *** 3
proprietà Binomiale di parametri n e p
Cov  X , X =VarX X ~ B n , p
Cov  X , c=0 , per ogni costante c conta il numero complessivo di successi ottenuti in n prove (estrazione
Cov  X ,Y =Cov Y , X  con reimissione)
Cov  X Y , Z =Cov  X , Z Cov Y , Z 
Cov Y , Y Z =Cov  X ,Y Cov  X , Z  k 
p X k = n p 1− p , k=0,1,2,... , n
k n −k

Cov aX , Y =aCov  X , Y  EX =np ; VarX = np1− p


Cov  X , aY =aCov  X ,Y  1−2p 1−6p 1− p
sk  X = ; curt  X =3
Var  X Y =VarX VarY  2Cov X , Y   np1−np  np1− p
∣Cov  X ,Y ∣≤ VarX⋅VarY dis.Cauchy− Swartz
il numero di oggetti di tipo K che si trovano in un campione di n oggetti
correlazione estratti con reimmissione da un insieme di N oggetti che contiene K
due v.a. con varianza finita si dicono incorrelate se: oggetti di un tipo e (N-K) oggetti di un'altro è:
Cov  X , Y =0 K
X ~ B n , 
in tal caso: N
Var  X Y =Var  X Var Y 
processo di Bernoulli illimitato
coefficiente di correlazione di X, Y sequenza infinita di prove
 XY Cov  X ,Y  Binomiale negativa di parametri -n e p
 XY ≡ ≡ , dove−1≤ XY ≤1
 X⋅Y  VarX⋅VarY X ~ B −n , p

se XY è vicino a zero: X e Y sono quasi indipendenti conta il numero di insuccessi che si ottengono prima di ottenere n
se  XY è positivo: ad X grande corrisponderà in genere una Y grande successi
se  XY è negativo: ad X grande corrisponderà in genere una Y piccola p X k =
se  XY =±1 le v.a. sono una funzione lineare dell'altra: Y =aX b
k 
nk−1 pn 1− pk , k =0,1,2,. ..

1− p VarX = n 1− p
standardizzata di X EX =n ;
p p2
è una v.a. ottenuta da una v.a. X con media e varianza finite:
∗X − X il numero Y di prove necessarie per ottenere n successi:
X =
X
EX =0 ; Var X = 1
∗ ∗
k −n  
P Y = k = P  X n= k= P  X =k− n= k −1 p 1− p ,
n k−n

disuguaglianza di Cebicev per k =n , n1, n2,. ..


2
sia X una v.a. di valore atteso  X e varianza  X finite, allora per Geometrica di parametro p
ogni 0 :
X ~G  p 
conta il numero di prove necessarie per ottenere il primo successo
1
P ∣X − X∣≥  X ≤ , ovvero p X k = p 1− p
k −1
, per k=1,2,3,...
2
1 VarX = 1− p
1 EX = ;
P ∣X − X∣  X = P  X −  X  X  X   X ≥1− p p2
2
Geometrica traslata di parametro p
processo di Bernoulli X ~G '  p
sequenza di esperimenti di Bernoulli indipendenti di uguale parametro conta il numero di insuccessi prima del primo successo
k
p p X k = p 1− p  , per k=0,1,2,. ..
esperimento bernulliano o prova di Bernoulli EX =
1− p VarX = 1− p
;
è un esperimento aleatorio che può avere solo due esiti possibili: p p2
• successo : con probabilità p Ipergeometrica di parametri (N, K, n)
• insuccesso : con probabilità (1-p) X ~G  N , K , n , con N ≥k ; N ≥n
p è il parametro della prova di Bernoulli conta il numero di oggetti di tipo K che si trovano in un campione di n
oggetti estratti senza reimmissione da un insieme di N oggetti che
processo di Bernoulli limitato contiene K oggetti di un tipo e (N-K) oggetti di un altro.
il numero di prove è finito
bernulliana di parametro p
X ~ B  p p k =
 k  n −k 
K N −K
, con 0≤k ≤n ; k ≤K ;  n−k ≤ N −K 
 n
X
N
descrive l'esito di ogni prova di Bernoulli
p X 1= p ; p X 0 =1− p
VarX =n  1− 
N N −1 
K K K N −n
EX = p ; VarX = p 1− p EX =n ;
N N
la probabilità di ottenere, in n prove, una particolare sequenza di k approssimazione Binomiale
successi e (n-k) insuccessi è: per N (e quindi K) molto grandi (N > 10n) è come se estraessimo con
k n−k
p 1− p  reimissione:
la probabilità di ottenere, in n prove, almeno un successo è: K
n X ~G  N , K , n  X ~ B n ,  , per N ∞
1−1− p  N
Formulario di Probabilità e Statistica [2005-07-24] - Copyright © 2005 Nicola Asuni (info@tecnick.com – www.tecnick.com)
*** ATTENZIONE: Non posso garantire che le seguenti informazioni siano corrette. Usatele a vostro rischio. *** 4
k 
p X k  n p 1− p
k n−k
, per N  ∞ , p=
K
N
densità di Cauchy
f X t =
1

EX =np ; VarX =np 1− p


N −n
N −1    1t 2

P a X b =∫
b
1
=1/ arctan b−arctan a 
N −n 2
1t 
  (fattore di correzione per la popolazione finita (< 1)) a
N −1
densità Normale Standard
Poisson di parametro λ > 0 “curva a campana” di Gauss, o curva degli errori
Y ~ P 0    , con 0 1 −t / 2 2

f X t = e
permette di descrivere quantitativamente situazioni in cui non abbiamo 2 
accesso ai valori di N e p, ma possediamo un unica informazione b
1 −t /2
P a X b =∫
2
numerica: il parametro λ (numero medio di arrivi) e dt
−
k a 2 
pY  k = e , per k = 0,1,2, 
k! funzione di ripartizione di X (f.d.r.)
EY =  ; VarY = equivale alla densità discreta nel caso continuo
1 1 F X t: ℝ[0,1]
sk  X = ; curt  X =3
   F X t= P  X ≤t  , per ogni t ∈ℝ
t
proprietà F X t= ∫ f X  y dy , per X continua
se X i ~ P 0  i  allora: −∞

X 1 X 2 X n~ P 0  1  2   n  F X t= ∑ p X  xk  , per X discreta


x k≤t
approssimazione della Binomiale
per N molto grande e p molto piccolo: proprietà
X ~B  N , p  Y ~ P 0  Np  , P  X = k  P  Y = k  se t1 t2 ,  X ≤t 1 ⊆ X ≤t2  , P  X ≤t 1≤ P  X ≤t2  ,
 F X t  è monotona crescente 
processo Poisson di intensità ν
F X t1 per t ∞
permette di calcolare probabilità di eventi che accadono in un certo
intervallo di tempo diverso da quello su cui abbiamo informazioni di F X t 0 per t −∞
partenza; F X b− F X a= P  X ≤b− P  X ≤a= P a X ≤b ,
posto  =t con  numero medio di arrivi nell'unità di tempo, il con a , b∈ℝ , ab
numero X t di arrivi nell'intervallo di tempo [ 0, t ] è dato da la f.d.r. di una v.a. continua è sempre una funzione continua
X t ~ P 0  t  nei punti in cui la densità è continua; in questi punti è derivabile:
'
k F X t= f X t 
 t 
p X  k =e− t , per k = 0,1,2, quantile α-esimo (qα)
t
k!
EX t = t ; VarX t = t P  X ≤q = , con q ∈ a , b⊆ℝ , ∈0,1
variabili aleatorie continue
variabili aleatorie legate al processo di
densità continua fx Poisson
determina la legge della v.a. continua X;
è una densità di probabilità legge Esponenziale di parametro ν
P  X ∈ I ≡∫ f x t  dt , con I ⊆ℝ Y ~ Esp , con 0
I misura l'istante del primo arrivo in un processo di Poisson Xt di
intensità ν, o il tempo di attesa tra due arrivi successivi;
f x :ℝ ℝ ; f x t ≥0 , per ogni t ∈ℝ ; ∫ f x t dt =1 è l'unico modello adeguato a rappresentare il tempo di vita di un
ℝ apparecchio non soggetto ad usura
− t
proprietà F Y t=1−e , per t0
P  X =t =0 , per ogni t∈ℝ (la probabilità che assuma un F Y t=0 , per t≤0
− t
valore fissato è nulla (integrale di un punto)) f Y t =e , per t0
P  X ≤a= P  X a f Y t =0 , per t0
P a≤ X b= P a X b 1
1
esempi di densità continue E Y = ; Var Y = 2
 
densità uniforme sk  X =2 ; curt  X =9
1 stimatore non distorto per legge Esponenziale
f X t = I t , a ,b ∈ℝ , ab
b −a a , b  n−1 n−1
I a ,b  t=1 , per t∈a , b U =T = n
n
con
I a ,b  t=0 , per t ∉a ,b 
(funzione indicatrice)
∑ Xi
i=1
1 1
P  X ∈ J =∫ I a , b  t  dt= ∣a , b ∩ J∣
J
b−a b −a

Formulario di Probabilità e Statistica [2005-07-24] - Copyright © 2005 Nicola Asuni (info@tecnick.com – www.tecnick.com)
*** ATTENZIONE: Non posso garantire che le seguenti informazioni siano corrette. Usatele a vostro rischio. *** 5
n−1 n−1 1 modello Normale

= = ,  stima di 
n
n X n
∑Xi legge Normale standard
i =1
Z ~ N 0,1 
legge Gamma di parametri n (intero positivo) e ν 1
t −y 2

(intero positivo) F Z t= ∫ e 2


dy ≡t
 2 −∞
Y ~ n ,  −t 2

1
misura l'istante dell'ennesimo arrivo in un processo di Poisson Xt di f Z t = e 2 ≡ t
intensità ν  2
n−1
t 
k
E Z =0 ; Var Z =1
F Y t=1− ∑ e
−t
, per t 0
k=0 k! proprietà
F Y t=0 , per t≤0 −t =1− t  ,  simmetria 
n −1
− t t n−1 − t calcoli con i quantili
f Y t =e =C n ,  t e , per t 0 ,
n−1! posto z  quantile α-esimo della legge Normale standard:
f Y t =0 , per t0 z =− z 1−
n
 P Z  z  =
C n ,=
n−1! P Z  z 1−=
n n P ∣Z∣ z 1−/2 =
E Y = ; Var Y = 2
  P ∣ Z ∣ z 1 /2=
legge Gamma di parametri r e ν (reali positivi)
legge Normale (o gaussiana) di media µ e
Y ~ r , 
descrive il tempo di vita di un apparecchio la cui propensione al guasto
varianza σ2
2
cresce col tempo, fino al limite ν X ~ N  ,  
r −1 −t
f Y t =C r ,  t e , per t0 rappresenta bene gli errori di approssimazione
t −
f Y t =0 , per t0 F X t= 
r r 
E Y = ; Var Y = 2 −t −2
  1 t− 1 22
f X t =  = e
assenza di memoria    2
P Y ≥T −t∣Y ≥T =P Y ≥t  EX = ; Var X = 2
P Y ≥T t = P Y ≥t⋅P Y ≥T  =0 ; curt  X =3 sk  X
se una v.a. continua soddisfa questa proprietà, allora ha legge X −
la v.a. Z = ha legge Normale standard
Esponenziale se è continua e legge Geometrica traslata se discreta 
istantaneous failure rate (propensione istantanea proprietà
al guasto) 2 2
posto X 1~ N 1,  1  , X 2~N 2,  2  indipendenti:
f Y t 2
X 1 X 2 ~ N 1 2,  1 2
2
Z t =
1− F Y t posto a ,b∈ℝ :
2 2
per la legge Esponenziale: aX 1 b~ N a 1b , a 1 
Z t = , per t 0 relazione tra legge Normale e legge Normale standard
per la legge Gamma: Z ~ N 0,1 ⇒  Z ~ N  ,  
2

n−1 n n−1
t  t 2 X −
Z t =C n n−1 k = X ~ N  ,   ⇒ ~ N 0,1
t n−1! n−1
 t
k

∑ k! ∑ k!
k=0 k=0 errori
densità di Weibull Y =misura di una grandezza fisica
utile a rappresentare il tempo di vita di un apparecchio =valore vero

posto Z t =c t si trova: X =errore di misura
−c t 1
=errore sistematico
F Y t=1−e 1 , con −1 E c =errore casuale
1
−c t 2
  =inacuratezza della misura
f Y t =c t e 1 2
X ~ N  ,   , X = E c
se 0 l'apparecchio invecchia 2
se −10 l'apparecchio migliora col tempo
E c ~ N 0, 
se =0 si ritrova la legge Esponenziale E  E c =0
EY =
media campionaria
se X i ~ N  , 
2
sono v.a. indipendenti ed identicamente
Formulario di Probabilità e Statistica [2005-07-24] - Copyright © 2005 Nicola Asuni (info@tecnick.com – www.tecnick.com)
*** ATTENZIONE: Non posso garantire che le seguenti informazioni siano corrette. Usatele a vostro rischio. *** 6
[  ]
distribuite (i.i.d.): 3
3
2 X −
 sk  X = =E
Xn ~ N  ,  3/2
2 
n
coefficiente di curtosi di una v.a. X con µ'4 finito
2

E Xn = ; Var X n =
n misura quanto la densità di X sia appuntita

[  ]
4
media campionaria standardizzata 4 X − 2
Xn − curt  X = 2 =E , = EX ,  =Var X
∗ 2 
S =
n , n=1,2,3,
/  n
teorema del limite centrale statistica inferenziale

P S ≤t t per n∞ , t ∈ℝ
n campionamento e stime
approssimazione Normale
2 definizioni
Date X i v.a.i.i.d. , EX i= , VarXi= con n abbastanza
grande: modello statistico

  
2 famiglia di leggi di v.a., dipendenti da uno o più parametri incogniti:
 t−
Xn ≃N  ,  ossia P  Xnt ≃ n  { pX  x ; :  ∈ I }
n  è un vettore di parametri

 
n n
t −n 
∑ X i ≃N  n , n 2 ossia P  ∑ X i t ≃
n
campione casuale di ampiezza n
i=1 i=1 estratto da una popolazione di densità p X  x ;  è una ennupla di v.a.
approssimazione Normale di Gamma per n grande: indipendenti e identicamente distribuite (i.i.d)  X 1, X 2, , X n  ,
Y ~ n ,  ciascuna avente legge p X  x ;   .
n n stima di parametri e stimatori
Y ≃N  , 2 
 
stima puntuale dei parametri
F Y t=P Y t ≃  
 t−n
n
stimare il valore vero del parametro (o dei parametri) a partire dal
campione casuale
approssimazione Normale della Binomiale: stima del parametro p della popolazione bernulliana
approssimazione utile in problemi di campionamento p = xn , con xi valori effettivamente osservati
NOTA: vale se: np5 ; n1− p5
statistica T
Y ~ Bn , p
è una qualsiasi v.a. T funzione del campione casuale  X 1, X 2,  , X n 
Y ≃ N  np , np 1− p
di ampiezza n estratto da una popolazione di legge p X  x , :
F Y t=P Y ≤t≃
t−np

np 1− p 
,  per v.a. continua n
T = f  X 1, X 2, , X n  , con f : ℝ ℝ

 
k 0.5−np stimatore del parametro ϑ
F Y  k= P Y ≤k ≃ , statistica che viene usata per stimare il valore del parametro 
np1− p
k=0,1,2,, n ,  per v.a. discreta è corretto (non distorto) se ET = altrimenti è detto distorto

momenti ed indici di forma per v.a. stima del parametro ϑ


 f  x1, x2,  , x n , calcolato a campionamento eseguito
=
momento r-esimo di X
' r stimatore consistente
r = E  X  var T n  0 per n∞ , conT n stimatore corretto di 
'r =∑ xrk p X  x k  , per X discreta valore atteso della media campionaria
k
E X n=
 =∫ x f X  x dx , per X continua
' r
r varianza della media campionaria
ℝ 2

momento r-esimo centrato di X Var Xn =
r
n
r = E  X −EX  
legge dei grandi numeri
r =∑  x k −r p X  x k  , con = EX , per X discreta P {∣X n−∣} 0 , per n  ∞
k

r =∫  x− f X  xdx , per X continua


r stime
stima di  = h   
ℝ 2

coefficiente di asimmetria (skewness) di una v.a. n


1

2
X con µ'3 finito S 2n≡  X − X  ,  varianza campionaria 
n− 1
i n
misura l'assimetria di X rispetto al valore atteso =i 1
a campionamento effettuato:

Formulario di Probabilità e Statistica [2005-07-24] - Copyright © 2005 Nicola Asuni (info@tecnick.com – www.tecnick.com)
*** ATTENZIONE: Non posso garantire che le seguenti informazioni siano corrette. Usatele a vostro rischio. *** 7
di legge N   ,  , allora:
n n 2
1 1 n
s2n ≡ ∑  x − x 2= n−1
n−1 i=1 i n
∑ xi2− n−1  xn 2
Xn−
i=1
~ t  n −1 
stima popolazione Normale S /n 2
n
 = xn
 calcoli con i quantili
 = sn posto t  n quantile α-esimo della legge t(n):
2 2

se µ è nota: P T t  n=
n
1 P T t 1− n=
2 = ∑
2
 X −  i
n = i 1 P ∣T∣t 1− / 2 n=
stima popolazione Gamma P ∣T ∣t 1 / 2  n=
x x
2 t 1 − n−1≃ z 1 , approssimazione per n120
 = 2n ; r = n2 2 2
sn sn
approssimazione di quantili tramite
leggi interpolazione lineare
y= mxq ,
legge Chi quadro con n gradi di libertà
equazione della retta che passa per i punti {q 1, t   q1 }, {q 2, t  q 2 }
n 1
Y ~X  n  ≡ Y ~  ,  t   q 2 − t   q 1
2

2 2 t   x = t  q 1−  x− q1 , con q1 x q 2


Xi sono v.a. indipendenti, ciascuna di legge N(0,1) q2 − q1
n t
−1 −
f Y  t = c n t 2 e 2 , per t  0 legge di fisher con m e n gradi di libertà
U/m
f Y  t = 0 , per t 0 X ~ F  m , n  ; con X = , U ~ X 2m  , V ~ X 2n 
EY = n ; Var Y =2n V /n
proprietà proprietà
1
2 2
posto Y 1 ~ X n1  , Y 2 ~ X n 2  indipendenti: ~ F n , m 
2 X
Y 1 Y 2 ~ X n1 n2 P  X  F  m , n = 
intervallo a cui una v.a. di legge Chi quadro appartiene con probabilità
α:
1 1
P  =1−
P  X 1−   n Y  X 1   n = 
2 2 X F   m , n
2 2 1
= F 1 − n , m 
approssimazione Normale di Chi quadro per n grande F  m , n
2
X  n ≃ N  n , 2n  , per n grande S1
2
= F  m−1,n −1
t −n
 
2
P  Y  t ≃ S2
 2n intervallo di confidenza al livello del 100α% per
X   n ≃ z   2n  n
2
h(ϑ)
approssimazioni Sia  X 1, X 2,  , X n un campione casuale estratto da una
Sia X i , X 2, , X n un campione casuale estratto da una popolazione popolazione di densità f  x ;  ; siano T 1=t 1  X 1, X 2, , X n ,
di legge N   ,  , allora:
2
T 2 =t 2  X 1, X 2, , X n  due statistiche, e sia h    una funzione

 
n
X i − del parametro che si vuole stimare; fissato un numero  ∈ 0,1  ,

i =1 
~ X 2  n l'intervallo aleatorio (T1, T2) si dice intervallo di confidenza al 100α%

 
per h(ϑ) se:
n
X − X
∑ i  n ~ X 2 n−1 P T 1 h   T 2 = 

i =1
a campionamento eseguito l'intervallo (t1,t2) si dice “calcolato al
2
n−1 S n campione”;
~ X 2  n−1 h(ϑ) appartiene all'intervallo (t1, t2) con una confidenza del 100α%;
2
t1 e t2 sono detti limiti di confidenza
S n e Xn sono tra loro indipendenti
2

intervallo di confidenza per la media


legge t di student a n gradi di libertà (di una popolazione Normale o popolazione qualsiasi con n grande
T ~ t  n  ; con T =
Z
, Z ~ N  0,1 , Y ~ X  n 
2  n≥30  )
Y /n 
 = Xn ± z 1 / 2
 = X n± E ,  con varianza nota 
 
 n 1 
t2 − 2 n
f T  t = cn 1 , per t ∈ℝ


2
n Sn
ET = 0 ,  tranne per n =1 per cui nonesiste finito   Xn ±t 1 n−1
= , con varianzaincognita 
2
n
per t  ∞ la t di student tende alla Normale standard
approssimazioni
Sia X i , X 2, , X n un campione casuale estratto da una popolazione

Formulario di Probabilità e Statistica [2005-07-24] - Copyright © 2005 Nicola Asuni (info@tecnick.com – www.tecnick.com)
*** ATTENZIONE: Non posso garantire che le seguenti informazioni siano corrette. Usatele a vostro rischio. *** 8
stima dell'ampiezza per limitare l'errore E0 H0 H1 rifiutare H0 se
2

n =t 1  / 2  n− 1 
2
2
,  con varianza nota  = 0 ≠ 0 ∣z∣ z 1− / 2
E0
≤ 0 0 z z 1−
intervallo di confidenza per la frequenza p
valido per una popolazione bernoulliana e per grandi campioni ≥0 0 z− z 1−
 n≥30 
test sulla media di una popolazione Normale di
p= X n ± z 1/2
n 
X n  1− X n 
; se: n xn5 , n1− xn 5

stima dell'ampiezza per limitare l'errore E0


varianza incognita
xn−0
t=
sn / n
 
2
z 1/2
n= H0 H1 rifiutare H0 se
2E0
E 0 corrisponde a metà dell'intervallo di confidenza. = 0 ≠ 0 ∣t∣t 1−/ 2  n−1

test di ipotesi ≤ 0 0 tt 1− n−1


ipotesi statistica ≥0 0 t −t1− n−1
è un'asserzione sul valore vero di un parametro incognito;
si dice semplice se specifica completamente il valore del parametro, test sulla frequenza p di una popolazione
altrimenti si dice composta bernoulliana
ipotesi nulla H0 xn− p0
z=
H 0 : ∈  0  p0 1− p0/ n
ipotesi che si ritiene vera “fino a prova contraria”; H0 H1 rifiutare H0 se
rifiuteremo H0 solo se i dati campionari forniranno una forte evidenza
statistica contro di essa p= p0 p≠ p0 ∣z∣z 1 − /2
ipotesi alternativa H1 p≤ p0 p p0 z z 1−
H 1 : ∉ 0
ipotesi vera solo se H0 è falsa p≥ p0 p p0 z− z 1−
errore di tipo I test sulla differenza di due medie con varianze
rifiutiamo H0 quando è vera;
questo è considerato l'errore più grave
note
estraiamo due campioni n,m da due popolazioni normali indipendenti
errore di tipo II con varianze note;
accettiamo H0 quando è falsa questo test non va usato quando una varianza è almeno 4 volte l'altra
regione critica o regione di rifiuto X n−Ym−
z=


è l'insieme R dei possibili risultati campionari che portano a rifiutare H0 2
X Y
2

data la regola di decisione: si rifiuti H 0 seT  X 1, X 2,  , X n ∈ I : 


n n
R={ x1, x 2,  , x n  : T  x1, x2,  , x n ∈ I }
H0 H1 rifiutare H0 se
la probabilità di rifiutare H0 prima del campionamento:
P T  X 1, X 2,  , X n ∈ I 

 X =Y   X ≠Y  ∣z∣ z 1− / 2
ampiezza del test (o livello di significatività)  X ≤Y   X Y  z z 1−
 =sup ∈ P  T  X 1, X 2,  , X n ∈ I 

0
 X ≥Y   X Y  z− z 1−
rappresenta la massima probabilità di rifiutare l'ipotesi nulla quando
questa è vera; test sulla differenza di due medie con varianze
va stabilito piccolo a priori prima di eseguire il campionamento
incognite
p-value estraiamo due campioni n, m da due popolazioni normali indipendenti
numero pari al minimo livello di significatività a cui i dati campionari con varianze incognite;
consentono di rifiutare l'ipotesi nulla; questo test non va usato quando una varianza è almeno 4 volte l'altra
se p-value = 0 siamo praticamente certi di non sbagliare X n−Yn−
t=

 
varianza campionaria pesata 2 2
media pesata delle varianze campionarie di due campioni n, m 1 1 n−1S X  m−1S Y

n n n m nm−2

 n−1  S 2X  m−1 S 2Y i=1 ∑  X i− Xn ∑  Y i −Yn 


i =1
H0 H1 rifiutare H0 se
S 2= =  X =Y   X ≠Y  ∣t∣t 1−/2  nm−2
nm− 2 n m −2
test sulla media di una popolazione Normale di  X ≤Y   X Y  tt 1− nm−2
varianza nota  X ≥Y   X Y  t−t1− n m−2
xn − 0
z= nel caso di campioni osservazioni accoppiate si considerano le
/n differenze delle medie
Formulario di Probabilità e Statistica [2005-07-24] - Copyright © 2005 Nicola Asuni (info@tecnick.com – www.tecnick.com)
*** ATTENZIONE: Non posso garantire che le seguenti informazioni siano corrette. Usatele a vostro rischio. *** 9
k
test su due frequenze di due popolazioni
bernoulliane indipendenti
classi A1 A2 ... Ak ∑
i =1
estraiamo due campioni n, m da due popolazioni bernoulliane freq. rel. attese p1 p2 ... pk 1
indipendenti X ~ B  p 1 , Y ~ B  p 2  ; freq. ass. attese np 1 np 2 ... np k n
n m
freq. ass.
questa procedura è valida se ∑ xi 5 ; ∑ y i 5 osservate
N1 N2 ... Nk n
i=1 i=1 2 2 2
scarti quad. np 1 −N 1  np 2 −N 2  np k − N k 
xn− ym n xn m ym ... Q
z= con p= pesati np 1 np2 npk

 1 1 nm
p 1− p   le classi andranno accorpate in maniera tale che le frequenze assolute
n m attese siano tutte maggiori o uguali a 5;
H0 H1 rifiutare H0 se Chi quadro calcolato dal campione:
2
∣z∣z 1 − /2
k
 np i− N i 
p1= p2 p1≠ p2 Q= ∑
=
i 1
npi
p1≤ p2 p1 p2 z z 1− 2
Q  X  k−1 per n ∞ , con pi assegnate a priori
p1≥ p2 p1 p2 z− z 1− 2
Q  X  k−1−r  per n∞ , con pi calcolate dopo
aver stimato r parametri incogniti
inferenze su una varianza
2 fissato α, si stabilisce la regola di decisione:
 n−1 s n
2 si rifiuti H 0 se Q  X 1−  k −1 −r  (si calcola tramite tabelle)
2
X =
02 il p-value corrispondente al valore Q è:
 = P  X  Q  , con X ~ X  k − 1−r 
2
H0 H1 rifiutare H0 se
2
 =0
2 2
 ≠0
2 2 2
X  X 1− /2 n−1 o X  X / 2 n−1
2 2 test Chi quadro di indipendenza
verifica l'indipendenza o meno di due variabili;
2 2 2 2 2 2
 ≤0  0 X  X 1− n−1 si costruisce una tabella di contingenza di rs classi:
2 2 2 2 2 2
A1 A2 ... A r Tot.
 ≥0  0 X  X  n−1 B1 n11 n 21 ... nr1 n⋅1
intervallo di confidenza B2 n12 n 22 ... nr1 n⋅2

 
... ... ... ... ... ...
 n −1 s2n  n−1  s 2n Bs n 1s n 2s ... nrs n⋅s
,
X 1   n −1  X 1−   n − 1 
2 2
Tot. n 1⋅ n2⋅ ... nr⋅ n
2 2

inferenze su due varianze si costruisce una tabella di rs classi:


A1 A2 ... Ar
estraiamo due campioni n, m da due popolazioni normali indipendenti
con medie incognite; n1⋅n1 n2⋅n1 nr⋅n1
2
B1 ...
s X
n n n
F= 2 n1⋅n2 n2⋅n2 nr⋅n2
s Y B2 ...
n n n
H0 H1 rifiutare H0 se
... ... ... ... ...
2
 =
2 2
 ≠
2
F  F 1−/ 2 n−1, m−1 n1⋅ns n2⋅n s nr⋅ns
X Y X Y Bs ...
F  F  / 2 n−1, m−1 n n n
ni⋅ n⋅ j
2
 X ≤Y
2 2
 X Y
2
F  F 1− n−1, m−1 ciascuna delle frequenze attese deve essere: ≥5
n
2 2 2 2
F  F 1− n−1, m−1 si calcola il chi-quadro:
 X ≥Y  X ≤Y 2
ni⋅ n⋅ j
intervallo di confidenza r s  nij − 
n
Q= ∑ ∑
 
2 2
1 sX 1 sX = =
ni⋅ n⋅ j
, i 1 j 1
F 1 n−1, m−1 s 2Y F 1 − n−1, m−1 s 2Y n
2 2 fissato α, si stabilisce la regola di decisione:
2
test Chi quadro di adattamento si rifiuti H 0 se Q  X 1− r−1 s−1
ha lo scopo di verificare se certi dati empirici si adattino bene ad una (si calcola tramite tabelle)
distribuzione teorica assegnata;
si costruisce la seguente tabella: il p-value corrispondente al valore Q è:
2
=P  X Q  , con X ~ X  r−1 s−1 

Formulario di Probabilità e Statistica [2005-07-24] - Copyright © 2005 Nicola Asuni (info@tecnick.com – www.tecnick.com)
*** ATTENZIONE: Non posso garantire che le seguenti informazioni siano corrette. Usatele a vostro rischio. *** 10

Potrebbero piacerti anche