Sei sulla pagina 1di 30

Domande Teoriche Statistica

& L'impostazione assiomatica al calcolo della probabilità.


ÌS Dopo aver definito la funzione di ripartizione ed averne descritto le principali caratteristiche, dire come si
stabilisce se è relativa ad una variabile casuale discreta o continua e come si determina la corrispondete
funzione di probabilità o di densità.
Definire la funzione di ripartizione, richiamarne le proprietà e dimostrare che è funzione monotona non
decrescente.
4. Illustrare i presupposti logici del metodo della massima verosimiglianza.
Si supponga di voler stimare un parametro incognita di una popolazione disponendo di un campione casuale
**■
ed usando il metodo della massima verosimiglianza:
illustrare il significato della funzione di verosimiglianza
giustificare perché la stima si ottiene massimizzando il valore della funzione di verosimiglianza rispetto al
parametro.

$ Illustrare il significato della funzione di verosimiglianza e giustificarne l'uso nel metodo di stima della massima
verosimiglianza.
Esporre il metodo di stima della verosimiglianza e le proprietà degli stimatori ottenuti con tale metodo.

i Utilizzando la nozione di spazio degli eventi elementari, definire la variabile casuale. Illustrarne inoltre la
differenza tra variabile casuale discreta e continua.
\/t9. Dimostrare la proprietà di internalità (CAUCHY) della media aritmetica. L2 2 —
' 7 * . Dimostrare la proprietà-assi curativa della media aritmetica. C .c v : .2 .. ,x: , ! v«
11. Indipendenza statistica e connessione: definizione e misure.
12 . La variabile casuale Binomiale: definirla e illustrarne la rilevanza pratica.
verificare la condizione di normalizzazione.
Determinare la media della variabile casuale Binomiale.
x/ k : Definire i quantjli ed illustrarne la rilevanza statistica.
Si definisca il coefficiente di correlazione, si indichi per quale tipo di variabili può essere calcolato e se ne
illustri brevemente il significato.
16. Il metodo dei minimi quadrati.
17. Le proprietà degli stimatori.
18. Definire la varianza, illustrane la rilevanza statistica, richiamarne le principali proprietà e dimostrane una
oppure
Varianza: significato, definizione, proprietà.
19. Definire il teorema centrale e illustrarne la sua importanza.
20 . Dopo aver esposto la proprietà di consistenza, dimostrare che la media campionaria è uno stimatore
consistente della media delle popolazione (DISUGUAGLIANZA Di CHEBICHEV).
21 . Determinare la varianza delle medie campionarie e illustrane l'importanza.
22. Illustrare le proprietà statistiche della media campionaria nel caso di campionamento bernoulliano.
23. Illustrare le proprietà statistiche della media campionaria nel caso in cui un campionamento casuale con
ripetizione. ^
24. La concentrazione: definizione, condizione di applicabilità e giustificazione delle sue misure.
25. Dopo aver definita ii concetto di dipendenza in media, dimostrare che l'indipendenza assoluta comporta
l'indipendenza in media.
26. Dopo aver dato la definizione di elementi incompatibili e quella di eventi indipendenti, dimostrare per due
eventi non impossibili.
27. Illustrare l'utilità che comporta l'uso di stimatori corretti.
28. Giustificare l'uso degli stimatori corretti.
\/?5- Definire la mediana e indicare quando dovrebbe essere scelta come valore medio. M . t

l
Gutfiver
30. Data una distribuzione doppia (X,Y) determinare, utilizzando la scomposizione della varianza, l'indice (età) q2y
e illustrane il significato.
31. Illustrare il metodo di stima dei momenti ed illustrarne l'uso.
Nv/'3 ^ Illustrare il concetto di media secondo CHISINI. ^ (q^
33. Giustificare l'uso degli intervalli di confidenza ed illustrarne la costruzione per stimare la media di una
, popolazione normale.
34. Dimostrare che l'indipendenza assoluta comporta in correlazione.
35. Giustificare perché il coefficiente di correlazione è un indice che misura l'intensità della dipendenza lineare
tra 2 caratteri.
36. Si definisce il coefficiente ci correlazione e si individui per quale tipo di variabili può essere calcolato e si ne
illustri brevemente il significato. .
37. Media potenziata di ordine 'S, : definizione e proprietà, y,p, ? <S ,7
(§§4 La mutua variabilità e la variabilità da un centro: aspetti comuni e specifici.
39. Il campionamento: indicare per quale motivo si effettuano rilevazioni campionarie; illustrare come si
ottengono campioni rappresentativi.
40. Sapendo che A e B son due eventi stocasticamente indipendenti, accertare se l'evento complementare A è
^^ stocasticamente indipendente dall'evento B.
41. Sia A un evento di un certo sperimento, usando gli assiomi del calcolo della probabilità dimostrare che
P(A*) = 1- P(A).
42. Definire e illustrare le proprietà della consistenza (convergenza in probabilità) degli stimatori.
43. Descrivere le principali caratteristiche della distribuzione normale ed illustrare il ruolo di tale distribuzione
• nella statistica inferenziale.
44. Indici di Posizione.
45. Indici di Dispersione.
46. Proprietà dei minimi quadrati.
47. La media aritmetica: definizione e proprietà. \ v r -• ; a
48. Moda.
49. Momenti.
50. Campo di varianza o Range.
51. Differenza interquartile.
52. Scostamenti medi.
53. Devianza.
54. Scarto quadratico medio.
55. Differenze medie.
56. Coefficiente di variazione.
57. Variabilità statistiche doppie.
58. La Funzione di Regressione
59. La retta di Regressione.
60. La dipendenza in media.
61. Indipendenza di due eventi.
62. Covarianza.
63. Scomposizione della varianza.
64. Standardizzazione di una variabile casuale.
65. Standardizzazione di una variabile normale.
66. Variabile normale (o di GAUSS).
67. Indici di mutua variabilità.
68. L'ipotesi.

Gutfiver
Domande-Risposte Teoriche Statistica
yC L'impostazione assiomatica al calcolo della probabilità.
La probabilità che si verifichi l'evento E € fi. P(E] è una funzione d'insieme che lega ad ogni
evento E un valore compreso tra 0 el.
Assiomi P(E) > 0
P(E) = 1 se A fi 5= 0 allora P(A U B)= P(A] + P(B)
Teorema della probabilità totale -> P(A U B] = P(A) + P(B) - P(A/B]
Teorema della probabilità composta -> P(A fi B] = P(B) * P(A/B) = P(A) * P(B/A).
Nel calcolo della probabilità aiuto l'impostazione assiomatica con 3 assiomi.
Il 1° assioma di non negatività P(A)>0; vale solo se A è un evento impossibile.
Il 2° assioma di normalizzazione P(fl] = l se considero un evento che si realizzerà sarà=l
Il 3° assioma dell'additività Ai fi Aj = 0; Pi Ai fi Aj) = PiAi) + Pi Aj). Si considerano due
eventi tra loro incompatibili (cioè o si verifica l'uno o l'altro, mai entrambi] la probabilità che si
verifichi l'uno o l'altro è uguale alla probabilità di uno o + la probabilità dell’altro.

Dopo aver definito la funzione di ripartizione ed averne descritto le principali


caratteristiche, dire come si stabilisce se è relativa ad una casuale discreta o continua e
come si determina la corrispondente funzione di probabilità o di densità.
Definizione: si dice funzione di ripartizione di X e si indica con Fx(x) la funzione con dominio
nei reali e codominio neH'intervallo [0 ; 1]. Definito come la frazione degli individui che
assumono un valore minore o uguale alla x.
Definito da Fx(X).= Pr(X<x) si associa ad x appartenente ai reali la frequenza relativa delle
unità statistiche per cui X<x.
| Fx(x): R [o; 1]
(Fx(x): Pr (X < x) x s R; X < x
L accumulazione è definito solo nel supporto, invece la funzione di ripartizione è definito tra 1-
°o; +ool. Queste due funzioni coincidono nei punti compresi nel supporto poiché negli altri
punti l'accumulazione non è definita.
Le Proprietà:
a] Funzione monotona non decrescente.
b] limy_ _ ; C/7A-(» = 0
c] k F.v(.v) = 1
d] Funzione continua a destra
lim F x ( , x ) = F x i x i )
v ’ '
e] La relazione tra Funzione di Ripartizione e la Funzione della Relativa è dato:
Px(xi]= Fx(xi) - Fx(xi-l) dove i= l..,.k
SE È RELATIVA:
Variabile Casuale Discreta: data una variabile casuale discreta x, si dice funzione di ripartizione
, la funzione che corrisponde ai valori x la probabilità che X <x F(x)= P(X<x).
Valgono le proprietà della statistica descrittiva. Questa funzione si chiama Funzione di
Ripartizione Teorica. La differenza delle frequenze relative e che qui abbiamo la probabilità e
la variabile è casuale.
Variabile Casuale Continua: chiameremo funzione di densità di frequenza della variabile
casuale X continua la funzione fx(x) per cui vale la seguente relazione.: P(a<x>b) = f fx(x)dx

Gutfiver
fx(x) = { fx(x)>0 (funzione di non negatività)
{ J f(x)dx=l (condizione di normalizzazione)
Determinare la Funzione di Probabilità o Densità: Nei modelli continua la probabilità di un
punto è nullo. Pr(X<x)=P(a<x<b).
Data una variabile casuale continua X, la funzione di ripartizione è la funzione che fa
corrispondere ai valori X la probabilità accumulata.
P(X<x)= Fx(x)=f fx(t)dt.
Le proprietà sono le stesse per la statistica descrittiva.
Variabile Discrete: proprietà della probabilità sono le stesse della frequenza relativa
1. P(xi)>0 2.£ P8xi)=l condizione di normalizzazione.

Definire la funzione di ripartizione, richiamarne le proprietà e dimostrare che è funzione


monotona non decrescente.
Definizione: si dice funzione di ripartizione di X e si indica con Fx(x) la funzione con dominio
nei reali e condominio nell'intervallo [0; 1]. Definito come la frazione degli individui che
assumono un valore minore o uguale alla X. Definito da Fx(X).= Pr(X<x) si associa ad x
appartenente ai reali la frequenza relativa delle unità statistiche per cui X<x. La funzione di
ripartizione è definito tra 1- oo; +co],
{ Fx(x): R [o; 1]
Fx(x):Pr (X<x) x £ R; X<x.
Le Proprietà:
f) Funzione monotona non decrescente.
g) _ coFx (x) = 0
h) l i m ^ + ooFjfGO = 1
i) Funzione continua a destra
lini Fx(x) — Fxixi)
x~*yj-r

j) La relazione tra Funzione di Ripartizione e la Funzione della Relativa è dato:


Px(xi)= Fx(xi) - Fx(xi-l) dove i= l....k
Dimostrazione Funzione Monotona Non Decrescente: Al valore del supporto la funzione di
ripartizione è costante e crescente: xi xj j=l+i
F(xi)= P1+P2 +P3 +P4...... +Pi F(xj)= Pl +P2+P3 +...+Pj
xi<xj -> F(xi) > F(xj) F(xj) > F(xi) P1 +P2 +P3 +......+Pl +P2 +P3 + Pj+Pi ^ Pj<0 (ciò
significa che la frequenza non può essere negativa)
Dimostrazione:
xb>xa -> F(xb)>(xa) se (xb)<(xa) -> F(xb)= Pr(X<xb); F(xa)= Pr(X<xa).
F(xb)-F(xa) -> Pr(xa<x<xb) > 0 -> F(xb)-F(xa) > 0 -> F(xb) > F(xa).
F(xb)= F(xa) + P(xa<x<xb) -> F(xb)-F(xa) = P(xa<x<xb) -> F(xb) > F(xa)

4. Illustrare i presupposti logici del metodo della massima Verosimiglianza,


A) Massima Verosimiglianza: I metodi di stima sono quei metodi che si permettono di
individuare caso per caso stimatori. Ho una popolazione X con distribuzione bernoulliana, un
campione din individui xi....xn. Definiamo la funzione di densità o la probabilità che si
manifestano in un determinato campione. Lo posso calcolare perché le variabili campionarie
sono indipendenti e identiche:
P(xl, x2 ...xn : fi) = FI* x-xi * n *2 (1- tt) 1-x2 * fjxn (1- ti) x-xn.
La probabilità dipende dalla ["]• La variabile che campiona quella probabilità non è X, ma è il
parametro . La probabilità congiunta della realizzazione campionaria è detta Funzione di
Verosimiglianza = L ( tt). È una funzione di n perché ci sono xi valori.
Idea di questo metodo: massimizzo la probabilità del campione che ho tenuto per me è più
verosimile di tutti, rispetto alla unica varabile che ho. Il valore di tt che mi massimizza la
probabilità del campione è il valore + accettabile possibile, poiché questo campione è + vero.
Si chiama metodo di massima verosimiglianza perché vado a cercare quel valore di ti che
rende massimo la probabilità della realizzazione campionaria: max L(tt),
Invece di utilizzare L(tt) usiamo ln=(L(Ti)). Il massimo che io determino sul logaritmo è lo
stesso che io avrei determinato sulla funzione originaria.
Ln(n)= In L Tt=ln( J~[ ttxì) (1- ti] 1- ) = £ ln(u ] (1- tt) 1_ -> facciamo la derivata per
massimizzare.
D(ln tt + ln(l-Ti) )= d(xilmr + (1-xi)* In(l-u)
L’(tt)= H D(xi*ln tt+ (l-x i)ln (l- tt)= £ [xi/ ti + (1-xi) 1 /1 - tt (-1)]= £ (1- tc) x ì - tt (1-xi) / tt(1- tt)
(ciò che faremo ora, non è uno stimatore di massima verosimiglianza. Devo fare la derivata
secondo per trovare e essere sicuri che quello è un massimo.. Dopo di che si fa la L''(tt) quello tt
è un p unto di massimo. Il metodo di massima verosimiglianza ci permette di determinare
direttamente la stima)
E [(1- TT)xi - TT (l-xi)]= 0 -> (1- tt) Sxi - tt X (l-xi)=0 £ xi - tt£ ( 1 -xi) = 0 ^ Xxi - tt£ - TT(n-
£x i)= 0
Xxi - ttX xi - n TT + ttX xì =0 ->TTA= £ x / n -> T i= £xi/n
Tn= irA="xn= £ x i/n
Dopo questi passi trovo lo stimatore, sostituendo ai valori della realizzazione campionarie le
corrispondenti variabili casuali.
B) Metodo Analogico: presuppone la stessa cos che ho nella popolazione: tt è la media
rispetto alla varabile casuale bernoulliana. X ~ E (À) dove X >0.
Fx(x)= À e dove x>0, abbiamo una funzione continua, estraiamo da x l ...x n ..
Ora costruiamo la funziona di max. verosimiglianza L(À)= f] Xe , poi massimizzo rispetto al
campione che ho ottenuto.
L(À)=£ln(Àe )= £ ( InÀ- Àxi)= n In À- X£xi -> l'(À)= n/ À- £xi=0 n-ÀXxi/n=0 -> À=n/
2>i= 1/x'n -> l''(À)= -n/ À2<0 -> À=l/ x’n-^ questa è la stima della max verosimiglianza del
parametro X di una funzione esponenziale negativa .
{ ÀA=1/ x"n Stima
{ ÀA=n/ £xi Stimatore di Max Verosimiglianza
In sostanza non cambia niente ma nello stimatore al posto dei valori xi ho messo la variabile
xn.
Lo stimatore di Massima Verosimiglianza è consistente
E(x)=l/À À= 1/E(x)-> stimatore E(x)= media della variabile.

5, Si supponga di voler stimare un parametro incognita di una popolazione disponendo di


un campione casuale ed usando il metodo della massima Verosimiglianza :
- Illustrare il significato della funzione di Verosimiglianza.
- Giustificare perché la stima si ottiene massimizzando il valore della
funzione di Verosimiglianza rispetto al parametro.
I metodi di stima sono quei metodi che ci permettono di individuare caso per caso i stimatori.
Hanno popolazione X con distribuzione bernulliana. Estraggo un campione di n individui
xi....xn. Definiamo la funzione di densità o la popolazione che si manifesta in un determinato
campione. Lo posso calcolare perché le variabili campionarie sono indipendenti e identiche:
P(xl,x2,.,.xn] = fi (1- tc) 1_ / P(xi) *[] (1 -n )1' / P(xi] *............ * n (1- tt) 1- / P(xi]
La probabilità dipende dal ["]• La variabile che campiona quella probabilità non è X,ma è il
parametro. La probabilità congiunta della realizzazione campionaria è detta Funzione di
Verosimiglianza.= L(ti]. È una funzione di u perché ci sono X valori.
Idea di questo metodo: massimizzo la probabilità del campione che ho tenuto per me è più
verosimile di tutti, rispetto alla unica varabile che ho. Il valore di ti che mi massimizza la
probabilità del campione è il valore + accettabile possibile, poiché questo campione è + vero.
Si chiama metodo di massima verosimiglianza perché vado a cercare quel valore di ti che
rende massimo la probabilità della realizzazione campionaria: max L(tt).
Invece di utilizzare L(tt) usiamo ln=(L(Ti]]. Il massimo che io determino sul logaritmo è lo
stesso che io avrei determinato sulla funzione originaria.
Ln(/rt)= In L rt=ln( fi Ttxi] (1- ti] 1_ ) = £ ln(n ) (1- ti] 1_ -> facciamo la derivata per
massimizzare.
D(ln ti + ln(l-Ti] ]= dfxilnn + [1-xi]* lnfl-Tt]
L ' ( ti] = £ D ( x i * l n tt + (l-xi)ln(l- tt ] = £ [xi/ ti + [1-xi] 1 / 1 - ti [-1 ]]= £ (1- n]xi - n [1-xi] / tt ( 1 - t i ] .

Illustrare il significato della funzione di Verosimiglianza e giustificare l'uso nel metodi di


stima della massima Verosimiglianza.
n
i(<Jì ;<j 2) = /( r -*• Funzione di verosomiglianza L(p) = m a x i »
É= 1

La stima di massima verosimiglianza è stata da quella stima che dipende dalla realizzazione
campionaria che rende massima la funzione di Verosimiglianza.
a(xi.,..xri] -> stima ottenuta con la massima Verosimiglianza
d i x i ..... xn) —>
•stimatore
Lo stimatore, sia usando il metodo dei momenti che il metodo di massima verosimiglianza,
converge in probabilità con il parametro incognito.
(all'aumentare di dimensione del campione si concentra sul valore del parametro incognito da
stimare]

f { x ; a) = | ' q Quale valore dello stimatore a massimizza L(9]?

?!

L i a ) = P I f ( x ; cr) —* i . i . d.
: =1
fi ■
..i. .
L i a ) = a n e~c^xl —• I n L i a ) = n ì n i a ) — oj^xi ~ — 2j XÌ = 0 perché deve essere punto di

massimo
n - 1 • ,■ • . . ,
— -r a = - stimatore di massima verosimiglianza.

Gutfiver
7. Esporre il metodo di stima della Verosimiglianza e le proprietà degli stimatori ottenute
con tale metodo.
• I metodi di stima sono quei metodi che ci permettono di individuare caso per caso i
stimatori. Ho una popolazione X con distribuzione bernulliana. Estraggo un campione di n
individui xi....xn. Definiamo la funzione di densità o la popolazione che si manifesta in un
determinato campione. Lo posso calcolare perché le variabili campionarie sono indipendenti e
identiche:
P(xl,x2....xn) = n ( 1 - tt) 1' /P(xi) * f l ( 1 - tt) 1- / P (xi)*............* n ( 1 - tt) 1" /P(xi)
La probabilità che dipende dalla fi- fa variabile che campiona quella probabilità non è la X ma
è il parametro congiunta della ella realizzazione campionaria che è detta Funzione di
Verosimiglianza = L( tt).
Massimizzo la probabilità del campione che ho tenuto per me è più verosimile di tutti, rispetto
alla unica varabile che ho. Il valore di tt che mi massimizza la probabilità del campione è il
valore + accettabile possibile, poiché questo campione è + vero. Si chiama metodo di massima
verosimiglianza perché vado a cercare quel valore di ti che rende massimo la probabilità della
realizzazione campionaria: max L( tt).
Invece di utilizzare L( tt) usiamo ln=(L(Ti)). Il massimo che io determino sul logaritmo è lo
stesso che io avrei determinato sulla funzione originaria.
Ln(/rt)= In L T t = ln ( f] irxi) (1- ti) 1_ ) = £ In (ti ) (1- ti) x" -> facciamo la derivata per
massimizzare.
D(ln tt + ln(l-Ti) )= dfxilnn + (1-xi)* ln(l-u)
L'(tt)= £ D(xi*ln t t + (l-xi)ln(l- rr) = £ [xi/ t i + (1-xi) 1/1- tt (-1)]= £ (1- tt ) x ì - tt (1-xi) / tt(1- tt ) .

Proprietà degli stimatori


* CONCRETEZZA: se una popolazione f(x;9)estraggo un campione casuale xl,x2..,xn.
Costruisco un stimatore Tn con parametro 9. Tn -> è una funzione delle variabili casuali
campionari. Questo stimatore si chiama distorto. Viene definito DTn(9)= E(Tn)= 9 per n-> oo
lim DTn(9) =0 significa che lo stimatore è distorto pero asintoticamente corretto.
■ CONSISTENZA: uno stimatore Tn con parametro 9 si dice consistente se Tn->0
lim EQMTn(d) = lim„_os£,[(7’n - &) ~] = 0
Significa che E[(Tn- 9)2]=0 essendo ERRATO lo vogliamo + piccolo possibile. È un errore
rispetto al parametro da stimare. La consistenza per n molto grande, cioè il campione tende a
crescere all'oo e noi otteniamo EQMTn=0 ciò significa che devono essere soddisfatte 2
condizioni.
1. r(Tn) = 0 2.Hmn_;C,D: r n (0 ) = 0 quindi lo stimatore deve essere
asintoticamente corretto.
D2Tn(9)= E[(Tn- 9)2] lim„_:0 E[(Tn — 0 )2] = 0 lini E(Tn)=0 ma

lim E(Tn)=0 è la condizione di uno stimatore che sia asintoticamente corretto mentre

lim V(Tn)=0 se lo stimatore è sufficientemente corretto deve essre verificato la condizione

lim V(Tn)=0.
’i—*:c
■ EFFICIENZA: l'efficienza viene riferita a 2 stimatori. Quindi considereremo 2 stimatori dello
stesso parametro Tn*, Tn. Lo stimatore Tn è + efficiente dello stimatore Tn* se EQM del primo
è < del EQM del secondo. -> EQMTn(9)_< EQMTn*( 9). Ciò vale per ogni 9 che fa parte nello
spazio dei parametri.
Utilizzando la nozione di spazio degli eventi elementari, definire la variabile casuale.
Illustrare inoltre la differenza tra variabile casuale discreta e continua.
Una variabile casuale è un modello teoriche che non deriva dall'esperienza ma è governata
dalla probabilità. Una variabile casuale x è una funzione definita in fi che associa da ogni
evento E £ f ì n numero reale.
La variabile casuale può essere discreta o continua.
DISCRETA quando una variabile casuale può assumere un insieme discreta di numeri reali.
CONTINUA quando la variabile casuale assume tutti i valori compatibili ad un intervallo reale.
La funzione di probabilità di una variabile casuale discreta X associa ad ognuno dei possibili
valori xi, la corrispondente probabilità.
Le Variabili Discrete: data una variabile casuale discreta X, si dice funzione di ripartizione, la
funzione che fa corrispondere ai valori X la probabilità che X<x F(x)=P(X<x).
Le Variabili Continue: chiameremo funzione di densità della variabile continua X la funzione J
(x) per cui vale la seguente relazione.
P(a<x<b)= J fx(x)dx. F(x)= J f(t)dt
Fx(x)>0
fx(x)= { J fx(x)dx=l -> condizione di normalizzazione.

Dimostrare le proprietà di internalità (CAUCHY) della media aritmetica.


Consideriamo una variabile statistica con supporto Sx { xi,x2,...xn} allora cK v
E f=1x l ^ S?=i-Vi AVI v N x i __N x n .
< ^ ^ * ~Y~ ^ “ v" otteniamo
N N
%xi
in f(x s S x )x ì xn sup (.v e Sx)
~N~
1U< ' — ■
NOTA: generalmente vale solo la disuguaglianza; ma l'uguaglianza è valida solo quando
xi=x2=.,.=xn e la media è uguale all'estremo inferiore o superiore.

A ;!.;
^ D im o s tra re la proprietà associativa della media aritmetica.
SiàXuna variabile statistica e siano a eh costanti. T=a+bx E(T)= a+bE(x)
La media gode della Proprietà Associativa, in quanto suddividendo in due o + gruppi i valori
della variabile x, la media aritmetica della variabile è uguale alle media aritmetica delle medie
parziali dei diversi gruppi ponderati con il numero dei elementi di ciascuno.
Dimostrazione:
Una variabile divisa in gruppi 1-1° gruppo 2-2° gruppo, la media è uguale alla somma delle
medie dei singoli gruppi.

y:,-v'/2_nn~ u';
A* = l /l +S = S " =!S,nPi
.V

11. Indipendenza statistica e connessione: definizione e misure.


La connessione: studia la dipendenza tra due variabili x e y qualitative. C’è indipendenza
statistica se la modalità con cui si presenta X non dà informazioni (non dipende) sulla modalità
con cui si presenta Y. Se rappresentiamo i due fenomeni x e y in una tabella di contingenza o
doppia entrata e poi ricaviamo la stessa tabella con la frequenza relativa e le loro frequenze

Gulliver
marginali, possiamo poi creare una terza tabella con l'ipotesi di Indipendenza Statistica con la
formula nij=ni. * n.j /n

x\v Y1 Y2 Y3 yk Una volta costruita questa tabella possiamo misurare


l'indice x2 (chi quadro)= ££(Nij-Nij*)/Nij* che per 0 indica
che ce massima indipendenza e + cresce + ce dipendenza.
XI n ll n l2 nl3 ni.
Per valutare bene questo indice si usa x2 normalizzato =
X2/ni min (r-l;c-l). r e e - ) sono le righe e le colonne.
X2 n32 n22 n23 n2. Questo indice assume un valore tra 0 (indipendenza) e 1
(dipendenza).
X3 n31 n32 n33 n3. Forza Di Dipendenza Perfetta di Y da X: il carattere Y
dipende da X se ad ogni modalità xl di X è associato una sola
modalità di Yj di Y.
xn n.l n.2 n.3
Forza Di Dipendenza Perfetta di X da Y: il carattere X
dipende da Y se ad ogni valore di Yj di Y è associato un solo
valore di xi di X.
0 (valore minimo) < x2^Nmin [r-l;c-l] (valore massimo)
0/max x2^X/max x2^Nmin[r-l;c-l] / max x2 dividendo per max x2 per normalizzare l'indice e
ricaviamo un nuovo indice 0<V2<1 dove
Pìj-Pii
sa, Pif
V2= -» V= +
<V- mtn [?— l i c - 1 ' min [r-lic-lj

Quando V=0 - ) x y (x e y sono indipendenti) Quando V=1 x e y sono reciprocamente


perfetti dipendenti.

12. La variabile casuale Binomiale: definirla ed illustrare la rilevanza pratica.


Sx= {0,1...} P(x)= ( ”) Tix (1 - rr)"~v dove n- numerosità; x=0,l,2,3... -numeri di successo; n-
probabilità di successo. Si utilizza nei casi in cui si misurano gli insuccessi o successi come nel
caso delle votazioni in politica.
n-x -> n° di insuccessi probabilità dì insuccessi. x-l=m ; n-l=k
n
E(x) = ^ x i p ( x i' ) si può t o g l i e r e lo zero p e r s e m p l i f i c a r e
x=0

E(x) = y X — -n ! n * ( ì - x ) ri~v = y x TT * 7TV 1(1 - Tl')n~x =


L-i j ! ( n - x)\ L j x [x - 1 ) ! (n - x )
X=1 ' * •
n. •n Z -... : ,. Jrmi n + 1 - n ) m~k = n ■n

(a + ò Y = S ( ; ) a 2 = m,t (1 - n)

X pb0=X -v=0
=i;T^ ~
Condizione di Normalizzazione :
n

z-o il* fi = p + (1 - p ) n = 1" = 1 o p p u r e fp + 1 - p ) n = ln = l

Gutfiver
13. Determinare la media della variabile casuale Binomiale.
Binomiale: n= numero di estrazioni Tt= successi x= probabilità di un singolo successo.
È un modello dove gli eventi sono indipendenti, cioè se un valore viene estratto non si
introduce più e la seconda sarà condizionata dalla prima.
Distribuzione Binomiale: a] E(x)=mr media b] V(x]=nTt(l-7t] varianza
p m = ( ; ) tt* a - .t ) " - *
n
E (x) = E (x}p(x) = Ex ( n ) 7TX ('1 - 71) n~x =
' Lu x ì ( n - x ) ì
V
X —7T~~~--- 77 n *<"l -

x=l
«2 * * x (1 - * ) » - * = n £ ...* * 0 - * ) " " *
x ( x - l ) ‘,(r.—x}'.

nuYt i---- —-----r ir .x - 1 ( l - r r ) "


( x - t ) '.( n —x)l

Ponendo = x —1 ni = ,»i — 1 risulta che m - y = n - v


E 1 » = fiTT a " ( l - u) = n n [ 7 T + (1 - tt) ] 7’1 = n n [tt +- (l - tt ) ) ” = nr r

;^4. Definire i quantili ed illustrarne la rilevanza statistica.


Sonojindici di posizion^che dividiono una distribuzione di frequenza in un certo numero di
parto uguali, dopollvèrordinato i dati.
Definizione: Si definisce Quantile di ordine'p della variabile statistica quel valore xpì tale che la '
funzione di ripartizione, unrvariata in xp}è uguale à p.i ^
P= 0,1; 0,2;....;0,9 Fx(xp)=p con ; o<p<lj ^
La mediana è un caso particolare di quantile p=0JL-> fx(xp)=0,5 e lascia a sinistra il;50% della
distribuzione. 1 quantilrA'iV*^; ì^ q.so^ vengono chiamati Quartili e dividono le osservazioni
in 4 parti. 1 quantili possono chiamarsi anche decili o Percentili se dividon le osservazioni in 10
o 100 parti uguali.
Si calcola ^ O.so = #nu„{x £ Sx; F (Ac.so)^0,5}

calcolato e se ne illustri brevemente il significato.


Definizione: p- -> si può usare se le variabili x y sono quantitative
entrambe.
-ó .rd r < 6 x v < 6 x 6 v —> —1 < - ■< 1 -
' OXOY

{
se p = - 1 correlazione negativa
se p = 1 correlazione lineare positiva
se p = 0 ce incorrelazione, il legam e non è lineare

16. Il metodo dei minimi quadrati.


Si usa per trovare la retta migliore o la retta che si avvicina di più alla funzione di regressione.
Quindi scegliere la funzione migliore significa determinare a e b che dà la retta migliore ->

Gutfiver
<p(x') = à 4- £>(-*)• Sfruttando il criterio dei minii quadrati, costruiamo la quantità dei
parametri a,b: Q(a,b)= E[(<p(*r) - ^Ot))*]. Qui abbiamo costruito il valore atteso degli scarti.
Ora vogliamo trovare a e b in modo che Q(a, b) sia minimo.
Q (a .b ) - E [(«pCr.l - p ( x ) ) ] = - (a 4- ò r)*)] = E[(<p(x)‘ — (a 4- bx )' — 2<p (x) (a 4- ò r)] =

E[{(p(x')* 4- a* 4- £rr* 4* 2aùFCr) —2a<? (x) * 2bxtpCx))] =

E [ p ( x ) ‘ ] 4- g* 4- ù * E (r ) 4- 2 a ù E (x) - 2aE{<p(.xìì - 2ÙE (x*<p(r))]

E1[(<p(x) 2 4- a 2 4- b2E (x 2) + lahfix — 2any - 2òE(x,y)]


Si vuole che Q(a,b) sia 4 piccolo possibile quando facciamo
(Qiia.b) _ __
J 9a f = 2 a 4- 2 bpix — 2^ y = 0 -* a = u y - bpix
j gc(a,&) [ = 2 b E ( x z) -4- 2Qj.iX - 2E(x, v) = 0
V 8b '

Per verificare se Q ha effettivamente un minimo à e b sono parametri stimati perché

appartengono a P(x).

r à = piy - Eyx r a = yy - 5/.ìx


(5 = E(,v: ) 4- ijuy - òj.ix)ux - E (x,y) = 0 l i = E i x 2) 4- uyi-ix —òjj2x —E(x,jx) = 0

à = uy — BjAX

!
( a = ny — o)jx
Etxyj-iixny 7
t ò = [E(>2) - / 42x ] - E { x , y 0 = ----------------
E\x*) V *

à = uy - 5ux
5 = C0r(ry )/ l'(.r) * ’ — ^ 4 " " ‘H> x

Con à e 15 abbiamo trovato la retta (à+bx) migliore, che passa + vicina alla funzione di

regressione.

Proprietà dei minimi quadrati:

E[(x - c ) 2}~ = j_x U - c ) : f i x j d x = J { x z -f c z - Zxc)fix'jdx =

- J-cc ** /0 0 -H - 2c) x fix ) = b+c2-2cp

^ = le - 2/i = 0 -* c = — 2 > 0 pu-nfo ni

17. La proprietà degli stimatori.


- CONCRETEZZA: se una popolazione f(x;9)estraggo un campione casuale xl,x2..,xn. Costruisco un
stimatore Tn con parametro 9. Tn è una funzione delle variabili casuali campionari. Questo

Gutfiver
stimatore si chiama distorto. Viene definito DTn(0)= E(Tn)= 0 per n-> oo lim DTn(0) =0

significa che lo stimatore è distorto pero asintoticamente corretto.


- CONSISTENZA: uno stimatore Tn con parametro 0 si dice consistente se Tn~>0
l i m ^ EQMTMd) = limn_ cc £[(7>i - 6) : j = 0
Significa che E[(Tn- 0)2]=O essendo ERRATO lo vogliamo + piccolo possibile. È un errore
rispetto al parametro da stimare. La consistenza per n molto grande, cioè il campione tende a
crescere all'oo e noi otteniamo EQMTn=0 ciò significa che devono essere soddisfatte 2
condizioni.
1. limn-^oc V{Tn) = 0 2Mmn^yz D-Tnid) = 0 quindi lo stimatore deve essere
asintoticamente corretto.
D2Tn(0)= E[(Tn-0)2] E[(Tn - 0)2] = 0 lim E(Tn)=0 ma
• - n-*oe

lim E(Tn)=0 è la condizione di uno stimatore che sia asintoticamente corretto mentre

lim V(Tn)=0 se lo stimatore è sufficientemente corretto deve essre verificato la condizione


n-*oc

lim V(Tn)=0.

- EFFICIENZA: l'efficienza viene riferita a 2 stimatori. Quindi considereremo 2 stimatori dello


stesso parametro Tn*, Tn. Lo stimatore Tn è + efficiente dello stimatore Tn* se EQM del primo è
< del EQM del secondo. EQMTn(0)_< EQMTn*( 0). Ciò vale per ogni 0 che fa parte nello
spazio dei parametri.

18. Definire la varianza, illustrarne la rilevanza statistica, richiamarne le principali


proprietà e dimostrarne una OPPURE Varianza: significato , definizione, proprietà.
Definizione: la varianza di un insieme di dati o di una distribuzione di frequenza è una misura
di dispersione che si ottiene come media dei quadrati degli scarti della media aritmetica.
/ .
. 2 p % .P***
JCl*“pÀ
^(X) —^ ^ (quando abbiamo Ì dati grezzi) 6 ■> è un modo diverso per indicare la varianza.

Formula semplificata: - ( X l ^ x i ) 2/ n 2 -> quadrato della media aritmetica.


Quadrato della media 62= E(xi)-p2
Quadratica 62=cr2-p2
NOTA: la varianza ha un inconveniente, poiché è espresso al quadrato e se le osservazioni sono
presenti al metro; mentre la variabile è al metro quadrato di conseguenza non si può
presentare su uno stesso diagramma.
Le proprietà della varianza:
a. proprietà di non negatività -> V(x)>0 è 0 quando gli scarti sono nulli; quando le X sono
uguali tra loro e le loro medie sono nulle, siamo nel caso di una variabile degenere.
b. V(x)=E(x2)-E2(x) cioè momento secondo - momento primo
c. RA2=Vr26 = ( IZ ( lxi-xj|)2Pij) v;
d. V(a)=0 dove 0 è una costante -> E(a)=0
e. Invarianza rispetto a trasformazioni -> V(x) di x+a E[(x+a - E(x+a)2]=E[x+a-E(x)-a]2=
V(x) ->V(x+a)=V(x)
f. Omogeneità di 2° grado -> V(bx)=b2V8X) dove b è una costante.
g. Omogeneità di 2° grado -> V(bxi)=b2V(xi)
Dimostrazioni:
1. E (x: - uz)2 = E ( x r -r u: - 2x:uiì = E x:2 - - 2 u;Ex: = Ext2 - a 2 = E (x z: ) - E ( x i) 2
2. £[(> - a ) : ] = E[xz - 2ux + u: ]E(x: 'i - 2aE{x'> + u = £ (v : ) - 2E(x)£(xi + £ : (x) = £(> :) - £*0O
3. #’(o) = E~(a —£(c)]* = 0 E j(c* - 2cE (c) + ('c)ì*J = 0

4. £ |(5x - £(>.0)*] = V(bx) - £ ; (bx - d£(v))‘ j = £ ; b: (x - £ {r))*] = 52£|(x - £< x)j]: = b2V(x)

5. m r ) = £ (bx - t ( b x ) Y = E(bx - òu )s = Eb: (z - u): = E b: (x - u'y = b 1E(x - uY‘ - b*V(xi)

19. Definire il teorema centrale e illustrare la sua importanza.


Sia data una popolazione n con media p e varianza a2 e si estrae un campione casuale di
ampiezza n. Indicando con x la media campionaria , la variabile
Z = —g— con n su fficen te inerite grande.
v’n
È una variabile aleatoria la cui distribuzione tende alla distribuzione normale standardizzata
per n-> oo

20. Dopo aver esposto la proprietà della consistenza, dimostrare che la media
campionaria è uno stimatore consistente della media della popolazione
(DISUGUAGLIANZA DI CHEBICHEV).
La varianza o lo scarto quadratico medio, misura la dispersione di una distribuzione di
probabilità.
62 è piccolo -> ce + alta probabilità di ottenere valori della variabile aleatoria vicino al valore
medio.
62
è grande -> ce maggiore probabilità di ottenere i valori della variabile aleatoria lontani dal
valore medio.
P(|x-p|<£) > 1 - 3 la relazione |x-p|<£
<5:
< ~
**■

Dimostrazione:

Sl={x £ Sx: |x-p|<£} -> {x3}

S2= {x £ Sx: |x-p|>£} ->{xp,x3,x2,xl)

SI e S2 sono incompatibili

.S"1 f) 52 = 0 51 U52 = Sx

P(|x-p|<£) = p(x3)= l xtSxP(x)

P(|x-|i|>£) = P(xl)+p(x2) +p(x3j +p(x4) +p(x5]= £;igS;«PCv)

Z +Z
x s Sx
+ > p(x-) = ì
X ZSx
Z
x z Sx
( p '-O) = 1 - Z
x z Sx
p CO

Sicuramente:

(j = 2 ~ tt) ÌP '.- U - j — — ) p
“ i..\ ) + Z x ì SZÌX ~P)~P(x')

° 2 ^IxeSZ(:x - H ) 2P(x)

Gutfiver
(|x-g|)2>£2 -> YtxeSzC ì X - ìi\)2p(x) > ^52 ^P<x)

° 2 Z Z s 2S 2P ( x ) 5 - £v*S:PO O £ 1 - TntsSxP(.X)

p(x-n ]<£>l-^ > l-Pr(|x-(i|<£]

*- >

>

Determinare la varianza della media campionaria e illustrarne l'importanza.


La media campionaria xn è una statistica molto importante che significa che per molti
problemi ricorre come stimatore.
La varianza della media campionaria:

dato che le vanaoiii sono identiche le varianze sono nulle, cosi abbiam o

FOrn) = ~ * n62 = —
*2‘ n
Quando estraggo dal campione le variabili casuali campionarie, quelle teoriche hanno la stessa
distribuzione centrata nello stesso punto con la stessa media e con una varianza molto più
piccola rispetto a quella originaria. Quindi una distribuzione molto concentrata sulla media
rispetto alle altre.
xn -v :V P r U ^ < < x a) = i - a

22. Illustrare le proprietà statistiche della media campionaria nel caso di campionamento
Bernoulliano,
La variabile Bernoulliana mi permette di descrivere tutti quei modi in cui ho una sola
estrazione.
La media Campionaria:
_ 1 V "n
,v.rj = - > xi si ha che
n t - j .-1

f i r n ) - f U ) = p -* f ( J~ ~ ^ U 0 = n ' p = n = n e lo. renani

GuCCiver
A: si calcola come l'area del triangolo ABC - area sottostante alla curva di Lorenz (che
nell'esempio è composto da un triangolo e due trapezi.
. _ . _ V ( 5 - 5 —1)(<?< + Qt - 0 l v (<?* +
* A Er Z , 2 2 Z i 2

' é •Dopo aver deflnito il concetto di dipendenza in media, dimostrare che l’indipendenza
assoluta comporta l'indipendenza in media.

Dipendenza in media: —^ (rapporto di correlazione di Pearson]

Indipendenza Assoluta: T=0 comporta


Indipendenza in media: p,.(x\2 = 0
Bontà di Adattamento: -
k
v^y-5 = ^GiVOri) - p y )2 •Pi. = a2ys
2= 1 '
m

° zy = 'Y js i - p y ) 2 P p
,*=1

26. Dopo aver dato la definizione di elementi incompatibili e quella di eventi indipendenti,
dimostrare per due eventi non impossibili.
Se l'incompatibilità comporta l'indipendenza oppure
Se l'indipendenza comporta l'incompatibilità. _______ A
Eventi Incompatibili: A fi B - C
Eventi Indipendenti: ~ = A

P (j) = P f A )

n{ Api
' = P\A) se P(A n B) = 0 è vero che P{A D B) = P( a ) * PyB)

Ma: P{A) 0 P{B) = == 0 —•non impossibile

Gulliver
.^ .Illu s tra re l'utilità che comporta l'uso di stimatori corretti.
Se lo stimatore è corretto significa che la differenza è minima e per tanto si avrà una valida
(efficiente)rappresentazione della popolazione.

Giustificare l'uso degli stimatori corretti.


Vengono utilizzati per stimare parametri incogniti della popolazione in quanto la loro
distorsione è pari aO. Per questo motivo l’errore quadratico medio comprende solo la varianza
dello stimatore.
E Q M = V ( T ) + (32 s e lim V \ T ) = 0 - E Q M = 0

\ 29.'Definire la mediana e indicare quando dovrebbe essere scelta come valore medio.
x , La mediana è un indice di posizione e si definisce come quel valore che bipartisce la
OQJ%W\ distribuzione ordinata in senso non decrescente delle modalità di un carattere.
La mediana dovrebbe essere scelta comejmedi^ quando il valore minimo tra i valori del
Q ^ supporto per i quali la funzione di ripartizione assume un valore maggiore 0,5?
' XQ- = min A' €SX:F(.t) > 0,5} ^
Proprietà della mediana: -
-. La mediana è quel valore di "c” che rende minima ed media degli scarti assoluti
E(|x-p|)>E(|x-Me|)
-. Il numero degli scarti positivi tra ogni determinazione della variabile e la mediana è uguale al
numero degli corrispondenti scarti, avendo però segno negativo.
Nel caso in cui Sx{xl,x2....xn} consideriamo Sx{(xi,Px(xi); i=l....k) definito da una
distribuzione di frequenza, allora si dic^ Mediana?
Me=x0,5 quel valore della x che soddisfa simultaneamente la seguente (equivalenza)
disuguaglianza.
fP r?v < M e ) > 0.5, ( F i x n < 0,5
tPr(.v > M e ) > 0 , 5 [r : .v;_ 1; > 0,5
La mediana è quel valore che rende la funzione di ripartizione; Fx(me)=0,5\
F(xi)<p,5 F(xi + 1)>0,5
X0,5=xmin{x £ Sx: F(x0,5)> 0,5) discreta
X0,5= { x £ Sx: F(x0,5)= 0,5} continua

30. Data la distribuzione doppia (x,y) determinare, utilizzando la scomposizione della


varianza, l'indice qy2 e illustrarne il significato.
V= - n x ) 2 • Pi — £ (, + u x y - u\-)2 ■ Pi =

= JV * - y ) : + (y - « ? + - { * - y ) :f - ‘«v)] P ‘ ■ P i

Gutfiver
;j.r \ (,u x
I b - 7 -' ( 7 - H
\

^ 7_ j
~ V"" 77" P i-
> ■J y
’V '
Varianza Residua Varianza Spiegata =0

Varianza Totale

2 -2 ^ ÓZ Ó: Ó:
o = o + o-se aimao per a - — -b— i r _ ó2

0 < j-;2 <1 ->tutte le medie condizionate sono uguali tra loro yf- = 0 Y Indipendente in Media
da X

= 1 vi è dipendenza funzionale esatta di Y da X.

31. Illustrare il metodo di stima dei momenti ed illustrarne Fuso.


Il metodo dei momenti consiste nell'uguagliare i momenti della popolazione e quelli campioni a
risolvere il sistema nei parametri incogniti.
|i-> parametro della popolazione v-> momento campionario
P(x,9) g(x, 9]
E(x]=a =g(cr] legame tra momento e parametro.
Funzione del parametro.
1. Si calcola la media in funzione di 0
2. 0 =h(y)
si calcola il parametro o in funzione del momento (s).
se si sostituisce il momento incognito con il suo stimatore x allora 9 =h(T).


r0 < x < 9
g(x. 9}
/(■'■' « = ?

ì 0*é? 9 _ „ ~ _
i — = 7 e = *P 9 =
->

32. Illustrare il concetto di media secondo Chisini. Clfv


^ %
\

Indichiamo con xl il valore minimo e xn il valore massimo dei nostro supporto.


3imr_ oc mo = xl la media potenziata di ordine -co corrisponde al valore minimo.
ms = iti la media potenziata di ordine +co corrisponde al valore massimo.
La media di una variabile X è un valore compreso tra il minimo tale che assegnato una funzione
delle osservazioni, ne lascia invariato il valore g(xl,x2..xn}=f[xMl,xM2...XM}.

Gulliver
33, Giustificare l'uso degli intervalli di confidenza ed illustrarne la costruzione per stimare
la media di una popolazione normale.
Con la stima intervallare si calcola un intervallo di confidenza entro il quale è compreso il
parametro di interesse.

X ~ Z a 4 -< ^ < jf+ Z a -r -


2 ^n - %n
_ S — <5
si può affermare con probabilità 1-cc che l'intervallo f x — ; x + Za—)
zvn z %C ’­
contiene la media p della popolazione.

34. Dimostrare che l'indipendenza assoluta comporta in correlazione.


Se Pij = Pi - Pj 6x v = 0

6xy = ) y [xi - px'Kyj ~ ny)PiJ = / y (xi - ux)(yj - gy)Pi * Pj =


; i ; :

= - u x ) P i. •^ iyj - yy )P .j = 0

35. Giustificare perché il coefficiente di correlazione è un indice che misura l'intensità della
dipendenza lineare tra due caratteri.
, ,• ax y , . . . „ . ,
L indice ep = = -r—------------------ — dove oxy sono le varianze delle variabili x e y.
se <p = —i si ka -una retta con coefficiente angolare negativo -
se <p = - 1 con 0 < <p < 1 l'andamentoe1 end ernia brente negativo
se <p = 0 con 0 < <p < 1 Vandamento^, tendenzialmente positive
se <p ~ 1 si ha imaretta con coefficiente angolare positivo
Se <p = 0 si ha un andamento non lineare (incorrelato).

36. Si definisce il coefficiente ci correlazione e si individui per quale tipo di variabili può
essere calcolato e si ne illustri brevemente il significato.
Coefficiente ci correlazione (p —
ex cy
- 1 < (fi < 1 -------- ► variabili bivariata con marginali y e x non degeneri
| ■ —- > Tra je yariabili ce correlazione perfetta (lineare) -concordanza-
Non ce correlazione - discordanza-

37. Medie potenziate di ordine "S": definizione e proprietà


Sia X una variabile statistica quantitativa discreta espressa su un supporto.
Sx{(xi,Px(xi); i=l...k)} si dice Media Potenziata di Ordine S della variabile statistica X , con S e R e
s*0
Le medie potenziate si indicano con ms

Gutfiver
ms = (Y -rìJ'P.r(r.;0 ) Wj funzione monotona, non decrescente.

Le medie potenziate si ordinano rispetto ad s.


Ses=l ms=E(X] me
media aritmetica
Se s=0 mo=)ìm,^x ms = flf=1 .vi •P(xi) me
media geometrica
Se s=-l m-l = (2 f=1, v r 1PU7 ))_1 me
media armonica

Se s=-2 media quadratica

Le proprietà delle medie potenziate:


a. Proprietà di Cauchy o di Internalità: qualsiasi sia la media, questa è contenuta tra
l'estremo inferiore (xl] e l'estremo superiore (xn).
Estremo inferiore {x z Sx}<ms<estremo superiore {x z Sx}
Nota: l'uguaglianza vale solo quando xl=x2=..=xn e di conseguenza anche le medie sono uguali,
cioè la media xm di una variabile x è un qualsiasi valore compreso tra il minimo e il massimo
xl<xM<XN
b. Media Secondo Chisini: individuiamo con xl il valore minimo e xn il valore massimo del
nostro supporto.
= .ri la media potenziata di ordine -oo corrisponde al valore minimo,
l i m ^ ^ ms = xn la media potenziata di ordine +oo corrisponde al valore massimo.
La media di una variabile X è un valore compreso tra il minimo tale che assegnato una funzione
delle osservazioni, ne lascia invariato il valore g(xl,x2..xn)=f(xMl,xM2...XM).
c. Teorema delle medie potenziate: supponiamo che il supporto sia ordinato in modo
crescènte, cioè {Sx: xl,x2...xn} allora ms (media potenziata di ordine s) è una funzione
monotona non decrescente ossia se s<t -> ms<mt (uguaglianza rappresenta l'eventualità in
cui i valori siano uguali]

38. La mutua variabilità e la variabilità da un centro: aspetti comuni e specifici.


La sintesi attraverso gli indici di posizione fa perdere delle informazioni rilevanti sulla stessa;
mentre gli indici di variabilità tendono a colmare queste perdite.
La variabilità è 1attitudine di un fenomeno quantitativo ed assume diverse modalità.
Ci sono 2 aspetti della variabilità:
-. Dispersione: caratterizza il maggior o minor addensamento delle osservazioni intorno ad una
media prestabilita.
Disuguaglianza: (variabilità reciproca] che evidenziano la diversità delle osservazioni tra loro.
Gli indici di variabilità misurano la variabilità di una distribuzione di frequenza:
• Rispetto a un centro rappresentativo (dispersione] e sono detti Scostamenti medi e si
ottengono determinando gli scarti xi-Xm tra le modalità del carattere e una sua media
Xm e sintetizzandoli con la stessa o con altre medie.
• Tra le unità statistiche a due a due (disuguaglianza] e sono detti differenze medie e si
ottengono determinando le differenze in valore assoluto |xi-xj| delle modalità del
carattere preso a due a due, sintetizzandolo con opportuna media.
Gli indici di variabilità si distinguono in:
Indici Assoluti di Variabilità: sono espressi in una unità di misura che dipende dall’unità di
misura del fenomeno in esame, come la varianza, lo scarto quadratico medio, differenza assoluta
media con e senza ripetizii— ------- ,r' ' ” ' ' .
Indici Relativi di Variabilità: che prescindono dall'unità di misura, per cui ci sono
particolarmente adatti per effettuare confronti tra fenomeni diversi. Essi si possono ottenere
rapportando un indice assoluto ad una media o al suo massimo.

39, Il campionamento: indicare per quali motivi si effettuano rilevazioni campionarie:


illustrare come si ottengono campioni rappresentativi.
Un campione casuale è un urna dalla quale io estraggo un gruppo da analizzare. Dobbiamo
vedere la popolazione come urna. Nell'estrazione consideriamo un modello di estrazione con
reintroduzione C-R. Sono in grado di conoscere la distribuzione della probabilità dei campioni,
la media della distribuzione e la varianza. Conoscendo le proprietà teoriche del campionamento
casuale, siamo in grado di prevedere e di risalire alla popolazione. Di risalire dal particolare al
generale mi permette di conoscere tutte le proprietà probabilistiche, tutte le proprietà con cui
questo campione è stato estratto. Xl....xn-> Variabile Casuale Campionaria (vcc).
Questo n-ple prende il nome di vcc (campione casuale di ampiezza in estratto dalla
popolazione). In generale, estraiamo il campione da una fx(.) o dalla Px(.), La popolazione in cui
non estraiamo il campione e la distribuzione di densità di probabilità fx(.) in cui il modello
continua.
Un campione rappresentativo si ottiene mediante un campionamento (estrazione) casuale
senza remissione anche se in caso di una popolazione oof il problema della remunerazione
diventa irrilevante.

40. Sapendo che A e B sono due eventi stocasticamente indipendenti, accertare se l'evento
complementare A è stocasticamente indipendente dall'evento B.
Ipotesi:

P(Xj = 1 - P(A) - R(A U B) = 1 - P(A) 4- P(B) - P(A D B) = 1


P(B) - P(A n B) = 1 - P(A) - P (B) - P (A n B) = P(A)
p(Àn b ) = P(s') - pì 'a n B)
P(B) —P(A)' P(B)
P (5 )(l-P (A )J
PiB) •P(A)

41. Sia A un evento di un certo esperimento, usando gli assiomi del calcolo della probabilità
dimostrare che P(A*)=1-P(A)
AUA = r A fi À = C
. u ~ * ?(Aj Pi A ) - ?(.4 U .4 ) - ? (,4.i - P(rj per Vchioma dell'svento certo
P(A) = P(r) - P(A) = 1 - PCA)

42. Definire e illustrare la proprietà della consistenza (convergenza in probabilità) degli


stimatori.
Consistenza: uno stimatore Tn con parametro 9 si dice consistenza di Tn->0
lim EQMr J e ) = lini E[(Tn - d ) 2] = 0
n—<x " r.-*w
Significa che E[iTn - 6)-] essendo errore lo vogliamo più piccolo possibile, È un errore
rispetto al parametro da stimare. La consistenza per n molto grande, cioè il campione tende a
crescere all'oo e noi otteniamo che EQMjn = 0. Ciò significa che devono essere soddisfatte due
condizioni:
1° lìmu.,*- V{Tn) = 0 quindi lo stimatore deve essere asintoticamente corretto.
2°Iim „ ^ D : Tn(8) = 0
D-Tnid) = [E{.{Tn) —0)~] lim„_oe{ f (fn ) - 6 ) 2 = 0 ]im„_0ie. E(Tn) = Orna ciò è la
condizione di uno stimatore che sia asintoticamente corretto e lim ,.^ V(Tn) = 0
Se lo stimatore è corretto deve essere verificata la condizione ]imn_ acl'(7 n ) = 0

43. Descrivere le principiali caratteristiche della distribuzione normale ed illustrare il ruolo


di tale distribuzione nella statistica inferenziale.
f ( x ) = .;.-.:: T s per la quale
VZ ftò*
4* OC

f ( x ) > Vx - I fxix'jdx = 1 ha due flessi in p — 5 ed p + 6

È simmetrica intorno a x-p (corrisponde ad una curva)


Si utilizza perché molti fenomeni in statistica si distribuiscono in modo "normale"e poi perché
altre funzioni possono essere approssimate ad essa.

La V.C. Normale Standardizzata: Z(x) = -D— : dove Z - ^ ux = 0 ed a2 = 1


' \Zrr ù 3
44. Indici di Posizione: ▲
Medie Lasche
x Mo modalità, di f requenza +- alta x Mo — org max/(.v)
xhle = modalità che ripartisce equamente la
distrihuzion e d i fr e q ueri za
x a = min [x £ Sxi F (x a) > a}
Medie Aritmetiche — >

Medie Potenziate discrete E jL / x i* Pi'Vi

Continue ] * * x i 5fix )d x

S=1 ->pl aritmetica S=2->p2 quadratica

S=-l ->p-l armonica S=0->p0 geometricanJ=i xip:

>

45. Indici di Dispersione (o variabilità)


Range = x k —Xj = Campo di Variazione
Differenza Interquartnei x c ~z —x c,2: A- indici di posizione -> pi

/n dici per scarto = [£. (xi - A ) sPi] 7 S=2 ;A= p 1

Gulliver
6 = v'^) (xi - p i) 2pi

Indici per differenza: A= [£. S/Cvi - .v/) JPiPj]ì S=1


Coefficiente di Variazione C. V = —
l i ci:;.Vi .Vi
Differenza assoluta media con ripetizione:
,V* —,Y
Condizione di Normalizzazione: S E PiPj = 1

46. Proprietà dei minimi quadrati.


E[(,v - c)2] > E[U - ci)2] --------- -> "c"valore + piccolo che la media può assumere
~ ~~~~-----► Media degli scarti di una costante "a"
La media del quadrato degli scarti di una costante "c” è minima quando "c" è uguale alla media
aritmetica.
Dimostrazione:
d£ÌC.r-c>: i
E[(x - c)2} derivo la funzione rispetto a "c" D[E(x - c ) 2]
de
D[E(x2 - 2xc + c ) 2} = D [E (x2) - 2cE(x) + c]2 = - 2 E(x) + 2 - 2E(x) + 2c = 0 c = E(x)
v------------v ------------ '
Qui la media si fa rispetto ad x, variabile statistica.
Facciamo la derivata seconda, e se abbiamo un risultato positivo troviamo un minimo
negativo troviamo un massimo
D"[2E(x)+2c]=2>0 troviamo un minimo.

47. La media aritmetica, definizione e proprietà. I ^ «-A.. c, 1 -i


* c % l , p- V'' '— - \ \ ' «■
»' _
Sia^t la medi aritmetica di una variabile,X, per definirlo utilizziamo la somma come criterio di
trasferibilità delle variabili, cioè: F(xl,x2...xn) = xi
Criterio Chisini: V\\
g(xl,x2..jtn)=f(nl,n2....un) -> S ”=1.vf->E;”=1.'i - - fi = E f^ -d a to xl,x2...xn che si
presentano con frequenza assoluta ni, n2,nk, abbiamo quindi la
Media Aritmetica Ponderata(p)=-~ 1~ ' ' _ ti=,ixin;
n1- ”Z- k Lr~, n:
- x Le Proprietà: ^
Proprietà di Cauchy o di Internalità. .
Consideriamo una variabile con supporto Sx{xl x2 xn) e con X e Sx abbiamo
... Estremo inferiore (x e Sxj < E(x)< estremo superiore {x £ Sx} - . J, * - W
"^"2. Proprietà di Baricentro (proprietà degli scarti) -
Consideriamo una variabile T=x-E(X) oppure T)xi-g i=l...n dove il supporto Sx{xl x2 xn)
Possiamo dire che la somma di tutti gli scarti della media =0 cioè
n —

^ ( .v f —p) = 0 Discrete ^ L v i - u)ni = 0 Contìnue


i =1

dimostrazione Yf=i(xi - p) = 0 -> I f =1


i-i

) - Sf=1 ( f ) = pi ~ u2 =0
c
s v-
Baricentro supporto r:St{xl-E(x);x2-E(x);..,.;xn-E(x)}

Gutfiver
V (xi - E (x)) = V (xi) - V (E (x )) = V fx i) - N(Ex )= V (.vi) - .V V ( — ) = 0
Lmd Lmt Lmmi L-i ùmi %H/
1=1 :=1 :=1 ;=1 ;=1 ; =1
Possiamo dire che la somma dei quadrati degli scarti (xi-pj con i=l,2...n è la+ piccola fra le some
dei quadrati degli scarti di una qualsiasi media: 2 f=1(rj - u)2 = min
Media di Una Trasformazione dei dati
Sia T una variabile trasformata uguale a g(x] la quale è una funzione; la mediatile una media
^ ^ rispetto alla variabile I ; e la media di g(xj è una media di "g” rispetto alla variabile xX
1 T=g(x) Sx{xi; Px(xi); i=l...k}
E(T)=E(g(x)} St{tl;Pt(tl); i=l...k} ^ sfruttando la frequenza relativa di x )
Questa medi di T che ho posso calcolarla in due modi ► sfruttando la frequenza relativa dry?

^ \ t ) =Y^tt ■ oppure I U'Uv)) = y g ixi)Px(xi)


_r ; =1 A
- -^1
^ 5 /a f u n a variabile statistica ecf ahma costan te, la m ecìia di'a è uguale alla costante stessa

123' ~
Media Traslativa: addizionando o sottraendo ai valori della variabile\x i\no stesso numero sa” si
ottiene una variabile avendo per media aritmetica^ stessa media aumentata o diminuita d i,fa'\

•¥^ia X\una variabile statistica e./'b'-una costante; moltiplicando o dividendo i valori della'xper
uno stesso numero f,b" si ottiene una variabile avente per media aritmetica la stesa media ~
moltiplicata o divisa per "b”. T=bx(x)=g(x] E(T)=bE(x] Media omogenea.

:=^> Linearità della media aritmetica: l_A t €<) {' ? ■)


E(a+bx)=a+bE(x) -> E(a+bx)= + bx) •PCxQ = a £fmip(r;) + b Ifsi xi •pùi) = c + bn = c. + bE(x)
= ^ 7 (ó^SiaXuna variabile statistica e siancyà e S costanti. o> - -,
Or \ V-i
^ T=a+bx~E(T)=a+bE(x)
La media gode della.proprietà associativa,?in quanto suddividendo in 2 o + gruppi i valori della
varfalniVxjajp^^ variabile è uguale alla media aritmetica delle medie parziali
dei diversi gruppi ponderati con il numero dei elementi di ognuno.
% Dini óstra zi oh e :-*c. ....
Una variabile divisa in gruppi l = l°gruppo ed 2=2°grupoo la medi a è uguale alla somma delle
medie dei singoli gruppi.
= s ,.
n 1~«'Z y. r;x-jU*?: ^ pini —, ,
= Exi •— 4- £ .V! • — -— = E ----- = L a •pi
Dimostrazione Media Aritmetica
at < xi < xk -*■ Xr * pi < xipi < xkpi ■
k k k k k k k
y
Sm mmmi
xipi <y xip i < y
L...,t
xkpk -> xi y
fa...I
pi < y
fammi
xipt <xt t y pi siccome y pi = 1
+—i L—i
: =1 : =1 i=l ; =1 ;=1 1=1 1=1
ir*k
”.i; k-o
/ pi = 1
dm
mam
i
xi < y
émmmJ
xipi < xk
i=l ;=1

Gulliver
48. Moda.
La moda, detto anche valore normale, è un indice di posizione ed è la modalità del carattere cui
corrisponde la massima frequenza, densità di frequenza.
- Per caratteri discreti: la moda si individua facilmente, scorrendo lungo la colonna delle
frequenze.
- Per caratteri continui: con modalità raggruppata in classi si distingue
a. Se le classi di modalità hanno uguale ampiezza, la moda cade in quella con maggiore
frequenza
b. Se le classi di modalità hanno diverse ampiezze, la moda cade nella classe con maggiore
densità di frequenza.
Le proprietà della moda 1.Omogenea 2. Traslativa.

49. Momenti.
Alcuni indici di posizione e alcuni indici variabili possono essere visti come particolari tipologie
di indici detti MOMENTI, i qualQsono definiti come la media aritmetica semplice o ponderata.
Si dice momento di ordine r'dfx'e si indica corfjrxja media Mr=E(x*] *=r
1 momenti non sono uguali alla media potenzialeTE(rr) = £ ’=1r : r - ^
Tra il momento e la media potenziale la differenza è)T/r] quindi alla gr manca la radice.r-esima.
La media potenziate sono espresse nelle stesse unità di misura delle medie originali mentre il
momento no. C'è un punto quando momento e media potenziata coincidono, cioè quando r=l
ml=pl=E(x)
L momento definito per le variabili discrete m r Z-'L-
continue m r
' iL *
50. Campo di Varianza o Range:
il campo di varianza o range è l'indice assoluto di variabilità più semplice da calcolare, è dato
dalla differenza tra il valore massimo e minimo delle modalità di un carattere:
Range=Xmax-Xmin.
Il Range è poco utilizzato in quando prende in considerazione solo la dispersione esistente tra i
valore estremi della distribuzione, non tenendo conto della sua struttura. Esso risente di
eventuali valori di errori.

51. Differenza Interquartile


Un indice di variabilità meno sensibile del campo di variazione a valore estremi eccezionali è la
differenza interquartile data dalla differenza tra il 3° e il 1° quartile:
6q=Q3-Ql ossia differenza Interquarti!e= X0,75-X0,25. ^ C - 3 * • r
Si tratta di una misura di variabilità della parte centra di una distribuzione in quanto,
nel'intervallo espresso dall'indice, è compreso il 50% delle osservazioni.

52. Scostamenti Medi


Questi indici sono calcolati considerando i valori assoluti degli scarti, in quanto , per la media
aritmetica la media degli scarti, presi con il loro segno è nullo.
Lo scostamento medio della Media Aritmetica:
perle discrete Su = S-Li — ; , ,. «p1*> lxi uin:
p e r ie c o n t i n u e S u = XT=1 — -----

Lo scostamento medio della Mediana:



’i
xi - Me\ xi —Me\ni
per le discrete SMe per le continue SM e
■ i S *= l ni
: =1 i= i
53. Devianza.
Considerando il numeratore della varianza id e ila devianza.
Per un carattere X la sua espressione analitica è la seguente

per le discrete D(r) = ^ ( r f - u ) : per le continue Dir) = f.v: —u ) 2 ni


;= 1 ;= 1
Nelle continue quando ho la distribuzione di frequenza la possiamo semplificare

Guuiver
Dix) — S f= i X'i"n2 —/.r £f=i ni mentre per i dati in serie la formula semplificata è
D (.v) = Ef=i xi2 - nu2

54. Scarto quadratico medio.


Utilizziamo la radice quadrata della varianza, espressa nella stessa unità di misura delle
determinazioni di una variabile, ciò viene nominata Scarto Quadratico Medio o Deviazione
Standard.

t e 'sf=i(r *' ~ p )2ni


ù= per i dati grezzi S = per d istribuzìone di frequenze*
M 71 ’ ~ S ^ = t ni
Valore massimo dello Scarto Quadratico Medio: quando una sola modalità richiude l'intero
carattere investigato, mentre le rimane n-1 non ne possiedono affatto, allora lo Scarto
Quadratico Medio assume valore massimo 6max=pVn-l

55. Differenze Medie.


Sono indici di mutua variabilità che assumono le differenze, in valore assoluto, tra le modalità
due a due |xi-xj| con ij=l,2..n e ne operano una sintesi tramite una opportuna media. Calcolare
la soma delle distanze tra ogni termine e tutti gli atri £ ”=1 £ 7= il** - x j \si usa il valore
assoluto,cosi non si annulla.
TL, Yv_J vt—v»l
Differenza semplice media: — —^ — — è una misra delle variabilità medie interne alla
distribuzione cioè fra i singoli valori tra loro.
Differenza semplice media con ripetizione àR quando il confronto tra tutte le
modalità è fatta tenendo conto anche delle differenze di una modalità con se stessa.
Questi indici sono legati dalla relazione à = àR - —
n-l
Differenza semplice media: assume valore minimo àmin = 0 ed valore massimo Amax = Zp
Quando n-l unità statistiche non possiedono alcune modalità del carattere mentre l'-esima
possiede l'intero ammontare del carattere che è uguale a np.
Differenza semplice media con ripetizione: quando abbiamo la distribuzione di frequenza
2 V "1* -1 . .
àR = — / nì(n - n ,* 0('rf i + 1) - xi)
n " L .-rt=i ‘ '

56. Coefficiente di Variazione: un indice relativo di variabilità è il coefficiente di variazione, dato


dal rapporto tra scarto quadratico medio aritmetico. Non essendo espresso in alcune unità di
misura consente di effettuare confronti tra diverse distribuzioni per fenomeni omogenei.
L'espressione analitica è:

5 4 s?=1S>f - «)• v: li) ~


° - R - l 2 ; =1
generalmente è pesreso in percentuale.

57. Variabili Statistiche Doppie.


Data una popolazione U, per ogni individuo consideriamo simultaneamente due variabili
statistiche X eY definiti sui rapporti.
X:{xi...xr} Y:{yi....yc}
Definiamo inoltre la frequenza data dalla coppia (x=xi; y=yj] dove nxy (xi;yj]=nij
Si definisce Distribuzione Doppia o Bivariata come l'insieme nxy
Nxy: {xi,|ij};nxy(xi;yj) con i=l....r ed j=l....c}
Concludiamo dicendo che si ha una variabile statistica doppia quando due variabili sono
ricavate simultaneamente sulla unità x della popolazione U.
Proprietà:

Gutfiver
1. L somma di tutte le frequenze assolute della distribuzione doppia è pari al numero degli
individui.

i= i 1=1j = l j —l := l j = l

2. La somma delle frequenze relative della distribuzione doppia deve essere uguale a 1
(condizione di normalizzazione).
1° dimostrazione: 2° dimostrazione:

s=l t=l :=!;=! sZm'^-v=1


1V

i= i
1

58. La Funzione di regressione.


Sia X una variabile statistica discreta e si considera la media di Y=E[y/xil dato xi
r vi ixj XP' P] Pk ,
E IT7!•j ~ IT = ém/wmÈ PI ‘I~ do ve |— istri inizio ne dell e freq u enze subordinate.
t=l
La media condizionata della Y ad x=i che si indica con (p(i) definito dal supporto Sx, viene
definto Funzione di Regressione della Y sulla X.
(piSx{(pi i = i ... r)oppure {.ri, (pi, i = 1.. r] sia data la variabile discreta (x,y) siano x e y
varia bili quantitative e si consideri la media di x data yj.
pp
E Ef=i xi ■—. La funzione Psi di j definito sul supporto di y viene detto Funzione di
Regressione della X sulla Y.
<PjSy{<fij>j = y .c }e d è descritta da queste coppie {(y; tpj) j=l...c) dove i è una media della
variabile condizionata, ma pertanto bisogna prima trovare le distribuzioni condizionate della Y
dalla X. -

59. La retta di Regressione.


È una retta teorica di sintesi
a = my - J3mx Y l » = a + bx py = a y bpx

P = -7777-7- jE’(YU')} = E (a + bx) a = py —bp\-


V(x)
Y(x) = a + bx

Exy = 2 X 'Vl v lp lJ =X [~ 7 ^ P i ^ Exy = E ^x y ( x i ^


Cov(xy) = Eixy) - jj.xuy Cov(xy) = E[xy(x)] - fi + uy per Yfx) = a 4- bx x y ( X ' )
= a.v +■ bx2

60. La dipendenza in Media.


Y è indipendente in meda da x se py/xi =py per ogni i. La posso definire quando una variabile
(una delle due variabili) è quantitativa e l’altra è qualitativa.
Se y è una variabile quantitativa ed x non è qualitativa, non posso fare <p(xi) ma posso fare la
media condizionata di Yj da x dove py/xi=E^=i~^ (-7 jquesta è la media condizionata di yj da
1
xi, edA
• pY J
.
x: P:
Anche se non posso fare una funzione posso definire la medi condizionata. Quando una
variabile qualitativa e quantitativa posso definire una indipendenza in media. L'unica differenza
quando entrambe le variabili sono quantitative e che nel caso /v. qualitative; v. quantitative)
non posso definire una funzione e non posso rappresentarla graficamente.

GuCCiver
61. Indipendenza di due eventi.
Siano Ae B e E . Ae Bs i dicono indipendenti se e solo se
P(A fi 5 ) = P(A)PiB)o in modo equivalente se P (7) = P(A)e P (7) = P(B),
Queste sono le 3 condizioni equivalenti di indipendenza-^ significa che se una condizione è vera,
le altre due saranno dimostrare in automatico.
Se A e B sono indipendenti anche gli eventi collegati ad A e B (che sono eventi complementari)
sono indipendenti A _ B
CONCETTO DI INCOMPATIBILTÀ: sono A e B e E , Ae B si dicono incompatibili se e solo se
PIA D 5 ) = 0 se si verifica l'evento A non si può verificare l'evento B.
se invece P(A (15) = PiA)P(B) allora ce indipendenza,
Teorema di Bayes: la probabilità di B con K dato A è uguale al rapporto tra la probabilità di
intersezione di B dato A e la probabilità di A:
B ìd P(Bk n A) P (ife) P(Br')
P
~A. P(A) ~ T,^P(.A)Bi)P(Bi)

62. Covarianza.
Prima di definire la covarianza, dobbiamo definire i momenti della variabile statistica doppia. Si
definisce Momento di s(x,y) - s funzione reale di x,y - e si indica
E ls(x.y:}] = ^ s ix .r ÌP x y ix .y ) — E[s(x, yj ] = 'Y V s(x i,y j)P :j s(.x.y') = x ?y qP. QE l +
x y é—j;-i

Quando P=1 e Q=1 -> caso in cui + vicino alla media aritmetica delle variabili doppie, viene
chiamato Momento Misto Centrato di Ordine 1.
Ora possiamo definire la Covarianza, come un momento misto di ordine 1. La covarianza è un
indice molto importante nello studio delle relazioni tra x e y.
Si rappresenta per p=l e q=l Sxy = £ ’=: Ef=i s(xi.yj)Pz)
Le Proprietà:
1. Cov (x,y)=E(xy)-E(x)E(y) oppure 5xy = /Lvy — iixpy
2. Invarianza rispeto alla trasformazione: consideriamo una variabile xy e una trasformazione
variabile T=a+x -> Cov(x,y)=Cov(T,Y).
3. Effetto di cambiamento della scala 0 di unità di misura. Sia (xy) la variabile statistica doppia
e sia T=bx -> Cov(T,Y)=bCov(x,y).
4. Se la x=a , la C0v(xy)=0
5. Quest'ultima proprietà evidenza un indice basato sulla covarianza. La covarianza è
compresa tra i valori min(Cov)=-6x6y max(Cov)= 6x6y
-6x6y <Cov(xy)< 6x6y; |Cov(x,y)|< 6x6y -> valore assoluto.
La covarianza non può mai superare questa grandezza!!!

63. Scomposizione della Varianza.


Consideriamo una variabile statistica bidimensionale e studiamo come si scompone la variabile
di Y(xy), V(Y) partiamo dalla V(Y).

V(Y) = £ ; I . ( v ; - p y ) : P ‘ M - y j ) = I ; S , ( y j - (p I,v-)) + ( o ( x i ) - u y ) )’ P ( x i Y j ) =

Gutfiver
- Z 5 > - (p(xi))2 P(xiYj)
; i
+ ’y
S ^y['\(p{xi) - uy)Yp(xiYj)
: ;
^ [( y j - cp(xlì)i ( 0 ' xi) - uy) )
+2 P(xiYj) =
: ì
Dimostrazione che c=0

I 2 > - <p(x:))((^ (xiJ - Cjyj I PixìYj) -in y j - «pu:'J )((c>Cv;J - uv) ) Py\/x(—)(p x (x i))

V:(.(pCn) - uy) l,(yj - <p(.v:.f Py/.v(—r


La somma degli scarti della media =0
Viene sempre 0.
X ~ p (x i>yj) 4- ^ ^ (<p(xi) - y\j2P{xì; yj)
i ) ; ;

^ ^ ( v ; - <p(xi))~ Py/x {^-) Px ( x ì) + ^T(^(.rO - uy)2 P(xuyj')

= £ P x ( x Q Y j y j - <p{.rO)' “ y -(^ ) + 1 f ( y ) -K v j^ .v (x f)

X7(<pCv)} = Yjfjpixi) —uy) zPx\x0 -> è la parte della varianza della Y che è spiegata da <p(xf)
Varianza Spiegata (indica quanto le medie dei gruppi sono differenti con la media generale)
V (yj - <pixi)) P - ( — BZ^~ = V(ì-)
Z—j X \Xl ■' XI \xi

S : Px(xi) Sj(y/ - (pixi))2


Varianza Residua
<p U1): (p{x2)\(p{xTj -> sono distanze che elevate al quadrato mi indicano la Varianza.

>

64. Standardizzazione di una variabile Casuale.


Sia X distribuzione normalmente con media e varianza (p;cr2) si dice variabile casuale normale
standardizzata la variabile c.
Z = jyy Z = —7^=f Z è una trasformata di una variabile originaria

È una trasformazione lineare con media e varianza (0; 1)


Le proprietà:
1. Media di Z EiZ) = £ [—===■ - E ( .... j = 0 Yr~deviazione standard

2. Varianza di V(Zj = ( ~ - ) - - i - y(x _ ,.v) = _ 1222 = j_


V 5x .> o* v * ’ ' ó*x 5*

Gutfiver
65. Standardizzazione di una variabile normale.
Sia x distribuita normalmente con media e varianza (p;a2). Si dice variabile normale
standardizzata la variabile Z = ——- che è ancora una variabile normale perché è una
ù ^ ,v

trasformazione lineare con media e varianza (0;1) 3) Z= (0; 1)

fz(Z) = ~ ~ ù ~ z i l'asse di simmetria è l'asse delle ordinate xkè la media è 0 . 1 punti di flesso
sono - l e i . questa funzione di standardizzazione è importante xkè per calcolare l'aria di
distribuzione, usiamo la tavola.
Jca \
—Zrt e z —
0*- -* Z = —
or a* = a z 4- 'ii ea a x = o c ì z

66. Variabile Normale ( di GAUSS).


Si dice X distribuita normalmente con parametri (p;cr2) la variabile casuale x £ R con funzione di
densità di probabilità uguale.

A^ Ar( ( p ;a 2) p.eR; 52 > 0 f x (x ) = ~^= 1


"V « TTC*

Se x->oo l'esponente rimane negativa , e coincide con l'asse delle ascisse.

67. Variabile Casuale (di POISSON).


Funzione di Probabilità: P(.r.) = e~À >—
FW = A t'f.v) = A '
A
n= — -* A = riTT
n

68. L'ipotesi.
1. X v/v(! u: cr)
cono- nota e si considera un campione bernoulliano di ampiezza n estratto dax(’xl,,xn)
Per verificare le due ipotesi:
Ho-H = ih Hx\u = u c
Si utilizzi il test di dimensione a che ha come ragione critica:

,■ \ I— , u u .v.n a
R [xi |.vn - ^ c.j > ZI —•—= = ■<. ivi. , .vn):-
’ ’ - %n o > Z1- J
xn

Gutfiver
2. A”v iV(((i; a : )
Hq-V = P*c M-1>m.O quindi il test con ragione di rifiuto.
H01:ii = Ju1

R = j(,vl . . . x n ) : x n > uO + Z I - a = ] ( x l ... a > Zi - a


x n.
\n
a. HQ:pi = piO Ht-.pi=pil co n pi1 > juO
b; H 0: pj = fxQ Ht : j.i > /iO
C. H0: pi < pi0 t ì t : p > piO

3. à’^ ìV(( u; cr) La ragione di rifiuto :

CJ ATI — llO
* = {c xl ,„xn);xn < uQ - Z I - a •— } = { (,vl ... ,t7 i); -ZI-a
v'n m
xn

Gulliver