Sei sulla pagina 1di 12

La statistica è la disciplina che ha come fine lo studio quantitativo e qualitativo di un particolare fenomeno

in condizioni di incertezza.
La statistica descrittiva studia il fenomeno relativo ad un campione (parte di una popolazione); la statistica
inferenziale estende i risultati ottenuti su un campione all’intera popolazione.

STATISTICA DESCRITTIVA O UNIVARIATA

Per studiare un unico carattere o fenomeno utilizziamo una tabella semplice.


In questa tabella teniamo conto solo ed unicamente delle frequenze assolute, ovvero
Carattere xi Frequenze assolute

x1 n1

… …

xi ni

Totale N

Nella seguente tabella teniamo conto anche delle frequenze relative, date dal rapporto tra le frequenze
assolute e il totale: fr = fa /N.

Carattere xi Frequenze assolute Frequenze relative

1 3 3/19 = 0,16

2 6 3/19 = 0,31

3 10 3/19 = 0,53

Totale N = 19 1

Possiamo ricavare le frequenze relative percentuali moltiplicando le frequenze relative per 100: fr ∙ 100.

Carattere xi Frequenze assolute Frequenze relative Frequenze relative


percentuali
1 3 3/19 = 0,16 16%

2 6 3/19 = 0,31 31%

3 10 3/19 = 0,53 53%

Totale N = 19 1 100%

Quanto i dati della nostra distribuzione sono elevate, utilizziamo la distribuzione in classi.
Classi null

1-5 null

5 - 10 null

10 - 15 null

In tale tipologia di distribuzione il valore x1 rappresenta l’estremo inferiore della prima classe mentre il
valore x 2 rappresenta sia l’estremo superiore della prima classe che l’estremo inferiore della seconda
classe (e così via).

Pagina 1 di 12

È possibile calcolare l’ampiezza di una classe, ovvero la differenza tra l’estremo superiore e l’estremo
inferiore:
nell’es. l’ampiezza della prima classe è dato da 5 − 1, quella della seconda da 10 − 5, quella della
terza da 15 − 10.
È possibile calcolare la densità di frequenza, data dal rapporto tra la frequenza e l’ampiezza della classe.
Inoltre, a volte, potrebbe essere necessario calcolare il valore centrale della classe, dato dalla semisomma
dei suoi estremi:
nell’es. il valore centrale della prima classe è dato da (5 + 1)/2, della seconda da (10 − 5)/2 e così
via.

Possiamo, attraverso degli indici, ottenere un’informazione sintetizzata del fenomeno osservato.
Tra tali indici troviamo gli indici di posizione cui fanno parte: media aritmetica, media geometrica, media
armonica, media quadratica, mediana, moda, quartili.
Tali indici di posizione rispettano quattro caratteristiche fondamentali:
conservazione: il valore medio conserva l’unità di misura.
monotonia: date due distribuzioni, X , Y , se anche una sola unità statistica di Y > X , l’indice di
posizione di Y sarà maggiore di quello di X.
consistenza: se tutti i termini di una distribuzione sono uguali (1,1,1,1,1,1) l’indice di posizione sarà
uguale a tale valore (1).
internalità: tale valore assumerà sempre un valore incluso tra il minimo e il massimo della
distribuzione x1 < IP(X ) < xN
Gli indici di posizione si dividono in due categorie: le medie razionali e le medie posizionali.
Le medie razionali sono calcolate attraverso operazioni algebriche e prendono in esame tutte le osservazioni
della nostra distribuzione, tra le medie razionali troviamo la media aritmetica, la media geometrica e la
media armonica.
DEFINIZIONI DI CHISINI
Otteniamo la media aritmetica se la funzione f , ovvero l’operazione algebrica che andiamo ad
applicare, è la somma dei termini rapportato a n; la media geometrica se la funzione f è il prodotto
dei termini; la media armonica se la funzione f è la somma dei reciproci dei termini.
Le medie posizionali, a differenza di quelle razionali, sono calcolate prendendo in esame solo alcuni dati
della nostra distribuzione, e sono:
La moda, ovvero la modalità a cui corrisponde la massima frequenza.
TALE INDICE, LA MODA, È UTILIZZABILE ANCHE PER CARATTERI QUALITATIVI.
La mediana, ovvero quell’indice che, una volta ordinati in ordine non decrescente i nostri dati
divide la nostra distribuzione in due parti uguali.
I quartili: Q1 lascia il 25% delle osservazioni a sinistra e il 75% a destra; Q2 si identifica con la
mediana; Q3 lascia invece il 75% delle osservazioni a sinistra e il 25% a destra.
I percentili, che utilizziamo se i valori vengono espressi in valori percentuali.

Oltre agli indici di posizione è possibile utilizzare gli indici di variabilità.


COS’È LA VARIABILITÀ? La variabilità è l’attitudine di un fenomeno ad assumere differenti modalità.
È possibile spiegare meglio questo concetto introducendo due principi: il principio di dispersione e il
principio di disuguaglianza.

Pagina 2 di 12

Abbiamo dispersione quando i nostri dati si allontanano da un valore centrale: nella distribuzione
1,2,3,4,5,6 il nostro valore centrale, ad es. la media, è 3,5. Abbiamo dispersione quanto più ogni
singola x si allontana dal valore 3,5.
Abbiamo disuguaglianza quando le nostre unità statistiche presentano diversi valori; nella
distribuzione 1,1,1,1,1,1 non c’è disuguaglianza in quanto le nostre unità statistiche presentano gli
stessi identici valori, nella distribuzione 3,7,12,23,44,67 c’è disuguaglianza in quanto le nostre
unità statistiche hanno valori differenti.
Gli indici di variabilità possono essere assoluti, se misura la variabilità nella scala del fenomeno statistico e
conservano l’unità di misura, o relativi se si ottengono con il rapporto tra l’indicatore di dispersione e la
media e restituiscono dei numeri «puri». Tutti gli indici di variabilità presentano le seguenti proprietà:
nullità, ovvero se tutte le unità statistiche presentano la stessa modalità, l’indice di variabilità è pari
a 0.
non negatività, non può assumere valori negativi.
invarianza per traslazione, se si somma una costante k a tutti i termini della nostra distribuzione,
l’indice di variabilità non cambia.
invarianza per prodotto, se si moltiplica una costante k a tutti i termini della nostra distribuzione,
l’indice di variabilità non cambia.
Tra gli indici di variabilità assoluti basati sulla disuguaglianza troviamo:
il campo di variazione, anche conosciuto come range, K che è dato dalla differenza tra xmax – xmin =
K = xmax – xmin. Tale indice è sensibile ai soli valori estremi, risente di eventuali valori anomali e non
tiene conto dell’ampiezza della nostra distribuzione.
Per ovviare ai problemi di cui risente il campo di variazione, utilizziamo la differenza interquartile,
ovvero la differenza tra il terzo e il primo quartile = DI = Q3 − Q1 . Tale indice prende in
considerazione tutti i valori della nostra distribuzione e, nel calcolo, taglia fuori eventuali valori
anomali.
Tra gli indici di variabilità assoluti basati sulla dispersione abbiamo la varianza, lo scarto quadratico medio
SQ M e la devianza.
la varianza è la media dei quadrati degli scarti dei singoli valori dalla media aritmetica.
lo scarto quadratico medio SQ M è la radice quadrata degli scarti dei singoli valori della media
aritmetica.
la devianza è la somma di quadrati degli scarti dalla media.
Abbiamo poi gli indici di variabilità relativi, ovvero il coefficiente di variazione di Pearson, il coefficiente
di variazione interquartile e la concentrazione.
il coefficiente di variazione di Pearson è il rapporto tra la deviazione standard e la media aritmetica
in valore assoluto C V = σ : | M | e può essere utilizzato solo quando la media è maggiore di 0. Tale
indice varia da 0 a 1, che stanno ad indicare, rispettivamente, variabilità nulla e massima variabilità.
il coefficiente di variazione interquartile è dato dal rapporto tra la differenza interquartile e la
somma in valore assoluto tra il primo ed il terzo quartile C V I = W : | (Q1 + Q3) | ; tale indice è
preferibile al precedente se osserviamo eventuali valori anomali.
la concentrazione è quell’indice che misura come l’ammontare totale di un carattere quantitativo,
non negativo, additivo e trasferibile si ripartisce tra le unità statistiche della popolazione. Abbiamo
massima concentrazione se tale ammontare è tenuto da un’unica unità statistica oppure una
equipartizione o concentrazione nulla se tale ammontare è ripartito tra le unità statistiche. È
possibile calcolare la concentrazione attraverso il rapporto di concentrazione di Gini, tale rapporto
varia tra 0 nel caso di equidistribuzione e 1 nel caso di massima concentrazione.
GLI INDICI DI FORMA CUI SOPRA VENGONO UTILIZZATI SOLO ED ESCLUSIVAMENTE PER CARATTERI QUANTITATIVI.

Pagina 3 di 12

Nel caso di caratteri qualitativi possiamo ricorrere ad altri indici di variabilità, chiamati in questo caso
indici di mutabilità. Gli indici di mutabilità più utilizzati sono l’indice di eterogeneità del Gini e l’indice di
entropia di Shannon.
l’indice di eterogeneità del Gini presenta un valore minimo pari a 0 quando c’è massima omogeneità
e un valore massimo uguale a (K − 1)/K nel caso di massima eterogeneità.
l’indice di entropia di Shannon può essere utilizzato in alternativa al precedente (indice di
eterogeneità) ed è pari a 0 nel caso di massima omogeneità e a l ogK nel caso di massima
eterogeneità.

Possiamo ottenere informazioni sintetiche attraverso la lettura di diversi grafici:

100

75
frequenze

50

25

modalità

il grafico a barre che viene utilizzato nel caso di un numero limitato di modalità — si costruisce
portando sull’asse delle ascisse x le modalità e sull’asse delle ordinate y le relative frequenze:

ricorriamo al diagramma circolare (grafico a torta o aerogramma) quando una variabile statistica
presenta un basso numero di modalità — le frequenze sono rappresentate come sezioni (fette) di un
cerchio; ogni sezione rappresenta la modalità e la sua dimensione è proporzionale alla frequenza
relativa della stessa:

18

21

76

26
Pagina 4 di 12

utilizziamo l’istogramma quando alcuni caratteri di presentano con un numero elevatissimo se non
infinito di modalità — per disegnarlo si riporta sull’asse delle ascisse x le classi e sull’asse delle
ordinate y le relative frequenze:
TALE TIPOLOGIA DI GRAFICO SI UTILIZZA PER LE DISTRIBUZIONI IN CLASSI

200

150
frequenze

100

50

classi

infine il box-plot, quella rappresentazione grafica che ci permette di visualizzare misure statistiche
chiave quali mediana, media e quartili e che viene costruito dopo il calcolo di:
Q1, Medi a n a, Q3, x1, xN , Li, Ls. Il limite inferiore e quello superiore si calcolano attraverso le
seguenti formule Li = Q1 − 1,5(Q3 − Q1) e Ls = Q3 + 1,5(Q3 − Q1).

[inserire grafico box-plot]

il box-plot racchiude al proprio interno le seguenti informazioni:


l’indice di posizione, misurato con la mediana, rappresentata con una linea all’interno del
box e con i quartili, che sono i due estremi del box stesso.
l’indice di variabilità misurato con la differenza interquartile e rappresentato dalla diversa
ampiezza della scatola. E
la simmetria, asimmetria positiva o asimmetria negativa;
abbiamo simmetria se Media = Mediana = Moda; abbiamo asimmetria positiva se Media > Mediana
> Moda; abbiamo asimmetria negativa se Media < Mediana < Moda.

Oltre alle informazioni rispetto la simmetria che possiamo avere attraverso il box-plot, è possibile utilizzare
un indice, quello di Fisher, che si basa sugli scarti standardizzati. Tale indice è pari a 0 nel caso di
simmetria, maggiore di 0 ( > 0) in caso di asimmetria positiva e minore di 0 ( < 0) in caso di asimmetria
negativa.
Un altro indice, cui peculiarità è non richiedere la media, è quello di Yule e Bowley che si calcola attraverso
l’utilizzo dei quartili: Y B = Q3 + Q1 − 2Q2 /(Q3 − Q1) tale indice varia tra -1 e 1, più si avvicina a -1 e più
la asimmetria è negativa, più si avvicina ad 1 e più l’asimmetria è positiva.
UTILIZZIAMO LA DISTRIBUZIONE/VARIABILE STANDARDIZZATA, OVVERO IL PROCEDIMENTO CHE TRASFORMA
x1, …, xi, …, xN IN z1, …, zi, …, zN. [COME SI FA]

Pagina 5 di 12

STATISTICA O ANALISI BIVARIATA

L’analisi bivariata evidenzia e studia eventuali correlazioni o relazioni tra due o più variabili aleatorie — in
contrapposizione all’analisi univariata che studia una sola variabile aleatoria.
Esiste un legame logico che lega tra loro due o più variabili: tale legame è detto indiretto (relazione spuria)
se le variabili X e Y non dipendono l’una dall’altra ma sono legate entrambe ad un’altra variabile Z.
Quando abbiamo l’esistenza di un nesso logico tra due variabili è opportuno evidenziare se tale tipo di
relazione è asimmetrica o simmetrica:
è asimmetrica quando la variazione di X causa una variazione in Y ma non il contrario; è simmetrica
quando si influenzano reciprocamente e non riusciamo a definire quale variabile sia la causa e quale
sia l’effetto.

[approfondire bivariata e capire meglio devianza interna ed esterna]

Quando vogliamo studiare la dipendenza (o indipendenza) tra due variabili possiamo ricorrere al x 2 di
Pearson dato dal calcolo delle frequenze teoriche attraverso il rapporto tra il prodotto dei marginali riga e
colonna e il totale (Mr ∙ Mc )/N e successivamente tra il quadrato della differenza tra frequenze assolute e
frequenze teoriche rapportate alle frequenze teoriche (Fa − Ft )/Ft.
Tale indice varia da 0, dove abbiamo perfetta indipendenza ad un massimo, che sta ad indicare la perfetta
dipendenza, dato da N ∙ m i n dei marginali riga/colonna (r − 1,c − 1).
Possiamo ricorrere all’indice V di Cramer per portare i valori min. e max. a (0,1) — a 0 corrisponde la
perfetta indipendenza a 1 la perfetta dipendenza.
χ2
La formula è: V =
m i n(k − 1,r − 1)n

È possibile studiare la relazione (di interdipendenza) tra due variabili statistiche grazie ad indici quali
codevianza, covarianza e correlazione:
la codevianza è la somma dei prodotti degli scarti di due variabili dalle rispettive medie.
la covarianza è la media dei prodotti degli scarti di due variabili dalle rispettive medie.
la correlazione si riferisce al coefficiente di correlazione lineare di Brevais-Person che afferma che:
date due variabili statistiche, la correlazione lineare è il rapporto tra la covarianza e il prodotto degli
scarti quadratici medi delle due variabili ICP = σX Y /σXσY . Tale coefficiente assume sempre
valori compresi tra −1 ≤ ICP ≤ 1 dove -1 indica massima dipendenza lineare inversa e 1 indica
massima dipendenza lineare diretta — se il valore è prossimo allo 0 abbiamo invece indipendenza
lineare.
QUANTO SCRITTO FINO AD ORA SI RIFERISCE A DUE VARIABILI CHE HANNO UNA RELAZIONE DI TIPO
BIDIREZIONALE.
Quando tra due variabili il tipo di rapporto non è bidirezionale abbiamo una variabile detta indipendente o
esplicativa e una variabile definita dipendente.
Per studiare la forza della dipendenza in media della variabile dipendente da quella indipendente è possibile
utilizzare l’indice di regressione lineare:
tale indice è un modello che misura come varia una variabile dipendente in funzione di una variabile
esplicativa.

Pagina 6 di 12

in tale modello abbiamo il coefficiente b1 che è chiamato coefficiente di regressione o angolare e b0


che è una costante, chiamata anche intercetta.
b0 ci dice il valore della variabile dipendente quando la variabile indipendente assume come valore
0; b1 indica quanto aumenta il valore yi all’aumentare di xi.

STATISTICA INFERENZIALE

La probabilità è una scienza dell’incertezza. Il fine che si pone ad un evento è un trade-off tra la raccolta
dei dati e la precisione che vogliamo raggiungere con la nostra analisi.

Per studiare la probabilità consideriamo:

–– La prova: esperimento che può produrre due o più risultati non prevedibili con certezza.
La prova deve soddisfare queste condizioni:
1) Tutti i possibili risultati devono essere noti a priori;
2) Il risultato non è noto prima dell’inizio della prova;
3) La prova può essere ripetuta più volte ma con le stesse condizioni.

–– L’evento è uno dei possibili risultati della prova.


Gli eventi possono essere semplici (ω) o composti (E).
L’insieme di tutti i possibili risultati di una prova è detto spazio campione (Ω).

Le prove generano sempre eventi elementari, solo che a volte si vuole misurare direttamente la probabilità di
eventi composti. In questo caso se l’evento composto si compone di un solo evento elementare lo indichiamo
o con E o con ω, altrimenti se ce ne sono di più, sono indicati con E:E (ω1 ω2…).

La probabilità è un numero compreso tra 0 ed 1 ed indica il grado di possibilità che si verifichi tale evento.
Tanto più è probabile che l’evento si verifichi, tanto la probabilità è vicina all’1.

• Per sapere con esattezza quale misura associare agli eventi (0 o 1) bisogna definire che relazione esiste tra
gli eventi:

E1 ed E2 sono incompatibili se al presentarsi di E1, E2 è escluso o viceversa.


E1 ed E2 sono compatibili se al presentarsi di E1, E2 non è escluso o viceversa.
E2 è incluso in E1 se tutti gli eventi elementari che compongono E2 fanno parte di E1 (ma non vale
l’opposto).
Queste relazioni possono essere rappresentate con i diagrammi di Venn.

• Anche lo spazio campionario può essere considerato un evento composto ed essendo costituito
dall’insieme di tutti i possibili risultati dell’esperimento, è sicuro si realizzerà:
– quando un evento è sicuro si realizzerà è detto evento certo;
– se lo spazio campionario è formato solo da eventi incompatibili si ha una partizione;
– un evento che sicuramente non si realizzerà è detto evento impossibile Ø.

• Gli eventi NON SONO numeri, quindi ci si può rifare solamente di operatori logici. Gli unici operatori
che valgono per gli eventi sono:

Pagina 7 di 12

























––– L’unione (∪): dati due eventi E1 ed E2, si chiama unione l’insieme degli elementi che appartengono
a E1 o E2. Ovvero quando il risultato della prova fa parte di E1 o E2.
––– L’intersezione (∩) di E1 o E2 è l’insieme degli elementi che appartengono contemporaneamente a
E1 e E2.
––– Dato l’evento E, la Negazione (Ē) è l’insieme di tutti i risultati di un esperimento compresi nello
spazio campione e non compresi in E.

Nel caso di due eventi incompatibili, la relazione tra un evento e la sua negazione genera evento nullo.

Il numero degli eventi e la relazione tra essi costituisce l’algebra degli eventi. L’obiettivo di qualunque
prova è quella di associare una probabilità a tutti gli eventi generati dalla prova, che è influenzata sia dalla
relazione tra gli eventi sia dal tipo di operazione.

Il concetto di probabilità è molto cambiato nel tempo, tanto che abbiamo diverse definizioni di
probabilità:

–– definizione classica: tale definizione si fonda sul principio che deve essere nota a priori la possibilità con
la quale si possono verificare diversi eventi, ma ciò non può accadere sempre.

La probabilità che si verifichi evento E è il rapporto tra il numero di casi favorevoli (quante volte si è avuto
quel risultato) ed il numero totale di risultati ugualmente possibili che si escludono a vicenda.

–– definizione frequentista: tale definizione non richiede una conoscenza a priori della probabilità connessa
a ciascun risultato della prova, ma il limite di questa definizione è che le prove devono essere ripetute sempre
nelle medesime condizioni sperimentali.

La probabilità che accada un evento E associato ad una prova è pari al limite (lim) a cui tende il rapporto tra
il numero di volte che accade tale evento ed il numero di prove indipendenti effettuate.

–– definizione assiomatica: la probabilità è vista come una funzione che assume ad ogni evento un valore,
ma non indica in che modo farlo e quindi non è possibile da applicare.

Dati gli eventi E1 ed E2 che formano lo spazio campione e P(Ei), la probabilità che la prova generi evento i-
esimo, ad ogni evento dello spazio campione è associato un numero reale P(.) che deve:
1) assegnare ad ogni evento un numero reale non negativo
2) avere uno spazio campione con probabilità pari ad 1
3) la probabilità dell’unione di eventi incompatibili deve essere pari alla somma delle probabilità associate ad
i singoli eventi.

–– definizione soggettiva: tale definizione conduce alla stessa struttura matematica di quella assiomatica,
considerando gli eventi di vincita certa e perdita certa.

La probabilità associata ad un evento è il prezzo che un individuo razionale ritiene equo pagare per ricevere
1 se l’evento cade e 0 se non accade.

Pagina 8 di 12












–––––––––––––––––––––––––––––––––––––––––––––––––––

In alcuni esperimenti casuali gli eventi sono collegati tra loro logicamente: il presentarsi di un evento
può condizionare il presentarsi dell’altro e di conseguenza la probabilità di quest’ultimo si modifica. Si parla
in questo caso di probabilità condizionata: dati due eventi E2 ed E1, è probabile che E2 si presenti proprio
perché si è presentato E1. Tale probabilità è strettamente collegata all’intersezione tra eventi: è pari al
rapporto tra la probabilità che si verifichi l’evento intersezioni e la probabilità che si verifichi l’evento
condizionante.

Conoscendo questa probabilità è possibile determinare la probabilità che accadano contemporaneamente due
eventi.
Si parla di indipendenza stocastica: Gli eventi E2 ed E1 sono indipendenti se il presentarsi dell’evento E1
non influisce sul presentarsi dell’evento E2 e viceversa.
L’indipendenza non è una relazione tra gli eventi (l’incompatibilità lo è) ma è collegata alla
misura di probabilità.

Il Teorema delle Probabilità totali si formula partendo dalla probabilità condizionata: E1 ed E2


costituiscono una partizione dello spazio campione ma sono incompatibili, così come E è un evento che si
presenta solo se associato a E1 o E2, la probabilità che E si presenti è data da P(E)= P(E1)P(E|E1) +
P(E2)P(E|E2) la barra si legge “dato”

Il Teorema di Bayes si formula partendo dal teorema delle probabilità totali. Grazie a questo teorema è
possibile calcolare la probabilità che essendosi verificato un evento questo sia avvenuto per via di una certa
causa tra un gruppo di cause incompatibili.
Considerati gli eventi incompatibili E1 ed E1 che sono una partizione dello spazio campionario, si deve
considerare un evento E che deve essere associato o a E1 o E2. La probabilità che si presenti E1 è data da:
la probabilità a posteriori che è uguale alla probabilità a priori che moltiplica la probabilità condizionata
fratto il teorema delle probabilità totali:

P(E1|E) = P(E1)P(E|E1)/P(E)

• La probabilità a priori misura la probabilità che si presenti l’evento E1 senza tener conto delle
informazioni che abbiamo a disposizione dopo che si è realizzato l’evento E
• La probabilità condizionata misura la probabilità che si presenti E tenendo però conto delle informazioni
derivanti dal realizzarsi di E1

–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––

Variabili casuali

Pagina 9 di 12












Per superare gli inconvenienti delle probabilità (sono operatori logici e non numeri) usiamo la funzione che
associa ad ogni evento dello spazio campionario un numero:
Una variabile casuale è una funzione che fa corrispondere un numero a tutti gli eventi di uno spazio
campionario. Se lo spazio campionario è formata da una serie di eventi finiti o numerabili la variabile è
chiamata discreta, altrimenti, continua.
Si indicano con x i valori di una variabile casuale X, rappresentati sull’asse delle ascisse, mentre le
probabilità a loro associate si trovano sull’asse delle ordinate. I valori delle variabili casuali e le rispettive
probabilità formalo la distribuzione di probabilità. A seconda della natura della variabile casuale (discreta o
continua) la distribuzione di probabilità cambia nome; si chiama funzione di probabilità se la X è una
variabile casuale discreta, mentre si chiama densità di probabilità se la variabile casuale è continua.
Per quanto riguarda le variabili casuali continue, una prova può generare un numero infinito di numeri
elementari, quindi la probabilità associata ad ogni evento sarà sempre 0. Infiniti eventi elementari sono
chiamati puntuali e rappresentano un punto sull’asse dell’ascissa. Essendo la probabilità associata alla
prova, che è pari a 1, infiniti eventi sono sempre pari a 0.

Non ha senso calcolare la probabilità associata ad ogni singolo punto x, che sarà sempre pari a 0, ma
possiamo calcolare la densità attorno a quel punto (dx).
Dati i valori x di una variabile casuale C, se x appartiene ai numeri naturali, si ha la funzione di probabilità
P(X= xk) = pk ed il suo valore sarà sempre 1; se x appartiene ai numeri reali si ha la funzione di densità di
probabilità f(x)dx ed il suo valore sarà 1.

La funzione di ripartizione invece esprime la probabilità che la variabile casuale discreta assuma valori
inferiori o uguali ad un valore prefissato xk. Tale funzione è compresa tra 0 ed 1, se X è una variabile
discreta allora si avrà il valore 0, se X è una variabile continua, avrà valore 1.

Quando si calcola la media di una variabile casuale si procede come nella statistica descrittiva, solo
che è chiamata valore atteso ed è indicata con µ.
La Varianza di una variabile indica quanto sono dispersi i valori della varianza rispetto al suo valore atteso.
Tutti i valori studiati per le variabili statistiche possono essere usati per le variabili casuali ma teniamo in
considerazione solamente la media, la varianza e la deviazione standard.

Distribuzioni di v.c. discrete

–– Distribuzione Bernoulliana

La distribuzione Bernoulliana può assumere solo due valori: 1 e 0. Si ha 1 quando l’evento desiderato si
verifica, e a questo sono associate le probabilità, mentre si ha 0 quando l’evento desiderato non si verifica.
Sono a loro associate le probabilità di successo ( p ) e di insuccesso ( 1 - p ).

Una variabile casuale X segue una distribuzione di Bernoulli con parametro p solo se la sua distribuzione di
probabilità è: P(X = x)= p^x(1-p)^1-x

I valori caratteristici di questa distribuzione sono, la µ=p e la Var= p(1-p).

–– Distribuzione binomiale
Pagina 10 di 12









Quando un fenomeno si presenza con n prove indipendente ma ognuna delle quali ha solo due possibili
risultati (sì/no…) questo fenomeno si descrive con una variabile casuale binomiale.

p” rappresenta la possibilità che si presenti l’evento desiderato


(1-p”) rappresenta la possibilità che tale evento non si presenti

I valori caratteristici di questa distribuzione sono, la µ= np e la Var= np(1-p)

–– Distribuzione di Poisson

Si utilizza quando si vuole determinare il numero di volte che si presenta un evento in un dato intervallo di
tempo o spazzo e si utilizza per descrivere un fenomeno con una probabilità di successo molto piccola ( p
probabilità di successo piccola n numero di prove molto grande).
Se p è molto piccolo il numero medio di eventi sarà molto più piccola di n ed il numero di successi sarà
estremamente più piccolo di n.

I valori caratteristici di una variabile casuale di Poisson dipendono da un solo parametro (λ). Quindi sia la
media che la varianza dipenderanno da λ.

Distribuzioni di v.c. continue

–– Distribuzione Normale

La distribuzione normale è nota anche come distribuzione di Gauss. La funzione di densità di una variabile
casuale gaussiana ha queste proprietà:
1) il punto di massima densità in corrispondenza del percentile x=µ è pari a 1/√2πσ²
2) è asintotica rispetto all’asse delle ascisse
3) la densità è crescente per i valori di x<µ e decrescente per i valori di x>µ
4) ci sono due punti di flesso in corrispondenza dei percentili x=µ-σ e x=µ+σ
5) la distribuzione è simmetrica rispetto al valore atteso µ
6) per i valori della variabile casuale X compresi tra -∞ e +∞ l’area sotto la curva è pari a 1, quella compresa
tra i percentili x=µ-σ è pari a 0,95 e quella tra i percentili x=µ+σ è pari a 0,68

Partendo dalla distribuzione normale è possibile ottenere una distribuzione normale standardizzata (Z) con
la seguente formula Z= X-µ / σ. Tale variabile casuale Z ha µ pari a 0 e σ pari ad 1. È utile perché qualunque
sia il valore della media e della varianza della variabile casuale X la sua densità è riconducibile alla funzione
di Z, quindi volendo conoscere la probabilità del percentuale X basta che mi calcoli quello di Z.

–– Distribuzione χ²

Date le variabili casuali indipendenti X1, X2…Xn con distribuzione normali e con parametri µi e σ²i (i=1) la

Pagina 11 di 12


















variabile casuale segue una distribuzione χ² con n gradi di libertà (esprimono il numero minimo di dati
sufficienti a valutare la quantità d'informazione contenuta nella statistica)

–– Distribuzione t di Student

La variabile casuale segue una distribuzione t di Student solo se è data dal rapporto di due variabili
indipendenti, dove la prima è una distribuzione normale standardizzata (Z) e la seconda è la radice quadrata
del rapporto tra una variabile casuale χ² ed i suoi gradi di libertà.
La funzione di densità di questa distribuzione è simmetrica ed unimodale, a forma campanulare. Quando i
gdl aumentano ( n>30 ) questa distribuzione è una buona approssimazione della distribuzione normale.

Statistica inferenziale

Con l’inferenza si cercano valori caratteristici della popolazione osservando solo una parte di essa
utilizzando un campione casuale. Si estraggono questi campioni che poi vengono analizzati attraverso gli
intervalli di confidenza o la verifica delle ipotesi, che sono strumenti utili a generalizzare i risultati
dell’intera popolazione.

L’inferenza si ha solo quando il campione presenta la caratteristica della casualità. Il campione casuale della
popolazione N deve avere la stessa possibilità di essere estratto di tutti gli altri campioni. Se N è grande
abbastanza da poter affermare che l’estrazione di n unità campionate non ne modifica la composizione, allora
la popolazione è infinita. Una popolazione per essere considerata infinita non deve avere necessariamente
una numerosità elevata ma la probabilità di estrarre un’unità statistica non deve cambiare a seconda dei
risultati delle estrazioni che la precedano.

Prima dell’estrazione ogni unità è una variabile casuale: il campione casuale è una n-pla (ennupla) di
variazione casuale x1, …, xN indipendenti ed unicamente distribuite.
Ogni estrazione è un esperimento casuale e i valori che può assumere sono definiti da una variabile casuale
con distribuzione identica a quella del carattere da studiare

Pagina 12 di 12

Potrebbero piacerti anche