Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
LA STATISTICA DESCRITTIVA
Cosa è la statistica?
La statistica è la scienza che permette di raccogliere ed analizzare informazioni per giungere a
diverse conclusioni.
Essa si occupa di:
- Progettare (come vanno raccolti i dati, ossia in maniera totale o parziale? Diretta o
indiretta?);
- Descrivere (sintetizzarli, cioè elaborare i dati che poi vanno rappresentati con grafici);
- Inferire (formulare previsioni). -> dunque, nel processo statistico è necessario identificare
l’oggetto della ricerca, raccogliere dati, descriverli e fare inferenza.
L’analisi statistica si avvale del metodo descrittivo e di quello inferenziale, pertanto la statistica
descrittiva descrive i dati, mentre l’inferenza statistica si concentra sui risultati ottenuti da un
campione, per poi estenderli sulla popolazione.
L’unità statista è quell’elemento di base della popolazione su cui si vuole effettuare la rivelazione e
su di essa si osservano uno o più caratteri.
Il carattere o variabile è quella caratteristica dell’oggetto di studio (es. età, altezza se si studiano gli
studenti).
La modalità è il numero (per caratteri quantitativi) o l’attributo (per caratteri qualitativi) che l’unità
manifesta.
La frequenza è il numero di volte che ciascuna modalità si presenta.
Le variabili per l’appunto possono essere qualitative o quantitative.
- Le qualitative si distinguono in nominali e ordinali; quelle ordinali sono quelle che
presentano un ordine che può essere crescente o decrescente, mentre le nominali sono
quelle che non lo seguono, pertanto risultano sconnesse fra di loro. Fra queste è possibile
ritrovare caratteri dicotomici, cioè quelle che rispondono solo ad una domanda con due
risposte: si o no.
- Le quantitative si distinguono in continue (non numerabile), dove per l’appunto è possibile
fare una media (ad esempio queste persone in media vanno tre volte a settimana a lezione
(peso e altezza continui e se misuriamo è continua), o discrete (numerabile) quando il
valore cambia sempre e può essere sommato o moltiplicato, dunque può variare (es. i
gradi).
Una variabile discreta è una variabile quantitativa le cui modalità assumono un numero finito o
un'infinità numerabile di valori. Con il termine "numerabile" significa che i valori risultano da
un conteggio, come 0, 1, 2, 3, e così via. Una variabile continua è una variabile quantitativa le cui
modalità assumono un numero infinito di possibili valori che non sono numerabili.
Queste quantitative possono svilupparsi su scala ad intervalli, di rapporto o non rapporto:
1. Intervalli dipende da una distanza fra i valori, pertanto dove vi è addizione o
sottrazione;
2. Di rapporto si basano sulla moltiplicazione e divisione;
3. Di non rapporto sono quelle che hanno valori non collegati fra loro, di origine dunque
non convenzionale, come nel caso della temperatura -> cui il momento di origine è 0°,
ma se andiamo in F° abbiamo un altro valore convenzionale.
Possiamo però avere degli errori nel campionamento quando i risultati di un campione non
sono rappresentativi della popolazione. Questo può essere dovuto ad un errore di
campionamento (sotto copertura-> quando la proporzione di un segmento della popolazione è
più bassa nel campione che nella popolazione; lista incompleta), nel momento in cui le
tecniche usate per selezionare gli individui da includere nel campione tendono a favorire una
parte della popolazione piuttosto che un’altra; errore legato ai non rispondenti (persone che
non desiderano rispondere all’indagine o che l’intervistatore non riesce a contattare); errore
legato ai rispondenti – magari le risposte sull’indagine non riflettano i veri sentimenti degli
intervistati - (errore intervistatore o nel questionario).
La variabile statistica
L’effetto dell’operazione di determinazione della modalità con cui ognuno dei caratteri si presenta
in ciascuna unità del collettivo è la distribuzione del collettivo secondo i caratteri considerati.
Distribuzione perché mediante essa si indica come le modalità dei caratteri si distribuiscono nelle
unità del collettivo -> modalità con cui si presenta ogni unità del collettivo
ES. distribuzione (in base al voto).
Una volta decisa l’unità statistica dobbiamo capire quali sono le variabili statistiche da prendere,
quindi quali quantitative o qualitative.
ES. Devo partire dalla domanda? Che voto avete preso all’esame di statistica? Poi costruisco la
tabella che può diventare una tabella di frequenza.
Esempio di variabile statistica
Consideriamo come si sono distribuiti secondo il voto dell’esame di statistica 28 studenti del 1°
anno del corso di laurea triennale in Scienze della Comunicazione.
A questo punto introduciamo la frequenza (assoluta) che rappresenta il numero delle volte in cui
una modalità si presenta all’interno della variabile statistica -> inseriamo i vari studenti e i voti che
abbiamo preso, e poi si inserisce la frequenza nel senso che da una parte inseriamo i voti in ordine
crescente e dall’altra parte indichiamo quanti studenti hanno preso quel voto, es. 18 = 1.
In una tabella: xi è il voto preso in considerazione (es. x1(18), x2(19) etc., fino a xs(ultimo voto)),
mentre ni è il numero delle frequenze assolute (quante volte si presenta un determinato voto).
Per ottenere le frequenze relative – la proporzione di osservazioni appartenenti a una determinata
categoria rispetto al totale delle osservazioni - (fi) facciamo il numero delle frequenze assolute
fratto il numero totale N -> ni/N (es. xi=20; ni=10; N=100 -> 10/100= 0,10); dopodichè per trovare
le frequenze percentuali, bi, basta fare ni/N x 100= 0,10 x 100 = 10 -> LA FREQUENZA RELATIVA È
LA PROPORZIONE.
Questo è però riguarda una variabile statistica discreta. E se fosse continua?
xi-xi+1 è la classe di modalità ni la frequenza come sempre, ed in questo caso le frequenze relative
yi sono date sempre da ni/N. Ma come si calcola il valore centrale? X’i= xi+xi+1/2. Dunque avremo:
es. xi= 18-23, ni=20, N=70 -> 20/70= 0,28; v.c= 18+23/2=20,5
Le medie
Dopo la rilevazione dei dati (totale o campionaria, diretta o indiretta – con ampiezza, spese e
strumenti), dobbiamo valutare i nostri dati -> Eseguita la rilevazione statistica si passa
all’elaborazione dei dati, seconda fase di un’indagine statistica. Fra le tante elaborazioni finalizzate
alla sintesi delle informazioni contenute nei dati, le misure di tendenza centrale più usate sono la
media aritmetica, la mediana e la moda.
Le medie algebriche sono quelle medie che prendono in considerazione tutti i valori della
distribuzione.
- Media aritmetica;
- Media geometrica;
- Media armonica;
- Media di potenza;
- Media quadratica.
La media aritmetica semplice è data dal rapporto tra la somma delle singole modalità e il numero
complessivo della popolazione, mentre la media aritmetica ponderata si ottiene dal rapporto tra il
prodotto delle singole modalità con le rispettive frequenze ed il numero complessivo della
popolazione.
ES. xi=24,25,26,27; ni(frequenze assolute)=10,13,18,20(tot 61) -> prodotto xi x ni= 24x10=240;
25x13=325 etc. TOT=1573
Ma con variabili continue?
ES.
10-20
20-30
30-40
40-50
Ni= 10,20,30,10(tot 70)
v.c= xi= xi+xi+1/2= 10+20/2=15 -> ora questo è possibile moltiplicarlo con il n. delle frequenze ni ->
15 x 10= 150
Quali sono le proprietà della media aritmetica?
1. La somma algebrica degli scarti è uguale a zero -> ipotizziamo media tra 26,27,28=27 -> 26-
27=-1; 27-27=0; 28-27=1 -> -1+0+1=0
2. La somma degli scarti al quadrato è un minimo
-> Consideriamo solo tre valori 20, 21, 22, la cui media è 21 (20-21)2+(21-21)2+(22-21)2=(-
1)2+(0)2+(1)2=2. Proviamo a sostituire un valore diverso dal valore medio, ossia lo zero. (20-
0)2+(21-0)2+(22-0)2=400+441+484=1325
3. La media aritmetica è interna, significa che è maggiore del più piccolo e minore del più
grande.
4. La media aritmetica è associativa, in quanto, suddividendo in due o più gruppi i valori della
variabile x, la media aritmetica della variabile è uguale alla media aritmetica delle medie
parziali dei diversi gruppi ponderati con il numero di elementi di ciascuno.
-> Media generale 20+21+22+23+24+25+26+27+28=24
Media parziale primo gruppo 20+21+22+23=86/4=21,5
Media parziale secondo gruppo 24+25+26+27+28=130/5=26
Verifica proprietà associativa 21,5x4+26x5=86+130=216/9=24
5. Per la media aritmetica vale la proprietà traslativa o uniforme. Se si aggiunge una quantità
h a ciascuno dei valori anche la media risulterà aumentata di h.
6. Gode inoltre della proprietà omogenea. Se si moltiplica ciascuno dei valori per una quantità
k anche la media risulterà moltiplicata per k.
7. Se le xi sono in progressione aritmetica e se N è un numero dispari la media aritmetica
coincide con il termine che occupa la posizione centrale nella graduatoria dei valori
ordinati.
Medie lasche: a differenza di quelle algebriche, prendono in considerazione solo alcuni valori della
distribuzione -> 1. Valore centrale (è il valore centrale); 2. mediana; 3. moda; 4. quartili.
1. V.c= x(1)+x(N)/2
2. Moda -> La Moda, o valore modale, è la modalità del carattere cui corrisponde la massima
frequenza o densità di frequenza (misure di tendenza centrale).
Per CARATTERI DISCRETI la moda si individua facilmente scorrendo lungo la colonna delle
frequenze.
Per CARATTERI CONTINUI se le classi di modalità hanno tutti uguale ampiezza, la moda cade nella
classe con maggiore frequenza (abbiamo il caso che la classe è uguale a tutti o può essere diversa,
in quanto ci sono classi non omogenee).
Se le classi di modalità hanno diversa ampiezza, la moda cade nella classe con maggiore densità di
frequenza.
ES. xi xl-> 0-5,5-25, 25-100, 100-200
fi -> 4,7,3,2
Prima cosa da fare xl-xi= 5-0=5; 25-5=20; 100-25=75; 200-100=100;
Seconda cosa da fare è trovare moda -> fi/xl-xi = 4/5= 0,80; 7/20= 0,35; 3/75= 0,040; 2/100= 0,013
3. Mediana: è un valore che bipartisce la distribuzione ordinata in senso crescente delle modalità
di un carattere, ossia la mediana è quel valore che assume la posizione centrale della
distribuzione.
Per i dati discreti, distinguiamo due formule, una per N pari -> Me= x(N/2)+(N+1/2)/2 ed una per N
dispari -> Me= x(N+1/2).
Mediana per dati discreti: la frequenza cumulata è data dalla somma cumulata delle N=Par; N/2 Vi
aiuta ad orientarvi sul valore modale che allora rappresenta la media ma dovete poi calcolare
esattamente il valore mediano con la formula.
Es. quaderno.
Mediana per dati continui: la classe che contiene il valore mediano è quella a cui corrisponde una
frequenza cumulata superiore ad N/2. N/2 vi aiuta ad individuare la classe che contiene il valore
mediano -> formula: xi+xi+1-xi/ni x (N/2 – Ni-1)
Es. quaderno.
ATTENZIONE: Quando sono continui trovare sempre N/2!!
4. Quartili: Dividendo la popolazione in 4 gruppi contenenti ciascuno un quarto di N, cioè il 25%
della popolazione, si identificano 3 modalità dette quartili di X. In altre parole, i quartili di X
sono le 3 modalità x0.25, x0.5 e x0.75 che nell’ordinamento occupano le posizioni 25%, 50% e
75% della distribuzione. La popolazione viene dunque divisa e per calcolare i quartili
ricorreremo alla formula della mediana e dunque, per il I quartile avremo ¼ N, per il II 2/4 N,
per il terzo ¾ N.
Istogramma: è un grafico costituito da barre non distanziate, dove ogni barra possiede un’area
proporzionale alla frequenza della classe ed è per dati quantitativi continui.
Istogramma: è un grafico costituito da barre non distanziate, dove ogni barra possiede un’area
proporzionale alla frequenza della classe ed è per dati quantitativi continui.
Distinguiamo Istogramma:
1. con ampiezze delle classi modali uguali (es classi età 5-10,10-15, 15- 20);
2. con ampiezze delle classi diverse (Es classi età 5-8, 8-15, 15-30).
ES. Classi modali: 10-30, 30-50, 50-70, 70-90 e frequenza 6,7,4,3 -> prima ci calcoliamo l’ampiezza:
30-10; 50-30, etc… ed avremo un’ampiezza uguale per tutti, cioè 20.
Ma cosa accade se abbiamo classi di diversa ampiezza?
ES. 0-5, 5-15, 15-30, 30-35 -> calcoliamo l’ampiezza delle classi: 5-0=5, 15-5=10, 30-15=15, 35-
30=5-> l’ampiezza qui è diversa quindi dobbiamo calcolare la densità di frequenza hi=ni/di -> 17/5,
40/10, 37/15, 6/5; dopo aver fatto ciò inseriamo la nostra densità sullo schema: 3,4; 4,0; 2,5; 1,2.
La moda qui è 5-15, che risponde al valore hi di 4,0 -> è il valore che si presenta più
frequentemente.
Questo perché sappiamo che quando abbiamo dati discreti, per vedere il valore modale noi
semplicemente scorriamo sulle frequenze e vediamo qual è modalità si presenta con più
frequenza. Quando abbiamo una continua in primis vediamo se l’ampiezza è uguale o diversa -> se
è la stessa facciamo la stessa cosa, ma se abbiamo una distribuzione con diversa ampiezza, in
primis ci calcoliamo la densità di frequenza, poi possiamo scorrere su questa colonna è vedere
quella che si presenta più frequentemente.
2. La differenza interquartilica non è altro che la differenza fra il III e il I quartile. Serve per
delineare la parte centrale della distribuzione statistica: 𝑑𝑞 = 𝑄3 − 𝑄1
La differenza interquartilica è l’intervallo che contiene il 50% delle osservazioni centrali. È meno
sensibile del campo di variazione a influenze di carattere anomalo.
La caratteristica di questo indice è che a volte è nullo anche se i termini sono diversi tra loro.
3. Scostamenti medi (o scarti) sono i più importanti. Con questi indici ci proponiamo di risolvere il
problema di misurare di quanto le quantità rilevate differiscono in media dalla grandezza che si
è assunta a rappresentare l’intensità del carattere.
Se supponiamo di prendere la media come grandezza che rappresenta i valori osservati, è intuitivo
che la misura cercata possa essere data dalla quantità che sintetizza gli scarti tra le singole
quantità rilevate e la media.
Lo scarto semplice e quadratico medio sono largamente utilizzati per la misura della variabilità dei
caratteri demografici, antropometrici, biometrici, economici, ecc.
Il primo scarto è quello semplice medio (mean deviation): va sempre considerata una distribuzione
semplice e ponderata. Si identifica col delta -> sommatoria degli scarti valore assoluto fratto il
totale delle frequenze (n). Nella distribuzione ponderata non è altro che -> la sommatoria degli
scostamenti valore assoluto moltiplicato le frequenze fratto il totale della popolazione.
Quando noi abbiam una distribuzione statistica dove abbiamo modalità e frequenze, la prima cosa
che dobbiamo fare è calcolare la media; chiaramente dobbiamo stare attenti perché se è semplice
avremo quella semplice, se è ponderata, applicheremo la media ponderata.
Lo scarto quadratico medio è molto simile al precedente. Cambia il simbolo (sigma) è dato dalla
radice quadrata degli scostamenti al quadrato (non c’è più il valore assoluto) fratto N; chiaramente
al numeratore se non abbiamo le frequenze gli scostamenti al quadrato, se le avremo gli
scostamenti al quadrato per le frequenze assolute, tutto fratto N.
La varianza è il quadrato dello scarto quadrato medio -> la varianza è la somma delle deviazioni al
quadrato dalla media della popolazione diviso per il numero di osservazioni nella popolazione, N.
Questa si chiama sigma quadro.
La devianza non la utilizzeremo ed è il numeratore della varianza.
-> Differenza media di Gini -> quando il problema che interessa è quello di
misurare di quanto le diverse quantità rilevate differiscono tra loro, si può assumere ad indice di
disuguaglianza la media delle differenze tra ciascuna quantità e tutte le altre. È un indice di
disuguaglianza dato dalla media delle differenze tra ciascuna quantità e tutte le altre.
Si usano due modi per calcolarla -> risoluzione in linea o in tabella.
Abbiamo visto gli indici, media, moda, mediana, quartili e gli indici di variabilità assoluta
(scostamenti, varianza etc.).
Questi assoluti si distinguono da quelli relativi -> indici di variabilità relativi sono necessari per fare
il confronto tra variabilità di distribuzioni differenti, perché quelli assoluti, espressi nella stessa
unità di misura, non sono sempre adeguati per eseguire correttamente il confronto tra le
variabilità di distribuzioni differenti.
Coefficiente di variazione: CV= 𝜎/𝜇 x 100, dove il sigma è lo scostamento quadratico medio. È
utilissimo per confrontare fenomeni con diverso ordine di grandezza e diversa unità di misura e fra
fenomeni rilevati su popolazioni diverse.
Concentrazione: R -> R= ∑pi – qi/∑pi; si calcola per i caratteri che godono della proprietà della
trasferibilità (per calcolarla occorre ordinare i dati in senso crescente) -> la trasferibilità è un
fenomeno che possiamo trasferire fra le diverse unità (es. soldi o matricole, persone, coloro che
ascoltano radio etc.; tutto ciò che si può spostare, come i dipendenti – non si può spostare il peso
o l’altezza, da me o ad un altro). Per applicarlo è necessario ORDINARE LE MODALITÀ (come nella
mediana). Possiamo avere:
• equidistribuzione, quando ognuna delle n unità possiede 1/n dell’ammontare complessivo del
carattere;
• massima concentrazione, quando l’intero ammontare del carattere è posseduto da
una sola unità.
Pi in basso -> rappresentazione.
L’ultimo argomento della statistica descrittiva è l’analisi bivariata e relazione tra due variabili.
Fino ad ora abbiamo parlato di tecniche univariate, mentre ore passiamo a quelle bivariate.
Il primo passo per identificare il tipo di relazione esistente tra due variabili consiste nella loro
rappresentazione attraverso lo scatterplot, o diagramma a dispersione -> si mette sul grafico x e y.
Qui bisogna inserire due punti per formare una retta per poter individuare la relazione.
Quando interpretiamo un grafico a dispersione, il nostro obiettivo è saper distinguere tra i grafici
che evidenziano una relazione lineare da quelli che implicano o una relazione non lineare o
l’assenza di relazione tra le variabili (indipendenza o indifferenza statistica).
Si indica con il termine connessione una generica relazione statisticamente rilevabile in una coppia
di fenomeni osservati.
Se questa relazione è lineare, è chiamata correlazione.
Correlazione: per correlazione si intende una relazione tra due variabili tale che a ciascun valore
della prima variabile corrisponda con una certa regolarità un valore della seconda. Non si tratta
necessariamente di un rapporto di causa ed effetto, ma semplicemente della tendenza di una
variabile a variare in funzione di un’altra. Può capitare che all’aumentare di una variabile l’altra
aumenti o diminuisca, o viceversa, pertanto abbiamo una relazione concordate o discordate ->
concordante si comportano nella stessa maniera, discordante il contrario. Questa si calcola con la
correlazione.
La si calcola con il coefficiente di Pearson e la si rappresenta con il diagramma a dispersione o con
il diagramma a bolle.
LA PROBABILITÀ
La probabilità è una misura della possibilità che un fenomeno casuale possa verificarsi.
Abbiamo due fenomeni:
Fenomeno deterministico: se l’esperimento è condotto nelle stesse condizioni si trova lo stesso
risultato -> Esempi: Moto di un grave; traiettoria di una pallina in un biliardo.
Fenomeno non deterministico (sono quelli che ci interessano): anche se gli esperimenti sono
condotti nelle stesse condizioni si trovano risultati diversi -> Esempi: Risultato del lancio di una
moneta; traiettoria di 100 palline in un biliardo; vincita in una lotteria; numero di lanci di un dado
per ottenere un 6 -> la probabilità si occupa di fenomeni non deterministici!
La probabilità riguarda quindi quegli esperimenti che nel breve periodo conducono a risultati
casuali, ma che divengono prevedibili all’aumentare del numero dei tentativi.
All’aumentare del numero di ripetizioni di un esperimento probabilistico, la proporzione con la
quale uno specifico risultato si osserva tende a essere sempre più vicina alla probabilità di
ottenere lo specifico risultato.
I risultati di molteplici tentativi dello stesso esperimento producono regolarità statistiche che ci
inducono a fornire previsioni con un livello di accuratezza significativo (provare più volte per avere
più affidabilità).
Elementi della probabilità:
Spazio campionario S: insieme S di tutti i risultati dell’esperimento
Esempio:
• Nel caso del lancio di una moneta, S={Testa, Croce}
• Nel caso dei numeri di lanci di un dado necessari per avere 6, S=N (numeri naturali) -> quando
arriviamo a 6 abbiamo ottenuto il risultato dopo ad es. tre lanci.
Evento E: è il sottoinsieme E di S dato da un insieme di risultati derivanti da un esperimento
probabilistico e caratterizzati da una stessa proprietà
Esempio: • E={Testa} nel lancio di una moneta
Due tipi di definizioni -> definizione di probabilità frequentista o empirica: la probabilità di un
evento E è pari circa al numero di volte che l’evento E è stato osservato rapportato al numero di
ripetizioni dell’esperimento.
𝑃(𝐸) ≈ frequenza di 𝐸 fratto il numero di tentativi dell’esperimento -> vuol dire usare le frequenze
relative per approssimare le probabilità.
Esempio: un giocatore vuole stimare la probabilità di ottenere sette lanciando una coppia di dadi
non truccati. Lancia i dati 100 volte e conta il sette 15 volte. La probabilità di ottenere sette è pari a
15/100= 0,15.
-> definizione di probabilità classica: regola che a ogni evento E associa un numero reale compreso
tra 0 e 1. Se un evento si può verificare in N modi mutuamente esclusivi ed ugualmente probabili,
se m di questi possiede una caratteristica E, la probabilità di E è il rapporto tra il numero di casi
favorevoli e il totale dei casi possibili (tutti equiprobabili).
P(E)= casi favorevoli su i casi possibili -> m/N.
Esempio: 1) Nel caso del lancio di una moneta S={Testa, Croce}.
p(Testa)=1/2 (casi favorevoli 1, possibili 2);
2) Lanciamo due dadi e calcoliamo la probabilità che la somma dei punti sia 4. Per semplicità
scriviamo i numeri estratti come coppie: le coppie di 6 numeri sono 6 * 6= 36 = numero di casi
possibili; i casi favorevoli sono dati dalle coppie (1,3), (2,2) e (3,1) e sono quindi 3. Pertanto
p(somma 4 in 2 lanci)=3/36=1/12 -> ogni dato a 6 facce quindi cerchiamo tutte le coppie possibile
che però ci diano 4 come somma; quali sono i casi favorevoli? 1-3, 2-2, 3-1, quindi sono 3 casi -> 3
casi su tutti i casi possibili, cioè 36, semplificato 1/12.
1. Certo: se accade con certezza (ad esempio, nel lancio di un dado, è un evento certo E=“esce un
numero minore di 7”);
2. Impossibile: se non può mai accadere (nell’esempio precedente, è impossibile l’evento E=“esce
un numero maggiore di 6”);
3. Casuale (o aleatorio): se può accadere oppure no (nell’esempio precedente, è casuale l’evento
E=“esce un numero minore di 3”).
Regola dell’addizione:
Per due qualsiasi eventi non disgiunti E e F, vale la relazione P(E o F)= P(E)+P(F)-P(E e F).
Supponiamo di voler calcolare la probabilità di estrarre da un mazzo di 52 carte un re (Evento E)
oppure di estrarre una carta di quadri (Evento F). Poiché gli eventi non sono disgiunti, poiché il
risultato «re di quadri» è presente in entrambi gli eventi, è necessario applicare la regola
dell’addizione. P(re o quadri)= P(re)+P(quadri)-P(re di quadri)= 4/52+13/52-1/52=16/52=4/13.
Regola della moltiplicazione: Se E e F sono eventi indipendenti, si ha: P(E eF) = P(E) * P(F)
Esempio: qual è la probabilità di ottenere testa in due lanci di una moneta non truccata? P(testa al
primo lancio e testa al secondo lancio)=1/2*1/2=1/4.
Probabilità condizionata: la notazione P(F ǀ E) indica ‘la probabilità dell’evento F dato l’evento E’.
Questa è la probabilità che l’evento F accada dato che l’evento E si è verificato.
Esempio: nel lancio di un dato, qual è la probabilità che il risultato sia 3? Se lo rilanciamo una
seconda volta e ci dicono che il risultato è un numero dispari, qual è la probabilità che il risultato
sia 3? Nel primo caso S {1,2,3,4,5,6} e P(3)=1/6.Nel secondo caso S {1,3,5} e P(3 ǀ risultato
dispari)=1/3.Pertanto le probabilità condizionate riducono l’ampiezza dello spazio campionario.
Regola della probabilità condizionata: Se E e F sono due eventi qualsiasi, allora
P(F ǀ E)= P(E e F)/P(E) = N(E e F)/ N(E) -> dalla probabilità alla numerosità degli individui.
La probabilità che l’evento F accada, considerando che l’evento E è accaduto, si trova dividendo la
probabilità di E e F per la probabilità di E. In alternativa la probabilità di accadimento dell’evento F,
dato l’accadimento dell’evento E, si trova dividendo il numero di risultati possibili in E e F per il
numero di possibili risultati in E.
Es: Calcolare la probabilità che un individuo selezionato casualmente e che non sia mai stato
sposato sia un uomo. -> ci sono 55,3 milioni di persone mai state sposate di cui 30,3 uomini,
pertanto P(uomo ǀ mai sposato) = N(mai sposato/a e uomo)/N(mai sposato/a)= 30,3/55,3 = 0,548
Quindi c’è il 54,8 %di probabilità che un individuo selezionato casualmente sia uomo, dato che lui
o lei non sono mai stati sposati.
Indipendenza: due eventi sono indipendenti se il verificarsi di un evento E in un esperimento
probabilistico non influenza la probabilità dell’evento F. Adesso è possibile esprimere
l’indipendenza utilizzando le probabilità condizionate.
Due eventi E e F sono indipendenti se P(E ǀ F) = P(E) o, in modo equivalente, se P(F ǀ E) = P(F)
Esempio: si estrae una carta da un mazzo di 40. Qual è la probabilità che sia una figura e che sia di
cuori? La presenza del connettivo “e” ci fa pensare alla probabilità composta, quindi dobbiamo
chiederci se i due eventi sono dipendenti o indipendenti.
La probabilità del primo evento è 12/40, cioè 3/10. La probabilità che la carta sia di cuori non è
influenzata dal verificarsi dell’evento che la carta sia una figura, quindi vale 10/40 cioè 1/4. La
probabilità composta sarà allora 3/40, cioè 3/10*1/4.
Pertanto, questo è un caso di eventi indipendenti. La probabilità composta è data dal prodotto
delle probabilità dei singoli eventi: p(E1 ∩ E2) = p(E1)*p(E2).
All’insieme dei valori di probabilità 𝑝𝑖 associati a quelli 𝑥𝑖 assunti dalla variabile aleatoria si dà il
nome di distribuzione di probabilità della variabile 𝑿.
Possiamo rappresentare la distribuzione di probabilità di una variabile casuale discreta con un
diagramma cartesiano.
Esempio:
Lanciamo ripetutamente una moneta finché non esce testa. Abbiamo a disposizione tre tentativi:
𝐸1: se esce testa al primo tentativo si vincono € 10
𝐸2: se esce testa al secondo tentativo si vincono € 5
𝐸3: se esce testa al terzo tentativo si vincono € 2
𝐸4: se non esce testa si perde € 1
Indichiamo con 𝑋 ciò che si vince o si perde poiché l’esito del gioco non è noto a priori:
La varianza: data una variabile aleatoria 𝑋 e posto 𝜇 = 𝐸(𝑥), si chiama varianza di 𝑿, e si indica con
il simbolo 𝑉(𝑋) oppure 𝜎2(𝑋), il valore atteso del quadrato della differenza fra la variabile 𝑋 ed il
Distribuzione di Bernoulli: particolari distribuzioni di probabilità discrete -> la binomiale (unica che
studieremo): chiamiamo esperimento di Bernoulli un esperimento aleatorio che può avere solo
due possibili esiti; quello che interessa viene detto successo, l’altro insuccesso. La probabilità 𝑝
dell’evento successo, viene detta parametro dell’esperimento aleatorio. La variabile aleatoria 𝑋
che conta il numero di successi nella ripetizione di 𝑛 volte dell’esperimento viene detta binomiale.
Sia 𝑋 una variabile aleatoria binomiale di parametro 𝑝. La probabilità che su 𝑛 ripetizioni si