Sei sulla pagina 1di 53

Calcolo delle probabilit per le

scuole superiori
Laboratorio
Convegno "Il piacere di insegnare - il
piacere di imparare la matematica"
Alberto Gandolfi
gandolfi@math.unifi.it
Appunti completi disponibili su
http://bb.math.unifi.it/~gandolfi/didindex.html

Eventi casuali

Il calcolo delle probabilit e la statistica costituiscono quella parte


della matematica e, pi in generale, della scienza che si occupa di
fenomeni casuali.
Partiamo da due problemi.

Problema 1: lanciando 1000 volte una moneta, quale sarebbe la


vostra reazione di fronte a 510 teste? E a
492, 459, 423, 397, 354, 299, 212, 154, 22?

Problema 2: cercando la porta vincente tra 3, ne scegliamo una e


poi ci viene mostrata una porta non vincente tra le altre: conviene
cambiare la nostra scelta? O preferiremmo che la porta fosse aperta
prima di fare la scelta?

Probabilit
In questi problemi non si riesce a determinare con certezza
l'esito tra varie possibili alternative.
Due cause possibili:
- mancanza di informazioni
- l'indeterminatezza connaturata.
Ma non ci interessa: per l'indeterminatezza chiameremo tali
eventi "casuali".
Per fare comunque previsioni introduciamo una nuova
quantit: la probabilit.

Caratteristiche della probabilit


- Non importa la sua vera natura: basta che sia misurabile
ed utile in casi interessanti.
- Si determina attraverso processi logici.
- E' un numero puro e si esprime in genere in frazioni di
100 (tipo 30%) o con un numero in [0,1].

Quest'ultimo metodo conveniente per le moltiplicazioni: il 3% del 40%


l'1,2%, facilmente ottenibile da 0,03x0,40=0,12.

Interpretazioni della probabilit


Esistono varie scuole su come definire la
probabilit:
- Frequentista
- Soggettiva
- Bayesiana
- Convenzionalismo

Obiettivi didattici
nell'insegnamento della probabilit:
deduzione logica di una teoria da alcune ipotesi
fornitura di alcuni elementi per l'interpretazione del
mondo reale, inclusi giochi, dati, sondaggi
esemplificazione delluso di alcuni strumenti matematici
presentati nel corso

Prima formalizzazione
Iniziamo da una formulazione elementare,
che pu rimanere lunica se si intende
esporre una parte limitata della teoria.
Con qualche esempio si vede la naturalezza delluso
della terminologia insiemistica per descrivere le
probabilit:
- Tutte le realizzazioni possibili sono un insieme S
- Un evento un sottoinsieme di S
- La probabilit una funzione P sui sottoinsiemi di S

Probabilit uniformi

Alcune propriet elementari


da derivare (o far derivare) rigorosamente

Calcolo combinatorio

Probabilit finite
Per poter fare modelli di situazioni pi
generali si considerano casi in cui
probabilit non sono tutte uguali.
Si prendono come punti di partenza le prime tre
propriet dimostrate nel caso uniforme:

Costruzione delle probabilit finite


La teoria molto elementare e tutti gli
esempi di spazi di probabilit finiti si
costruiscono come segue:

Probabilit dellunione di eventi


Talvolta utile dedurre la probabilit da
quella di eventi pi semplici.

Probabilit del complemento


Nello stesso spirito di prima:

Indipendenza

Due direzioni dellindipendenza


Lindipendenza naturalmente utile quando
si usa senza verificarla. Questo pone
qualche problema di consistenza con
definizione precedente.
Per i corsi elementari accontentiamoci di
dire che omettiamo la verifica.

Indipendenza dei complementi


Un risultato elementare che verifica che la
teoria si sta sviluppando coerentemente
riguarda lindipendenza dei complementi:

Riepilogo primi calcoli delle


probabilit

Distribuzione di Bernoulli
Con i metodi appena riassunti si ricava la
distribuzione di Bernoulli o Binomiale
(n,p):

Prob k succ su 2k prove


10

0,176197

20

0,125371

30

0,102578

40

0,088928

50

0,079589

60

0,072685

70

0,067313

80

0,06298

90

0,059388

100

0,056348

110

0,053732

120

0,05145

130

0,049435

10

0,176197

100

0,056348

1000

0,017839

10000

0,005642

100000

0,001784

1000000

0,000564

10000000

0,000178

1E+08

5,64E-05

1E+09

1,78E-05

Foglio di calcolo
Usando le funzioni di
un foglio elettronico di
calcolo si possono
calcolare alcune
probabilit. Ad
esempio il valore
della distribuzione
Binomiale(n, p). Qui
di fianco i valori di
p(k,2k,1/2).

1E+10

#NUM!

1E+11

#NUM!

1E+12

#NUM!

Osservazioni sulle monete


Anche il numero di teste che ci aspettiamo
(n/2 su n) ha probabilit che tende a 0.
Quindi queste espressioni non servono
per il problema 1.
E chiaro per che la probabilit di un
numero di successi minore o uguale a k
pu non tendere a 0.
Riprenderemo la questione quando avremo pi strumenti.

Interpretazioni della probabilit

Vediamo i progressi fatti: sui problemi


(1) sappiamo scrivere le varie probabilit
(2) nessun progresso
Come interpretare le probabilit?
-

A priori ci si aspetta che specifici eventi di probabilit piccola


non si realizzino

A posteriori: si sar realizzato qualche evento di probabilit


piccola, ma non era prevedibile quale.

Probabilit condizionate
Talvolta interessa la probabilit di un
evento sapendo che un altro si
realizzato.

Anche in questo caso ci sono due direzioni: a volte si ricava


P(A|B) dalla situazione concreta e lo si usa per ottenere uno
degli altri termini.

Probabilit totali o composte

Dimostrazione del teorema

Il problema del premio dietro alla


porta

Finalmente abbiamo gli strumenti per rispondere al problema 2:

Formula di Bayes

Formula di Bayes e probabilit condizionate sono usate ampiamente


nei calcoli di genetica.

Variabili aleatorie
Una funzione X definita su un insieme S su cui sia
definita una probabilit P detta variabile aleatoria

La sua distribuzione linsieme dei valori x che assume


e delle relative probabilit P(X=x).

Valore atteso
Con qualche esempio si vede che il valore
atteso o valor medio emerge sia come risultato
medio dopo molte prove che come valutazione
equa di un esperimento aleatorio.

Significato del valore atteso

Linearit del valore atteso


Il valore atteso lineare.
Questa dimostrazione si pu cominciare ad omettere.

Indipendenza di variabili aleatorie

La verifica che questa definizione generalizza lindipendenza di


eventi un po laboriosa dovendo considerare sottofamiglie di
eventi e si omette.

Misure della deviazione dal valor


medio
Per valutare quanto in media una variabile
aleatoria si discosta dal suo valore atteso
si introduce la deviazione standard SD:

per valutare la quale il primo passo la


varianza:

Additivit della varianza


Sorprendentemente, la varianza additiva
per variabili aleatorie indipendenti.

(volendo si pu presentare agli studenti una dimostrazione)

Deviazione standard per il numero


di teste

Per cui per n lanci di una moneta, essendo p=1/2, la deviazione


standard

Questo suggerisce gi qualcosa sul problema delle monete, ma prima di


completare lanalisi introduciamo le variabili continue.

Variabili continue
Finora si sono viste variabili aleatorie con
un numero finito di valori. Vari esempi
suggeriscono che a volte utile
considerare variabili che assumono valori
sul continuo.
Ad esempio se si spezza un bastoncino a
caso o si considera lorario di un arrivo.

Densit delle variabili continue


Le variabili aleatorie continue sono ben
descritte prendendo una densit di
probabilit f, analoga alla densit di
massa, che soddisfa:

La probabilit poi si calcola con gli


integrali

Esempi di variabili continue

Valore atteso di variabili continue

Funzione di distribuzione
Un altro modo per descrivere una variabile
aleatoria la funzione di distribuzione.
Non un metodo intuitivo, ma talvolta
molto utile:

Simulazione di una variabile


uniforme

Simulazione di variabili continue

Analisi di dati
Per analizzare dati casuali (che interpretiamo come
realizzazioni di variabili aleatorie) si utilizzano le stesse
quantit calcolate per sui dati, e quindi dette empiriche:

indicate nei fogli di calcolo con funzioni tipo MEDIA,


DEV ST, VAR

Il valor medio empirico anche detto media empirica e pu essere a sua volta
pensato come funzione delle variabili aleatorie.

Convergenza della media empirica

Teorema centrale del limite

Con qualche calcolo questo risultato permette di


stimare molto accuratamente la probabilit che
la somma di variabili indipendenti disti pi di una
data costante dal valore atteso.

Illustrazione grafica del TCL


Ci sono molti siti in cui si pu vedere come
la distribuzione della somma di variabili
indipendenti converge ad una normale.
Per le variabili Bernoulli si veda per
esempio
http://cnx.org/content/m11198/latest/

Stima della deviazione dal valore


atteso

Stima della deviazione della media


empirica dal valore atteso
Abbiamo visto che la media empirica approssima il valore atteso, ma
il TCL permette di dare una stima pi accurata:

Questa osservazione si usa nei problemi di misura fornendo una


stima di quanto la media empirica delle misurazioni disti dalla misura
vera.

Variabili congiunte
Spesso si considerano pi variabili
aleatorie allo stesso momento. Queste
possono essere non essere indipendenti,
e quindi occorre una trattazione delle
distribuzioni congiunte.
In un corso di scuola superiore conviene
per limitarsi ad un caso semplice: una
misura del grado di dipendenza di due
variabili aleatorie.

Correlazione
Date due variabili aleatorie X ed Y si
introduce la covarianza:

E poi la misura adimensionale della


dipendenza, detta correlazione:

Propriet della correlazione


La correlazione soddisfa:

Quando r=1 oppure r=-1 c dipendenza


lineare tra X ed Y. Quando X ed Y sono
indipendenti r=0. Per cui r misura la
dipendenza di X ed Y

Correlazione empirica

I fogli di calcolo forniscono di solito una


funzione, a volte indicata con
CORRELAZIONE che calcola questo
valore sui dati.

Test: un modello per pesi ed


altezze