Sei sulla pagina 1di 128

Introduzione alla Probabilit`a

A.A. 2016–2017

Prof. Carlo Sempi Dipartimento di Matematica

“Ennio De Giorgi” Universit`a del Salento

carlo.sempi@unisalento.it

c

22 novembre 2017

ii

Indice

Prefazione

1

1 Probabilit`a discrete

 

1

1.1 Che cos’`e la probabilit`a? .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

1

1.2 Operazioni sugli insiemi

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

5

1.3 Probabilit`a discrete

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

8

1.4 Alcuni problemi d’urna

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

12

1.5 Probabilit`a condizionata e indipendenza

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

17

1.6 Variabili aletorie discrete

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

20

 

ˇ

1.7 La diseguaglianza di Cebyˇsev

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

26

1.8 Alcune distribuzioni di probabilit`a discrete

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

28

1.9 Probabilit`a di un assegnato numero di eventi

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

33

1.10 Alcuni problemi classici di probabilit`a

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

35

1.11 Passeggiata aleatoria di Bernoulli .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

39

1.12 La funzione generatrice delle probabilit`a

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

49

1.13 Passeggiata aleatoria in Z d

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

51

1.14 La definizione soggettiva della probabilit`a

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

53

1.15 Note al Capitolo 1

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

55

1.16 Esercizˆı sul Capitolo 1

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

57

2 Variabili Aleatorie

 

69

2.1 Variabili aleatorie assolutamente continue

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

69

2.2 Le funzioni di ripartizione

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

70

2.3 Esempˆı

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

71

2.4 Probabilit`a geometriche

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

77

2.5 Vettori aleatorˆı

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

80

2.6 La covarianza

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

85

2.7 Trasformazioni di variabili aleatorie .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

87

2.8 La funzione generatrice dei momenti

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

93

2.9 La formula di de Moivre–Stirling

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

97

2.10 I teoremi di de Moivre–Laplace

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 100

2.11 Note al Capitolo 2

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 103

2.12 Esercizˆı sul Capitolo 2

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 103

 

iii

iv

INDICE

Prefazione

Queste lezioni riproducono, con qualche ampliamento, l’argomento del corso introduttivo

di Probabilit`a che, oramai da molti anni, tengo presso l’Universit`a di Lecce, prima e del

Salento poi. Esse non sono un trattato di Probabilit`a e sono state scritte al solo scopo di facilitare il compito dello studente che, per la prima volta, si avvicini a questa disciplina.

Quanto `e qui presentato corrisponde al programma che `e possibile svolgere in un corso di durata trimestrale; mi pare per`o giusto lasciare intravvedere agli studenti, almeno quelli

dotati di maggiore curiosit`a intellettuale, che esistono orizzonti pi´u ampˆı. Ad ogni capitolo

ho fatto seguire brevi note con un duplice intento,

– fornire una guida bibliografica alla letteratura per chi volesse approfondire qualche argomento e dare traccia di approcci alternativi;

– dare lo scheletro di una storia della disciplina, sia pur estremamente sintetica.

Spero che queste lezioni, se non lo avranno annoiato troppo, inducano qualche studente alla lettura di qualcuno dei testi citati in bibliografia e a proseguire, approfondire ed esten- dere lo studio della probabilit`a. Desidero, infine, ringraziare tutti i colleghi (e sono numerosi) dai quali ho imparato qualcosa e gli studenti che, con osservazioni e domande, mi hanno obbligato ad uno sforzo di chiarezza del quale mi posso solo augurare che si veda il segno. Un ringraziamento particolare va a Giorgio Metafune, Gianfausto Salvadori e a Angela Al- banese per l’aiuto datomi nel corso degli anni, tenendo le esercitazioni e partecipando agli esami, e, soprattutto, per avermi obbligato a ripensare alcuni degli argomenti e la maniera

di

presentarli agli studenti. Naturalmente, non v’`e ragione perch´e debbano dividere con me

le

critiche o la responsabilit`a per gli errori, che, inevitabilmente saranno rimasti; questa `e

interamente mia.

1

Carlo Sempi Lecce, 22 novembre 2017

2

PREFAZIONE

Capitolo 1

Probabilit`a discrete

1.1 Che cos’`e la probabilit`a?

Il Calcolo delle Probabilit`a sorge alla fine del Rinascimento per rispondere a domande che si ponevano spontaneamente nei giochi d’azzardo, almeno alla mente di giocatori che avevano un’inclinazione matematica. La prima raccolta di problemi, si sarebbe tentati di dire, il primo libro di Probabilit`a, fu scritto da Gerolamo Cardano nel Cinquecento. Il libro non

fu pubblicato che nell’Ottocento, ma ebbe diffusione tra i cultori di matematica all’epoca

nella quale fu scritto. Inoltre, nel Talmud , quindi in tempi ancora precedenti, si hanno brevi cenni a questioni che oggi diremmo di probabilit`a; tuttavia, la conoscenza del Talmud era

in Europa limitata ai dotti delle comunit`a ebraiche, sicch´e non si pu`o affermare che le ques-

tioni alle quali si `e accennato abbiano avuto risonanza nella comunit`a scientifica. Anche nei

testi religiosi indiani si trovano considerazioni che, dal punto di vista qualitativo, possono essere interpretate come probabilistiche. Queste sono riscoperte oggi pi´u come antiquariato

`

E tradizione far in-

cominciare la storia “ufficiale” del calcolo delle probabilit`a un poco pi´u tardi, precisamente, dalla corrispodenza intercorsa nel Seicento, tra Pascal e Fermat a proposito della soluzione

storico che come vero germe del moderno Calcolo delle Probabilit`a.

di

alcuni problemi posti a Pascal dal cavaliere de Mer´e. In seguito, numerosi matematici

si

sono occupati di probabilit`a, anche se il primo libro che trattava in maniera profonda

di

questa disciplina dovette attendere l’inizio del Settecento per essere stampato: il libro

di

Jacques Bernoulli Ars Conjectandi pubblicato postumo a Basilea nel 1713 a cura e con

contributi del nipote Nicola Bernoulli; la prima delle quattro parti del libro riproduce il testo del manoscritto di Huyghens De Ludo Aleae. I problemi con i quali si confronta la nuova disciplina sono quelli che pi´u immediatamente si presentano all’attenzione degli osservatori

attenti: i giochi d’azzardo. Non deve sorpendere che sia stato cos´ı; il dominio del Calcolo delle Probabilit`a `e infatti costituito da tutti i fenomeni nei quali viene meno il legame tra causa ed effetto e nei quali le stesse condizioni, almeno per ci`o che rientra nel controllo e nelle conoscenze dell’osservatore, possono produrre esiti differenti. Nulla di pi´u naturale che ci`o sia stato avvertito per la prima volta nel lancio di una moneta, nel lancio di un dado, nell’osservazione di un gioco di carte. All’incirca nello stesso periodo che vide la nascita del calcolo delle probabilit`a, anzi con Newton, che `e attivo nella seconda met`a del Seicento, addirittura leggermente pi´u tardi rispetto alla corrispondenza tra Pascal e Fermat, nasceva la moderna meccanica razionale che vedeva subito un sensazionale sviluppo segnato da applicazioni importantissime all’as- tronomia, alla meccanica dei solidi, alla teoria dei fluidi. La meccanica razionale nasceva gi`a fornita dei suoi strumenti — l’analisi matematica messa a punto all’uopo da Newton stesso

— e, in un certo senso, in una forma definitiva, tanto da non essere molto differente, per

esempio, da quella che si insegna ancora oggi nei primi bienni delle nostre Universit`a.

Al contrario, per lungo tempo, il Calcolo delle Probabilit`a fu semplicemente una raccolta

di risultati sparsi, talvolta profondi, ma non unificati da una teoria che fosse il nucleo di un

1

2

CAPITOLO 1.

`

PROBABILIT A DISCRETE

modello matematico della classe di fenomeni in esame, quelli ai quali si `e accennato sopra

e che oggi, con un nome di chiara derivazione dal primo campo di applicazione nei giochi

d’azzardo, chiamiamo aleatorˆı. Da allora, la letteratura sulle probabilit`a `e venuta aumentando sino ad essere ai giorni

nostri pi´u vasta di quanto una sola persona riesca a padroneggiare. Tuttavia lo sviluppo del Calcolo delle Probabilit`a `e relativamente recente e data dagli anni Trenta del secolo scorso; per rendersi conto di quanto sia stato radicale il cambiamento basta consultare il libro di Calcolo delle Probabilit`a di G. Castelnuovo del 1926 e confrontarlo con un libro moderno (per esempio uno di quelli citati in bibliografia). Le righe che precedono non portano alcuna risposta alla domanda che costituisce il titolo di questa sezione, che cosa sia la probabilit`a.

In quelle che seguono, cercher`o di tratteggiare assai brevemente alcune visioni sul significato

della probabilit`a. Il dominio di applicazione del calcolo delle probabilit`a `e costituito da tutti quei fenomeni dei quali non si sappia prevedere o calcolare l’esito, o per mancanza d’informazione o per la difficolt`a (o addirittura l’impossibilit`a) di eseguire i calcoli; `e cos´ı evidente perch´e le prime considerazioni di probabilit`a siano storicamente state collegate con

i giochi d’azzardo. Tuttavia, l’impulso decisivo allo sviluppo di questa disciplina `e venuto

con il sorgere, nel secolo scorso, della teoria cinetica dei gas e della Meccanica Statistica. L’apparire di campi nei quali era spontaneo usare concetti probabilistici ha obbligato i mate- matici ad uno sforzo di formalizzazione per porre su solide basi scientifiche quelli che prima

erano stati risultati interessanti, talvolta profondi, ma sparsi e senza una teoria coerente che

sostenesse e li ponesse in un quadro unitario. A cavallo tra la seconda met`a dell’Ottocento

l’inizio del Novecento si compie il lavoro di preparazione, nel quale svolgono un ruolo

importante le scuole francesi (Poincar´e, Borel, Lebesgue, Fr´echet,

). Ancora nel 1919, von Mises poteva dichiarare che “la teoria

) e russa ( Cebyˇsev,

Markov, Lyapunov,

e

li

ˇ

delle probabilit`a non `e una disciplina matematica”; nello stesso articolo esprimeva per`o la

convinzione che la probabilit`a fosse “una scienza naturale dello stesso genere della geometria

o della meccanica” e che dovesse essere considerata il modello matematico di una certa classe

di fenomeni. Come si vede si tratta di un punto di vista molto moderno. In un articolo del

1926, alla vigilia della sistemazione definitiva della probabilit`a, Cram´er scriveva:

Il concetto di probabilit`a dovrebbe essere introdotto mediante una definizione pura-

mente matematica, dalla quale le sue propriet`a fondamentali ed i teoremi classici si

deducono per via puramente

teoria matematica non prova alcunch´e sugli eventi reali. Le formule della probabilit`a sono altrettanto incapaci di dettare lo svolgersi degli eventi reali quanto le formule della meccanica classica lo sono di prescrivere che le stelle si debbano attrarre secondo le leggi di Newton. Solo l’esperienza ci pu`o guidare e mostrare se il nostro modello matematico fornisca un’approssimazione accettabile delle nostre osservazioni.

D’altro canto occorre sottolineare che la

Il lavoro di preparazione culmina, dopo la sistemazione definitiva della Teoria della Misura,

nella sintesi di Kolmogorov del 1933. Oggi, le considerazioni probabilistiche si incontrano spesso nelle applicazioni, sicch´e il modo di ragionare probabilistico costituisce un ingrediente importante della formazione scientifica matematica. Si tenga presente che considerazioni di probabilit`a sono alla base della Meccanica Quantistica.

Esempˆı tipici, e molto semplici, di situazioni nelle quali vi `e incertezza sull’esito di un fenomeno, sono il lancio di un dado o di una moneta, ma anche la previsione del tempo

di domani. Si osservi che nel lancio di una moneta, per esempio, non vi sarebbe alcuna

incertezza sull’esito se si conoscessero le condizioni iniziali (posizione al momento del lancio, velocit`a e forza con la quale si lancia la moneta, etc.) e la struttura del sistema (peso, forma, dimensioni della moneta, etc.); in queste condizioni, con un po’ di pazienza (e buone conoscenze di Meccanica) si potrebbero risolvere le equazioni del moto e prevedere quale faccia della moneta sar`a rivolta verso l’alto. In effetti, nessuno user`a un approccio simile, che, evidentemente, non `e facilmente estendibile a sistemi pi´u complicati della semplice

moneta. La prima definizione della probabilit`a `e dovuta a Laplace all’inizio dell’Ottocento

`

`

1.1. CHE COS’ E LA PROBABILIT A?

ed `e riassunta nella formula

P(A) = N(A)

N (Ω)

 

3

,

(1.1.1)

che si interpreta, tradizionalmente, dicendo che la probabilit`a di un evento A `e il rapporto tra il numero N (A) dei casi favorevoli al realizzarsi dell’evento A ed il numero N (Ω) dei casi possibili, se (e si tratta di un’ipotesi cruciale) questi sono egualmente possibili (ritorneremo su quest’espressione). Mentre, da un lato, questa definizione trova vasta applicazione in molte situazioni, essa presenta alcune pecche che non paiono facilmente eliminabili: intanto `e restrittivo dover considerare solo fenomeni che presentino un numero finito di risultati, perch´e `e evidente che la (1.1.1) perde significato se N (Ω) e/o N (A) sono infiniti. Non

`e, inoltre, immediato che, in tutti i fenomeni che si vogliono studiare, i possibili risultati

abbiano la stessa probabilit`a. Ma `e pi´u grave che la definizione dipenda dalla condizione che i possibili risultati debbano essere egualmente possibili; anche se Laplace diceva che non vi dovesse essere ragione per ritenere che uno fosse pi´u probabile dei rimanenti, la definizione viene a dipendere da un’idea non precisata del concetto di probabilit`a che si

voleva per l’appunto definire. Perci`o la (1.1.1), bench´e utile, non pu`o servire come base per

la definizione di probabilit`a. Un approccio che ha incontrato notevole successo, in ispecie

nelle discipline sperimentali, `e la cosiddetta interpretazione delle probabilit`a come frequenze.

In questo approccio si immagina di ripetere lo stesso esperimento n volte e si considera la

frequenza con la quale l’evento in esame si manifesta; tale frequenza `e, per definizione, il rapporto n(A)/n, essendo n(A) il numero di volte nelle quali l’evento A si `e realizzato nel corso delle n ripetizioni dell’esperimento. Si definisce ora come probabilit`a dell’evento A il limite

(1.1.2)

n(A)

n

.

P(A) := lim

n+

Questa definizione pone almeno due difficolt`a, una di carattere tecnico, l’altra di natura concettuale: la prima `e che non `e chiaro in quale senso si debba intendere il limite. Sono,

infatti, numerosi i tipi di limite che si considerano in probabilit`a; scegliere uno di questi modi

di

convergenza appianerebbe questa difficolt`a, ma porrebbe subito il problema di giustificare

la

scelta fatta. Quanto alla difficolt`a concettuale, appare evidente come la (1.1.2) limiti la

definizione di probabilit`a a quei fenomeni che siano riproducibili indefinitamente: mentre questo pu`o ben adattarsi ad alcune discipline sperimentali, nelle quali, in condizioni di laboratorio, un esperimento pu`o essere ripetuto, almeno in linea di principio, un numero infinito di volte, non sembra costituire un buon modello per tutte le situazioni alle quali si potrebbe pensare di applicare considerazioni di tipo probabilistico. Cos´ı, per esempio, nel lancio di un dado, il limite (1.1.2) non d`a alcuna informazione sul risultato del lancio che

si sta per eseguire, bench´e, naturalmente, dica qualcosa sul comportamento delle frequenze

in una serie (infinita) di lanci. Inoltre la definizione (1.1.2) esclude tutti gli eventi che

si considerino nella loro individualit`a, sicch´e diviene, a rigore, privo di significato porsi la

domanda: qual `e la probabilit`a che domani piova? `e infatti il domani un evento unico e irripetibile. Si osservi che la definizione (1.1.2) rende la probabilit`a una propriet`a intrinseca del fenomeno, come sono, per esempio, la temperatura, il peso, la velocit`a di un corpo.

L’approccio che evita gli inconvenienti di quelli che abbiamo sommariamente abbozzato sopra, `e quello di considerare la probabilit`a di un evento come il grado di fiducia nel realiz- zarsi dell’evento da parte dell’osservatore. Tale approccio `e stato illustrato con semplicit`a e profondit`a, in numerosi scritti, da Bruno de Finetti. Si consideri l’esempio di una partita tra due giocatori, uno dei quali sia un baro: `e evidente che in queste condizioni le previsioni dei due giocatori saranno differenti. Se, per esempio, essi stanno giocando a dadi, il giocatore “onesto” sar`a portato, in mancanza di altre informazioni, ad attribuire probabilit`a 1/6 ad ogni faccia del dado (in accordo con la (1.1.1)), mentre il baro dar`a una valutazione differente della probabilit`a di ogni faccia, valutazione che terr`a conto della sua conoscenza della struttura del dado truccato (per esempio, della posizione del suo baricentro). Si pu`o dire, anticipando sviluppi futuri, che ogni probabilit`a `e una probabilit`a condizionata (per le probabilit`a condizionate si veda, oltre, la sezione 1.6). In questo approccio `e ovvio che la

4

CAPITOLO 1.

`

PROBABILIT A DISCRETE

probabilit`a non `e una propriet`a intrinseca dell’evento, ma dipende dalla valutazione che ne fa l’osservatore: per questa ragione si parla di probabilit`a soggettive. A chi scrive sembra che questo approccio sia il solo valido. Lo studente potr`a conoscerlo nel libro di de Finetti Teoria delle Probabilit`a, citato in bibliografia. La trattazione di questi appunti prescinder`a, tuttavia dall’interpretazione che si d`a alla probabilit`a per adottare un’impostazione assiomatica, quella formulata da Kolmogorov nel 1933, e alla quale si `e fatto cenno sopra. In questa formulazione, come del resto in tutte le formulazioni assiomatiche, si evitano le polemiche riguardanti il significato delle probabilit`a.

La

scelta dell’insieme Ω pu`o non essere unica, e la teoria non d`a regole per la costruzione dello spazio Ω che si chiama solitamente spazio dei risultati o spazio dei campioni o, ancora,

spazio campionario.

delle Probabilit`a, si abitui, in ogni esercizio, a scrivere esplicitamente che cosa sia l’insieme

E bene che lo studente, nell’avvicinarsi per la prima volta al Calcolo

Gli eventi saranno rappresentati da sottoinsiemi di un insieme non vuoto Ω(

`

= ).

Ω; con un po’ di pratica, non dovrebbe essere difficile costruirlo. Lo spazio Ω `e, cos´ı, parte del modello che si costruisce per rappresentare un fenomeno. La condizione pi´u importante alla quale deve ottemperare Ω `e che contenga tutti i possibili risultati che ci possano attendere dal fenomeno del quale si vuole costruire il modello.

Esempio 1.1.1. Se si lancia una moneta lo spazio dei risultati pu`o essere rappresentato come Ω = {C, T } con ovvio significato dei simboli. Rappresentazioni equivalenti sono Ω = {0, 1} oppure Ω = {s, f } ove s indica, convenzionalemente, il “successo” e f il “fallimento”. Le denominazioni di “successo” e “fallimento” sono convenzionali e possono essere scambiate tra loro. Nella sua semplicit`a questo modello `e fondamentale e riccore ogni qual volta si sia interessati alla partizione dei risultati, che possono essere anche pi´u d’uno, in due sottoinsiemi. Se si ha il dubbio che la moneta possa rimanere in bilico sul bordo si pu`o ampiare Ω e

prendere Ω = {C, T, B}; al pi´u si attribuir`a probabilit`a nulla all’esito B.

Esempio 1.1.2. Si supponga di lanciare un dado; in questo caso si pu`o scrivere Ω =

{1,

orizzontale diviso in 37 spicchi di egual ampiezza numerati da 0 a 37 (nei casin`o americani

Lo spazio dei risultati `e Ω =

{0, 1,

le caselle sono 38 perch´e si aggiunge il doppio zero 00).

La roulette `e un gioco d’azzardo nel quale si lancia una pallina su un piatto

, 6}.

, 36}.

Esempio 1.1.3. Come ultimo esempio si prenda in considerazione la misura dell’altezza degli individui di una popolazione. Se le altezze si misurano in centimetri `e ragionevole

porre Ω = {50, 51,

, 300}; se la misura `e effettuata in mezzi centimetri, come si faceva

mediante l’antropometro durante la visita militare di leva, si adotter`a

Ω = {50, 50.5, 51, 51.5,

, 299.5, 300} .

Infine, se uno strumento consentisse di misurare le altezze nel continuo, si adotterebbe

Ω = [50, 300].

Nel seguito parleremo senza fare distinzioni degli eventi o degli insiemi che li rappre- sentano. Ad operazioni logiche sugli eventi corrispondono operazioni sugli insiemi che li rappresentano: cos´ı, dati gli eventi A e B (che, per una volta, si rappresenteranno con sim-

boli diversi da quelli usati per gli insiemi) ad essi si faranno corrispondere gli insiemi A e B; all’evento A ∧ B (`e questo l’evento “si realizzano tanto A quanto B”) si fa corrispondere l’insieme A B. Analogamente, all’evento A ∨ B (=“si realizza uno almeno degli eventi A

o B”) si fa corrispondere l’insieme A B. All’opposto, ¬A, di un evento A corrisponde il

complementare A c dell’insieme A. Altre corrispondenze tra operazioni logiche sugli eventi

e operazioni sugli insiemi che li rappresentano si vedranno nel seguito.

1.2.

OPERAZIONI SUGLI INSIEMI

5

1.2 Operazioni sugli insiemi

Il complementare di un insieme A sar`a indicato con A c . Valgono le note leggi di De Morgan:

ιI A ι c

=

A c ,

ι

ιI

ιI A ι c

= A c

ι

ιI

ove I `e un’arbitraria famiglia di indici (in particolare, non si fa alcuna ipotesi sulla car- dinalit`a di I); vale, inoltre, la relazione (A c ) c = A, che mostra come l’operazione di complementazione sia involutoria.

`

E

opportuno ricordare le relazioni, valide per ogni insieme A,

A = ,

A = A,

A Ω = Ω,

A Ω = A.

La differenza di due insiemi A, B Ω `e definita da

A \ B := {ω Ω : ω A, ω / B}.

Due insiemi A, B Ω si dicono disgiunti se accade che essi non abbiano punti in comune, A B = ; riferendosi ad eventi, si dice che essi si escludono mutuamente. Si osservi che le relazioni

A B

A B = B

A B = B

sono equivalenti e si leggono “A `e incluso in B” o “B include A” o, ancora “A implica B”; in quest’ultima espressione si fa riferimento agli insiemi A e B come eventi. Si osservi che il simbolo d’inclusione `e inteso in senso debole, vale a dire che scrivendo A B, si lascia la possibilit`a che i due insiemi A e B siano eguali, A = B. Non sar`a mai usato in queste lezioni il simbolo . Valgono le relazioni:

A

\ B = A B c ,

A = (A B) (A B c ) = (A B) (A \ B)

(si tratta di un’unione disgiunta),

A B = A (B \ A) = B (A \ B) (unioni disgiunte),

A B ⇐⇒ A B = A ⇐⇒ A B = B.

La differenza simmetrica di due insiemi `e definita da

AB := (A \ B) (B \ A) ;

essa corrisponde all’evento “si realizza esattamente uno tra i due eventi A e B”. Le propriet`a della differenza simmetrica, come pure i rapporti con le altre operazioni sugli insiemi, si troveranno negli esercizˆı.

Si indicher`a con P(Ω) la famiglia costituita da tutti i sottoinsiemi dell’insieme non vuoto

Ω, P(Ω) := {A }; essa si chiama famiglia delle parti di Ω o potenza di Ω.

= ), per ogni sottoinsieme A di Ω si definisce la

Dato un insieme non vuoto Ω (Ω

funzione indicatrice di A, 1 A : Ω → {0, 1} mediante

1 A (ω) :=

1,

0,

se

se ω / A.

ω A,

Ovviamente, 1 = 1 e 1 = 0 (le funzioni identicamente eguali a 1 e 0, rispettivamente). Nei corsi di Analisi Matematica si usa spesso, in luogo del nome funzione indicatrice, quello di

6

CAPITOLO 1.

`

PROBABILIT A DISCRETE

funzione caratteristica; quest’ultimo `e per`o riservato, nel Calcolo delle Probabilit`a, ad una diversa funzione che per`o non costituisce argomento di queste lezioni introduttive. Inoltre

si usano anche i simboli χ A e |A|. Si incontrano difficolt`a a considerare come eventi tutti i sottoinsiemi di un insieme Ω.

Occorrer`a restringere l’attenzione a particolari famiglie di sottoinsiemi. L’opportunit`a, intui- tivamente necessaria, di considerare, accanto all’insieme A, anche il suo complementare A c

e, oltre agli eventi A e B, anche la loro unione e la loro intersezione, giustifica l’introduzione

della seguente

Definizione 1.2.1. Dato un insieme non vuoto Ω, si chiama algebra di sottoinsiemi di Ω, ogni famiglia A ⊂ P(Ω), non vuota, che sia stabile per la complementazione, per l’unione finita e tale che l’insieme vuoto appartenga ad A; cio`e:

(a)

∈ A;

(b)

A ∈ A =A c ∈ A;

(c)

A, B ∈ A =A B ∈ A.

Ricordiamo che un’operazione binaria sopra un dato insieme E, si dice stabile se il risultato `e ancora in E, vale a dire

x, y E

x y E .

Naturalmente, se A `e un’algebra (di sottoinsiemi di Ω) e se A e B sono in A, allora vi appartengono anche A B, A \ B, AB; infatti

A B = A c B c c ,

A \ B = A B c ,

AB = (A \ B) (B \ A) .

Definizione 1.2.2. Si chiama trib´u, o σalgebra, una famiglia F di sottoinsiemi di Ω, F ⊂ P(Ω), che goda delle seguenti propriet`a:

(a)

F ;

(b)

A ∈ F =A c ∈ F;

(c)

n N

A n ∈ F = nN A n ∈ F.

Una trib´u `e dunque stabile rispetto all’operazione di unione numerabile. Usando le leggi

di de Morgan `e immediato dimostrare il seguente

1.2.

OPERAZIONI SUGLI INSIEMI

7

Teorema 1.2.1. Sia F una trib´u di sottoinsiemi di . Allora

(a)

(b)

F `e stabile per le unioni finite:

A i ∈ F(i = 1,

, n) =

n

i=1

A i ∈ F ;

F `e stabile rispetto alle intersezioni numerabili:

n N

A n ∈ F =

nN

A n ∈ F ,

(c)

F `e stabile rispetto alle intersezioni finite:

A i ∈ F

(i = 1, 2,

, n) =

n

i=1

A i ∈ F .

Si osservi che una trib´u `e anche un’algebra. Naturalmente, come si vedr`a, non tutte le algebre sono anche trib´u.

La classe delle trib´u di sottoinsiemi di un insieme non vuoto Ω `e ordinata, parzialmente, rispetto all’inclusione e contiene una pi´u piccola trib´u, la trib´u banale, N := {∅, } ed una pi´u grande trib´u, che `e la famiglia delle parti P(Ω), sicch´e, per ogni trib´u F , si ha N ⊂ F ⊂ P(Ω).

= Ω; la famiglia

Sia A un sottoinsieme proprio e non vuoto di Ω, cio`e A

=

e

A

F (A) := {∅, A, A c , } `e un’algebra; `e anzi, una trib´u, poich´e ogni algebra finita `e anche una trib´u, dato che ogni successione `e necessariamente composta da un numero finito di insiemi distinti, sicch´e ogni unione numerabile `e, di fatto, un’unione finita; essa `e la pi´u piccola trib´u

che contenga A (e si dice generata da A). Infatti se G `e una trib´u che contiene A, risulta, per definizione,

A ∈ G ,

A c ∈ G ,

∅ ∈ G ,

∈ G ,

onde F (A) ⊂ G. Si noti che se i sottoinsiemi A e B sono differenti, le trib´u F (A) e F (B) non sono paragonabili. Il teorema seguente `e di dimostrazione banale.

Teorema 1.2.2. Se {F ι : ι I} `e un’arbitraria famiglia di trib´u di sottoinsiemi di , `e una trib´u anche ιI F ι .

Quest’ultimo risultato consente di risolvere il problema dell’esistenza della pi´u piccola trib´u che contenga un’assegnata famiglia C di sottoinsiemi di Ω. Tale trib´u si indica con F (C) e si dice generata da C; essa `e eguale all’intersezione di tutte le trib´u in P(Ω) che contengano C. Si noti che la famiglia della quale si considera l’intersezione non `e vuota perch´e vi appartiene almeno P(Ω). Un esempio fondamentale di tale situazione `e fornito dalla famiglia I degli intervalli aperti della retta reale R, I := {]a, b[: a, b R, a b}; si osservi che la condizione a b, in luogo di quella pi´u naturale a < b, fa s´ı che l’insieme vuoto sia considerato come un particolare intervallo, ci`o che `e comodo. I non `e un’algebra (e pertanto neanche una trib´u), poich´e se, ad esempio, a < b < c < d, l’unione ]a, b[ ]c, d[ non `e un intervallo. La trib´u generata da I si chiama trib´u di Borel e la si denota con B(R) o, se non sorgono ambiguit`a, semplicemente con B; i suoi insiemi si chiamano boreliani. Vale il seguente utile

Teorema 1.2.3. La trib´u di Borel B(R) `e generata da una qualsiasi delle seguenti famiglie:

(a)

le semirette del tipo ] − ∞, x]

(x R);

(b)

gli insiemi aperti di R;

8

(c) gli insiemi chiusi di R.

CAPITOLO 1.

`

PROBABILIT A DISCRETE

Dimostrazione. Sia B = B(R) e si indichi con B 1 la trib´u generata dalla famiglia indicata in (a). Si osservi che anche gli intervalli aperti a sinistra e chiusi a destra, cio`e del tipo ]a, b], con a e b in R, appartengono a B. Infatti

]a, b] = nN

a, b +

n .

1

Ora ]x, +[ = nN ]x, x + n] che appartiene a B onde

]−∞, x] = ]x, +[ c ∈ B,

e perci`o B 1 ⊂ B. D’altra parte, ]x, +[ = ]−∞, x] c ∈ B 1 onde, se x < y,

]x, y] = ]−∞, y] ]x, +[ ∈ B 1 .

Infine ]x, y[ = nN ]x, y 1/n] ∈ B 1 . Dunque B ⊂ B 1 e quindi B 1 = B. Si indichi con B 2 la trib´u generata dagli aperti. Poich´e l’intervallo ]x, y[ `e esso stesso un aperto, si ha B ⊂ B 2 . Se A R `e aperto, esiste, com’`e noto, una successione (]x n , y n [) di intervalli aperti tale che si possa rappresentare A nella forma A = nN ]x n , y n [ onde A ∈ B

e quindi B 2 ⊂ B. Che B sia generata anche dagli insiemi chiusi `e ora immediato.

B sia generata anche dagli insiemi chiusi `e ora immediato. Se F `e la trib´u generata

Se F `e la trib´u generata dalla famiglia C, non si pu`o, in generale, dare una descrizione costruttiva degli elementi di F partendo dagli elementi di C. Nel seguito si diranno misurabili (o, ove vi sia possibilit`a di confusione, F misurabili ) gli insiemi appartenenti ad una prefissata trib´u F . Si dir`a spazio misurabile la coppia (Ω, F ) costituita da un insieme non vuoto Ω e da una trib´u F di suoi sottoinsiemi.

1.3 Probabilit`a discrete

Diamo ora la definizione di probabilit`a in una forma equivalente a quella proposta da Kolmogorov nel 1933.

Definizione 1.3.1. Dato uno spazio misurabile (Ω, F ) — vale a dire un insieme non vuoto Ω ed una trib´u F di suoi sottoinsiemi — si dice (misura di) probabilit`a su (Ω, F ) ogni funzione P : F → R che soddisfaccia alle seguenti condizioni:

(P.1) P(A) 0 per ogni insieme A ∈ F ;

(P.2) P(Ω) = 1;

(P.3) per ogni successione (A n ) nN di insiemi misurabili disgiunti (A n ∈ F , per ogni n N,

con A j A k = (j

= k)), vale la propriet`a di additivit`a numerabile o σadditivit`a:

P

nN A n =

nN

P(A n ) .

Una terna (Ω, F , P) formata da uno spazio misurabile e da una misura di probabilit`a su F si dice spazio di probabilit`a. Diamo ora alcune conseguenze elementari della definizione appena data, avvertendo che tutti gli insiemi che compaiono si intendono appartenere all’assegnata trib´u F .

`

1.3. PROBABILIT A DISCRETE

9

Si consideri una successione (A n ) tale che A 1 = Ω e A n = per n 2; si tratta, eviden- temente, di una successione di insiemi disgiunti, alla quale `e quindi possibile applicare la (P.3), ottenendo cos´ı

1 = P(Ω) = P nN A n = 1 +

n=2

P() ;

l’ultima serie scritta `e convergente ed ha i termini tutti eguali a P(); l’unica serie a termini costanti che risulti convergente `e quella con i termini tutti nulli; dunque P() = 0, come asserito.

Siano ora A e B due insiemi misurabili disgiunti (A B = ). Si consideri la successione (A n ) nN cos´ı definita: A 1 = A, A 2 = B, A n = per n 3. Per questa successione `e nN A n = A B; la (P.3) e la (1.3.1) danno

P A B = P(A) + P(B) ,

(1.3.2)

propriet`a che si dice di additivit`a semplice. Si `e quindi visto che l’additivit`a semplice (1.3.2) vale in ogni spazio di probabilit`a. Esistono esempˆı nei quali vale la (1.3.2) senza che valga

la (P.3); quest’ultima `e dunque una propriet`a pi´u forte.

induzione finita che la propriet`a di additivit`a semplice si estende ad un numero finito di

Inoltre si vede facilmente per

insiemi disgiunti: se A 1 , allora

, A n sono insiemi a due a due disgiunti, A j A k = per j

= k,

P

n

j=1

A j   =

n

j=1

P(A j ) .

In un insieme finito risulta impossibile considerare una successione di insiemi disgiunti che siano contemporaneamente distinti e differenti dall’insieme vuoto. In tal caso sar`a possibile sostituire all’assioma di additivit`a numerabile (P.3) quello di additivit`a semplice

(1.3.2).

La differenza di due insiemi `e

P (B \ A) = P B A c = P(B) P A B .

(1.3.3)

Infatti, per la distributivit`a delle operazioni di unione e intersezione, si ha

B = B Ω = B A A c = B A B A c ,

che `e un’unione disgiunta, onde P(B) = P(B A) + P(B A c ).

(1.3.4)

Basta porre B = Ω nella (1.3.3). Se i due insiemi considerati non sono necessariamente disgiunti la propriet`a (1.3.2) si sostituisce con la seguente

P(A c ) = 1 P(A) .

P A B = P(A) + P(B) P A

B :

(1.3.5)

basta scrivere A B come un’unione disgiunta A B = A (B \ A); l’asserto segue ora dalla (P.3) e dalla (1.3.3).

A B

=

P(A) P(B) .

Segue infatti dalla (P.1) e dalla (1.3.3) che

(1.3.6)

0 P(B \ A) = P(B) P A B = P(B) P(A) .

10

CAPITOLO 1.

`

PROBABILIT A DISCRETE

La (1.3.6) si esprime dicendo che le probabilit`a sono isotone (o crescenti) rispetto all’inclu- sione.

(1.3.7)

Per quest’ultima relazione basta osservare che ∅ ⊂ A Ω ed usare la (1.3.6), la (1.3.1) e la

(P.2).

A ∈ F

0 P(A) 1 .

`

E notevole la diseguaglianza di Boole

P(A) + P(B) P A B .

(1.3.8)

Questa `e conseguenza della (1.3.5) e della (P.1). Per induzione la (1.3.8) si estende al caso

di un numero finito di insiemi.

P

i=1 A i

n

n

i=1

P(A i ) .

(1.3.9)

Vale per le probabilit`a il seguente risultato che si potrebbe chiamare “di passaggio al limite lungo le successioni monotone di insiemi”.

Teorema 1.3.1. (a) Nello spazio di probabilit`a (Ω, F , P) sia (A n ) una successione crescente di insiemi di F , A n ∈ F per ogni n N,

A 1 A 2 ⊂ ··· ⊂ A n

allora, posto A := nN A n , `e

P(A) = lim

n+ P(A n ) .

;

(1.3.10)

(b) Se (A n ) `e una successione decrescente di insiemi di F , A n ∈ F per ogni n N,

A 1 A 2 ⊃ ··· ⊃ A n

allora, posto A := nN A n ,

`e

P(A) = lim

n+ P(A n ) .

;

(1.3.11)

Dimostrazione. (a) Sia data una successione crescente (A n ) di insiemi misurabili e si definis- ca, a partire da questa, una nuova successione (B n ) cos´ı definita

B 1 := A 1 ,

B n := A n \ A n1 = A n A

c

n1 ,

.

La nuova successione `e costituita da insiemi disgiunti, B k B n = se k

supposto, k < n, si ha, per definizione, B k A k , mentre B n A n1 ⊂ ··· ⊂ A k c , poich´e

l’inclusione A k A n equivale all’altra A n A c k . Per ogni n N vale l’eguaglianza

= n; infatti,

c

c

A n =

n

j=1

B j .

(1.3.12)

Se j n, si ha B j A j A n , sicch´e vale l’inclusione

n

j=1

B j A n .

Per dimostrare l’inclusione inversa, si consideri un qualsiasi punto ω di A n e si introduca

k = k(ω) := min{j ∈ {1, 2,

, n} : ω B j } ,

`

1.3. PROBABILIT A DISCRETE

il minimo indice j per il quale ω appartiene a B j .

`

E ora evidente che vale l’inclusione

A n

n

j=1

B j .

Ci`o stabilisce la (1.3.12).

11

In maniera del tutto analoga si dimostra che vale l’eguaglianza

A =

B n .

nN

Dalla (1.3.12) e dalla propriet`a di additivit`a finita si ottiene, per ogni n N,

P(A n ) =

n

j=1

P(B j ) ;

d’altro canto, segue dalla definizione di somma di una serie che

P(A) = P(B j ) = lim

n+

jN

n

j=1

P(B j ) = lim