Sei sulla pagina 1di 94

Probabilit` e incertezza di misura a

G. DAgostini Dipartimento di Fisica, Universit` La Sapienza, Roma a 30 ottobre 2001

ii

c G. DAgostini 2001

Indice
I
1

Dal concetto di probabilit` ai problemi di probabilit` inversa a a


` Incertezza e probabilita 1.1 Determinismo e probabilismo nei metodi di indagine scientica 1.2 Incertezze in Fisica e nelle altre scienze naturali . . . . . . . . 1.3 Limiti allaccuratezza delle misure - un esempio . . . . . . . . 1.4 Imparare dagli esperimenti: il problema dellinduzione . . . . 1.5 cLimiti del metodo di falsicazione . . . . . . . . . . . . . . 1.6 Decisioni in condizioni di incertezza . . . . . . . . . . . . . . 1.7 Concetto di probabilit` . . . . . . . . . . . . . . . . . . . . . a 1.8 Semplici valutazioni di probabilit` . . . . . . . . . . . . . . . a 1.9 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 1.10 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ` Valutazioni e interpretazioni della probabilit a 2.1 Primi interessi in stime quantitative di probabilit` . . . . . a 2.2 Valutazione combinatoria . . . . . . . . . . . . . . . . . . 2.3 Probabilit` e frequenza . . . . . . . . . . . . . . . . . . . a 2.4 Legge empirica del caso e denizione frequentista . . . 2.5 Interpretazione oggettivista e soggettivista della probabilit` a 2.6 Concetto di probabilit` condizionata . . . . . . . . . . . . a 2.7 Eventi di probabilit` nulla . . . . . . . . . . . . . . . . . a 2.8 Probabilit` e scommesse eque . . . . . . . . . . . . . . . a 2.9 Probabilit` e quote di scommessa . . . . . . . . . . . . a 2.10 Denizione soggettiva di probabilit` . . . . . . . . . . . . a 2.11 c La denizione ISO . . . . . . . . . . . . . . . . . . . 2.12 cNote sul termine soggettivo . . . . . . . . . . . . . . . 2.13 cRuolo virtuale della scommessa, valore dei soldi e ordini grandezza non intuitivamente percepibili . . . . . . . . . . 2.14 Speranza matematica e previsione di vincita . . . . . . 2.15 cPrevisione di guadagno e decisioni . . . . . . . . . . . . 2.16 cDecisioni vantaggiose e etica della ricerca . . . . . . . . 2.17 cRegola di penalizzazione - il bastone e la carota . . . . . 2.18 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . 2.19 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . .

1
3 3 4 6 7 9 10 10 13 15 17 19 19 20 21 23 25 26 28 29 30 31 32 33 34 36 37 39 40 41 43

. . . . . . . . . . . . . . . . . . . . . . . . di . . . . . . . . . . . . . .

iv
3 Elementi di calcolo combinatorio 3.1 Problemi elementari tipici . . . . . . . . . . . . . . . . 3.2 Disposizioni e combinazioni . . . . . . . . . . . . . . 3.2.1 Regola fondamentale del calcolo combinatorio 3.2.2 Numero di -disposizioni di oggetti . . . . . 3.2.3 Numero di -disposizioni semplici di oggetti 3.2.4 Numero di permutazioni di oggetti . . . . . . 3.2.5 Combinazioni . . . . . . . . . . . . . . . . . . 3.2.6 Coefcienti binomiali . . . . . . . . . . . . . 3.2.7 Note su nomenclatura e simbologia . . . . . . 3.3 Note sul calcolo dei grandi numeri . . . . . . . . . . . 3.4 Ordinamenti, occupazioni ed estrazioni . . . . . . . . 3.5 Alcuni esempi classici . . . . . . . . . . . . . . . . . 3.6 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . 3.7 Problemi . . . . . . . . . . . . . . . . . . . . . . . . .

INDICE
47 47 48 48 48 48 50 50 52 53 53 55 57 59 60 61 61 62 67 67 69 71 72 74 75 76 76 78 78 78 81 85 85 87 89 91 92 92 94 95 96 96 96 97 98 98

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

` Regole della probabilita 4.1 Probabilit` della somma logica di due eventi incompatibili a 4.2 Eventi e insiemi . . . . . . . . . . . . . . . . . . . . . . . 4.3 probabilit` come misura . . . . . . . . . . . . . . . . . . a 4.4 Evento condizionato . . . . . . . . . . . . . . . . . . . . 4.5 Regole di base della probabilit` - assiomi . . . . . . . . . a 4.5.1 cDimostrazioni delle propriet` della probabilit` . . a a 4.6 Relazione fra probabilit` condizionata e congiunta . . . . . a 4.7 Condizionamento da eventi di probabilit` nulla . . . . . . a 4.8 Indipendenza stocastica (o in probabilit` ) . . . . . . . . . a 4.9 Altre propriet` della probabilit` condizionata . . . . . . . a a 4.9.1 Legge della moltiplicazione . . . . . . . . . . . . 4.9.2 Legge delle alternative . . . . . . . . . . . . . . . 4.10 Indipendenza logica e indipendenza stocastica . . . . . . . 4.11 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . 4.12 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . .

Probabilit` delle cause e meccanismo di aggiornamento delle proa babilit` a 5.1 Inferenza probabilistica . . . . . . . . . . . . . . . . . . . . . 5.2 Teorema di Bayes . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Chiavi di lettura del teorema di Bayes . . . . . . . . . . . . . 5.4 Visione combinatoria del teorema di Bayes . . . . . . . . . . 5.5 Esempi tipici di applicazione . . . . . . . . . . . . . . . . . . 5.5.1 Classicazione di eventi e rapporto segnale rumore . . 5.5.2 Uso iterativo del teorema di Bayes . . . . . . . . . . . Statistica bayesiana: imparare dallesperienza . . . . . . . 5.6 5.7 Il caso del sospetto baro . . . . . . . . . . . . . . . . . . . 5.7.1 I fatti . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.2 Riaggiornamento della probabilit` . . . . . . . . . . . a 5.7.3 Confronto fra inferenza diretta e inferenza iterativa . . 5.7.4 Dipendenza dalla probabilit` iniziale . . . . . . . . . . a 5.7.5 Pregiudizio, indizi e conclusioni . . . . . . . . . . . .

c G. DAgostini 2001

INDICE
5.7.6 Probabilit` e decisione . . . . . . . . . . . . . . . . . a 5.8 cRecupero e superamento del metodo di falsicazione . . . . 5.9 Osservazioni indipendenti e prodotto delle verosimiglianze . 5.10 cFattore di Bayes e incremento logaritmico delle quote di scommessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.11 Indifferenza iniziale e massima verosimiglianza . . . . . . 5.12 cProblema della vericabilit` ed estensione del concetto di a evento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.13 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 5.14 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 99 100 100 101 101 102 104

II
6

Variabili casuali - I

` Variabili casuali e distribuzioni di probabilit a di variabili discrete 111 6.1 Numeri aleatori . . . . . . . . . . . . . . . . . . . . . . . . . 111 6.2 Distribuzione di probabilit` . . . . . . . . . . . . . . . . . . . 112 a 6.3 Distribuzione di probabilit` e distribuzioni statistiche . . . . 113 a 6.4 Esempi di costruzione di distribuzioni di variabili casuali . . . 115 6.5 Propriet` delle distribuzioni di probabilit` discrete . . . . . . . 118 a a 6.6 Distribuzioni elementari notevoli . . . . . . . . . . . . . . . . 119 6.6.1 Distribuzione uniforme discreta . . . . . . . . . . . . 119 6.6.2 cDistribuzione uniforme discreta - caso generale . . . 119 6.6.3 Processo di Bernoulli . . . . . . . . . . . . . . . . . . 120 6.6.4 Combinazione di molti processi di Bernoulli indipendenti e di uguale probabilit` . . . . . . . . . . . . . . 121 a 6.7 Distribuzione geometrica . . . . . . . . . . . . . . . . . . . . 122 6.8 Sintesi di una distribuzione di probabilit` : previsione e incera tezza di previsione . . . . . . . . . . . . . . . . . . . . . . . 123 6.9 Previsione (o valore atteso) come baricentro della distribuzione 126 6.9.1 Osservazioni su terminologia e notazioni . . . . . . . 127 6.9.2 Valore atteso di una funzione di una variabile casuale . 128 6.10 Valore atteso di distribuzioni elementari . . . . . . . . . . . . 128 6.10.1 Distribuzione uniforme discreta . . . . . . . . . . . . 129 6.10.2 Processo di Bernoulli . . . . . . . . . . . . . . . . . . 129 6.10.3 Distribuzione geometrica . . . . . . . . . . . . . . . . 130 6.11 Incertezza standard di previsione . . . . . . . . . . . . . . . 130 Varianza e deviazione standard . . . . . . . . . . . . . 130 6.12 Propriet` formali di varianza e deviazione standard . . . . . . 132 a 6.13 c Momenti di una distribuzione e altri indicatori di forma . . . 133 6.14 c Entropia come misura dello stato di incertezza . . . . . . . 134 6.15 Deviazione standard delle distribuzioni elementari . . . . . . . 134 6.15.1 Distribuzione uniforme fra 1 e . . . . . . . . . . . . 135 6.15.2 c Distribuzione uniforme di valori fra e . . . . . 135 6.15.3 Processo di Bernoulli . . . . . . . . . . . . . . . . . . 135 6.15.4 Distribuzione geometrica . . . . . . . . . . . . . . . . 136 6.16 Processo di Bernoulli e percezione di probabilit` prossime a a 0 o a 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

c G. DAgostini 2001

109

vi

INDICE
6.17 c Previsione e incertezza di previsione di vincita in giochi dazzardo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 6.17.1 Gioco della roulette . . . . . . . . . . . . . . . . . . . 137 6.17.2 I sistemi per vincere al lotto . . . . . . . . . . . . . 139 6.18 Misure di centralit` e di dispersione di distribuzioni statistiche141 a 6.19 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 143 6.20 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 7 ` Distribuzioni di probabilita di variabili discrete - II 7.1 Distribuzione binomiale . . . . . . . . . . . . . . . . . . . . . 7.2 Distribuzione binomiale da capo . . . . . . . . . . . . . 7.3 Propriet` della distribuzione binomiale e note sul suo uso . . . a 7.3.1 Valore atteso e deviazione standard . . . . . . . . . . 7.3.2 Usi tipici della distribuzione binomiale . . . . . . . . 7.4 Distribuzione di Poisson . . . . . . . . . . . . . . . . . . . . 7.5 Processo di Poisson - prima parte . . . . . . . . . . . . . . 7.6 c Formule ricorsive per la distribuzione binomiale e di Poisson 7.7 Propriet` riproduttiva delle distribuzioni di probabilit` binoa a miale e di Poisson . . . . . . . . . . . . . . . . . . . . . . . . 7.8 c Altre distribuzioni di interesse . . . . . . . . . . . . . . . . Distribuzione di Pascal . . . . . . . . . . . . . . . . . Binomiale negativa . . . . . . . . . . . . . . . . . . . Distribuzione ipergeometrica . . . . . . . . . . . . . . 7.9 cCammino casuale e problema della rovina del giocatore . . . ? . . . . . . . . . . . . . . . . 7.10 Quanto credere in 7.10.1 Alcuni esempi numerici . . . . . . . . . . . . . . . . 7.10.2 Disuguaglianza di Markov . . . . . . . . . . . . . . . 7.10.3 Disuguaglianza di Cebicev . . . . . . . . . . . . . . . 7.11 Intervalli di probabilit` , o di credibilit` . . . . . . . . . . . . a a 7.12 cPrevisione, penalizzazione e valore sul quale scommettere . . 7.13 Previsione di frequenza relativa e legge dei grandi numeri . 7.14 Previsione di una distribuzione statistica . . . . . . . . . . 7.14.1 Introduzione al concetto di correlazione fra variabili casuali . . . . . . . . . . . . . . . . . . . . . . . . . 7.15 Un esempio storico di distribuzione di Poisson come introduzione al problema della verica delle leggi statistiche . . . . 7.15.1 Previsione del tipo di distribuzione . . . . . . . . . . . 7.15.2 Stima puntuale del parametro della distribuzione . . 7.15.3 Previsione quantitativa della distribuzione statistica, subordinata a , e confronto con le osservazioni . . Inferenza probabilistica su . . . . . . . . . . . . . . Previsione della distribuzione statistica subordinata allincerteza su . . . . . . . . . . . . . . . 7.16 Estensione dei teoremi sulla probabilit` alle funzioni di proa babilit` discrete . . . . . . . . . . . . . . . . . . . . . . . . . a 7.17 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 7.18 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  

 

147 147 149 151 151 154 154 156 161 161 162 162 164 165 166 168 168 170 170 171 172 173 174 175 176 176 176 177 178 179 179 181 184

c G. DAgostini 2001

INDICE
8 ` Distribuzioni di probabilita di variabili continue 8.1 Variabili casuali continue e densit` di probabilit` . . . . . . . a a 8.1.1 Probabilit` nulle con diversi gradi di ducia . . . . . . a 8.1.2 Dal grado di ducia alla probabilit` nita . . . . . . . a 8.1.3 Funzione densit` di probabilit` . . . . . . . . . . . . . a a 8.1.4 Propriet` della funzione densit` di probabilit` e della a a a funzione di ripartizione . . . . . . . . . . . . . . . . . 8.1.5 Valori attesi . . . . . . . . . . . . . . . . . . . . . . . 8.2 Distribuzione uniforme continua . . . . . . . . . . . . . . . . 8.3 c Simulazione al computer di processi stocastici . . . . . . . . 8.3.1 Costruzioni di altre semplici variabili casuali . . . . . Generica distribuzione uniforme fra e . . . . . . . Processo di Bernoulli e distribuzione binomiale . . . . Distribuzione uniforme discreta . . . . . . . . . . . . Marcia a caso . . . . . . . . . . . . . . . . . . . . . . 8.3.2 Scelta pesata con . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.3 Scelta uniforme lungo 8.4 Distribuzioni triangolari . . . . . . . . . . . . . . . . . . . 8.5 Distribuzione esponenziale . . . . . . . . . . . . . . . . . . . 8.6 c Distribuzione esponenziale doppia . . . . . . . . . . . . . . 8.7 Distribuzione normale . . . . . . . . . . . . . . . . . . . . . 8.8 Distribuzione normale standardizzata . . . . . . . . . . . . . . 8.9 Uso delle tabelle dellintegrale della distribuzione normale standardizzata . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.10 c Derivazione della gaussiana come limite di funzione binomiale o poissoniana . . . . . . . . . . . . . . . . . . . . . . . 8.11 Propriet` riproduttiva della distribuzione normale . . . . . . a 8.12 Processo di Poisson - Seconda parte . . . . . . . . . . . . . 8.12.1 Distribuzione del tempo di attesa del primo successo . 8.12.2 Relazione fra esponenziale e poissoniana . . . . . . . 8.12.3 Relazione fra esponenziale e geometrica . . . . . . . . 8.12.4 Tempo di attesa del -mo successo . . . . . . . . . . . 8.12.5 Intensit` di pi` processi di Poisson indipendenti . . . . a u 8.12.6 Vita media di decadimento . . . . . . . . . . . . . . . 8.13 c Funzione generatrice dei momenti . . . . . . . . . . . . . . Binomiale . . . . . . . . . . . . . . . . . . . . . . . . Poissoniana . . . . . . . . . . . . . . . . . . . . . . . Gaussiana . . . . . . . . . . . . . . . . . . . . . . . . Altre propriet` e applicazioni . . . . . . . . . . . . . . a 8.14 Altre distribuzioni di interesse . . . . . . . . . . . . . . . . 8.14.1 Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.14.2 Gamma . . . . . . . . . . . . . . . . . . . . . . . . . 8.14.3 Chi . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.14.4 di Student . . . . . . . . . . . . . . . . . . . . . . . 8.14.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.15 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 8.16 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 187 187 188 189 190 190 192 193 194 194 194 194 194 195 195 196 197 198 199 202 204 208 209 210 210 211 212 213 214 215 215 217 217 217 218 219 219 221 221 224 225 226 227

vii

c G. DAgostini 2001

# $"!&%

# $"!  '

viii III Variabili casuali - II


9

INDICE

229
231 231 232 233 234 236 236 237 237 238 239 239 242 244 244 249 249 250 251 256 261 263 263 264 265 265 266 266 267 269 271 271 272 272 274 274 275 275 276 277 277 278

Variabili casuali multiple 9.1 Vettori aleatori . . . . . . . . . . . . . . . . . . . . . . . . . 9.1.1 Variabili casuali doppie discrete . . . . . . . . . . . . 9.1.2 Variabili casuali doppie continue . . . . . . . . . . . . 9.2 Distribuzioni marginali . . . . . . . . . . . . . . . . . . . . . 9.3 Estensione dei teoremi sulla probabilit` alle distribuzioni di a probabilit` . . . . . . . . . . . . . . . . . . . . . . . . . . . . a 9.3.1 Distribuzioni condizionate . . . . . . . . . . . . . . . 9.3.2 Variabili casuali indipendenti . . . . . . . . . . . . . . 9.3.3 Formula delle alternative e teorema di Bayes . . . . . 9.4 Previsione e incertezza di previsione . . . . . . . . . . . . . . 9.5 Covarianza e coefciente di correlazione . . . . . . . . . . 9.5.1 Variabili correlate e misura della correlazione . . . . . 9.5.2 Propriet` formali di covarianza e coefciente di correa lazione . . . . . . . . . . . . . . . . . . . . . . . . . Matrice di covarianza e matrice di correlazione . . . . . . . 9.6 9.7 Esempi di variabili doppie discrete . . . . . . . . . . . . . 9.8 Esempi di distribuzione bidimensionale continua . . . . . . 9.8.1 Distribuzione uniforme in un rettangolo . . . . . . . . 9.8.2 Distribuzione uniforme in un triangolo . . . . . . . . . 9.9 c Distribuzione multinomiale . . . . . . . . . . . . . . . . . . 9.10 c Distribuzione normale bivariata . . . . . . . . . . . . . . . 9.11 c Caso generale di distribuzione multivariata . . . . . . . . . rispetto alle variabili casuali . . . . . . Derivate di 9.12 Distribuzioni statistiche multivariate . . . . . . . . . . . . . 9.13 varie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10 Funzioni di variabili casuali e teoremi limite 10.1 Propagazione delle incertezze . . . . . . . . . . . . . . . . . . 10.2 Soluzione generale per variabili discrete . . . . . . . . . . . . 10.2.1 Regola generale . . . . . . . . . . . . . . . . . . . . . 10.2.2 c Convoluzione di due funzioni di probabilit` . . . . . a 10.2.3 Trasformazione di una variabile distribuita uniformemente . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3 cSoluzione generale per variabili continue . . . . . . . . . . . 10.3.1 Cambiamento di variabile . . . . . . . . . . . . . . . Trasformazioni di una distribuzione uniforme . . . . . Applicazioni alle simulazioni di variabili casuali . . . Trasformazione lineare di una variabile distribuita normalmente . . . . . . . . . . . . . . . . . . 10.3.2 Caso di funzioni non monotone . . . . . . . . . . . . 10.3.3 Somma di due variabili . . . . . . . . . . . . . . . . . Somma di due variabili distribuite uniformemente . . . Somma di due variabili distribuite normalmente . . . . 10.4 cUso della funzione generatrice dei momenti . . . . . . . . . 10.4.1 , con e poissoniane . . . . . . . . . 10.4.2 , con e gaussiane . . . . . . .

6 A 4 4 6 9@69522 6 873 4

( 10

c G. DAgostini 2001

INDICE
10.5 c Stime a bruta forza: metodi di Monte Carlo . . . . . . . . . 10.6 Riepilogo di alcune propriet` delle funzioni di variabili casuali a 10.7 Valore atteso e varianza di combinazioni lineari . . . . . . . . Valore atteso e varianza della distribuzione binomiale . Valore atteso e varianza della distribuzione di Erlang . Previsione di una media aritmetica di variabili aleatorie analoghe . . . . . . . . . . . . . . . . . 10.8 Correlazione fra diverse combinazioni lineari di variabili casuali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Covarianza di due medie aritmetiche . . . . . . . . . . Correlazione fra una variabile e una combinazione lineare che la contiene . . . . . . . . . . . . 10.9 Legge dei grandi numeri . . . . . . . . . . . . . . . . . . . . 10.9.1 Limite della media aritmetica . . . . . . . . . . . . . 10.9.2 Teorema di Bernoulli . . . . . . . . . . . . . . . . . . Lancio di una moneta . . . . . . . . . . . . . . . . . . Sul recupero dei numeri ritardatari . . . . . . . . . . . 10.10Teorema del limite centrale . . . . . . . . . . . . . . . . . . . 10.10.1 Distribuzione della media aritmetica . . . . . . . . . . 10.10.2 Convergenza in distribuzione della binomiale e della poissoniana . . . . . . . . . . . . . . . . . . . . . . . 10.11Estensione del teorema del limite centrale a variabili non indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.12c Simulazione di numeri aleatori distribuiti secondo una distribuzione normale . . . . . . . . . . . . . . . . . . . . . . . 10.13 Linearizzazione . . . . . . . . . . . . . . . . . . . . . . . 10.14 Esempio di applicazione alle incertezze di misure . . . . . 10.15 Moto browniano, pallinometro ed errori di misura . . . . 10.16c Distribuzione di velocit` delle molecole di un gas perfetto . a 10.17Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278 280 280 283 283 283 284 286 287 287 288 289 290 290 292 295 295 297 297 298 299 301 304 307

ix

IV

Applicazioni di statistica inferenziale


. . . . . . . . . . . . . .

11 Impostazione del problema. Caso di verosimiglianza gaussiana 11.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Verosimiglianza normale con nota . . . . . . . . . . . . . 11.3 Effetto di una prior rilevante: combinazione di risultati . . . 11.4 c Derivazione di Gauss della gaussiana . . . . . . . . . . . 11.5 c Caso di forte vincolo dato dalla prior . . . . . . . . . . . . 11.6 Caso di ignota . . . . . . . . . . . . . . . . . . . . . . . . 11.6.1 Ragionamento intuitivo . . . . . . . . . . . . . . . . 11.6.2 Possibili dubbi sul modello normale . . . . . . . . . 11.6.3 c Inferenza simultanea su e . . . . . . . . . . . Prior uniforme in . . . . . . . . . . . . . . . . . . Prior uniforme in . . . . . . . . . . . . . . . . Incertezza su . . . . . . . . . . . . . . . . . . . . 11.6.4 Distribuzione di . . . . . . . . . . . . . . . . . 11.6.5 Conclusioni e raccomandazioni . . . . . . . . . . .

c G. DAgostini 2001

( RQPIH E GFDCB 

309
311 311 313 316 318 320 322 323 324 324 325 327 328 331 333

INDICE
11.7 Distribuzione predittiva . . . . . . . . . . . . . . . . . . . . . 333 11.8 Combinazione scettica . . . . . . . . . . . . . . . . . . . . . 335 11.9 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338 12 Verosimiglianza binomiale e poissoniana. Approssimazioni 12.1 Misure di conteggi, di proporzioni e di efcienze . . . . . . . 12.2 Inferenza su e (o ) in condizioni di normalit` . . . . . . . a 12.2.1 Caso poissoniano . . . . . . . . . . . . . . . . . . . . 12.2.2 Caso binomiale . . . . . . . . . . . . . . . . . . . . . 12.3 Caso generale di inferenza con verosimiglianza binomiale . 12.3.1 Caso di routine . . . . . . . . . . . . . . . . . . . . . 12.3.2 Casi critici . . . . . . . . . . . . . . . . . . . . . . . 12.3.3 Combinazione di misure indipendenti . . . . . . . . . 12.3.4 c Uso della prior coniugata Beta . . . . . . . . . . . . Caso generale di inferenza con verosimiglianza poissoniana 12.4 12.4.1 Caso di routine . . . . . . . . . . . . . . . . . . . . . 12.4.2 Caso di con prior uniforme . . . . . . . . . . . 12.4.3 Combinazione di risultati . . . . . . . . . . . . . . . . 12.4.4 c Uso della prior coniugata Gamma . . . . . . . . . . 12.4.5 Inferenza sullintensit` del processo di Poisson da osa servazioni effettuate con diversi tempi di osservazione 13 Sufcienza statistica, limite a normale e metodi frequentistici 14 Effetti sistematici e di rumore 14.1 Considerazioni generali . . . . . . . . . . . . . . . . . . . . . 14.2 Soluzioni esatte sotto ipotesi di normalit` . . . . . . . . . . . a 14.2.1 Incertezza sullo zero dello strumento . . . . . . . . . 14.2.2 Correzione per errori sistematici noti . . . . . . . . . 14.2.3 Correlazione fra i risultati introdotta dalla non perfetta conoscenza dello zero dello strumento . . . . . . . . . 14.3 Effetto del background nella misura dellintensit` di un proa cesso di Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 14.4 Propagazioni di incertezza, approssimazioni e linearizzazioni . 14.5 Matrice di covarianza di dati correlati . . . . . . . . . . . . . Offset uncertainty . . . . . . . . . . . . . . . . . . . . Normalization uncertainty . . . . . . . . . . . . . . . General case . . . . . . . . . . . . . . . . . . . . . . 15 Adattamento di curve ai dati sperimentali e stima dei parametri 15.1 Inferenza sui parametri di una legge . . . . . . . . . . . . . . 15.2 c Come tener conto anche di possibili incertezze sulle . . . 15.3 Formule dei minimi quadrati . . . . . . . . . . . . . . . . . . 15.3.1 nota e costante . . . . . . . . . . . . . . . . . . . 15.3.2 ignote e supposte costanti . . . . . . . . . . . . . 15.3.3 diverse e note a priori . . . . . . . . . . . . . . . 339 339 339 340 340 341 342 343 344 344 346 346 347 348 348 349 351 353 353 353 353 355 356 358 361 361 361 362 363 365 365 367 368 368 369 369

c G. DAgostini 2001

 S U T!

XYW V YXW V V W

INDICE
16 Test di ipotesi 16.1 Riepilogo dellapproccio probabilistico . . . . . . . . . . . . 16.2 Schema di test di ipotesi nellapproccio frequentista . . . . . . 16.3 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 371 371 371 371

xi

Soluzione dei problemi

373

c G. DAgostini 2001

xii

INDICE

c G. DAgostini 2001

Parte III

Variabili casuali - II

Capitolo 9

Variabili casuali multiple


9.1 Vettori aleatori
Nei capitoli precedenti abbiamo considerato un numero aleatorio alla volta, introducendo il formalismo generale per descrivere lo stato di incertezza rispetto. Come si pu` bene immaginare, nei casi reali ci si trova spesso a dover o considerare pi` grandezze dai valori incerti. Facciamo degli esempi. u

Scelgo uno studente a caso che abbia terminato tutti gli esami del corso. Che voti ha riportato in ciascuno degli esami? 18, 18, 18, . . . , 18 , 19, 18, 18, . . . , 18 , . . . , 30, 30, 30, . . . , 30 ? (Con . . . e indicata la ` lista dei possibili risultati, ordinata per ordine alfabetico degli esami.) Si lancia una pallina su un tavolo di cm cm? In quale punto del piano si fermer` ? 0.0, 0.0 , 0.0, 0.1 , 0.1, 0.1 , . . . 120.0, a 80.0 , (discretizzando al millimetro le coordinate, prese a partire da uno spigolo) La legge sica che lega la grandezza (misurata in unit` arbitrarie) al a tempo e del tipo ` . Se e valgono rispettivamente 3 e di 1 (unit` arbitrarie) e la misura e affetta da errori casuali, quali valori di a ` e di (misurati con strumenti reali) si osserveranno ai tempi e ? 3.7, 6.7 , 3.8, 6.7 , . . . 4.0, 7.0 , . . . 4.5, 7.5 ? Caso inverso del precedente: avendo osservato e ai tempi e , cosa si pu` dire sui valori veri dei coefcienti o e ? 3.1, 0.4 , . . . 3.3, 0.6 , . . . 3.4, 0.5 ?

H sv t uPs)

b c ( qwyx s a b

a b a b

a b

b a

a bb a a b daU geb dYcH a b f U a b

a b ca (b ) a )s A i H ` a b a b a w ( ) c( A 4) i A i rqp3h `

a b

` ` `

Consideriamo 100 lancio consecutivi di una moneta. Si pu` essere inteo ressati al numero di teste, al numero di croci, al numero pi` elevato di u teste consecutive che si e vericato e al numero di cambiamenti di esito ` (ogni volta che dopo un certo numero di teste e uscita croce e viceversa). ` Quali risultati sar` possibile ottenere? 0, 0, 0, 0 , 1, 0, 0, 0 , . . . 50, a 50, 1, 49 , . . . 100, 100, 100, 100 ? (Con . . . e indicata la lista or` dinata dei valori numerici di ciascuna delle variabili di interesse. Molte di queste combinazioni risultano impossibili.)

232

Variabili casuali multiple


Ricapitolando, in generale si e in stato di incertezza rispetto alla realizzazione ` di variabili casuali, o , come si dice, rispetto a un vettore aleatorio di componenti, anche chiamato -tupla (leggi entupla) di valori. Come al solito, lo stato di incertezza su ciascun possibile vettore aleatorio sar` quanticato da un grado di ducia. Vediamo separatamente il caso discrea to e quello continuo. Successivamente, molte delle propriet` saranno descritte a in modo generale per i due casi, eventualmente scegliendo variabili discrete o continue per gli esempi, a seconda di quella che meglio si presta al caso.

9.1.1 Variabili casuali doppie discrete


Il concetto di distribuzione di probabilit` si estende in modo naturale alle vaa riabili multiple. Cominciamo anche in questo caso con le variabili discrete e, per semplicit` , con il caso bidimensionale. Lestensione al caso generale e a ` immediato. La funzione di probabilit` e 1 : a`

(9.1)

la quale e denita non negativa e compresa fra 0 e 1. Le possibili coppie ` di valori di e (o il vettore, o n-tupla, di dimensione 2), ciascuna con il suo grado di ducia , danno luogo alla distribuzione congiunta delle variabili. La condizione di normalizzazione richiede che la somma su tutte le coppie sia pari a 1. Questo pu` essere scritto in diversi modi. o Si pu` pensare a ciascuna coppia come un punto del piano ( , ) e o ordinata mediante lindice . La somma delle probabilit` sommare su a tutti gli punti deve dare 1:

Si pu` indicare la variabile o con lindice , la tutte le possibilit` degli indici: a

con

e sommare su

Facciamo un esempio che chiarisca luso del simbolo . Se la variabile pu` assumere 3 valori e la variabile 2 valori si ha che o

sta per 6 sulla essibilit` delluso di simboli. a

. Si ricordi inoltre quanto detto nel capitolo

c G. DAgostini 2001

x Rfr fqTr # ( QW"! e@#z"! 9e# ( ( "! }4 ~  4 s ~  4  @#z ( "! g# ( |R"! 9g{#zyg"!  x# t "!  t s s  4 s  4 s s k jk 6 ts w k H pu# t "!  t s v# t 3u6 3h"& t s rkj !  k rkj k q 6 ` pH# "!  s l o# 3v6 !3h"& s l "#m s l  n  i i dh kj i dh k j k k Fh kj k k V e d gfe3x

# !  # W363h"&R"! 

# R"!  6

9.1 Vettori aleatori

233

intendendo semplicemente che la sommatoria corre su tutti i possibili valori di e di . Anche in questo caso si denisce una funzione di ripartizione, in perfetta analogia al caso unidimensionale:

Essa soddisfa le seguenti propriet` : a 1. 2. 3. 4.

La tabella 9.1 mostra un esempio di distribuzione doppia di variabili discrete.

9.1.2 Variabili casuali doppie continue


Per introdurre le variabili continue partiamo dalla funzione di ripartizione:

In questo caso lelemento innitesimo di probabilit` e pari a: a`

Esso ha il signicato di

La funzione densit` di probabilit` , ottenuta dalla funzione di ripartizione come a a

rappresenta invece il grado di ducia del punto , come discusso al momento di introdurre le variabili continue. Le propriet` della densit` di probabia a lit` congiunta a sono analoghe al caso unidimensionale visto nel capitolo precedente. Ricordiamo soltanto che ha le dimensioni inverse di e che la condizione di normalizzazione diventa:

c G. DAgostini 2001

% % s# s "!tp# "!& # "!  #  k k k k k k "!&% # 3f v3"!"! # R & "!"!%% # 4 4 # ( s ( ! &s ! # ( ( "!&u s# s "!% %  # "!&% z ! !9 W9 t !! 6!   j k "#9WW"&p#W"!&%

e non decrescente, ossia ` ; tende a 0 per tende a 1 per

; ;

e continua a destra; `

7W7"! pR"!& ! #  #  % "7Wq#q!"  W W # !  #  ! w 69"&R"!&%

{# "! 

# 4 6  #! 4 ! 79"tR$999"!r&

H !# p&W7q"!  W W # R"!  # R"!  #R"! ! "!& (% 5"!  #  #

# pH xR"!  s j

si pu` inne scrivere pi` semplicemente o u

se

234

Variabili casuali multiple

0.08 0.11 0.10 0.29

0.05 0.07 0.08 0.20

0.01 0.12 0.14 0.17

0.10 0.02 0.12 0.24

0.08 0.19 0.29 0.29

Tabella 9.1: Esempio di distribuzione congiunta e di marginalizzazione.

9.2 Distribuzioni marginali


Dalla distribuzione di probabilit` congiunta e possibile ottenere la distribuzioa ` ne di probabilit` di una delle variabili, sommando (in senso lato, che per il a caso continuo equivale ad integrare) le probabilit` di tutte le possibilit` delle a a altre variabili per un certo valore della variabile di interesse. Nel caso discreto si ha, ad esempio rispetto alla :

Questa operazione e detta di marginalizzazione e la tabella 9.1 ne mostra un ` esempio (si noti come le distribuzioni di ciascuna delle variabili sono ottenute sommando a margine i valori della tabella della probabilit` congiunta). Nel a 2: caso di variabili continue si ha

e analogalmente per , integrando su . Le distribuzioni ottenute con questa operazioni sono chiamate distribuzioni marginali. Sia chiaro che, in principio, tale appellativo dovrebbe essere superuo, in quanto ogni distribuzione
e sono in genere funzioni diverse, anche se entrambe indicate con Chiaramente lo stesso simbolo , cambiando solo la variabile nellargomento. A volte, per ricordare che si tratta di funzioni diverse, si e . In modo analogo dovremmo indicare con , e cos` via. Eviteremo questo modo pi` preciso (e pesante) in quanto non ci u sono ragioni per temere ambiguit` . Allo stesso modo gli estremi degli integrali saranno omessi a a sottintendere che essi si estendono su tutti i possibili valori di : d d
2

c G. DAgostini 2001

"r

Qmqr 7r Qmqr r

s #  ~ "&% ! W! ( ! g! # "!&%
0.13 0.31 0.49 0.49 0.14 0.44 0.76 0.76 0.24 0.56 1.00 1.00

# " 

W# t 6 !3h"& t j # 3h"& !  k

r r r ! # "  # 7"!  oe"!  #

! ~W! ( ! g! s # R"!  k

(~ s ~ ( s z

0.24 0.32 0.44

e"!  # #  G$"!&% mr "Gr D

0.24 0.56 1.00

(9.2)

9.2 Distribuzioni marginali

235

3 2 1

0.1

0.05

0 1 2 3 4

3 2 1 1

0.75

0.5 0.25 0 1 2 3 4

Figura 9.1: Visualizzazione qualitativa, mediante lego plot, della distribuzione di probabilit` di tabella 9.1: in alto a e in basso . Si faccia attenzione al fatto che la rappresentazione graca non corrisponde esattamente alla distribuzione di partenza: perche?

c G. DAgostini 2001

WD}

WD$

236

Variabili casuali multiple


di una sola variabile pu` essere pensata come una marginale rispetto ad altre o innite variabili che non interessano. In sostanza, quando si parla esplicitamente di distribuzione marginale, signica semplicemente che si sta facendo riferimento ad una distribuzione congiunta di partenza. Si noti inoltre linterpretazione della marginale come, per cos` dire, proiezione della congiunta (non da prendere in modo rigoroso nel senso geometrico).

9.3 Estensione dei teoremi sulla probabilit` alle distria buzioni di probabilit` a
Questo argomento e gi` stato introdotto nel paragrafo 7.16, limitatamente alle ` a variabili distrete. Lestensione alle variabili continue e abbastanza immediata, ` essendo sufciente sostituire alle probabilit` gli elementi innitesimi di proa babilit` . Riprendiamo ora il discorso in maniera pi` generale, aggiungendo a u anche delle osservazioni sullinterpretazioni delle distribuzioni condizionate.

9.3.1 Distribuzioni condizionate


In analogia alla probabilit` condizionata esistono le distribuzioni di probabilit` a a condizionate, nel senso che pu` essere subordinata alla conoscenza che o sia uguale a , ovvero . Essa e indicata con `

ed e funzione soltanto di , mentre svolge, per cos` dire, il ruolo di parametro. ` Quindi esistono tante diverse quanti sono i possibili valori di , inniti nel caso che sia una variabile continua. Come detto nel paragrafo 7.16, lestensione al caso discreto e immediata. ` Vediamo come ci si comporta per il caso continuo. Ricordiamo la formula che lega probabilit` condizionata alla congiunta (vedi paragrafo 4.6): a

Nel caso di variabile casuale continua possiamo scrivere in perfetta analogia:


d d d d (9.4)

con ha

da cui

con . Si ricorda che, come visto per la (9.3), neanche la (9.5) denisce la distribuzione condizionata. In particolare, pu` essere valutata o

# ! "  "!  ! "!  # # U # 4 6   9f"& rD F yr31Dz 5rD } g r5 #  # U #  # m&  #  G3}md Tm & 9m&

. Passando alle funzioni densit` di probabilit` si a a d d d

c G. DAgostini 2001

# "! 

# "  # # R"!  x"! 

# "!  ! #!"  # $ 3u"!6  "!  #

U # " 

(9.3)

(9.5)

9.3 Estensione dei teoremi sulla probabilit` alle distribuzioni di probabilit` a a


senza che sia nota (o abbia importanza) la funzione congiunta (vedi ` discussioni ai paragra 4.4 4.6). E comunque chiaro che, qualora invece la sia assegnata, essa contiene linformazione pi` completa sullo stato di u incertezza di e di , in quanto da essa e possibile ricavarsi le marginali e le ` condizionate, ad esempio:

237

Si noti come la formula (9.5) non dipenda dal fatto che le siano probabilit` o densit` di probabilit` , ovvero la formula e indipendentemente dal tipo a a a ` di variabili. Inoltre, per simmetria, si ha

Cos` pure, in modo analogo alla (4.22), si ha, nel caso di molte variabili:

9.3.2 Variabili casuali indipendenti

Se la distribuzione di una variabile, subordinata ad un certo valore di unaltra variabile, e uguale alla distribuzione marginale si dice che le due variabili sono ` (stocasticamente) indipendenti. Questa condizione equivale a richiedere

o analoga della

Nel caso di molte variabili, la condizione di indipendenza richiede le (9.7) per ciascuna delle coppie, o, equivalentemente e pi` succintamente: u

9.3.3 Formula delle alternative e teorema di Bayes


La versione generale del teorema di Bayes discende dalle espressioni della probabilit` congiunta in funzione delle condizionate e delle marginali. Infatti a dalla (9.6) segue

analoga della (5.3). Ricordando che e la marginale rispetto a di ` si ottiene lanaloga della formula delle alternative (mostriamo il solo caso continuo, quello discreto e assolutamente simile) `

c G. DAgostini 2001

# R"!  6

# R"! 

# 

yyW!m "! " p r#yyyW"!  # # # 

# # ! $"! e!}"  T! R"!  "  # #

# #  # #  # W$"! Pe!}" w " P"! w "! 

# # #  RyyWm " P$"! py#yyyR"! 

 #  #  W#m&P}m& Tm& #  # W#" e"! p "!  #e!}"  x"  # # # "!  x$"! 

# "   e"! z$## " !"  "!  # #

! R # ## R"!"!    "! 

# R"! 

(9.6)

(9.7) (9.8)

(9.9)

(9.10)

(9.11)

238

Variabili casuali multiple


che, sostituita nella (9.10), d` luogo alla formula pi` consueta del teorema a u di Bayes per variabili continue, del quale faremo largo uso nellinferenza su valori di grandezze siche:

9.4 Previsione e incertezza di previsione


La valutazione dei valori attese segue in modo naturale dal caso di una sola variabile. Questo pu` essere visto pi` chiaramente nel caso di variabili dio u screte: il valore atteso di una funzione di variabili casuali si calcola facendo la somma, estesa su tutto il campo di denizione, del prodotto della funzione, calcolata in ogni punto, per la probabilit` di quel punto. Come si vede, a questa denizione non dipende dal numero di variabili casuali (ovvero dalle dimensioni dello spazio che contiene il vettore aleatorio), quindi nel caso pi` u generale: E

Nel caso di variabili continue, la probabilit` di un punto viene sostituita dal a concetto di elemento innitesimo di probabilit` di trovare le variabili casuaa li nellintorno di quel punto e le sommatorie diventano integrali su tutte le variabili: E

(9.14) Dalla formula generale ci possiamo calcolare il valore atteso e la varianza di ciacuna delle variabili. Prendendo, ad esempio, la e considerando, per semplicit` , ma senza perdere in generalit` , due sole variabili continue, si tratta di a a calcolare E eE . Il fatto che queste due funzioni, di cui si e interessati al valore atteso, dipendano soltanto da una variabile semplica i ` calcoli, in quanto, in generale E

ottenendo lo stesso risultato che si sarebbe ottenuto utilizzando la funzione marginale della variabile di interesse. Abbiamo quindi ricondotto il problema del calcolo di media e di deviazione standard nel caso molte variabili (multivariato) a quello di una sola variabile (univariato). Questo risultato e con` fortante. Difatti abbiamo gi` detto che per ogni evento e possibile denire a ` un numero arbitrario di variabili casuali. Quando se ne considera una sola si ignorano tutte le altre: se il valore atteso di una variabile (scelta senza nessuna condizione restrittiva) dovesse dipendere da tutte le altre si porrebbero problemi di denizione.

yy y#yyyR"! P#yyyR"! yy eY#yyy{26"  

  W|#yyyW"! zY#yyyW"!yy j j j $#yyy{26" 

# #  ! e"! e"! ! R"!  xe"! # # ! R"! ze"! t" # #  # 

# ! ee"!## "!  z $$!## !""    "! 


d d

(9.12)

(9.13)

d d d

d d

@(}g"r t" #d #

(9.15)

c G. DAgostini 2001

9.5

Tabella 9.2: Distribuzioni congiunta del numero di teste e numero di croci nel lancio
di 5 monente ( , ) confrontata con quella del numero di teste e di croci relative a due diversi lanci di monete. In valori sono in percentuale.

Introducendo i concetti di previsione e di incertezza di previsione abbiamo detto che queste rappresentano le informazioni minime nelle quali riassumere lo stato di incertezza quanticato dalla distribuzione di probabilit` . Ulteriori a informazioni sulla forma sono date dai valori attesi, opportunamente scalati, di potenze pi` elevate degli scarti (skewness e curtosi, vedi paragrafo 6.13). u Purtroppo, nel riassumere una distribuzione di molte variabili in previsione e incertezza di previsione si perde la struttura multidimensionale della distribuzione. Questa perdita di informazione non e dovuta al solo passaggio dalle ` distribuzioni marginali ai valori attesi, ma e gi` implicita nel passaggio dalla ` a ` congiunta alle marginali. (E un po come la perdita di informazioni spaziali che si ha eseguendo due radiograe, su piani ortogonali, di un corpo.) Considerando, ad esempio, la distribuzione di tabella 9.1, si capisce come sia impossibile di risalire a a partire da e , mentre e univoco il passaggio ` inverso.

9.5.1 Variabili correlate e misura della correlazione


Facciamo un esempio numerico per capire meglio il problema. Immaginiamo di dover lanciare 5 monete e di interessarci alle variabili casuali e , numeri di teste e di croce. Consideriamo anche un altro lancio di 5 monete e chiamiamo e i rispettivi esiti. Possiamo costruire le distribuzioni doppie e . Sebbene tutte le marginali siano uguali e quindi tutte la variabili abbiano un valore atteso 2.5 e una deviazione standard di 1.1, le due distribuzioni sono completamente diverse (vedi tabella 9.2). Ad esempio (evento impossibile), mentre .

c G. DAgostini 2001

s s u

U #  7dUzpqy

# # "  $"! 

U #  qd # ( A ( s ") (  s# A s ") 

# "! 

9.5

Covarianza e coefciente di correlazione

# ( AY{s")y7  

0 1 2 3 4 5

0.1 0.5 1.0 1.0 0.5 0.1

0.5 2.4 4.9 4.9 2.4 0.5

1.0 4.9 9.8 9.8 4.9 1.0

1.0 4.9 9.8 9.8 4.9 1.0

0.5 2.4 4.9 4.9 2.4 0.5

0.1 0.5 1.0 1.0 0.5 0.1

@#sAYs")GF  

0 1 2 3 4 5

0 0 0 0 0 0 3.1

1 0 0 0 0 15.6 0

2 0 0 0 31.3 0 0

)s

sA (A

Covarianza e coefciente di correlazione

239

3 0 0 31.3 0 0 0

4 0 15.6 0 0 0 0

5 3.1 0 0 0 0 0

240

Variabili casuali multiple


La differenza di rilievo fra le due distribuzioni dellesempio e che mentre ` nella prima ad ogni valore di pu` essere associato un solo valore di o , non modica lo stato di incertezza rispetto nella seconda la conoscenza di a : e sono dipendenti (o correlate); e sono indipendenti (o scorrelate). Questo fatto si riette sulle distribuzioni condizionate, le quali differiscono nei due casi. Ad esempio , mentre , e cos` via Dovendo quanticare il grado di correlazione con un solo numero si utilizza il valore atteso del prodotto degli scarti rispetto alle previsioni: E E E

Esso e chiamato covarianza ed e indicato con Cov ` ` Cov E E

(9.16)

Per capire come mai essa possa essere adeguata 3 allo scopo si pensi che se in corrispondenza di scarti positivi di (rispetto alla previsione) si attendono (sempre in senso probabilistico) scarti positivi anche per , ne segue che la previsione del prodotto degli scarti e un numero positivo; ` lo stesso e vero se, in corrispondenza di scarti negativi di , si attendono ` scarti negativi anche per ; se invece si prevedono scarti di segno opposto la covarianza e negativa; `

inne, la covarianza e nulla se si attendono scarti mediamente incoerenti. `

Ne segue che ci aspettiamo covarianza negativa fra e dellesempio di tabella 9.2, covarianza nulla fra e . Per quanto riguarda il valore assoluto della covarianza, esso non indica in maniera intuitiva quanto due variabili sono correlate, in quanto la covarianza non e una grandezza omogenea con le due variabili casuali e dipende anche ` dallunit` di misura scelta per le variabili. Si preferisce rendere adimensionale a la misura di correlazione, dividendo per le scale naturali degli scarti di ciascuna variabile, ovvero le due deviazioni standard. Si denisce allora il coefciente di correlazione, denito come

Come detto a proposito della previsione e della sua incertezza, in principio ci potrebbero essere modi alternativi per riassumere con un numero una caratteristica di una distribuzione. Volendo giusticare questa scelta per la misura di correlazione, possiamo fare le seguenti considerazioni:

La covarianza e formalmente una estensione della denizione operativa ` della varianza a due variabili e quindi la covarianza di una variabile con s stessa e uguale alla varianza: e ` Cov Var

Per un altro modo di capire come mai la covarianza denita come (9.16) tenda a comparire nella teoria della probabilit` si veda la (10.27) a proposito della somma di variabili casuali. a

# Wt"

Cov

Cov Var

Var

(9.17)

c G. DAgostini 2001

s 6

@s") 

# m6 &6rt"# " #

##m6 um6|#" "r 6" # # #yr #  # G#m6 6e#" mr s s # u" ( s 6

HvusAwys")  # U ( s

#  #  &m66q" " 6" # r #

ss

H U # zUzpp s s

( AU ( ` ` ` `

9.5

Cov

con la convenzione che nelle applicazioni).

(questa notazione sar` molto utile a

Ne segue che il coefciente di correlazione di una variabile con s stessa e e uguale a 1 ( ` ): si dice che una variabile e correlata al ` 100 % con s stessa. e La covarianza, e quindi il coefciente di correlazione, si annulla se due variabili sono fra loro indipendenti, come abbiamo giusticato intuitivamente sopra e come vedremo formalmente fra breve.

Vedremo come la covarianza entra in modo naturale nel calcolo della varianza di una combinazione lineare di variabili casuali (paragrafo 9.5.2).

Se due variabili sono legate (in modo deterministico) da una relazione lineare, il grado di correlazione misurato da e massimo in modulo ` ( ) e il suo segno dipende dal fatto che una variabile cresca o diminuisca al crescere dellaltra, come intuitivamente comprensibile.

La gura 9.2 mostra alcuni esempi di variabili doppie discrete in cui la e proporzionali allintensit` dei punti. Si faccia attenzione come correlazioni ` a complicate possano dare .

c G. DAgostini 2001

# "! 

# 6"

(d d d e58 Vd 

H # r"

U p

H v

` ` ` `

Covarianza e coefciente di correlazione

241

Figura 9.2: Esempi di correlazione fra variabili casuali. Questa analogia suggerisce di indicare la covarianza con un simbolo compatto simile a quello di varianza: (9.18)

242

Variabili casuali multiple

9.5.2 Propriet` formali di covarianza e coefciente di correlazione a


Avendo introdotto il concetto di covarianza, vediamo il modo con cui essa viene calcolata a partire dalla denizione. Cov

Il secondo passaggio, fra parentesi, mostra il modo di calcolare la covarianza dalla denizione operativa (avendo preso come esempio il caso di variabili continue). In realt` la (9.19) rappresenta il modo pi` semplice per calcolare la a u covarianza, in analogia alla formula che esprime la varianza come media dei quadrati meno il quadrato della media. Infatti, anche la (9.19) pu` essere letta o come media del prodotto meno il prodotto delle medie. Per quanto riguarda E , esso non e in genere risolvibile in termine di ` altre grandezze note e va calcolato dalla denizione operativa, che, per variabili continue, e ` E

Esiste un solo caso notevole in cui e possibile evitare di fare lintegrale doppio. ` Se ovvero e sono fra loro indipendenti, possiano riscrivere lintegrale doppio come prodotto di due integrali: E

Ne segue, allora, che Cov

se due variabili casuali sono indipendenti, la loro covarianza e ` nulla. Si faccia attenzione a questa affermazione. Essa si basa sulla denizione di indipendenza stocastica espressa dalla e non signica che non esista alcun legame fra i possibili valori delle due variabili. La covarianza nulla implica soltanto lassenza di una correlazione di tipo lineare, come si vedr` fra breve quando vedremo i casi che massimizzano . Due variabili a possono essere fortemente dipendenti pur avendo covarianza nulla. Un caso clamoroso e quello di punti nel piano ` distribuiti lungo una circonferenza.4 Se per semplicit` poniamo il centro del cerchio nellorigine e facile a `
4 Per mostrare come le variabili e del caso del cerchio siano non indipendenti, nonostante la distribuzione congiunta dia covarianza nulla, si pensi alla pdf condizionata , ottenuta affettando il cerchio per un certo valore di . Chiaramente la forma di dipender` dal valore di scelto e, in ogni caso, sar` diversa dalla proiezione a a .

c G. DAgostini 2001

Qr F" r

# # # 6 m6 p" x" 6m #t" R#t" 6 m6 tY6 # 4 # # ! R!" ##m6 "#t" m!rhw  # #m6 m61#" mr x6r" #  # #
E E E E E d d E E E E E E E E

(9.19)

Um6 t" m6 " 6r" # # # # # # # Wm6 " #  !# ! #6 7" yQe"! 5 v"

# #  # " z$"! vR"! 

! #  # 6 R"! y! " h # #  # W" $"! w "! 


E E E E E

#6 r"

(9.20)

6 6

(9.21) :

F" r

9.5

vericare che sono nulli E ,E eE e quindi anche la covarianza (vedi gura 9.2). Calcoliamo ora covarianza e coefciente di correlazione fra due variabili linearmente dipendenti, ovvero legate da una relazione del tipo

Utilizzando i simboli compatti

Cov

E E E

da cui

Quindi, in caso di dipendenza lineare, il coefciente di correlazione vale a seconda che il coefciente angolare sia positivo o negativo. Si pu` dimostrao re che, in generale, (9.26) e il grado di correlazione lineare fra due variabili e misurato da `

Dimostrazione della (9.26): consideriamo la variabile casuale . La varianza di e, per denizione, non negativa per qualsiasi valore di : `

La dipendenza di vero anche quando

da e parabolico. Essendo ` , questo sar` a assume il valore minimo, in corrispondenza di

Sostituendo nella (9.27) si ottiene

c G. DAgostini 2001

da cui segue la (9.26).

6 4 p3

(9.27)

(9.28)

H 

 (d u #et "$e " d #d  y# 3eu94 Gm$et "r d # d #ugm6$e "r V # d (d  ( 4 d 9e #m6 g " p V # d 4 R8u6

u(V V d  h   k # ( p# g U# (   p (  U  Vd c  #  94 (V ( 4 (d  ( 

H4 H } d d e (  ( (d u(  

# " m6 t" 6 # #


E e

H pw (V V e((d d  

x&6" # (V  g V

Covarianza e coefciente di correlazione

243

, abbiamo: (9.22) (9.23)

(9.24)

(9.25)

244

Variabili casuali multiple

Siamo giunti a sintetizzare lincertezza su una coppia di variabili con tre valori: due varianze e una covarianza, o, equivalentemente, due deviazioni standard e un coefciente di correlazione. Nel caso di variabili ( , , ... ) servono

informazioni indipendenti. Talvolta e preferibile utilizzare una rappresentazione compatta di queste ` grandezze mediante la cosidetta matrice di correlazione, una matrice quadrata i cui termini sono dati da

) danno le varianze, mentre gli altri Infatti, i termini diagonali (quando (quando ) danno le covarianze. In forma matriciale, abbiamo: Cov Cov Var Var Var

Var

La matrice e simmetrica, come e facile vericare, e quindi i termini indipen` ` denti sono esattamente come richiesto dalla (9.29). Alternativamente, a volte pu` essere conveniente presentare lincertezza o dei dati mediante la matrice di correlazione, i cui elementi sono dati da

ovvero

Come si vede, nel passaggio dalla matrice di covarianza alla matrice di correlazione si perdono le informazioni sulle deviazioni standard (gli elementi della diagonale sono tutti unitari). Quindi, qualora si preferisca questo modo di condensare la distribuzione, le deviazione standard devono essere fornite separatamente.

Per chiarire alcuni dei concetti appena illustrati e per introduzione altre problematiche che seguiranno, facciamo lesempio di costruzione di variabili doppie discrete a partire da eventi elementari. Immaginiamo di dover effettuare una serie di esperimenti che consistono nel lancio di tre monete e nellestrazione di una carta scelta a caso fra due. Per

9.7

Esempi di variabili doppie discrete

s h (
%% &$ '

H yy# h ( " # h YT" s ' # h yy( yy yy ( yys # s " yy ( H s # YH T" !"" % # h T" yy # YT" %&$ t t   # t " k k k #c H 4  dIP#"& ( yey(h(  yyyy # h " # ( h ys y " # (y( y ## hh Y f"" yyyy # ( YT " # s e " " s se (s q 9!" q u u## t " t "|## " "r t 

c c P#H4"& P#f"& 3  H  4 k k

9.6

Matrice di covarianza e matrice di correlazione

(9.29)

(9.30)

(9.31)

(9.32)

c G. DAgostini 2001

9.7

ATTT ATTC ATCT ATCC ACTT ACTC ACCT ACCC RTTT RTTC RTCT RTCC RCTT RCTC RCCT RCCC

Tabella 9.3: Variabili casuali costruite sugli eventi elementari costituiti dai possibili
esiti di tre lanci di monete e dellestrazione di una carta da gioco: : numero di teste; : numero di croci; : numero di teste consecutive; : numero di assi.

ogni moneta si pu` vericare Testa o Croce, mentre supponiamo che i valori o delle due carte siano Asso ( ) e Re ( ). Per ogni evento possiamo costruire diverse variabili casuali, per esempio: : numero di teste; : numero di croci; : numero di teste consecutive; : numero di assi;

Inoltre possiamo costruire a partire da queste tutte le possibili combina, , zioni di variabili multiple. Ci limitiamo alle variabili doppie e . Riportiamo i risultati nella tabella 9.3 Da questa tabella ci possiamo calcolare tutte le distribuzioni di probabilit` a di interesse applicando le relazioni viste nei paragra precedenti. Cominciamo con le variabili

(0,0) (1,0) (2,0) (2,1) (3,2)

2/16 6/16 2/16 4/16 2/16

c G. DAgostini 2001

# # {2Gm6 {2"

# # # # {2) t) {2Gm6 {2r" 2 6


3 2 2 1 2 1 1 0 3 2 2 1 2 1 1 0 0 1 1 2 1 2 2 3 0 1 1 2 1 2 2 3 2 1 0 0 1 0 0 0 2 1 0 0 1 0 0 0 (3,2) (2,1) (2,0) (1,0) (2,1) (1,0) (1,0) (0,0) (3,2) (2,1) (2,0) (1,0) (2,1) (1,0) (1,0) (0,0) (0,2) (1,1) (1,0) (2,0) (1,1) (2,0) (2,0) (3,0) (0,2) (1,1) (1,0) (2,0) (1,1) (2,0) (2,0) (3,0) (1,3) (1,2) (1,2) (1,1) (1,2) (1,1) (1,1) (1,0) (0,3) (0,2) (0,2) (0,1) (0,2) (0,1) (0,1) (0,0) (1,2) (1,1) (1,0) (1,0) (1,1) (1,0) (1,0) (1,0) (0,2) (0,1) (0,0) (0,0) (0,1) (0,0) (0,0) (0,0)

# # R"!  R"!

# {2r"

# # {2) )

k
(

2 `

6 `

Esempi di variabili doppie discrete

245

246

Variabili casuali multiple


Da questa possiamo ricavare le distribuzioni marginali di e . Per esempio, per ottenere bisogna , per ogni valore di , integrare su tutti i valori di :

0 1 2 3

0 1 2

Come si vede dalla tabella, la distribuzione marginale di una certa variabile calcolata dalla formula e esattamente quella che si otterrebbe esaminando la ta` bella ove sono riportati gli eventi elementari e ignorando tutte le altre variabili. Dalla distribuzione di probabilit` di a ci possiamo costruire anche le distribuzioni condizionali . Come detto, di queste distribuzioni ne esiste ` una per ogni valore di . E interessante, in questo semplice caso, confrontare il risultato che si ottiene contando il numero di casi favorevoli e il numero di casi possibili con quello che si otterrebbe applicando le formule delle variabili condizionali viste sopra:

0 1 2

Queste sono le altre distribuzioni di variabili doppie ottenibili dalla tabella degli eventi elementari5 :

Si ricorda che la lettera minuscola di

e . `

f dPIH H I H54qIc fdw#54dHf qcII p5454q54qc I c4 HqI4 4 H I # qm 

H u HGC s D7s C EI6 B( A ( l I6 7 A( l s H HGBC( D7s EI6 C A s l I6 7 As l s dPI HGC BCF ( H I dp EDHGs C C F H dIP 8ED7 ED6HGss C BCF (D A9 7 B@l 86 A B9@l s

{#R"!  W 3 l $"!  # j

2 # # {2" "! 

P#H "!  ! dPI yUqc H HI dp yUq4 I HI dPI yUqc H HI #U 7 "!  !

#c p "!  !

fdpfdfuPIuqH54H# gH54 qc 54qc I H 4 I H I I I fd w HqI dPIIHu5454qc4 # e"!  !

# e"! 

c G. DAgostini 2001

9.7

(0,2) (1,0) (1,1) (2,0) (3,0)

2/16 2/16 4/16 6/16 2/16

(0,0) (0,1) (0,2) (0,3) (1,0) (1,1) (1,2) (1,3)

1/16 3/16 3/16 1/16 1/16 3/16 3/16 1/16

0 1

Come ultimo esempio ci costruiamo la distribuzione condizionale di sotto la condizione .

0 1 2 3

1/8 3/8 3/8 1/8

Da questultima tabella si vede che che la distribuzione di sotto la condizione e uguale a quella marginale di , contrariamente a quanto ` accadeva quando la variabile condizionante era . Questo corrisponde al fatto che, mentre lo stato di conoscenza del numero di teste consecutive condiziona il grado di ducia del numero di teste, questo non e inuenzato dal sapere se ` si e vericato un Asso o un Re. ` Calcoliamo ora valori attesi di ciascuna variabile: E

E E

(9.33)

c G. DAgostini 2001

f cYH f YcH

f H f 94 Hf 94

fdPI ( s H fdp (s s s I fdp (s s ~ I fdPIH (s ~ s ss # U l l s 7pR "!  !

C D ECC D ECC D ECC 7 IE6D C A9 7 B@ T I6 A9 B@ T

c 54H 4 54H }U H fH 94 f f y34 f f }U c H f 94 f y34 Hf }U c H fH c fc H f 94 y34 H }U

# 7SR 

La distribuzione marginale di

e `

1/2 1/2

# # zSR  zSR
(0,0) (0,1) (0,2) (1,0) (1,1) (1,2) 5/16 2/16 1/16 5/16 2/16 1/16

# # e!zSR  $!zSR U 

# xG) # xm6 # x2 # v"

# # "  "
)

Esempi di variabili doppie discrete

247

248

Variabili casuali multiple


Per quanto riguarda la deviazione standard, svolgiamo in dettaglio il calcolo di , lasciando gli altri conti come esercizio: E

Var

Per quanto riguarda le covarianze e coefcienti di correlazione abbiamo: 1.

Cov

2.

Cov

3.

: E

Cov

Il coefciente di correlazione fra il numero di teste consecutive e il numero di teste e positivo; fra il numero di teste consecutive e il numero di croci e ` ` negativo; fra il numero di teste consecutive e il numero di assi e nullo. Questo e ` ` in accordo con quanto ci si aspetta da una grandezza atta a quanticare il grado

a x{ # 2 ) U p c c o{2) # 54H 54H c 54H H H H 54H H # 2 H H 4 c 4 YH U o&)

z H Y U H U qz Hc Y U fz Y U fz Y Xf U f W YcH V Qc f f f c f( H f Qc H ( 94 ( 94 ( p4 H ( U


a H # c f b` f zfzf U v{2{2r"" # v f f H 4 f c YcH f yUH # 2 yUH H 4 c 94 }U ov"

a H U v G # c f f zfz f v{2{2m6m6 # f H f H YcH f c # 2 c c 4 4 U x9m6

#  oG) o2 #  om6 #  xt" #  v" # o (# "

# {2r"

# {2y)

# {2m6

#  "

(9.34)

(9.35) (9.36)

(9.37) (9.38)

(9.39) (9.40)

c G. DAgostini 2001

9.8

` di correlazione. E infatti chiaro che, sotto lipotesi che un evento contenga un alto numero di teste, cresce la probabilit` di trovare due teste consecutive. a Leffetto opposto avrebbe lipotesi che si verichino una grande numero di croci. Lipotesi delluscita o meno di un asso non altera invece le probabilit` degli a esiti dei lanci delle monete, e viceversa.

Entrambi gli esempi che facciamo hanno una funzione densit` di probabilit` a a congiunta costante. Nel primo caso le variabili sono denite in un rettangolo con i lati paralleli agli assi, nel secondo sono denite nel triangolo ottenuto dividendo il rettangolo precedente lungo la diagonale. Questi esempi permettono di prendere familiarit` con alcuni aspetti delle distribuzioni multiple, pur a mantenendo al livello minimo le difcolt` di calcolo, a

9.8.1 Distribuzione uniforme in un rettangolo


Come primo e semplice esempio di distribuzione multipla di variabili continue consideriamo due variabili e negli intervalli e e tali che la loro densit` di probabilit` congiunta a a sia costante nella porzione di piano denita da tali limiti. Per semplicare i conti, ma senza perdere in generalit` , facciamo coincidere gli estremi inferiori a e con lorigine degli assi, e chiamiamo e le lunghezze dei due segmenti (vedi gura 9.3). La condizione di normalizzazione permette di ricavare il valore della costante: d d

da cui segue

c G. DAgostini 2001

s s z ! # ( yz ( !Ys ! R"!  s

e9 c9 z ! ' d d ! "!  d # e9 c9

x 9 U U !

# z R"!  H

9.8

Esempi di distribuzione bidimensionale continua

249

Figura 9.3: Distribuzione bidimensionale uniforme

Esempi di distribuzione bidimensionale continua

d d

(9.41)

(9.42)

250

Variabili casuali multiple


Possiamo quindi calcolare le distribuzioni marginali delle due variabili:

Come ovvio, la densit` e uniforme in ciascuna delle due distribuzioni. Le a ` ;E ; ; medie e le varianze valgono quindi: E . Per il calcolo della covarianza serve il valore atteso del prodotto: E

da cui Cov

. In effetti, anche se si venisse a sapere che vale , e quindi o , questa informazione non cambia le nostre aspettative sui possibili valori di . Il calcolo della densit` di probabilit` di , condizionata dalloccorrenza di a a un valore di , e altres` semplice: ` (9.47)

Essa e identica alla densit` marginale e quindi ` a

9.8.2 Distribuzione uniforme in un triangolo

Se le variabili casuali possono assumere valori, sempre in modo uniforme, allinterno del triangolo di gura 9.3, la funzione densit` di probabilit` a a congiunta e data da `

` E possibile ottenere le distribuzioni marginali e condizionate senza fare alcun conto: e ottenuta integrando ` lungo e quindi e proporzionale al` laltezza del triangolo rettangolo , ove indica il punto lungo la diagonale in corrispondenza di . la distribuzione marginale di e quindi una triangolare asimmetrica (vedi paragrafo 8.4) avente ` , e ;

YcqYIqp  d|IwGm6 d" H ( (d c # c I #


d d d d E e sono indipendenti.

(9.48)

c G. DAgostini 2001

yUq HI

6 6e e #V ic # " d # H ss "!  "!  3u6 ! 6 cI U # 36" d U  c c u m6 t" " 6r" # # #6 #

q ! !  d zH e9 c9 ! R"! y! d  v" #  e9 c9 # 6

p }p R"!  #

H T! R"!  d "  # c9 # # 9 # H "!  e oe"! 


d

g h

(9.43) (9.44)

! 9T!9 x9UU

z # c "! 

 t U 1p

p }q

 r ys! # $"!  `

Ycq (I p (V  H

(9.45)

(9.46)

9.9 c Distribuzione multinomiale


per simmetria ; ssando .; e data da una triangolare avente `

251

la distribuzione di

e una uniforme fra 0 e `

analogamente, ssando e .

la distribuzione di

Come esercizio facciamo i conti:

d d

Si ricordi che le nelle funzioni densit` di probabilit` condizionate il condizioa a nante ha il ruolo di parametro. A differenza del caso precedente, le funzioni le condizionate e le marginali sono diverse: sapere che vale 0, o cambia lo stato di incertezza su . Ad esempio, la previsione ( incertezza standard) vale nei tre casi: (certezza!), e .

9.9 c Distribuzione multinomiale


Dopo aver introdotto i concetti di base delle distribuzioni multivariate e alcuni esempi elementari, mostriamo ora una una distribuzione di variabile discreta che descrive i possibili istogrammi che possono essere osservati effettuando un certo esperimento. Questo argomento era gi` stato introdotto nel paragrafo a 7.14. In tale occasione ci eravamo interessati soltanto della previsione della distribuzione statistica, ma era stato tralasciato il problema di calcolare la probabilit` di ciascuna delle possibili congurazioni. a Cominciamo con un esempio numerico. Immaginiamo di ripetere 20 volte un certo esperimento, in ciascuno crediamo che possa uscire, con uguale proil numero babilit` , un numero intero compreso fra 0 e 10. Indichiamo con a di occorrenze dellesito -mo. Riassumiamo le cose che gi` sappiamo fare: a ciascuna variabile ; e distribuita secondo una binomiale di `

prevediamo una distribuzione statistica con ciascun esito; (*** att ***) prevediamo che le frequenze relative siano

c G. DAgostini 2001

v  3 u t vu! U r
, .

e uniforme fra `

! # e"!  # e! 9&mU "!  # tu "  # # ! r9T  x H "  # ! y#T9mU tu ( c T! c wT! R"!  # c # ( # ! 9mU x 9 # Q!c c y R"! 

occorrenze per

Uc d5

FczdzmU |DHzgFczmU # U  U # U  d  cI

FS S I   RS 1S

o 6

y#dzmv h w! I   k ` # ! !QyI ` U # "  p t ` U  6 U HH H FqPIfS ` ` `

ve!"  # x"!  # # x"  # x$"! 

252

Variabili casuali multiple

Figura 9.4: Esempi di eventi multinomiali generati casualmente. Tutte le distribuzioni hanno il parametro pari a 20, , e . Negli istogrammi a destra e costante e pari ` , mentre in quelli a sinistra vale invece .

ed

|h kml kjigf7$  h

c G. DAgostini 2001

9.9 c Distribuzione multinomiale


Interessiamoci ora delle possibili congurazioni di occorrenze che e possibile ` osservare. La gura 9.4 (parte a destra) ne mostra qualcuna (istogramma ottenuto da simulazione al calcolatore). Cominciamo con dei casi particolari e poi passeremo alla trattazione generale.

253

Passiamo ora al caso generale di possibili modalit` per lesito di ciascue na prova e sia la probabilit` che assegniamo a ciscuna modalit` . Naturala a mente deva valere la condizione

c G. DAgostini 2001

He s yUdH U e H e yUuT yUq H s H r DEs yH fqc s (W yU9TdH 4 fH edQYh UyH U yUH8sT dc Uy5p U H r ` UH e 9 ( yt&o4dH He U s ( s U c r s ( yUdH 9 TWyy f d}n `
altri zero. Questi valori possono essere ottenuti da ci sono combinazioni che danno ; per ciascuna di esse ce ne sono cos` via; i otteniamo un totale di che danno combinazioni, ovvero:

Pu` capitare 20 volte di seguito lo stesso valore di , ad esempio o , e , con probabilit` a dando luogo a per ciascuna possibilit` . (La probabilit` che si verichi uno a a qualsiasi di questo tipo di eventi e ` .)

Pu` capitare che esca la met` delle volte un valore, laltra met` un altro o a a e nessuna volta gli altri 9. Concentriamoci su , e gli

possibili sequenze, ciascuna avente probabilit` a . Ne seque , e uguale a ` . che la probabilit` dellevento a (Per calcolare la probabilit` di osservare una qualsiasi equipartizione dei a 20 successi in due classi bisogna considerare il numero combinazioni di 11 esiti presi 2 a 2, pari a 55, ottenendo .) Consideriamo ora un caso in cui i risultati sono pi` equilibrati, ad u esempio i primi 9 esiti che si vericano 2 volte e gli ultimi due una sola volta: ; . Questo sembra essere, intuitivamente, un risultato molto pi` probabile dei due u precedenti. Calcoliamo il numero di sequenze (tutte di probabilit` a ):

Questa congurazione ha quindi una probabilit` di a , enormemente pi` alta delle altre, anche se di per s ancora molto piccola. u e Se poi consideriamo che ci sono 55 congurazioni distinte in cui 9 esiti possono uscire 2 volte e gli altri 1 volta, otteniamo una probabilit` di a circa lo 0.4 per mille di osservare una qualsiasi di queste congurazioni equilibrate.

e dH

H y

U e D yHHD F s Uytef3 r iw # vdcUw c  Hyy vvww c xH54w |H vvww c vYfw H54H viww c vdYfUw c H H H c vc W W H U yy YfH U dc U U

H s r 9 T s c G yyvxR 9 s!
u@( u ( sG t  p ( 9 ( t U W &

H p S k k j

us t 9

((

s ( yUH

Dovendo effettuare prove nelle stesse condizioni possiamo osservare volte ciascun esito, con

Il numero delle sequenze che produce la stessa congurazione e dato dal coefciente multinomiale `

Semplicando otteniamo la (9.50). Moltiplicando la probabilit` (9.49) dela la sequenza per il numero di sequanze abbiamo nalmente la distribuzione multinomiale

dove con e stato indicato linsieme dei valori ` e con linsieme delle probabilit` a . Quando si riottiene la binomiale. Il calcolo del valore atteso e della varianza di ciascuna variabile e im` mediato, in quanto e sufciente pensare la distribuzione marginale di ogni ` variabile pari ad una distribuzione binomiale di parametro . Ne segue E Var (9.52) (9.53)

Per quanto riguarda covarianza e coefciente di correlazione, invece del conto esatto utilizziamo un metodo euristico (pi` importante del conto esatto u per limpostazione di questo corso). Riprendiamo la funzione di probabilit` della distribuzione binomiale a

ed esplicitiamo il fatto ci troviamo di fronte a due classi di eventi (favorevoli e sfavorevoli) scrivendo

S S W# TH o# " S k k o# k " k k S k k b S ( s S bw!Yc yye ( i !YpY!a zdyye mSySa  s ! w  s }  Syy | ( S { s S w!yywyw ( !&wR! # dh ~ "! 

( s ( ( ! g! s g! s s w ~ ! t s ! t R!  gyy 8W!wwP##(~ t GgtG"t" w !ww# @#RtG"t" 5wg!w{#t" ! ! s t  ! w

#S h $TH S

s |( S 8s{ S w ( &w!w g! # h  ( !yg"!  s

we!"P! #  w # h "! 

{ { 8 t8

Infatti, si hanno ce ne sono

combinazioni per la prima modalit` ; per ciascuna di esse a la seconda, e cos` via. Quindi il numero di combinazioni e `

w  {!yyyw w ( !w s ! bwYyye ( !YY!a  ! s 5} Syy |( S 8s{ S  ! y ( ( Rr s! s

Le prove possono dar luogo a sequenze possibili, in genere non tutte equiprobabili (a meno che le siano tutte uguali). Ciascuna sequenza che produce la congurazione di variabili casuali , , ... ha probabilit` a (9.49)

(9.50)

(9.51)

(9.54)

c G. DAgostini 2001

254

Variabili casuali multiple

S w k 3 k hk j

| h t

 z

9.9 c Distribuzione multinomiale


dove e stata operata la seguente trasformazione di simboli: `

255

Il fatto che adesso dipenda apparentemente da due variabili non e ` in contraddizione con il fatto che la formula originale delle binomiale fosse funzione di una sola variabile. Infatti e sono linermente (anti-)correlate . Quindi in quanto devono soddisfare la condizione dipende in realt` soltanto da una variabile e il coefciente di correlazione fra a , come e intuitivo pensare e come risulta ` le due variabili vale dalla (9.25) Anche nel caso generale della multinomiale le variabili sono fra loro . Ma il grado di correlazione correlate, in quanto vale la relazione , minore che nella binomiale. Infatti, mentre nel caso il e, per ` non vericarsi di un evento nella classe 1 implica il suo vericarsi nella classe 2, nel caso di molte classi si pu` al pi` affermare che esso si sia vericato in una o u delle restanti classi, ciascuna con probabilit` proporzionale a . Quindi a il grado di correlazione diminuisce in valore assoluto (si diluisce) al crescere del numero di classi e, per abbastanza grande, la multinomiale pu` essere o essere vista come la probabilit` congiunta di tante binomiali indipendenti. a vale -1. Ne segue che Abbiamo detto che nel caso binomiale Cov

in quanto . In effetti si pu` vericare che la (9.55) e valida o ` anche nel caso generale. Si ottiene quindi: Cov (9.56) (9.57) (9.58)

Come previsto qualitativamente, la correlazione e trascurabile se le probabilit` ` a delle due classi sono abbastanza piccole 6 . Limportanza della distribuzione multinomiale risiede nel fatto che essa descrive il numero di eventi di un istogramma o di un diagramma a barre, indipendentemente dalla distribuzione di probabilit` che segue la variabile casuale a associata alla grandezza di cui si costruisce listogramma o il diagramma a barre in questione. In Fig 9.4 sono riportati degli esempi di eventi casuali generati secondo due distribuzioni multinomiali di , in un caso (graci a destra) con tutte uguali e nellaltro con generato secondo una binomiale:
E da notare che il caso in cui la formula non funziona ( ) e quello in cui un solo una ` sola modalit` e certa e le altre sono impossibili e quindi non ha pi` senso parlare di distribuzione a` u di probabilit` a
6`

c G. DAgostini 2001

# ( !|"!  s

S S # t TtH$S # S TH Y # t TH t # TkS H S S S t S y k x# t " S k k S k t S x# t k " k ( QSR k ( pGR sS  s ( SRy ( gq# ( YT" G# ( YT" sS s s s # ( Y" s i S H xi k ci c ` ui 3 ! s l  w k k k H s # ( Y" ! 4s s h ( wp( ! ! p!

X Uc dw k S

(S g s gS g ( ! s R!
g

fH S S t ! !

# ( !Y"!  s

(9.55)

. In questo caso il numero di eventi per ciascun e distri` buito secondo una binomiale di parametri ed , e quindi ha un valore . Quindi le realizzazioni della multinomiale dellesempio uttuano medio intorno ad un andamento medio che ha la stessa forma della distribuzione di , riscalato (normalizzato) di un fattore 20. Si confrontino questi graci con quello della distribuzione di Fig. 7.1.

9.10 c Distribuzione normale bivariata


Una funzione di distribuzione di variabili multiple particolarmente importante per le applicazione e quella in cui tutte le distribuzioni marginali sono normali. ` Consideriamo per ora il caso di due sole variabili, rimandando nei prossimi paragra il caso generale. La situazione pi` semplice si verica se le due variabili casuali sono indiu pendenti. Nel tale caso la densit` congiunta e data semplicemente dal prodotto a ` delle densit` marginali. Chiamando a e le variabili e , , e i parametri delle gaussiane otteniamo

Il caso in cui le variabili sono correlate e decisamente pi` complicato. Ri` u nunciamo ad una trattazione rigorosa e cerchiamo di capire la forma della distribuzione ragionando sulla dipendenza della densit` condizionata a dai parametri delle gaussiane e dal coefciente di correlazione (nel seguito indichiamo semplicemente come ). Nel limite si deve riottenere la distribuzione marginale

Se e diverso da zero la ` e distribuita intorno ad un valo` re medio diverso da e avente una diversa varianza. In particolare, chiamando e i parametri della distribuzione condizionata: se se se

e e

, oppure se , oppure se

e e

leffetto di spostamento da deve dipendere, oltre che dal segno, anche dallentit` della correlazione; a esso deve dipendere dai rapporti fra le larghezze delle due gaussiae maggiore di , una piccola deviazione di ` ne: se, ad esempio, da produrr` una grande deviazione di a da . anche la deviazione standard della distribuzione condizionata deve dipendere da , nel senso che si deve riottenere per variabili scorrelate, mentre essa si deve annullare nel caso di correlazione lineare ( ). In questultimo caso infatti ogni valore di determina univocamente un valore di . Inoltre questo effetto di

c G. DAgostini 2001

# e!}" V 

#  " 

i 

( ( W #( t " 4 #(  "! U   6

U ! ` ! U

 i

Uc dt S

# $!1" V 

` 9! U ` 9! U` Up i 

c H

vd   e8c oR"!  H #

9 F 9

ss

H xy

`  i

@Sdc k U # 9 s s F 9 k "! S  !
s s s

Vs d

256

Variabili casuali multiple

; ;

9.10 c Distribuzione normale bivariata


strizzamento della distribuzione non deve dipendere dal segno di . La forma esatta della dipendenza funzionale e meno intuitiva, ` ma il risultato esatto e in accordo con le aspettative. ` Queste semplici considerazioni sono in accordo con i risultati esatti dati dalle seguenti relazioni:

257

Assumiamo inoltre che anche la distribuzione condizionata sia normale (fatta eccezione del caso degenere quando e ).

Mettendo insieme i vari ingredienti otteniamo:

Utilizzando la formula della densit` condizionata si giunge nalmente alla a distribuzione congiunta :

dove con si e indicata la forma quadratica che compare nellargomen` to dellesponenziale, che dopo le opportune semplicazioni, ha la seguente forma:

` E facile convincersi che, per denizione, e una quantit` non negativa, la ` a quale si annulla nel solo punto e , dove ha chiaramente un minimo. La probabilit` congiunta a descritta dalla (9.59) e nota come la nor` male bivariata, o binormale e la possiamo indicare con , . Si pu` vericare facilmente che, nel caso di correlazione nulla, si rioto tiene la densit` congiunta ottenuta precedentemente dal prodotto delle due a gaussiane. Terminiamo elencando alcune sue propriet` , alcune delle quali gi` incona a trate, e facendo riferimento alle Figg. 9.5 e 9.6.

c G. DAgostini 2001

#  (  " # "!  ! (0 ( ( (# t " 4 # t "| #  tT"! c (# t T"! ( H H ( 0

(0  c( 0 vd ( H H  e8c  d  (# ( tc"! vd g8H c  # ( H ( dc d vd ( H H g8c ( eE# !" & 4 r # # # $"! $!}"  oR"!  # R"! 

(9.59)

(9.60)

#( H   ( dc d ( eE# "! && 4 r

U  i  p U ( H  i  # tT"!  4 i
id

( yH e8c 

# oe!}" 

258

Variabili casuali multiple

Figura 9.5: Esempio di distribuzione normale bivariata.

c G. DAgostini 2001

9.10 c Distribuzione normale bivariata

259

Figura 9.6: Distribuzione normale bivariata: ellissi di equidensit` e parametri delle a

Rappresentata nello spazio, essa ha una tipica forma a campana, pi` u o meno schiacciata e pi` o meno inclinata, a seconda dei valori dei u parametri. Il valore massimo di e vale e situato in corrispondenza di `

Esso dipende, oltre che dallinverso delle deviazioni standard, anche dal coefente di correlazione.

La distribuzione marginale di ciascuna delle variabili e normale come si ` pu` vericare integrando7 la ( o 9.59). I valori attesi delle variabili standard e .

sono

e le loro deviazioni .

La covarianza fra le variabili vale Cov

I valori di e per i quali la densit` di probabilit` e costante sono quela a` li per i quali e costante ` . Si riconosce facilmente come tali punti, per

Per i calcoli si usi lintegrale indenito:

c G. DAgostini 2001

  6" # 6

| |

 ( yH H  e8c # "  # R"! 

distribuzioni marginali. I valori numerici di dellesempio.

e di

dipendono dai parametri

| I||

( 0

 

3u6

` ` ` ` ` `

(9.61)

260
k 1 (1.65) 1 (2.71) 2 (1.96) 4.0 (3.84)

Variabili casuali multiple


3 (2.57) 9 (6.63)

una dato valore di , deniscono unellisse nel piano , chiamata ellisse di equidensita; di particolare interesse sono due famiglie di ` ellissi: ellissi esattamente contenute entro rettangoli di lati centrati intorno a e (Fig 9.6); ellissi tali da avere un certo livello probabilit` a variabili cadano allinterno di esse (Fig 9.5.E).

che entrambe le

Le prime ellissi possono essere ricavate direttamente da considerazioni geometriche, mentre per le altre e necessario calcolare lintegrale ` ` . E interessante sapere che queste ultime in modo indipendente dagli altri parametri, menellissi dipendono da tre invece i valori di sono irrilevati in quanto dipendono da , e . Le tabelle 9.4 e 9.5 forniscono alcuni valori di interesse di . Langolo dellasse maggiore dellellisse rispetto allasse delle ascisse e ` dato dalla relazione:

La gura 9.5 mostra un esempio di distribuzione bivariata normale di parametri , , , e . La distribuzione congiunta e rappresentata sia come supercie nello spazio ( 9.5.a), che densit` ` a di punti proporzionali alla p.d.f. ( 9.5.d). Le funzioni di densit` di probabilit` a a marginali sono mostrate in 9.5.b e 9.5.c. Tre esempi di densit` condizionate a cono mostrati in 9.5.d e 9.5.f, per valori di pari rispettivamente a 1.25, 1.5 e 1.75. La Fig. 9.5.e mostra inne le curve di equidensit` tali che la probaa bilit` congiunta di trovare i valori di e di al loro interno sia pari al 68 e al a . Per confronto sono anche riportati gli intervalli di probabilit` al a delle distribuzioni marginali.

1.39

2.30

5.99

9.21

con probabilit` a

Tabella 9.5: Valori di

per calcolare le ellissi che racchiudono le variabili

c G. DAgostini 2001

zFc zFc ' '

(9.62)

(  0

f F

# 6r"

fz z  Ud5  d5 d U U H H H

( (     c 8c

qF f

eB

 # "! 1( 0 ! # g7W7"!  I s

# R"! 

(0 U d

ve 

Tabella 9.4: Valori di rettangoli di ampiezza

(0


per calcolare le ellissi contenute esattamente entro i intorno ai valori medi.

9.11 c Caso generale di distribuzione multivariata

261

9.11 c Caso generale di distribuzione multivariata


` E semplice dimostrare che pu` essere riscritto come il prodotto di un o vettore riga per un vettore colonna

Il vettore riga pu` essere ulteriormente scomposto come il prodotto di un o vettore riga per una matrice , ottenendo cos` la seguente decomposizione: (9.63)

Chiamando il vettore colonna della differenza fra le variabili casuali e il loro valore atteso, il vettore riga, in quanto trasposto di , e la matrice, acquista la seguente forma:

` E possibile riscrivere la matrice sua inversa8 , ottenendo

in una forma pi` semplice se si passa alla u

La matrice ha quindi un signicato pi` immediato di , in quanto i suoi u elementi sono le varianze e le covarianze delle variabili casuali (si ricordi che Cov ). Utilizzando la forma compatta di scrivere le varianze e covarianze per un numero arbitrario di variabili casuali (vedi par sec:covarianza) si riconosce che

Inoltre, si pu` dimostrare che lespressione di o

scritta nella forma (9.67)

pu` essere estesa ad un numero qualsiasi di variabili. Questo ci permette di o ottenere la formula generale della multinomiale, se si riesce a scrivere in un modo compatto il denominatore del termine di fronte allesponenziale. Per derivarne intuitivamente la forma si pensi possono fare le seguenti considerazioni.

| | { | |

Si ricorda che , dove .

c G. DAgostini 2001

v{ {| H|{ { |{ 1 {{ { || 1 H|| { {{ 1

, , e e il determinante della matrice, il quale vale nel nostro caso `

W  e(  

| &d &

(0

t s  t s 

& d&

U (   s ( H 8 H

con

W t ( H u t! U | s | s H t t! t ce c t W T! U | 4 A &d & 7 A &d & 7 | ( H H ( 0 ( 10

(9.64)

(9.65)

(9.66)

(0

t q t

(0 k (0 # 6r"

yt



262

Variabili casuali multiple


Il fattore , differisce dalloriginario della gaussiana in quanto abbiamo due variabili; ne segue che la sua naturale estensione ad variabili e: ` Il denominatore contiene il prodotto delle deviazioni standard per questioni di dimensioni. Infatti lelemento di probabilit` innitesimo a d d deve essere adimensionale per il suo signicato di probabilit` e a quindi la densit` deve avere le dimensioni inverse di d d . Il termia ne e dovuto invece alleffetto di schiacciamento della forma a ` campana della distribuzione binormale, dovuto alla correllazione fra le variabili. Se il numero di variabili aumenta esso e destinato a compli` carsi. Per formulare in forma compatta estendibile ad un numero qualsiasi di variabili riscriviamola come

Si riconosce quindi come questo termine sia pari alla radice quadrata del determinante di , che indicheremo con . Poich si pu` dimostrare che questa formula e valida anche nel caso generale, e o ` abbiamo nalmente ottenuto lespressione della densit` di probabilit` di una a a distribuzione multinomiale di variabili comunque correlate fra di loro:

ovvero

dove, ripetiamo ancora una volta, rappresenta il vettore aleatorio La notazione e simile a quella della semplice gaussiana, con le dovute ` differenze: al posto di una sola media ; ne abbiamo

La densit` di probabilit` a molte dimensioni non e rappresentabile gracamena a ` te. Si ricordi comunque che la distribuzione marginale di ciascuna delle variabili ;

c H  dIP# "G c H 4t dI#P#x""G y# t " k k ( a ` b h Pyyy s Y ` # "  b h !yyy ( !YGY!a s ! # t "! s # t "! Hc id {| | R8cu ## "S "!   #  c vd   st t H {| | #R8cv ## "S "! 

, compattate in un vettore

la deviazione standard e sostituita da una matrice di varianze e covarian` ze , chiamata matrice di covarianza. Poich vale che Cov e Cov , la matrice e simmetrica e i parametri indipendenti so` no , ovvero le varianze e gli coefcienti di correlazione.

e una normale `

la distribuzione congiunta di due variabili qualsiasi e e una nor` male bivariata descritta dallequazione ( 9.59).

c G. DAgostini 2001

{"!  #
(9.68) (9.69) .

(#    (  (  # ( H (  (  ( H  

(C h R8c # k

# t t  t  " ( k k

( yH

#  "  k k `

` ` `

9.12

Si pu` vericare facilmente che, se i coefcienti di correlazione fra le variao bili sono tutti nulli e quindi nella matrice di covarianza sono diversi da zero soltanto i termini diagonali, la (9.69) si riduce al prodotto di normali univariate:

Derivate di

rispetto alle variabili casuali

Come ultimo punto su questo argomento osserviamo come le derivate seconde della forma quadratica che compare nellesponenziale, effettuate rispetto alle variabili casuale, siano legate agli elementi dellinversa della matrice di covarianza:

Nel caso unidimensianale questa propriet` si riduce alla banale constatazione a che

Il concetto di distribuzione multivariata si estende anche al caso delle distribuzioni statistiche, prestando attenzione a tenere ben divisi i concetti, che per comodit` ripetiamo: nella distribuzione di probabilit` si associa un grado di a a ducia ad ogni vettore che descrive un possibile esito; nel caso di distribuzione statistica si associa ad esso un peso statistico dato dalla frequenza relativa con cui i vettori di esiti si sono vericati. Nel caso discreto le due distribuzioni sono quindi formalmente equivalente: variabili casuali: variabili statistiche:

Nel caso di distribuzioni statistiche non ha molto senso parlare di variabili continue, in quanto i numeri che si registrano hanno sempre una risoluzione nita. Ne segue che gli analoghi degli elementi innitesimi di probabilit` sono a i pesi statistici di una celletta di dimensione nita: variabili casuali: variabili statistiche:

Anche nel caso di distribuzioni statistiche si pu` fare uso di covarianza e o deviazione standard per riassumere la correlazione fra variabili statistiche, tenendo conto delle solite note sulle diversit` di interpretazione delle grandezze a

c G. DAgostini 2001

qbkt "P{kt "!a # 6 #  # k b k ! R"!  qWk RY!a

! qb Ya # "!k  qb k k Y!a k k k k

9.12

Distribuzioni statistiche multivariate

d d

tu k s

(0 c id  | R8c  # ( k ! #( t " k j H k k H ##  "S "!  k k


t

t  ##  "S !"  B t ! ! t ! ! c  ( k u ( k (0 H

( #  H #R "S"!  B

(! (

Distribuzioni statistiche multivariate

263

(9.70)

(9.71)

(9.72)

264

Variabili casuali multiple

2d x x 2d

2a

x d a x a . sin 0
Figura 9.7: Ago di Buffon

che nel caso di pesi tutti uguali abbiamo Cov

9.13 varie

# # W "$$! "! H "! # k k kj # # Wz "$e! "! "! # k k kj

di nome analogo. Se abbiamo , abbiamo Cov

coppie di valori, ciascuna di peso statistico (9.73)

(9.74)

c G. DAgostini 2001

Capitolo 10

Funzioni di variabili casuali e teoremi limite


10.1 Propagazione delle incertezze
La condizione di incertezza su alcune grandezze si riette in genere su ogni altra grandezza che sia funzione di esse. Ad esempio, immaginiamo di essere interessati allarea ( ) e al perimetro ( ) di un rettangolo (idealizzazione del piano di un tavolo), di cui sono stati misurati i due lati ( e ). Linevitabile incertezza sul valore di e di (a cui andrebbe aggiunta quella legata al fatto che il quadrilatero potrebbe essere non perfettamente retto) si riette su e su . Il termine con cui questo processo e noto e propagazione delle incertezze. ` ` Come sappiamo, i gradi di ducia sui possibili valori di e di sono espressi da e . Ma, nel caso generale, i valori 1 di e di non sono indipendenti, come pu` succedere nel caso che i lati siano stati misurati con o lo stesso strumento, non perfettamente calibrato 2 . Quindi, in genere bisogner` a considerare la funzione congiunta . Per poter quanticare nel modo pi` u generale lincertezza su area e perimetro, bisogna imparare a valutare e partendo da (o da e nel caso di indipendenza). In realt` , a anche in questo caso, la soluzione pi` generale al problema si ottiene mediante u . Infatti ci aspettiamo che e abbiano un certo grado il calcolo di di correlazione, in quanto sono calcolate dalle stesse informazioni di partenza. Riepilogando, il problema consiste nel valutare a partire da :

Come vedremo, il problema generale pu` diventare abbastanza complesso dal o punto di vista del calcolo. Ci accontenteremo di calcolare soltanto previsione e incertezza di previsione delle varie grandezze e, qualora esistano correlazioni, del loro coefciente di correlazione. Nella maggior parte dei casi pratici (e
Si noti luso della stessa lettera sia per il nome della variabile che per i possibili valori. Quando si passa alle applicazioni pu` essere pi` importante usare gli stessi simboli sia per le o u grandezze che per le possibili realizzazioni. Quindi si raccomanda di abituarsi ad una certa essibilit` . a 2 Ritorneremo in dettaglio su tale effetto (vedi paragrafo 14.1) , ma si capisce che, ad a esempio, se la misura sottostima sottostimer` anche .
1

# }m 

y#Wm 

# WemS1m  |#Wm  # $Sm1m  S

#|  m  # y#m 

# emS1m  y#m 

y#  m  #

# $S 

(10.1)

266

Funzioni di variabili casuali e teoremi limite


tranquilli) queste approssimazioni sono pi` che ragionevole e vedremo cou me esse ci permetteranno, sotto certe ipotesi spesso soddisfatte, di effettuare ` affermazioni probabilistiche sui valori delle grandezza. E comunque importante ricordarsi che, alloccorrenza, bisogna affrontare il problema nel modo pi` rigoroso, descritto da una generalizzazione della (10.1), che scriviamo con u

ove con e indicata la -ma funzione che lega le ` alle . La soluzione minimale che affronteremo nei dettagli sar` invece il solo caso di a propagazione di previsione ed incertezza di combinazioni lineari di variabili: E E

A questo caso ci ridurremo, previe linearizazioni, nel caso di funzioni qualsiasi (e nei limiti in cui le linearizzazioni siano ragionevoli). I prossimi paragra, dedicati alla valutazione della distribuzione di probabilit` di funzioni di variabili casuali, possono essere saltati da chi non e a ` interessato a tale argomento. In tale caso si vada direttamente al paragrafo 10.6.

10.2 Soluzione generale per variabili discrete


Il caso di variabili discrete, bench di scarso interesse per le applicazioni di e questo corso, e molto semplice, almeno dal punto di vista concettuale. `

10.2.1 Regola generale


Consideriamo due variabili casuali di partenza, , funzione di esse:

Cominciamo dal considerare il caso in cui assuma un certo valore per la sola combinazione della variabili e . Chiaramente, la probabilit` a sar` uguale alla probabilit` che si verichino esattamente questi a a di valori di e di : con

# t 6# t t m6  d | d | { d { E @l kV # "  # t m 6m6 y k ## k "" kk t 68i  q @#yy t t 6 6 k 7 #  W}eYyyy ( |z"  A d s s | d s{ d V l k V # h !Pyyy ( !yR"!  s s #  R"!$ 6 3u2 6 3h ! #  W&6"32
3 u3 3 3
e

(10.2)

(10.3)

, e soltanto una variabile,

# # R!" p 3v6R!"&p2& qm  #  # 6 2

(10.4)

c G. DAgostini 2001

10.2 Soluzione generale per variabili discrete


Quando ci sono invece pi` coppie che contribuiscono al valore u sommare su tutte le loro probabilit` : 3 a

267

Come esempio, si veda la somma degli esiti nel lancio di due dadi, gi` moa strato nel paragrafo 6.4 (vedi anche gura 6.2). Si noti come lalta probabilit` a per valori centrali della somma sia dovuto soltanto al fatto che questi valori possono essere causati da pi` combinazioni di quelli estremi. u La (10.5) si estende facilmente al caso di pi` funzioni. Ad esempi, consiu derando anche la variabile , la congiunta e data da: `

Anche se limpostazione della (10.6) e semplice, il calcolo che permette di ` ottenere delle formule analitiche pu` essere molto complicato, ben al di l` o a dello scopo di questo corso. Vediamo soltanto nei prossimi paragra alcuni sottocasi molto istruttivi.

10.2.2 c Convoluzione di due funzioni di probabilit` a


Consideriamo la variabile , somma di due variabili indipendenti Applicando la regola generale otteniamo che

Nel caso di variabili indipendenti la (10.8) si riduce a (10.9)

che rappresenta il caso discreto della convoluzione di due funzioni di probabilit` indipendenti. La gura 10.1 mostra la distribuzione della somma di due a ` variabili casuali uniformi associate agli esiti del lancio di due dadi. E anche mostrata la somma di tre dadi, la quale pu` essere interpretata come la somma o di due dadi pi` un terzo dado. Si noti lalta probabilit` dei valori centrali e la u a bassa probabilit` di quelli laterali. a
3 Dal punto di vista formale, la (10.5) equivale, per variabili a valori interi (ricordiamo che discreto non implica necessariamente intero) a

ove

e la delta di Kronecker che vale 1 se `

e zero altrimenti.

c G. DAgostini 2001

p32

, bisogna (10.5)

# ! R" pG  # !R"! #R"!  # Gzm  #  j 6" w 

# "! 

# "! 

# # Wt1m $"!  j Wt1"!  #  g4 j ! ! j

dqr B

  # R!"! # j Gm 
X

(10.6)

oqm  # 2

(10.7)

(10.8)

268

Funzioni di variabili casuali e teoremi limite

P(Yn) (%)
15

n=1 n=2 Lancio di n dadi

10

n =3

10

12

14

16

18

Yn =

n X i=1 i

dadi. La concentrazione della probabilit` al centro della distribuzione e dovuta ala ` lelevato numero di combinazioni i quali producono risultati intermedi e giustica qualitativamente il teorema del limite centrale.

Come esempio di applicazione della (10.9) consideriamo la somma di due variabili ciascuna delle quali e una distribuzione di Poisson, con parametri ` e . Abbiamo gi` detto, basandoci su argomenti legati allinterpretazione a sica del processo di Poisson, che la distribuzione della somma e ancora una ` poissoniana di parametro . Utilizzando la (10.9) otteniamo:

ove la sommatoria va da 0 a in quanto negativi. Esplicitando le funzioni si ottiene:

3 w  W# | { m p  4 s # ( e A | 3 { 7 ( ( 4 w #! 9 W ( s  ( 4e U W s$ U xwet1m @ jl # ( ew A | 3 { 7 ( s w  4s  e 9 w # ! w # ( xwet1m ! @ l vm  | ( { ( j !gvx 9 W# | !tm # { "!  @ jl m  # ( R  4s

non pu` assumere valori o

(10.10)

c G. DAgostini 2001

s

Figura 10.1: Distribuzione della somma dei risultati ottenuti dal lancio di

(

10.2 Soluzione generale per variabili discrete


in cui lultimo passaggio e dovuto al fatto che la sommatoria e uguale allo ` ` sviluppo del binomio

269

10.2.3 Trasformazione di una variabile distribuita uniformemente


Consideriamo il caso di una variabile ( ) funzione di unaltra ( ) che sia ( ). Esso ci aiuter` a capire a distribuita uniformemente fra 1 e il comportamento della trasformazione delle variabili continue. Scegliamo le tre diverse funzioni

Alcuni valori delle variabili sono mostrati nella prima parte della tabella 10.1. Il calcolo delle funzioni di probabilit` e banale. Essa vale 1/100 per ciaa ` scuno dei valori considerati. La differenza fra e le altre due variabili e che ` queste non hanno valori equidistanziati, pur essendo la distribuzione uniforme nel senso di : la variabile , pari a crescere di ; , ha valori tti allinizio che poi si diradano 4 al

la variabile , proporzionale a , ha invece landamento opposto: i valori sono molto distanziati allinizio e diventano pi` tti alla ne; u

come consequenza di questi diversi comportamenti la distribuzione di ha il baricentro pi` basso di , u pi` alto; u

la diversa densit` di punti per intervallo della variabile e quanticata a ` nella tabella dalla probabilit` che si verichi la variabile in un intervallo a di ampiezza 1000 (semplicemente proporzionale al numero di valori in tale intervallo, in quanto la probabilit` di ciascuno di essi e costante); a `

sebbene, a diversit` delle funzioni continue, non si possa parlare di una a funzione continua densit` , possiamo considerare ugualmente la densit` a a media di probabilit` : a densit` media di prob. di Y a

valori

questo mostra che, quando i valori di sono abbastanza tti entro lunit` di scala variabilit` della grandezza ( a a ) Prob in d d

c G. DAgostini 2001

` Si noti che la differenza fra il quadrato di un intero e quello dellintero precedente e pari .

Vd H

d 6 V H t t  w 6 6 t t 6 t 6 t

Prob in

(  4s ( 4s p W ( e 4 $ U H H  s s UH h s 6 FyUr s6 ~ s 6 6

U U U ~ FFyH 6 ( (6 U s pFyUH R6

~6 ( 6 ' w# 

(6 `
n

` ` ` `

270

Funzioni di variabili casuali e teoremi limite

1 2 3 4 5 6 7 8 93 94 95 96 97 98 99 100

: ; ; . Sono mostrati: i primi e gli ultimi valori assunti dalle variabili; la probabilit` (in %) che le variabili siano comprese nei dieci intervalli a di ampiezza 1000; il valore atteso e la deviazione standard.

Tabella 10.1: Tre trasformazioni della distribuzione uniforme discreta

c G. DAgostini 2001

hgh Hm

FFyU6 ( 3 ( 6 pFyUg6 UU H ~ U H s
100. 200. 300. 400. 500. 600. 700. 800. 9300. 9400. 9500. 9600. 9700. 9800. 9900. 10000. 1. 4. 9. 16. 25. 36. 49. 64. 8649. 8836. 9025. 9216. 9409. 9604. 9801. 10000. 1000. 1414. 1732. 2000. 2236. 2449. 2646. 2828. 9644. 9695. 9747. 9798. 9849. 9899. 9950. 10000. 10 10 10 10 10 10 10 10 10 10 31 13 10 9 7 7 6 6 5 6 5050 2887 0.57 5050 3384 3009 0.89 2550 6715 2327 0.35 7106

yy

yy

yy

 e 

t" t 6 # # tt m6  ## t m6m6 H t U 7FUU##7 FFUUU FFUUU dyUU f t 6 UU FUU U FUU d & w #7FFd 6 FFdf& tt 6 UFUFUQU& ##7U U 7UFUFUQU t 6 UFUFUd4& UFUFUd & #7UFUFUd tt 66 UFUFU"& UFUFUd4 ##7FF9 t 6 UFFd& #7UF#U UFUU UdUU cHyU 6 FU & 7F7FFdFwt 66 t FmUUFyUdHU c& UF 

yy

1 3 5 7 9 11 13 15 17 19

10.3 cSoluzione generale per variabili continue

271

10.3 cSoluzione generale per variabili continue


Anche nel caso di variabili continue il problema e in principio semplice 5 , ma ` i conti possono diventare immediatamente complicati. Per analogia con la (10.6), si pu` dire che lelemento innitesimo di probabilit` o a e dato ` , tali che e dalla somma di tutti elementi innitesimi . Consideriamo nel seguito soltanto il caso di cambiamento di una singola variabile e di somma di due variabili indipendenti.

10.3.1 Cambiamento di variabile


Prendiamo la variabile , con funzione densit` di probabilit` a a , e consideriamo una funzione crescente . Applicando quanto appena espresso a parole per il caso generale, abbiamo che con

ovvero

in cui e stato esplicitato il fatto (generalmente sottinteso in questo testo) che ` e una funzione di mentre ` e funzione di . Ne segue che ` (10.11)

dove con e stata indicata la derivata di ` calcolata in corrispondenza di tale che , ovvero di , ove - chiariamo - ( sta per la funzione inversa di . Quindi il modo pi` corretto per esprimere u la (10.11), funzione solo di , e ` (10.12)

Nel caso che sia decrescente si segue un ragionamento analogo, ma nel risultato nale cambia il segno al secondo membro. Quindi la formula generale, per funzioni sempre crescenti o sempre decrescenti e: `

Un modo concettualmente semplice, analogo al caso generale delle variabili discrete, consiste nel sommare tutti gli inniti elementi di probabilit` che danno luogo allo stesso valore a della variabile nale. Quindi, lestensione al continuo della forma della nota 10.2.1 e `

ove sta per la di Dirac. Chi e familiare con questa funzione speciale pu` trovare di ` o agevole impostare i conti in questo modo e, facendo uso delle sue propriet` , ricavare facilmente a le formule che incontreremo nel seguito.

#  t" # ## "  #  V #" s s  Qd "d #  # s # 6 #  # 3Ge"! e"! 6 #""3s T!  I #V ee"!## "!  Qd  e!# "! Qd  "d ! #F d #d V 3#$"!  # d #  V ! $"! dp "d # 3$"! ! W#$74!9x"!&9}9f"&  # 4 6  #  "$6

c G. DAgostini 2001

# ! #  7  "!m  R"!  #
con
d d

# $"! 

I y##"## "  s s  Qd  p$!# "!Qd  " V   #

 qr z"qr W|

# "!

(10.13)

272

Funzioni di variabili casuali e teoremi limite

1 1 1 1

Tabella 10.2: Funzioni densit` di probabilit` ottenute da diverse trasformazioni di a a una variabile distribuita uniformemente fra 0 e 1. . Ad esempio, se la trasformazione e del tipo `

, si ottiene

Vediamo in dettaglio cosa succede quando si applica una trasformazione ad una variabile distribuita uniformemente. Trasformazioni di una distribuzione uniforme Il caso della distribuzione di partenza uniforme e interessante in quanto esso ` mostra chiaramente la distorsione delle funzioni densit` di probabilit` operate a a dal cambiamento di metrica. Questo si capisce meglio se si osserva attentamente la gura 10.2, in cui le diverse densit` dei puntini danno unidea della a funzione densit` di probabilit` . E anche interessante confrontare quanto ottea a ` nuto con la discussione fatta a proposito delle trasformazioni uniformi variabili discrete (vedi anche tabella 10.1). utilizzate e la funzione densit` di probabilit` delle traa a Le funzioni sformate sono date in tabella 10.2. I calcoli vengono lasciati per esercizio.

Applicazioni alle simulazioni di variabili casuali

(Si noti luso di maiuscole e minuscole per distinguere due funzioni matematematicamente uguali in questo caso, ma concettualmente diverse.) Facendo uso della 10.12, in quanto e crescente, otteniamo: `

#  "

` E interessante il caso in cui la funzione di trasformazione espressione della funzione di distribuzione , ovvero:

H 6 &U H 6 &U H 6 &U dzFczU U 6


dominio di abbia la stessa (10.14)

# pu $"!"!dQQd #$A "!7! dQ "  H #$   # # e"!&%

 # V W# ' 6 Qd gH ' "d u' #  % #  Wt"&Gt" # e"!&%

s C s s ( ( x Qc ( ( ( s c s 4 d # # "  " s 6 G"$ e"!  #  #

#  "$

c G. DAgostini 2001

10.3 cSoluzione generale per variabili continue

273

Figura 10.2: Esempi di trasformazione di variabile; A)

c G. DAgostini 2001

; C)

; D)

$ " " &%de$ # h

; B)

( )

' 

274

Funzioni di variabili casuali e teoremi limite


Quindi la trasformazione di variabile data da una funzione uguale alla funzione di ripartizione produce una variabile uniforme fra 0 e 1, per qualunque di partenza. Questa osservazione pu` essere utilizzata come un modo alternativo o per giusticare il metodo di simulazione di variabili casuali qualsiasi discusso nel paragrafo 8.3 Trasformazione lineare di una variabile distribuita normalmente

Facendo uso della 10.13 si ha:

ovvero

Una trasformazione lineare di una normale d` ancora luogo ad una normale. a Per quanto riguarda la trasformazione di valore atteso e deviazione standard, la legge di trasformazione segue una regola generale che non dipende dal tipo di distribuzione.

10.3.2 Caso di funzioni non monotone


e una funzione che acquista lo stesso valore di per pi` valori di ` u Se la procedura mostrata pu` essere utilizzata in ciascuno dei tratti in cui la o funzione e monotona. Quindi si sommano i diversi termini che contribuiscono ` allo stesso . Mostriamo il modo di operare con un esempio particolare: il quadrato di una variabile distribuita normalmente.

Per denizione abbiamo

( $8H c {| ) 0{| ( $8H c 9 ! | ( 8cH  9 c #  #  { #  9T  ( | "&p 95m6&

d v V # 4 $ dgV 9gedV " g6 V  d (#y#9(4 e(d 7pm c  vd  $ H c c e v"d #V ( e Qd

}1e8d u6 # d d 4 " 

Consideriamo il caso

c G. DAgostini 2001

# $"! 

( P#YHzmUd u6  r3

(10.15)

#V v"%

# x" 

#  " !

10.3 cSoluzione generale per variabili continue


Confrontando questo risultato con la (8.45) si riconosce nella una variabile di con un grado di libert` . Questa identicazione deriva da un proa priet` pi` generale, secondo cui la somma dei quadrati di variabili normali a u standardizzate indipendenti e descritta da una ` con .

275

10.3.3 Somma di due variabili

La distribuzione della somma e analoga al caso discreto in cui al ` posto della sommatoria compare lintegrale su . Le (10.8) e (10.9) diventano

(caso generale) (

indip.)

La forma (10.17) e nota come convoluzione ed e indicata con ` ` Somma di due variabili distribuite uniformemente

Lanalogo continuo della somma dei due dadi di gura 10.1 e dado dalla som` ma di due variabili indipendenti distribuite uniformemente, per semplicit` nela lintervallo [0, a]. Sia che valgono . Applicando la (10.17) si ha:

con

per

avendo eseguito, nellultimo passaggio, la seguente trasformazione di variabili:

Facendo attenzione a come gli estremi di integrazione della (10.18) sono legati al dominio della , si ottiene nalmente: d

altrove

c G. DAgostini 2001

V 2 d d3q

Wx46U H $54Fp $54 c   # #  V # 4 e54  H # ! #$tmd d H !  V c9 ! #$tm V $"! d W3 ! # #F #  V d

! pcx9T ! r9&U

3&1 ( A 6 QPIH

4 4 ) 7 ! t

! $tm V $"! d #! # ! etR"!  #! ! 94 2 6

U c c c c # # tdc | s c f4 s c c sc 7777 m  | s T4 s 9 s 7777 V #

T! f! U % 4 4

W3 xm  # W3 xm  #

# om 

( A

(10.16) (10.17) .

(10.18)

(10.19)

276

Funzioni di variabili casuali e teoremi limite

1 y

f(x, y) = 1

f(x -1 .5 -0 0 0. 5 1 x -y

-y )

Figura 10.3: Costruzione delle distribuzioni di

e di

a partire da

indipendenti e distribuite uniformemente fra 0 e 1.

Si riconosce una distribuzione triangolare (vedi paragrafo 8.4) centrata in e di semiampiezza . Per capire in modo intuitivo questo andamento si pu` o confrontare questo risultato con quanto ottenuto nella somma di due dadi (vedi gura 10.1). Si veda anche la gura 10.3 che mostra, per una distribuzione uniforme fra 0 e 1 la distribuzione della somma e della differenza. Si vede che, a parte la posizione del centro, tale combinazione d` luogo alla stessa forma, a quindi con uguale incertezza.

Somma di due variabili distribuite normalmente Un caso molto interessante e quello della somma di due variabili indipendenti ` distribuite normalmente. Applicando la formula di convoluzione si ha

c G. DAgostini 2001

  # V p!c # pc 1! ( gt(V t1m ( }e(d d t"!

8 9

0.

1.

5 y)

2 f(x +

id

V  Wd1 c W # H 3 wm 

t

10.4 cUso della funzione generatrice dei momenti


Effettuando lintegrale6 si ottiene

277

La somma e ancora distribuita normalmente con `

Utilizzando il risultato precedente sulla trasformazione lineare di una variabile (vedi (10.15)), possiamo affermare che la combinazione lineare di variabili casuali indipendenti distribuite normalmente e ancora distribuita normalmente. ` In altre parole, la gaussiana gode di una proprit` riproduttiva pi` generale di a u quella di cui godono binomiale e poissoniana.

10.4 cUso della funzione generatrice dei momenti


Un altro semplice e utile metodo per ricavare la distribuzione di una combinazione lineare di variabili casuali indipendenti fa uso dlle propriet` della a funzione generatrice dei momenti (vedi 8.13). In effetti, gi` introducendo tale a strumento di calcolo era stato mostrato che una trasformazione lineare di una gaussiana d` ancora luogo ad una gaussiana (vedi (8.36)). a Come esempio di applicazione, ricaviamoci con tale metodo quanto gi` a dimostrato nei paragra precedenti a proposito della somma di due variabili indipendente che seguono una distribuzione di Poisson e della combinazione linare di pi` variabili distribuite normalmente. 7 u

Ne segue che

Pu` far comodo, ad un certo punto, luso del seguente integrale indenito: o d

Per il resto serve solo molta attenzione nei passaggi. 7 Facciamo notare come la propriet` 3) del paragrafo 8.13, presentata in anticipo rispetto alle a variabili multiple e che riportiamo per comodit` a con e indipendenti

segue dal valore atteso di quanto e indipendenti.

sulla funzione congiunta

, che si riduce a

c G. DAgostini 2001

r r

 | | | I||  7 R 3 T ( ( 3 RT 7 A| #{ ")V( | Q #") d Q( V d Q  {

qr

SR | ( | ( RS { ( { (

 o#")V Q o#")d Q

a XW `VXW YXW V U V

Se

, segue

I E

I G E C PHFDB

10.4.1

  4 m V  d # ( ## g(V V e(d d "c vd ( g4 ( H  c Gm  4 


, con

(10.20)

 (V 4 (d  (@  V 4 d gg9e A @
e

(10.21) (10.22)

poissoniane

(10.23)

in

278

Funzioni di variabili casuali e teoremi limite


ha quindi la forma della funzione generatrice di una distribuzione di Poisson, con . Siamo quindi arrivati alle stesse conclusioni della (10.10), ma in un modo molto pi` semplice. u Per curiosit` consideriamo anche la trasformazione lineare a , sempre a partire da poissoniana:

Questa funzione non e assolutamente riconducibile alla funzioone generatrice ` di una poissoniana e quindi una trasformazione lineare di una poissoniana non d` una poissoniana. a

. Consideriamo la semplice lineare di due variabili distribuite normalmente. Lestensione al casop generale e immediata. Siano quandi `

Indichiamo con 8.13 si ha

nella quale si riconosce ancora una distribuzione normale di parametri

10.5 c Stime a bruta forza: metodi di Monte Carlo


a Un metodo pratico molto usato per stimare le distribuzioni di probabilit` di funzioni complicate di variabili casuali consiste nellutilizzare delle tecniche di simulazione al computer. Tenendo conto che in pratica anche le funzioni continue sono discretizzate per eseguire i calcoli, non si fa altro che applicare che applicare la regola generale incontrata nel paragrafo 10.2.1 (formula (10.6), (10.5), o loro generalizzazione a molte dimensioni). Il caso pi` sempliu ce consiste nello stimare a partire da , ,. . . , sapendo che e assumendo che le variabili di partenza siano fra loro indipendenti. I passi richiesti sono i seguenti:

2. valutare la funzione

in corrispondenza dei valori

3. istogrammare la variabile

e ripetere il processo un numero di volte .

c G. DAgostini 2001

1. estrarre le variabili nel paragrafo 8.3;

rqd (I )# (V  ( 4 (d  ( mp4rVg{9g)Y#A4eGm p id x#")G@ Q c 4 d  A 34 5 

. Facendo uso delle tre propriet` del paragrafo a

usando, ad esempio, una delle tecniche descritte

( s k # h "!  # "!  {#p"! 

( V 4 ( d  (@ A 4 V e d e @e rg W9g4 exA

A# p{6V 82 4 4  # yd g  d Vd 1e""d 6

I E

i G If G Ec C gbhgedDbB

10.4.2

, con

gaussiane

4 7 6

e R ( 0 e ( R ( # ) m d Q( 00 e (( 

e 3 c

d Q

6 k ( 6 # " # h Yyyy s "Tv6

6 ( 4 s ur  
f

V dQ
3

10.5 c Stime a bruta forza: metodi di Monte Carlo

279

x=10

x=3.14

x=1.04

x=104

Figura 10.4: Esempi di trasformazione di una variabile normale:

Si calcola inne la frequenza relativa con cui il valore compare nelle diverse classi dellistogramma. Poich al crescere di si e sempre pi` sicuri e ` u che la distribuzione statistica delle frequenze che si otterr` sar` molto vicina a a alla distribuzione di probabilit` (vedi paragra 7.13 e 7.14, nonch prossimo a e paragrafo 10.9.2) la distribuzione di probabilit` e stimata nel seguente modo: a` A) caso discreto

B) caso continuo

ove indica la frequenza relativa di occorrenze del valore (caso discreto) o delle volte in cui il valore della e risultato compreso fra e ` (caso continuo). Un esempio di applicazione verr` mostrato in gura 10.5 a a proposito del teorema del limite centrale. Lestensione al caso di pi` variabili u di arrivo o a quello in cui le variabile di partenza sono correlate e semplice ` dal punto di vista concettuale, anche se limplementazione al computer pu` o essere non proprio banale.

c G. DAgostini 2001

4 k k k 86

6 6 #m6t v# "  k k k # m6 v# " 

YX V

P 7g96t u s

|d  t6 # m6 k k 6 t

280

Funzioni di variabili casuali e teoremi limite


Un esempio di questa tecnica e mostrato in gura 10.4, ove una variabile ` casuale distribuita secondo una distribuzione normale di e e ` volte con la tecnica di Monte Carlo (vedi paragrafo 10.12) e generata successivamente trasformata in , e (nellordine e come facilmente riconoscibile dai valori medi e deviazioni standard delle distribuzioni statistiche risultanti dalla simulazione).

10.6 Riepilogo di alcune propriet` delle funzioni di vaa riabili casuali


Prima di proseguire e opportuno fare brevemente il punto della situazione ri` guardo le funzioni di variabili casuali. Questo dovrebbe permettere una agevole lettura dei paragra che seguono anche a coloro che hanno saltato i paragra precedenti.

Il calcolo della forma della distribuzione di una funzione qualsiasi di variabili casuali e un problema complicato. `

Le applicazioni speciche che incontremo, legate allincertezza di misura, non richiedono tale abilit` . a

Alcune distribuzioni godono della cosiddetta propriet` riproduttiva ria spetto alla somma. In particolare, questo e vero per ` la binomiale (vedi paragrafo 7.7); la distribuzione di Poisson (ibidem); la normale (vedi punto seguente);

La distribuzione normale e anche riproduttiva sotto una qualsiasi com` binazione lineare: se variabili indipendenti sono distribuite normalmente con E e Var , la variabile casuale e ancora distribuita normalmente con E ` e Var (si noti il quadrato dei coefcienti). La somma di alcune distribuzioni pu` dar luogo ad altre distribuzioni noo tevoli. Il caso pi` semplice e quello che conduce alla binomiale partendo u ` da tanti processi di Bernoulli indipendenti.

La tabella 10.3 mostra alcuni esempi notevoli di somma di variabili indipendenti.

10.7 Valore atteso e varianza di combinazioni lineari


Sviluppiamo ora il programma illustrato allinizio di questo capitolo e schematizzato nella (10.3). Calcoliamo quindi il valore atteso di una combinazione

c H t yUv # Gm6

( x PIH 6

( w# e |(A m6 A w w V (extk # k " ok tk # k "A  6  k k k k kkk k k

UU U FFU FyUH

` ` ` ` ` `

c G. DAgostini 2001

10.7 Valore atteso e varianza di combinazioni lineari


distribuzione degli addendi Bernoulli, binomiale, Poisson, normale, geometriche, esponenziali, distribuzione della somma binomiale, binomiale, Poisson, normale, binomiale negativa, (***) Erlang( , ) (***)

281

Tabella 10.3: Distribuzione della somma di variabili casuali indipendenti. Esempi


notevoli.

lineare di variabili casuali, cominciando dal caso pi` semplice, quello della u somma algebrica: E

Nel caso generale

Avendo ottenuto il valore della previsione, interessiamoci allincertezza di previsione, data dalla deviazione standard. Anche in questo caso cominciamo dalla somma algebrica:

E E

E E

Var

Var

Cov

Nel caso in cui la covarianza si annulla troviamo che la varianza di una somma o differenza di due variabili casuali e uguale alla somma delle varianze. ` Utilizando i simboli compatti di per la varianza e per la covarianza, possiamo riscrivere la 10.27 come

Nel caso di una somma di E Var

c G. DAgostini 2001

# t " t l k j g# " j vm6 4 k # k #k " j vm6 k # uk 6 w ud p9 k (V 94 (d p98" (  V  ck   # 6  Vd uW ( 

variabili E

otteniamo:

Var

Cov

Var

W6r" 9gm6 g" # c # 4# #"16 6#" "f}  # c  # ( ##m6 64 ( #" " # 6 6  ## ( #m mp" " #6 #6 ( # " p "

' s # # (e w P w  {| w k k s k X h XX wX y s x h
E

# # Wm6 " ! #   ! #  ! R!" y17WR"! ! # #  7WR"! zg"! x " #6

# 4# Wm6 Rt"

6 5 # 4

sCS l d #  "  k s k X h X

#6 v "

'

'

(10.24)

(10.25)

(10.26) (10.27)

(10.28)

(10.29) (10.30)

282

Funzioni di variabili casuali e teoremi limite


e, nella notazione simmetrica appena introdotta:

e Cov ove lineare di due variabili Var E

Questo risultato pu` essere esteso a un numero qualsiasi di variabili: o

Possiamo riscrivere in modo pi` compatto lespressione della covarianza, osu servando innanzitutto che Cov Cov

in quanto il fattore 2 e dovuto a considerare sia ` che inoltre la notazione compatta, questa pu` essere riscritta come o

Anche i termini dovuti alle varianze possono essere riscritti come Var

ove sta per . Per concludere, il modo pi` compatto di scrivere la varianza u di una combinazione lineare8 e: ` (10.35)

8 Siccome questa notazione presenta a volte difcolt` di interpretazione, facciamo un esema pio nel caso di 2 variabili. La sommatoria indica che bisogna considerare le possibili combinazioni:

Quindi:

(ricordiamo che

).

c G. DAgostini 2001

| { { q I| d|{ | { | | { { | 5| | | I| { | d{ | { d5{ { { | { | | | { | |  y X y @ y{  t  t t (V  k k jk (  kk  k (  k # " ( k k kk k k j k k k j k k j t  t t l kj q ` q q k k W# t " t t l # t " t t c k k kj k k kj # t " t t 9e# " ( k j c 4 k k kj #k " k j vm6 k # k k k 6 k k j W# ( Yf" pc9e# ( " ( g" ( s 4 4# ## 4 #  ( # ( " ( "g s# " s " ( "{A4 ( W94pfG yg4 ( {9T # s A 4 s  om6 # A 4 ( W9t# 4 !s "!  v6 t  X (   k kk t  t (V  k k kj
E E E E Var Var Cov E E Var(Y) Var Cov

(10.31)

. Consideriamo inne una combinazione :

(10.32)

(10.33) (10.34)

. Utilizzando

10.7 Valore atteso e varianza di combinazioni lineari


Vediamo due applicazioni di quanto abbiamo mostrato in questo paragrafo. Valore atteso e varianza della distribuzione binomiale Come sappiamo, la binomiale e data dalla somma di variabili casuali indi` pendenti, ciascuna legata ad un processo di Bernoulli di probabilit` , uguale a per tutte. Poich valore atteso e varianza di una distribuzione di Bernoulli e valgono rispettivamente e , con , otteniamo E Var

283

Valore atteso e varianza della distribuzione di Erlang Anche il valore atteso e la previsione del tempo in cui si verichi il -mo successo in un processo di Poisson (distribuzione di Erlang) pu` essere valuo tato dalla propriet` delle combinazioni lineari di variabili casuali indipendenti. a Poich il tempo di attesa fra un evento e laltro segue una distribuzione di espoe nenziale, il tempo di attesa di successi e pari alla somma di variabili casuali ` . Ne segue che ciascuna di valore atteso e deviazione standard pari E Var

Erlang

(10.38) (10.39) (10.40)

Erlang

Erlang

Previsione di una media aritmetica di variabili aleatorie analoghe Una applicazione di particolare interesse della propriet` della varianza e quella a ` relativa alla media aritmetica effettuata variabili casuali analoghe, aventi tutte la stessa distribuzione e indipendenti luna dallaltra (ad esempio l -mo esito di un esperimento condotto in condizioni apparentemente identiche): (10.41) (10.42) (10.43) (10.44)

Var

Var

Var

La media aritmetica ha la stessa previsione della singola variabile, ma unincertezza minore. Questo e un risultato molto importante per quanto riguarda `

c G. DAgostini 2001

'

#  ' &d' x#7'  ( # ' ( d' v#7'  # ' &d' v#' 9 H ' PI '

#  W" H ( #" # " k j H 3k # " H k kj H k kj

S k 3S j o# s h  " S k TS j o# s h  " SH T S S

(10.36) (10.37)

v# h   v# h  u h t h

284

Funzioni di variabili casuali e teoremi limite


le misure e sar` ripreso nel seguito. Detto alla buona, esso giustica lidea a intuitiva che il valore ottenuto da una media di molte misure e pi` afdabile ` u di quello ottenuto da una singola misura. Lespressione di fornisce una espressione quantitativa dellincremento della qualit` della media aritmetica a in funzione del numero di prove.

Immaginiamo di avere due diverse combinazioni lineari, costruite sulle stesse variabili casuali di partenza:

Dipendendo e dalle stesse variabili , esse non sono in genere indipendenti. Ci aspettiamo quindi un coefciente di correlazione non nullo. Vediamo quindi come calcolare la covarianza. Cominciamo con due sole variabili di partenza, e , ovvero

Per denizione Cov Essendo

si ha

e quindi la covarianza e pari al valore atteso di `

Sviluppando il prodotto del binomio e prendendo il valore atteso di ciascuno di esso si hanno questi quattro termini: E E

E E

E E Cov E Cov

# ( YT" s s# t s "|# ( t ( "r # ( YT" s # ( t ( "|{#ptGf"r s s # ( " ( ( q #( ( t ( " |#f" gf q ( {#ptGT" pp s s s s s

# ( t ( " ( e@#ptGT"g q# ( t ( " ( e#pT"Ps 4 s s s 4 s s

# ( t ( " ( g s# t s " s @ t2 4 # ( t ( " ( dg{#ptGT" gt6 4 s s s V

s eG @ # ( ( ( ( 4 s4 pss em62 xA f # V #@ #V At32|Ggtm6r v{2Gm6 #

4s T s e ( ( ( ( Ts e26 4 s

E E

w  k wwv26 k kk kk k

s e ( s( ( ( s ( s( s es

s# t s "|# ( t ( " s ( # ( t ( "|{#ptGT" (  s s s q #( ( t ( " ( ( q ( {#ptGT"e pp s s s s

( f s 2 6

10.8

Correlazione fra diverse combinazioni lineari di variabili casuali

# h  

Var Var

c G. DAgostini 2001

10.8

(Si ricordi che E E Cov

Possiamo quindi scrivere la covarianza fra e come la somma di tre con, quello dovuto alla varianza di e tributi: quello dovuto alla varianza di quello dovuto alla loro covarianza: Cov Var Var

Cov

Questa espressione mostra come, in effetti, le variabili nali sono correlate anche se quelle iniziali non lo sono. Inoltre, si noti la covarianza dipende dal prodotto dei coefcienti della stessa variabile , o da quelli relativi a variabili legate da una covarianza non nulla. Quindi, la condizione afnch due e combinazioni lineari siano fra loro correlate e che abbiano in comune almeno ` una variabile, oppure, per dirlo in modo gurato, si parlino attraverso due variabili fra loro correlate. Questa condizione e necessaria ma non sufciente, ` in quanto il valore della covarianza dipende dai diversi contributi e dai segni di coefcienti. Si possono vericare quindi delle compensazioni fra le diverse variabili tali da annullare la covarianza. Il caso limite di correlazione fra e si verica quando si ha una sola variabile.

Si ha infatti Cov

La correlazione vale a seconda che i segni di e siano concordi o discordi. In analogia a quanto fatto nel paragrafo precedente a proposito della varianza, e facile estendere lespressione della covarianza nel caso di molte va` riabili di partenza . Cov Var

Cov

Si noti come, se

, si ritorna allespressione (10.35) della varianza di

c G. DAgostini 2001

( # s W# ( YT" 6

6 2 t  t t s jk AW @V t  t t l k j 4 k(  k k j t # t k 4 t k  t 4 (k  k k k k # t " k # k j t 4k t k k  t k j k gk4 # " k k j o{2m6 # k k k kj k H  A uA d  ueqhd  {2@ m6 V  {2Gm6 # # (d 

W# ( #(

k Yf" @#g ( 4 ( f4 s s s  " ( ( g@#f" eg v{2m6 4 s s s # s 2 6 r $# ( t ( "|@#ptGf"r ${#ptGT"|# ( t ( "r s s s s Ru26 g e3 2 6
f

Correlazione fra diverse combinazioni lineari di variabili casuali

285

(10.45)

(10.46)

(10.47) .

286

Funzioni di variabili casuali e teoremi limite


Covarianza di due medie aritmetiche Immaginiamo di ripetere molte volte un esperimento, sotto condizioni apparentemente identiche, e che per l -mo esperimento si misurino due grandezze e . I possibili esiti degli esperimenti saranno coppie di variabili casuali analoghe, cio` tutte aventi la stessa distribuzione di probabilit` . Nel caso genee a rale e non sono in genere indipendenti e avremo quindi una covarianza (` stato omesso lindice in quanto la covarianza e la stessa per tute ` Cov te le coppie. Applichiamo ora i risultati del paragrafo precedente per calcolare la covarianza fra le due medie aritmetiche e . Al ne di utilizzare le formule precedenti si consideri variabili , tali che

Le due medie possono essere riscritte come

I coefcienti valgono per compreso fra 1 e , mentre sono nulli per . Viceversa sono nulli per e valgono per . Osservando la (10.46) (riscritta in termini delle ), notiamo che i soli contributi non nulli sono quelli dovuti alla covarianza fra e , corrispondenti 9 . Ne segue che alla coppia Cov Cov Cov

Cov

Come la varianza, anche la covarianza delle medie e ` volte inferiore alla covarianza di ciascuna coppia di variabili. Rimane invece invariato il coefciente di correlazione:

Cov

9 Le variabili e con non sono invece correlate in quanto, per dirlo in modo semplice, appartengono a diversi esperimenti. Ad esempio, la conoscenza del valore di della prima prova non modica il grado di ducia dei valori di che possono accadere nella seconda prova.

# 991H # 99H 6 w s h h 6 c w s h h k k k k k H 4 wTk # 6" 3 # h g k3 k h

X i j   # W6" ## hh 6 h # h   v# h 6 h  6

PIk H k

PIH

#6r" H W H H U f 3 h x# h 6 h  k k hk j b 6 Ya k k PIH k k h6 k k hk ( j h k k hk ( j

6 h k k k
3

#6" 6 k k6 k k ` wq

(10.48)

(10.49)

c G. DAgostini 2001

10.9 Legge dei grandi numeri


Correlazione fra una variabile e una combinazione lineare che la contiene C` un altro caso che pu` a tornare utile per le applicazioni di laboratorio. Rie o guarda la valutazione del coefciente di correlazione fra una variabile casuale, ad esempio , e una combinazione lineare di variabili casuali che contiene anche questa, ad esempio . Ovviamente il risultato segue da quento trattato in questo paragrafo se si considera una seconda combinazione con coefciente . Facciamo soltanlineare che contenga soltanto to il caso semplice ed istruttivo di variabili fra loro indipendenti. Otteniamo allora Cov e quindi

287

Il coefciente di correlazione e dato dal rapporto fra il contributo a ` della sola e stessa. Quindi tende a quando domina lincertezza su , mentre tende a zero quando il suo contributo e trascurabile. `

10.9 Legge dei grandi numeri


In questo paragrafo approfondiamo la discussione su due risultati che abbiamo gi` incontrato. a 1. Parlando delle previsioni di distribuzioni statistiche (paragrafo 7.13) abbiamo visto come la previsione della frequenza relativa tenda alla probabilit` , con una incertezza di previsione che decresce con la radice a quadrata del numero di prove. 2. Analogalmente, abbiamo visto nelle pagine precedenti come la previsione della media aritmetica di variabili casuali aventi la stessa distribuzione di probabilit` e uguale alla previsione della variabile casuale, con una a` incertezza di previsione che decresce con la radice quadrata del numero di prove. Questi sono due modi di formulare la legge dei grandi numeri, indubbiamente la legge pi` nota e pi` fraintesa10 del calcolo delle probabilit` . Lespressione u u a semplicata con la quala essa e nota e che con laumentare del numero di pro` ` ve effettuate nelle stesse condizioni, la frequenza relativa tende alla probabilit a ` e la media sperimentale tende alla media teorica, expressione che potrebbe anche essere corretta, una volta chiarito il signicato dei termini. Vedremo quali sono invece le interpretazioni assolutamente scorrette di tale legge. Riformuliamo prima correttamente le due leggi, che sono due semplici teoremi del calcolo delle probabilit` . a
Un volta una persona mi cond` : non credo al calcolo delle probabilit` , perch mi sembra o a e una grande stupidaggine che se un numero non e uscito da molte settimane debba avere pi` ` u probabilit` degli altri di uscire. . . a
10

c G. DAgostini 2001

6 V 

H  s V s 4( ( (h  (h 4Qyy3g( s  ( 4 s(  s( @#TGm6 s s @#T"  @#fGm6 s  s s

H s uR

! s k w 6 k k k

s f

288

Funzioni di variabili casuali e teoremi limite

10.9.1 Limite della media aritmetica


Prendiamo variabili casuali i cui valori sono descritti da una distribuzione di probabilit` che sia la stessa per tutte le variabili. Si pu` pensare quindi ad a o un esperimento condotto volte sotto le stesse condizioni. Tale distribuzione ha valore atteso e deviazione standard . Interessiamoci alla media aritmetica

effettuata sui valori di che si vericheranno. Come abbiamo gi` visto, a anche e una variabile casuale, in quanto funzione di variabili casuali. ` Abbiamo gi` visto che a

Per quanto detto nel paragrafo 7.10 ci aspettiamo che al crescere di diminuisce la probabilit` di trovare valori di a molto distanti da . Ripetiamo il ragionamento, facendo uso della disuguaglianza di Cebicev, applicata alla variabile casuale (in realt` si pu` fare anche uso della forma esatta della a o distribuzione di probabilit` di a , che vedremo fra breve parlando del teorema del limite centrale):

Inserendo i valori di

si ottiene

Linterpretazioone di questa disuguaglianza e che, data una certa , ssato un ` certo livello di probabilit` a e un valore dello scarto piccoli a piacere, e sufciente effettuare un numero di prove corrispondentemente grande afn` che la probabilt` di osservare uno scarto assoluto maggiore di sia inferiore a al valore di probabilit` prescelto. a Facciamo un esempio numerico: prendiamo , il valore di probabilit` a dell1 % e uno scarto . Riformuliamo il problema: quante prove devo fare per essere sicuro al 99 % che non differir` per pi` di a u da ? Dalla 10.50 abbiamo che

Se scegliamo abbiamo bisogno di per avere lo stesso livello di sicurezza. Mantenendo , possiamo richiedere un livello di

c G. DAgostini 2001

~ yUH

yUt H H U ~s yU D D yH vt D yUHte&yUH ( W yt ' U yU H S Y ' H

( dPIH ' ( H ' #  vt & '   h  d ( H ' # h zx d h & '   h h h   o# h p d d  xt  #

H 

H h k k kj
E

H ~ yUot

(10.50)

10.9 Legge dei grandi numeri


sicurezza del 99.99 % che lo scarto sia contenuto entro , ma allora avremo bisogno di prove. E cos` via. Quindi, quando il numero di prove e ` grandissimo siamo praticamente sicuri di trovare prossimo a . Possiamo esprimere il risultato dicendo che

289

dove le virgolette stanno a ricordare che tale concetto e ben diverso dal limite ` di funzioni. In particolare, esso non garantisce che, pur effettuando un numero di prove arbitrariamente grande, ci sia la certezza di trovare entro da (anche se e relativamente grande, purch non superiore allintervallo di ` e denizione di ).

10.9.2 Teorema di Bernoulli


Riprendiamo quanto detto nel paragrafo 7.13. Considerando prove indipendenti, la previsione dellla frequenza relativa di successo, che per comodit` a chiamiamo (uguale a del paragrafo 7.13), abbiamo

Procedendo per analogia al caso precedente otteniamo: E

Linterpretazione di questa disuguaglianza, nota come teorema di Bernoulli, e ` analoga a quanto visto per : al crescere di diventa sempre meno probabile osservare valori di frequenze relative che differiscono molto da . Essendo questo uno dei teoremi pi` intriganti del calcolo delle probabilit` , u a merita una serie di osservazioni.

La formulazione va intesa in termini di probabilit` e non di certezza. a Il teorema non implica assolutamente che, se per un certo lo scarto e grande, allora per ` la frequanza relativa debba recuperare per mettersi in regola con la legge. (Nel seguito mostreremo, come esercizio, la fallacia dellinterpretazione della legge dei grandi numeri per aspettarsi che i numeri ritardatari al lotto recuperino.) Esso non giustica la denizione frequentista di probabilit` . Affera mando infatti che ` molto probabile che la frequenza non differisca e molto dalla probabilit` si sta assumendo il concetto di probabilit` . Inola a tre:

c G. DAgostini 2001

h

S h (' # S vpT h  & ' S  (H' '   H ## h xy# h  h  &

(10.51) (10.52)

(10.53)

S # s h  " H  S S g S # s h 8" H

 lmlkoBn h

# h   # h 

s yUH 9 t h

pS h 

290

Funzioni di variabili casuali e teoremi limite


Non si dimentichi che il teorema di Bernoulli . . . e un teorema, ` basato sulle regole di base dalla probabilit` e su tutte le propriet` a a che ne derivano. Quindi non pu` denire il concetto di probabilit` . o a Su tale argomento e molto convincente de Finetti ` Per quanti tendono a ricollegare il concetto stesso di probabilit` alla nozione di frequenza, tali risultati [che a tenda a ] vengono ad assumere un ruolo di cerniera per convalidare tale avvicinamento o identicazione di nozioni. Logicamente non si sfugge per o al dilemma che ` la stessa cosa non si pu` assumere prima per denizione o e poi dimostrare come teorema, n alla contraddizione di e una denizione che assumerebbe una cosa certa mentre il teorema afferma che e soltanto molto probabile. ` Si noti inoltre che la condizione di costante implica che essa sia pressata a priori e che anche le valutazioni sui possibili esiti di siano fatte prima di iniziare le prove (o in condizione di incertezza sul loro esito). Ci` nonostante, vedremo come la frequenza relativa di prove effettuate o possa essere utilizzata per valutare , ma questo e un problema in` ferenziale che centra poco con il teorema di Bernoulli (il quale ha a che vedere, per dirla alla buona, soltanto con affermazioni probabilistiche su frequenza relative future, o comunque ignote). Facciamo degli esempi pratici Lancio di una moneta Prima di lanciare una moneta regolare 1000 (o se so di qualcuno che lo sta facendo, o che lo abbia fatto, ma prima che conosca i risultati), la legge dei grandi numeri mi dice che io sono abbastanza sicuro di avere circa il 50% di teste; se i lanci saranno un 1 000 000 sono molto pi` sicuro dellaffermazione, u e cos` via. Il teorema di Bernoulli non dice niente di pi` ! u E se a met` dei 1000 lanci ho osservato 200 teste? Chiaramente si tratta a di un altro problema, di tipo inferenziale. Posso, ad esempio, soppesare la mia ducia sulla regolarit` della moneta con leccezionalit` dellosservazione a a sperimentale per riagggiornare la probabilit` che esca testa in ciascuno dei a prossimi lanci. Quindi si pu` far di nuovo uso della legge dei grandi numeri o per fare delle considerazioni sui prossimi 500 lanci. Sul recupero dei numeri ritardatari Assumiamo ora di avere un meccanismo di estrazione talmente simmetrico da non avere nessun dubbio sulla probabilit` di ciascuna estrazione (ad esempio a la ruota del lotto). Sia tale probabilit` (ad esempio 1/90 per il primo estratto a estrazioni e che dopo su una ruota). Immaginiamo di interessarci ad estrazioni ( ) la frequenza relativa sia diversa da (come in genere accade. . . ):

c G. DAgostini 2001

h

p 1S { o

h

xs

10.9 Legge dei grandi numeri


Cosa ci aspettiamo sul totale delle

291

- Quanto vale il valore atteso della frequenza relativa nelle restanti estrazioni e sul totale delle estrazioni?

Queste sono le considerazioni probabilisticamente corrette allistante prima di iniziare le estrazioni e allistante dopo che sono noti i risultati delle prime estrazioni:

con

La previsione della frequenza e la media pesata fra e la frequenza nei ` primi eventi. Lincertezza di previsione e massima allinizio (per ` ) e va a zero per , in quanto rimane poco su cui essere incerti. Lasciando al lettore tutte le conclusioni legate ai numeri ritardatari e le raccomandazioni ai perdendi che contano di rifarsi nelle partite successive, concludiamo con delle raccomandazioni. I ragionamenti probabilistici vanno effettuati quando si e in condizioni di incertezza. Si possono usare (vanno ` usate!) le informazioni sulle frequenze osservate per valutare le probabilit` a di altri eventi ignoti nei modi che saranno visti quando affronteremo in modo sistematico il problema dellinferenza statistica. Utilizzare argomentazioni probabilistiche su eventi noti non ha alcun senso. Utilizzare poi tali argomentazioni allo stesso tempo sia su eventi incerti che su eventi certi conduce ad una grossa confusione, una di questa e linterpretazione distorta del teorema di ` Bernoulli.

c G. DAgostini 2001

con certezza

4 s W$STH S # #p Y #S eT H S (  oo s   #  fS S ( (  4 4s oW  s o# p  { p (  S o# | o p #S eTH S # | po  p p o o# { o

B)

: il risultato e acquisito (certo!). Esso corrisponde a ` successi. Quindi:

p s oWs r

 x# p  #S $T (  H S p #S $TH S x# | o s p #S $TH S x# { o #p 1S % # | o x# { o p p

p #

U s s

{s)

a)

: siamo in stato di incertezza su ciascuno degli esiti. Ne segue che E E (10.54) (10.55) (10.56) (10.57)

- ci sar` un meccanismo di compensazione tale che a

r &

S p gqd

ys)

estrazioni da eseguire? ?

292

Funzioni di variabili casuali e teoremi limite

10.10 Teorema del limite centrale


Siamo ora giunti a quello che e il pi` importante teorema sulle distribuzioni di ` u probabilit` . a Nei paragra precedenti abbiamo imparato a valutare previsione e incertezza di previsione di combinazioni lineari di variabili casuali, indipendentemente dalla loro distribuzione. Ma per esprimere affermazioni probabilistiche su tali funzioni serve conoscere la distribuzione di probabilit` e questo e un problema a ` non banale (vedi paragra facoltativi 10.2 e 10.3). Comunque, lesperienza su distribuzioni tipiche (vedi paragrafo 7.10) ci insegna che in genere c` alta e probabilit` che in valore della variabile aleatoria cada entro alcune deviazioa ni standard dal valore atteso. Quando poi ci sono servite della considerazioni probabilistiche estreme, indipendentemente dalla distribuzione, abbiamo fatto uso della disuguaglianza di Cebicev. In realt` le combinazioni lineari tendono ad avere una distribuzione di a probabilit` universale, indipendentemente dalle distribuzioni di partenza, coa me consequenza del teorema del limite centrale, che formularemo fra breve. Siccome consideriamo assolutamente facoltativa la dimostrazione del teorema e molto pi` importante una sua modellizzazione e rappresentazione visiva, u cominciamo con degli esempi pratici. Abbiamo visto nel capitolo 6 come costruire una variabile casuale sulla somma degli esiti di due dadi. Mentre la distribuzione dellesito di un solo dado e uniforme, la distribuzione della somma mostra un addenzamento della ` probabili` al centro, ed un massimo in corrispondenza di a . La gura 6.2 mostra chiaramente lorigine del cambiamento di forma: ci sono molte combinazioni che possono dare valori centrali e poche che possono dare valori laterali. Se si somma la variabile due dadi con unaltra variabile indipendente legata ad un solo dado, di nuovo sar` molto probabile formare combinazioni a intorno al centro della distribuzione (vedi ad esempio gura 10.1). Anche partendo da una distribuzione continua uniforme si ha lo stesso effetto: la somma di due variabili d` luogo ad una distribuzione triangolare (chi a e interessato alla dimostrazione pu` consultare il paragrafo 10.3.3, ma anche ` o la sola gura 10.3 e autoesplicativa e mostra lanalogia con il lancio dei dadi). ` Osserviamo ora la gura 10.5. Essa mostra le distribuzioni simulate ottenute estraendo un certo numero di variabili casuali ( , 2, 3, 5, 10, 20 e 100) e sommandole fra di loro. Questo processo e ripetuto 10000 volte. Si ` ottiene quindi, per ciascun caso, una distribuzione statistica che somiglia alla corrispondente distribuzione di probabilit` 11 . Le distribuzioni di base sono a una uniforme fra 0 e 1 e una distribuzione strana uniforme fra 0 e 0.25, fra 0.75 e 1, nulla altrove. La distribuzione strana e particolarmente istrutti` va per capire leffetto di addensamento al centro della probabilit` dovuto alle a , si nota un triangolo combinazione dei diversi valori. Ad esempio, per centrale doppio di ciascuno dei triangoli laterali. Esso e dovuto alla probabilit` ` a che un valore grande di una variabile si combini con un valore grande dellaltra variabile.
Si ricorda che la previsione di una distribuzione statistica e uguale alla distribuzione di pro` babilit` , con una incertezza che decresce con il numero di estrazioni. Per luso delle simulazioni a per stimare distribuzioni di probabilit` si veda il paragrafo 10.5 a
11

H h

c v

c G. DAgostini 2001

10.10 Teorema del limite centrale

293

Figura 10.5: Teorema del limite centrale allopera. Le due gure in alto mostrano la distribuzione 10000 eventi generati secondo una distribuzione uniforme (sinistra) e una distribuzione a onda quadra, diversa da zero e costante negli intervalli fra 0 e 0.25 e fra 0.75 e 1. Successivamente (dallalto verso il basso) sono mostrate le somme di variabili casuali estratte dalle due distribuzioni. vale, nellordine, 1, 2, 3, 5, 10, 20 e 100. In alcuni casi sono anche mostrate le gaussiane aventi la stessa media e varianza delle distribuzioni e normalizzate a 10000 eventi.

c G. DAgostini 2001

294

Funzioni di variabili casuali e teoremi limite


Si nota che, al crescere dei termini della sommatoria, la distribuzione risultante ha una forma regolare a campana indipendentemente dalla forma iniziale. Si noti come le distribuzioni asintotiche ( ) sono centrate sullo stesso valore in entrambi i casi, mentre sono diverse le larghezze. Questa e con` sequenza che le due distribuzioni iniziali avessero stessa media, ma diversa deviazione standard (quella strana indica una previsione del quadrato degli scarti dalla media pi` grande dellaltro caso). La curva riportata sui vari istou grammi e una gaussiaana. Si vede come, da un certo in poi (diverso per i due ` casi!) la distribuzione e ben approssimata da una normale. ` Questo comportamento e dovuto al teorema del limite centrale: ` date variabili casuali indipendenti , anche descritte da distribuzioni di probabilita diverse (purch aventi valore medio e e ` varianza niti), al crescere di (nel limite di ) la combinazione lineare

ha distribuzione di probabilita normale di parametri `

purch sia e per ogni variabile

non distribuita normalmente.

Data limportanza del teorema, sono necessari alcuni chiarimenti sulle condizioni di validit` . a La condizione pu` essere espressa dicendo che nessun tero mine deve dominare le uttuazioni, altrimenti esso sar` determinante ai a ni della distribuzione.

La deroga a tale condizioni per le variabili distribuite normalmente e ` dovuto al fatto che le combinazioni lineari di gaussiane sono sempre gaussiane indipendentemente dal loro numero e dai valori di . Non c` invece nessuna condizione sul valori attesi, in quanto questo teoe rema descrive le uttuazioni, mentre le posizioni possono essere variate a piacere (purch i valori siano niti, naturalmente). e Il teorema non dice da quale valore di lapprossimazione e valida. Di` pende dal tipo di distribuzione. Dalla gura 10.5 si vede che, a partire da distribuzioni uniformi di larghezza confrontabile, gi` per a o 5 lapprossimazione e ragionevole. Partendo da una distribuzione triangolare ` (equivalente a 2 uniformi) sono sufcienti gi` 2 o 3 termini. In effeta ti per i casi pratici, con distribuzioni piccate al centro la convergenza e ` rapidissima.

c G. DAgostini 2001

3r

U FyUH  k

(  ( ( k r sk k (e R w ( f ( e k k k k w r kk s l v6 k k h kj

( ( ( e e

rk k

` ` ` `

10.10 Teorema del limite centrale

295

10.10.1 Distribuzione della media aritmetica

Diamo qui una prima applicazione del teorema alla distribuzione della media ` aritmetica. La variabile casuale media aritmetica e pari, a meno di un fattore di proporzionalit` , ad una sommatoria e quindi, al crescere del numero a di osservazioni sulle quali essa e effettuata, sar` descritta sempre meglio da ` a normale: (10.58)

10.10.2 Convergenza in distribuzione della binomiale e della poissoniana


Sia la binomiale che la poissoniana godono della propriet` riproduttiva. Quea sta propriet` permette di pensare una distribuzione caratterizzata da un valore a medio elevato come una somma di tante variabili casuali provenienti dallo stesso tipo di distribuzione ma caratterizzate da valori medi pi` piccoli. Siccome u per il teorema del limite centrale una somma di variabili casuali tende ad una distribuzione normale, la distribuzione binomiale e quella di Poisson tendono alla distribuzione normale al crescere, rispettivamente, di e di : distribuzione binomiale: per valori di e di abbastanza grandi la distribuzione binomiale tende ad una distribuzione normale di e ; distribuzione di Poisson: per valori di abbastanza grandi la distribuzione di Poisson tende ad una distribuzione normale di e .

La condizione di valore abbastanza grande dipende dal grado di accuratezza con cui si vuole calcolare la probabilit` . Per la maggior parte delle a applicazioni che si incontrano nella trattazione degli errori e per la determinazione degli intervalli di ducia la condizione e soddisfatta per valori di , ` e maggiori di 10-15. Bisogna precisare cosa si intende per limite di una distribuzione discreta a una distribuzione continua. Infatti in un caso la funzione di distribuzione ha il signicato di una probabilit` e nellaltro di una densit` di probabilit` . Il limite a a a va allora inteso per la funzione di ripartizione:

c G. DAgostini 2001

z S

S z3r

yUvu H t S z
|

 e8c W  oh n !  H (C s 3 X # k "!&% lmlkB

| o5| ( vw

# I  W R "d

S z

H  U r yHvf

QwS 

 

` ` ` 

Per non dare lillusione che la convergenza a normale sia sempre rapida, facciamo un controesempio notevole. Per la propriet` riproduttiva dela la poissoniana, la somma di poissoniane indipendenti danno ancora luogo ad una poissoniana. Quindi, sotto certe condizioni, essa tender` a a normale (vedi paragrafo successivo). Se per` consideriamo un miliardo o di variabili, ciascuna avente la distribuzione nale sar` ancoa , ben diversa da una normale! (In questo caso ra poissoniana con particolare la convergenza a normale si ha per .)

296

Funzioni di variabili casuali e teoremi limite

Figura 10.6: Approssimazione normale della distribuzione di Poisson.

dove lintegrale e stato esteso no a ` per tener conto della natura discreta della variabile casuale. Otteniamo quindi per la probabilit` di un a determinato valore della variabile casuale:

dove abbiamo utilizzato il fatto per le distribuzioni discrete di interesse. A volte, se si e interessati alla probabilit` di un solo valore , lintegrale ` a viene ignorato e la distribuzione normale viene utilizzata come se fosse una distribuzione discreta. Questo deriva dallapprossimazione

essendo

! k H 8s !  (C k ! v e8c ( s 3 X | o5w | ( H C s X #P#| "!& # "!&m% lmlkoBn h H % 


|

 v| 5w| ( e8H c | o X  ! t v| 5w| ( e8H c | e8 c X C s X o ( 3 !  o5wv| | ( H (C s X x# k "! 

c dPIH 4 !

! k  !  o# "! p # "&

H ! Tt

c G. DAgostini 2001

10.11 Estensione del teorema del limite centrale a variabili non indipendenti

297

Distribuzione normale (di Gauss) N( )

"" ""

""

Distribuzione binomiale B

"" "0" finito

Distribuzione di Poisson P

Figura 10.7: Propriet` asintotiche della distribuzione binomiale e di quella di a


Poisson.

10.11 Estensione del teorema del limite centrale a variabili non indipendenti
considerare anche i termini di covarianza e possibile pensare ad una trasformazione di variabili linare tali che porti il ` nuovo insieme di variabili sia indipendenti e la varianza di e uguale a quella ` delle variabili originali calcolata anche con i termini di covarianza.

10.12 c Simulazione di numeri aleatori distribuiti secondo una distribuzione normale


Abbiamo visto nel paragrafo 8.3 alcune tecniche per simulare numeri aleatori. Vediamone unaltra, di semplice implementazione che permette di generare dei numeri secondo una distribuzione normale. Consideriamo, come al solito in questi casi, la variabile distribuita uniformemente fra 0 e 1. Consideriamo 12 variabili indipendenti e costruiamo la nuova variabile casuale

di valore atteso e varianza pari a E Var

Var

c G. DAgostini 2001

p YcH H # H YcHG# 2 YcH v" U31pk # 2 YcH xt" 4 # k s l h 4 2 k ( s kj

(10.59) (10.60)

298

Funzioni di variabili casuali e teoremi limite


Quindi, poich come abbiamo visto, a partire da distribuzioni uniformi simili e la convergenza e molto rapida, per il teorema del limite centrale `

Per ottenere qualsiasi altra distribuzione normale ciente effettuare la trasformazione

di parametri

Un esempio di istogramma ottenuto con questo metodo e mostrato in gura ` 10.4 per e . Si noti come, ovviamente, la tecnica non riproduce bene il comportamento delle code estreme, ma la si pu` migliorare aumentando il numero di termini o della somma (e modicando opportunamente le formule).

che sia abbastanza lineare nellintorno del valore atteso di ciascuna delle (ovvero ) ove si addensa il grosso della probabilit` (ovvero entro qualche a da ) allora, espandendo in serie di Taylor otteniamo

ove le derivate si intendono calcolate per . Il secondo modo di scrivere lespansione, in cui sono stati inglobati in tutti i termini non dipendenti da , mostra chiaramente che la e una combinazione lineare delle ` con coefcienti pari alle derivate calcolate nella previsione del vettore aleatorio . Si possono applicare quindi a questa combinazione lineare ed ad altre combinazioni lineari costruite sulle tutti i teoremi incontrati in questo capitolo. In particolare, abbiamo: la previsione di sioni delle : e circa uguale alla funzione ` E calcolata sulle previ(10.63)

come si pu` valutare rapidamente dalla (10.61) tenendo conto che E o ;

c G. DAgostini 2001

 kk h (s

Una conseguenza importante delle propriet` della combinazione lineare e del a , ,. . . teorema del limite centrale e la seguente: se si hanno delle variabili ` e una variabile funzione arbitraria di esse, ovvero

"

W# h Pyyy ( Yp"Tvm6 s  6 # 6 6 k 6  ' k k 6 j 1' 4 k k # t " 6 k g# h k Pyyy ( Yp"6 4 s k k k j 6

# h Pyyy ( YT"p6 s 6

b h yyy ( PTYa s

U  #

10.13

Linearizzazione


e

4  g8}u6

 WP#YHzmUd

e suf`

c H p yUur

k k k `

(10.61) (10.62)

10.14

la quale si riduce, in caso di variabili

la distribuzione di e circa normale in virt` del teorema del limite ` u centrale e se sono valide le condizioni generali; nel caso di tante combinazioni lineari fra le varie sono date da

Cov

Facciamo subito un esempio di come sia possibile applicare le propriet` delle a combinazioni lineari e della linearizzazione alle incertezze di misure. Anche se non e stato ancora affrontato il discorso dellinferenza statistica e di come ` si valutino le incertezze delle misure dirette e le correlazioni introdotte da possibili errori sistematici di entit` incerta, supponiamo che siano stati misurati i a due lati di un rettangolo e che i risultati siano presentati in termini di previsione e di incertezza di previsione:

Ripetendo quanto detto al momento di introdurre previsione e incertezza e incertezza di previsione: E cm rappresenta il valore intorno al quale riteniamo che, ragionevolmente, si trovi ; cm indica la dispersione dei valori che possono essere assunti da intorno ad E . Immaginiamo di essere interessati ora alle seguenti grandezze derivate da e : perimetro ( ); somma di lati ( ); differenza dei lati ( ); area del rettangolo ( ). Supponiamo inoltre i due casi: a) le misure di e sono assolutamente indipendenti, per cui ; b) parziale correlazione, con ; c) correlazione totale (positiva), con . Si riconoscono in , e correlazioni lineari di e , mentre il caso dellarea e non lineare e va linearizzato. Riportiamo nel seguito i risultati ` dettagliati per , e nei tre casi di correlazione considerati. Innanzitutto, le previsioni di , e non dipendono da e valgono E E E E E E E E E (10.67) (10.68) (10.69)

# # Wy# m y}m y# pm xzm # # y# gm od`x 4# # |#Wm  x x  x S H Gy#Wm zy#Wm U Uuy#m p4 x up ppS p c 4c #m UzUm  qqFoxm # H c # UzF dzc U  H U  H UzuqqFc

c G. DAgostini 2001

10.14

Esempio di applicazione alle incertezze di misure

t  t z6 W6 t w6m6 #  k k jk #w6 # ( 6 #Pp6  s

g (  W 6 &U (V  k ( k t t 6k k 6 (V 
, cm cm

fra loro indipendenti a (10.65)

la varianza di

$6

Esempio di applicazione alle incertezze di misure


e pari a `

299

` ` `

(10.64)

, ...

le covarianze

(10.66)

y#qzmqy#Wm # 

300

ove, di nuovo, sta a ricordare che il risultato e basato sulla linearizza` zione. Inserendo i valori e dividendo per le deviazione standard, otteniamo direttamente i coefcienti di correlazione in funzione di :

y#m

H p|#Wm zy#Wm U U y#Wm UdG|#Wm H zUG|#Wm UG|#Wm y#Wm |

U FUz U U U # d54DHz }m FFFzU FFzU Hf # qFzU v7`x U vq7`x #

Wy#qzmqy#Wm y#}4$P#1pg4$P#4r #   H  4#  H 4 #  H  4#   H # R|# ( qz4$P#1pgm ( qy#}4$P#4 {}m y#qzmqy#Wm y#}4$P#4pg4$P#4r #   H  4#  H 4 #  H  4#   H # R|# ( qz4$P#4pgm ( qy#}4$P#4 z}`x y#q#zmqy#Wm P#4$P#4pRP#1$P#4r94   H  H  4 H  H 4  H  H  4#  H  H # gy# ( qP# $P#4wgzm ( qP#4$P#4 vq7`x

 x @|#Wm H z|#Wm U Q|#Wm U @Gy#Wm H zpy#m U Qy#m U @uy#m H zpy#m U Qy#m U

dpqeF4 H  4 dpqeF4 H  4 DHdpqeF4 ( H  4 I U  H 9YDHdz U  H Uz9YDHdz U  H dUzYDHdz q I 4 Uz9YDdz U  H H Uz9YDHdz U  H U  H dUzYDHdz QIx
cm cm cm

# zm (  vqm (  # vQ#`x ( 

  c 4 4# W#|q#mqy#m upgy# (  ( ggm (  ( #yqzm qy#Wm c |# ( 9gzm (  #   4# #yqzmqy#Wm 9R|# ( 9gzm (  #  c 4  4# y#m
e pari a `

Si noti:

Troviamo inne i coefcienti di correlazione fra , e , come applicazione di quanto visto nel paragrafo 10.8. Utilizzando la formula (10.45), svolgendo in dettaglio il primo passaggio, otteniamo

Si noti il simbolo al posto di nel caso di , per ricordare che si tratta di un risultato approssimato basato sulla linearizzazione. I risultati numerici sono:

Per quanto riguarda le varianze, ricordando che Cov abbiamo

Cov

Cov

Cov

Funzioni di variabili casuali e teoremi limite

c G. DAgostini 2001

(10.70) (10.71) (10.72) ,

10.15

il coefciente di correlazione fra e e nullo per puro accidente, dovuto ` alluguaglianza di e );

per calcolare i coefcienti di correlazione per valori molto prossimi ad 1, bisogna utilizzare molte cifre signicative nel calcoli, altrimenti si possono ottenere risultati assurdi ( ) a causa degli arrotondamenti; quando le funzioni diventano complicate non e facile farsi unidea intui` tiva del grado di correlazione e addirittura nemmeno del suo segno.

Concludiamo questo capitolo con delle interessanti applicazioni del teorema del limite centrale. Nel 1905 Albert Einstein pubblic` un articolo dal titolo Il moto delle paro ticelle in sospensione nei uidi in quiete, come previsto dalla teoria cineticomolecolare del calore. In esso diede una spiegazione in termini di teoria cinetica dei gas del moto browniano, osservato per primo dal biologo Robert Brown nel 1828 durante lo studio del comportamento di polline in soluzione ` acquosa. E molto interessante leggere linizio dellarticolo 12 :
In questo lavoro faremo vedere come, secondo la teoria cinetico-molecolare del calore, particelle in sospensione in una soluzione compiano, in consequenza del moto termico delle molecole, movimenti di ampiezza tale che li si pu` agevolmente osservare al microscopio, purch , beninteso, la dio e mensione delle particelle stesse sia accessibile allo strumento. Pu` darsi o che i moti che qui saranno considerati coincidano con il cosiddetto moto molecolare browniano; tuttavia i dati che ho potuto ottenere su questultimo sono cos` imprecisi che non mi e stato possibile formulare alcun ` giudizio in merito. Se il moto in questione si potr` effettivamente osservare, con tutte le a regolarit` che per esso si possono attendere, la termodinamica classica a non sar` pi` da considerare esattamente valida gi` per spazi microscoa u a picamente distinguibili, e quindi una determinazione esatta della vera grandezza degli atomi sar` possibile. Se viceversa la nostra previsioa ne si dimostrasse inesatta, ci` fornirebbe un serio argomento contro la o concezione cinetico-molecolare del calore.

Il moto browniano viene quindi interpretato come una conseguenza del moto disordinato delle particelle a seguito degli urti che ricevono dalle molecole sottoposte ad agitazione termica. Nella trattazione ogni particella viene considerata indipendentemente dalle altre. Il risultato di Einstein fu - prendendo per semplicit` il caso unidimensionale - che dopo un certo intervallo di tempo a la distribuzione di probabilit` delle distanze dalla posizione iniziale a per e una gaussiana centrata in ` la cui varianza e funzione `
12

Albert Einstein, Opere scelte, Bollati Boringhieri editore, Torino 1988, pag. 136

c G. DAgostini 2001

U ) w

#U 7")

10.15

Moto browniano, pallinometro ed errori di misura

H ` wi

 #  x |# zm

Moto browniano, pallinometro ed errori di misura

301

` ` `

302
lineare del tempo:

Funzioni di variabili casuali e teoremi limite

dove e il coefciente di diffusione. Commenta Einstein (si noti il come ci si ` poteva attendere).

La distribuzione di frequenza delle variazioni di posizione avvenute in un tempo t arbitrario coincide dunque con quella degli errori casuali, come ci si poteva attendere.

Ci possiamo ricavare lo stesso risultato seguendo un approccio basato sul cosiddetto moto casuale: schematizziamo il moto browniano come un moto casuale di una pedina che, partendo allistante iniziale dalla posizione iniziale , ad ogni mossa possa avanzare o retrocedere di un passo con uguali probabilit` . E esattamente quello che si verica nella classica esperienza del a ` quinconce di Galton13 Ad ogni chiodo la pallina pu` andare a destra o a o sinistra con la stessa probabilit` . Il numero di mosse corrisponde alle le di a chiodi che la pallina incontra e la posizione e quella in corrispondenza ` del primo chiodo che su cui cade la pallina. Per utilizzare la stessa notazione del paragrafo 2.9 della seconda parte di queste dispense consideriamo degli intervalli di tempo di durata sufcientemente pi` grande del tempo tipico di interazione, tale tale che i versi di spou stamenti successivi osservabili dopo intervalli siano fra di loro indipendenti. Assumiamo inoltre, per semplicare il problema, che gli spostamenti siano costanti in modulo ( ). Quindi siamo interessati al dopo il tempo calcolo dei numeri di passi orientati lungo la direzione dellasse , ciascuno di lunghezza (vedi gura 10.8). Dopo ogni intervallo -mo pu` o valere, +1 o -1, con pari probabilit` . Ne segue che a

E Var

13 ` E quello che gli studenti romani chiamano familiarmente Pallinometro, composto da una tavola con chiodi disposti a quinconce fra i quali scende un pallina. Per averne unidea, si immagini di ruotare la gura 10.8 di 90 gradi in senso orario, immaginando i puntini come chiodi e il punto 0 il punto di immisione della pallina.

X ~6t

 #") W(( ! pc
t

U w

pH v#X ~ U v#X ~

vc v#") )}  ) ! id #"18c H x#)Rt 


~

(10.73) (10.74)

c G. DAgostini 2001

10.15

Quindi, essendo gli spostamenti successivi indipendenti, abbiamo che

E Var E Var

Passando alla variabile in funzione del tempo, dobbiamo soltanto sostituire nelle formule precedenti, ottenendo E Var

c G. DAgostini 2001

X l ~ k j t h h

  ) t t Y ##")g" ) t t ##")"  U ##")g" 

X sl ~ kj h ~ h

t x# h " U x# h " x# h ~ U x# h ~

#") 

8I3r t )

Moto browniano, pallinometro ed errori di misura

303

"t" = n " t"


Figura 10.8: Cammino casuale su una sola dimensione.

(10.75) (10.76) (10.77)

(10.78) (10.79) (10.80)

304

Funzioni di variabili casuali e teoremi limite


Applicando inoltre il teorema del limite centrale, otteniamo nalmente che

ove , pari a e che ha un signicato analogo a quello del coefciente di diffusione (il fattore 2 rispeto alla (10.74) dipende dallesatta denizione di ). A questo punto vale la pena di sottolineare la relazione fra teorema del limite centrale, moto browniano e distribuzione degli errori casuali di misura. Il risultato di ogni singola misura pu` essere pensato come dovuto a tanti o piccoli contributi incoerenti e non controllabili dallo sperimentatore, ognuno dei quali tende a modicare il risultato, in modo del tutto casuale, in un verso o nellaltro. Si pensi ad esempio a vibrazioni, attriti, variazioni termiche, rumore elettronico etc. I vari contributi modicano il valore ideale della grandezza da misurare, il quale viene a compiere una specie di moto browniano in uno spazio astratto. In virt` di questa variazione casuale della grandezza u sica, la singola misura di uno strumento ha la tendenza ad avere errori di tipo normale. In genere essa viene mediata con altri risultati. Inne i risultati delle misure di pi` grandezze possono venire combinati per ottenere, attraverso reu lazioni funzionali, altre grandezze siche. Si comprende quindi il motivo per il quale allaumentare del numero di passaggi gli errori tendono sempre pi` ad u assumere una distribuzione normale.

10.16 c Distribuzione di velocit` delle molecole di un a gas perfetto


Come altro esempio di applicazione della distribuzione normale, ricaviamo la distribuzione di velocit` di un gas perfetto, a partire da un moto browniano a nello spazio dei momenti. Supponiamo di avere una molecola inizialmente immobile in un recipiente pieno di gas e consideriamo la componente lungo lasse della velocit` . a se supponiamo che ad ogni urto la particella acquisti una certa velocit` a possiamo immaginare di ottenere un moto browniano in la cui soluzione sar` , come abbiamo visto, una gaussiana di media nulla e a varianza ; non pu` andare allinnito. Superata una certa velocit` media o a ( in modulo ) la probabilit` che la molecola perda energia e maggiore a ` di quella che ne acquisti. La condizione di equilibrio termodinamico e che, passato un tempo sufcientemente grande, tutte le molecole so` no descritte dalla stessa distribuzione di probabilit` delle velocit` , e in a a particolare:

dove e la velocit` quadratica media che si ottiene dalla teoria cinetica ` a dei gas:

c G. DAgostini 2001

( #") (  lmknB 0

# zmUd#")g )   ' (

#") ( 

tI 8t

#") e ` (

t 

10.16 c Distribuzione di velocit` delle molecole di un gas perfetto a


Il risultato e: `

305

d d` la probabilit` di trovare la molecola con velocit` compresa fra a a a e d . Essendo i movimenti della molecola sui tre assi indipendenti luno dallaltro otteniamo che la probabilit` congiunta e pari al prodotto delle a ` probabilit` : a d d d

Negli ultimi passaggi siamo passati al modulo delle velocit` attraverso d d d a d (passaggio da coordinate cartesiane a coordinate polari). Abbiamo cos` riottenuto in un modo euristico la distribuzione di Maxwell delle velocit` , a vericando in tal modo che ciascuna delle componenti della velocit` ha una a distribuzione di probabilit` normale. La Fig. 10.9 mostra le distribuzioni di a probabilit` del modulo della velocit` e di una delle sua componenti per alcune a a molecole a temperatura ambiente.

c G. DAgostini 2001

W ( ' id 1i' 8c 3WU ' | ( qic vd | 1i' 8c ( ' ' c vd 18c ( ( qi | i ' quic vd | i' 8c ( ' # ( d4 ( u4 c ( Si vd | i' 8c    # S z# S z# S 

d d d

d d d d

' (qic vd  c vd ( ( c id (

8c ' i  8c H ( c

v# S  x#zS  # S 

(10.81)

# S 

# 4 S   (

d d d

306

Funzioni di variabili casuali e teoremi limite

Figura 10.9: Distribuzione di velocit` delle molecole di un gas perfetto a

c G. DAgostini 2001

10.17 Problemi

307

10.17 Problemi
1. Una variabile casuale segue una distribuzione uniforme nellintervallo da 0 a 1. Dodici realizzazioni della variabile casuale sono sommate fra di loro e il risultato viene diminuito di 6. Calcolare la probabilit` che questa nuova variabile cada a nellintervallo compreso fra -1 e 1. 2. Un campione contiene 300 realizzazioni di una variabile casuale, ciascuna delle quali segue una distribuzione uniforme di parametri e . Quanto vale la probabilit` che la media aritmea tica dei 300 valori sia maggiore di 0.55 ? 3. In un autogrill sullautostrada si fermano in media fra le 12:00 e le 13:00 85 auto. Supponendo che il numero di macchine segua una distribuzione di Poisson, quanto vale la probabilit` che un giorno a se ne fermino 100 o pi` ? u 4. Si lancia 1500 volte un dado. Quanto vale la probabilt` che il sei si verichi esattamente 250 a volte? 5. Una moneta viene lanciata rispettivamente 10, 100, 1000 e 10000 volte. Calcolare la probabilit` che a loccorrenza dellevento Testa sia maggiore o uguale rispettivamente di 6, 60, 600 e 6000. 6. Si ritiene che due campioni di risultati sperimentali indipendenti siano descritti da distribuzione di valore medio e deviazione standard . Quanto vale la probabilit` che le due medie a differiscano fra di loro pi` di u ? 7. Le variabili casuali , con , seguono una distribuzione normale di parametri e ; le variabili casuali , con , seguono una distribuzione normale di parametri e ; le variabili casuali , con , seguono una distribuzione uniforme nellintervallo [-10, -2]. Denendo la variabile , quanto vale la probabilit` che sia minore di 9900? a , con , se8. Le variabili casuali guono una distribuzione normale di parametri e ; le variabili casuali , con , seguono una distribuzione normale di parametri e ; la variabile casuale segue una distribuzione uniforme nellintervallo [-100, 100]. Denendo la variabile , quanto vale la probabilit` che a sia maggiore di -150? 9. Sul problema 31(**check**) del capitolo 7: quanto vale la probabilit` di ottenere una frequenza rea lativa minore di 0.6 o maggiore di 0.6? Che senso ha tale dimostrazione?

c G. DAgostini 2001

F H P 5""e" F P

W % I9z " 8 " """FHP 5""" FH P % 5d h e F

y 

H  z

" IT "" y y z "" " $

308

Funzioni di variabili casuali e teoremi limite

c G. DAgostini 2001

U U
e

RR g  U { f {{ og U { { { R RR | g { | g P } { P P } r W U XWuV fd Y P}  PG U r U FUU U Wrr r

j    P r U P P U   g5 Wl Ui i { g y { r { Y { 5gli U || 5Wi U  U U y S gl i W@i r  o f f  | g U Y % 5 Y yh5gl g @ { f o g j  { g | g Y g | r  ug 5 tr  Y


Per esempio per (disuguaglianza di Cebicev). volte (distribuzione di Pascal con ; , con ; : . si ottiene , : 0.114,0.514, 0.343, 0.29 . . , contro . , = . invece di . e !). ). ; no.

Capitolo 8

24.

30.

27. No:

29.

26.

25.

23. Essendoci molecole in 24.4 litri, la previsione e pari a ` molecole. Lincertezza di previsione dovuta alla natura aleatoria del fenomeno e pari a ` , con una incertezza relativa di previsione di . Chiaramente diventano dominanti le incertezze dovute alla temperatura, pressione e determinazione del volume. , (numero medio di molecole nel volumetto) deve essere Afnch e m = , ovvero un cubettino di lato pari a 2.3 . Ne segue pari a 4.5 nm, il quale potrebbe contenere oggetti di 0.1 nm (tipiche dimensioni atomiche).

22. E

28. 0. (Non confondere con

1.

Y| }r % r h Pi} r U % r r
non pu` essere decrescente! o

11.

10.

3. E

9.

8.

6. 0.30854; 0.09185; 0.69146; 0.34134; 0.47725; 0.9973.

5.

2.

7.

4.

E Come mai

;E

; Var ?

Var

= 1.

s.

| g o

Capitolo 9

12. Dati del problema: s; ; nucleoni in 70 kg: . Ne segue: s . Il fatto che non ci autodistruggiamo per radioattivit` a indica che la vita media dei nucleoni e molto maggiore dellet` dellUniverso. ` a

1. Per entrambe

2. 7.0 (e non 6.1).

gX

W p p XX W X XX hXX

E ; Var ; Var . Var ;

c G. DAgostini 2001

3. E E

; Cov .

della formula esatta.

389

390 Capitolo 10
1. E 2. 3. 4.

5. 0.377, 0.029 , ; calcolabile con luso delle usuali tabelle. 6. 7. 8.

Capitolo 11
1. e la soluzione e: .... `

Capitolo 12
1. e la soluzione e: .... `

Capitolo 13
1. e la soluzione e: .... `

 { g"R r g y Y Plx U Y r Wr W }


; Var ; : . . . .

e talmente piccola che non e ` `

U Pf

c G. DAgostini 2001