Gli indici di posizione (o anche indicatori di posizione, o indici di tendenza centrale o misure di tendenza centrale), in statistica, danno un'idea approssimata dell'ordine di grandezza (la posizione sulla scala dei numeri, appunto) dei valori esistenti. Sono indici di posizione:
media, comprese la media aritmetica, media geometrica e media armonica mediana, quartile, quantile (o percentile) moda
Un modo per rappresentare graficamente alcuni indici di posizione il box-plot.
Indice di dispersione
Un indice di dispersione (o indicatore di dispersione o indice di variabilit o indice di variazione) serve per descrivere sinteticamente una distribuzione statistica quantitativa, e in modo particolare la misura con la quale i suoi valori sono distanti da un valore centrale (identificato con un indice di posizione, solitamente media o mediana). Sono indicatori di dispersione:
campo o intervallo di variazione scarto medio assoluto varianza, deviazione standard, coefficiente di variazione e Median absolute deviation scarto interquartile indice di dispersione di Poisson
Moda (statistica)
Una funzione di distribuzione con evidenziate la moda, la mediana e la media In statistica, la moda o norma della distribuzione di frequenza X la modalit (o la classe di modalit) caratterizzata dalla massima frequenza e viene spesso rappresentata con la simbologia 0. In altre parole, il valore che compare pi frequentemente. Una distribuzione unimodale se ammette un solo valore modale, bimodale se ne ammette due (ossia: se esistono due valori che compaiono entrambi con la frequenza massima nella data distribuzione), trimodale se ne ha tre, ecc. Per la determinazione della classe modale opportuno ricorrere all'istogramma, individuando l'intervallo di altezza massima, ovvero il punto di massimo della curva). La classe con la maggiore densit media (che corrisponde all'altezza dell'istogramma) quella modale.
Nella gaussiana i tre valori coincidono Nel caso particolare della distribuzione normale, detta anche Gaussiana, la moda coincide con la media e la mediana. Indicando con n(xi,xi + 1) il numero di elementi che cadono nella classe (xi,xi + 1), l'altezza h(i,i + 1) sar data da:
L'utilit della moda risiede nell'essere l'unico degli indici di tendenza centrale a poter descrivere caratteri qualitativi.
VARIANZA(statistica)
La varianza una misura di variabilit di una distribuzione. Cerchiamo allora, con calma, di capire innanzitutto cosa significa "variabilit". Immaginiamo che tu e un tuo amico confrontiate la vostra media dei voti all'universit e scopriate di avere entrambi la stessa media: 25. Confrontando per i voti sul libretto, vi rendete conto di una cosa: che i tuoi voti sono: 18, 22, 23, 25, 25, 26, 26, 27, 28, 30 (media = 25) mentre quelli del tuo amico sono: 25, 25, 25, 25, 25, 25, 25, 25, 25, 25 (media = 25) Noti qualche differenza? Sebbene la vostra media sia identica, le vostre situazioni sono molto diverse! La distribuzione dei suoi voti ha variabilit NULLA, mentre la distribuzione dei tuoi voti ha una variabilit pi alta! In sostanza, la variabilit di un fenomeno possiamo definirla come l'attitudine di quel fenomeno ad assumere modalit DIVERSE. Ora, la variabilit di un fenomeno, pu essere misurata in modi diversi, e in Statistica esistono diversi indici per misurare la variabilit. Uno dei pi famosi la VARIANZA, che basato su questa logica. L' obiettivo quello di misurare la variabilit, cio vedere quanta "diversit" c' tra le modalit (= manifestazioni concrete) del fenomeno che stiamo studiando. Un modo di procedere, allora, potrebbe essere questo: confrontare ogni modalit con la media (in termini di differenza, ovviamente), ELEVANDO AL QUADRATO TALI DIFFERENZE, e sommando tutte queste differenze al quadrato, in modo tale da avere una misura di sintesi che mi dica quanto le modalit sono diverse tra loro. POI, DIVIDO PER N, CIOE' PER IL NUMERO DI MODALITA'. Ad esempio, nel caso del tuo amico, se io calcolo: ( (25-25)^2 + (25-25)^2+ ... + (25-25)^2 )/10 = 0 ottengo una varianza pari a zero, e infatti la variabilit nulla! Invece, per la distribuzione dei tuoi voti: ( (18-25)^2 + (22-25)^2 + ... + (28-25)^2 + (30-25)^2 )/10= 11,33 la varianza pari a 11,33. N.B: perch eleviamo al quadrato tutte le differenze, che in Statistica vengono chiamate "scarti"? Beh, prova a fare la
somma delle differenze (= scarti ) senza elevarle al quadrato, e vedrai ke il risultato sar sempre zero... :) Il motivo? Risiede nelle propriet della media aritmetica: la somma degli scarti dalla media sempre zero. N.B.2 = proprio perch somma di quantit al quadrato (non negative), la varianza sempre maggiore o uguale a zero, E NON PUO' MAI ESSERE NEGATIVA!
In teoria della probabilit e in statistica la varianza di una variabile aleatoria X (e della distribuzione di probabilit che questa segue) un numero, indicato con Var(X), che fornisce una misura di quanto siano vari i valori assunti dalla variabile, ovvero di quanto si discostino dalla media E[X].
Definizione La varianza di X definita come il valore atteso del quadrato della variabile aleatoria centrata Y=X-E[X]
In statistica viene spesso preferita la radice quadrata della varianza di X, lo scarto tipo (o scarto quadratico medio) indicato con la lettera . Per questo motivo talvolta la varianza viene indicata con 2. Un esempio di "misura" dello scostamento di una variabile aleatoria dalla media dato dal teorema di ebyv che controlla questo scostamento in termini dello scarto tipo:
Varianza -Propriet
La varianza di una variabile aleatoria non mai negativa, ed zero solamente quando la variabile assume quasi certamente un solo valore, P(X=x)=1. Una formula alternativa per la varianza
Questa formula a volte pi pratica per calcolare la varianza. Dimostrazione La varianza di X per definizione pari al valore atteso di : per la linearit del valore atteso si ottiene
Varianza -Linearit
La varianza invariante per traslazione, che lascia fisse le distanze dalla media, e cambia quadraticamente per riscalamento:
Dimostrazione
Sfruttando la linearit del valore atteso si trova , quindi . La varianza della somma di due variabili indipendenti pari alla somma delle loro varianze
Dimostrazione Se , allora e
Nel caso generale basta traslare le variabili di modo che abbiano valore atteso nullo (come loro varianza non cambia. Se X e Y non sono indipendenti, la formula viene corretta dalla loro covarianza, , dove
La varianza di una variabile aleatoria continua X a valori in un insieme S si calcola attraverso la sua densit di probabilit:
Varianza -Statistica
In statistica viene utilizzata pi spesso della varianza la sua radice quadrata, vale a dire lo scarto quadratico medio anche detto deviazione standard. Con riferimento a questa notazione la varianza si trova quindi anche indicata come 2. Stimatori In statistica si utilizzano solitamente due stimatori per la varianza su un campione di cardinalit n:
Lo stimatore Sn-1 privo di bias, ovvero il suo valore atteso proprio la varianza Al contrario, lo stimatore Sn ha un valore atteso diverso dalla varianza,
Una giustificazione del termine n-1 data dalla necessit di stimare anche la media. Se la media nota, lo stimatore Sn diventa corretto. Se le Xi seguono la legge normale N(,), lo stimatore S2n-1 segue una legge del 2 Varianza osservata Come per gli stimatori, esistono due diverse varianze osservate sui dati di un campione osservata , di media
In particolare, sn la media quadratica delle distanze dei valori dalla loro media.
Varianza -Esempi
Una variabile aleatoria X di legge di Bernoulli B(p), ovvero che ha probabilit p di fornire "1" e probabilit q=1-p di fornire "0", ha valore medio E[X] = 0P(X = 0) + 1P(X = 1) = P(X = 1) = p; la sua varianza pu essere calcolata come
oppure come
e .
Covarianza
In teoria della probabilit la covarianza di due variabili aleatorie un numero Cov(X,Y) che fornisce una misura di quanto le due varino assieme, ovvero della loro dipendenza.
Definizione
La covarianza di due variabili aleatorie X e Y il valore atteso dei prodotti delle loro distanze dalla media: . La covarianza di X e Y pu anche essere espressa come la differenza tra il valore atteso del loro prodotto e il prodotto dei loro valori attesi: . Infatti per la linearit del valore atteso risulta
Covarianza -Propriet
La covarianza rispetta le seguenti propriet, per variabili aleatorie X, Y e Z, e costanti a e b: Due variabili aleatorie indipendenti hanno covarianza nulla, poich dalla loro indipendenza segue
Due variabili aleatorie che hanno covarianza nulla sono non correlate. Due variabili aleatorie dipendenti possono essere non correlate. Ad esempio, se X una variabile aleatoria di legge uniforme sull'intervallo [0,1] e Y=X2, allora
Covarianza -Varianza
La covarianza pu essere considerata una generalizzazione della varianza
Covarianza -Statistica
In statistica la covarianza anche indicata come . Su un campione di n osservazioni congiunte (xi,yi), di rispettive medie osservate e , la covarianza osservata . Uno stimatore della covarianza per N osservazioni congiunte (Xi,Yi)
Distribuzione binomiale
Funzione di distribuzione discreta
Funzione di ripartizione
Parametri
Supporto Funzione di densit Funzione di ripartizione (funzione Beta incompleta regolarizzata) Valore atteso Mediana tra e (non precisa) Moda Varianza Skewness se
Curtosi Entropia Funz. Gen. dei Momenti Funz. Caratteristica In teoria della probabilit la distribuzione binomiale una distribuzione di probabilit discreta che descrive il numero
di successi in un processo di Bernoulli, ovvero la variabile aleatoria somma n variabili aleatorie indipendenti di uguale distribuzione di Bernoulli B(p). che
Esempi di casi di distribuzione binomiale sono i risultati di una serie di lanci di una stessa moneta o di una serie di estrazioni da un'urna (con reintroduzione), ognuna delle quali pu fornire due soli risultati: il successo con probabilit p e il fallimento con probabilit q=1-p.
Definizione
La distribuzione binomiale caratterizzata da due parametri:
: la probabilit di successo della singola prova di Bernoulli Xi (0 < p < 1). : il numero di prove effettuate. , che esprime la probabilit di
Per semplicit di notazione viene solitamente utilizzato anche il parametro fallimento per una singola prova. La distribuzione di probabilit
cio ogni successione con k successi e n-k insuccessi ha probabilit pkqn k, mentre il numero di queste successioni, pari al numero di modi (o combinazioni) in cui possono essere disposti i k successi negli n tentativi, dato dal coefficiente binomiale .
La formula del binomio di Newton mostra come la somma di tutte le probabilit nella distribuzione sia uguale ad 1:
Esempio
Per calcolare la probabilit di ottenere con 5 lanci di un dado (equilibrato a 6 facce) esattamente 3 volte "4", basta considerare i lanci come un processo di Bernoulli. Ogni singola prova ha probabilit p=1/6 di ottenere "4" (successo) e probabilit q=5/6 di non ottenerlo (insuccesso). Il numero di successi con 5 prove allora descritto da una variabile aleatoria S5 di legge B(5,1/6). La probabilit di ottenere esattamente 3 volte "4" con 5 lanci (e 2 volte "non 4")
il valore atteso
la varianza
la funzione caratteristica
il coefficiente di skewness
il coefficiente di curtosi
La moda di Sn si ottiene confrontando le probabilit successive P(k + 1) / P(k). Se p(n + 1) un numero intero allora P(p(n + 1)) = P(p(n + 1) 1) e la moda non unica; se invece p(n + 1) non un intero allora la moda pari alla sua parte intera [p(n + 1)]. Non esistono formule precise per la mediana di Sn, che tuttavia dev'essere compresa tra le parti intere inferiore e superiore di np, e . Se np un intero allora la mediana np. Se la funzione di ripartizione assume il valore 1 / 2 (ad esempio F(k) = 1 / 2 per p = 1 / 2 ed n = 2k + 1 dispari) allora tutti i valori dell'intervallo possono essere presi come mediana.
Distribuzione binomiale -Generalizzazioni Una generalizzazione della distribuzione binomiale la legge distribuzione Beta-binomiale (a,b,n), che descrive la somma Sn = X1 + X2 + ... + Xn di n variabili aleatorie indipendenti, ognuna con distribuzione di Bernoulli , dove P segue la legge Beta (a,b). (Al contrario della distribuzione binomiale, le Xi non hanno lo stesso parametro.) La distribuzione binomiale una delle quattro distribuzioni di probabilit definite dalla ricorsione di Panjer: . Distribuzione binomiale -Statistica Nell'inferenza bayesiana si utilizzano particolari relazioni tra la distribuzione binomiale e altre distribuzioni di probabilit. Se P una variabile aleatoria che segue la distribuzione Beta (a,b) e Sn una variabile aleatoria con distribuzione binomiale , allora la probabilit condizionata da Sn=x per P segue la distribuzione Beta (a + x,b + n x). In altri termini, la distribuzione Beta descrive P sia a priori che a posteriori di Sn=x. In paricolare la distribuzione continua uniforme sull'intervallo [0,1] un caso particolare di distribuzione Beta (1,1), quindi la distribuzione per P, a posteriori di Sn=x, segue la legge Beta (x + 1,n x + 1), che per inciso ha un massimo in x/n.
Distribuzione di Poisson
Funzione di distribuzione discreta
Funzione di ripartizione
(dove
Skewness
per ogni
si trova
Poisson -Convergenza
La distribuzione di Poisson pu essere ottenuta come limite delle distribuzioni binomiali si ha una convergenza in legge di a nota come legge (di probabilit) degli eventi rari. , con pn = , ovvero . Per questa convergenza la distribuzione di Poisson anche
In statistica si adotta l'approssimazione della distribuzione binomiale tramite la distribuzione di Poisson quando n>20 e p<1/20, o preferibilmente quando n>100 e np<10.
valore atteso
varianza
Distribuzione di Poisson - Propriet Se Y1 e Y2 sono due variabili aleatorie indipendenti con distribuzioni di Poisson di parametri 1 e 2 rispettivamente, allora la loro somma Y = Y1 + Y2 segue ancora una distribuzione di Poisson, di parametro = 1 + 2;
La distribuzione di Panjer, definita per ricorsione, generalizza la distribuzione di Poisson: . Distribuzione di Poisson -Statistica Distribuzione di Poisson- Approssimazioni Per > 1000 una variabile aleatoria con distribuzione di Poisson viene solitamente approssimata con la
distribuzione normale ; per parametri pi piccoli ( > 10) sono invece necessarie delle correzioni di continuit, legate ai diversi domini delle due distribuzioni (una discreta, una continua). La radice quadrata di una variabile aleatoria con distribuzione di Poisson approssimata da una distribuzione normale meglio di quanto lo sia la variabile stessa. Il parametro pu essere stimato come la media delle osservazioni effettuate. Questo stimatore privo di bias, ovvero ha come valore atteso stesso. Distribuzione di Poisson -Inferenza bayesiana Se il parametro di una distribuzione di Poisson distribuito a priori secondo la distribuzione Gamma, allora lo anche a posteriori dell'osservazione Y = y. Distribuzione geometrica Funzione di distribuzione discreta
Funzione di ripartizione
Parametri
se
Skewness
Curtosi
Entropia
Funz. Caratteristica
In teoria della probabilit la distribuzione geometrica una distribuzione di probabilit discreta sui numeri naturali (con o senza l'elemento "0") che segue una progressione geometrica:
Un esempio di distribuzione geometrica l'"attesa" nel gioco del lotto, ovvero il numero di estrazioni che trascorrono prima che esca un numero fissato.
. A volte lo zero viene escluso dal supporto; l'unica differenza sta nello scalare di 1 i valori, ovvero nel descrivere la variabile aleatoria T+1 al posto di T. In questo caso la distribuzione sar P(k) = pqk 1 e le altre funzioni saranno modificate di conseguenza.
funzione di probabilit
P(T = k) = pqk
funzione di ripartizione
valore atteso
varianza
(nella
funzione caratteristica
I quantili si ricavano dalla funzione di ripartizione:
se
;
un numero intero (
) allora F(n 1) = e
se invece
In particolare la mediana se
(parte intera).
con n intero,
altrimenti.
ed l'unica distribuzione di probabilit discreta con questa propriet. L'indipendenza delle prove in un processo di Bernoulli implica l'assenza di memoria della distribuzione geometrica. D'altro canto, ogni variabile aleatoria T a supporto sui numeri naturali e priva di memoria rispetta
La probabilit che al decimo lancio si ottenga un "4" dopo che per 9 lanci questo numero non mai stato ottenuto facilmente calcolabile grazie alla mancanza di memoria
per tutti i sottinsiemi A dello spazio campionario. Questo implica che l'integrale su tutto lo spazio di pX(x) deve essere 1. Di conseguenza ogni funzione non negativa, integrabile secondo Lebesgue, con integrale su tutto lo spazio uguale a 1, la funzione densit di probabilit di una ben definita distribuzione di probabilit. Una variabile casuale che possiede densit si dice "variabile casuale continua". Intuitivamente, se una distribuzione di probabilit ha densit pX(x), allora l'intervallo . Per le variabili casuali multivariate (o vettoriali) la trattazione formale assolutamente identica: si dice assolutamente continua se esiste una funzione a valori reali definita in , detta densit congiunta, tale che per ogni sottoinsieme A dello spazio campionario ha probabilit
Essa conserva tutte le propriet di una densit scalare: una funzione non negativa a integrale unitario su tutto lo spazio. Una propriet importante che se assolutamente continua allora lo ogni sua componente; il viceversa invece non vale. La densit di una componente, detta densit marginale, si ottiene con un ragionamento analogo al teorema della probabilit assoluta, cio fissando l'insieme di suoi valori di cui si vuole determinare la probabilit e lasciando libere di variare tutte le altre componenti. Infatti (nel caso bivariato per semplicit) l'evento l'evento , dunque
utilizzando il teorema di Fubini. La densit marginale di X data dunque da Funzione di densit di probabilit -Esempio
Esempio di gaussiana La funzione di densit della variabile casuale normale di media 0 e varianza 1 (detta normale standard), di cui sotto riportato il grafico e l'espressione analitica della corrispondente densit nel caso generico (media e varianza 2).
Variabile casuale
In teoria della probabilit, una variabile casuale (o variabile aleatoria o variabile stocastica o random variable) pu essere pensata come il risultato numerico di un esperimento quando questo non prevedibile con certezza (ossia non deterministico). Ad esempio, il risultato del lancio di un dado a sei facce pu essere matematicamente modellato come una variabile casuale che pu assumere uno dei sei possibili valori 1,2,3,4,5,6. Bruno de Finetti definiva numero aleatorio (termine suggerito dallo stesso per denotare la variabile casuale) un numero ben determinato ma non noto per carenza di informazioni.
Le variabili casuali a una dimensione (cio a valori in ) si dicono semplici o univariate. Le variabili casuali a pi dimensioni si dicono multiple o multivariate (doppie, triple, k-uple).
Variabili casuali che dipendono da un parametro t (t come tempo) vengono considerate processi stocastici.
dove la misura di probabilit definita sullo spazio campionario. Per variabili aleatorie a valori reali, la legge di probabilit della variabile casuale X individuata univocamente dalla sua funzione di ripartizione, definita come . Inoltre:
se la variabile casuale X discreta, cio l'insieme dei possibili valori (il rango o supporto di X) finito o
numerabile, definita anche la funzione di massa (o funzione massa di probabilit o densit discreta), ossia la funzione di probabilit discreta p(x) = P(X = x)
se la variabile casuale X continua, cio l'insieme dei possibili valori ha la potenza del continuo, definita
anche la funzione di densit di probabilit, cio la funzione f non negativa tale per cui
In altri termini descrivere in termini probabilistici o statistici una fenomeno aleatorio nel tempo, caratterizzabile dunque da una variabile aleatoria, vuol dire descriverlo in termini di densit di distribuzione di probabilit e dei suoi parametri di media o valore atteso e varianza.
Funzione di ripartizione
In statistica e teoria della probabilit, la funzione di ripartizione (o funzione di distribuzione cumulativa)
una funzione di variabile reale che racchiude le informazioni su un fenomeno (un insieme di dati, un evento casuale) riguardanti la sua presenza o la sua distribuzione prima o dopo un certo punto.
Una funzione F una valida funzione di ripartizione se non decrescente, continua a destra e
Una funzione di ripartizione non necessariamente continua a sinistra (e dunque continua globalmente): se X una variabile casuale discreta e z un punto del suo supporto, allora F una funzione a gradino e dunque
(ponendo senza restrizioni di generalit x1 < x2 < ... < xn < x < z) poich una costante indipendente da x, mentre
dunque essendo p(z)0 F non continua. Pi in generale, una funzione di ripartizione individua univocamente una intera distribuzione di probabilit, cio una funzione che ad ogni sottoinsieme misurabile A associa la probabilit che X cada in A.
Funzione di ripartizione-Propriet
Si pu dimostrare dalla definizione che valgono le seguenti uguaglianze, ponendo per semplicit di notazione : P(a < X < b) = F(b ) F(a) P(X < x) = F(x )
Se X una variabile casuale assolutamente continua la funzione di ripartizione di X pu essere espressa come funzione integrale:
ove f detta funzione di densit di X. Se X una variabile casuale discreta (ossia ammette una collezione numerabile di possibili valori
Grafico della funzione di ripartizione relativa alla distribuzione uniforme Se X la variabile aleatoria risultato del lancio di un dado a sei facce si ha
dove con
Ogni funzione di sopravvivenza S(x) una funzione monotona decrescente, Vale a dire R(a) < R(b) per a > b Il tempo x = 0 rappresenta l'origine,
sistemi.
dove Xi sono le componenti di X. Questa funzione possiede la propriet di essere continua a destra separatamente per ogni variabile. Valgono inoltre le seguenti formule, derivanti dalla definizione: Per qualsiasi i, F monotona crescente separatamente in ogni variabile, cio se c > 0, se k = 2 per semplicit,
dove G la funzione di .
e rappresenta il numero di osservazioni del fenomeno che cadono prima del valore x. Se x1,...,xn sono le osservazioni (ordinate in senso crescente), con frequenze relative f1,...,fn la funzione di ripartizione ha espressione analitica
Momento (statistica)
In statistica, il momento semplice di ordine k di una variabile casuale definito come la media della k-esima potenza dei valori
, dove pi denota la funzione di massa di probabilit della variabile casuale. ovvero, nel caso di una v.c. continua
dove pX(x) denota la funzione di densit della variabile casuale. Il momento centrale di ordine k definito come la media della k-esima potenza dello scarto dalla media = 1
dove denota il valore atteso della variabile casuale. Caratteristiche di tali momenti semplici e centrali sono: 0 e m0 sono sempre uguali all'unit m1 sempre nullo
centrale, che afferma che, col crescere della numerosit di un campione, la sua distribuzione di probabilit pi o meno come quella di una gaussiana e la legge dei grandi numeri, che giustifica al posto di un valore di probabilit incognito l'uso di una sua stima fatta su di un campione finito. Si distinguono pi tipi di convergenza. Ognuna di queste condizioni si esporr qua per variabili casuali reali univariate, ma si generalizza senza troppe difficolt per variabili casuali multivariate.
Convergenza in distribuzione
Una successione di variabili casuali con funzioni di ripartizione Fn si dice convergere in distribuzione o , se il seguente limite esiste
in ogni punto
in cui F risulta continua. Questo il tipo di convergenza usato nel teorema del limite centrale.
Poich , ci che la convergenza in distribuzione implica che all'aumentare di n la probabilit che la successione assuma valori minori o uguali ad x (ovvero assuma valori in un certo intervallo) sar sempre pi simile alla probabilit che X assuma valori nello stesso intervallo. Si noti che questo non richiede che X e Xn assumano i medesimi valori. Da questa osservazione segue che X e Xn possono essere definiti a partire da spazi di probabilit modellanti esperimenti casuali differenti.
CONVERGENZA -Esempi
converge a X = 0. Vale infatti
e quindi
converge alla variabile casuale uniforme continua in [0,1]. Ci notevole considerando il passaggio tra classi profondamente distinte, ovvero quella delle v.c. discrete e quella delle v.c. continue. Vale anche il viceversa: ogni variabile casuale continua si pu discretizzare in una successione di variabili casuali discrete, cos come una funzione misurabile si interpreta come limite di una successione di funzioni semplici.
Teoremi
Se
Se
se e solo se per ogni funzione continua e limitata g(x) vale e l'unione dei supporti delle Xn limitato allora e h una funzione continua, allora allora per ogni i = 1,...,k
Convergenza in probabilit
Come notato prima la convergenza in distribuzione d informazioni relative alla sola distribuzione della variabile casuale limite, mentre nulla possiamo dire sugli effettivi valori studiati. Per questo si introduce una nozione di convergenza pi forte. Diremo allora che una successione di variabili casuali simboli , se per ogni > 0 converge in probabilit alla variabile casuale X, in
o equivalentemente
Formalmente, scelti > 0, > 0 esiste N tale che per ogni . Questo tipo di convergenza usato nella legge debole dei grandi numeri. Quello che la definizione di convergenza in probabilit sostiene che, all'aumentare di n, la probabilit che i valori assunti dalla successione differiscano dai valori assunti da X meno di una quantit positiva piccola a piacere, si avvicina sempre pi ad 1. Teoremi Se se e solo se . per ogni i = 1,...,k.
Se
Se
e X degenere (ovvero una v.c. costante), allora e g una funzione continua, allora .
t.c. P(U) = 1.
Quello che la definizione sostiene che le v.c. Xn e X differiranno, in limite, solo su eventi di probabilit nulla. Questa la nozione di convergenza pi forte, perch esprime il fatto che, all'aumentare della numerosit del campione, un
evento quasi certo che le realizzazioni campionarie tenderanno a coincidere con le osservazioni della variabile casuale X. Questo il tipo di convergenza usato nella legge forte dei grandi numeri. Teoremi Se se e solo se . per ogni i = 1,...,k. . . , poich
Se r = 1, Xn si dice convergere in media a X. Se r = 2, la convergenza si dice in media quadratica. Secondo l'approccio assiomatico di Kolmogorov, questa convergenza equivale alla convergenza in norma Lp. Convergenza -Teoremi
Se Se Se
in media r-esima con r > 0, allora in media r-esima con r > 0, allora in media r-esima e , allora
Distribuzione
Funzione di densit di probabilit
Funzione di ripartizione
Parametri oppure
e e (k = , = 1)
Funzione di ripartizione
(la funzione Gamma incompleta inferiore regolarizzata)
Varianza Skewness
Curtosi Entropia
(con la funzione digamma)
per t < 1
In teoria delle probabilit la distribuzione (Gamma) una distribuzione di probabilit continua, che descrive anche le distribuzioni esponenziale e chi quadrato. Viene utilizzata come modello per i tempi di attesa nella teoria delle code. Nella statistica bayesiana comune come distribuzione a priori e a posteriori.
Distribuzione - Definizione
La distribuzione Gamma una distribuzione di probabilit definita sui numeri reali non negativi, . Viene parametrizzata in due modi diversi: sia tramite la coppia di numeri positivi (k,), sia tramite la coppia di numeri positivi . La sua funzione di densit di probabilit
dove
la funzione Gamma.
, dove X una variabile aleatoria che segue questa distribuzione e la funzione Gamma ha la propriet In particolare la distribuzione ha
Distribuzione - Propriet
Se X segue la distribuzione (k,) allora aX segue la distribuzione (k,a). Se X1,...Xn sono variabili aleatorie indipendenti, ognuna con distribuzione (ki,), allora la loro somma X1 + ... + Xn segue la distribuzione (k1 + ... + kn,).
Nell'inferenza bayesiana la distribuzione Gamma pu descrivere sia a priori che a posteriori di un'osservazione il parametro X di diverse distribuzioni di probabilit, ad esempio della distribuzione esponenziale e della distribuzione di Poisson. La distribuzione Gamma inversa la distribuzione dell'inversa X 1 di una variabile aleatoria X che segue la distribuzione Gamma. Se X e Y sono variabili aleatorie indipendenti con distribuzioni (k1,) e (k2,), allora distribuzione Beta (k1,k2), mentre segue una distribuzione Beta del secondo tipo. segue la
Pi in generale il vettore , descritto da n variabili aleatorie indipendenti Xi di distribuzioni (ki,), segue una distribuzione di Dirichlet di parametri (k1,...,kn). Una generalizzazione della distribuzione Gamma la distribuzione di Wishart, che generalizza anche la distribuzione
e standardizzando:
dove
finiti, i loro momenti di ordine primo e secondo, e sia in particolare per ogni . Definita allora la nuova variabile casuale:
dove
, si ha che
casuale normale avente valore atteso 0 e varianza 1, ossia la distribuzione di coincide con quella di una tale variabile casuale normale.
di Fourier della funzione di densit (o di massa di probabilit per variabili casuali discrete) della
Un caso particolare di applicazione della legge dei grandi numeri la previsione probabilistica della proporzione di successi in una sequenza di n realizzazioni indipendenti di un evento E: per n che tende a infinito, la proporzione di
ossia la media campionaria converge quasi certamente alla media comune delle Xi.
ossia la media campionaria converge in probabilit alla media comune delle Xi.
Esempio
Supponiamo di avere un evento (come il fatto che lanciando un dado esca il sei) con probabilit sconosciuta p (sconosciuta perch il dado potrebbe essere truccato, o semplicemente difettoso: non possiamo saperlo in anticipo). Eseguendo n lanci consecutivi otteniamo una stima della probabilit di fare sei con quel dado, data da
dove le X della somma rappresentano l'esito dei lanci e valgono uno se in quel lancio uscito il sei, o zero se uscito un altro numero. La legge dei grandi numeri afferma semplicemente che, tante pi prove usiamo per calcolare la stima, tanto pi questa sar vicina, probabilmente, alla probabilit reale dell'evento p. Se la stima X(n) che calcoleremo sar molto vicina a un sesto, che la probabilit teorica che esca il sei per un dado perfetto, potremo essere ragionevolmente certi che il dado in questione non polarizzato per il sei (per essere sicuri che il dado non sia truccato in nessun modo dovremmo ripetere il test anche per gli altri cinque numeri). Che cosa significhi ragionevolmente sicuri dipende da quanto vogliamo essere precisi nel nostro test: con dieci prove avremmo una stima grossolana, con cento ne otterremmo una molto pi precisa, con mille ancora di pi e cos via: il valore di n che siamo disposti ad accettare come sufficiente dipende dal grado di casualit che riteniamo necessario per il dado in questione.
, da cui
. Sostituendo, si ottiene:
pertanto, poich
Ma
La legge debole dei grandi numeri non assicura che, comunque scelto , quasi certamente a partire da un certo il valore | n p | si mantenga minore o uguale a , ovvero che l'insieme sia limite, si trova: non diverga per . -trascurabile. Infatti, esplicitando la definizione di ma niente sembra assicurare che
implica sia sia la legge debole dei grandi numeri. Dimostrazione delle due implicazioni la legge forte pu essere formulata, esplicitando la Definizione di limite e passando al complementare, come: che a sua volta equivalente, trasformando il quantificatore esistenziale in un'unione, a:
e per monotonia di
da cui, per confronto, la prima implicazione. Trasformando anche gli altri due quantificatori in operazioni insiemistiche, si ha:
ma, si in presenza dell'intersezione di una successione non crescente di insiemi, dunque per monotonia di ha:
, si
e ancora: da cui anche la seconda implicazione, ricordando che questo valido per ogni .
Per subadditivit
Dunque, se quest'ultima espressione sar nulla, si sar dimostrata la legge forte. Essendo dovr avere:
non negativa, si
si vuole mostrare che questo vero considerando la sottosuccessione Cantelli, pertanto si verifica che converga l'espressione
da cui:
Si noti ora che ogni numero naturale n compreso tra due quadrati consecutivi: da cui
e Nn, da cui:
pertanto:
ora per si ha
, dunque:
, si