Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Stimatori; metodo dei momenti; metodo della massima verosimiglianza; variabili aleatorie
inferenziali (Chi-quadro, Student, Fisher); intervalli di confidenza.
7. Test di ipotesi
Test parametrici, rischio di prima e seconda specie; significativit e potenza del test; p-valore; test
non parametrici.
Teoria della misura e analisi degli errori; metodo dei minimi quadrati; coefficiente di correlazione;
regressione lineare e non lineare; linearizzazione.
METODI DI OSSERVAZIONE E MISURA
APPUNTI
Introduzione
Definizioni varie
1. Definizioni di probabilit
2. Formalizzazione assiomatica
Se si ripete molte volte un esperimento mettendosi sempre nelle stesse condizioni, si verifica
empiricamente che la frazione di casi totale in cui si realizza un qualunque evento E tende, al
crescere dei tentativi, ad un valore costante che dipende solo da E.
Lanciando ad esempio una moneta,il rapporto tra il numero di risultati testa ed il numero di tentativi
tender ad un valore costante: 0,5.
Il valore limite della frequenza empirica di un evento quello che molti hanno in mente quando
cercano di descrivere la probabilit di quellevento.
Qualunque sia la definizione di probabilit che si vuole abbracciare, vi un comune accordo sulle
regole che tali probabilit devono rispettare: da qui in poi il modo di procedere diviene allora
esclusivamente astratto.
Si associa ad ogni evento E sullo spazio degli esiti S, un numero che si denota con P(E) e che si dice
probabilit dellevento E.
Ci non pu essere fatto in maniera completamente libera: le probabilit dei vari eventi devono
rispettare alcuni assiomi dal significato intuitivo.
Primo assioma
Secondo assioma
Il secondo assioma stabilisce che levento S si verifica con probabilit 1, ovvero vi assoluta
certezza che si realizzi un esito continuo in S, o ancora, S contiene necessariamente tutti gli esiti
possibili nel nostro esperimento.
Terzo assioma
Per ogni successione di eventi infinitamente esclusivi E1, E2,(tali che EiEj = quando ij )
Il terzo assioma afferma che, preso un insieme finito o numerabile di eventi mutuamente esclusivi,
la probabilit che se ne verifichi almeno uno uguale alla somma delle loro probabilit.
Si pu a questo punto notare che se si interpreta P(E) come la frequenza relativa dellevento
E quando lesperimento ripetuto un gran numero di volte, il terzo assioma soddisfa gli altri
due. Infatti certo che la frequenza relativa di un evento sia sempre compresa tra 0 e 1; altrettanto
sicuro che levento S si verifica ad ogni esperimento, e quindi ha una frequenza relativa sempre
uguale ad 1; si pu anche notare che se E ed F sono eventi che non hanno esiti in comune, il numero
di casi in cui si verifica EUF pari alla somma di quelli che si verificano E ed F, quindi la
frequenza relativa dellunione pari alla somma delle frequenze relative.
Gli assiomi permettono di dedurre un gran numero di propriet delle probabilit degli eventi.
Ad esempio, possiamo notare che E ed Ec sono eventi disgiunti, e quindi usando gli assiomi 2 e 3:
La probabilit che un evento non si verifichi pari a 1 meno la probabilit che si verifichi.
La prossima proposizione fornisce la probabilit dellunione di due eventi in termini delle loro
probabilit singole e di quella dellintersezione (estensione del terzo assioma, funziona anche con
eventi non mutuamente esclusivi).
Propriet associative
Propriet distributive
Il metodo rigoroso per dimostrare queste identit consiste nel verificare che in ogni esito
appartenente allevento al primo membro anche contenuto nellevento a secondo membro e
viceversa.
Esistono due diverse relazioni particolarmente utili che mettono in gioco tutte e tre le operazioni
base che si possono fare sugli eventi.
Sono le leggi di De Morgan:
4. Dipendenza logica tra eventi
Eventi compatibili ed eventi incompatibili
Due eventi E1 ed E2 si dicono incompatibili quando il verificarsi dell'uno esclude il verificarsi
dell'altro, cio quando i due eventi non possono verificarsi contemporaneamente.
Due eventi E1 ed E2 si dicono compatibili quando il verificarsi dell'uno non esclude il verificarsi
dell'altro e i due eventi possono verificarsi contemporaneamente.
La probabilit dell'unione di due eventi compatibili uguale alla somma delle probabilit di
ciascun evento diminuita della probabilit dell'evento comune , ovvero:
Se invece siamo di fronte a due eventi dipendenti, sappiamo che il verificarsi dell'uno (ad esempio di
E1) influisce sul calcolo del verificarsi dell'altro (ad esempio E 2 ).
Si parler in tal caso di probabilit condizionata, si indica con e si legge "probabilit
che si verifichi E2 sapendo che si verificato E1.
La probabilit dell'intersezione di due eventi dipendenti E 1 ed E2 data dal prodotto della probabilit
di un evento per la probabilit condizionata dell'altro, cio:
In altre parole la probabilit che si verifichi E 2 sapendo che si verificato E1 uguale alla probabilit
che si verifichi E2.
Infatti ogni punto che appartiene all'evento E, o sta sia in E sia in F, oppure sta in E ma
non in F (si veda la Figura 3.6).
Inoltre, visto che e sono eventi disgiunti, si ha per l'Assioma 3,
L'evento accessorio va scelto in modo che, una volta che si sappia se esso si verificato o
meno , risulti evidente la probabilit dell'evento complesso di partenza, tenendo conto di
questa informazione.
L'equazione pu essere generalizzata nel modo seguente. Siano assegnati una quantit finita (o
numerabile) di eventi mutuamente esclusivi F1,F2, ..., Fn tali che:
Questa propriet si cita dicendo che gli eventi Fi ricoprono S e significa che si verifica
sempre almeno uno di essi (esattamente uno, se, come nel nostro caso, sono anche
disgiunti).
Consideriamo un ulteriore evento E, che riscriviamo come:
notando che anche gli eventi , per i=1,2,,n sono mutuamente esclusivi.
Si ottiene dall'Assioma 3 che:
Disposizione di elementi
Supponiamo di avere a disposizione n elementi distinguibili e kn posti ordinati.
Si intende con disposizioni di n elementi su k posti il numero di modi in cui
possibile disporre senza ripetizione gli n elementi nei k posti.
Nel caso in cui k=n, le disposizioni Dn,n sono dette permutazioni di n elementi, e
differiscono solo per lordine.
Combinazione
Si intende con combinazioni di n elementi presi k alla volta il numero di gruppi di
k<n elementi che posssibile costruire in modo tale che i gruppi differiscano tra
loro per almeno un elemento (e non per il loro ordine).
Ripartizioni
Si intende con ripartizioni di n elementi in m classi il numero di modi in cui
possibile suddividere gli m elementi in m classi rispettivamente di k1,k2,km
elementi.
Livello qualitativo
Si definisce livello qualitativo L la probabilit che un pezzo, estratto a caso da un
lotto, sia difettoso.
Una equa regola di accettazione/rifiuto deve necessariamente essere concordata tra
venditore e acquirente tenendo conto sia del livello di qualit accettabile L, che del
livello di qualit rifiutabile H.
Ad essi corrispondono rispettivamente il rischio del fornitore (di produrre un lotto
con livello qualitativo troppo elevato per accettare un certo rischio di rifiuto) e il
rischio dellacquirente (di acquistare un lotto con livello qualitativo non adeguato).
I valori di L e H vengono fissati per consuitudine proprio ai livelli 0.05 e 0.10.
Capitolo 2
Teoria delle Variabili Aleatorie
1. Definizioni di base
Quando si realizza un esperimento casuale, non sempre si interessati a tutte le
informazioni ricavabili dal suo esito.
Spesso una singola quantit numerica che racchiude tutto ci che in realt vogliamo sapere.
Sono quantit di interesse, che sono determinate dal risultato di un esperimento casuale, e
prendono il nome di variabili aleatorie.
Siccome il valore di una variabile aleatoria determinato dallesito dellesperimento,
possiamo assegnare delle probabilit ai suoi valori possibili.
Quindi F(X) esprime la probabilit che la variabile aleatoria X assuma un valore minore o
uguale a x.
Useremo la notazione per indicare che F la funzione di ripartizione di X.
Tutte le questioni di probabilit che si possono sollevare su una v.a. ammettono risposta in
termini della sua funzione di ripartizione.
Ad esempio:
Siccome X deve assumere uno dei valori x1,x2, , necessariamente la funzione di massa di
probabilit deve soddisfare la seguente equazione:
Una v.a. aleatoria che possa assumere una infinit non numerabile di valori, non potr
essere discreta.
Si dir invece continua se esiste almeno una funzione non negativa f, definita su tutto R,
avente la propriet che per ogni insieme B di numeri reali:
Tutte le probabilit che riguardano una v.a. continua possono essere espresse in termini di
integrali della sua densit.
Ad esempio, se poniamo B=[a,b] ricaviamo da 1 che:
la probabilit che una v.a. continua assuma un qualunque valore particolare a nulla.
Una relazione che lega la funzione di ripartizione F alla densit f la seguente:
Lapprossimazione finale valida (per il teorema del valor medio) se gli incrementi da e db
sono piccoli e f continua nel punto (a,b).
Se ne deduce che f(a,b) pari al rapporto tra la probabilit di un rettangolo attorno al punto
(a,b) e larea dadb del rettangolino stesso, insomma una densit di probabilit nel senso
comune che questo termine assume, e una indicazione di quanto probabile che (X,Y) cada
vicino ad (a,b).
Se X e Y sono congiuntamente unite, allora prese individualmente, sono variabili aleatorie
continue nel senso usuale;inoltre le loro densit marginali si ricavano come segue.
Per ogni insieme A di numeri reali:
Da questa equazione, visto che A un insieme arbitrario, si ricava (con teoremi generali)
che deve valere per forza luguaglianza degli integrandi:
Il senso della definizione e delle molte forme equivalenti che abbiamo dato che due
variabili aleatorie sono indipendenti se conoscere il valore di una non cambia la
distribuzione dellaltra.
Trasformazioni di variabili aleatorie
Media o Valore Atteso
Uno dei concetti pi importanti in tutta la teoria della probabilit quello di valore atteso.
Sia X una variabile aleatoria discreta che pu assumere i valori x1,x2, ; il valore atteso si
X, che si indica con E[X] il numero:
In altri termini, si tratta della media pesata dei valori X, usando come pesi le probabilit che
tali valori vengono assunti da X.
Per questo E[X] anche detta media di X, oppure aspettazione.
Il valore atteso di X definito solo se la serie precedente converge in valore assoluto,
ovvero,in caso contrario si dice che X non ha valore atteso:
Ne segue che una media pesata dei valori di X con il peso di ciascun x dato dalla
probabilit che X sia vicino a x, semplicemente lintegrale su tutto di .
Sia X una variabile aleatoria continua con funzione di densit f; il valore atteso, o
aspettazione o anche media di X, che si indica E[X] , se esiste, la quantit:
Oss: Il concetto di valore atteso analogo in fisica al concetto di centro di gravit o baricentro di
una distribuzione di massa.
Oss: E[X] ha le stesse unit di misura della variabile aleatoria X.
2. Se X una variabile aleatoria continua con funzione di densit probabilit f, per ogni
funzione reale g:
Anche in questo caso si richiede, affinch E[g(X)] abbia senso, che la serie e lintegrale
convergano in valore assoluto.
Coroll:Per ogni coppia di costanti reali a e b:
Se n=1,2,, la quantit E[Xn], quando esiste, detta momento n-esimo della variabile
aleatoria X:
Covarianza
Siano assegnate due v.a. X e Y di media e rispettivamente.
La loro covarianza, che si indica con (se esiste), la quantit:
Se due v.a. non sono indipendenti,la loro covarianza un importante indicatore della
relazione che sussiste tra loro.
Come esempio, si consideri la situazione in cui X e Y sono le funzioni indicatrici di due
eventi A e B, ovvero: