Sei sulla pagina 1di 232

Lezione 1

(Luned`ı, 4 marzo 2013, ore 10:30-12:15)

L. Finesso (2012)

cANALISI

DEI DATI 2012-13

1.1 La probabilit`a per l’Ingegneria dell’Informazione

Iniziamo con la discussione qualitativa di qualche problema pratico che richiede il ricorso

a metodi probabilistici. Alcuni di questi esempi verranno ripresi mano a mano che si disporr`a degli strumenti tecnici per un’analisi pi`u approfondita.

(a.) Compressione dati senza errore (zip/unzip sul PC)

Si tratta di mappare (codificare), in modo invertibile, una sequenza di dati (ad esempio

un file di testo o un file eseguibile) in una sequenza di bit di lunghezza minima. La parola

chiave qui `e invertibile: ad esempio la compressione di file audio/video in formato .mp3 o

.mp4 non `e invertibile. L’algoritmo impiegato da ZIP produce invece una codifica inver-

tibile. Apparentemente il problema `e completamente deterministico, ma il limite teorico

di compressibilit`a di una data sequenza di dati dipende da una quantit`a probabilistica,

l’entropia della sorgente dei dati.

(b.) Analisi di affidabilit`a

Componenti di affidabilit`a nota vengono assemblati per produrre sistemi. Qual `e l’af- fidabilit`a complessiva del sistema? Dove conviene introdurre sistemi di backup per garan- tire una fissata soglia di affidabilit`a? Oppure, di maggior interesse per l’Informatica, si consideri la piccola rete di calcolatori rappresentata dal grafo qui sotto.

C l l 4 5 0.8 0.9 D B l 1 0.7 0.3 0.9 l
C
l
l
4
5
0.8
0.9
D
B
l
1
0.7
0.3
0.9
l
l
6
7
A
E
0.95
l
0.75
3
l
2
F

I vertici sono i calcolatori, gli archi le connessioni fisiche tra calcolatori. Ogni arco ha due etichette: il nome e la percentuale di uptime della connessione fisica: potete pensare che questo dato sia stato ricavato osservando la rete nelle ultime 24 ore o nell’ultimo mese ecc.

Si vuole calcolare la percentuale di uptime della connessione tra A e B. Supponete poi di

riuscire a migliorare la connessione tra D ed E. Di quanto migliorer`a la connessione tra A e B? A queste domande, e ad altre simili, sapremo presto dare una risposta utilizzando semplici strumenti probabilistici.

(c.) Complessit`a degli algoritmi - worst case analysis ed analisi in media

Con la worst case analysis si valuta un parametro di performance dell’algoritmo, ad esempio il tempo di esecuzione, nel caso pi`u sfavorevole. Consideriamo ad esempio un algoritmo di ordinamento. Supponete di dover ordinare alfabeticamente pacchetti di 1000

nomi. I possibili ordini di arrivo dei dati sono 1000! e tipicamente solo uno di questi `e

il worst case per l’algoritmo di ordinamento che state impiegando.

E molto pessimistico

`

1

basare la valutazione dell’algoritmo sull’analisi della sua performance nel worst case. Se

utilizzate l’algoritmo centinaia di volte al giorno, su pacchetti di 1000 dati sempre diversi,

vi interessa di pi`u il suo tempo di esecuzione medio. Lo studio del comportamento medio

`e un tipico argomento di teoria della probabilit`a.

(d.) Integrazione numerica con il metodo di Monte Carlo

Si supponga di dover calcolare numericamente

I

:= 1 f (x) dx

0

per una complicata funzione f (x), continua nell’intervallo [0, 1], la cui antiderivata non `e nota. Il metodo classico `e l’approssimazione di Riemann che consiste nel suddividere

l’intervallo [0, 1] in n sottointervalli di identica lunghezza ∆ :=

n 1 , allora

1

0

f (x) dx

n

k=1

f (k∆) ∆.

L’approssimazione `e tanto migliore quanto pi`u grande `e n, come garantito dalla teoria dell’integrale di Riemann. Un metodo alternativo (metodo di Monte Carlo) consiste nello

scegliere n punti a caso nell’intervallo [0, 1], diciamoli x 1 , x 2 ,

x n , e quindi calcolare

1

0

f (x) dx

1

n

n

k=1

f(x k ).

Nella figura qui sotto i due metodi sono messi a confronto.

f(x)

✻ x ✲ ∆ 2∆ 3∆ 1
x
2∆
3∆
1
f(x) ✻ f(x ∗ ) x ✲ x 3 x ∗ x 1 x 2
f(x)
f(x ∗ )
x
x 3
x
∗ x 1 x 2
1

Il razionale per il metodo di Monte Carlo `e il teorema della media integrale. Se f (x)

f (x) dx =

f(x ). Scegliendo i punti x 1 , x 2 ,

maggiori; se n `e grande, calcolando la media aritmetica degli f (x k ) ci aspettiamo quindi

x n a caso alcuni f (x k ) saranno minori di f (x ), altri

`e una funzione continua sull’intervallo [0, 1] allora esiste x [0, 1] tale che

0

1

di

ottenere un valore vicino ad f (x ). Un celebre teorema della teoria della probabilit`a,

la

legge dei grandi numeri, giustifica in modo rigoroso questo ragionamento intuitivo. Ma

come si sceglie un punto a caso, diciamo x 1 , nell’intervallo [0, 1]? Lanciamo ripetutamente una moneta. Scriviamo il punto decimale e poi accodiamo un 1 ogni volta che esce Testa, ed uno 0 ogni volta che esce Croce. I lanci successivi produrranno in questo modo una

sequenza binaria che interpreteremo come rappresentazione, in base 2, del numero reale

x 1 [0, 1]. Ad esempio la sequenza CCT T CT

produce il punto

x 1 = .001101

2

All’aumentare del numero di lanci aumenta la precisione di x 1 . Con n lanci si ottiene x 1 con precisione

2 n . Con il metodo di Monte Carlo si calcola un integrale, problema squisitamente de- terministico, facendo ricorso al fenomeno casuale per eccellenza: i lanci ripetuti di una moneta.

1

1.2 La teoria assiomatica della probabilit`a

La teoria della probabilit`a `e uno dei possibili strumenti matematici per modellare esper-

imenti il cui esito `e incerto.

maggior successo nelle applicazioni. Lo sviluppo matematico della teoria della probabilit`a procede per via assiomatica. Una volta definite le nozioni di base si derivano Lemmi, Proposizioni, e Teoremi, si introducono nuove definizioni e cos`ı via, senza bisogno di fare

riferimento a monete, giochi di carte, esperimenti dall’esito incerto ecc. Poich´e questo `e un corso di base per`o, per motivare lo studio e per sviluppare l’intuizione, cercheremo

di presentare le idee astratte e dare contemporaneamente la loro interpretazione in vari

contesti applicativi. Lo svantaggio di questo approccio `e che il livello matematico sar`a troppo basso per chi cerca una trattazione completa, rigorosa e concisa e troppo alto per chi invece vorrebbe solo imparare a risolvere semplici problemi applicativi.

Il pi`u importante oggetto matematico in teoria della probabilit`a `e lo spazio di proba- bilit`a. Molto all’ingrosso, vedremo successivamente i dettagli, uno spazio di probabilit`a S `e una terna

S = (Ω, F , P ),

dove Ω `e un insieme (lo spazio campionario) , F una famiglia di sottoinsiemi di Ω (la σ-

algebra degli eventi misurabili) e P una mappa P : F → [0, 1], (la misura di probabilit`a).

E in realt`a lo strumento che ha avuto, e continua ad avere,

`

In

questa lezione ci concentriamo sul primo elemento della terna, lo spazio campionario

Ω.

1.3 Lo spazio campionario

Nella teoria astratta Ω `e un insieme, detto spazio campionario, senza altre specificazioni. Quando la teoria della probabilit`a viene applicata a problemi concreti gli elementi di Ω rappresentano i possibili risultati d’interesse di un esperimento aleatorio. La natura di

Ω pu`o quindi essere estremamente varia a seconda dello specifico esperimento. Vediamo

alcuni esempi.

(1.)

Esperimento: lancio una moneta. Osservazione: faccia uscita

Ω := { C, T }

molto spesso si preferisce identificare C = 0, T = 1.

(2.) Esperimento: lancio una moneta 3 volte. Osservazione:

Ω := { 0, 1, 2, 3 }

(2b.) Esperimento: lancio una moneta 3 volte. Osservazione:

numero di Teste uscite

sequenza delle facce uscite

Ω := { T T T, T T C, T CT, T CC, CT T, CT C, CCT, CCC }

(3.) Esperimento:

lancio una moneta ripetutamente. Osservazione:

in cui si verifica la prima Testa

Ω = N := { 1, 2, 3,

}

3

numero del lancio

(4.) Esperimento: misurazione della durata di un hard disk. Osservazione: intervallo di

tempo

Ω = R + := [0, )

Nota. Introducendo un’approssimazione si potrebbe misurare la durata in numero intero

di ore. Il motivo per cui non conviene farlo `e che il tempo, come la lunghezza e la massa

per nominarne tre, `e una grandezza fisica che, almeno a livello macroscopico, si modella pi`u semplicemente usando un numero reale. La legge di Newton F = ma `e un’equazione

differenziale, non un’equazione alle differenze!

(5.) Esperimento: registrazione della temperatura al suolo a Porta Portello. Osser- vazione: il tracciato termografico nell’arco di 24 ore.

Ω := {f : [0, 24] R;

f `e continua }

In questo esempio gli elementi di Ω sono funzioni continue. Ogni funzione continua rappresenta un possibile tracciato osservato.

(6.) Esperimento: registrazione di temperatura e pressione al suolo a Porta Portello. Osservazione: il tracciato termografico e barometrico nell’arco di 24 ore.

Ω := {f : [0, 24] R 2 ;

f `e continua }

In questo caso ogni osservazione `e una funzione a valori vettoriali, in R 2 .

(7.) Esperimento: studio socio-sanitario. Osservazione: sesso, et`a, peso, degli individui

partecipanti

Ω := {F, M } × N × R +

In

questo caso gli elementi sono vettori a tre componenti disomogenee, la prima a valori

in

un insieme a due valori, la seconda a valori in N, la terza a valori reali positivi.

Questo `e solo un modesto campionario di casi molto semplici. Una differenza fondamen- tale tra i diversi spazi campionari `e la cardinalit`a. In alcuni esempi, (1.), (2.), (2b.), la cardinalit`a `e finita, in altri, (3.), infinita numerabile cio`e pari alla cardinalit`a di N, in altri, (4.), (7.), infinita non numerabile cio`e pari alla cardinalit`a di R, in altri, (5.), (6.), superiore alla cardinalit`a di R.

Nella prima parte del corso ci concentreremo su spazi campionari finiti ed infiniti numer- abili. Nella seconda parte tratteremo gli spazi campionari con la cardinalit`a di R. Non tratteremo esempi del tipo (5.), (6.).

`

E

interessante confrontare gli esempi (2.) e (2b.). Si noti che sullo spazio campionario di

(2b.) si possono rappresentare i risultati d’interesse dell’esempio (2.). Se so che `e uscita

la sequenza T T C posso dire che il numero di Teste `e 2. Quindi lo spazio campionario che

 

`

rappresenta i possibili risultati di un esperimento `e inerentemente non unico.

E importante

prendere sempre uno spazio campionario sufficientemente ricco da contenere tutti i risultati

d’interesse. Se poi Ω contiene pi`u elementi di quanti strettamente necessari si pu`o gestire

la situazione, mentre il caso opposto porta a problemi. Non si possono rappresentare i

risultati d’interesse del caso (2b.) usando lo spazio campionario di (2.)

1.4 Terminologia relativa allo spazio campionario

La terminologia probabilistica `e ormai consolidata. L’insieme Ω `e detto spazio campionario

(sample space). Gli elementi ω Ω sono detti esiti (outcomes) o eventi elementari, i sottoinsiemi di Ω sono detti eventi (events). 1 Nelle applicazioni gli elementi dello spazio campionario rappresentano i possibili esiti di un esperimento i cui risultati sono incerti.

1 In realt`a, come vedremo, sono detti eventi solo i sottoinsiemi di Ω che appartengono a F .

4

Se l’esecuzione dell’esperimento produce il risultato ω Ω, si dice che si `e verificato ω e, per ogni E tale che ω E, si dice che si `e verificato E.

Esempio 1. Con l’usuale convenzione, 0=croce, 1=testa, sia

Ω := { 000, 001, 010, 011, 100, 101, 110, 111 }

lo spazio campionario che rappresenta i possibili risultati di tre lanci di una moneta. Esempi di eventi di Ω sono i sottoinsiemi di esiti

E k := ”escono k teste su

3 lanci”,

k = 0, 1, 2, 3.

Ad esempio E 0 = {000}, mentre E 1 = {001, 010, 100} ecc. Se si esegue l’esperimento e, lanciando 3 volte la moneta, escono le facce 001 diremo che ω = 001 si `e verificato. Analogamente diremo che si `e verificato E 1 , mentre non si `e verificato E 2 .

1.5 Operazioni elementari sugli eventi

Quando si disponga di certi eventi E, F , G ecc. `e naturale utilizzzare gli eventi dati per formare nuovi eventi d’interesse applicando le usuali operazioni insiemistiche sugli eventi dati. Qui per usuali operazioni, di cui si considerano note la definizioni, si intendono l’unione, l’intersezione, e la complementazione 2 . Utilizzando la terminologia probabilistica appena introdotta, se E ed F sono eventi,

E c = si verifica se e solo se non si verifica E

E F = si verifica se e solo se si verificano E o F

E F = si verifica se e solo se si verificano E e F

Esempio 2. Riprendendo l’Esempio 1, si considerino i seguenti eventi che sono descritti sia verbalmente che utilizzando operazioni insiemistiche sugli eventi E k .

E := ”si verifica almeno 1 testa” = E

F := ”si verifica al pi`u 1 testa” = E 0 E 1

G := ”si verifica almeno 1 testa e almeno 1 croce” = E 1 E 2

c

0

Due eventi speciali, banali e onnipresenti, sono Ω e detti, per ovvie ragioni, evento certo ed impossibile rispettivamente. Tornando all’Esempio 2,

”si verificano almeno 2 teste e 2 croci” = ,

mentre

”si verifica almeno 1 testa o una croce” = Ω.

2 Ha senso parlare di complemento di un evento poich´e tutti gli eventi sono sottoinsiemi di Ω.

5

Le propriet`a di complementazione, unione ed intersezione si suppongono note. A titolo di promemoria, non necessariamente esaustivo, per ogni E, F , G ecc. eventi,

E

F =

F E

E

F =

F G

E

E

= E E = E

E ∩ ∅ = ,

E ∪ ∅ = E

E

Ω = E,

E Ω = Ω

E

(F G)

=

(E

F) G

E

(F G)

=

(E

F) G

E

(F G)

=

(E

F) (E

G)

E

(F G)

=

(E

F) (E

G)

(E

F) c

=

E c F c

(E

F) c = E c F c

6

Attenzione. Si tenga ben presente che la scrittura E F G `e priva di senso, poich´e mancando le parentesi non `e chiaro in che ordine si debbano effettuare le operazioni e, in generale (E F ) G e E (F G) sono diversi [Micro-esercizio. Costruire esempi dell’ul- tima affermazione.] Morale: ogni volta che si scrive una espressione che contiene unioni, intersezioni e complementazioni si deve specificare univocamente l’ordine di esecuzione delle operazioni con abbondante uso di parentesi.

1.6 Decomposizioni di eventi in unioni di eventi mutuamente esclusivi

(a.) Partizione di

Una partizione di Ω `e una famiglia {E n } n1 di eventi mutuamente esclusivi, la cui unione

`e Ω, ovvero tale che

E i E j

=

=

,

i

i

= j

E

i

Esempi.

(i.) Dato un evento E, una semplice partizione di Ω `e {E, E c }. In effetti E E c = e

E E c = Ω.

 

`

(ii.) Si consideri Ω come nell’Esempio 1.

E

evidente che gli eventi E k , per k = 0, 1, 2, 3,

formano una partizione di Ω. In questo caso

E 0 = {000}, E 1 = {001, 010, 100}, E 2 = {011, 101, 110}, E 3 = {111}

ed Ω = 3

k=0 E k .

(iii.) Lancio due dadi e osservo le facce uscite, Ω = {(1, 1), (1, 2), coppie ordinate. Una partizione `e fornita dagli eventi

E k := ”la somma delle facce `e k,

k = 2, 3,

(6, 6)} contiene 36

12.

(b.) Decomposizione rispetto ad una partizione.

Nel caso elementare si considera la partizione (E, E c ) dove E Ω. Poich´e per ogni F

`e F = F Ω = F (E E c ) = (F E) (F E c ) otteniamo la rappresentazione

F = (F E) (F E c ).

I due eventi dell’unione sono incompatibili: questo, vedremo, `e particolarmente conve-

niente in TdP. Per un dato F la rappresentazione vale qualunque sia E: nella pratica sar`a

importante scegliere E in modo che la rappresentazione semplifichi i conti probabilistici. In generale se (E n ) `e una partizione di Ω allora vale la rappresentazione

F

= (F E i )

i

e gli eventi dell’unione sono mutuamente esclusivi. Anche qui, in pratica, sar`a fondamen- tale scegliere opportunamente la partizione.

(c.) Decomposizione dell’unione

In TdP la decomposizione di eventi complessi in unione di eventi incompatibili (cio`e digiun- ti) `e uno dei trucchi standard per semplificare i calcoli. La seguente decomposizione, valida qualunque siano gli eventi E ed F , si dimostrer`a spesso utile

E F = (E F c ) (E F) (E c F)

7

(d.) Decomposizione alternativa dell’unione e generalizzazione

Le decomposizioni in unioni di eventi incompatibili si possono normalmente effettuare in molti modi. Quale sia la decomposizione pi`u conveniente lo si stabilir`a, caso per caso, nell’applicazione al calcolo delle probabilit`a. Ad esempio per l’unione di due eventi vale anche la decomposizione

E F = E (F \ E)

Questa decomposizione si generalizza immediatamente al caso di tre eventi

E

F G = E (F \ E) (G \ (E F ))

e pi`u in generale, per n eventi

n

k=1

E k = E 1

n

k=2

E k \

k1

j=1

E j

 

1.7 Altre operazioni tra eventi

Operazioni del tipo E F c intervengono abbastanza spesso da meritare un nome.

Differenza di eventi. E \ F := E F c .

Differenza simmetrica di eventi. E F := (E F c ) (E c F ).

Usando le nuove definizioni la decomposizione dell’unione si pu`o riscrivere come

E F = (E \ F) (E F) (F \ E) = (E

F) (E F).

1.8 Osservazione sulle operazioni tra eventi

Nota bene. Qualunque espressione che consista di complementazioni, intersezioni, unioni, differenze, e differenze simmetriche di eventi dati si pu`o sempre esprimere, a partire dagli eventi dati, utilizzando esclusivamente le operazioni di complementazione ed intersezione (oppure unione). A titolo d’esempio, usando le leggi di De Morgan si pu`o esprimere la differenza simmetrica facendo ricorso solo a complementazioni e unioni, oppure solo a complementazioni e intersezioni

E F = (E F c ) (E c

F)

= (E c F) c (E

F c ) c

= (E F c ) c (E c F) c c

Questo risultato `e interessante negli sviluppi teorici, ma le espressioni contenenti, ad esempio, solo complementazioni e unioni diventano rapidamente molto complesse e di difficile leggibilit`a.

8

Lezione 2

(Marted`ı, 5 marzo 2013, ore 16:25-18:10)

2.1 La σ-algebra degli eventi F

(a.) Motivazione

Nelle applicazioni lo spazio di probabilit`a S = (Ω, F , P ) modella un esperimento il cui esito `e incerto. Gli elementi di Ω sono i possibili risultati dell’esperimento, mentre F `e una famiglia di sottoinsiemi di Ω per i quali `e definita la misura di probabilit`a P . Idealmente si vorrebbe definire la probabilit`a per tutti gli eventi d’interesse dell’esperimento. In linea di principio si potrebbe pensare di definire P per tutti i sottoinsiemi di Ω, di fatto assumendo che la famiglia F coincida con la famiglia di tutti i sottoinsiemi di Ω, nota come potenza

di Ω e denotata P(Ω). La scelta F = P(Ω) `e sempre possibile, e la adotteremo, se || ≤ |N|

(qui e altrove |E| denota la cardinalit`a dell’insieme E). Quando invece || = |R| non `e possibile scegliere F = P(Ω) e definire in modo consistente la misura di probabilit`a P . In

ogni caso `e necessario che F abbia la struttura, specificata qui sotto, di σ-algebra affinch´e

la teoria risulti ben posta.

(b.) Definizione

Sia Ω un insieme assegnato. Una famiglia F di sottoinsiemi di Ω `e detta σ-algebra se soddisfa agli assiomi:

(i)

F non `e vuota

(ii)

F `e chiusa rispetto alla complementazione (significa che se E ∈ F , allora E c ∈ F ).

(iii) F `e chiusa rispetto all’unione numerabile (significa che se E i ∈ F per ogni i 1, allora i E i ∈ F.

Gli elementi di F sono detti eventi misurabili o semplicemente eventi.

(c.) Conseguenze elementari degli assiomi (dimostrate a lezione)

(i.) e Ω appartengono ad F . (dagli assiomi)

(ii.) F `e chiusa rispetto alle intersezioni numerabili. (assiomi+De Morgan)

(iii.) F `e chiusa rispetto a qualunque sequenza numerabile di complementazioni, inter- sezioni, unioni, differenze, differenze simmetriche di eventi di F . (assiomi+osservazione 1.8).

(d.) Esercizio.

F `e chiusa rispetto alle unioni finite ed alle intersezioni finite.

2.2 La misura di probabilit`a P

(a.) Definizione

P (E) che ad ogni evento misurabile E ∈ F associa il

numero reale P (E), detto la misura di probabilit`a di E o semplicemente la probabilit`a di

P : F

R + `e una mappa E

E,

e che soddisfa i seguenti assiomi

(0)

(positivit`a) P (E) 0 per ogni E ∈ F ,

(i)

(normalizzazione) P (Ω) = 1,

(ii)

(σ-addittivit`a) Se {E i } `e una famiglia numerabile di eventi mutuamente esclusivi

P(i E i ) = P(E i ).

i

(b.) Conseguenze elementari degli assiomi (dimostrate in classe)

(1.) P (E c ) = 1 P (E).

9

(2.)

P () = 0, (corollario di (1.)).

(3.)

E F implica P (E) P (F ), (monotonia della misura P ).

(4.)

P (E) [0, 1] per ogni E ∈ F , (corollario di (3.)).

(5.)

P (E F ) = P (E) + P (F ) P (E F ), (formula di inclusione/esclusione).

(6.)

P (E F ) P (E) + P (F ), (subaddittivit`a di P ).

(7.)

P (i E i )

i P(E i ), (subaddittivit`a numerabile).

(8.)

P (E F G) = P (E) + P (F \ E) + P (G \ (E F )), (decomposizione disgiunta).

(9.)

P (E F G) = P (E) + P (F ) + P (G)

P(E F) P(E G) P(F G)

+ P(E F G).

(alternativa alla (7.) – questa `e la formula di inclusione /esclusione, dimostrata scrivendo P (E F G) = P ((E F ) G) ed usando la (4.)).

(10.)

P (E F G H) = P (E) + P (F ) + P (G) + P (H)

P(E F) P(E G) P(E H) P(F G) P(F H) P(G H)

+ P(E

F G) + P(E F H) + P(E G H) + P(F G H)

P(E F G H),

(formula di inclusione /esclusione per pi`u di tre eventi - senza dimostrazione).

(11.) P (E F ) = P (E) + P (F ) 2P (E F ), (esercizio).

(c.) Non unicit`a di P

L’osservazione chiave `e che gli assiomi non determinano P univocamente. Abbiamo visto l’esempio della moneta, con Ω = {C, T }, F = P(Ω). La misura di probabilit`a P non `e univocamente determinata: ce ne sono infinite compatibili con gli assiomi, ognuna di esse `e completamente specificata dal numero p [0, 1] dove P ({T }) = p. Ben lungi dall’essere una limitazione, la libert`a di scelta di p consente, nell’esempio concreto, di modellare qualunque moneta.

10

Lezione 3

(Mercoled`ı, 6 marzo 2013, ore 16:25-18:10)

3.1 Possibili scelte di P – Misura empirica

Quando si costruisce uno spazio di probabilit`a S = (Ω, F , P ) per modellare un esperimen- to, la scelta di Ω e di F di solito non pone problemi, ma come visto nell’esempio della moneta, gli assiomi non specificano P univocamente. La Statistica si occupa della scelta ottimale di P allo scopo di modellare un dato esperimento. Tempo permettendo daremo qualche cenno di Statistica verso la fine del corso. Qui diamo alcuni esempi di possibili scelte di P , iniziando dalla cosiddetta misura empirica.

Si supponga che l’esperimento che si vuole modellare sia ripetibile pi`u volte in condizioni analoghe. La misura empirica si costruisce come segue. Si effettua l’esperimento n volte,

registrando la sequenza ω 1 , ω 2 ,

la frequenza di E, il numero di volte che si verifica E nelle n prove, ovvero il numero di

esiti ω i tali che ω i E per i = 1, 2,

Definizione (misura empirica).

ω n degli esiti osservati. Per ogni evento E ∈ F sia n E ,

n.

P n (E) := n E ,

n

per ogni E

∈ F

P n (E) `e la frequenza relativa di E, ovvero la percentuale di volte in cui E si verifica.

Lemma. P n `e una misura di probabilit`a.

Dimostrazione. L’assioma (0) `e soddisfatto banalmente. L’assioma (i) `e soddisfatto poich´e n = n. L’assioma (ii) richiede che se E F = allora P n (E F) = P n (E) + P n (F ), ma per eventi E ed F disgiunti, n EF = n E + n F , da cui discende l’addittivit`a di P n . Allo stesso modo, per famiglie numerabili {E i } di eventi disgiunti, n i E i = i n E i , da cui discende la σ-addittivit`a di P n .

Esempio 1. Lancio di una moneta. Ω = {C, T }, F = P(Ω). La misura di probabilit`a

`e completamente specificata assegnando p = P ({T }). Per costruire la misura empirica

lanciamo la moneta ad esempio n = 12 volte e siano T, T, C, C, C, T, T, T, T, T, T, T gli

esiti. Allora p := P 12 ({T}) =

12 9 = 0.75. Peraltro limitandosi alle prime 10 prove P 10 (T) =

10 7 = 0.7. Intuitivamente, se la moneta `e equilibrata, lim n P n ({T }) = 0.5.

Si lancia il dado n = 15

volte e gli esiti osservati sono 1, 3, 2, 3, 5, 4, 3, 4, 3, 5, 3, 2, 1, 5, 2. In questo caso P 15 ({3}) = 15 5 . Si determinino P 15 (”esce faccia pari”) e P 15 ({6}).

Esempio 3. Scelta casuale di un punto in [0, 1]. Per costruire la misura empirica si pu`o pensare che il tenente Colombo si rechi al poligono di tiro e spari n volte al bersaglio, l’inter- vallo [0, 1], ogni volta chiudendo gli occhi. Se E [0, 1] la misura empirica `e P n (E) := n E dove n E `e il numero di volte che Colombo colpisce un punto in E. Intuitivamente, se Colombo spara a caso, lim n P n ([a, b]) = b a per ogni [a, b] [0, 1].

n ,

Esempio 2.

Lancio di un dado.

Ω = {1, 2, 3, 4, 5, 6}, F = P(Ω).

Esercizio. I dati di un’indagine di mercato sono: al 70% dei ragazzi piace la Coca, al 50%

piace la Pepsi, al 20% non piacciono n´e Coca n´e Pepsi. Calcolare la percentuale di ragazzi

a cui piace almeno una delle due bevande e quella dei ragazzi a cui piacciono entrambe.

Soluzione. Interpretando le percentuali come probabilit`a empiriche i dati sono P (Coca) = 0.7, P (Pepsi) = 0.5, P (Coca c Pepsi c ) = 0.2. Le probabilit`a richieste sono

P (Coca Pepsi) = P ((Coca c Pepsi c ) c ) = 1 0.2 = 0.8

P (Coca Pepsi) = P (Coca) + P (Pepsi) P (Coca Pepsi) = 0.7 + 0.5 0.8 = 0.4

11

Interpretazione frequentista della probabilit`a.

L’interpretazione delle probabilit`a di eventi come frequenze relative, o percentuali, `e molto comune negli studi osservazionali di tipo economico, epidemiologico, sociale, biologico, ecc. La misura empirica P n presenta per`o evidenti difetti. In particolare, per un fissato evento E, la probabilit`a empirica P n (E) dipende da n e dalla specifica sequenza di esiti

osservati, ω 1 , ω 2 ,

ci sia visto che P n deve modellare l’esperimento, ma la dipendenza da n `e molto scomoda.

Nell’esempio 1, la dipendenza da n comporta che non si riesca ad associare un unico valore

ω n . La dipendenza di P n dai risultati delle prove ripetute `e giusto che

a p, la probabilit`a di Testa della moneta. Per ovviare a questo inconveniente i frequentisti si arrampicano sugli specchi nel tentativo di sostituire P n (E) con lim n P n (E), ma si tratta

di discorsi piuttosto vaghi, solo apparentemente supportati da un teorema fondamentale

del calcolo della probabilit`a, la legge dei grandi numeri, che vedremo pi`u avanti.

3.2 Possibili scelte di P – Caso di discreto

Consideriamo ora il caso di spazi di probabilit`a S = (Ω, F , P ) dove || ≤ |N|. (ricordo

che |E| denota la cardinalit`a di E). Questo `e il cosiddetto caso discreto a cui ci atterremo

ω N } ovvero

} con || = |N|. In entrambi questi

casi, senza perdita di generalit`a, prenderemo sempre F := P(Ω). Negli spazi di probabilit`a discreti la misura P `e completamente specificata dai valori sui singleton: conoscere P ({ω i }) per ogni ω i Ω permette di calcolare P (E) per ogni E ∈ F . Infatti la σ-addittivit`a comporta che

(1)

di cardinalit`a || = N finita, oppure Ω = {ω 1 , ω 2

nela prima parte del corso. Si possono presentare due casi: Ω = {ω 1 , ω 2 ,

P(E) =

P({ω i })

ω i E

Osservazione 1. La numerabilit`a di Ω `e fondamentale per la validit`a dell’equazione 1.

Osservazione 2.

valori p 1 ,

Osservazione 3. Se || = |N|, il vincolo i=1 p i = 1 impone la convergenza della serie.

Quindi, ad esempio, `e impossibile per Ω = N avere misure di probabilit`a del tipo P ({i}) =

Allora, se || = N basta assegnare N 1 dei

Diciamo p i := P ({ω i }).

p N (perch´e?).

`

c i mentre `e possibile avere P ({i}) = c 2 . Quanto deve valere in questo caso? ( E necessario

i

conoscere la teoria della convergenza della serie di Fourier per rispondere).

3.3 Possibili scelte di P – Caso di finito con esiti equiprobabili

Se Ω = {ω 1 , ω 2 ,

assegna la stessa probabilit`a a tutti gli esiti elementari, ovvero P ({ω i }) =

ogni i = 1, 2,

ω N } ha cardinalit`a finita N , allora `e possibile scegliere la misura P che

1

||

=

1

N per

N (caso equiprobabile). Se P `e equiprobabile allora, per ogni E ∈ F ,

P(E) =

ω i E

P({ω i }) = |E|

|| ,

formula che nei testi elementari `e spesso scritta come

P(E) = numero dei casi favorevoli numero dei casi totali

.

Bench´e sia tecnicamente sempre possibile prendere P equiprobabile quando Ω ha car- dinalit`a finita, non `e detto che si tratti di una buona scelta per modellare un dato esperimento.

Controesempio. Sia Ω = {0, 1, 2, 3} dove gli esiti elementari rappresentano il numero di Teste in tre lanci consecutivi di una moneta. In questo caso la misura equiprobabile urta

12

contro la nostra intuizione. Su tre lanci di una moneta `e pi`u facile osservare una Testa

piuttosto che tre Teste o nessuna Testa. Se si vuole usare P come modello dell’esperimento che consiste in tre lanci consecutivi di una normale moneta l’assegnazione equiprobabile

P({i}) =

Esempio. Sia Ω = {T T T, T T C, T CT, CT T, T CC, CT C, CCT, CCC} dove gli esiti elemen-

tari rappresentano le possibili sequenze di risultati di tre lanci di una moneta. In questo

8 (sono 8 gli

esiti elementari). Se E k = ”escono k teste in 3 lanci” per k = 0, 1, 2, 3 abbiamo calcolato

P(E 0 ) = P(E 3 ) = 1 8 e P(E 1 ) = P(E 2 ) = 3 8 . Lo stesso si pu`o fare se si considera lo spazio

Ω relativo a diciamo 50 lanci di una moneta. Sia E 34 l’evento ”escono 34 teste su 50 lanci

della moneta”. Quanto vale P (E 34 )? In teoria `e facile

1

4

per i = 0, 1, 2, 3 non ha molto senso.

caso `e ragionevole prendere la P equiprobabile: P (ω i ) = 1 8 per ogni i = 1,

P(E 34 ) = |E || 34 |

,

ma il calcolo delle cardinalit`a di insiemi finiti non `e sempre agevole. Questo motiva la breve digressione sulla combinatoria elementare.

3.4 Combinatoria elementare – I

Principio fondamentale del conteggio. Motivazione. Ricordate l’esempio fatto in classe dell’armadio con dentro 4 camicie, 3 pantaloni e 2 paia di scarpe. In quanti modi diversi posso vestirmi? Se gli abbinamenti di vestiario non hanno rilevanza (maschi) 4 · 3 · 2 = 24 modi. Se gli abbinamenti di vestiario

limitano le scelte (femmine) allora il principio fondamentale non si applica. Pi`u in generale

si conta come segue.

Il principio. Si effettuano r esperimenti. Il primo ha n 1 risultati possibili. Qualunque sia l’esito del primo esperimento il secondo esperimento ha sempre lo stesso numero n 2 di possibili risultati, e cos`ı via fino alla condizione che, qualunque sia il risultato dell’(r 1)- esimo esperimento, l’r-esimo esperimento ha sempre n r esiti possibili. Si supponga anche che esiti diversi degli r esperimenti producano sequenze distinguibili. Sotto queste ipotesi il numero di possibili esiti degli r esperimenti condotti in sequenza `e

n 1 · n 2 ·

n r

Esempi elementari di conteggio. In classe abbiamo visto alcuni esempi: targhe automobilis- tiche, schedine del totocalcio, corsa campestre.

Problemi di conteggio I Discussione dei due paradigmi: del campionamento e dell’allocazione. Tutta la terminolo- gia ed i possibili problemi di conteggio che ho elencato a lezione li potete rivedere con calma nell’appendice a queste note. Esempio 1. Numero delle schedine del totocalcio. Si tratta di contare le disposizioni con

ripetizione di n = 3 oggetti (i simboli 1, X, 2), presi k = 13 alla volta (le 13 partite).

Il numero di schedine `e n k = 3 13 , applicando il principio fondamentale del conteggio.

Abbiamo visto le due interpretazioni, come problema di campionamento e come problema

di allocazione.

Esempio 2. Numero di possibili terne di vincitori di medaglia ad una corsa campestre cui

partecipano 10 corridori. Si tratta di contare le disposizioni senza ripetizione di n = 10 oggetti (i corridori) presi k = 3 alla volta (oro, argento, bronzo). Usando il principio

fondamentale del conteggio, il

· · · × (n k + 1) = 10 × 9 × 8. Abbiamo visto le due interpretazioni, come problema di

campionamento e di allocazione.

numero di possibili ”podii” `e

n × (n 1) × (n 2) ×

13

Appendice alla Lezione 3 Problemi di campionamento e di allocazione

A3.1

Introduzione

I problemi di conteggio sono difficilmente categorizzabili in tipologie standard ed ognuno

di essi va trattato nella sua peculiarit`a. Esistono tuttavia alcuni punti di vista generali

che possono aiutare nell’impostazione delle soluzioni. In questa sezione presentiamo due elementari paradigmi del conteggio, campionamento ed allocazione.

Un problema di campionamento si modella con un’urna contenente n palline, distin- guibili (ad esempio numerate da 1 a n) o distinguibili a gruppi (ad esempio n palline di m < n colori diversi). Vengono effettuate k estrazioni, ed annotato il risultato di ogni estrazione. Le estrazioni possono essere con o senza reinserimento nell’urna della pallina

appena estratta, prima di passare all’estrazione successiva. Interessa contare quante sono

le possibili sequenze di estrazioni. Si pu`o contare in due modi. Se si tiene in consider-

azione l’ordine di estrazione si dice che si stanno contando le disposizioni : 1, 2 e 2, 1 sono

due disposizioni diverse. Se non si tiene in considerazione l’ordine si dice che si stanno contando le combinazioni : 1, 2 e 2, 1 sono la stessa combinazione.

Nei problemi di allocazione il modello consiste in un insieme di scatole (celle) distinte ed in un certo numero di gettoni, che possono essere distinguibili o identici tra loro.

I gettoni vanno inseriti (allocati) nelle scatole. Il riempimento delle scatole pu`o essere

libero, o soggetto a vincoli. Nel caso libero ogni scatola pu`o contenere qualunque numero

di

gettoni, 0 compreso. Vincoli tipici sono: al pi`u 1 gettone (cio`e 0 o 1) per scatola, oppure

un

numero preassegnato di gettoni in ogni scatola. Interessa contare il numero di possibili

allocazioni di gettoni nelle scatole.

La nota `e organizzata in modo da mettere in evidenza, attraverso un numero romano,

la corrispondenza tra problemi di campionamento e di allocazione. Per mostrare come

passare da un paradigma all’altro nell’impostazione di un problema di conteggio illustr- eremo i due punti di vista con lo stesso esempio. Nei problemi di conteggio concreti, solitamente pi`u complessi, `e per`o spesso naturale impostare il conteggio usando sfecifica- mente uno dei due paradigmi, quindi `e utile conoscerli entrambi. In realt`a il paradigma dell’allocazione permette di trattare, in modo abbastanza semplice, anche complicati vin- coli di riempimento delle scatole che si tradurrebbero in problemi di campionamento molto artificiali.

La nota `e in buona parte basata sul capitolo 3 dell’ottimo libro di K.L. Chung, Elementary probability theory with stochastic processes, Springer 1974.

A3.2

Problemi di campionamento

Elenchiamo di seguito i quattro tipici problemi di campionamento, ed alcune varianti.

Campionamento I

n palline distinte nell’urna (ad esempio numerate da 1 a n)

k estrazioni con reinserimento (n e k liberi)

Problema: contare le disposizioni

Soluzione. n k

14

Spiegazione. Alla prima estrazione posso estrarre una qualunque delle n palline, annoto il risultato e reinserisco la pallina nell’urna. Alla seconda estrazione ho ancora n possibili risultati dell’estrazione e cos`ı via fino alla k-esima estrazione. Per il principio del conteggio il numero di disposizioni `e n k .

Terminologia. Questo problema viene anche presentato come conteggio delle disposizioni con ripetizione di n oggetti distinti presi k alla volta.

Esempio. Totocalcio 3 : contare il numero di schedine giocabili. Una giocata si modella con un’urna contenente n = 3 palline 1, X, 2, dalla quale si estrae k = 13 volte, con rein- serimento. Ad ogni disposizione delle palline estratte corrisponde una schedina giocabile. Soluzione: n k = 3 13 .

Campionamento II

n palline distinte nell’urna (ad esempio numerate da 1 a n)

k estrazioni senza reinserimento (quindi k n)

Problema: contare le disposizioni

Soluzione. D(n, k) := n × (n 1) · · · × (n k + 1)

Spiegazione. Alla prima estrazione posso estrarre una qualunque delle n palline, annoto il risultato e butto la pallina. Rimangono n 1 palline nell’urna, vi sono quindi n 1 risultati possibili per la seconda estrazione, cos`ı via fino alla k-esima estrazione per la

quale sono possibili n k + 1 (attenzione al +1) risultati. Per il principio del conteggio il

numero di disposizioni `e n(n 1)

Terminologia. Questo problema viene anche presentato come conteggio delle disposizioni senza ripetizione di n oggetti distinti presi k alla volta.

Esempio. Corsa campestre, partecipano 10 atleti. In quanti modi diversi possono essere assegnate le 3 medaglie d’oro, d’argento e di bronzo? L’urna contiene n = 10 palline distinguibili (gli atleti), e si effettuano k = 3 estrazioni senza reinserimento. Contare le risultanti disposizioni significa contare i possibili ordini di arrivo dei primi 3. Soluzione:

n × (n 1) · · · × (n k + 1) = 10 × 9 × 8.

(n k + 1), per comodit`a denotato D(n, k).

Campionamento IIa

`

E il caso II con k = n. Le disposizioni con k = n si dicono permutazioni.

Soluzione.

n! := D(n, n) = n × (n 1) × · · · × 2 × 1

Spiegazione. Come per il caso II, procedendo fino ad k = n. Si noti che n! = D(n, n).

Esempio. Anagrammi della parola MILANO. L’urna contiene n = 6 palline distinguibili (le lettere A, I, L, M, N, O) che vengono estratte, senza reinserimento, fino a vuotare l’ur- na. Ad ogni disposizione delle palline corrisponde uno dei possibili anagrammi. Soluzione:

n! = 6!. Questo conteggio degli anagrammi `e corretto solo se la parola da anagrammare contiene lettere distinte, vedi il caso IIIa.

3 Il Totocalcio `e un gioco a scommessa legalizzato in cui si devono pronosticare i risultati di un certo numero di partite di calcio, classicamente 13. Le 13 partite sono stampate su una schedina e il giocatore indica il suo pronostico, per ognuna delle partite, usando tre simboli 1, X, 2. Ad esempio, per la partita Milan-Inter, il simbolo 1 pronostica la vittoria del Milan, X il pareggio, 2 la vittoria dell’Inter.

15

Campionamento III

n palline distinte nell’urna (ad esempio numerate da 1 a n)

k estrazioni senza reinserimento (quindi k n)

Problema: contare le combinazioni

Soluzione.

n

k

:= D(n, k)

k!

= n × (n 1) · · · × (n k + 1)

k!

Spiegazione. Analogo al caso II, ma si devono contare le combinazioni. Per contare il numero di combinazioni, diciamolo C(n, k), basta osservare che le k! permutazioni di ogni fissata disposizione producono tutte la stessa combinazione, quindi C(n, k) × D(k, k) = D(n, k). Si ricava C(n, k) = D(n, k)/D(k, k). Il numero C(n, k) si dice coefficiente binomiale n su k, pi`u spesso denotato n .

k

Terminologia. Questo problema viene anche presentato come conteggio delle combi- nazioni senza ripetizione di n oggetti distinti presi k alla volta.

Esempio. Gioco del lotto. Ogni settimana a Venezia vengono estratte k = 5 palline, una cinquina, da un’urna contenente n = 90 palline distinguibili, numerate da 1 a 90. Nel

gioco del lotto si scommette sulla combinazione estratta. Contare quante sono le possibili

cinquine. Soluzione: n

k = 90

5

Campionamento IIIa

= 90×89×88×87×86

5×4×3×2×1

.

n palline nell’urna, di m colori diversi, k 1

di

colore 1,

.

.

.

,

k m

di colore m, con

k 1 + k 2 + ··· + k m = n. Le palline dello stesso colore sono identiche.

k = n estrazioni senza reinserimento (si estraggono tutte le palline)

Problema: contare le disposizioni distinguibili

Soluzione.

n

k 1 , k 2 ,

,

k m :=

n!

k 1 ! × k 2 ! ··· × k m !

`

Spiegazione E una miscela dei casi IIa e III. Per capire la soluzione si pensi, inizialmente,

di numerare da 1 a k i le palline di colore i-esimo, 1 i m. Le palline sono ora tutte

distinguibili, grazie a colore e numero, quindi, caso IIa, le disposizioni sono (k 1 +···+k m )! = n!. Poich`e nella formulazione del problema le palline dello stesso colore sono indistinguibili,

per ogni colore i le k i ! permutazioni delle palline di quel colore danno luogo alla stessa

disposizione. Per il principio di conteggio, il numero totale di permutazioni che danno luogo

alla stessa disposizione, una volta cancellati i numeri dalle palline, `e k 1 ! × k 2 ! ×

Il numero di disposizioni distinguibili si ottiene dividendo n! per k 1 ! × k 2 ! ×

numero

m .

Verificare che il caso m = 2 si riduce, notazione a parte, all’usuale coefficiente binomiale.

Esempio. Anagrammi della parola MISSISSIPPI. L’urna contiene n = 11 palline di m = 4 colori, M,I,S,P, con k M = 1, k I = 4, k S = 4, k P = 2. Il numero degli anagrammi

non `e 11!, come per il caso II, poich`e la presenza di lettere ripetute rende alcune parole

indistinguibili tra loro.

k m !. k m !. Il

n!

!···×k m ! si dice coefficiente multinomiale n su k 1 ,

k m , denotato

n

k 1 ,k 2 ,

k 1 !×k 2

,k

Per quanto visto il numero degli anagrammi `e:

k M ,k I ,k S ,k P =

n

11

1,4,4,2 =

11!

1!×4!×4!×2! .

16

Campionamento IV

n palline distinte nell’urna (ad esempio numerate da 1 a n)

k estrazioni con reinserimento (n e k liberi)

Problema: contare le combinazioni

Soluzione.

n + k 1

k

Spiegazione. Si potrebbe (s)ragionare come segue. La situazione `e analoga a quella del caso I, ma invece che alle disposizioni siamo ora interessati alle combinazioni. Applicando

il trucco gi`a usato nel caso III per passare dalle disposizioni alle combinazioni, la soluzione

`e n k /k!. Questo ragionamento `e sbagliato. Per n = 3, k = 2 fornisce 3 2 /2! = 4.5, che `e imbarazzante come numero di combinazioni! Quando non si viene a capo di un problema di conteggio pu`o essere utile analizzare esaustivamente un caso con n ed k piccoli e poi generalizzare. Proviamo dunque con n = 3, k = 4. Nell’urna ci sono 3 palline numerate

1, 2, 3. Elenchiamo tutti i possibili risultati di k = 4 estrazioni, eliminando manualmente

tutte le disposizioni che danno luogo alla stessa combinazione. Le 15 combinazioni possibili sono riportate, in ordine lessicografico, nella prima colonna della seguente tabella.

 

1

2

3

1111

 

|| | | || | | | |

1112

1113

1122

1123

1133

|| | | | | | | ||

1222

1223

1233

1333

2222

|

|

2223

| |

2233

| | | | ||

2333

3333

Le tre colonne successive contengono segni di spunta che forniscono la stessa infor- mazione della prima colonna, indicando il numero di palline 1, 2 e 3 presenti in ogni possibile combinazione. La quinta colonna contiene, in forma simbolica, le stesse infor- mazioni delle tre colonne precedenti. Le barre verticali servono ad individuare a quale pallina si riferiscono i segni di spunta. Poich`e ci sono 3 palline, sono necessarie 2 barre verticali. I segni di spunta a sinistra della prima barra verticale dicono il numero di palline

1 nella combinazione. I segni di spunta tra le due barre verticali dicono il numero di palline

2 e quelli a destra della seconda barra indicano il numero di palline 3. Ad esempio il sim- bolo | | corrisponde alla combinazione 1223, il simbolo | | alla 2233, mentre || corrisponde alla 1333. Il caso IV si pu`o allora ridurre al caso IIIa, ovvero abbi- amo una nuova urna contenente 4 + 2 palline, di cui 4 sono marcate e 2 sono marcate

3!2! . Nel caso generale di

n palline ed r estrazioni saranno necessari r segni di spunta ed n 1 barre verticali per rappresentare simbolicamente tutte le possibili combinazioni, e la soluzione sar`a (n1+r)!

|. Il numero di possibili permutazioni distinguibili vale allora

6!

r!(n1)! .

`

E

banale verificare che questo numero coincide con quello dato nell’enunciato.

17

Terminologia. Questo problema viene anche presentato come conteggio delle combi- nazioni con ripetizione di n oggetti distinti presi k alla volta.

Esempio. Lancio 3 dadi identici. Quante sono le possibili combinazioni osservabili? In questo caso modelliamo con un’urna contenente n = 6 palline (numerate da 1 a 6)

e contiamo le possibili combinazioni di k = 3 estrazioni con reinserimento, poich`e ogni

dado pu`o mostrare una qualunque faccia, indipendente dal risultato degli altri due. Le

combinazioni osservabili sono n+k1

= 8

3

.

k

A3.3

Problemi di allocazione

Elenchiamo di seguito i quattro tipici problemi di allocazione, ed alcune varianti. Gli esempi sono gli stessi del paragrafo precedente per mettere in evidenza la corrispondenza con l’analogo modello di campionamento.

In ognuno dei problemi di allocazione si dispone di un certo numero di scatole distinte e di

voler contare il numero di allocazioni dei gettoni nelle scatole, secondo le specifiche fornite caso per caso.

Allocazione I

n scatole distinte e k gettoni distinguibili da allocare

nessun vincolo di riempimento (ogni scatola pu`o contenere da 0 a k gettoni)

Soluzione.

n k

Spiegazione. Il primo gettone si pu`o inserire in una qualunque delle n scatole. Lo stesso vale per il secondo e per tutti gli altri gettoni poich`e non vi sono vincoli di riempimento. Applicando il principio di moltiplicazione si ottiene il risultato.

Esempio. Totocalcio, come per Campionamento I. Si modella con n = 3 scatole (con-

trassegnate 1, X, 2), e k = 13 gettoni distinguibili, numerati da 1 a 13, le partite di cui

si deve pronosticare il risultato. Ogni allocazione dei gettoni nelle scatole corrisponde ad

una giocata possibile.

Allocazione II

n scatole distinte ed k gettoni distinguibili da allocare

ogni scatola pu`o contenere 0 o 1 gettoni

Soluzione.

n × (n 1) · · · × (n k + 1) := P (n, k)

Spiegazione. Il primo gettone si pu`o collocare in una qualunque delle n scatole, il secondo

in una delle rimanenti n 1 ecc. fino al k-esimo gettone che pu`o essere collocato in una

qualunque delle rimanenti n k + 1 scatole. Per il principio di moltiplicazione il numero

totale di allocazioni `e n(n 1)

Esempio. Corsa campestre, come per Campionamento II. Questo caso si modella con

n = 10 scatole, contrassegnate con i nomi dei 10 atleti, e k = 3 gettoni (contrassegnati

(n k + 1).

1,

2, 3). Ogni allocazione dei gettoni nelle scatole rappresenta una possibile terna ordinata

di

vincitori.

18

Allocazione IIa

`

E il caso precedente per n = k. In questo caso, terminata l’allocazione, ogni scatola

conterr`a esattamente 1 gettone.

Soluzione. n!

Spiegazione. Come per il caso precedente.

Esempio. Anagrammi della parola MILANO, come per campionamento IIa. Le scatole sono n