Sei sulla pagina 1di 5

Probabilità e Statistica – Corso di Laurea in Informatica

A.A. 2020/2021

SIMULAZIONE SECONDO QUESTIONARIO

Q1. LeBron James è un famoso giocatore di basket. Negli USA, durante una partita di basket, un
giocatore può commettere al massimo 6 falli. Definiamo la variabile aleatoria F come il numero
di falli commessi da LeBron James durante una partita. La distribuzione di F è la seguente:
pF (0) = 0.15, pF (1) = 0.27, pF (2) = 0.35, pF (3) = 0.15,
pF (4) = 0.04, pF (5) = 0.01, pF (6) =?.
Quanto vale P (F = 6)?
○␣ 0

○␣ 0.7

○␣ 0.0004

○ 0.03

○␣ Nessuna delle altre risposte


Soluzione. Per il vincolo di normalizzazione, otteniamo

pF (6) = 1 − 0.15 + 0.27 + 0.35 + 0.15 + 0.04 + 0.01 = 0.03.

Q2. Se si analizzano i dati numerici registrati nella maggior parte dei database reali, ci si accorge
immediatamente che la prima cifra di questi dati non è con uguale probabilità una delle cifre tra
1 e 9. La prima cifra più comune è 1, seguita da 2 e cosı̀ via, in ordine, fino a 9 che è la prima
cifra meno frequente. Questo fenomeno è noto con il nome legge di Benford.
Sia D la variabile aleatoria che mi dà il valore della prima cifra di un dato numerico preso a caso
da un database. La distribuzione di D è la seguente:
pD (1) = 0.301, pD (2) = 0.176, pD (3) = 0.125,
pD (4) = 0.097, pD (5) = 0.079, pD (6) = 0.067,
pD (7) = 0.058, pD (8) = 0.051, pD (9) = 0.046.
Quanto vale la probabilità che D sia dispari?
○␣ 0.391

○ 0.609

○␣ 0.308

○␣ 0.563

○␣ Nessuna delle altre risposte


Soluzione. Si ha

P (D è dispari) = P D ∈ {1, 3, 5, 7, 9}

= pD (1) + pD (3) + pD (5) + pD (7) + pD (9)

= 0.301 + 0.125 + 0.079 + 0.058 + 0.046

= 0.609.

1
—— • ——

Curiosità: nonostante Benford avesse notato questa “non-uniformità” nella distribuzione delle
prime cifre numeriche di dati presi da svariate fonti già nel 1936, ci sono voluti 60 anni prima
che venisse derivato uno modello probabilistico che descrivesse il fenomeno. Nel 1996, Hill mostrò
che la densità discreta della variabile D è data da
 
1
pD (n) = log10 1 + con n = 1, 2, . . . , 9.
n

Un’applicazione importante della legge di Benford è l’individuazione di frodi basate sulla manipo-
lazione e falsificazione di dati: dati falsi/ritoccati tipicamente non soddisfano la legge della prima
cifra.

—— • ——

Q3. Una famosa hamburgeria di Boston offre hamburger con uno, due o tre medaglioni di carne.
Sia X il numero di medaglioni che un cliente qualunque ordina per il suo panino. La distribuzione
di X è la seguente:
pX (1) = 0.4, pX (2) = 0.5, pX (3) = 0.1.
Si calcolano: E(X) = 1.7 e V ar(X) = 0.41. Il costo totale di un hamburger è pari a 2 dollari
per ogni medaglione di carne più un costo fisso di 1 dollaro. Sia T il prezzo dell’hamburger di un
cliente qualunque. Quanto valgono E(T ) e V ar(T )?
○␣ 7.8 e 0.82

○␣ 6.8 e 1.82

○ 4.4 e 1.64

○␣ 3.4 e 2.64

○␣ Nessuna delle altre risposte

Soluzione. Si ha T = 2X + 1. Pertanto, usando le proprietà del valor medio e della varianza,


otteniamo E(T ) = 2E(X) + 1 = 2 · (1.7) + 1 = 4.4 e V ar(T ) = 4V ar(X) = 4 · (0.41) = 1.64.

Q4. Sia X ∼ Bin 1, 13 e poniamo Y = 1 − X. Qual è la distribuzione di Y ?




○␣ Bin 1, 21


○␣ Bin 1, 13


○␣ Po 31


○ Bin 1, 23


○␣ Nessuna delle altre risposte

Soluzione. Osserviamo che, per ogni p ∈ [0, 1], si ha Bin(1, p) = Be(p). Quindi X prende valori in
{0, 1} e, di conseguenza, anche Y prende valori in tale insieme. Inoltre, Y vale 0 quando X vale 1
e, viceversa, vale 1 quando X vale 0. Pertanto Y ∼ Be 32 .


2
Q5. Nel mio barattolo del caffè ci sono 10 capsule di decaffeinato, 5 di lungo e 15 di espresso.
Pesco capsule in successione finché non trovo una capsula di caffè lungo. La variabile aleatoria X
è il numero di capsule pescate. La variabile aleatoria X è geometrica?
○␣ No, perché non è specificato un numero fissato di estrazioni

○ No, perché le estrazioni non sono tra loro indipendenti

○␣ No, perché l’esito di ogni estrazione non si può classificare come successo/insuccesso

○␣ Sı̀, la variabile aleatoria X è geometrica

○␣ Nessuna delle altre risposte

Soluzione. Le estrazioni non sono indipendenti in quanto effettuate senza reinserimento. Ogni
estrazione modifica la composizione del barattolo e quindi la probabilità di estrarre una capsula
di caffè lungo all’estrazione successiva.

Q6. Supponi di lanciare un dado 100 volte e di vincere e3 ogni volta che esce il punteggio 6.
Quanti euro ti aspetti di vincere?

○␣ 100

○␣ 300

○ 50

○␣ 30

○␣ Nessuna delle altre risposte

Soluzione. Costruiamo uno schema di Bernoulli. Per i = 1, . . . , 100, definiamo le variabili aleatorie

1 se all’i-esimo lancio di dado ottengo un punteggio 6
Xi =
0 altrimenti.

Le variabili X1 , . . . , X100 sono indipendenti ed identicamente distribuite con distribuzione Be 61 .



P100
Il numero di punteggi 6 ottenuti nei 100 lanci è dato da X = i=1 Xi ∼ Bin 100, 61 . Pertanto,


mi aspetto di vincere e3E(X) = e50.

3
Q7. Bacco torna a casa dopo la festa dell’ultimo dell’anno. Ha bevuto un po’ troppo e non riesce
a riconoscere la chiave di casa. . . Ha tre chiavi e prova e riprova una di queste tre, completamente
a caso e senza scartare la chiave se non entra nella serratura, finché non riesce ad entrare. Qual è
la probabilità che Bacco riesca ad aprire la porta entro il quarto tentativo (compreso)?
○ 0.80

○␣ 0.33

○␣ 0.10

○␣ 0.67

○␣ Nessuna delle altre risposte

Soluzione. Costruiamo uno schema di Bernoulli. Per i ≥ 1, definiamo le variabili aleatorie



1 se all’i-esimo tentativo Bacco riesce ad aprire la porta
Xi =
0 altrimenti.

Le variabili X1 , X2 , . . . sono indipendenti ed identicamente distribuite con distribuzione Be 13 .




Siamo interessati alla prima volta che Bacco infila la chiave corretta nella serratura  (istante di
primo successo), cioè alla variabile aleatoria T = inf{i ≥ 1 : Xi = 1} ∼ Ge 13 . Pertanto,
otteniamo 4
P (T ≤ 4) = 1 − P (T > 4) = 1 − 1 − 13 ≈ 0.80,
dove abbiamo usato la formula per la probabilità di lunga attesa.

Q8. Un algoritmo estrapola una certa informazione da un dataset. L’algoritmo sbaglia nell’estra-
1
polare questa informazione con probabilità 200 . Si testa l’algoritmo su 1000 dataset. Utilizzando
l’approssimazione di Poisson, calcolare la probabilità che l’algoritmo sia in errore almeno una
volta. Quanto vale questa probabilità?
○␣ 0.0067

○␣ 0.0337

○ 0.9933

○␣ 0.5643

○␣ Nessuna delle altre risposte

Soluzione. Costruiamo uno schema di Bernoulli. Per i = 1, . . . , 1000, definiamo le variabili


aleatorie

1 se l’algoritmo sbaglia nell’estrapolare l’informazione dall’i-esimo dataset
Xi =
0 altrimenti.
1

Le variabili X1 , . . . , X1000 sono indipendenti ed identicamente distribuite con distribuzione Be 200 .
P1000 1

Il numero totale di errori commessi dall’algoritmo è dato da X = i=1 Xi ∼ Bin 1000, 200 . Per
l’approssimazione di Poisson, X ha approssimativamente la distribuzione di Y ∼ Po(5) e quindi

P (X ≥ 1) ≈ P (Y ≥ 1) = 1 − P (Y = 0) = 1 − e−5 ≈ 0.9933.

4
Q9. Siano X e Y due variabili aleatorie discrete con densità congiunta pXY illustrata dalla tabella
Y
pXY
−1 0 1 pX
1 1 1
−1 0 6 3 2
X 1 1 1 1
1 6 6 6 2

1 1 1
pY 6 3 2 1

Quanto vale P (XY ≥ 0|X < 0)?


1
○ 3
1
○␣ 2
1
○␣ 6

○␣ 0

○␣ Non la posso calcolare


Soluzione. Usando la definizione di probabilità condizionata, otteniamo
P (XY ≥ 0, X < 0) P (X < 0, Y ≤ 0) pXY (−1, −1) + pXY (−1, 0) 1
P (XY ≥ 0|X < 0) = = = = .
P (X < 0) P (X < 0) pX (−1) 3

Q10. Siano X e Y due variabili aleatorie discrete con densità congiunta pXY illustrata dalla
tabella
Y
pXY
−1 0 1 pX
1 1 1
−1 0 6 3 2
X 1 1 1 1
1 6 6 6 2

1 1 1
pY 6 3 2 1

Quanto vale il valor medio di |X + Y |?


1
○␣ 6
5
○␣ 6
1
○␣ 3
2
○ 3

○␣ Nessuna delle altre risposte


Soluzione. Usando il teorema sul valor medio di funzioni di vettori aleatori, calcoliamo
1 1 1 1 1
E(|X + Y |) = | − 1 − 1| · 0 + | − 1 + 0| · + | − 1 + 1| · + |1 − 1| · + |1 + 0| · + |1 + 1| ·
6 3 6 6 6
1 1 1 1 1
=2·0+1· +0· +0· +1· +2·
6 3 6 6 6
2
= .
3

Potrebbero piacerti anche