Sei sulla pagina 1di 43

Variables aleatorias: concepto

I Sea Ω el espacio muestral asociado a un experimento aleatorio.

I Se denomina v.a. aleatoria (v.a.) a una función X : Ω −→ R, que


asigna a cada elemento ω ∈ Ω un número X (ω) ∈ R.
I Intuitivamente, una v.a. X es un modelo de un experimento
aleatorio, dado como una cantidad X (ω) que varı́a según el
resultado ω obtenido.
I Una v.a. se denota con letras mayúsculas (X ), mientras que las
letras minúsculas (x) indican valores concretos que toma la v.a.
cuando se evalúa en un punto muestral (ω).
I OBS: Las variables estadı́sticas que hemos visto en los temas 1, 2 y
3 se pueden modelizar como el resultado de evaluar v.a. en muestras
de indivi duos.
Variables aleatorias

V.a. discreta:
Si X toma valores sobre un conjunto S ⊆ R finito o infinito numerable,
decimos que X es una v.a. discreta.

V.a. continua
Si X toma valores sobre un conjunto S ⊆ R infinito no numerable (por
ejemplo, en un intervalo o en una unión de intervalos de R), decimos que
X es una v.a. continua.

Ejemplos
I X =“Resultado al tirar un dado” es una v.a. discreta con
S = {1, 2, 3, 4, 5, 6}.
I Y =“Número de coches que pasan por cierto peaje en una semana”
es una v.a. discreta con S = {0, 1, 2, . . .} = N ∪ 0.
I Z = “altura (en cms.) de un alumno elegido al azar” es una v.a.
continua con S = [0, ∞).
Variables aleatorias discretas

Función de probabilidad
Sea X una v.a. discreta con valores x ∈ S. Su función de probabilidad o
función de masa es la función que asigna a cada posible valor de X su
probabilidad: px = P{X = x} para x ∈ S.

Ejemplo
X = resultado de lanzar un dado equilibrado. La función de probabilidad
es
x 1 2 3 4 5 6
1 1 1 1 1 1
P{X = x} 6 6 6 6 6 6

En este caso, S = {1, 2, 3, 4, 5, 6} y p1 = . . . = p6 = 16 .


Variables aleatorias discretas

Función de probabilidad. Propiedades


Sea X una v.a. discreta que toma valores en el conjunto S con
probabilidades px = P{X = x} para x ∈ S.
I 0 ≤ P{X = x} ≤ 1.
X
I P{X = x} = 1.
x∈S

X
I P{X ≤ x} = P{X = y }.
y ∈S : y ≤x

I P{X > x} = 1 − P{X ≤ x}.


Variables aleatorias discretas

Función de distribución
La función de distribución o función de probabilidad acumulada de una
variable aleatoria X es la función F : R → [0, 1] que asigna a cada valor
x ∈ R la probabilidad:
X
F (x) = P{X ≤ x} = P{X = y }
y ∈S : y ≤x

OBS: Está definida para todo x ∈ R, no solo para x ∈ S.


• Propiedades:
I 0 ≤ F (x) ≤ 1 para todo x ∈ R.
I F (y ) = 0 para todo y < mı́n S. Por tanto, F (−∞) = 0.
I F (y ) = 1 para todo y > máx S. Por tanto, F (∞) = 1.
I Si x < y , entonces F (x) ≤ F (y ), es decir, F (x) es no decreciente.
I Para todo a, b ∈ R,
P{a < X ≤ b} = P{X ≤ b} − P{X ≤ a} = F (b) − F (a).
Esperanza de una v.a. discreta

Sea X una v.a. discreta que toma valores en S con probabilidades


px = P{X = x}. La esperanza de X es
X X
E [X ] = x P{X = x} = x px
x∈S x∈S
Esperanza de una v.a. discreta. Propiedades

I Para a, b ∈ R,
E [a + bX ] = a + bE [X ]
I Para cualquier función g (x),
X
E [g (X )] = g (x)P{X = x}
x∈S

I Sean X1 , . . . , Xn v.a., y a1 , . . . , an ∈ R. Entonces:

E [a1 X1 + · · · + an Xn ] = a1 E [X1 ] + · · · + an E [Xn ]


Varianza de una v.a. discreta

I La varianza de la v.a. discreta X es

V [X ] = E [(X − E [X ])2 ]
X
= (x − E [X ])2 P{X = x}
x∈S
X
= (x − E [X ])2 px
x∈S

I La raı́z cuadrada
p de la varianza es la desviación tı́pica. Se denota por
S[X ] = V [X ].
Varianza de una v.a. discreta. Propiedades

I La varianza se puede expresar también como

V [X ] = E X 2 − E [X ]2
 

I V [X ] ≥ 0

I Var [X ] = 0 si y solo si X es constante

I Si a, b ∈ R, entonces

V [a + bX ] = b 2 V [X ]

I Si X1 , . . . , Xn son v.a. independientes, y a1 , . . . , an ∈ R,

V [a1 X1 + · · · + an Xn ] = a12 V [X1 ] + · · · + an2 V [Xn ]


Ejemplo
Consideremos la v.a. X = número de caras al tirar una moneda
equilibrada dos veces. La función de probabilidad es

x 0 1 2
1 1 1
P{X = x} 4 2 4

La esperanza es
1 1 1
E [X ] = 0 × +1× +2× =1
4 2 4
y la varianza es
3 1
V [X ] = E [X 2 ] − E [X ]2 = − 12 =
2 2
donde
1 1 1 3
E [X 2 ] = 02 × + 12 × + 22 × =
4 2 4 2
Variables aleatorias continuas

Función de distribución
La función de distribución de una v.a. continua X es F (x) = P{X ≤ x},
para x ∈ R

Igual que en el caso discreto, la función F (x) da las probabilidades


acumuladas hasta el punto x ∈ R, pero ahora es una función continua y
no de tipo escalón.
Variables aleatorias continuas

Propiedades
I 0 ≤ F (x) ≤ 1, para todo x ∈ R
I F (−∞) = 0.
I F (∞) = 1.
I Si x < y entonces F (x) ≤ F (y ), es decir, F (x) es no decreciente.
I Para a < b, P(a < X ≤ b) = P(a ≤ X ≤ b) = F (b) − F (a).
I F (x) es continua.

La función de probabilidad no tiene sentido en variables aleatorias


continuas, porque P(X = x) = 0. Para sustituir la función de
probabilidad, en variables aleatorias continuas usaremos la función de
densidad.
Variables aleatorias continuas

Función de densidad
Para una v.a. continua X con función de distribución F (x), la función de
densidad de X es:
dF (x)
f (x) = = F 0 (x)
dx

Propiedades
I f (x) ≥ 0 ∀x ∈ R

I P(a ≤ X ≤ b) = ab f (x)dx ∀a, b ∈ R


R

Rx
I F (x) = P(X ≤ x) = −∞ f (u) du
R∞
I −∞ f (x)dx = 1
Variables aleatorias continuas

Ejemplo
Una v.a. X tiene función de densidad
12x 2 (1 − x)

para 0 < x < 1
f (x) =
0 en otro caso

Entonces:
Z 0.5 Z 0.5
P{X ≤ 0.5} = f (u) du = 12u 2 (1 − u) du = 0.3125
−∞ 0
Z 0.5 Z 0.5
P{0.2 ≤ X ≤ 0.5} = f (u) du = 12u 2 (1 − u) du = 0.2853
0.2 0.2

Z x  0 si x ≤ 0
3
x4
F (x) = P{X ≤ x} = f (u) du = 12{ x3 − 4 } si 0 < x ≤ 1
−∞
1 si x > 1

Esperanza de una v.a. continua

Sea X una v.a. continua que toma valores en S ⊆ R, con función de


densidad f (x). Entonces, la esperanza de X es
Z
E [X ] = x f (x) dx
S

Se cumplen las mismas propiedades que para la esperanza de una v.a.


discreta. Solo cambia la forma de calcularla.
Ejemplo

La esperanza de la v.a. X del ejemplo anterior es


Z Z 1
E [X ] = x · f (x)dx = x · 12x 2 (1 − x)dx =
R 0
Z 1
1 1 1 1 3
{12(x 3 − x 4 )}dx = 12{ x 4 − x 5 } 10 = 12{ − } =

=
0 4 5 4 5 5
Varianza de una v.a. continua

I La varianza de la v.a. continua X es


Z
V [X ] = E [(X − E [X ])2 ] = (x − E [X ])2 f (x) dx =
S
Z
= x 2 f (x) dx − E [X ]2 = E [X 2 ] − E [X ]2
S

I La raı́z cuadrada dep


la varianza se denomina desviación tı́pica, y se
denota por S[X ] = V [X ].

Se cumplen las mismas propiedades que la varianza de una v.a. discreta.


Solo cambia la forma de calcularla.
Ejemplo

La varianza de la v.a. X del ejemplo anterior es la siguiente:


2 3 2 9 1
Var [X ] = E X 2 − E [X ]2 = − { }2 = −
 
=
5 5 5 25 25
donde:
Z Z 1
12 5 x=1 12 6 x=1
E X2 = 2
12x 4 (1 − x)dx =
 
x f (x)dx = x |x=0 − x |x=0 =
R 0 5 6
12 2
= −2=
5 5
q
1
La desviación tı́pica es por tanto S[X ] = 25 = 15 .
Modelos probabilı́sticos

I Modelos de probabilidad discretos: Bernoulli, Binomial y Poisson.


I Modelos de probabilidad continuos: Uniforme, exponencial y normal.
I Teorema del Lı́mite Central
Modelo de Bernoulli

Descripción
Partimos de un experimento aleatorio con dos posibles resultados, que
denominamos éxito y fracaso
Definimos la v.a.

1 si el resultado es un éxito
X =
0 si el resultado es un fracaso

Sea p la probabilidad de éxito. Entonces, 1 − p es la probabilidad de


fracaso.

El experimento se llama prueba de Bernoulli y diremos que la v.a. sigue


una distribución de Bernoulli con parámetro p

Se escribe X ∼ Ber (p).


Modelo de Bernoulli

Ejemplo:
Tiramos una moneda equilibrada, y obtenemos

1 si sale cara
X =
0 si sale cruz

X sigue una distribución de Bernoulli con parámetro p = 1/2

Ejemplo:
Una lı́nea aérea estima que los pasajeros que compran un billete para un
vuelo tienen una probabilidad de 0.05 de no presentarse al embarque
Definimos 
1 si el pasajero se presenta
Y =
0 si no lo hace
Y sigue una distribución de Bernoulli con parámetro p = 0.95
Modelo de Bernoulli

Función de probabilidad:

P{X = 0} = 1 − p P{X = 1} = p

Función de distribución:

 0 si x < 0
F (x) = 1−p si 0 ≤ x < 1
1 si x ≥ 1

Propiedades:
I E [X ] = p × 1 + (1 − p) × 0 = p
I E [X 2 ] = p × 12 + (1 − p) × 02 = p
I V [X ] = E [X 2 ] − E [X ]2 = p − p 2 = p(1 − p)
p
I S[X ] = p(1 − p)
Modelo Binomial

Descripción
Una prueba de Bernoulli con parámetro p se repite n veces de manera
independiente. La v.a. número de éxitos obtenidos sigue una distribución
Binomial con parámetros n y p

Definición:
Una v.a. X sigue una distribución binomial con parámetros n y p si
 
n x
P{X = x} = p (1 − p)n−x
x

para x = 0, 1, . . . , n donde
 
n n!
=
x x!(n − x)!

Se escribe X ∼ B(n, p).


Modelo Binomial

Ejemplo
La lı́nea aérea del ejemplo anterior ha vendido 80 billetes para un vuelo.
La probabilidad de que un pasajero no se presente al embarque es de
0.05. Definimos X = número de pasajeros que se presentan. Entonces
(suponiendo independencia)

X ∼ B(80, 0.95)

I La probabilidad de que todos los pasajeros se presenten es


 
80
P{X = 80} = 0.9580 × (1 − 0.95)80−80 = 0.0165
80
I La probabilidad de que al menos un pasajero no se presente es

P{X < 80} = 1 − P{X = 80} = 1 − 0.0165 = 0.9835


Modelo Binomial

Propiedades
I E [X ] = np

I V [X ] = np(1 − p)

p
I S[X ] = np(1 − p)
Distribución exponencial

Descripción
La distribución exponencial se emplea para modelizar el tiempo que
transcurre hasta que ocurre cierto suceso aleatorio. Es conveniente
especificar la unidad de medida del tiempo (e.g., segundos, minutos,
horas, etc.)

Definición
Se dice que una v.a. X sigue una distribución exponencial con parámetro
(tasa) λ (sucesos por unidad de tiempo) si su función de densidad es

f (x) = λe −λx , x >0

Se escribe X ∼ Exp(λ)
Distribución exponencial: función de distribución

Supongamos que X ∼ Exp(λ). Su función de distribución es



0 si x < 0
Z x 

F (x) = f (u) du = Z x
−∞
λe −λu du = 1 − e −λx


 si x ≥ 0
0
Distribución exponencial: Propiedades

Propiedades:
1
I Esperanza: E [X ] =
λ

1
I Varianza: V [X ] =
λ2

1
I Desviación tı́pica: S[X ] =
λ
Ejemplo: Distribución exponencial
• Una empresa modeliza el tiempo que emplea en completar el servicio de
un cliente como una v.a. X ∼ Exp(λ) con tasa λ = 1/2 (servicios por
hora)
• ¿Cuánto tiempo se emplea, en promedio, para completar un servicio?

1
E [X ] = = 2 h.
λ
• ¿Probabilidad de que se tarde más de 2.5 h. en completar un servicio?

P{X > 2.5} = 1 − F (2.5) = e −λ×2.5 ≈ 0.2865

• ¿Probabilidad de que se tarde entre 1.5 y 2.5 h. en completar un


servicio?

P{1.5 ≤ X ≤ 2.5} = F (2.5) − F (1.5) = e −λ×1.5 − e −λ×2.5 ≈ 0.1859


Distribución normal

Descripción
La distribución normal es un modelo teórico que aproxima bien muchas
situaciones reales. La inferencia estadı́stica se fundamenta básicamente
en la distribución normal y en distribuciones que se derivan de ella.

Definición
Se dice que una v.a. X sigue una distribución normal o Gausiana con
parámetros µ y σ, y se denota por X ∼ N (µ, σ), si

1 (x−µ)2
f (x) = √ e − 2σ2
σ 2π

Propiedades
E [X ] = µ, V [X ] = σ 2
f (x) es simétrica respecto de µ
Distribución normal
Función de densidad para 3 valores distintos de µ y σ
Distribución normal

Propiedad
Si X ∼ N (µ, σ),
I P(µ − σ < X < µ + σ) ≈ 0.683
I P(µ − 2σ < X < µ + 2σ) ≈ 0.955
I P(µ − 3σ < X < µ + 3σ) ≈ 0.997
Distribución normal

Transformación lineal
Si X ∼ N (µ, σ), entonces:

Y = aX + b ∼ N (aµ + b, |a|σ)

Estandarización
Si X ∼ N (µ, σ),
X −µ
Z= ∼ N (0, 1)
σ
se llama la distribución normal estándar. Es una distribución simétrica y
centrada en 0. Además, su función de distribución está tabulada
Tablas de la N (0, 1)
Distribución normal: Ejemplo

Sea Z ∼ N(0, 1). Calculemos algunas probabilidades:

I Pr(Z < 1.5) = 0.9332. tabla

I Pr(Z > −1.5) = Pr(Z < 1.5) = 0.9332. ¿por qué?

I Pr(Z < −1.5) = Pr(Z > 1.5) = 1 − Pr(Z < 1.5) = 1 − 0.9332 =
0.0668. ¿por qué no ≤?

I Pr(−1.5 < Z < 1.5) = Pr(Z < 1.5) − Pr(Z < −1.5) =
0.9332 − 0.0668 = 0.8664.
Distribución normal: Ejemplo

Sea X ∼ N(µ = 2, σ = 3). Queremos calcular Pr(X < 4) y


Pr(−1 < X < 3.5):
I En primer lugar, tipificamos la v.a. original como sigue:

X −2 4−2
Pr(X < 4) = P{ < } = Pr{Z < 0.666̇} ≈ 0.7454,
3 3
donde Z ∼ N(0, 1).
I A continuación, buscamos :

Pr(−1 < X < 3.5) = Pr(−1 − 2 < X − 2 < 3.5 − 2)


−1 − 2 X −2 3.5 − 2
= P{ < < } = Pr(−1 < Z < 0.5) =
3 3 3
= Pr(Z < 0.5) − Pr(Z < −1) = 0.6915 − 0.1587 = 0.5328.

donde Z ∼ N(0, 1).


Distribución normal: otro ejemplo
Es difı́cil etiquetar la carne empaquetada con su peso correcto debido a
los efectos de pérdida de lı́quido (definido como porcentaje del peso
original de la carne). Supongamos que la pérdida de lı́quido en un
paquete de pechuga de pollo se distribuye como normal con media 4 % y
desviación tı́pica 1 %.
Sea X la pérdida de lı́quido de un paquete de pechuga de pollo elegido al
azar.
I ¿Cuál es la probabilidad de que 3 % < X < 5 %?
I ¿Cuál es el valor de x para que un 90 % de paquetes tengan pérdidas
de lı́quido menores que x?
I En una muestra de 4 paquetes, hallar la probabilidad de que todos
tengan pérdidas de peso de entre 3 y 5 %.

Sexauer, B. (1980) Drained-Weight Labelling for Meat and Poultry: An


Economic Analysis of a Regulatory Proposal, Journal of Consumer Affairs, 14,
307-325.
Distribución normal: otro ejemplo

3−4 X −4 5−4
Pr(3 < X < 5) = Pr{ < < } = Pr(−1 < Z < 1)
1 1 1
= Pr(Z < 1) − Pr(Z < −1) = 0.8413 − 0.1587 = 0.6827

Queremos Pr(X < x) = 0.9. Entonces

X −4 x −4
Pr{ < } = Pr(Z < x − 4) = 0.9
1 1
Mirando las tablas, tenemos x − 4 ≈ 1.28 que implica que un 90 % de las
paquetes tienen pérdidas de menores que x = 5.28 %.
Para un paquete p = Pr(3 < X < 5) = 0.6827. Sea Y el número de
paquetes en la muestra de 4 paquetes que tienen pérdidas de entre 3 % y
5 %. Luego Y ∼ B(4, 0.6827).
 
4
Pr(Y = 4) = 0.68274 (1 − 0.6827)0 = 0.2172.
4
Distribución normal: otro ejemplo

Si la muestra fuera de 5 paquetes, ¿cuál seria la probabilidad que por lo


menos una tuviera perdidas de entre el 3 % y 5 %? Tenemos que n = 5 y
p = 0.6827. Por lo tanto, Y ∼ B(5, 0.6827). Entonces,

Pr(Y ≥ 1) = 1 − Pr(Y < 1) = 1 − Pr(Y = 0) =


 
5
=1− 0.68270 (1 − 0.6827)5−0 = 1 − {1 − 0.6827}5 = 0.9968.
0
Teorema del Lı́mite Central (TLC)
El siguiente resultado se refiere a la distribución lı́mite de la media de una
muestra de n v.a. independientes e idénticamente distribuidas:
n
1X
X̄ = Xi ,
n
i=1

y nos indica que, para n grande, la distribución de X̄ es aproximadamente


normal, sea cual sea la distribución de las Xi .
Teorema
Sean X1 , . . . , Xn v.a. independientes e idénticamente distribuidas con
media µ y desviación tı́pica σ finitas. Para n lo bastante grande (n ≥ 30),

X̄ − µ
√ ∼ N (0, 1) (aproximadamente)
σ/ n

• Nota: el término “central” se refiere al centrado X̄ − µ en el


numerador, y el “lı́mite” se refiere a que
 
X̄ − µ
lı́m P √ ≤ x = P{Z 6 x}, donde Z ∼ N (0, 1)
n→∞ σ/ n
Aproximación de la distribución Binomial mediante la
normal

Binomial
Si X ∼ B(n, p) con n suficientemente grande (o bien n ≥ 30 y
0.1 ≤ p ≤ 0.9 o bien np ≥ 5 y n(1 − p) ≥ 5), entonces

X − np
p ∼ N (0, 1) (aproximadamente)
np(1 − p)
TLC y aproximaciones: Ejemplo
I Sea X ∼ B(100, 1/3). Bucamos el valor de Pr(X < 40), si bien el
cálculo exacto es muy largo ya que necesitamos un gran número de
operaciones.
I Utilizando el TLC tenemos que X ∼ B(100, 1/3) ≈ N{33.3, 4.714},
ya que:
1
E [X ] = 100 × = 33.3̇
3
1 2
V [X ] = 100 × × = 22.2̇
p 3 3
S[X ] = 22.2̇ = 4.714

I Por lo tanto,

X − 33.3̇ 40 − 33.3̇
Pr(X < 40) = P{ < }
4.714 4.714
≈ P{Z < 1.414} donde Z ∼ N(0, 1)
≈ 0.921.

Potrebbero piacerti anche