Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
ESTADÍSTICA
Grado matemáticas US
Pedro Verde Ruiz
1. Introducción 5
1.1. Experimentos aleatorios . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. σ−álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Sucesiones monótonas de conjuntos . . . . . . . . . . . . . . . . 9
1.5. σ−álgebra de Borel . . . . . . . . . . . . . . . . . . . . . . . . . 12
3. P. Condicionada e Independencia 19
3.1. Probabilidad condicionada . . . . . . . . . . . . . . . . . . . . . 19
3.1.1. Fórmula de la probabilidad total . . . . . . . . . . . . . 20
3.1.2. Fórmula de Bayes . . . . . . . . . . . . . . . . . . . . . . 20
3.1.3. Fórmula de la multiplicación . . . . . . . . . . . . . . . . 21
3.2. Independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.5. Momento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.6. Desigualdades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.6.1. Desigualdad Básica . . . . . . . . . . . . . . . . . . . . . 41
5.6.2. Desigualdad de Markov . . . . . . . . . . . . . . . . . . . 42
5.6.3. Desigualdad de Tchebychev . . . . . . . . . . . . . . . . 42
5.7. Función Generatriz de Momentos . . . . . . . . . . . . . . . . . 42
Introducción
Nota: Hay otras condiciones para estudiar más experimentos aleatorios (como
por ejemplo para estudiar el comportamiento de la bolsa).
1.2. Álgebra
Teorema 1.2.1 Dado Ω proveniente de un experimento aleatorio, el álgebra
de la proposición lógica de los sucesos es isomorfa al álgebra de los conjuntos.
2. A ∈ F ⇒ A ∈ F .
3. A, B ∈ F ⇒ A ∪ B ∈ F .
Propiedades
1. ∅ ∈ F
Dem. Como F es álgebra ⇒ Ω ∈ F ⇒ Ω = ∅ ∈ F .
2. Sea A, B ∈ F ⇒ A ∩ B ∈ F
Dem. A, B ∈ F ⇒ A, B ∈ F ⇒ A ∪ B ∈ F ⇒ A ∪ B = A ∩ B ∈ F .
3. Si A, B ∈ F ⇒ A − B ∈ F
Dem. A, B ∈ F ⇒ A, B ∈ F ⇒ A ∩ B ∈ F ⇒ A − B ∈ F
n
[
4. Si A1 , ..., An ∈ F ⇒ Ai ∈ F
i=1
Dem. A1 , A2 ∈ F ⇒ A1 ∪ A2 ∈ F . Por hipótesis de inducción
n−1
[
A1 , ..., An−1 ∈ F ⇒ Ai ∈ F .
i=1
n n−1
!
[ [
Luego si A1 , ..., An ∈ F ⇒ Ai = Ai ∪ An ∈ F
i=1 i=1
n
\
5. Si A1 , ..., An ∈ F ⇒ Ai ∈ F .
i=1
n
[
Dem Si A1 , ..., An ∈ F ⇒ A1 , ..., An ∈ F ⇒ Ai ∈ F
i=1
n
[ n
[ n
\
Como Ai ∈ F ⇒ Ai = Ai ∈ F .
i=1 i=1 i=1
1.3. σ−álgebra
Definición 1.3.1 Sea Ω un espacio muestral distinto de ∅. Sea A una fa-
milia de subconjuntos (o de sucesos) de Ω. Se dirá que dicha familia es un
σ−álgebra si:
1. Ω ∈ A .
2. Si A ∈ A ⇒ A ∈ A .
∞
[
3. Si A1 , ..., An , ... ∈ A ⇒ Ai ∈ A .
i=1
Propiedades
1. ∅ ∈ A
Dem. Ω ∈ A ⇒ Ω = ∅ ∈ A .
∞
\
3. Si A1 , ..., An , ... ∈ A ⇒ Ai ∈ A .
i=1
∞
[
Dem Si A1 , ..., An , ... ∈ F ⇒ A1 , ..., An , ... ∈ F ⇒ Ai ∈ F
i=1
∞
[ ∞
[ ∞
\
Como Ai ∈ F ⇒ Ai = Ai ∈ F .
i=1 i=1 i=1
∞ \
[ ∞
lı́m An = Am
n=1 m=n
Dem.
∞ [
\ ∞ ∞
[
ω 6∈ Am ⇒ ∃l : ω 6∈ Am ⇒ ω 6∈ ninguna infinidad ⇒
n=1 m=n m=l
⇒ ω 6∈ lı́mAn
∞ [
\ ∞
Luego lı́m An ⊆ Am .
n=1 m=n
Para demostrar la otra contención basta con seguir la implicación en sen-
∞ [
\ ∞ \∞ [ ∞
tido contrario, luego Am ⊆ lı́m y por tanto lı́m An = Am .
n=1 m=n n=1 m=n
1.4. SUCESIONES MONÓTONAS DE CONJUNTOS 9
∞ \
[ ∞ ∞
\
ω 6∈ Am ⇒ ω 6∈ a la intersección Am ∀n ≥ 1 ⇒ ω 6∈ a infinitos
n=1 m=n m=n
elementos⇒ ω 6∈ lı́m An
∞ \
[ ∞
Luego lı́m An ⊆ Am
n=1 m=n
Para demostrar la otra contención, basta con seguir la implicación en
∞ \
[ ∞
sentido contrario. Luego lı́m An = Am .
n=1 m=n
∞
\
Si {An } ↓⇒ lı́m sup An = lı́m inf An = An .
n→∞ n→∞
n=1
Dem.
∞ [
\ ∞ ∞ [
\ ∞ ∞
[
lı́m sup An = Am = An = An
n→∞
n=1 m=n n=1 n=1 n=1
[ ∞
∞ \ ∞
[
lı́m inf An = Am = An .
n→∞
n=1 m=n n=1
| {z }
=An
∞ [
\ ∞ ∞
\
lı́m sup An = Am = An .
n→∞
n=1 m=n n=1
| {z }
=An
∞
[ ∞
\ ∞ \
[ ∞ ∞
\
lı́m inf An = Am = An = An .
n→∞
n=1 m=n n=1 n=1 n=1
C ⊂ σ(C ).
Proposición 1.4.2 Sea Ω un espacio muestral distinto de\ ∅. Sea {Ai }i∈I una
familia de σ−álgebras construida sobre Ω, se verifica que Ai es σ−álgebra.
i∈I
Dem.
\ ∞
[
3. Si A1 , . . . , An , . . . , ∈ Ai ⇒ A1 , . . . , An , · · · ∈ Ai ,∀i ∈ I ⇒ Aj ∈ A
i∈I j=1
∞
[ \
,∀i ∈ I ⇒ Aj ∈ Ai .
j=1 i∈I
σ(F ) = M (F )
M (F ) ⊆ σ(F ).
M = {A ⊆ Ω | A ∈ M (F ) y A ∈ M (F )} ⊆ M (F ).
∀A ∈ A , P (A) ≥ 0.
Sean A1 , ...,
! An ... ∈ A dos a dos disjuntos, entonces
∞
[ X ∞
P Ai = P (Ai ) (σ−aditividad).
i=1 i=1
P (Ω) = 1
Propiedades
1. P (∅) = 0
∞
X
Dem. ∅ = ∅ ∪ ∅ ∪ ... ⇒ P (∅) = P (∅) ⇒ P (∅) = 0.
i=1
13
5. Si A, B ∈ A , A ⊂ B ⇒ P (B \ A) = P (B) − P (A)
Dem. B = (B ∩ A) ∪ (B ∩ A) = A ∪ (B ∩ A) = A ∪ (B − A)
P (B) = P (A) + P (B \ A) ⇒ P (B \ A) = P (B) − P (A).
6. Si A, B ∈ A , P (B − A) = P (B) − P (B ∩ A).
Dem. B = (B ∩ A) ∪ (B ∩ A) ⇒ P (B) = P (B ∩ A) + P (B ∩ A) ⇒
⇒ P (B \ A) = P (B ∩ A) = P (B) − P (B ∩ A).
N
[ N
X
P (Ω) = P ( ωj ) = P (ωj ) = 1
j=1 j=1
k
!
[
Por otro lado tenemos P (A) = P ωij , como ωij ∩ ωig = ∅ si j 6= g,
j=1
k
! k
[ X
tenemos P (A) = P ωij = ωij .
j=1 j=1
Bastará conocer el valor de la probabilidad de cada uno de los ωi . Una de
las soluciones inmediatas es que todos tengan la misma probabilidad, luego
N
X 1
tendrı́amos: P (Ω) = P (ωj ) = 1 ⇒ P (ωj ) = .
j=1
N
k
X k c.f avorables
En este caso P (A) = ωij = =
j=1
N c.posibles
4. P es contı́nua en el vacı́o.
{An } ↓ que converge a ∅, entonces lı́m P (An ) = P ( lı́m An ) = P (∅) = 0
n→∞ n→∞
Dem.
1⇒2
∞
! ∞
[ X
A1 , . . . , An , ... ∈ F , Ai ∩ Aj = ∅ si i 6= j, P Aj = P (An ).
j=1 j=1
A0 = ∅, A1 , A2 − A1 , . . . , An − An−1 , . . .
n
[ n
[
. Es fácil ver que Aj = (Aj − Aj−1 ) = An . Igual que lo hemos
j=1 j=1
hecho para!n, lo podemos hacer para!∞,
∞
[ [n [∞
P An = P Aj ∪ Aj =
n=1 j=1 j=n+1
∞
n
!
[ [
=P (Aj − Aj−1 ) ∪ (Aj − Aj−1 ) =(ya que todos
j=1 j=n+1
los elementos son dos a dos disjuntos)
Xn X∞
= P (Aj − Aj−1 ) + P (Aj − Aj−1 )
j=1 j=n+1
∞
X
= P (An ) + P (Aj − Aj−1 )
j=n+1
2⇒3
Hay que probar que si P es continua para sucesiones crecientes, P es
continua para sucesiones decrecientes.
A1 ⊃ A2 ⊃ A3 . . . Construimos la siguiente sucesión:
A1 − A1 , A1 − A2 , A1 − A3 . . . , {A1 − !
An } es creciente, luego
[∞
lı́m P (A1 − An ) = P (A1 − An )
n→∞
n=1
∞
!
\
Por tanto P (A1 ) − P An = P (A1 ) − lı́m P (An ) ⇒
n→∞
n=1
∞
!
\
⇒ lı́m P (An ) = P An = P ( lı́m An ).
n→∞ n→∞
n=1
4⇒1
Hipótesis {An } decreciente que converge a ∅, entonces lı́m P (An ) =
n→∞
∞
!
\
P An = P (∅) y A1 , . . . , An . . . con Ai ∩ Aj = ∅ si i 6= j.
n=1
∞
[ n
[ ∞
[
An = Aj ∪ Aj
n=1 j=1 j=n+1
∞
n
!
X [
= P (Aj ) + P Aj
j=1 j=n+1
Proposición 2.2.2 Sea (Ω, A , P ) espacio probabilı́stico y sea {An } una su-
cesión de sucesos , se cumple:
Dem.
∞ \
∞ ∞
!
[ \
1. P (lı́m An ) = P ( Am ) = lı́m P Am
n→∞
n=1 m=n m=n
| {z }
creciente
∞ ∞
!
\ \
Por otro lado Am ⊆ An ⇒ P Am ≤ P (An ) ⇒
m=n m=n
∞
!
\
⇒ lı́m P Am ≤ lı́m inf P (An ) ⇒ P (lı́m An ) ≤ lı́m P (An ).
n→∞ n→∞
m=n
P. Condicionada e
Independencia
AB = {A ∩ B : A ∈ A }.
P (A ∩ B)
PB (A) = P (A | B) = .
P (B)
P (B ∩ B)
PB (B) = P (B | B) = = 1.
P (B)
∞
! ∞
! P( An ∩ B)
[ [ n=1
PB An = P An | B = =
n=1 n=1
P (B)
∞
!
[
P (An ∩ B)
n=1
= .
P (B)
19
∞
X
P (C) = P (C | An )P (An )
n=1
∞ ∞
!
[ [
Dem. P (C) = P (C ∩ Ω) = P (C ∩ An ) = P (C ∩ An ) , como
n=1 n=1
(Ai ∩ C) ∩ (Aj ∩ C)!= ∅, tenemos
[∞ X∞ ∞
X
P (C ∩ An ) = P (An ∩ C) = P (C | An )P (An ).
n=1 n=1 n=1
P (C | Ai )P (Ai )
P (Ai | C) = ∞
X
P (C | An )P (An )
n=1
P (Ai ∩ C) P (C | Ai )P (Ai )
Dem. P (Ai | C) = = ∞
P (C) X
P (C | An )P (An )
n=1
3.2. INDEPENDENCIA 21
3.2. Independencia
Sea (Ω, A , P ) un espacio probabilı́stico. Realizamos un experimento B con
P (B) > 0 y el espacio probabilı́stico de después es el mismo.
Si A es independiente de B, P (A | B) = P (A).
P (A ∩ B)
P (A | B) = = P (A) ⇒ P (A ∩ B) = P (A)P (B).
P (B)
Si B es independiente de A, P (B | A) = P (B).
P (B ∩ A)
P (B | A) = = P (B) ⇒ P (B ∩ A) = P (B)P (A).
P (A)
El concepto de independencia es mutuo, como acabamos de ver.
1 1 1
A1 ∩ A2 = {ω1 }, P (A1 ∩ A2 ) = = P (A1 )P (A2 ) = ∗
4 2 2
1 1 1
A1 ∩ A3 = {ω1 }, P (A1 ∩ A3 ) = = P (A1 )P (A3 ) = ∗
4 2 2
1 1 1
A2 ∩ A3 = {ω1 }, P (A2 ∩ A3 ) = = P (A2 )P (A3 ) = ∗
4 2 2
¿Son independientes mutuamente?
1
P (A1 ∩ A2 ∩ A3 ) = P ({ω1 }) =
No son mutuamente
4
1 1 1 1 ⇒ independientes
P (A1 )P (A2 )P (A3 ) = ∗ ∗ =
2 2 2 8
Corolario 3.2.1 Mutuamente independiente ⇒ independiente 2 a 2, pero la
implicación contraria no tiene porqué ser cierta.
Propiedades
1. χ−1 (∅0 ) = ∅
Dem. χ−1 (∅0 ) = {ω ∈ Ω : χ(ω) ∈ ∅0 } = ∅
2. χ−1 (Ω0 ) = Ω
Dem.χ−1 (Ω0 ) = {ω ∈ Ω : χ(ω) ∈ Ω0 } = Ω
23
= {ω ∈ Ω : χ(ω) ∈ A0i
para algún i} =
[ [
= {ω ∈ Ω : χ(ω) ∈ A0i } = χ−1 (A0i ).
i i
!
\ \
6. χ−1 A0i = χ−1 (A0i ).
i i
!
\ \
Dem. χ −1
A0i = {ω ∈ Ω : χ(ω) ∈ A0i } =
i i
Pero, ¿cómo demostramos que la función χ es una variable aleatoria real? Con
la siguiente proposición.
Dem. Supongamos que χ es una variable aleatoria real. esto significa que
χ−1 (B) ∈ A ∀B ∈ B(R).
Luego χ−1 ((−∞, x]) ∈ A ∀x ∈ R ⇒ χ−1 (C ) ∈ A .
Veamos el recı́proco.
Si χ−1 (C ) ∈ A ⇒ σ(χ−1 (C )) ∈ A ⇒ χ−1 (σ(C )) ∈ A ⇒ χ−1 (B(R)) ∈ A .
De ahora en adelante, cada vez que nos refiramos a una función χ que sea
una variable aleatoria, entendemos que esta está definida sobre dos espacios
medibles (Ω, A ) y (Ω0 , A 0 ) donde Ω y Ω0 son distintos del vacı́o, A es un
σ−álgebra sobre Ω y A 0 es un σ−álgebra sobre Ω0 .
Proposición 4.2.2 Sea χ una variable aleatoria real. Sea f una función
continua real. Se verifica que f ◦ χ es una variable aleatoria real.
χ f
Dem. Tenemos Ω / R 8/ R
f ◦χ
−1
Tomemos (f ◦ χ) sobre un abierto B.
(f ◦ χ)−1 (B) = χ−1 (f −1 (B)) = χ−1 (B 0 ) ∈ A ya que al ser f una función
continua, f −1 (B) = B 0 es un abierto.
χ−1 f −1
Por tanto A o B(R) o B(R)
Corolario 4.2.2 Sea χ una variable aleatoria real. Sea a ∈ R. Se verifica que
χ + a, aχ, χa y | χ |a son variables aleatorias reales en sus respectivos campos
de existencia.
Con campos de existencia nos referimos a los puntos de χ donde se puede
definir la función.
Dem.
C tiene la estructura de B − A ⇒ C ∈ A .
| χ |= χ+ + χ− .
4.4. Sucesiones
Proposición 4.4.1 Sea {χn } una sucesión de variables aleatorias reales. Se
verifica:
sup {χn }, ı́nf {χn }, lı́m sup {χn }, lı́m inf {χn } son variables aleatorias
reales.
(Hay que tener en cuenta que lı́m sup y lı́m inf no son de conjuntos, si no
de puntos).
Dem. Basta demostrar el supremo, ya que ı́nf = − sup, lı́m inf = sup ı́nf,
lı́m sup = ı́nf sup.
sup−1 ((−∞, x]) = {ω ∈ Ω | sup {χn (ω)} ∈ (−∞, x]}
= {ω ∈ Ω | sup {χn (ω)} ≤ x}
= {ω
\ ∈ Ω | χn (ω) ≤ x ∀n} \
= {ω ∈ Ω | χn (ω) ≤ x} = χ−1 ((−∞, x]) ∈ A
n n
Por ser intersección numerable de elementos de A .
IA : Ω −→ {0,1}
0 si ω ∈
6 A
IA (ω) =
1 si ω ∈ A
4.6. VARIABLES ALEATORIAS SIMPLES 29
1. I∅ = 0
2. IΩ = 1
3. IA = 1 − IA
n
X
4. Sea A1 , . . . , An con Ai ∩ Aj = ∅ si i 6= J, I Sn
i=1 Ai = IA1 .
i=1
n
Y
5. Sea A1 , . . . , An , I
Tn
i=1 Ai = IA1 .
i=1
χ1 + χ2
n
X m
X
χ1 + χ2 = xi IAi + yj IBj
i=1 j=1
n
X m
X
= xi IAi ∩Ω + yj IBj ∩Ω
i=1 j=1
n
X m
X
= xi IAi ∩(Sm
j=1 Bj )
+ yj IBj ∩(Sni=1 Ai )
i=1 j=1
n
X m
X
= xi ISm
j=1 (Ai ∩Bj )
+ yj ISni=1 (Bj ∩Ai )
i=1 j=1
i = 1, ..., n
Por tanto χ1 + χ2 ∈ {xi + yj } con y Ai ∩ Bj ∩ Ak ∩ Bl = ∅
j = 1, ...m
n [
[ m n
[ m
[
si i 6= k o j =
6 l. Además, (Ai ∩ Bj ) = Ai ∩ Bj = Ω.
i=1 j=1 i=1 j=1
χ1 · χ2
Con un razonamiento similar llegamos a:
n
X m
X m
X n
X
χ1 · χ2 = xi IAi ∩Bj · yj IBj ∩Ai
i=1 j=1 j=1 i=1
n X
X m
= (xi · yj )IAi ∩Bj
i=1 j=1
i = 1, ..., n
Por tanto χ1 · χ2 ∈ {xi · yj } con y Ai ∩ Bj ∩ Ak ∩ Bl = ∅ si
j = 1, ...m
n [
[ m n
[ m
[
i 6= k o j =
6 l. Además, (Ai ∩ Bj ) = Ai ∩ Bj = Ω.
i=1 j=1 i=1 j=1
χ = lı́m χn
n→∞
tal que {χn } ↑ con χn variable aleatoria simple no negativa
(Ω ,A
O
,P)
χ χ−1
(R , B(R) , Pχ )
¿Es función de probabilidad? Sı́. Para demostrarlo veamos que cumple todos
los axiomas de Kolmogorov:
F : R → R+ ∪ {0}
F (x) = Pχ ((−∞, x]) = P [χ ≤ x]
Se verifica:
1. F es una función monótona no decreciente.
2. lı́m F (x) = 1.
x→∞
3. lı́m F (x) = 0.
x→−∞
Dem.
1. Sea x1 ≤ x2 ⇒ (−∞, x1 ] ⊆ (−∞, x2 ]. Como la probabilidad es monótona:
Pχ ((−∞, x1 ]) ≤ Pχ ((−∞, x2 ]) ⇒ F (x1 ) ≤ F (x2 ).
2. Sea {Axn }xn →∞ = {(−∞, xn ]}x→∞ es una sucesión creciente que converge
a R.
lı́m F (xn ) = lı́m Pχ ((−∞, xn ]) = Pχ ( lı́m (−∞, xn ]) = Pχ (R) = 1.
xn →∞ xn →∞ xn →∞
3. Sea {Axn }xn →−∞ = {(−∞, xn ]}xn →−∞ es una sucesión decreciente que
converge al vacı́o.
lı́m F (xn ) = lı́m Pχ ((−∞, xn ]) = Pχ ( lı́m (−∞, xn ]) = Pχ (∅) = 0.
xn →−∞ xn →−∞ xn →−∞
4. Sea {Axn }xn →a− = {(−∞, xn ]}xn →a− es una sucesión decreciente que
converge a (−∞, a]
lı́m F (x) = lı́m + Pχ ((−∞, xn ]) = Pχ ( lı́m + (−∞, xn ]) = Pχ ((−∞, a]) = F (a).
xn →a+ xn →a xn →a
5. Sea {Axn }xn →a+ = {(−∞, xn ]}xn →a+ es una sucesión creciente que con-
verge a (−∞, a)
lı́m F (x) = lı́m− Pχ ((−∞, xn ]) = Pχ ( lı́m− (−∞, xn ]) = Pχ ((−∞, a))
xn →a− xn →a xn →a
Dem.
Como F es función de distribución, sabemos que a lo más tiene un conjunto
numerable de saltos de discontinuidad.
(x−
Sea B = {xn | p(xn ) = F (xn ) − FX n )} ese conjunto.
Definimos la función G(x) = p(xn ). Veamos las propiedades:
xn ≤x
1. Es monótona no decreciente.
X x ≤ y, X
Dem. Sea x, y con X
G(y) − G(x) = p(xn ) − p(xn ) = p(xn ) > 0
xn ≤y xn ≤x x≤xn ≤y
2. lı́m H(x) = 1 − α.
x→∞
3. lı́m H(x) = 0.
x→−∞
Definimos
H(x)
Fc (x) =
1−α
Luego F (x) = G(x)+H(x) ⇒ F (x) = αFd (x)+(1−α)Fc (x) con 0 ≤ α ≤ 1.
Sea 0 < α < 1, supongamos que hay dos descomposiciones:
α1 Fd1 (x) + (1 − α1 )Fc1 (x) = α2 Fd2 (x) + (1 − α2 )Fc2 (x)
Eso implica que α1 Fd1 (x) − α2 Fd2 (x) = (1 − α2 )Fc2 (x) − (1 − α1 )Fc1 (x) = c
lı́m α1 Fd1 (x) − α2 Fd2 (x) = c = 0, luego α1 = α2 .
x→∞
Nota 4.7.1 El teorema de descomposición de la función de distribución es
una parte del teorema de descomposición de Lebesgue, de donde se deduce:
F = β1 Fd + β2 Fac + β3 Fs 2
con 0 ≤ βi ≤ 1 y β1 + β2 + β3 = 1. Esta descomposición es única.
2
Función discreta, Función absolutamente continua, Función singular respectivamente.
3
la existencia proviene del teorema de Radon-Nikodym
Capı́tulo 5
X
Siempre que xn P [χ = xn ] < +∞.
n
R +∞
En el caso de una distribución continua E[χ] = −∞
xf (x)dx
R +∞
si −∞ |x|f (x)dx < +∞
37
Propiedades
1. Si χ es una variable indicador (χ = IA ), E[χ] = P (A).
1 si ω ∈ A
Dem. χ(ω) = IA (ω) =
0 si ω 6∈ A
E[χ] = 1 · P [ω ∈ A] + 0 · P [ω 6∈ A] = P [ω ∈ A] = P (A).
2. Sea χ una variable aleatoria acotada (∃ M > 0 tal que P [|χ| < M ] =
1) ⇒ existe E[χ].
Dem.
0
X X X z }| {
|xn |P [χ = xn ] = |xn |P [χ = xn ] + |xn | P [χ = xn ]
n {xn : |xn |<M } {xn : |xn |≥M }
X
=M P [χ = xn ] = M < +∞
{xn : |xn |<M }
5. Proposición 5.1.1 Sea χ una variable aleatoria real discreta. Sea g una
función medible Borel real. Sea Y = g(χ) para la que sabemos que ∃E[Y ].
Se verifica: X
E[Y ] = g(xn )P [χ = xn ]
xn
Dem.
X X X
E[Y ] = yj P [Y = yj ] = yj P ({ω ∈ Ω | Y (ω) = yj }) = yj P (Bj )
j j j
Bj = {ω ∈ Ω | Y (ω) = yj }
= {ω ∈ Ω | g(χ(ω)) = yj }
= {ω ∈ Ω | χ(ω) = g −1 (yj )}
= {ω ∈ Ω | χ(ω) = xjn : g(xjn ) = yj para algún n}
[
= {ω ∈ Ω | χ(ω) = xjn : g(xjn ) = yj }
n
[
= Ajn
n
Por tanto nos queda:
!
X X [
E[Y ] = yj P (Bj ) = yj P Ajn , pero los Ajn son disjuntos,
j j n
luego:
6. χ = a, P [χ = a] = 1 ⇒ E[χ] = a.
7. E[aχ + b] = aE[χ] + b.
8. ∃ E[χ] ⇔ ∃ E[|χ|].
9. |E[χ]| ≤ E[|χ|].
5.2. Varianza
Definición 5.2.1 Sea E[χ] = µ, definimos la varianza como
E[(χ − µ)2 ] = σ 2
Propiedades
1. var(χ) = σ 2 = E[(χ − µ)2 ] = E[χ2 ] − µ2 , con µ = E[χ].
Dem. E[(χ−µ)2 ] = E[χ2 +µ2 −2µχ] = E[χ2 ]+µ2 −2µE[χ] = E[χ2 ]−µ2
5.5. Momento
Definición 5.5.1 Dada una variable aleatoria χ, se define el momento res-
pecto al origen de orden r, r ∈ N, representado por E[χr ] como:
X
Caso discreto: E[χr ] = xrn P [χ = xn ]
xn
5.6. DESIGUALDADES 41
Z +∞
Caso absolutamente continuo: E[χ ] = r
xr f (x)dx
−∞
Dem.
r r
" #
X r k r−k
X r
• E[χr ] = E[(χ−µ+µ)r ] =E (χ − µ) µ = E[(χ−µ)k ]µr−k
k k
" r k=0 # r
k=0
X r X r
• E[(χ − µ)r ] = E χr µr−k = E[χk ]µr−k
k=0
k k=0
k
5.6. Desigualdades
5.6.1. Desigualdad Básica
Proposición 5.6.1 Sea χ una variable aleatoria real. Sea g una función me-
dible Borel no negativa (g : χ −→ [0, ∞]) para la cual existe E[g(χ)]. Se verifica
que:
E[g(χ)]
P [g(χ) ≥ ε] ≤ ∀ε > 0
ε
E[(χ − µ)2 ]
P [|χ − µ| ≥ ε] ≤
ε2
Analicemos la función:
X
M (t) = etxn P [χ = xn ] ⇒ M (0) = 1
xn
∂M (t) X
= xn etxn P [χ = xn ] ⇒ M (0) = E[χ].
∂t x n
∂ 2 M (t) X 2 txn
2
= xn e P [χ = xn ] ⇒ M (0) = E[χ2 ].
∂ t x n
∂ r M (t)
X
r txn
Luego podemos decir que = x e P [χ = x ] = E[χr ].
n n
∂ r t t=0 xn
t=0
Como existen todas las derivadas, podemos expresar la función generatriz
como una serie de Taylor:
∞
tχ χt χ2 t2 X E[χr ]
M (t) = E[e ] = E[1 + + + ...] = tr
1! 2! r=1
r!
Otras caracterı́sticas
Definición 5.7.2 Sea χ una variable aleatoria real, la moda es aquel valor
x0 de la variable tal que:
1 1 1
P [χ ≥ x] ≥ ⇒ 1 − P [χ < x] ≥ ⇒ ≥ P [χ < x] = P [χ ≤ x] − P [χ = x]
2 2 2
1 1 1
⇒ P [χ ≤ x] ≤ + P [χ = x] ⇒ ≤ P [χ ≤ x] ≤ + P [χ = x]
2 2 2
1 1
⇒ ≤ F (x) ≤ + P [χ = x]
2 2
1
Si χ es absolutamente continua entonces F (x) = .
2
P [χ ≤ x] ≥ p y P [χ ≥ x] ≥ 1 − p
En este tema vamos a ver algunos modelos de tipo discreto y otros absolu-
tamente continuos.
Varianza: var(χ) = 0
45
Función de probabilidad: P [χ = 0] = 1 − p = q y P [χ = 1] = p
0 x<0
Función de distribución: F (x) = q 0≥x<1
1 x≥1
Esperanza: E[χ] = p.
X
Dem. E[χ] = µ = xn P [χ = xn ] = 1P [χ = 1] = p
xn
Varianza: var(χ) = pq
Dem. X
var(χ) = σ 2 = (xn − µ)2 P [χ = xn ] = E[χ2 ] − µ2 = p − p2 = p(1 − p) = pq
xn
Función de probabilidad: P [χ = k] = Nk pk q N −k , k = 1, . . . , N .
X
Función de distribución: F (x) = P [χ = k]
k≤x
Esperanza: E[χ] = N p
Dem.
N N N
X X N k N −k X N!
E[χ] = µ = kP [χ = k] = k p q = k pk q N −k
k k!(N − k)!
k=0 k=0 k=0
N −1
X (N − 1)!
= Np pk−1 q N −k
k=1
(k − 1)!(N − k)!
Varianza: var(χ) = N pq
Dem. var(χ) = σ 2 = E[χ2 ] − µ2 = E[χ(χ − 1)] + E[χ] − µ2
N N
X N k N −k X N!
• E[χ(χ − 1)] = k(k − 1) p q = pk q N −k
k (k − 2)!(N − k)!
k=0 k=0
N −2
X (N − 2)!
= N (N − 1)p2 pk−2 q N −k
(k − 2)!(N − k)!
k=2
Haciendo el cambio k − 2 = y, con y ∈ {0, . . . , N − 2} nos queda:
N −2
X (N − 2)!
E[χ(χ − 1)] = N (N − 1)p2 py q N −2−y
y!(N − 2 − y)!
y=0
λx
Función de probabilidad: P [χ = x] = e−λ .
x!
Veamos que la suma es 1
∞ ∞
X λx X λx
e−λ = e−λ = e−λ eλ = 1
x=0
x! x=0
x!
Esperanza: E[χ] = λ
Dem. ∞ ∞ ∞
X λx X λx−1 X λx
E[χ] = xe−λ = e−λ = e−λ λ = e−λ λeλ = λ
x! (x − 1)! (x − 1)!
x=0 x=0 x=0
Varianza: var(χ) = λ.
Dem. var(χ) = σ 2 = E[χ2 ] − µ2 = E[χ(χ − 1)] + E[χ] − µ2
∞
X λx
• E[χ2 ] = x2 e−λ
x=0
x!
• E[χ(χ − 1)] = E[χ2 ] − E[χ] ⇒ E[χ2 ] = E[χ(χ − 1)] + E[χ]
∞ ∞
X λx X λx
E[χ(χ − 1)] = x(x − 1)e−λ = e−λ
x=0
x! x=0
(x − 2)!
∞
X λx−2
= e−λ λ2 = e−λ λ2 eλ = λ2
x=0
(x − 2)!
q
Esperanza: E[χ] =
p
Dem.
∞ ∞ ∞ ∞
!
X X X X
E[χ] = kP [χ = k] = kq k p = p kq k = pq kq k−1
k=0 k=0 k=0 k=0
∞ ∞
!
X ∂ k ∂ X ∂ 1 1 q
= pq (q ) = pq qk = pq = pq 2
=
∂q ∂q ∂q 1 − q (1 − q) p
k=0 k=0
q
Varianza: var(χ) =
p2
Dem. var(χ) = σ 2 = E[χ2 ] − µ2 = E[χ(χ − 1)] + E[χ] − µ2
∞
X ∞
X ∞
X
k k 2
• E[χ(χ − 1)] = k(k − 1)q p = p k(k − 1)q = pq k(k − 1)q k−2
k=0 k=0 k=0
∞ ∞
!
∂2 k ∂2 ∂2
X X 1
= pq 2 2
(q ) = pq 2 2 qk = pq 2 2
∂ q ∂ q ∂ q 1−q
k=0 k=0
2 2q 2
= pq 2 =
(1 − q)3 p2
Luego nos queda:
2q 2 q q 2 q 2 + pq q 2 + (1 − q)q q
var(χ) = 2 + − 2 = = =
p p p p2 p2 p2
p
Función generatriz de momentos: M (t) =
1 − qet
Dem.
∞ ∞ ∞
X X X p
M (t) = E[etx ] = etx q k p = p etx q k = p (et q)k = (et q < 1)
1 − qet
k=0 k=0 k=0
Para abreviar escribiremos χ ∼ G(p) para indicar que χ es una variable alea-
toria con distribución geométrica.
K
Esperanza: E[χ] = n
N
KN −KN −n
Varianza: var(χ) = n
N N N −1
máx {0, n − (N − K)} ≤ x ≤ mı́n {n, K}
χ : Ω −→ {x1 , x2 , x3 , . . . , xN } ⊂ R
1
Función de probabilidad: P [χ = xi ] = .
N
N
1X
Esperanza: E[χ] = xi .
N i=1
N
1X
Varianza: var(χ) = (xi − µ)2 .
N i=1
Ejemplos: Para un dado perfecto o una moneda perfecta, todos los resul-
1 1
tados tienen la misma probabilidad ( y respectivamente).
6 2
bk+1 − ak+1
Momentos: E[χk ] =
(k + 1)(b − a)
(b − a)2
Varianza: var(χ) = .
12
b3 − a3 a+b (b − a)2
Dem. var(χ) = E[χ2 ] − E[χ] = − =
3(b − a) 2 12
etb − eta
Función generatriz de momentos: M (t) =
t(b − a)
Z +∞ Z b tx
e etb − eta
Dem. M (t) = E[etx ] = etx f (x)dx = =
−∞ a b−a t(b − a)
Para abreviar escribiremos χ ∼ U [a, b] para indicar que χ es una variable
aleatoria con distribución uniforme continua.
Caso Particular
Distribución uniforme en el intervalo [0, 1].
f (x) = 1
0 si x < 0
Función de distribución: F (x) = x si 0 ≤ x < 1
1 si x ≥ 1
1
Esperanza: E[χ] =
2
1
Varianza: var(χ) =
12
et − 1
Función generatriz de momentos: M (t) = .
t
Proposición 6.2.1 Sea χ una variable aleatoria absolutamente continua con
función de distribución F. Sea Y otra variable definida de la siguiente forma
Y = F (χ). Entonces la variable Y sigue una ley uniforme en el intervalo [0, 1].
Dem.
FY (y) = P [Y ≤ y] = P [F (χ) ≤ y] = P [χ ≤ F −1 (y)] = F (F −1 (y)) = y
1 − e−λx si x ≥ 0
Función de distribución: F (x) =
0 si x < 0
Z x Z x
x
Dem. F (x) = f (t)dt = λe−λt dt = −e−λt 0 = 1 − e−λx
−∞ 0
Z +∞
1
Esperanza: E[χ] = xλe−λx dx =
0 λ
Dem. Integral por partes.
Z +∞ 2
2 −λx 1 1
Varianza: var(χ) = x λe dx − = 2
0 λ λ
Dem. La integral se resuelve por partes dos veces.
λ
Función generatriz de momentos: M (t) =
λ−t
Dem.
Z +∞
M (t) = E[etx ] = etx λe−λx dx
0
6.2. MODELOS ABSOLUTAMENTE CONTINUOS 53
Z +∞
λ +∞ λ
=λ e−(λ−t)x dx = e−(λ−t)x 0 =
0 λ−t λ−t
Notaremos esta distribución como Exp(λ).
Este modelo también tiene falta de memoria, y es el único modelo absolu-
tamente continuo que tiene esta propiedad.
Dem.
P [m ≤ χ ≤ m + x] P [χ ≤ x + m] − P [χ ≤ m]
P [χ ≤ m + x| χ ≥ m] = =
P [χ ≥ m] 1 − P [χ ≤ m]
(1 − e−λ(x+m) ) − (1 − e−λm )
=
1 − (1 − e−λm )
−λm
e − e−λ(x+m)
= = 1 − e−λx = P [χ ≤ x]
e−λm
t2
Función generatriz de momentos: M (t) = e 2
Dem.
Z +∞ Z +∞
1 1 2 1 1 2
M (t) = E[e ] = tz
e √ e− 2 z = √
tz
etz e− 2 z
−∞ 2π 2π −∞
t2 Z +∞
e 2 1 2 t2
=√ e− 2 (z−t) dz = e 2
2π −∞