Sei sulla pagina 1di 55

ELEMENTOS DE PROBABILIDAD Y

ESTADÍSTICA

Apuntes de clases de Joaquı́n Muñoz

Grado matemáticas US
Pedro Verde Ruiz

Apuntes descargados de wuolah.com


2

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


Índice general

1. Introducción 5
1.1. Experimentos aleatorios . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. σ−álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Sucesiones monótonas de conjuntos . . . . . . . . . . . . . . . . 9
1.5. σ−álgebra de Borel . . . . . . . . . . . . . . . . . . . . . . . . . 12

2. Modelo probabilı́stico general 13


2.1. Axiomática de Kolmogorov . . . . . . . . . . . . . . . . . . . . . 13
2.2. Propiedades de continuidad de la probabilidad . . . . . . . . . . 15

3. P. Condicionada e Independencia 19
3.1. Probabilidad condicionada . . . . . . . . . . . . . . . . . . . . . 19
3.1.1. Fórmula de la probabilidad total . . . . . . . . . . . . . 20
3.1.2. Fórmula de Bayes . . . . . . . . . . . . . . . . . . . . . . 20
3.1.3. Fórmula de la multiplicación . . . . . . . . . . . . . . . . 21
3.2. Independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

4. Variable aleatoria y función distribución 23


4.1. Función inversa y función medible . . . . . . . . . . . . . . . . . 23
4.2. Variable aleatoria real . . . . . . . . . . . . . . . . . . . . . . . 25
4.3. Parte positiva y parte negativa . . . . . . . . . . . . . . . . . . 28
4.4. Sucesiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.5. Función indicador . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.6. Variables aleatorias simples . . . . . . . . . . . . . . . . . . . . 29
4.7. Función de distribución . . . . . . . . . . . . . . . . . . . . . . . 31
4.7.1. Propiedades de continuidad de la función distribución . 33
4.7.2. Teorema de descomposición de la función de distribución 34
4.8. Clasificación de las variables aleatorias . . . . . . . . . . . . . . 36

5. Caracterı́sticas asociadas a una V.A. 37


5.1. Esperanza matemática . . . . . . . . . . . . . . . . . . . . . . . 37
5.2. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.3. Coeficiente de simetrı́a . . . . . . . . . . . . . . . . . . . . . . . 40
5.4. Coeficiente de Curtosis . . . . . . . . . . . . . . . . . . . . . . . 40

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


4 ÍNDICE GENERAL

5.5. Momento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.6. Desigualdades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.6.1. Desigualdad Básica . . . . . . . . . . . . . . . . . . . . . 41
5.6.2. Desigualdad de Markov . . . . . . . . . . . . . . . . . . . 42
5.6.3. Desigualdad de Tchebychev . . . . . . . . . . . . . . . . 42
5.7. Función Generatriz de Momentos . . . . . . . . . . . . . . . . . 42

6. Modelos de Variable Aleatoria 45


6.1. Modelos discretos . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.1.1. Distribución degenenerada. . . . . . . . . . . . . . . . . . 45
6.1.2. Distribución o Modelo de Bernoulli . . . . . . . . . . . . 45
6.1.3. Distribución o Modelo Binomial . . . . . . . . . . . . . . 46
6.1.4. Distribución o Modelo de Poisson . . . . . . . . . . . . . 47
6.1.5. Distribución Geométrica . . . . . . . . . . . . . . . . . . 48
6.1.6. Distribución Hipergeométrica . . . . . . . . . . . . . . . 50
6.1.7. Distribución Discreta Uniforme . . . . . . . . . . . . . . 50
6.2. Modelos Absolutamente Continuos . . . . . . . . . . . . . . . . 51
6.2.1. Distribución Uniforme Continua . . . . . . . . . . . . . . 51
6.2.2. Distribución exponencial negativa . . . . . . . . . . . . . 52
6.2.3. Distribución Normal . . . . . . . . . . . . . . . . . . . . 53
Capı́tulo 1

Introducción

1.1. Experimentos aleatorios


Definición 1.1.1 Experimento determinı́stico: La relación causa y efec-
to está perfectamente determinada, es decir, fijadas c condiciones sabemos que
va a ocurrir el suceso A

Definición 1.1.2 Experimento aleatorio: fijadas c condiciones, no sabe-


mos exactamente que va a ocurrir.

Nota: No podemos especificar que un experimento sea eternamente alea-


torio o determinı́stico, luego estas no son dos clases con intersección vacı́a,
ya que, dependiendo de la situación, un experimento puede ser aleatorio o
determinı́stico.

¿Podemos estudiar cualquier tipo de experimento aleatorio? La res-


puesta es no. Solo vamos a estudiar los experimentos aleatorios en los que:

Conocemos todos los resultados posibles del experimento.

El experimento es susceptible de ser realizado en un número de situacio-


nes similares.

El experimento tiene una estabilidad o regularidad en su comportamien-


to.

Nota: Hay otras condiciones para estudiar más experimentos aleatorios (como
por ejemplo para estudiar el comportamiento de la bolsa).

Definición 1.1.3 Espacio muestral: conjunto de todos los posibles resul-


tados o sucesos que se pueden generar desde un experimento aleatorio. Se re-
presenta por Ω.

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


6 CAPÍTULO 1. INTRODUCCIÓN

Diferencia entre resultado y suceso


Resultado: lo observable al realizar un experimento aleatorio.

Suceso: lo que se puede observar en un experimento aleatorio.

Definición 1.1.4 Sucesos elementales: no se pueden descomponer


en ningún otro suceso.

Sucesos no elementales (sucesos compuestos): si se pueden descom-


poner en otros sucesos.

La estructura del espacio muestral puede ser un conjunto finito, nume-


rable, no numerable, espacios de funciones (ejemplo: la velocidad de trasmisión
de un resfriado en un grupo), etc.
El espacio muestral Ω esta generado por los posibles resultados o sucesos
de un experimento aleatorio, pero vamos a estar interesados en situaciones
aleatorias construids a partir de el.

Ejemplo 1.1.1 Sea A, B ∈ Ω, podemos estar interesados en P{A} , Pno{A} ,


P{∅} , P{Ω} , P{A} o P{B} , P{A} y P{B}

1.2. Álgebra
Teorema 1.2.1 Dado Ω proveniente de un experimento aleatorio, el álgebra
de la proposición lógica de los sucesos es isomorfa al álgebra de los conjuntos.

Vamos a intentar formalizar la estructura vista anteriormente, que gracias


al teorema de Stone, esta estructura es el álgebra de los conjuntos de los
posibles sucesos.

Definición 1.2.1 Sea Ω un espacio muestral distinto de ∅, sea F una familia


de sucesos o subconjuntos contenidos en Ω. Se dirá que F es un álgebra si:
1. Ω ∈ F .

2. A ∈ F ⇒ A ∈ F .

3. A, B ∈ F ⇒ A ∪ B ∈ F .

Propiedades
1. ∅ ∈ F
Dem. Como F es álgebra ⇒ Ω ∈ F ⇒ Ω = ∅ ∈ F .

2. Sea A, B ∈ F ⇒ A ∩ B ∈ F
Dem. A, B ∈ F ⇒ A, B ∈ F ⇒ A ∪ B ∈ F ⇒ A ∪ B = A ∩ B ∈ F .

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


1.3. σ−ÁLGEBRA 7

3. Si A, B ∈ F ⇒ A − B ∈ F
Dem. A, B ∈ F ⇒ A, B ∈ F ⇒ A ∩ B ∈ F ⇒ A − B ∈ F
n
[
4. Si A1 , ..., An ∈ F ⇒ Ai ∈ F
i=1
Dem. A1 , A2 ∈ F ⇒ A1 ∪ A2 ∈ F . Por hipótesis de inducción
n−1
[
A1 , ..., An−1 ∈ F ⇒ Ai ∈ F .
i=1
n n−1
!
[ [
Luego si A1 , ..., An ∈ F ⇒ Ai = Ai ∪ An ∈ F
i=1 i=1

n
\
5. Si A1 , ..., An ∈ F ⇒ Ai ∈ F .
i=1
n
[
Dem Si A1 , ..., An ∈ F ⇒ A1 , ..., An ∈ F ⇒ Ai ∈ F
i=1
n
[ n
[ n
\
Como Ai ∈ F ⇒ Ai = Ai ∈ F .
i=1 i=1 i=1

1.3. σ−álgebra
Definición 1.3.1 Sea Ω un espacio muestral distinto de ∅. Sea A una fa-
milia de subconjuntos (o de sucesos) de Ω. Se dirá que dicha familia es un
σ−álgebra si:

1. Ω ∈ A .

2. Si A ∈ A ⇒ A ∈ A .

[
3. Si A1 , ..., An , ... ∈ A ⇒ Ai ∈ A .
i=1

Al par (Ω, A ) se le denomina espacio medible o probabilizable.

Propiedades

1. ∅ ∈ A
Dem. Ω ∈ A ⇒ Ω = ∅ ∈ A .

2. Si A es σ−álgebra, entonces A es álgebra.


Dem. Hay que ver si A, B ∈ A ⇒ A ∪ B ∈ A .
Si A, B ∈ A ⇒ A, B, ∅ ∈ A ⇒ A ∪ B ∪ ∅ ∪ ∅... ∈ A ⇒ A ∪ B ∈ A .

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


8 CAPÍTULO 1. INTRODUCCIÓN


\
3. Si A1 , ..., An , ... ∈ A ⇒ Ai ∈ A .
i=1

[
Dem Si A1 , ..., An , ... ∈ F ⇒ A1 , ..., An , ... ∈ F ⇒ Ai ∈ F
i=1

[ ∞
[ ∞
\
Como Ai ∈ F ⇒ Ai = Ai ∈ F .
i=1 i=1 i=1

Definición 1.3.2 Sea Ω un espacio muestral distinto de ∅. Sea {An } una


sucesión de sucesos o subconjuntos de Ω.
Se define lı́m sup An = lı́m An = {ω ∈ Ω | ω ∈ infinidad de An }
n→∞
Se define lı́m inf An = lı́m An = {ω ∈ Ω | ω ∈ An para casi todo n }
n→∞
(ω ∈ An salvo para un número finito de An ).

Supongamos que ω ∈ lı́m An , ¿ω ∈ lı́m An ? Sı́, luego lı́m An ⊆ lı́m An .


Supongamos que ω ∈ lı́m An , ¿ω ∈ lı́m An ? No se garantiza. Contraejemplo:

{A2n } ⇒ ω ∈ {A2n }
{An }
{A2n−1 } ⇒ ω 6∈ {A2n−1 }

ω pertenece a un numero infinito de conjuntos {A2n } pero no pertenece a


otro numero infinito de conjuntos {A2n−1 }, por lo que el lı́mite inferior es más
restrictivo que el lı́mite superior.

Proposición 1.3.1 (Cálculo de lı́mites inferiores y superiores) Sea Ω un es-


pacio muestral distinto de ∅. Sea {An } una sucesión de sucesos contenidos en
Ω, entonces se verifica que:
∞ [
\ ∞
lı́m An = Am
n=1 m=n

∞ \
[ ∞
lı́m An = Am
n=1 m=n

Dem.
∞ [
\ ∞ ∞
[
ω 6∈ Am ⇒ ∃l : ω 6∈ Am ⇒ ω 6∈ ninguna infinidad ⇒
n=1 m=n m=l
⇒ ω 6∈ lı́mAn
∞ [
\ ∞
Luego lı́m An ⊆ Am .
n=1 m=n
Para demostrar la otra contención basta con seguir la implicación en sen-
∞ [
\ ∞ \∞ [ ∞
tido contrario, luego Am ⊆ lı́m y por tanto lı́m An = Am .
n=1 m=n n=1 m=n
1.4. SUCESIONES MONÓTONAS DE CONJUNTOS 9

∞ \
[ ∞ ∞
\
ω 6∈ Am ⇒ ω 6∈ a la intersección Am ∀n ≥ 1 ⇒ ω 6∈ a infinitos
n=1 m=n m=n
elementos⇒ ω 6∈ lı́m An
∞ \
[ ∞
Luego lı́m An ⊆ Am
n=1 m=n
Para demostrar la otra contención, basta con seguir la implicación en
∞ \
[ ∞
sentido contrario. Luego lı́m An = Am .
n=1 m=n

1.4. Sucesiones monótonas de conjuntos


Definición 1.4.1 Sea Ω un espacio muestral distinto de ∅ y {An } sucesión
de sucesos contenido en Ω. {An } es una sucesión monótona creciente
({An } ↑) si An ⊂ An+1 ∀n, o bien monótona decreciente ({An } ↓), en la
que An ⊃ An+1 ∀n.

Proposición 1.4.1 Sea Ω un espacio muestral distinto de ∅. Sea {An } una


sucesión de sucesos monótona contenidos en Ω. Se verifica:

[
Si {An } ↑⇒ lı́m sup An = lı́m inf An = An .
n→∞ n→∞
n=1


\
Si {An } ↓⇒ lı́m sup An = lı́m inf An = An .
n→∞ n→∞
n=1

Dem.
∞ [
\ ∞ ∞ [
\ ∞ ∞
[
lı́m sup An = Am = An = An
n→∞
n=1 m=n n=1 n=1 n=1
[ ∞
∞ \ ∞
[
lı́m inf An = Am = An .
n→∞
n=1 m=n n=1
| {z }
=An

∞ [
\ ∞ ∞
\
lı́m sup An = Am = An .
n→∞
n=1 m=n n=1
| {z }
=An

[ ∞
\ ∞ \
[ ∞ ∞
\
lı́m inf An = Am = An = An .
n→∞
n=1 m=n n=1 n=1 n=1

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


10 CAPÍTULO 1. INTRODUCCIÓN

Corolario 1.4.1 Toda sucesión monótona tiene lı́mite.

No perdamos de vista que estamos buscando una relación entre álgebra y


σ−álgebra.

Definición 1.4.2 Sea Ω un espacio muestral distinto de ∅. Sea M una fa-


milia de subconjuntos de Ω. Se dirá que M es una clase monótona si es
cerrada para la operación paso al lı́mite de sucesiones monótonas, es decir, el
lı́mite de cualquier sucesión monótona de M está en M .

Teorema 1.4.1 Sea Ω un espacio muestral distinto de ∅. Sea A una familia


de subconjuntos de Ω. La condición necesaria y suficiente para que A sea
σ−álgebra es que A sea álgebra y clase monótona.

Dem. Supongamos que A es σ−álgebra. Si A es σ−álgebra⇒ A es álgebra.


Nos queda ver que para cualquier sucesión monótona, su lı́mite pertenece al
σ−álgebra.

[ [∞
Sea {An } ↑(monótona creciente), lı́m An = An , como An ∈ A por
n→∞
n=1 n=1
ser unión numerable, lı́m An ∈ A .
n→∞

\ ∞
\
Sea {An } ↓(monótona decreciente), lı́m An = An , como An ∈ A
n→∞
n=1 n=1
por ser intersección numerable, lı́m An ∈ A .
n→∞
Veamos ahora que si A es álgebra y clase monótona, A es σ−álgebra.
Si A es álgebra, basta demostrar la tercera propiedad, es decir, sea

[
A1 , . . . , A n , · · · ∈ A ⇒ Ak ∈ A
k=1
. n
[
Si A1 , . . . , An , · · · ∈ A ⇒ Bn = Ai ∈ A , por ser unión finita (A es
i=1
álgebra) ⇒ {Bn } tal que Bn ∈ A es una sucesión creciente, luego lı́m Bn ∈
n→∞
∞ [
[ n ∞
[
A , por ser clase monótona y por tanto lı́m Bn = Ai = An ∈ A
n→∞
n=1 i=1 n=1

Definición 1.4.3 Sea Ω un espacio muestral distinto de ∅. Sea C una familia


de sucesos o subconjuntos de Ω. Se dice que σ(C ) es la mı́nima σ−álgebra
construida sobre C si verifica:

C ⊂ σ(C ).

∀ A σ−álgebra con C ⊂ A ⇒ σ(C ) ⊂ A .

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


1.4. SUCESIONES MONÓTONAS DE CONJUNTOS 11

Proposición 1.4.2 Sea Ω un espacio muestral distinto de\ ∅. Sea {Ai }i∈I una
familia de σ−álgebras construida sobre Ω, se verifica que Ai es σ−álgebra.
i∈I

Dem.

es una familia de σ−álgebra construida sobre Ω ⇒ Ω ∈ Ai


1. Como {Ai }i∈I \
∀i ∈ I ⇒ Ω ∈ Ai .
i∈I
\ \
2. Si A ∈ Ai ⇒ A ∈ Ai ,∀i ∈ I ⇒ A ∈ Ai ,∀i ∈ I ⇒ A ∈ Ai .
i∈I i∈I

\ ∞
[
3. Si A1 , . . . , An , . . . , ∈ Ai ⇒ A1 , . . . , An , · · · ∈ Ai ,∀i ∈ I ⇒ Aj ∈ A
i∈I j=1

[ \
,∀i ∈ I ⇒ Aj ∈ Ai .
j=1 i∈I

Corolario 1.4.2 Sea Ω un espacio muestral distinto de ∅. Sea C una famila


de subconjuntos\o sucesos de Ω, siempre existe la mı́nima σ−álgebra σ(C )
donde σ(C ) = Ai con Ai σ−álgebra sobre Ω y C ⊂ Ai ,∀i ∈ I
i∈I

Teorema 1.4.2 Sea Ω un espacio muestral distinto de ∅. Sea F un álgebra


construida sobre Ω. La mı́nima σ−álgebra construida sobre F coincide con la
mı́nima clase monótona construida sobre F .

σ(F ) = M (F )

Dem. Observemos en primer lugar que al ser un σ−álgebra clase monótona,


lo es σ(F ). Ahora bien, F ⊆ σ(F ) y al ser M (F ) la menor clase monótona
que contiene a F , se tendrá,

M (F ) ⊆ σ(F ).

Para probar la inclusión inversa, bastará probar que M (F ) es álgebra, pues


entonces, por el teorema 1.4.1, será también σ−álgebra, y como contiene a F ,
también contendrá al menor σ−álgebra que contiene a F , esto es, a σ(F ).
Probemos pues que M (F ) es un álgebra sobre Ω. En primer lugar, es obvio
que Ω ∈ M (F ). Veamos ahora que es estable para la complementación, para
ello definimos la clase,

M = {A ⊆ Ω | A ∈ M (F ) y A ∈ M (F )} ⊆ M (F ).

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


12 CAPÍTULO 1. INTRODUCCIÓN

Observemos primeramente que M 0 es clase monótona pues una sucesión


monótona, {An }n∈N , en M 0 también lo es en M (F ), por lo que L = lı́m
An ∈ M (F ). Por otra parte, {An }n∈N es también una sucesión monótona en
M 0 , luego lo es en M (F ), de donde se deduce que lı́m An ∈ M (F ). Pero
lı́m An = lı́m An = L. Ası́ pues, L y L pertenecen a M (F ) y por tanto,
L ∈ M 0 . Ası́ pues M 0 es clase monótona.
Sea ahora A ∈ F . Por ser F álgebra, se tendrá A ∈ F . Es decir, A y A
pertenecen a M (F ) y por ello A ∈ M 0 , ası́ pues F ⊆ M 0 . Y al ser M (F )
la menor clase monótona que contiene a F se tendrá M (F ) ⊆ M 0 , luego
M (F ) = M 0 . Por consiguiente, al ser M 0 cerrada para la complementación,
también lo será M (F ).
Veamos ahora que M (F ) es cerrada para la unión finita. Con esta finali-
dad, definamos las clases de conjuntos:
M1 = {A ∈ M (F ) | A ∪ B ∈ M (F ), ∀B ∈ F } ⊆ M (F ).
M2 = {A ∈ M (F ) | A ∪ B ∈ M (F ), ∀B ∈ M (F )} ⊆ M (F ).
Observemos primeramente que M1 es clase monótona pues si {An }n∈N es
una sucesión monótona en M1 y B ∈ F entonces, al ser {B ∪ An }n∈N sucesión
monótona en M (F ) se tendrá,
B ∪ lı́m An = lı́m (B ∪ An ) ∈ M (F )
n→∞ n→∞

Mediante un razonamiento similar, se concluye que M2 es también una clase


monótona.
Supongamos ahora que A ∈ F . Como F ⊆ M (F ) y F es cerrado para
uniones finitas, se tendrá que A∪B ∈ M (F ), ∀B ∈ F lo que implica A ∈ M1 ,
es decir, F ⊆ M1 , y por la minimalimidad de M (F ) se tendrá que M (F ) ⊆
M1 y en consecuencia M (F ) = M1 .
Sea ahora A ∈ F y B ∈ M (F ) = M1 . Por definición de M1 tendremos
que A ∪ B ∈ M (F ) luego A ∈ M2 lo que implica F ⊆ M2 y por tanto
M (F ) ⊆ M2 y en consecuencia M (F ) = M2 .
Ası́ pues, M (F ) es cerrada para uniones finitas por serlo M2 .
Por tanto M (F ) es álgebra, como querı́amos ver.


1.5. σ−álgebra de Borel


Sea Ω espacio muestral igual a R. Consideremos una clase C de subconjun-
tos de la forma C = {(−∞, a] : ∀a ∈ R}. El σ−álgebra de Borel es el mı́nimo
σ−álgebra que se puede construir sobre C :
B(R) = σ(C )
Este σ−álgebra contiene todos los intervalos de la forma (a, b), (a, b], [a, b), [a, b]
a, b ∈ R, cualquier intervalo no acotado y cualquier punto de R, pero no están
todos los subconjuntos de R, como el conjunto de Cantor (Conjuntos de Vitali).
Capı́tulo 2

Modelo probabilı́stico general

2.1. Axiomática de Kolmogorov


Sea (Ω, A ) un espacio probabilizable, nos interesa medir la posible ocu-
rrencia de los elementos del σ−álgebra A .
Definimos la función P : A −→ R+ ∪ {0}, que cumple los siguientes axio-
mas (axiomas de Kolmogorov):

∀A ∈ A , P (A) ≥ 0.

Sean A1 , ...,
! An ... ∈ A dos a dos disjuntos, entonces

[ X ∞
P Ai = P (Ai ) (σ−aditividad).
i=1 i=1

P (Ω) = 1

Esto genera un espacio de probabilidad o espacio probabilı́stico (Ω, A , P ),


donde P es una función probabilı́stica.

Propiedades

1. P (∅) = 0

X
Dem. ∅ = ∅ ∪ ∅ ∪ ... ⇒ P (∅) = P (∅) ⇒ P (∅) = 0.
i=1

2. Sea A, B ∈ A , con A ∩ B = ∅, P (A ∪ B) = P (A) + P (B).


(La probabilidad P es una función finitamente aditiva).
Dem. A ∪ B = A ∪ B ∪ ∅ ∪ ∅ ∪ ... ⇒
=0
∞ z}|{
X
⇒ P (A ∪ B) = P (A) + P (B) + ∅ = P (A) + P (B)
i=2

13

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


14 CAPÍTULO 2. MODELO PROBABILÍSTICO GENERAL

3. Sea A, B ∈ A , con A ⊆ B ⇒ P (A) ≤ P (B).


(La probabilidad P es una función monótona).
Dem. B = (B ∩ A) ∪ (B ∩ A) = A ∪ (B ∩ A), A ∩ (B ∩ A) = ∅
P (B) = P (B ∩ A) + P (B ∩ A) ⇒ P (B) = P (A) + P (B ∩ A).
Como P es siempre mayor o igual a 0⇒ P (A) ≤ P (B).

4. Sea A ∈ A , P (A) = 1 − P (A).


Dem. Ω = A ∪ A ⇒ P (Ω) = P (A) + P (A) ⇒ 1 = P (A) + P (A)
⇒ P (A) = 1 − P (A).

5. Si A, B ∈ A , A ⊂ B ⇒ P (B \ A) = P (B) − P (A)
Dem. B = (B ∩ A) ∪ (B ∩ A) = A ∪ (B ∩ A) = A ∪ (B − A)
P (B) = P (A) + P (B \ A) ⇒ P (B \ A) = P (B) − P (A).

6. Si A, B ∈ A , P (B − A) = P (B) − P (B ∩ A).
Dem. B = (B ∩ A) ∪ (B ∩ A) ⇒ P (B) = P (B ∩ A) + P (B ∩ A) ⇒
⇒ P (B \ A) = P (B ∩ A) = P (B) − P (B ∩ A).

7. Sea A, B ∈ A . Se verifica que P (A ∪ B) = P (A) + P (B) − P (B ∩ A).


(Propiedad de aditividad fuerte).
Dem. A ∪ B = A ∪ (B ∩ A), A ∩ (B ∩ A) = ∅
P (A ∪ B) = P (A) + P ((B ∩ A)) ⇒ P (A ∪ B) = P (A) + P (B) − P (B ∩ A).
n
! n
[ X
8. Sea A1 , . . . , An ∈ A . Se verifica que P An ≤ P (Ai )
i=1 i=1
(Desigualdad de Boole).
Dem. Por inducción:
Sea A1 , A2 ∈ A , P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 ) ⇒
| {z }
≤0
⇒ P (A1 ∪ A2 ) ≤ P (A1 ) + P (A2 ). Supongamos cierto para n − 1. Por
! n−1
n−1
[ X
hipótesis de inducción tenemos P Ai ≤ P (Ai ).
i=1 i=1
Veamos para
! n: " n−1 ! # !
[n [ n−1
[ n
X
P Ai = P Ai ∪ An ≤ P Ai + P (An ) ≤ P (Ai )
i=1 i=1 i=1 i=1

9. (Principio de inclusión-exclusión de las probabilidades).


. , An ∈ A ,
Sea A1 , . . !
[n Xn X X
P Aj = P (Aj ) − P (Ai ∩ Aj ) + P (Ai ∩ Aj ∩ Ak ) + ...+
j=1 j=1 i<j i<j<k
n+1
+(−1) P (A1 ∩ A2 ∩ ... ∩ An ).

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


2.2. PROPIEDADES DE CONTINUIDAD DE LA PROBABILIDAD 15

Cálculo de probabilidades en espacios muestrales finitos. Sea Ω =


{ω1 , . . . , ωn } un espacio muestral finito de sucesos elementales, es decir,
ωi ∩ ωj = ∅, i 6= j. Sea un experimento ξ −→ (Ω, A ). Estamos interesados
en definir una función probabilı́stica P : A −→ R+ ∪ {0}. Si nos fijamos bien
k
[
A∈A ⇒A⊂Ω⇒A= ω ij .
j=1
N
[
Sabemos que Ω = ωj , luego podemos decir que
j=1

N
[ N
X
P (Ω) = P ( ωj ) = P (ωj ) = 1
j=1 j=1

k
!
[
Por otro lado tenemos P (A) = P ωij , como ωij ∩ ωig = ∅ si j 6= g,
j=1
k
! k
[ X
tenemos P (A) = P ωij = ωij .
j=1 j=1
Bastará conocer el valor de la probabilidad de cada uno de los ωi . Una de
las soluciones inmediatas es que todos tengan la misma probabilidad, luego
N
X 1
tendrı́amos: P (Ω) = P (ωj ) = 1 ⇒ P (ωj ) = .
j=1
N
k
X k c.f avorables
En este caso P (A) = ωij = =
j=1
N c.posibles

2.2. Propiedades de continuidad de la proba-


bilidad
Proposición 2.2.1 Sea Ω un espacio muestral distinto de ∅, F un álgebra so-
bre Ω, P una función de conjuntos definida sobre F y no negativa, verificando
que es finitamente aditiva y P (Ω) = 1. Entonces son equivalentes:
1. P es σ−aditiva.
2. P es continua para sucesiones crecientes de sucesos,

!
[
lı́m P (An ) = P ( lı́m An ) = P An
n→∞ n→∞
n=1

3. P es continua para sucesiones decrecientes,



!
\
lı́m P (An ) = P ( lı́m An ) = P An
n→∞ n→∞
n=1

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


16 CAPÍTULO 2. MODELO PROBABILÍSTICO GENERAL

4. P es contı́nua en el vacı́o.
{An } ↓ que converge a ∅, entonces lı́m P (An ) = P ( lı́m An ) = P (∅) = 0
n→∞ n→∞

Dem.
1⇒2

! ∞
[ X
A1 , . . . , An , ... ∈ F , Ai ∩ Aj = ∅ si i 6= j, P Aj = P (An ).
j=1 j=1

Sea una sucesión creciente {An } ↑, A1 ⊂ A2 ⊂ ... ⊂ An ⊂ ... , podemos


hacerlos disjuntos de la siguiente forma:

A0 = ∅, A1 , A2 − A1 , . . . , An − An−1 , . . .
n
[ n
[
. Es fácil ver que Aj = (Aj − Aj−1 ) = An . Igual que lo hemos
j=1 j=1
hecho para!n, lo podemos hacer para!∞,

[ [n [∞
P An = P Aj ∪ Aj =
n=1 j=1 j=n+1

n
!
[ [
=P (Aj − Aj−1 ) ∪ (Aj − Aj−1 ) =(ya que todos
j=1 j=n+1
los elementos son dos a dos disjuntos)
Xn X∞
= P (Aj − Aj−1 ) + P (Aj − Aj−1 )
j=1 j=n+1

X
= P (An ) + P (Aj − Aj−1 )
j=n+1

Tomando lı́mite cuando n → ∞ podemos decir que



! ∞
[ X
P An = lı́m P (An ) + lı́m P (Aj − Aj−1 ).
n→∞ n→∞
n=1 j=n+1

X
Veamos que lı́m P (Aj − Aj−1 ) converge a 0.
n→∞
j=n+1

X n
X
P (Aj − Aj−1 ) proviene de Sn = P (Aj − Aj−1 ), luego Sn = P (An )
j=1 j=1
y por tanto {Sn } = {P (An )}, pero esta sucesión es creciente y está acota-
X∞
da por 1, luego la serie converge y por tanto lı́m P (Aj − Aj−1 ) = 0.
n→∞
j=n+1

!
[
Luego P An = lı́m P (An ) = P ( lı́m An ).
n→∞ n→∞
n=1
2.2. PROPIEDADES DE CONTINUIDAD DE LA PROBABILIDAD 17

2⇒3
Hay que probar que si P es continua para sucesiones crecientes, P es
continua para sucesiones decrecientes.
A1 ⊃ A2 ⊃ A3 . . . Construimos la siguiente sucesión:
A1 − A1 , A1 − A2 , A1 − A3 . . . , {A1 − !
An } es creciente, luego
[∞
lı́m P (A1 − An ) = P (A1 − An )
n→∞
n=1

• lı́m P (A1 − An ) = lı́m (P (A1 ) − P (An )) = P (A1 ) − lı́m P (An )


n→∞ n→∞ n→∞

! ∞
! ∞
!!
[ [ [
• P (A1 − An ) = P (A1 ∩ An ) = P A1 ∩ An
n=1 n=1 n=1

! ∞
!
\ \
=P A1 − An = P (A1 ) − P An
n=1 n=1


!
\
Por tanto P (A1 ) − P An = P (A1 ) − lı́m P (An ) ⇒
n→∞
n=1

!
\
⇒ lı́m P (An ) = P An = P ( lı́m An ).
n→∞ n→∞
n=1

3 ⇒ 4 Es un caso particular de 3 (Inmediato).

4⇒1
Hipótesis {An } decreciente que converge a ∅, entonces lı́m P (An ) =
n→∞

!
\
P An = P (∅) y A1 , . . . , An . . . con Ai ∩ Aj = ∅ si i 6= j.
n=1

Vamos a construir una sucesión decreciente al vacı́o. Tenemos que


[ n
[ ∞
[
An = Aj ∪ Aj
n=1 j=1 j=n+1

. De esta descomposición tenemos !



! n ∞ n
! ∞
!
[ [ [ [ [
P An = P Aj ∪ Aj = P Aj +P Aj
n=1 j=1 j=n+1 j=1 j=n+1


n
!
X [
= P (Aj ) + P Aj
j=1 j=n+1

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


18 CAPÍTULO 2. MODELO PROBABILÍSTICO GENERAL

Tomando lı́mites cuando n → ∞ resulta



! n ∞
!
[ X [
P An = lı́m P (Aj ) + lı́m P Aj
n→∞ n→∞
n=1 j=1 j=n+1
( ∞
)
[
Como Aj es una sucesión decreciente que converge a ∅, nos
j=n+1
queda finalmente

! ∞
[ X
P An = P (An )
n=1 n=1

Proposición 2.2.2 Sea (Ω, A , P ) espacio probabilı́stico y sea {An } una su-
cesión de sucesos , se cumple:

P (lı́m An ) ≤1 lı́m P (An ) ≤2 lı́m P (An ) ≤3 P (lı́m An )

Dem.
∞ \
∞ ∞
!
[ \
1. P (lı́m An ) = P ( Am ) = lı́m P Am
n→∞
n=1 m=n m=n
| {z }
creciente
∞ ∞
!
\ \
Por otro lado Am ⊆ An ⇒ P Am ≤ P (An ) ⇒
m=n m=n

!
\
⇒ lı́m P Am ≤ lı́m inf P (An ) ⇒ P (lı́m An ) ≤ lı́m P (An ).
n→∞ n→∞
m=n

2. Trivial por definición de lı́m inf y lı́m sup.


∞ [
∞ ∞
!
\ [
3. P (lı́m An ) = P ( Am ) = lı́m P Am
n→∞
n=1 m=n m=n
| {z }
decreciente
∞ ∞
!
[ [
Por otro lado Am ⊇ An ⇒ P Am ≥ P (An ) ⇒
m=n m=n

!
[
⇒ lı́m P Am ≥ lı́m P (An ) ⇒ P (lı́m An ) ≥ lı́m P (An ).
n→∞ n→∞
m=n

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


Capı́tulo 3

P. Condicionada e
Independencia

3.1. Probabilidad condicionada


Sea (Ω, A , P ) espacio probabilı́stico. Sabemos que el suceso B ha ocurrido,
por lo que P (B) > 0. Queremos saber la probabilidad de que ocurra un suceso
A sabiendo que ha ocurrido B que se representa por P (A | B).
Tenemos (B, AB , PB ) siendo

B el espacio muestral después del suceso B.

AB = {A ∩ B : A ∈ A }.

P (A ∩ B)
PB (A) = P (A | B) = .
P (B)

Veamos que PB es una probabilidad:

P (B ∩ B)
PB (B) = P (B | B) = = 1.
P (B)

Sea A1 , . . . , An , · · · ∈ A con Ai ∩ Aj = ∅ si i 6=!j


[∞


! ∞
! P( An ∩ B)
[ [ n=1
PB An = P An | B = =
n=1 n=1
P (B)

!
[
P (An ∩ B)
n=1
= .
P (B)

19

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


20 CAPÍTULO 3. P. CONDICIONADA E INDEPENDENCIA

Como ((Ai ∩ B) ∩ (Aj ∩ B) = ∅ si i 6= j, nos queda:



! ∞
[ X
P (An ∩ B) P (An ∩ B) ∞ ∞
n=1 n=1
X X
= = P (An | B) = PB (An )
P (B) P (B) n=1 n=1

! ∞
[ X
Luego PB An = PB (A)
n=1 n=1

3.1.1. Fórmula de la probabilidad total


Proposición 3.1.1 Sea (Ω, A , P ) espacio probabilı́stico y consideremos una
familia de sucesos completa,

[
A1 , . . . , An , . . . , Ai ∩ Aj = ∅ si i 6= j y An = Ω. Sea C ∈ A , entonces
n=1


X
P (C) = P (C | An )P (An )
n=1

∞ ∞
!
[ [
Dem. P (C) = P (C ∩ Ω) = P (C ∩ An ) = P (C ∩ An ) , como
n=1 n=1
(Ai ∩ C) ∩ (Aj ∩ C)!= ∅, tenemos
[∞ X∞ ∞
X
P (C ∩ An ) = P (An ∩ C) = P (C | An )P (An ).
n=1 n=1 n=1

3.1.2. Fórmula de Bayes


Proposición 3.1.2 Cálculo de una probabilidad a posteriori. Sea (Ω, A , P )
espacio probabilı́stico y un sistema completo de sucesos {An } con Ai ∩ Aj = ∅
si i 6= j. Sabemos que ha ocurrido C. ¿Cuánto vale P (Ai | C)?

P (C | Ai )P (Ai )
P (Ai | C) = ∞
X
P (C | An )P (An )
n=1

P (Ai ∩ C) P (C | Ai )P (Ai )
Dem. P (Ai | C) = = ∞
P (C) X
P (C | An )P (An )
n=1


3.2. INDEPENDENCIA 21

3.1.3. Fórmula de la multiplicación


Proposición 3.1.3 Sea (Ω, A , P ) espacio probabilı́stico con A1 , . . . , An ∈ A .
Entonces:

P (A1 ∩ A2 ∩ · · · ∩ An ) = P (A1 )P (A2 | A1 )P (A3 | A1 ∩ A2 )...P (An | A1 ∩ ... ∩ An−1 )

Dem. Por inducción.


P (A1 ∩ A2 ) = P (A2 | A1 )P (A1 ). Por hipótesis de inducción
P (A1 ∩ · · · ∩ An−1 ) = P (A1 )P
!(A2 | A1 )P (A3 !
| A1 ∩ A2 )...P (An−1 | A1 ∩ ... ∩ An−2 )
n
\ n−1
\
Veamos para P Ai = P( Ai ∩ An ) =
i=1 i=1 !
n−1
\ n−1
\
= P (An | Ai )P Ai
i=1 i=1

3.2. Independencia
Sea (Ω, A , P ) un espacio probabilı́stico. Realizamos un experimento B con
P (B) > 0 y el espacio probabilı́stico de después es el mismo.
Si A es independiente de B, P (A | B) = P (A).
P (A ∩ B)
P (A | B) = = P (A) ⇒ P (A ∩ B) = P (A)P (B).
P (B)
Si B es independiente de A, P (B | A) = P (B).
P (B ∩ A)
P (B | A) = = P (B) ⇒ P (B ∩ A) = P (B)P (A).
P (A)
El concepto de independencia es mutuo, como acabamos de ver.

Definición 3.2.1 Sea (Ω, A , P ) espacio probabilı́stico. Sean A, B dos sucesos


pertenecientes a A . Se dirá que dos sucesos son independientes respecto
de P si se verifica que P (A ∩ B) = P (A)P (B).

Definición 3.2.2 Sea Ω un espacio muestral distinto de ∅. Sean A1 , A2 dos


σ−álgebras sobre Ω. Sea P una función de probabilidad. Se dirá que A1 , A2
son dos σ−álgebras independientes si ∀A1 ∈ A1 y ∀A2 ∈ A2 es
P (A1 ∩ A2 ) = P (A1 )P (A2 ).

Definición 3.2.3 Sea (Ω, A , P ) espacio probabilı́stico. Sean A1 , . . . , An ∈ A .


Se dice que dichos sucesos son mutuamente independientes (se suele
decir solo que son independientes) si ∀{i1 , i2 , . . . , ik } ⊆ {1, . . . , n}, 2 ≤ k ≤ n,
k
Y
se verifica P (Ai1 ∩ Ai2 ∩ · · · ∩ Aik ) = P (Aij )
j=1

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


22 CAPÍTULO 3. P. CONDICIONADA E INDEPENDENCIA

Definición 3.2.4 Sea Ω espacio muestral distinto de ∅. Si A1 , . . . , An son


σ−álgebras construidas sobre Ω. Se dirá que dichas σ−álgebras son mutua-
mente independientes si ∀A1 ∈ A1 , ∀A2 ∈ A2 ,...,∀An ∈ An , dichos sucesos
son mutuamente independientes.

Definición 3.2.5 Sea (Ω, A , P ) un espacio probabilı́stico. Sean A1 , . . . , An


sucesos pertenecientes a A . Se dirá que dichos sucesos son independientes
2 a 2 si ∀Ai , Aj , con i 6= j si P (Ai ∩ Aj ) = P (Ai )P (Aj )

Definición 3.2.6 Sea Ω espacio muestral distinto de ∅ y sea A1 , . . . , An un


conjunto de σ−álgebras sobre Ω. Sea P una función de probabilidad. Se dice
que los σ−álgebras son independientes 2 a 2 si ∀Ai ∈ Ai , ∀Aj ∈ Aj con
i 6= j es P (Ai ∩ Aj ) = P (Ai )P (Aj )

Ejemplo 3.2.1 Consideremos el siguiente espacio muestral:


1
Ω = {ω1 , ω2 , ω3 , ω4 }, P ({ωi }) =
4
1
A1 = {ω1 , ω2 }, A2 = {ω1 , ω3 }, A3 = {ω1 , ω4 } y P (A1 ) = P (A2 ) = P (A3 ) =
2
Veamos que son sucesos independientes dos a dos

1 1 1
A1 ∩ A2 = {ω1 }, P (A1 ∩ A2 ) = = P (A1 )P (A2 ) = ∗
4 2 2
1 1 1
A1 ∩ A3 = {ω1 }, P (A1 ∩ A3 ) = = P (A1 )P (A3 ) = ∗
4 2 2
1 1 1
A2 ∩ A3 = {ω1 }, P (A2 ∩ A3 ) = = P (A2 )P (A3 ) = ∗
4 2 2
¿Son independientes mutuamente? 
1
P (A1 ∩ A2 ∩ A3 ) = P ({ω1 }) =

No son mutuamente

4
1 1 1 1  ⇒ independientes
P (A1 )P (A2 )P (A3 ) = ∗ ∗ = 
2 2 2 8
Corolario 3.2.1 Mutuamente independiente ⇒ independiente 2 a 2, pero la
implicación contraria no tiene porqué ser cierta.

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


Capı́tulo 4

Variable aleatoria y función


distribución

4.1. Función inversa y función medible


Definición 4.1.1 Función inversa: Consideremos dos espacios muestrales
Ω, Ω0 distintos del vacı́o, una función χ : Ω −→ Ω0 . Sea P (Ω), P (Ω0 ) (son los
máximos σ−álgebras que se pueden definir sobre Ω y Ω0 ). La función inversa
χ−1 es una función definida de P (Ω0 ) a P (Ω) de manera que:

χ−1 : P (Ω0 ) −→ P (Ω)


A0 7−→ {ω ∈ Ω | χ(ω) ∈ A0 } ∈ P (Ω)

Propiedades

1. χ−1 (∅0 ) = ∅
Dem. χ−1 (∅0 ) = {ω ∈ Ω : χ(ω) ∈ ∅0 } = ∅

2. χ−1 (Ω0 ) = Ω
Dem.χ−1 (Ω0 ) = {ω ∈ Ω : χ(ω) ∈ Ω0 } = Ω

3. Si A0 ⊂ B 0 ⇒ χ−1 (A0 ) ⊆ χ−1 (B 0 ).


Dem. χ−1 (A0 ) = {ω ∈ Ω : χ(ω) ∈ A0 } ⊆ {ω ∈ Ω : χ(ω) ∈ B 0 } =
χ−1 (B 0 ).

4. χ−1 (A0 ) = χ−1 (A0 )


Dem. χ−1 (A0 ) = {ω ∈ Ω : χ(ω) ∈ A0 } = {ω ∈ Ω : χ(ω) 6∈ A0 } =
= {ω ∈ Ω : χ(ω) ∈ A0 } = χ−1 (A0 ).

23

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


24CAPÍTULO 4. VARIABLE ALEATORIA Y FUNCIÓN DISTRIBUCIÓN
!
[ [
5. χ−1 A0i = χ−1 (A0i ).
i i
!
[ [
Dem. χ−1 A0i = {ω ∈ Ω : χ(ω) ∈ A0i } =
i i

= {ω ∈ Ω : χ(ω) ∈ A0i
para algún i} =
[ [
= {ω ∈ Ω : χ(ω) ∈ A0i } = χ−1 (A0i ).
i i
!
\ \
6. χ−1 A0i = χ−1 (A0i ).
i i
!
\ \
Dem. χ −1
A0i = {ω ∈ Ω : χ(ω) ∈ A0i } =
i i

= {ω ∈ Ω : χ(ω) ∈ A0i , ∀i} =


\ \
= {ω ∈ Ω : χ(ω) ∈ A0i } = χ−1 (A0i ).
i i

7. Sea Ω y Ω dos espacios muestrales. Sea A un σ−álgebra construido


0 0

sobre Ω0 . Se verifica que χ−1 (A 0 ) es un σ−álgebra sobre Ω.


Dem. Veamos que es σ−álgebra.

Como A 0 es σ−álgebra sobre Ω0 ⇒ Ω0 ∈ A 0 ⇒ χ−1 (Ω0 ) ∈ χ−1 (A 0 )


Como χ−1 (Ω0 ) = Ω, tenemos que Ω ∈ χ−1 (A 0 ).
Si A0 ∈ A 0 ⇒ A0 ∈ A 0 ⇒ χ−1 (A0 ), χ−1 (A0 ) ∈ χ−1 (A 0 )
Como χ−1 (A0 ) = χ−1 (A0 ), tenemos χ−1 (A0 ), χ−1 (A0 ) ∈ χ−1 (A 0 ).

[
A1 , . . . , A n , · · · ∈ A ⇒
0 0 0
A0i ∈ A 0 ⇒
i=1

!
[
⇒ χ−1 (A01 ), . . . , χ−1 (A0n ), · · · ∈ χ−1 (A 0 ) ⇒ χ−1 A0i ∈ χ−1 (A 0 )
i=1
!
[ [ [
Como χ−1 A0i = χ−1 (A0i ), tenemos que χ−1 (A0i ) ∈ χ−1 (A 0 ).
i i i

8. Sean Ω y Ω dos espacios muestrales. Sea C una familia de sucesos sobre


0 0

Ω0 . Sea σ(C 0 ) la mı́nima σ−álgebra construida sobre C 0 . Se verifica que


χ−1 (σ(C 0 )) ≡ σ(χ−1 (C 0 )).
Dem. ⊇y C 0 es una familia de subconjuntos de Ω0 y por tanto σ(C 0 ) es la
mı́nima σ−álgebra construida sobre C 0 ⇒ χ−1 (σ(C 0 )) es un σ−álgebra
que contiene a χ−1 (C 0 ).
Por otro lado σ(χ−1 (C 0 )) es el mı́nimo σ−álgebra que contiene a χ−1 (C 0 ).
Luego por construcción es σ(χ−1 (C 0 )) ⊆ χ−1 (σ(C 0 ))
4.2. VARIABLE ALEATORIA REAL 25

⊆y Consideramos el conjunto B 0 = {A0 ⊂ Ω0 | χ−1 (A0 ) ∈ σ(χ−1 (C 0 ))} .


Si B 0 fuera σ−álgebra, se cumple
C 0 ⊂ B 0 ⇒ σ(C 0 ) ⊂ B 0 ⇒ χ−1 (σ(C 0 )) ⊂ χ−1 (B 0 ) ⊂ σ(χ−1 (C 0 ))
y por tanto χ−1 (σ(C 0 )) ⊂ σ(χ−1 (C 0 ))
Veamos que B 0 es σ−álgebra.

χ−1 (Ω0 ) = Ω ∈ σ(χ−1 (C 0 )) ⇒ Ω0 ∈ B 0 .


Sea A0 ∈ B 0 ⇒ χ−1 (A0 ) ∈ σ(χ−1 (C 0 )) ⇒ χ−1 (A0 ) ∈ σ(χ−1 (C 0 ))
Como χ−1 (A0 ) = χ−1 (A0 ) tenemos que χ−1 (A0 ) ∈ σ(χ−1 (C 0 )) y por
tanto A0 ∈ B 0 .
Si A01 , . . . , A0n , · · · ∈ B 0 ⇒ χ−1 (A01 ), . . . , χ−1 (A0n ),!
· · · ∈ σ(χ−1 (C 0 )),
[∞ ∞
[
luego χ−1 (A0n ) ∈ σ(χ−1 (C 0 )) ⇒ χ−1 A0n ∈ σ(χ−1 (C 0 )) y
n=1 n=1

[
por tanto A0n ∈ B 0
n=1

Definición 4.1.2 Sean (Ω, A ) y (Ω0 , A 0 ) dos espacios medibles donde Ω y Ω0


son distintos del vacı́o, A es un σ−álgebra sobre Ω y A 0 es un σ−álgebra sobre
Ω0 . Se dirá que una función puntual χ : Ω −→ Ω0 es una función medible si
verifica:

χ−1 (A0 ) = {ω ∈ Ω | χ(ω) ∈ A0 } ∈ A , ∀A0 ∈ A 0

4.2. Variable aleatoria real


Definición 4.2.1 Sean (Ω, A ) y (R, B(R)) espacios probabilizables. Se dirá
que una función χ : Ω −→ R es una variable aleatoria real si verifica

χ−1 (B) = {ω ∈ Ω | χ(ω) ∈ B} ∈ A , ∀B ∈ B(R)

Pero, ¿cómo demostramos que la función χ es una variable aleatoria real? Con
la siguiente proposición.

Proposición 4.2.1 Consideremos dos espacios probabilizables (Ω, A ) y


(R, B(R)) y consideremos la familia de subconjuntos:

C = {(−∞, x] con x ∈ R} ∈ B(R) (Recordemos que σ(C ) = B(R)).

La condición necesaria y suficiente para que una función χ : Ω −→ R sea


variable aleatoria real es que χ−1 (C ) ∈ A .

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


26CAPÍTULO 4. VARIABLE ALEATORIA Y FUNCIÓN DISTRIBUCIÓN

Dem. Supongamos que χ es una variable aleatoria real. esto significa que
χ−1 (B) ∈ A ∀B ∈ B(R).
Luego χ−1 ((−∞, x]) ∈ A ∀x ∈ R ⇒ χ−1 (C ) ∈ A .
Veamos el recı́proco.
Si χ−1 (C ) ∈ A ⇒ σ(χ−1 (C )) ∈ A ⇒ χ−1 (σ(C )) ∈ A ⇒ χ−1 (B(R)) ∈ A .

Nota 4.2.1 Esta demostración no es única, ya que, en vez de la familia C ,


podemos usar la clase de los cerrados, los abiertos, etc.

De ahora en adelante, cada vez que nos refiramos a una función χ que sea
una variable aleatoria, entendemos que esta está definida sobre dos espacios
medibles (Ω, A ) y (Ω0 , A 0 ) donde Ω y Ω0 son distintos del vacı́o, A es un
σ−álgebra sobre Ω y A 0 es un σ−álgebra sobre Ω0 .

Proposición 4.2.2 Sea χ una variable aleatoria real. Sea f una función
continua real. Se verifica que f ◦ χ es una variable aleatoria real.

χ f
Dem. Tenemos Ω / R 8/ R
f ◦χ
−1
Tomemos (f ◦ χ) sobre un abierto B.
(f ◦ χ)−1 (B) = χ−1 (f −1 (B)) = χ−1 (B 0 ) ∈ A ya que al ser f una función
continua, f −1 (B) = B 0 es un abierto.
χ−1 f −1
Por tanto A o B(R) o B(R)

Corolario 4.2.1 Toda función continua es medible, ya que la imagen inversa


de un abierto es un abierto, pero no toda función medible es continua.

Corolario 4.2.2 Sea χ una variable aleatoria real. Sea a ∈ R. Se verifica que
χ + a, aχ, χa y | χ |a son variables aleatorias reales en sus respectivos campos
de existencia.
Con campos de existencia nos referimos a los puntos de χ donde se puede
definir la función.

Ejemplo 4.2.1 1. Si a < 0 y χ = 0, χa no está definida.

2. Si χ = −∞, χ + a no está definida.

Proposición 4.2.3 Sean χ1 , χ2 variables aleatorias reales definidas sobre el


mismo espacio muestral. Entonces los conjuntos o sucesos de la forma:

A = {ω ∈ Ω | χ1 (ω) < χ2 (ω) + c, c ∈ R}.

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


4.2. VARIABLE ALEATORIA REAL 27

B = {ω ∈ Ω | χ1 (ω) ≤ χ2 (ω) + c, c ∈ R}.

C = {ω ∈ Ω | χ1 (ω) = χ2 (ω) + c, c ∈ R}.

Son conjuntos medibles, es decir, A ∈ A , B ∈ A , C ∈ A .

Dem.

Sea A = {ω ∈ Ω | χ1 (ω) < χ2 (ω) + c, c ∈ R}.


χ1 (ω) < χ2 (ω) + c ⇒ ∃r ∈ Q tal que χ1 (ω) < r < χ2 (ω) + c.
[
A= [{ω ∈ Ω | χ1 (ω) < r} ∩ {ω ∈ Ω | r < χ2 (ω) + c}]
r∈Q
[
= [χ−1 ((−∞, r)) ∩ χ−1 ((r − c, ∞)),
| 1 {z } |2 {z }
r∈Q ∈A ∈A
que pertenece a A por ser unión numerable de elementos de A (recor-
demos que la intersección de dos elementos de A está en A ).

Sea B = {ω ∈ Ω | χ1 (ω) > χ2 (ω) + c, c ∈ R}, B ∈ A porque tiene la


misma estructura que A y como A es σ−álgebra⇒ B ∈ A .

C tiene la estructura de B − A ⇒ C ∈ A .

Corolario 4.2.3 Sean χ1 , χ2 dos variables aleatorias reales definidas sobre


los mismos espacios probabilı́sticos. Se verifica:
χ1 + χ2 y χ1 · χ2 son variables aleatorias reales.

(χ1 + χ2 )(ω) = χ1 (ω) + χ2 (ω)


Dem.
(χ1 · χ2 )(ω) = χ1 (ω)χ2 (ω)
Hay que ver que (χ1 + χ2 )−1 ((−∞, x]) ∈ A .
(χ1 + χ2 )−1 ((−∞, x]) = {ω ∈ Ω | (χ1 + χ2 )(ω) ∈ (−∞, x]}
= {ω ∈ Ω | χ1 (ω) + χ2 (ω) ≤ x}
= {ω ∈ Ω | χ1 (ω) ≤ x − χ2 (ω)} ∈ A (Por la propo-
sición 4.2.3)
Luego la suma de variables aleatorias reales es una variable aleatoria real.
Veamos ahora el producto (χ1 · χ2 )−1 ((−∞, x])
1
χ1 ·χ2 = [(χ1 +χ2 )2 −(χ1 −χ2 )2 ], que por el corolario 4.2.2 es una variable
4
aleatoria real.

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


28CAPÍTULO 4. VARIABLE ALEATORIA Y FUNCIÓN DISTRIBUCIÓN

4.3. Parte positiva y parte negativa


Definición 4.3.1 Sean dos espacios probabilizables (Ω, A ) y
(R, B(R)) y tenemos la variable aleatoria real χ : Ω −→ R.Se define:
parte positiva χ+ = máx{0, χ}.

parte negativa χ− = máx{0, −χ}.


Ambas son siempre no negativas y verifican:
χ = χ+ − χ− .

| χ |= χ+ + χ− .

Tenemos que ver que χ+ y χ− son variables aleatorias reales.


1
Sean χ1 y χ2 , máx{χ1 , χ2 } = [χ1 + χ2 + | χ1 − χ2 |], luego máx{χ1 , χ2 } es
2
una variable aleatoria real.
Por tanto χ+ y χ− son variables aleatorias reales.

4.4. Sucesiones
Proposición 4.4.1 Sea {χn } una sucesión de variables aleatorias reales. Se
verifica:
sup {χn }, ı́nf {χn }, lı́m sup {χn }, lı́m inf {χn } son variables aleatorias
reales.
(Hay que tener en cuenta que lı́m sup y lı́m inf no son de conjuntos, si no
de puntos).

Dem. Basta demostrar el supremo, ya que ı́nf = − sup, lı́m inf = sup ı́nf,
lı́m sup = ı́nf sup.
sup−1 ((−∞, x]) = {ω ∈ Ω | sup {χn (ω)} ∈ (−∞, x]}
= {ω ∈ Ω | sup {χn (ω)} ≤ x}
= {ω
\ ∈ Ω | χn (ω) ≤ x ∀n} \
= {ω ∈ Ω | χn (ω) ≤ x} = χ−1 ((−∞, x]) ∈ A
n n
Por ser intersección numerable de elementos de A .

4.5. Función indicador


Definición 4.5.1 Función indicador: Sean (Ω, A ) y (R, B(R)) dos espa-
cios medibles. Se define la función

IA : Ω −→ {0,1}
0 si ω ∈
6 A
IA (ω) =
1 si ω ∈ A
4.6. VARIABLES ALEATORIAS SIMPLES 29

Proposición 4.5.1 La función indicador IA es una variable aleatoria real si


y solo si A ∈ A

Dem. IA−1 ((−∞, x]) = {ω ∈ Ω | IA (ω) ∈ (−∞, x]}. Se tiene:



 ∅ si x < 0
−1
IA ((−∞, x]) = A si 0 ≤ x < 1
Ω si x > 1

Como A ∈ A , entonces ∅, Ω, A ∈ A . Entonces IA−1 ((−∞, x]) ∈ A .

Propiedades de la función indicador

1. I∅ = 0

2. IΩ = 1

3. IA = 1 − IA
n
X
4. Sea A1 , . . . , An con Ai ∩ Aj = ∅ si i 6= J, I Sn
i=1 Ai = IA1 .
i=1

n
Y
5. Sea A1 , . . . , An , I
Tn
i=1 Ai = IA1 .
i=1

4.6. Variables aleatorias simples


Definición 4.6.1 Sea χ una variable aleatoria real, χ es una variable alea-
toria simple si su conjunto de imágenes es de la forma {x1 , . . . , xn } ⊂ R, es
decir, χ : Ω −→ {x1 , . . . , xn }.

Observemos que los conjuntos de la forma Ai = {ω ∈ Ω | χ(ω) = xi } son


disjuntos entre ellos, es decir, Ai ∩ Aj = ∅ con i 6= j.
[n
Por lo tanto Ω = Ai , es decir, una variable aleatoria simple genera una
i=1
n
X
partición de Ω y además χ = xi IAi
i=1

Proposición 4.6.1 Sean χ1 y χ2 variables aleatorias reales simples, se veri-


fica que χ1 + χ2 y χ1 · χ2 son variables aleatorias reales simples.

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


30CAPÍTULO 4. VARIABLE ALEATORIA Y FUNCIÓN DISTRIBUCIÓN

Dem. Si χ1 es una variable aleatoria simple ⇒ ∃{x1 , . . . xn }, ∃{A1 , . . . , An }


[n
de forma que Ai = {ω ∈ Ω | χ1 (ω) = xi }, Ai ∩ Aj = ∅ si i 6= j, Ai = Ω y
i=1
n
X
χ1 = xi IAi .
i=1
Si χ2 es una variable aleatoria simple ⇒ ∃{y1 , . . . , ym }, ∃{B1 , . . . , Bm } de
[m
forma que Bj = {ω ∈ Ω | χ2 (ω) = yj }, Bi ∩ Bj = ∅ si i 6= j, Bj = Ω y
j=1
m
X
χ2 = yj IBj .
j=1
Luego tenemos:

χ1 + χ2
n
X m
X
χ1 + χ2 = xi IAi + yj IBj
i=1 j=1
n
X m
X
= xi IAi ∩Ω + yj IBj ∩Ω
i=1 j=1
n
X m
X
= xi IAi ∩(Sm
j=1 Bj )
+ yj IBj ∩(Sni=1 Ai )
i=1 j=1
n
X m
X
= xi ISm
j=1 (Ai ∩Bj )
+ yj ISni=1 (Bj ∩Ai )
i=1 j=1

(Ai ∩ Bj ) ∩ (Ai ∩ Bk ) = ∅ si j 6= k y (Ai ∩ Bj ) ∩ (Al ∩ Bj ) = ∅ si i 6= l.


Luego nos queda
Xn m
X m
X Xn
χ1 + χ2 = xi IAi ∩Bj + yj IBj ∩Ai
i=1 j=1 j=1 i=1
n X
X m
= (xi + yj )IAi ∩Bj
i=1 j=1

i = 1, ..., n
Por tanto χ1 + χ2 ∈ {xi + yj } con y Ai ∩ Bj ∩ Ak ∩ Bl = ∅
j = 1, ...m
n [
[ m n
[ m
[
si i 6= k o j =
6 l. Además, (Ai ∩ Bj ) = Ai ∩ Bj = Ω.
i=1 j=1 i=1 j=1

Luego χ1 + χ2 es una variable aletoria real simple.

χ1 · χ2
Con un razonamiento similar llegamos a:

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


4.7. FUNCIÓN DE DISTRIBUCIÓN 31

n
X m
X m
X n
X
χ1 · χ2 = xi IAi ∩Bj · yj IBj ∩Ai
i=1 j=1 j=1 i=1
n X
X m
= (xi · yj )IAi ∩Bj
i=1 j=1

i = 1, ..., n
Por tanto χ1 · χ2 ∈ {xi · yj } con y Ai ∩ Bj ∩ Ak ∩ Bl = ∅ si
j = 1, ...m
n [
[ m n
[ m
[
i 6= k o j =
6 l. Además, (Ai ∩ Bj ) = Ai ∩ Bj = Ω.
i=1 j=1 i=1 j=1

Luego χ1 · χ2 es una variable aletoria real simple.

Teorema 4.6.1 Una función medible o variable aleatoria real no negativa se


puede expresar como el lı́mite de una sucesión de variables aleatorias reales
simples no negativas creciente1

χ = lı́m χn
n→∞
tal que {χn } ↑ con χn variable aleatoria simple no negativa

4.7. Función de distribución


Sea un experimento aleatorio que genera un espacio probabilı́stico
(Ω, A , P ), en esta sección vamos a definir una función de conjuntos Pχ para
relacionar (Ω, A , P ) con (R, B(R)). de manera que:

(Ω ,A
O
,P)
χ χ−1

(R , B(R) , Pχ )

Definición 4.7.1 En las condiciones anteriores, definimos dicha función como:

Pχ (B) = P (χ−1 (B))

¿Es función de probabilidad? Sı́. Para demostrarlo veamos que cumple todos
los axiomas de Kolmogorov:

Pχ (R) = P (χ−1 (R)) = P (Ω) = 1.

Como P es no negativo, Pχ también lo es.


1
En el libro Teorı́a de la Probabilidad de P. Ibarrola, L.Pardo y V.Quesada podemos
encontrar la demostración a este teorema en el capı́tulo 5, que no ha sido añadida a estos
apuntes debido a su extensión.

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


32CAPÍTULO 4. VARIABLE ALEATORIA Y FUNCIÓN DISTRIBUCIÓN

Sean B1 , ..., Bn , ... ∈ B(R) con Bi ∩ Bj = ∅ , entonces:



! ∞
!! ∞
!
[ [ [
−1 −1
Pχ Bn = P χ Bn =P χ (Bn )
n=1 n=1 n=1

Como χ−1 (Bi ) ∩ χ−1 (Bj ) = χ−1 (Bi ∩ Bj ) = χ−1 (∅) = ∅


X∞ X∞
−1
= P (χ (Bn )) = Pχ (Bn ).
n=1 n=1

Definición 4.7.2 Llamamos función de distribución a la única función


F : R → R+ ∪ {0} definida como:
F (x) = Pχ ((−∞, x]) = P (χ−1 ((−∞, x]))
= P ({ω ∈ Ω | χ(ω) ∈ (−∞, x]})
= P ({ω ∈ Ω | χ(ω) ≤ x}) = P [χ ≤ x]

Teorema 4.7.1 De Correspondencia: La función de distribución determi-


na de forma única la función de probabilidad.

Ejemplo 4.7.1 ConsideremosΩ = {A, A}, (Ω, A , P )


A = {∅, Ω, A, A}
Espacio original
P (A) = p, P (A) = 1 − p
Definimos la variable aleatoria χ : Ω → R como χ(A) = 1, χ(A) = 0.
 ∅ x<0
χ−1 ((−∞, x]) : B(R) → A como χ−1 ((−∞, x]) = A 0≤x<1
Ω x≥1

−1
F (x) = P
χ ((−∞, x]) = P (χ ((−∞, x])) toma los valores
 0 x<0
F (x) = 1−p 0≤x<1
1 x≥1

Proposición 4.7.1 Propiedades. Sea χ una variable aleatoria real.


Sea F (x) su función distribución definida de la forma

F : R → R+ ∪ {0}
F (x) = Pχ ((−∞, x]) = P [χ ≤ x]

Se verifica:
1. F es una función monótona no decreciente.

2. lı́m F (x) = 1.
x→∞

3. lı́m F (x) = 0.
x→−∞

4. F es contı́nua por la derecha, es decir lı́m+ F (x) = F (a).


x→a

5. F tiene lı́mite por la izquierda.


4.7. FUNCIÓN DE DISTRIBUCIÓN 33

Dem.
1. Sea x1 ≤ x2 ⇒ (−∞, x1 ] ⊆ (−∞, x2 ]. Como la probabilidad es monótona:
Pχ ((−∞, x1 ]) ≤ Pχ ((−∞, x2 ]) ⇒ F (x1 ) ≤ F (x2 ).

2. Sea {Axn }xn →∞ = {(−∞, xn ]}x→∞ es una sucesión creciente que converge
a R.
lı́m F (xn ) = lı́m Pχ ((−∞, xn ]) = Pχ ( lı́m (−∞, xn ]) = Pχ (R) = 1.
xn →∞ xn →∞ xn →∞

3. Sea {Axn }xn →−∞ = {(−∞, xn ]}xn →−∞ es una sucesión decreciente que
converge al vacı́o.
lı́m F (xn ) = lı́m Pχ ((−∞, xn ]) = Pχ ( lı́m (−∞, xn ]) = Pχ (∅) = 0.
xn →−∞ xn →−∞ xn →−∞

4. Sea {Axn }xn →a− = {(−∞, xn ]}xn →a− es una sucesión decreciente que
converge a (−∞, a]
lı́m F (x) = lı́m + Pχ ((−∞, xn ]) = Pχ ( lı́m + (−∞, xn ]) = Pχ ((−∞, a]) = F (a).
xn →a+ xn →a xn →a

5. Sea {Axn }xn →a+ = {(−∞, xn ]}xn →a+ es una sucesión creciente que con-
verge a (−∞, a)
lı́m F (x) = lı́m− Pχ ((−∞, xn ]) = Pχ ( lı́m− (−∞, xn ]) = Pχ ((−∞, a))
xn →a− xn →a xn →a

= Pχ ((−∞, a]) − P χ({a}) = F (a) − P [χ = a]

Definición 4.7.3 Sea F : R → R+ ∪ {0} que verifica las propiedades ante-


riores, se considera una función de distribución.

4.7.1. Propiedades de continuidad de la función distri-


bución
Proposición 4.7.2 La condición necesaria y suficiente para que una función
de distribución F sea continua en un punto a es que P [χ = a] = 0.

Dem. F (a+ ) = F (a) = Pχ ((−∞, a]) = Pχ ((−∞, a)) + Pχ ({a})


= P [χ < a] + P [χ = a] = F (a− ) + P [χ = a].

Proposición 4.7.3 Sean F1 , F2 dos funciones de distribución. Sea D un con-


junto denso en R. Entonces si F1 (x) = F2 (x) ∀a ∈ D, entonces F1 (x) = F2 (x)
∀a ∈ R.

Dem. ∀x ∈ R, ∃{xn } ⊆ D con xn → x por la derecha.


F1 (x) = lı́m F1 (xn ) = lı́m F2 (xn ) = F2 (x).
xn →x xn →x

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


34CAPÍTULO 4. VARIABLE ALEATORIA Y FUNCIÓN DISTRIBUCIÓN

Proposición 4.7.4 Sea F una función de distribución cualquiera. A lo más


tiene un conjunto numerable de puntos de discontinuidad.

Dem. Sea D = {x | F (x) − F (x ↑) = p(x) > 0}


= {P [χ ≤ x] − P [χ < x] =[P [χ = x] > 0}
1 1
Sea Dn = {xn | n+1 < p(xn ) < n }, D = Dn
n
Sean x1 , x2 , ..., xk con a ≤ x− −
1 < x1 ≤ x2 < x2 ... < xk ≤ b
k k
k X X
< p(xj ) = [F (xj ) − F (x−
j )] ≤
n+1 j=1 j=1
k
X k
X
≤ [F (xj ) − F (x−
j )] + [F (x− −
j ) − F (xj−1 )] = F (xk ) − F (x1 ) ≤
j=1 j=2
≤ F (b) − F (a) ≤ 1
k
Luego < 1 ⇒ k ≤ n.
n+1

Proposición 4.7.5 Sean F1 , F2 dos funciones de distribución. Sean C1 , C2


los conjuntos de puntos de continuidad de F1 y F2 respectivamente. Si F1 (x) =
F2 (x) ∀x ∈ C1 ∩ C2 . Entonces F1 (x) = F2 (x) ∀x ∈ R.

Dem. El complementario en R de un conjunto numerable es denso (eso no


implica que el conjunto numerable no pueda ser denso también).
R − (C1 ∩ C2 ) = R ∩ (C1 ∩ C2 ) = R ∩ (C1 ∪ C2 ) = (R ∩ C1 ) ∪ (R ∩ C2 )
(R ∩ C1 ) = puntos de discontinuidad de F1 ⇒ numerable.
(R ∩ C2 ) = puntos de discontinuidad de F2 ⇒ numerable.
R − (C1 ∩ C2 ) numerable por ser igual a la unión de conjuntos numerables.

4.7.2. Teorema de descomposición de la función de dis-


tribución
Teorema 4.7.2 Dada cualquier función de distribución F : R → R+ ∪ {0}
siempre se podrá descomponer de la forma:

F (x) = αFd (x) + (1 − α)Fc (x), 0 ≤ α ≤ 1

Con Fd función de distribución discreta y Fc función de distribución continua.


Además, cuando 0 < α < 1, dicha descomposición es única.

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


4.7. FUNCIÓN DE DISTRIBUCIÓN 35

Dem.
Como F es función de distribución, sabemos que a lo más tiene un conjunto
numerable de saltos de discontinuidad.
(x−
Sea B = {xn | p(xn ) = F (xn ) − FX n )} ese conjunto.
Definimos la función G(x) = p(xn ). Veamos las propiedades:
xn ≤x

1. Es monótona no decreciente.
X x ≤ y, X
Dem. Sea x, y con X
G(y) − G(x) = p(xn ) − p(xn ) = p(xn ) > 0
xn ≤y xn ≤x x≤xn ≤y

2. Como G(x) ≤ 1 y es monótona no decreciente tiene lı́m G(x) = α,


x→∞
0 ≤ α ≤ 1.
!
X
3. lı́m G(x) = lı́m p(xn ) = 0.
x→−∞ x→−∞
xn ≤x

4. G es continua por la derecha.


Dem. X
lı́m [G(x + h) − G(x)] = lı́m p(xn ) ≤ lı́m [F (x + h) − F (x)] → 0
h→0 h→0 h→0
x≤xn ≤x+h

Como G(x) no es una función distribución ya que α no tiene porqué ser 1,


definimos
G(x)
Fd (x) =
α
Definimos ahora H(x) = F (x) − G(x). Veamos las propiedades:
1. H es monótona no decreciente.
Dem. Sea y ≥ x
H(y)−H(x) = (F (y)−G(y))−(F (x)−G(x)) = F (y)−F (x)−(G(y)−G(x)) ≥ 0

2. lı́m H(x) = 1 − α.
x→∞

3. lı́m H(x) = 0.
x→−∞

4. H(x) es continua por la derecha, (por ser diferencia de dos funciones


continuas por la derecha).
5. H(x) es continua por la izquierda.
Dem. lı́m (H(x) − H(x − h)) = lı́m [F (x) − F (x − h) − (G(x) − G(x − h))].
h→0 h→0
Si F es continua, el lı́mite vale 0.
Si F presenta discontinuidad en el punto x, el lı́mite vale p(x) − p(x) = 0.
Luego la función H es una función continua.

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


36CAPÍTULO 4. VARIABLE ALEATORIA Y FUNCIÓN DISTRIBUCIÓN

Definimos
H(x)
Fc (x) =
1−α
Luego F (x) = G(x)+H(x) ⇒ F (x) = αFd (x)+(1−α)Fc (x) con 0 ≤ α ≤ 1.
Sea 0 < α < 1, supongamos que hay dos descomposiciones:
α1 Fd1 (x) + (1 − α1 )Fc1 (x) = α2 Fd2 (x) + (1 − α2 )Fc2 (x)
Eso implica que α1 Fd1 (x) − α2 Fd2 (x) = (1 − α2 )Fc2 (x) − (1 − α1 )Fc1 (x) = c
lı́m α1 Fd1 (x) − α2 Fd2 (x) = c = 0, luego α1 = α2 .
x→∞


Nota 4.7.1 El teorema de descomposición de la función de distribución es
una parte del teorema de descomposición de Lebesgue, de donde se deduce:
F = β1 Fd + β2 Fac + β3 Fs 2
con 0 ≤ βi ≤ 1 y β1 + β2 + β3 = 1. Esta descomposición es única.

4.8. Clasificación de las variables aleatorias


Definición 4.8.1 Sea χ una variable aleatoria real. Se dirá que dicha varia-
ble aleatoria real es discreta si su función de distribución es discreta, por
lo que χ : Ω −→ S = {x1 , . . . , xn , . . . } ⊂ R, lo cual supone que tendrı́amos
P uno de sus puntos (P [χ = xn ] ≥ 0) y la suma
definida la probabilidad en cada
de sus probabilidades es 1 ( P [χ = xn ] = 1).
Esto produce una partición del espacio muestral
[
An = {ω ∈ Ω | χ(ω) = xn }, Ai ∩ Aj = ∅ si i 6= j, An = Ω, lo cual significa
n
que podemos escribir χ de la forma
X
χ= xn IAn
n

A P [χ = xn ] ≥ 0 se le llama función de probabilidad.


Definición 4.8.2 Sea χ una variable aleatoria real, se dirá que dicha va-
riable aleatoria real es absolutamente continua si su función de dis-
tribución es absolutamente continua. Esto supone que existe3 una función f
llamada función de densidad que verifica:
f (x) ≥ 0.
R +∞
−∞
f (x)dx = 1.
Rx
F (x) = −∞ f (t)dt

2
Función discreta, Función absolutamente continua, Función singular respectivamente.
3
la existencia proviene del teorema de Radon-Nikodym
Capı́tulo 5

Caracterı́sticas asociadas a una


V.A.

¿Cómo podemos hacer comparaciones o sintetizar un espacio aleatorio? Es-


te tema trata de buscar unas caracterı́sticas de forma que se pueda caracterizar
(si es posible) un experimento aleatorio de forma más fácil.

5.1. Esperanza matemática


Definición 5.1.1 Sea χ una variable aleatoria real discreta. Se define la es-
peranza de χ, representado por E[χ] como:
X
E[χ] = xn P [χ = xn ]
n

X
Siempre que xn P [χ = xn ] < +∞.
n
R +∞
En el caso de una distribución continua E[χ] = −∞
xf (x)dx
R +∞
si −∞ |x|f (x)dx < +∞

Ejemplo 5.1.1 Un alumno tiene las siguientes notas: 5, 7, 7, 4, 3, 8, 5, 6, 6, 6.


5+5+4+3+7+7+8+6+6+6
Media
10
2 1 1 1 2 3
5· +4· +3· +8· +7· +6·
10 10 10 10 10 10
En este caso realmente estamos calculando la esperanza matemática, luego
la esperanza matemática en una variable es en realidad la media.

En el ejemplo anterior la suma resulta 5’7 y esto es el centro de gravedad.


Luego la esperanza matemática representa el centro de gravedad, que tiende a
acercarse hacia la distribución más concentrada.

37

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


38 CAPÍTULO 5. CARACTERÍSTICAS ASOCIADAS A UNA V.A.

Propiedades
1. Si χ es una variable indicador (χ = IA ), E[χ] = P (A).

1 si ω ∈ A
Dem. χ(ω) = IA (ω) =
0 si ω 6∈ A
E[χ] = 1 · P [ω ∈ A] + 0 · P [ω 6∈ A] = P [ω ∈ A] = P (A).

2. Sea χ una variable aleatoria acotada (∃ M > 0 tal que P [|χ| < M ] =
1) ⇒ existe E[χ].
Dem.
0
X X X z }| {
|xn |P [χ = xn ] = |xn |P [χ = xn ] + |xn | P [χ = xn ]
n {xn : |xn |<M } {xn : |xn |≥M }
X
=M P [χ = xn ] = M < +∞
{xn : |xn |<M }

3. Si χ es una variable aleatoria real no negativa ⇒ E[χ] ≥ 0.

4. Sea χ una variable aleatoria real, a, b ∈ R, P [a ≤ χ ≤ b] = 1 y ∃E[χ] ⇒


a ≤ E[χ] ≤ b.

5. Proposición 5.1.1 Sea χ una variable aleatoria real discreta. Sea g una
función medible Borel real. Sea Y = g(χ) para la que sabemos que ∃E[Y ].
Se verifica: X
E[Y ] = g(xn )P [χ = xn ]
xn

Dem.
X X X
E[Y ] = yj P [Y = yj ] = yj P ({ω ∈ Ω | Y (ω) = yj }) = yj P (Bj )
j j j

Bj = {ω ∈ Ω | Y (ω) = yj }
= {ω ∈ Ω | g(χ(ω)) = yj }
= {ω ∈ Ω | χ(ω) = g −1 (yj )}
= {ω ∈ Ω | χ(ω) = xjn : g(xjn ) = yj para algún n}
[
= {ω ∈ Ω | χ(ω) = xjn : g(xjn ) = yj }
n
[
= Ajn
n
Por tanto nos queda:
!
X X [
E[Y ] = yj P (Bj ) = yj P Ajn , pero los Ajn son disjuntos,
j j n
luego:

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


5.2. VARIANZA 39
X X XX X
E[Y ] = yj P (Ajn ) = g(xjn )P (Ajn ) = g(xn )P [χ = xn ]
j n j n n

6. χ = a, P [χ = a] = 1 ⇒ E[χ] = a.

7. E[aχ + b] = aE[χ] + b.

8. ∃ E[χ] ⇔ ∃ E[|χ|].

9. |E[χ]| ≤ E[|χ|].

Si recordamos el principio del tema, buscábamos una caracterı́sticas que


caractericen un experimento aleatorio. ¿ La esperanza la caracteriza? No, luego
tiene que haber algo más que nos ayude a caracterizarlo.

5.2. Varianza
Definición 5.2.1 Sea E[χ] = µ, definimos la varianza como

E[(χ − µ)2 ] = σ 2

Propiedades
1. var(χ) = σ 2 = E[(χ − µ)2 ] = E[χ2 ] − µ2 , con µ = E[χ].
Dem. E[(χ−µ)2 ] = E[χ2 +µ2 −2µχ] = E[χ2 ]+µ2 −2µE[χ] = E[χ2 ]−µ2

2. Sea χ una variable aleatoria, si P [χ = c] = 1 ⇒ var(χ) = 0.

3. Sea χ una variable aleatoria, Y = aχ + b ⇒ var(Y ) = var(aχ + b) =


a2 var(χ).
Dem. var(aχ + b) = E[(aχ + b − E[aχ + b])2 ] = E[(aχ − aE[χ])2 ]
= a2 E[(χ − E[χ])2 ] = a2 var(χ).

4. mı́n E[(χ − a)2 ] = E[(χ − µ)2 ]


a

Dem. Sea φ(a) = E[(χ − a)2 ] = E[χ2 + a2 − 2aχ] = E[χ2 ] + a2 − 2aE[χ].


∂φ
= 2a − 2E[χ] = 0 ⇒ a = E[χ] = µ.
∂a

Definición 5.2.2 Definimos la desviación tı́pica como σ = + σ 2 .

Aún ası́ sigue sin ser suficiente para caracterizar un experimento.

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


40 CAPÍTULO 5. CARACTERÍSTICAS ASOCIADAS A UNA V.A.

5.3. Coeficiente de simetrı́a


Para definirlo tenemos que considerar un eje de simetrı́a, que será el eje
que pasa por la media.

Definición 5.3.1 El coeficiente de simetrı́a γ1 se define como


E[(χ − µ)3 ]
γ1 =
σ3
No tiene una medida métrica, de forma que:
Si γ1 = 0, F (x) es simétrica.

Si γ1 > 0, F (x) es sesgada a la derecha.

Si γ1 < 0, F (x) es sesgada a la izquierda.

5.4. Coeficiente de Curtosis


Sirve para medir el grado de apuntamiento.
E[(χ − µ)4 ]
γ2 = , en el caso de la normal γ2 = 3.
σ4
Definición 5.4.1 Se define el coeficiente de Curtosis como:
E[(χ − µ)4 ]
γ20 = −3
σ4
de forma que hacemos la comparación con el cero:
Si γ20 = 0, tenemos una distribución mesocúrtica. Presenta un grado
de concentración medio alrededor de los valores centrales de la variable
(el mismo que presenta la normal).

Si γ20 > 0, tenemos una distribución leptocúrtica. Presenta un eleva-


do grado de concentración alrededor de los valores centrales de la variable.

Si γ20 < 0, tenemos una distribución platicúrtica. Presenta un re-


ducido grado de concentración alrededor de los valores centrales de la
variable.

5.5. Momento
Definición 5.5.1 Dada una variable aleatoria χ, se define el momento res-
pecto al origen de orden r, r ∈ N, representado por E[χr ] como:
X
Caso discreto: E[χr ] = xrn P [χ = xn ]
xn
5.6. DESIGUALDADES 41
Z +∞
Caso absolutamente continuo: E[χ ] = r
xr f (x)dx
−∞

Definición 5.5.2 Se define el momento central de orden r como:


X
Caso discreto: E[(χ − µ)r ] = (xn − µ)r P [χ = xn ]
xn
Z +∞
Caso absolutamente continuo: E[(χ − µ) ] = r
(x − µ)r f (x)dx
−∞

Resultados sobre la existencia de los momentos


Proposición 5.5.1 Sea χ una variable aleatoria real para la cual existe la
esperanza de χλ (∃ E[χλ ]), entonces existe E[χδ ] ∀δ < λ.

Dem. Si consideramos A = {ω ∈ Ω tal que |χ(ω)| ≤ 1}, podemos deducir que


|χ(ω)|δ ≤ 1.
Si consideramos ahora A = {ω ∈ Ω tal que |χ(ω)| > 1}, entonces podemos
decir que |χ(ω)|δ ≤ |χ(ω)|λ .
Por lo tanto, ∀ ω ∈ Ω, |χ(ω)|δ ≤ 1 + |χ(ω)|λ ⇒ E[|χ|δ ] ≤ 1 + E[|χ|λ ], como
E[|χ|λ ] está acotada por hipótesis, entonces E[|χ|δ ] está acotada.

Proposición 5.5.2 Sea χ una variable aleatoria real, la condición necesaria


y suficiente para que exista el momento central de orden r respecto a la variable
χ es que exista el momento respecto al origen de orden r.

Dem.
r   r  
" #
X r k r−k
X r
• E[χr ] = E[(χ−µ+µ)r ] =E (χ − µ) µ = E[(χ−µ)k ]µr−k
k k
" r   k=0 # r  
k=0
X r X r
• E[(χ − µ)r ] = E χr µr−k = E[χk ]µr−k
k=0
k k=0
k

5.6. Desigualdades
5.6.1. Desigualdad Básica
Proposición 5.6.1 Sea χ una variable aleatoria real. Sea g una función me-
dible Borel no negativa (g : χ −→ [0, ∞]) para la cual existe E[g(χ)]. Se verifica
que:
E[g(χ)]
P [g(χ) ≥ ε] ≤ ∀ε > 0
ε

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


42 CAPÍTULO 5. CARACTERÍSTICAS ASOCIADAS A UNA V.A.

Dem. Sea A1 = {xn : g(xn ) ≥ ε} y A2 = {xn : g(xn ) < ε}


X X X
E[g(χ)] = g(xn )P [χ = xn ] = g(xn )P [χ = xn ] + g(xn )P [χ = xn ]
xn A2 A1
X X
≥ g(xn )P [χ = xn ] ≥ ε P [χ = xn ] = εP [g(χ) ≥ ε]
A1 A1

5.6.2. Desigualdad de Markov


Proposición 5.6.2 Sea χ una variable aleatoria real para la cual existe E[χr ].
Se verifica que:
E[|χ|r ]
P [|χ| ≥ ε] ≤
εr
Dem. Sea A1 = {xn : |xn | ≥ ε} y A2 = {xn : |xn | < ε}
X X X
E[|χ|r ] = |xn |r P [χ = xn ] = |xn |r P [χ = xn ] + |xn |r P [χ = xn ]
xn A2 A1
X X
r r r
≥ |xn | P [χ = xn ] ≥ ε P [χ = xn ] = ε P [|χ| ≥ ε]
A1 A1

5.6.3. Desigualdad de Tchebychev


Proposición 5.6.3 Sea χ una variable aleatoria real para la cual existe
E[(χ − µ)2 ]. Entonces se verifica:

E[(χ − µ)2 ]
P [|χ − µ| ≥ ε] ≤
ε2

Dem. Aplicar la desigualdad básica con g(χ) = (χ − µ)2 .

5.7. Función Generatriz de Momentos


Definición 5.7.1 Sea χ una variable aleatoria real, se define la función
generatriz de momentos, que representaremos como M (t), a la esperanza
E[etχ ], es decir:
M (t) = E[etχ ]
siempre que exista en un entorno de t = 0 (|t| < t0 ).
X
Caso discreto: M (t) = E[etχ ] = etxn P [χ = xn ]
xn

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


5.7. FUNCIÓN GENERATRIZ DE MOMENTOS 43
Z +∞
Caso absolutamente continuo: M (t) = E[e ] = tχ
etχ f (x)dx
−∞

Teorema 5.7.1 La función generatriz de momentos, siempre que exista, iden-


tifica al experimento aleatorio.

Analicemos la función:
X
M (t) = etxn P [χ = xn ] ⇒ M (0) = 1
xn

∂M (t) X
= xn etxn P [χ = xn ] ⇒ M (0) = E[χ].
∂t x n

∂ 2 M (t) X 2 txn
2
= xn e P [χ = xn ] ⇒ M (0) = E[χ2 ].
∂ t x n


∂ r M (t)

X
r txn
Luego podemos decir que = x e P [χ = x ] = E[χr ].

n n
∂ r t t=0 xn

t=0
Como existen todas las derivadas, podemos expresar la función generatriz
como una serie de Taylor:

tχ χt χ2 t2 X E[χr ]
M (t) = E[e ] = E[1 + + + ...] = tr
1! 2! r=1
r!

Otras caracterı́sticas
Definición 5.7.2 Sea χ una variable aleatoria real, la moda es aquel valor
x0 de la variable tal que:

Caso discreto: P [χ = x0 ] = máx P [χ = xn ].


xn

Caso absolutamente continuo: f (x0 ) = máx f (x).


x

Definición 5.7.3 Sea χ una variable aleatoria real. Se define la mediana de


dicha variable aleatoria como aquel valor de la variable que deja el 50 % de la
distribución a la izquierda y el otro 50 % a la derecha.

1 1 1
P [χ ≥ x] ≥ ⇒ 1 − P [χ < x] ≥ ⇒ ≥ P [χ < x] = P [χ ≤ x] − P [χ = x]
2 2 2
1 1 1
⇒ P [χ ≤ x] ≤ + P [χ = x] ⇒ ≤ P [χ ≤ x] ≤ + P [χ = x]
2 2 2
1 1
⇒ ≤ F (x) ≤ + P [χ = x]
2 2
1
Si χ es absolutamente continua entonces F (x) = .
2

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


44 CAPÍTULO 5. CARACTERÍSTICAS ASOCIADAS A UNA V.A.

Definición 5.7.4 Sea χ una variable aleatoria real. Se denominan Cuan-


tiles al conjunto de puntos de valores de la variable que descomponen a la
función distribución en partes iguales.
qp = x es un cuantil de orden p si verifica que

P [χ ≤ x] ≥ p y P [χ ≥ x] ≥ 1 − p

Definición 5.7.5 Sea χ una variable aleatoria real. Se denominan cuarti-


les a aquellos valores de la variable que descomponen la distribución de la
probabilidad en cuatro partes iguales.

Definición 5.7.6 Sea χ una variable aleatoria real. Se denominan percen-


tiles a aquellos valores de la variable que descomponen la distribución de la
probabilidad en 100 partes iguales.
Capı́tulo 6

Modelos de Variable Aleatoria

En este tema vamos a ver algunos modelos de tipo discreto y otros absolu-
tamente continuos.

6.1. Modelos discretos


6.1.1. Distribución degenenerada.
Sea χ una variable aleatoria real, se observa una caracterı́stica numérica
que toma el mismo valor, c, en todos los resultados de un experimento, es decir,
P [χ = c] = 1.

0 x<c
Función de distribución: F (x) =
1 x≥c

Función generatriz de momentos: M (t) = etc , t ∈ R.

esperanza y Momentos: E[χ] = c, E[χr ] = cr .

Varianza: var(χ) = 0

6.1.2. Distribución o Modelo de Bernoulli


Definición 6.1.1 Experimento de Bernoulli: experimento en el que solo
son posibles dos resultados, etiquetados como éxito o fracaso. Los dos resultados
son excluyentes el uno del otro y son independientes.

Un modelo de Bernoulli es aquel en el que se realiza un único experi-


mento de Bernouli.
Sean ahora dos sucesos, uno de éxito E y otro de fracaso F , con P (E) = p
y P (F ) = 1 − p = q, podemos considerar una variable aleatoria tal que

1 obtenemos E
χ=
0 obtenemos F

45

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


46 CAPÍTULO 6. MODELOS DE VARIABLE ALEATORIA

Función de probabilidad: P [χ = 0] = 1 − p = q y P [χ = 1] = p

 0 x<0
Función de distribución: F (x) = q 0≥x<1
1 x≥1

Esperanza: E[χ] = p.
X
Dem. E[χ] = µ = xn P [χ = xn ] = 1P [χ = 1] = p
xn

Varianza: var(χ) = pq
Dem. X
var(χ) = σ 2 = (xn − µ)2 P [χ = xn ] = E[χ2 ] − µ2 = p − p2 = p(1 − p) = pq
xn

Función generatriz de momentos: M (t) = q + et p, t ∈ R.


Dem. M (t) = E[etχ ] = et0 P [χ = 0] + et1 P [χ = 1] = q + et p

Para abreviar escribiremos χ ∼ B(1; p) para indicar que χ es una variable


aleatoria con distribución de Bernoulli con esperanza p.

6.1.3. Distribución o Modelo Binomial


Supongamos ahora que realizamos repetidamente N veces un experimento
de Bernoulli, con P (E) = p y P (F ) = q en cada prueba. Esto nos genera el
siguiente espacio muestral:
N −k veces N veces
z }| { z }| {
Ω = {E . . E}, |E .{z
| .{z . . E} F, E . . E} F . . . F , F . . . F }
| .{z
N veces N −1 veces k veces

Sea χ la variable número de éxitos obtenidos en las N pruebas, es decir:


N veces
z }| {
χ(E
| .{z
. . E}) = N, χ( E . . E} F ) = N − 1, . . . , χ(F . . . F }) = 0
| .{z
N veces N −1 veces

Función de probabilidad: P [χ = k] = Nk pk q N −k , k = 1, . . . , N .


X
Función de distribución: F (x) = P [χ = k]
k≤x

Esperanza: E[χ] = N p
Dem.
N N   N
X X N k N −k X N!
E[χ] = µ = kP [χ = k] = k p q = k pk q N −k
k k!(N − k)!
k=0 k=0 k=0

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


6.1. MODELOS DISCRETOS 47

N −1
X (N − 1)!
= Np pk−1 q N −k
k=1
(k − 1)!(N − k)!

Haciendo el cambio k − 1 = y, con y ∈ {0, . . . , N − 1} nos queda:


N −1
X (N − 1)!
= Np py q N −1−y = N p(p + q)N −1 = N p
y=0
(y)!(N − 1 − y)!

Varianza: var(χ) = N pq
Dem. var(χ) = σ 2 = E[χ2 ] − µ2 = E[χ(χ − 1)] + E[χ] − µ2

N   N
X N k N −k X N!
• E[χ(χ − 1)] = k(k − 1) p q = pk q N −k
k (k − 2)!(N − k)!
k=0 k=0
N −2
X (N − 2)!
= N (N − 1)p2 pk−2 q N −k
(k − 2)!(N − k)!
k=2
Haciendo el cambio k − 2 = y, con y ∈ {0, . . . , N − 2} nos queda:
N −2
X (N − 2)!
E[χ(χ − 1)] = N (N − 1)p2 py q N −2−y
y!(N − 2 − y)!
y=0

= N (N − 1)p2 (p + q)N −2 = N (N − 1)p2

Luego nos queda


var(χ) = N (N − 1)p2 + N p − (N p)2 = N pq

Función generatriz de momentos: M (t) = (pet + q)N .


Dem.
N   N  
X N k N −k X N
M (t) = e tk
p q = (et p)k q N −k = (pet + q)N
k=0
k k=0
k

Denotaremos por B(N ; p) la distribución binomial de parámetros


N = número de pruebas de Bernoulli y p = P (E).
Si χ sigue una distribución B(N ; p), escribiremos χ ∼ B(N ; p).

6.1.4. Distribución o Modelo de Poisson


Vamos a verlo como un caso lı́mite de la distribución binomial.
La distribución de Poisson tiene una estructura binomial, pero el número
de veces que realizamos el experimento tiende a infinito, la probabilidad de
éxito tiende a cero y pN → λ. La distribución de Poisson es una variable
χ ∈ {1, 2, 3, . . . }.

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


48 CAPÍTULO 6. MODELOS DE VARIABLE ALEATORIA

λx
Función de probabilidad: P [χ = x] = e−λ .
x!
Veamos que la suma es 1
∞ ∞
X λx X λx
e−λ = e−λ = e−λ eλ = 1
x=0
x! x=0
x!

Esperanza: E[χ] = λ
Dem. ∞ ∞ ∞
X λx X λx−1 X λx
E[χ] = xe−λ = e−λ = e−λ λ = e−λ λeλ = λ
x! (x − 1)! (x − 1)!
x=0 x=0 x=0

Varianza: var(χ) = λ.
Dem. var(χ) = σ 2 = E[χ2 ] − µ2 = E[χ(χ − 1)] + E[χ] − µ2

X λx
• E[χ2 ] = x2 e−λ
x=0
x!
• E[χ(χ − 1)] = E[χ2 ] − E[χ] ⇒ E[χ2 ] = E[χ(χ − 1)] + E[χ]
∞ ∞
X λx X λx
E[χ(χ − 1)] = x(x − 1)e−λ = e−λ
x=0
x! x=0
(x − 2)!

X λx−2
= e−λ λ2 = e−λ λ2 eλ = λ2
x=0
(x − 2)!

Luego nos queda var(χ) = λ2 + λ − λ2 = λ.


t
Función generatriz de momentos: M (t) = eλ(e −1) .
Dem.
∞ ∞
X λx X (λet )x t t
M (t) = E[etx ] = etx e−λ = e−λ = e−λ eλe = e−λ(1−e )
x=0
x! x=0
x!

Para abreviar escribiremos χ ∼ P (λ) para indicar que χ es una variable


aleatoria con distribución de Poisson.

6.1.5. Distribución Geométrica


Está basado en los experimentos de Bernoulli. Esta estudia el número de
fracasos antes del primer éxito.
El espacio muestral que se genera es Ω = {E, F E, F F E, . . . , F F . . . F E, . . . }
con P (E) = p y P (F ) = 1 − p = q.
Función de probabilidad: P [χ = k] = q k p.
Veamos que la suma es 1
∞ ∞
X X 1
P [χ = k] = qk p = p =1
k=0 k=0
1 − q
6.1. MODELOS DISCRETOS 49

q
Esperanza: E[χ] =
p
Dem.
∞ ∞ ∞ ∞
!
X X X X
E[χ] = kP [χ = k] = kq k p = p kq k = pq kq k−1
k=0 k=0 k=0 k=0
∞ ∞
!
X ∂ k ∂ X ∂ 1 1 q
= pq (q ) = pq qk = pq = pq 2
=
∂q ∂q ∂q 1 − q (1 − q) p
k=0 k=0
q
Varianza: var(χ) =
p2
Dem. var(χ) = σ 2 = E[χ2 ] − µ2 = E[χ(χ − 1)] + E[χ] − µ2

X ∞
X ∞
X
k k 2
• E[χ(χ − 1)] = k(k − 1)q p = p k(k − 1)q = pq k(k − 1)q k−2
k=0 k=0 k=0
∞ ∞
!
∂2 k ∂2 ∂2
 
X X 1
= pq 2 2
(q ) = pq 2 2 qk = pq 2 2
∂ q ∂ q ∂ q 1−q
k=0 k=0
2 2q 2
= pq 2 =
(1 − q)3 p2
Luego nos queda:
2q 2 q q 2 q 2 + pq q 2 + (1 − q)q q
var(χ) = 2 + − 2 = = =
p p p p2 p2 p2
p
Función generatriz de momentos: M (t) =
1 − qet
Dem.
∞ ∞ ∞
X X X p
M (t) = E[etx ] = etx q k p = p etx q k = p (et q)k = (et q < 1)
1 − qet
k=0 k=0 k=0

Para abreviar escribiremos χ ∼ G(p) para indicar que χ es una variable alea-
toria con distribución geométrica.

Falta de memoria del modelo geométrico


Si estamos trabajando con una distribución geométrica, llega un momento
en el que no se tiene en cuenta lo ocurrido anteriormente.
Dem. Sea χ ∼ Ge(p)
P [(χ = s + t) ∩ (χ ≥ t)] P [χ = s + t]
P [χ = s + t|χ ≥ t] = =
P [χ ≥ t] P [χ ≥ t]
q s+t p q s+t p
= P∞ k = qt = q s p = P [χ = s]
k=t q p p 1−q

Nota: La distribución geométrica es la única distribución discreta que cum-
ple esta propiedad.

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


50 CAPÍTULO 6. MODELOS DE VARIABLE ALEATORIA

6.1.6. Distribución Hipergeométrica


Tenemos N elementos, de los cuales sabemos que K son de tipo A y N − K
son del tipo B. Elegimos exactamente un número n ≤ N aleatoriamente. Se
define la variable aleatoria χ como número de elementos del tipo A que hay
entre los n
N −K K
 
n−x
Función de probabilidad: P [χ = x] = N
x
n

K
Esperanza: E[χ] = n
N
KN −KN −n
Varianza: var(χ) = n
N N N −1
máx {0, n − (N − K)} ≤ x ≤ mı́n {n, K}

La forma de representar el experimento es H(N, K, n).


La diferencia entre la distribución hipergeométrica y el modelo binomial es
que la hipergeométrica es es finita.

6.1.7. Distribución Discreta Uniforme


La distribución uniforme discreta es una distribución de probabilidad que
asume un número finito de valores con la misma probabilidad.

χ : Ω −→ {x1 , x2 , x3 , . . . , xN } ⊂ R
1
Función de probabilidad: P [χ = xi ] = .
N
N
1X
Esperanza: E[χ] = xi .
N i=1

N
1X
Varianza: var(χ) = (xi − µ)2 .
N i=1

Ejemplos: Para un dado perfecto o una moneda perfecta, todos los resul-
1 1
tados tienen la misma probabilidad ( y respectivamente).
6 2

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


6.2. MODELOS ABSOLUTAMENTE CONTINUOS 51

6.2. Modelos Absolutamente Continuos


6.2.1. Distribución Uniforme Continua
Decimos que una variable aleatoria χ sigue una distribución uniforme en
un intervalo [a, b] de la recta real, si:
 1
b−a
si x ∈ [a, b]
Función de densidad: f (x) =
0 en otro caso
Veamos que la suma es 1
Z +∞ Z b b
b−a
Z
1
f (x)dx = f (x)dx = dx = =1
−∞ a a b−a b−a

Z x  0 si x < a
x−a
Función de distribución: F (x) = f (x)dx = b−a
si a ≤ x < b
−∞ 
1 si x ≥ b
a+b
Esperanza: E[χ] = .
2
+∞ b
b
x2
Z Z 
x x a+b
Dem. E[χ] = xf (x)dx = dx = =
−∞ a b−a b−a 2 a 2

bk+1 − ak+1
Momentos: E[χk ] =
(k + 1)(b − a)
(b − a)2
Varianza: var(χ) = .
12
b3 − a3 a+b (b − a)2
Dem. var(χ) = E[χ2 ] − E[χ] = − =
3(b − a) 2 12

etb − eta
Función generatriz de momentos: M (t) =
t(b − a)
Z +∞ Z b tx
e etb − eta
Dem. M (t) = E[etx ] = etx f (x)dx = =
−∞ a b−a t(b − a)
Para abreviar escribiremos χ ∼ U [a, b] para indicar que χ es una variable
aleatoria con distribución uniforme continua.

Caso Particular
Distribución uniforme en el intervalo [0, 1].
f (x) = 1

 0 si x < 0
Función de distribución: F (x) = x si 0 ≤ x < 1
1 si x ≥ 1

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca


52 CAPÍTULO 6. MODELOS DE VARIABLE ALEATORIA

1
Esperanza: E[χ] =
2
1
Varianza: var(χ) =
12
et − 1
Función generatriz de momentos: M (t) = .
t
Proposición 6.2.1 Sea χ una variable aleatoria absolutamente continua con
función de distribución F. Sea Y otra variable definida de la siguiente forma
Y = F (χ). Entonces la variable Y sigue una ley uniforme en el intervalo [0, 1].

Dem.
FY (y) = P [Y ≤ y] = P [F (χ) ≤ y] = P [χ ≤ F −1 (y)] = F (F −1 (y)) = y

6.2.2. Distribución exponencial negativa


Una variable aleatoria χ se dice que sigue una distribución exponencial de
parámetro λ > 0 si:
 −λx
λe si x ≥ 0
Función de densidad: f (x) =
0 si x < 0
Veamosque la suma es 1
Z +∞ Z +∞ Z +∞ +ı́nf
f (x)dx = f (x)dx = λe−λx dx = −e−λx 0 = 1
−∞ 0 0

1 − e−λx si x ≥ 0

Función de distribución: F (x) =
0 si x < 0
Z x Z x
x
Dem. F (x) = f (t)dt = λe−λt dt = −e−λt 0 = 1 − e−λx
−∞ 0
Z +∞
1
Esperanza: E[χ] = xλe−λx dx =
0 λ
Dem. Integral por partes.
Z +∞  2
2 −λx 1 1
Varianza: var(χ) = x λe dx − = 2
0 λ λ
Dem. La integral se resuelve por partes dos veces.
λ
Función generatriz de momentos: M (t) =
λ−t
Dem.
Z +∞
M (t) = E[etx ] = etx λe−λx dx
0
6.2. MODELOS ABSOLUTAMENTE CONTINUOS 53
Z +∞
λ +∞ λ
=λ e−(λ−t)x dx = e−(λ−t)x 0 =
0 λ−t λ−t
Notaremos esta distribución como Exp(λ).
Este modelo también tiene falta de memoria, y es el único modelo absolu-
tamente continuo que tiene esta propiedad.
Dem.
P [m ≤ χ ≤ m + x] P [χ ≤ x + m] − P [χ ≤ m]
P [χ ≤ m + x| χ ≥ m] = =
P [χ ≥ m] 1 − P [χ ≤ m]
(1 − e−λ(x+m) ) − (1 − e−λm )
=
1 − (1 − e−λm )
−λm
e − e−λ(x+m)
= = 1 − e−λx = P [χ ≤ x]
e−λm


6.2.3. Distribución Normal


Una variable aleatoria χ se dice que sigue una distribución normal (0, 1)
(χ ∼ N (0, 1)) si:
1 1 2
Función de densidad: f (z) = √ e− 2 z , z ∈ (−∞, +∞).

R +∞
Se verifica que −∞ f (z)dz = 1 y que f (z es par.
Z z
Función de distribución: F (z) = f (x)dx.
−∞

t2
Función generatriz de momentos: M (t) = e 2
Dem.
Z +∞ Z +∞
1 1 2 1 1 2
M (t) = E[e ] = tz
e √ e− 2 z = √
tz
etz e− 2 z
−∞ 2π 2π −∞
t2 Z +∞
e 2 1 2 t2
=√ e− 2 (z−t) dz = e 2
2π −∞

Esperanza: E[χ] = M 0 (0) = 0.


Varianza: var(χ) = M 00 (0) = 1.
Consideremos ahora una variable aleatoria χ = µ + σZ, (µ ∈ (−∞, +∞),
σ > 0, Z ∈ N (0, 1))
 
x−µ x−µ
F (x) = P [χ ≤ x] = P [µ + σZ ≤ x] = P [Z ≤ ] = Fz
σ σ
1 1 1 (x−µ)
2
f (x) = fz x−µ
σ
= √ e− 2 σ2
σ σ 2π

WINFIELD´S English Language Centre - ¿Necesitas mejorar tu inglés?


54 CAPÍTULO 6. MODELOS DE VARIABLE ALEATORIA

Esperanza: E[χ] = E[µ + σZ] = µ.

Varianza: var(χ) = var(µ + σZ) = var(σZ) = σ 2 .


1 2 2
Función generatriz de momentos: M (t) = etµ+ 2 t σ
.

Esta variable χ se dice que es una normal de esperanza µ y varianza σ 2 (χ ∈


N (µ, σ 2 ))

Definición 6.2.1 Si tenemos una distribución normal N (µ, σ 2 ), llamamos


tipificar la variable al proceso de convertirla en una normal estándar N (0, 1).

Si estás leyendo esto...te mereces una caña a 0,60€ en La Gitana Loca

Potrebbero piacerti anche