Sei sulla pagina 1di 4

Universidad de las Fuerzas Armadas "Espe" Procesos Estocasticos

2. La aproximación de Poisson.
Decimos que la variable aleatoria X tiene distribución de Poisson con parámetro λ, (λ > 0) si

λn −λ
P (X = n) = e (n = 0, 1, 2, . . . ).
n!
Esta relación define efectivamente una función de probabilidad ya que, usando el desarrollo en serie de
Taylor de la función exponencial,
∞ ∞
X X λn
P (X = n) = e−λ = e−λ eλ = 1,
n=0 n=0
n!
on binomial cuando n crece y pn tiende a cero de manera tal que el producto
Consideremos la distribuci´
npn permanece fijo. Sea npn = µ > 0. La distribución binomial es
 
n k n(n − 1) · · · (n − k + 1) k
pk,n = p (1 − pn )n−k = pn (1 − pn )n−k
k n k!

multiplicando numerador y denominador por nk obtenemos

n(n − 1) · · · (n − k + 1)
pk,n = (npn )k (1 − pn )n−k
nk k!

1 − n1 1 − n2 . . . 1 − k−1
  
µk
= n
(1 − pn )n (2.1)
(1 − pn )k k!

Ahora bien, podemos escribir

(1 − pn )n = [(1 − pn )−1/pn ]−npn = [(1 − pn )−1/pn ]−µ

pero por la definición de e sabemos que

lim (1 + z)1/z = e.
z→0

Por lo tanto, si ponemos z = −pn obtenemos

lim (1 − pn )n = lim [(1 − pn )−1/pn ]−µ = e−µ .


p→0 p→0

Además
1
1 − n2 . . . 1 − k−1
  
1− n n
lim =1
n→∞ (1 − pn )k
ya que hemos supuesto que pn → 0 cuando n → ∞ y npn = µ permanece constante. Usando estos dos
resultados en (2.1) obtenemos
e−µ µk
lim pk,n = .
n→∞ k!
Hemos demostrado el siguiente resultado.

Teorema Aproximacion de Poisson Sea Xn ∼ b(n, pn )y supongamos que cuando n → ∞, permanece


p → 0 de modo que npn constante y es igual a µ. Entonces, cuando n →∞
n
µk
pk,n = P (Xn = k) → e−µ .
k!
Universidad de las Fuerzas Armadas "Espe" Procesos Estocasticos

3. Aproximación de los grandes números.


Lema 3.1 (Desigualdad de Markov) Sea X ≥ 0 una variable aleatoria y a un n´ umero positivo, en-
tonces
1
P (X ≥ a) ≤ E(X). (1)
a
Demostraci´
on. Si E(X) = +∞, no hay nada que probar. En caso contrario, llamando A al evento A =
{X ≥ a}, se tienen las desigualdades siguientes,

X(ω) ≥ X(ω)1A (ω) ≥ a1A (ω).

La primera desigualdad se debe simplemente a que X(ω) ≥ 0 y 1A (ω) es igual a 0 ó 1. En cuanto a la


segunda, si ω ∈
/ A entonces 1A (ω) = 0 y ambos miembros son iguales y si ω ∈ A, por un lado 1A (ω) = 1
y por otro, dada la definición del evento A, X(ω) ≥ a. Se deduce que

E(X) ≥ E(a1A ) = a E(1A ) = aP (A).

Dividiendo por a se obtiene (1). 

Lema 3.2 (Desigualdad de Chebychef ) Sea X una variable aleatoria con varianza finita y sea ε > 0.
Entonces 1
P (|X − E(X)| ≥ ε) ≤ 2 Var(X). (2)
ε
2 2
on. El evento {|X − E(X)| ≥ ε} es igual a {(X − E(X)) ≥ ε }. Apliquemos la desigualdad
Demostraci´
de Markov poniendo ε2 en lugar de a y (X − E(X))2 en lugar de X. Resulta
1 1
P (|X − E(X)| ≥ ε) = P ((X − E(X))2 ≥ ε2 ) ≤ E((X − E(X))2 ) = 2 Var(X)
ε2 ε
que es (2). 

Teorema 3.2 ( Ley D´


ebil de los Grandes Números) Sea {Xn }n≥1 una sucesi´
on de variables alea-
torias independientes,
E(Xn ) = µ, Var(Xn ) = σ 2 n = 1, 2, . . .
Entonces, cualquiera que sea ε > 0, se tiene
 
X1 + X2 + · · · + Xn
lim P − µ ≥ ε = 0. (3)
n→∞ n

Demostración. Pongamos Sn = X1 +X2 +· · ·+Xn y apliquemos la desigualdad de Chebychef a la variable


aleatoria Sn /n. Tenemos
S  n
n 1X 1
E = E(Xi ) = nµ = µ,
n n i=1 n
n n
S 
n 1 X  1 X nσ 2 σ2
Var = Var Xi = Var(Xi ) = = .
n n2 i=1
n2 i=1 n2 n

Aplicando (3) con ε > 0


1 σ2
 
Sn
p − µ ≥ ε ≤ 2 →0
n ε n
cuando n → ∞ (para ε > 0 fijo). Esto prueba la ley débil de los grandes números. 

En el caso de la distribuci´
on binomial, en el cual consideramos la variable aleatoria Sn que repre-
senta el número de veces que ocurre un suceso A con probabilidad p = P (A) en n observaciones
independientes del mismo, hemos considerado oportunamente la estimación del parámetro p – en
general desconocido – mediante la frecuencia relativa
Sn
p̂n =
n

Potrebbero piacerti anche