Sei sulla pagina 1di 10

Fórmulas de Probabilidad y Estadı́stica II (MAT302)*

Facultad de Ingenierı́a en Ciencias de la Computación y Telecomunicaciones


Universidad Autónoma Gabriel René Moreno

**
Leonardo H. Añez Vladimirovna

5 de mayo de 2019

1. Variables Aleatorias
1.1. Definiciones

1.1.1. Discretas 1.1.2. Continuas


Notación: P (A), P (X = x), f (x). Notación: F (x), P (X ≤ x).
1. p(x) ≥ 0; ∀x ∈ R
1. f (x) ≥ 0; ∀x ∈ R
X
2. p(xi ) = 1
xi ∈Recx
n
Z +∞

3.
X
p(xi ) = 1 2. f (x)dx = 1
−∞
i=1

X Z b
4. p(xi ) = 1 3. P (a ≤ x ≤ b) = f (x)dx = 1
i=1 a

1.2. Propiedades

1.2.1. Discreta 1.2.2. Continua


1. 0 ≤ F (x) ≤ 1, ∀x ∈ R 1. 0 ≤ F (x) ≤ 1, ∀x ∈ R
2. F (−∞) = 0
2. F (−∞) = 0
3. F (+∞) = 1
3. F (+∞) = 1
4. P (X ≤ a) = F (a)
5. P (X > a) = 1 − P (X ≤ a) = 1 − F (a) 4. P (X ≤ a) = P (X < a) = F (a)
(
F (a − 1); a ∈ Z 5. P (X > a) = 1 − P (X ≤ a) = 1 − F (a)
6. P (X < a) =
F ([[x]]); a ∈
/Z
6. P (X ≥ a) = 1 − P (X < a) = 1 − F (a)
7. P (X ≤ −a) = 1 − P (x ≤ a) = 1 − F (a)
7. P (X ≤ −a) = 1 − P (X ≤ a) = 1 − F (a)
8. P (a < x ≤ b) = F (b) − F (a)
8. P (a < X ≤ b) = P (a ≤ X ≤ b) = P (a < X < b) =
9. P (X ≤ x ≤) = F (b) − F (a) + P (X = a)
F (b) − F (a)
10. P (a < x < b) = F (b) − F (a) − P (X = b)
dF (x)
11. P (X = xi ) = F (xi ) − F (xi−1 ) 9. f (x) =
dx
* Esta es una recopilación de las formulas utilizadas en la materia, sin teorı́a.
** Para cualquier cambio, observación y/o sugerencia pueden enviarme un mensaje al siguiente correo: toborochi98@outlook.com

1
1.3. Esperanza
1.3.1. V.A.s Discretas 1.3.2. V.A.s Continua 1.3.3. Propiedades
F a y b constantes.
X Z +∞
E(x) = µ = µx = x · p(x) E(x) = xf (x)dx 1. E(a) = a
x −∞
2. E(x ± a) = E(x) ± a
X v.a. con función f : X v.a. con función f :
X Z +∞
3. E(ax) = aE(x)
E(g(x)) = µg(x) = g(x) · f (x) E(x) = g(x) · f (x)dx
x −∞
4. E(ax ± b) = aE(x) ± b

1.4. Varianza

1.4.1. V.A.s Discretas 1.4.2. V.A.s Continua 1.4.3. Propiedades


1. V (x) ≥ 0

2. V (a) = 0
2
V (x) = σ = E(x − µ) 2 V (x) = σ 2 = E(x − µ)2
X Z +∞ 3. V (ax) = aV (x)
= (x − µ)2 f (x) = (x − µ)2 f (x)dx
x −∞ 4. V (ax ± b) = a2 V (x) ± b

5. V (x) = E(x2 ) − [E(x)]2

1.5. Función de Probabilidad Conjunta


1.5.1. Función de Cuantı́a Conjunta (Discreta) 1.5.2. Función de Densidad Conjunta (Conti-
nua)
1. P (x, y) = P (X = x, Y = y) ≥ 0
1. f (x, y) ≥ 0
XX Z +∞ Z +∞
2. P (x, y) = 1 2. f (x, y)dxdy = 1
x y −∞ −∞
Z Z
3. P ((x, y) ∈ A) =
P P
P (x, y) 3. P ((x, y) ∈ A) = f (x, y)dxdy
A A

1.6. Distribuciones Marginales


1.6.1. Caso Discreto 1.6.2. Caso Continuo
Distribución Marginal de X: Distribución Marginal de X:
X Z +∞
g(x) = f (x, y) g(x) = f (x, y)dy
y −∞

Distribución Marginal de Y : Distribución Marginal de Y :


X Z +∞
h(y) = f (x, y) h(y) = f (x, y)dx
x −∞

2
1.7. Covarianza
1.7.1. Caso Discreto 1.7.2. Caso Continuo

Cov(x, y) = σxy = E((x − µx )(y − µy ))


XX Cov(x, y) = σxy = E((x − µx )(y − µy ))
= (x − µx )(y − µy )f (x, y) Z +∞ Z +∞
x y = (x − µx )(y − µy )f (x, y)dxdy
−∞ −∞

1.8. Resultados Importantes


1. E(x ± y) = E(x) ± E(y)
2. Cov(x, y) = E(x · y) − E(x) · E(y)

3. V (x ± y) = V (x) + V (y) ± 2Cov(x, y)


4. V (ax ± by) = a2 V (x) + b2 V (y) ± 2ab · Cov(x, y)
5. Si x y y son estadı́sticamente independientes:
a) E(x, y) = E(x) · E(y)
b) Cov(x, y) = 0
c) V (x ± y) = V (x) + V (y)
d ) V (ax ± by) = a2 V (x) + b2 V (y)
6. Si x1, x2, x3, . . . son variables aleatorias independientes 2 a 2:
m
! m
X X
V xi = V (xi )
i=1 i=1

2. Distribuciones
2.1. Distribuciones Discretas
2.1.1. Distribución de Bernoulli (Ber)

Función de Cuantı́a Función Acumulada 


( 0
 ;x < 0
px (1 − p)1−x ; x = 0, 1 F (x) = P (X = x) = q = 1 − p ;0 ≤ x < 1
f (x) = p(x) = 
0 ; otro caso 
1 ;x ≥ 1


E(x) = µ = p

X ∼ Ber(x; p) ⇒ V (x) = σ 2 = p · q
 √
D(x) = σ = p · q

2.1.2. Distribución Binomial (b)

Función de Cuantı́a Función Acumulada 


(  0
 ;x < 0
n
px · q n−x
 [[x]]  
x ; x = 0, 1, 2, . . . , n 
X
n k n−k
f (x) = p(x) = F (x) = P (X = x) = p q ;0 ≤ x < n
0 ; otro caso  k


 k=0
1 ;x ≥ 1

3

E(x) = µ = p

X ∼ b(x; n, p) ⇒ V (x) = σ 2 = npq
 √
D(x) = σ = npq

F Manejo de la Tabla:
 
p ≤ 0,50
1. ⇒ b(x; n, p) = B(x; n, p) − B(x − 1; n, p)
n ≤ 20


p > 0,50
 (i) b(x; n, p) = B(n − x; n, 1 − p) − B(n − x − 1; n, 1 − p)

2. ⇒ (ii) b(x; n, p) = b(n − x, n, 1 − p) luego (i)
n ≤ 20 
(iii) B(x; n, p) = 1 − B(n − x; n, 1 − p)

2.1.3. Distribución de Poisson (P oisson)

Función de Cuantı́a Función Acumulada 


0 ;x < 0
 −λ x 

e · λ [[x]]
F (x) = P (X = x) = X e−λ · λx
; x = 0, 1, 2, . . .
f (x) = p(x) = x!  ;x ≥ 0
x!
0 
; otro caso

x=0


E(x) = µ = λ = np

X ∼ P oisson(x; λ) ⇒ V (x) = σ 2 = λ = np
 √
D(x) = σ = np

2.2. Distribuciones Continuas


2.2.1. Distribución Uniforme o Regular (U )

Función de Cuantı́a Función Acumulada



 1

;a ≤ x ≤ b  0 ;x < a
f (x) = p(x) = b − a x

Z 1 x−a
0 ; otro caso F (x) = dx = ;a ≤ x < b

 −∞ b−a b−a

1 ;x ≥ b

 a+b
 E(x) = µ =
2








(b − a)2

X ∼ U (x; a, b) ⇒ V (x) = σ 2 =

 12



 √
D(x) = σ = (b − a) 3



6

2.2.2. Distribución Exponencial (exp)

Función de Cuantı́a Función Acumulada


( 
λ · e−λx ;x ≥ 0 0Z ;x < 0
f (x) = p(x) = F (x) = x
0 ; otro caso  λ·e −λx
dt = 1 − e −λx
;x ≥ 0
−∞

4
1

E(x) = µ =




 λ



1

X ∼ exp(x; λ) ⇒ V (x) = σ 2 = 2


 λ



D(x) = σ = 1



λ
F Propiedad Amnésica
P (X > s + t/x > s) = P (X > t)

2.2.3. Distribución Normal (N )

Función de Cuantı́a Función Acumulada


Z x
1 1 x−µ 2 1 1 t−µ 2
f (x) = N (x; µ, σ 2 ) = √ e− 2 ( σ ) ; x ∈ R F (x) = √ e− 2 ( σ ) dt
σ 2π −∞ σ 2π

Distribución Normal Estándar


Función de Cuantı́a
1 1 x−µ 2
f (z) = N (z; 0, 1) = N (0, 1) = √ · e− 2 ( σ ) dx z∈R

Función Acumulada
Z z
1 1
F (z) = P (Z ≤ z) = φ(z) = √ · e− 2 r dr
−∞ 2π

Transformación

x−µ
X ∼ N (x; µ, σ 2 ) ⇒ z = ∼ N (z; 0, 1) ó N (0, 1)
σ
F Manejo de la Tabla:
! ! !
x−µ a−µ a−µ a−µ
1. P (X < a) = P (X ≤ a) = P ≤ =P z≤ =φ
σ σ σ σ
!
a−µ
2. P (X > a) = 1 − P (X ≤ a) = 1 − φ
σ
! ! ! !
b−µ a−µ b−µ a−µ
3. P (a ≤ X ≤ b) = P (X ≤ b) − P (X ≤ a) = P z ≤ − z≤ =φ −φ
σ σ σ σ
!
a−µ
4. P (x ≤ −a) = 1 − P (X ≤ a) = 1 − φ
σ
! !
a−µ −a − µ
5. P (|X| < a) = P (|X| ≤ a) = P (−a ≤ X ≤ a) = φ −φ
σ σ
! !
a−µ −a − µ
6. P (|x| > a) = 1 − P (|x| ≤ a) = 1 − P (−a ≤ x ≤ a) = 1 − φ +φ
σ σ

5
Distribución Normal como aproximación Binomial

lı́m b(x; n, p) ≈ N (x; np, npq) ≈ N (x; µ, σ 2 )


n→∞
x2
X Z x2 + 21 Z z2
P (x1 ≤ X ≤ x2 ) = b(x; n, p) ' N (x; np, npq)dx = N (z; 0, 1)dz
x=x1 x1 − 12 z1

Donde:
(x1 − 12 ) − np
z1 = √
npq

(x2 + 12 ) − np
z2 = √
npq

2.2.4. Distribución Chi-Cuadrado (χ2 )


Función de Densidad
1

r 1
 r  · x 2 −1 · e− 2 x

 r
;x > 0
f (x) = 2 Γ 2
 2
0 ; otro caso


E(x) = µ = r

X ∼ χ2 (r) ⇒ V (x) = σ 2 = 2r
 √
D(x) = σ = 2r

2.2.5. Distribución Fisher-Snedecor (F )


Función de Densidad
   r1 
r1 2 r1 + r2 
 Γ r1
x 2 −1

 r2    2 

·

r1 r2 r +r ;x > 0
f (z) = Γ Γ
 r1  1 2 2
 2 2 1 + x



 r2
0 ; otro caso

Corolario
 r2
E(x) = µ = ∀r2 > 2
r2−2




X ∼ F (r1 , r2 ) ⇒

 2r2 (r1 + r2 − 2)
V (x) = σ 2 =


r2 (r2 − 2)2 (r2 − 4)
F Manejo de la Tabla:
P (X ≤ c) = 1 − α ó P (X ≤ F1−α (r1 , r2 )) = 1 − α

2.2.6. Distribución T-Student (t)



r+1 r+1
Γ −
t2

2 2
f (t) =  r  √ 1+ ,t ∈ R
Γ πr r
2

6
Propiedades

E(x) = 0 , ∀r > 1

 r
V (x) = , ∀r > 2

X ∼ t(r) ⇒ r−2
r
 r
, ∀r > 2

D(x) =

r−2
P (T ≤ c) = 1 − α (Tabla)

3. Muestreo
3.1. Distribuciones de Muestreo
Algunas distribuciones de Muestreo:
n
X n
X n
X
xi (xi − x)2 (xi − x)2
i=1 i=1 i=1
θb = =x θb = = S2 θb = = Sb2
n n n−1

3.2. Estadı́stico
3.2.1. Desigualdad de Chebyshev

1
P (|x − µ| < kσ) ≥ 1 − ; k ∈ R+
k2

3.3. Distribución de Muestreo de la diferencia o suma de las medias


(x̄ ± ȳ) − (µx ± µy ) (x̄ ± ȳ) − (µx ± µy )
I) z = s z=s
σx2 σy2 σx2 σy2 N2 − n2
   
N1 − n 1
+ +
n1 n2 n1 N1 − 1 n 2 N2 − 1

(x̄ ± ȳ) − (µx ± µy )


II) t = s
(n1 − 1)Ŝx2 + (n2 − 1)Ŝy2 1
 
1
+
n1 + n2 − 2 n1 n2

r = n1 + n2 − 2 g.l.
III) σx2 ' Sx2 ∧ σy2 ' Sy2

3.4. Distribución de la proporción muestral


p̂ − p (pˆ1 − pˆ2 ) − (p1 − p2 )
I) z = r II) z = r
p(1 − p) p1 (1 − p1 ) p2 (1 − p2 )
+
n n1 n2

p̂ − p (pˆ1 − pˆ2 ) − (p1 − p2 )


z=r   z=s
p(1 − p) N − n p1 (1 − p1 )

N1 − n 1
 
p2 (1 − p2 ) N2 − n2

n N −1 +
n1 N1 − 1 n2 N2 − 1
x
p̂ =
n
E(p̂) = µp̂ = p
p(1 − p)
V (p̂) = σp̂2 =
n

7
4. Estimación Estadı́stica
Parámetros Estadı́grafos
µ x̄
σ2 S 2 ó Ŝ 2
p, π p̂, π̂

4.1. Estimación Puntual


4.1.1. Propiedades
Estimador Insesgado: E(θ̂) = Θ
Estimador Eficiente:
θ̂1 es mas eficiente que θ̂2 ⇔ V (θ̂1 ) < V (θ̂2 )
Estimador Consistente: 
(i) lı́m E(θ̂) = 0
n→∞
(ii) lı́m V (θ̂) = 0
n→∞

Estimador Suficiente: θ̂ es un suficiente de Θ ssi: Aporta tanta información acerca de los parámetros que se
estiman a partir de una muestra de Θ.

4.2. Sesgo y Error Cuadrático Medio de un Estimador (ECM)


Sesgo ECM
  h i2
Sesgo(θ̂) = E(θ̂) − θ1 ECM (θ̂) = E (θ̂ − θ)2 = V (θ̂) + Sesgo(θ̂)

4.3. Estimación por Intervalo


4.3.1. Estimación por Intervalo de la Media Poblacional
 
σ σ
(i) P x̄ − z α · √ ≤ µ ≤ x̄ + z α · √  = 1 − α
1− n 1− n
2 2
 
S
b S
b
(ii) P x̄ − t α (r) · √ ≤ µ ≤ x̄ + t α (r) · √  = 1 − α
1− n 1− n
2 2
Donde:
r = n − 1 g.l.

4.3.2. Estimación por Intervalo de la diferencia o suma de Medias


 s s 
2 2 2 2
σx σy σx σy
(i) P (x̄ ± ȳ) − z α · + ≤ µx ± µy ≤ (x̄ ± ȳ) + z α · + =1−α
1− n1 n2 1− n1 n2
2 2
 

(ii) P (x̄ ± ȳ) − t α (r) · β ≤ µx ± µy ≤ (x̄ ± ȳ) + t α (r) · β  = 1 − α


1− 1−
2 2

Donde:
s
2 2 
(n1 − 1)Sˆx + (n2 − 1)Sˆy

1 1
β= · +
n1 + n2 − 2 n1 n2
r = n1 + n2 − 2 g.l.
1 Sesgo(θ)
b = 0, entonces θb es un estimador incesgado.

8
4.3.3. Estimación por Intervalo para Proporciones
 r r 
p̂(1 − p̂) p̂(1 − p̂)
(i) P p̂ − z α · ≤ p ≤ p̂ + z α · =1−α
1− n 1− n
2 2
 

(ii) P (pb1 ± pb2 ) − z α · β ≤ p1 ± p2 ≤ (pb1 ± pb2 ) + z α · β  = 1 − α


1− 1−
2 2
Donde:
r
pˆ1 (1 − pˆ1 ) pˆ2 (1 − pˆ2 )
β= +
n1 n2

4.4. Relación entre el error de Estimación (E) y el riesgo de estimación (α)

θ̂ − θ
E = |θ̂ − θ| z=
σθ̂
−z α ≤ z ≤ z α ⇔ E < z α · σθ̂
1− 1− 1−
2 2 2

4.5. Relación entre el error de estimación (E) y el tamaño de la muestra (n)


4.5.1. En la distribución de la media muestral

α ·σ 2
z 
1−
E = |x̄ − µ| ⇒ n ≥ 
 2 
E

4.5.2. En la distribución de la proporción muestral

z2 α · p · q z2 α N · z2 α · p · q
1− 1− 1−
n= 2 n= 2 n= 2
E2 4E 2 (N − 1)E 2 + z 2 α · p · q
1−
2
Población Infinita q = p = 0,5 Población Finita

5. Prueba de Hipótesis
H0 ≥ H0 ≤ H0 =
H1 < H1 > H1 6=
Cola Inferior Cola Superior Doble Cola

Valores Crı́ticos
α 0.10 0.05 0.01 0.005 0.002
Una Cola ±1,28 ±1,64 ±2,33 ±2,58 ±2,88
Dos Colas ±1,64 ±1,96 ±2,58 ±2,81 ±3,08

9
6. Misceláneo
6.1. Tabla: Coeficientes de Confianza o valores crı́ticos (1 − α2 )
1−α 0.9973 0.99 0.98 0.96 0.9545 0.95 0.90 0.68
100(1 − α) % 99.73 99 98 96 95.45 95 90 68
z1− α2 3.00 2.58 2.33 2.05 2.00 1.96 1.64 1.00

6.2. Interpolación

φ(z) z
a x a−c x−y
→ =
b λ b−c λ−y
c y

10

Potrebbero piacerti anche