Sei sulla pagina 1di 29

ESTADÍSTICA PARA LA GESTIÓN

Módulo 3 Probabilidad e inferencia

ESTADÍSTICA PARA LA GESTIÓN


Índice
Introducción ........................................................................................................................................ 3
Unidad 1: Probabilidades .................................................................................................................... 4
1.1 Definiciones y conceptos de Probabilidad. ............................................................................... 4
1.1.1 ¿Cómo se define una probabilidad? .................................................................................. 4
1.1.2 Conceptos claves de probabilidad...................................................................................... 5
1.2 Probabilidad Clásica, Probabilidad condicional......................................................................... 7
1.2.1 Probabilidad clásica ............................................................................................................ 7
1.2.2 Probabilidad relativa .......................................................................................................... 8
1.2.3 Probabilidad Condicional, bajo supuesto de independencia y supuesto de dependencia 8
1.2.3.1 Probabilidad Condicional bajo independencia de eventos ............................................. 8
1.2.3.2 Probabilidad Condicional bajo dependencia de eventos ................................................ 8
1.3 Teorema de Bayes, Teorema de la Probabilidad Total. .......................................................... 10
1.3.1 Teorema de Bayes ............................................................................................................ 10
1.3.2 Teorema de la Probabilidad Total .................................................................................... 12
1.4 Variables aleatorias Discreta, Modelos de Distribución Binomial y Poisson. ......................... 13
1.4.1 Distribución Binomial ....................................................................................................... 13
1.4.2 Distribución Poisson ......................................................................................................... 14
1.5 Variables aleatorias Continua. Modelos de Distribución Uniforme, Normal y Normal
Estándar. ....................................................................................................................................... 15
1.5.1 Distribución Uniforme ...................................................................................................... 16
1.5.2 Distribución Normal ......................................................................................................... 17
1.5.3 Distribución Normal Estándar .......................................................................................... 18
Unidad 2 Muestreo e Inferencia. ...................................................................................................... 19
2.1 Tipos de Muestreo. ................................................................................................................. 19
2.2 Definiciones, conceptos y fundamentos de Inferencia. .......................................................... 19
2.3 Distribución muestral de: media y de proporción. ................................................................. 21
2.3.1. Distribución muestral de media ...................................................................................... 21
2.3.2 Distribución muestral de proporción (𝒑) ......................................................................... 21
2.4 Intervalos de confianza para la media y proporción poblacional. .......................................... 22
2.4.1 Intervalos de confianza para la media ............................................................................. 22
2.4.2 Intervalos de confianza para la proporción poblacional .................................................. 23
2.5 Tamaño de muestra para la media y la proporción. ............................................................... 25
2.51 Tamaño de muestra para la media ................................................................................... 25
2.5.2 Tamaño de muestra para la proporción........................................................................... 25
Bibliografía ........................................................................................................................................ 26

ESTADÍSTICA PARA LA GESTIÓN


Introducción

El apunte correspondiente al módulo 3 de la asignatura de Estadística para la gestión, se divide en


dos apartados, la primera unidad aborda Las definiciones y conceptos de probabilidad, la
probabilidad clásica y condicional, los teoremas de Bayes y Probabilidad Total, los modelos de
distribución de variable discreta Binomial y Poisson y cerrando la primera unidad los modelos de
distribución de variable continua Uniforme, Normal y Normal Estándar. La segunda unidad de éste
apunte se enfoca en tipos de muestreo, conceptos básicos de inferencia, distribución muestral,
intervalos de confianza y tamaño de muestra.

Palabras claves: Probabilidad, Teorema de Bayes, distribución Binomial, distribución Poisson,


distribución Uniforme, distribución Normal, distribución Normal Estándar, Intervalos de confianza,
muestreo y distribución muestral.

ESTADÍSTICA PARA LA GESTIÓN


Unidad 1: Probabilidades
1.1 Definiciones y conceptos de Probabilidad.
1.1.1 ¿Cómo se define una probabilidad?
La probabilidad la podemos entender como aquella medida numérica de la posibilidad de
ocurrencia de un determinado evento. Claramente las probabilidades son las medidas del grado
de incertidumbre vinculado con uno o más eventos involucrados en un enunciado. Si un
estadístico cuenta con las probabilidades, puede determinar el grado de ocurrencia o probabilidad
de que ocurra cada uno de los eventos que esté estudiando. La teoría de la probabilidad tiene
utilidad en diversas áreas sobre todo aquellas en las que el azar y la incertidumbre predominan,
modelando matemáticamente eventos aleatorios.

Los valores para determinar una probabilidad, siempre van a estar contenidos en una escala entre
0 y 1 ambos inclusive. Un valor cercano a cero indica una probabilidad baja de ocurrencia de un
evento, un valor cercano a 1 indican una probabilidad casi segura de ocurrencia del evento, otros
valores alejados de los extremos 0 y 1 indican distintos grados de ocurrencia. En estadística
hablamos de probabilidad y no de predicción de evento ya que todo evento tiene un grado de
error y no es posible una predicción exacta sobre la ocurrencia dado que existe un grado de azar e
incertidumbre vinculado a dicho evento.

Se utiliza la expresión P(A) para denotar la probabilidad de que ocurra el evento A. P(A) viene a
constituir la proporción de veces en que ocurre el evento A, a lo largo del tiempo, en el caso de
que el experimento se realizara una y otra vez. En probabilidad existen axiomas o reglas que
detallamos a continuación:

i). Sea Ω un espacio muestral. Entonces se cumple que: 𝑃(Ω) = 1

ii). Para cualquier evento A, se cumple que: 0 ≤ 𝑃(𝐴) ≤ 1.

iii). A y B eventos mutuamente excluyentes o disjuntos, se cumple que: 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵).
De lo anterior se puede generalizar que, si 𝐴1 , 𝐴2 , … son eventos mutuamente excluyentes, se
cumple que:

𝑃(𝐴1 ∪ 𝐴2 ∪ … ) = 𝑃(𝐴1 ) + 𝑃(𝐴2 ) + ⋯


iv) Para cualquier evento 𝐴, 𝑠𝑒 𝑐𝑢𝑚𝑝𝑙𝑒 𝑞𝑢𝑒: 𝑃(𝐴𝑐 ) = 1 − 𝑃(𝐴). Lo anterior se conoce como
probabilidad del suceso contrario, es decir la probabilidad que no ocurra el evento A.

v) Si ∅ denota el espacio vacío, entonces se cumple que: 𝑃(∅) = 0

vi) Si A es un evento y 𝐴 = {𝐸1 , 𝐸2 , … . , 𝐸𝑛 }, entonces se cumple que:

𝑃(𝐴) = 𝑃(𝐸1 ) + 𝑃(𝐸2 ) + 𝑃(𝐸3 ) … . +𝑃(𝐸𝑛 )

vii) Regla formal de la suma: Sean A y B cualesquiera eventos (no excluyentes), se cumple que:

𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)

Viii) A y B son eventos independientes: Cuando la ocurrencia de uno (A) no afecta la probabilidad
de la ocurrencia del otro (B). Algunos sucesos son independientes si la ocurrencia de cualquiera no

ESTADÍSTICA PARA LA GESTIÓN


afecta las probabilidades de la ocurrencia de los otros eventos. Si A y B no son independientes, se
dice que son dependientes.

ix) Regla formal de la multiplicación, cuando se calcula la probabilidad de que ocurra un evento y a
continuación un segundo evento dado que el primero ya ocurrió, se cumple que:

𝑃(𝐴 𝑦 𝐵) = 𝑃(𝐴) ∗ 𝑃(𝐵|𝐴)

1.1.2 Conceptos claves de probabilidad.


A continuación, se exponen de forma breve algunos conceptos claves muy útiles para comprender
y desarrollar la teoría probabilística:

Experimento: Término que se utiliza en estadística para describir a cualquier proceso que genera
un conjunto de datos cuantitativos (y a veces cualitativos). Dado que, en la mayoría de los casos,
los resultados de los experimentos dependen de un grado de azar, no es posible pronosticar de
manera exacta el resultado.

Experimento aleatorio: Es todo proceso en el cual la ejecución de un acto (prueba o test) realizada
una o más veces, arroja un resultado que en cada prueba depende del azar y en consecuencia no
se puede predecir con certeza.

El espacio muestral: Se define en estadística como un procedimiento el cual está compuesto de


todos los sucesos simples posibles. Esto quiere decir, que el espacio muestral es formado por
todos los resultados que ya no son posibles de desglosar. En otras palabras, el espacio muestral de
un determinado experimento es el conjunto que agrupa todos los resultados experimentales. Se
denota con la letra omega Ω, en algunos libros estadísticos utilizan la letra S.

Espacio muestral discreto finito: consisten de un número finito de elementos.

Espacio muestral discreto infinito: consisten de un número infinito numerable de elementos.

Espacio muestral continuo: consisten de un número infinito no numerable de elementos.

Muestreo aleatorio: cuando una población a partir de la cual se muestrea un elemento en forma
aleatoria, constituye un espacio muestral con resultados igualmente probables.

Evento (suceso): Se define en estadística como cualquier tipo de conjunto que contiene los
resultados o consecuencias de un experimento (acto o procedimiento). Corresponde a cualquier
subconjunto del espacio muestral.

Evento unitario o elemental (suceso simple): Se define en estadística como un resultado, evento
o un suceso que ya no puede desglosarse en componentes más simples y que contienen un sólo
punto muestral.

Eventos compuestos (sucesos compuestos): Son aquellos que consisten de dos o más eventos.

Evento imposible (suceso imposible): Se denota con el símbolo de conjunto vacío ∅, que no tiene
puntos muéstrales, en consecuencia no ocurre nunca.

ESTADÍSTICA PARA LA GESTIÓN


Evento seguro (suceso cierto): Se denota con la letra griega omega Ω, que hace referencia al
espacio muestral (conjunto universo), el evento seguro es en sí el espacio muestral, ya que es el
subconjunto que contiene a todos los eventos (resultados posibles).

Punto muestral: Es el elemento mínimo de un espacio muestral, corresponde a una observación


del experimento o un resultado, él que se denota con la letra griega omega minúscula 𝜔.

Un evento A ocurre: si contiene por lo menos un punto muestral de algún experimento aleatorio.
Es decir, un evento A ocurre si y sólo si existe 𝜔 ∈ 𝐴.

Un evento A no ocurre: si y sólo si 𝜔 ∉ 𝐴.

El evento A es un subevento o está contenido en el evento B: simbolizado, 𝐴 ⊂ 𝐵, si toda vez que


ocurre A ocurre también B

Los eventos A y B son iguales A = B: si y sólo si 𝐴 ⊂ 𝐵 y 𝐵 ⊂ 𝐴.

Complemento del evento A: hace referencia al evento que se denota por 𝐴𝑐 𝑜 𝐴′ 𝑜 𝐴̅, que consiste
de todos los puntos muéstrales que no están en el evento A, es decir se cumple que:

𝐴𝑐 = {𝜔 ∈ Ω ∕ 𝜔 ∉ 𝐴 } (𝐹. 01)
El evento 𝐴𝑐 describe el evento de que no ocurra A.

Existen también operaciones entre eventos que se hacen necesarias de mencionar:

a) Unión de los eventos A y B, al evento A v j B que consiste de todos los puntos muéstrales que
pertenecen a A o a B, o a ambos, es decir se cumple que:

𝐴 ∪ 𝐵 = {𝜔 ∈ Ω/𝜔 ∈ 𝐴 ∨ 𝜔 ∈ 𝐵} (F.02)

El evento 𝐴 ∪ 𝐵 describe el evento de que ocurra por lo menos uno de ellos 𝐴 𝑜 𝐵

b) Intersección de los eventos A y B: se refiere al evento 𝐴 ∩ 𝐵, que consiste de todos los puntos
muéstrales que son comunes a 𝐴 y a 𝐵, es decir se cumple que:

𝐴 ∩ 𝐵 = {𝜔 ∈ Ω/𝜔 ∈ 𝐴 ∧ 𝜔 ∈ 𝐵} (F.03)

El evento 𝐴 ∩ 𝐵 describe el evento que ocurran ambos 𝐴 𝑦 𝐵

c) A y B mutuamente excluyentes o disjuntos: si no tienen elementos en común, se cumple que:

𝐴∩𝐵 = ∅
d) Diferencia del evento A menos B: es el evento A — B, que consiste de todos los puntos
muéstrales que pertenecen al evento A y no pertenecen al evento B, esto es:

𝐴 − 𝐵 = {𝜔 ∈ Ω/𝜔 ∈ 𝐴 ∧ 𝜔 ∉ 𝐵} (F.04)

El evento 𝐴 − 𝐵 = 𝐴 ∩ 𝐵𝑐 . describe el evento de que ocurra A y no ocurra B.

e) Producto cartesiano de los eventos A y B: es el evento 𝐴𝑥𝐵 que consiste de todos los pares
ordenados de puntos muéstrales (𝜔1 , 𝜔2 ), siendo 𝜔1 ∈ 𝐴 y 𝜔2 ∈ 𝐵, es decir se cumple que:

ESTADÍSTICA PARA LA GESTIÓN


𝐴𝑥𝐵 = {(𝜔1 , 𝜔2 ) ∕ 𝜔1 ∈ 𝐴 ∧ 𝜔2 ∈ 𝐵} (F. 05)

Finalmente se exponen los diagramas de Ven que resumen las operaciones, Ver figura 1

Figura 1. Operaciones con eventos

Fuente: Elaboración propia basado en Córdova (2003).

Se recomienda al estudiante que acuda a la bibliográfica recomendada para el curso y repase los
contenidos referentes a teoría de conjuntos, los cuales serán de mucha utilidad en probabilidad.

1.2 Probabilidad Clásica, Probabilidad condicional.


Existen tres formas básicas para clasificar la probabilidad de un evento: La forma clásica o
planteamiento clásico, el planteamiento de frecuencia relativa, y la subjetiva.

1.2.1 Probabilidad clásica


El planteamiento clásico nos indica que, cuando todos los resultados de un experimento son
igualmente posibles, se cumple que:
𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 𝑒𝑛 𝑞𝑢𝑒 𝑠𝑒 𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑎 𝑒𝑙 𝑒𝑣𝑒𝑛𝑡𝑜
𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑒𝑣𝑒𝑛𝑡𝑜 = (𝐹. 06𝑎)
𝑛ú𝑚𝑒𝑟𝑜 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠
En otros libros la probabilidad clásica se presenta como la regla de Laplace:
𝑛ú𝑚𝑒𝑟𝑜 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 (𝐴)
𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑢𝑛 𝑒𝑣𝑒𝑛𝑡𝑜 𝐴 = (𝐹. 06𝑏)
𝑛ú𝑚𝑒𝑟𝑜 𝑡𝑜𝑡𝑎𝑙 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠 (Ω)
Ejemplo 1. Un ejemplo trivial es el lanzamiento de un dado de seis caras, el que debe cumplir que
no esté cargado, es decir todos los números tienen la misma posibilidad de salir. Entonces se tiene
que la posibilidad de que salga el número 2 al lanzar una vez el dado es la siguiente:
1 (𝑝𝑜𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑞𝑢𝑒 𝑠𝑎𝑙𝑔𝑎 2) 1
𝑃(𝑠𝑎𝑐𝑎𝑟 2) = = = 0,166
6 (𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 𝑑𝑒 𝑢𝑛 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜 𝑑𝑎𝑑𝑜 𝑠𝑒𝑖𝑠 𝑐𝑎𝑟𝑎𝑠) 6

Éste tipo de cálculo de probabilidad es muy útil en situaciones ideales, como lanzar un dado sacar
una carta de un mazo o lanzar una moneda, en el mundo real las posibilidades no siempre suelen
ser igualitarias para todos los resultados probables.

ESTADÍSTICA PARA LA GESTIÓN


1.2.2 Probabilidad relativa
También conocida como frecuencia relativa de presentación de un evento, define como
probabilidad: a) La frecuencia relativa observada de un evento durante un gran número de
intentos, o también: b) La fracción de veces que un evento se presenta a lo largo del tiempo,
cuando las condiciones son estables.

Este método utiliza la frecuencia relativa de las presentaciones pasadas de un evento como
probabilidad. Determinamos qué tan frecuentemente ha sucedido algo en el pasado y usamos esa
cifra para predecir la probabilidad de que suceda de nuevo en el futuro.

Ejemplo 2: Las compañías de seguro pueden fijar sus primas según datos en cuanto a los índices de
mortalidad de acuerdo a las edades de sus clientes. Si se tiene el dato supongamos: de 200.000
hombres de 40 años 80 mueren al año, la compañía fija la posibilidad de muerte de un cliente de
40 años edad como:
80
𝑃(𝑐𝑙𝑖𝑒𝑛𝑡𝑒 40 𝑎ñ𝑜𝑠 𝑑𝑒 𝑒𝑑𝑎𝑑 𝑚𝑢𝑒𝑟𝑎) = = 0.0004
200000
La probabilidad subjetiva no será abordada en éste módulo si el estudiante se interesa puede
recurrir a Levin y Rubin (2004).

1.2.3 Probabilidad Condicional, bajo supuesto de independencia y supuesto de dependencia


Cuando se presentan dos eventos (resultados), existe la posibilidad de que el resultado del
primero puede, o no, tener un efecto en el resultado del segundo evento. Lo anterior significa que,
los eventos pueden estar o no estar relacionados entre sí, es decir son dependientes o
independientes. Las otras dos formas de calcular probabilidad dado independencia o dependencia
de eventos son: La Probabilidad Marginal y La Probabilidad Conjunta.

1.2.3.1 Probabilidad Condicional bajo independencia de eventos


Consideraremos al estudiar la probabilidad condicional el supuesto de que los eventos son
estadísticamente independientes, es decir, aquellos en donde la presentación de uno no tiene
efecto sobre la probabilidad de presentación de cualquier otro. Simbólicamente es posible escribir
la Probabilidad Condicional como: 𝑃(𝐵|𝐴), lo anterior se lee como la probabilidad que ocurra el
evento B dado que se ha presentado el evento A. Cuando el evento es estadísticamente
independiente, la probabilidad condicional de que suceda el evento B dado que ya ocurrió el
evento A es la probabilidad del evento B, se cumple que:

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑐𝑜𝑛𝑑𝑖𝑐𝑖𝑜𝑛𝑎𝑙 𝑏𝑎𝑗𝑜 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑒𝑛𝑐𝑖𝑎: 𝑃(𝐵|𝐴) = 𝑃(𝐵) (𝐹. 07)

1.2.3.2 Probabilidad Condicional bajo dependencia de eventos


La dependencia estadística se refiere a que la probabilidad de que ocurra algún evento (B)
depende o se ve afectada por la presentación de algún otro (A). Para el caso de dependencia la
fórmula difiere de la anterior, siendo la siguiente:
𝑃(𝐵𝐴)
𝑃(𝐵|𝐴) =
𝑃(𝐴)
Ejemplo 3. Ilustraremos una situación que de forma simple explique cómo funciona la probabilidad
condicional en caso de dependencia de eventos, en una caja hay 10 bolitas, con las siguientes

ESTADÍSTICA PARA LA GESTIÓN


características: Tres son de color y tienen estrellas. Una es de color y tiene franjas. Dos son grises y
con estrellas. Cuatro son grises y tienen franja. La probabilidad de sacar cualquiera de las bolitas es
de 0.1.

Considere la siguiente anotación para los eventos K= la bolita es de color, G= la bolita es gris, T= la
bolita tiene estrellas y F= la bolita tiene franja. Pregunta: suponga que una persona saca una bolita
de color, ¿Cuál es la posibilidad que tenga estrellas?

Paso 1: Ya sabemos que salió color entonces nos enfocamos en las bolitas de color, sabemos que 3
bolitas tienen estrellas y 1 franjas entonces se cumple que.

K={𝑇, 𝑇, 𝑇, 𝐹}

Paso 2: Calculamos la posibilidad de elegir una bolita con estrellas del total de bolitas de color y la
probabilidad de sacar una bola con franja:
𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 3
𝑃(𝑇|𝐾) = = = 0.75
𝑐𝑎𝑠𝑜𝑠 𝑡𝑜𝑡𝑎𝑏𝑙𝑒𝑠 4
𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 1
𝑃(𝐹|𝐾) = = = 0.25
𝑐𝑎𝑠𝑜𝑠 𝑡𝑜𝑡𝑎𝑏𝑙𝑒𝑠 4
𝑆𝑢𝑚𝑎𝑛𝑑𝑜 𝑎𝑚𝑏𝑎𝑠 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑𝑒𝑠 = 0.75 + 0.25 = 1 𝑒𝑠𝑡𝑎 𝑏𝑖𝑒𝑛 𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑎
Es posible entonces señalar sabiendo que ya salió una bolita de color, la probabilidad de que ésta
tenga estrellas es de 0.75, es decir un 75%.

Habrán notado que no se ha utilizado la fórmula para el cálculo, pues bien, ahora la utilizaremos:

Paso 1: en el numerador colocamos la probabilidad de que la bolita sea de color y con estrellas
dentro del total de bolitas (10):
3
= 0.3
10
Paso 2: en el denominador colocamos la probabilidad de que sea una bola de color, dentro del
total de bolitas (10):
4
= 0.4
10
Paso 3: Reemplazamos en la fórmula y calculamos:
3
𝑃(𝑇𝐾) 10 0.3
𝑃(𝑇|𝐾) = = = 0.75
𝑃(𝐾) 4 0.4
10
Se deja a modo de resumen una tabla con las fórmulas para la probabilidad marginal y conjunta,
las que el estudiante podrá revisar en profundidad acudiendo a la bibliografía recomendada.
Figura 2

ESTADÍSTICA PARA LA GESTIÓN


Figura 2. Resumen de fórmulas para probabilidad, bajo dependencia

Fuente: Levin et al. (2004)

1.3 Teorema de Bayes, Teorema de la Probabilidad Total.


1.3.1 Teorema de Bayes
El teorema de Bayes es muy útil para poder estimar probabilidades anteriores dado un cambio en
las condiciones. Suponga la siguiente situación, El administrador de la empresa Phone77, descubre
que las carcasas amarillas y naranjas que inicialmente pensó se venderían fácilmente éste año,
siguen apiladas en los mostradores, se ve obligado a reformular las probabilidades de venta de
dichas carcasas y solicitar un envío de nuevas carcasas de diferente color. O por otro lado
simplemente rebajar el precio de las carcasas amarillas y naranjas. La situación anterior ilustra un
cambio en las probabilidades iniciales de ventas, dada una nueva información, este cambio en las
probabilidades se conocen en la teoría de probabilidades como probabilidades revisadas o
posteriores, éstas probabilidades son muy útiles en la toma de decisiones.

Al respecto Levin et al. (2004), nos introduce en el origen del Teorema de Bayes: “El origen del
concepto de la obtención de probabilidades posteriores con información limitada se atribuye al
reverendo Thomas Bayes (1702-1761) … El teorema de Bayes ofrece un potente método
estadístico para evaluar nueva información y revisar nuestras anteriores estimaciones (basadas
sólo en información limitada) de la probabilidad de que las cosas se encuentren en un estado o en
otro” (p. 158)

La fórmula del teorema de Bayes es similar a la utilizada en la probabilidad condicional dada una
dependencia de eventos:

𝑃(𝐵𝐴)
𝑃(𝐵|𝐴) =
𝑃(𝐴)
Vamos a realizar un ejemplo para explicar cómo se realiza el cálculo de probabilidades posteriores
usando Bayes: Suponga que en una caja tenemos 10 dados cargados, en una mitad sale 1 el 40%

ESTADÍSTICA PARA LA GESTIÓN


de las veces, es decir 𝑃(1) = 0.4. En la segunda mitad sale 1 el 70% de las veces, es decir
𝑃(1) = 0.7, llamaremos a la primera mitad de dados la llamaremos tipo A y la Segunda tipo B. Se
saca un dado del recipiente y se le lanza una vez, el resultado es 1. ¿Cuál es la probabilidad de que
el dado sea del tipo A?

El estudiante puede pensar de forma errónea que la probabilidad es 0.5, el evento que salga un 1,
nos entrega una información adicional, para responder correctamente se debe realizar una tabla,
tal como lo ilustra la Tabla 1.

Tabla 1. Probabilidades marginales de sacar un uno

Evento Probabilidad del P(1|evento P(1, evento


elemental evento elemental elemental) elemental) *
Tipo A 0.5 0.4 0.4x0.5 = 0.20
Tipo B 0.5 0.7 0.7x0.5 = 0.35
1 P(1) = 0.55
(*) Se utiliza la coma para separar los eventos conjuntos. Podemos poner juntas letras individuales para indicar, sin que haya
confusión, eventos conjuntos (por ejemplo, AB), pero al poner juntas palabras completas produciríamos eventos de apariencia extraña
Fuente: Elaboración propia basado en Levin et al. (2004)

Aplicando la formula se tiene que:


𝑃(𝑇𝑖𝑝𝑜 𝐴, 1) 0.20
𝑃(𝑇𝑖𝑝𝑜 𝐴|1) = = = 0.364
𝑃(1) 0.55
𝑃(𝑇𝑖𝑝𝑜 𝐴, 1) 0.35
𝑃(𝑇𝑖𝑝𝑜 𝐵|1) = = = 0.636
𝑃(1) 0.55
Si se saca un dado, se lanza y sale un uno, la probabilidad que sea del tipo A es 36,4 %, que sea del
tipo B es de 63,6%.

Si se considera pobre la información de lanzar una vez un dado se puede lanzar una segunda vez
suponiendo que ese segundo lanzamiento también sale un 1, entonces se agrega una nueva
columna, ver Tabla 2

Tabla 2. Probabilidades marginales de sacar dos unos

Evento Probabilidad del P(1|evento P(dos 1's|evento P(dos 1's, evento


elemental evento elemental elemental) elemental) elemental)
Tipo A 0.5 0.4 0.16 0.16x0.5 = 0.080
Tipo B 0.5 0.7 0.49 0.49x0.5 = 0.245
1 P(1) = 0.325
Fuente: Elaboración propia basado en Levin et al. (2004)
𝑃(𝑇𝑖𝑝𝑜 𝐴, 𝑑𝑜𝑠 1′𝑠) 0.080
𝑃(𝑇𝑖𝑝𝑜 𝐴|1) = = = 0.246
𝑃(1) 0.325
𝑃(𝑇𝑖𝑝𝑜 𝐴, 𝑑𝑜𝑠 1′𝑠) 0.245
𝑃(𝑇𝑖𝑝𝑜 𝐵|1) = = = 0.754
𝑃(𝑑𝑜𝑠 1′𝑠) 0.325

ESTADÍSTICA PARA LA GESTIÓN


Si se saca un dado, se lanza dos veces y sale un uno, la probabilidad que sea del tipo A es 24,6 %,
que sea del tipo B es de 75,4%. Como se puede apreciar la información adicional (lanzar el dado),
va modificando las probabilidades iniciales que eran de 50 y 50 para ambos dados.

1.3.2 Teorema de la Probabilidad Total


Si observamos un espacio muestral Ω., como la unión de subconjuntos que a la vez son
mutuamente excluyentes, se facilita la resolución de problemas de probabilidad sobre todo si
utilizamos la Ley de probabilidad Total, basados en la siguiente construcción:

Para algún entero positivo “K”, sean los conjuntos 𝐵1 , 𝐵2 , … . . 𝐵𝑘 , tales que se cumpla:

i) Ω = 𝐵1 ∪ 𝐵2 ∪ … . .∪ 𝐵𝑘

ii) 𝐵𝑖 ∩ 𝐵𝑗 = ∅, 𝑝𝑎𝑟𝑎 𝑖 ≠ 𝑗.

Se concluye que la colección de conjuntos {𝐵1 , 𝐵2 , … … 𝐵𝑘 } 𝑒𝑠 𝑢𝑛𝑎 𝑝𝑎𝑟𝑡𝑖𝑐𝑖ó𝑛 𝑑𝑒 Ω

Supongamos que A es un subconjunto de Ω y {𝐵1 , 𝐵2 , … … 𝐵𝑘 } es una partición de Ω, se puede


concluir que A se descompone de la siguiente manera:

𝐴 = (𝐴 ∩ 𝐵1 ) ∪ (𝐴 ∩ 𝐵2 ) ∪ … .∪ (𝐴 ∩ 𝐵𝑘 )
La Figura 2 denota la situación anterior para una caso en el que K=3, es decir existen tres
partiociones para Ω.

Figura 3. Partición de 𝜴 en tres y el subconjunto A

Fuente: Elaboración propia

Dado lo anterior y para calcular la probabilidad de A, utilizamos el Teorema de probabilidad total:

Suponga que {𝐵1 , 𝐵2 , … 𝐵𝑘 } es una partición de Ω, tal que 𝑃(𝐵𝑖 ) > 0, para i=1,2,….k. entonces,
para todo evento A, se cumple que:
𝑘

𝑃(𝐴) = ∑ 𝑃(𝐴|𝐵𝑖 )𝑃(𝐵𝑖 )


𝑖=1

ESTADÍSTICA PARA LA GESTIÓN


Todo subconjunto A de Ω puede escribirse como:

𝐴 = 𝐴 ∩ Ω = A ∩ (𝐵1 ∪ 𝐵2 ∪ … ∪ 𝐵𝑘 )
= (A ∩ 𝐵1 ) ∪ (𝐴 ∩ 𝐵2 ) ∪ … ∪ (𝐴 ∩ 𝐵𝑘 )

Dado que {𝐵1 , 𝐵2 , … . 𝐵𝑘 } es una partición de Ω, si 𝑖 ≠ 𝑗

(A ∩ 𝐵𝑖 ) ∩ (𝐴 ∩ 𝐵𝑗 ) = 𝐴 ∩ (𝐵𝑖 ∩ 𝐵𝑗 ) = 𝐴 ∩ ∅ = ∅

Lo que implica que (A ∩ 𝐵𝑖 ) 𝑦 (𝐴 ∩ 𝐵𝑗 ) son evento mutuamente excluyentes, se cumple que:

𝑃(𝐴) = 𝑃(𝐴 ∩ 𝐵1 ) + 𝑃(𝐴 ∩ 𝐵2 ) + ⋯ . . 𝑃(𝐴 ∩ 𝐵𝑘 )


= 𝑃(𝐴|𝐵1 )P(𝐵1 ) + 𝑃(𝐴|𝐵2 )P(𝐵2 ) + ⋯ + 𝑃(𝐴|𝐵𝑘 )P(𝐵𝑘 )
𝑘

= ∑ 𝑃(𝐴|𝐵𝑖 )𝑃(𝐵𝑖 )
𝑖=1

1.4 Variables aleatorias Discreta, Modelos de Distribución Binomial y Poisson.


Sabemos que una variable aleatoria es una función de valor real que está definida sobre un
espacio muestral. En un sondeo de opinión con respecto a las preferencias de consumidores
frente a una determinada marca de café, no suele ser el consumidor muestreado ni el orden en el
que se obtuvieron las preferencias, sino Y = el número de consumidores que marcan su
preferencia por determinada marca de café. El valor observado puede ser 0 (no la elige) o 1 (si la
elige), este valor es entero entre 1 y el tamaño muestral. Como la variable “Y”, pude tomar un
número finito de valores contables se dice que es una variable aleatoria discreta. Las variables
aleatorias discretas poseen diferentes tipos de distribuciones en éste apunte nos centraremos en
dos la Binomial y la Poisson.

La anotación de la probabilidad de que la variable “Y” tome el valor y, es P(Y = y), se define como
aquella suma de probabilidades de todos los puntos muestrales en Ω a los que se asigna el valor
“y”. Finalmente podemos señalar que la distribución de probabilidad para una variable discreta “Y”
se puede representar mediante una fórmula, una tabla o una gráfica que genere p(y) = P(Y = y)
para toda y.

1.4.1 Distribución Binomial


Existen ciertos experimentos que consisten en la observación de una secuencia de intentos
idénticos e independientes, cada uno de los cuales puede resultar en uno de dos resultados. Lo
anterior hace referencia a los experimentos denominados binomiales, los que poseen las
siguientes características:

i). Consiste en un número fijo, de “n”, pruebas idénticas.

ii). Cada prueba resulta en uno de dos resultados: éxito, (denotado como S ó 1), o fracaso,
(denotado como F ó 0).

iii). La probabilidad de éxito en una sola prueba es igual a algún valor “p” y es el mismo de una
prueba a la otra. La probabilidad de fracaso es igual a q = (1 – p).

ESTADÍSTICA PARA LA GESTIÓN


iv). Las pruebas son todas independientes.

v). La variable aleatoria de interés es “Y”, el número de éxitos observado durante las n pruebas.

Se puede señalar que la distribución de probabilidad binomial tiene variadas aplicaciones debido a
que el experimento binomial se presenta al muestrear defectos en control de calidad industrial, en
el muestreo de preferencia de los consumidores y en muchas otras situaciones físicas.

Definición de La distribución Binomial

Una variable aleatoria Y tiene una distribución binomial basada en n pruebas con probabilidad p de
éxito si y sólo si:
𝑛
𝑝(𝑦) = ( ) 𝑝 𝑦 𝑞 𝑛−𝑦 , 𝑦 = 0,1,2 … 𝑛 𝑦 0 ≤ 𝑝 ≤ 1.
𝑦
Ejemplo 3. Suponga la siguiente situacion Andina minerales al produir 5000 láminas de cobre el 5%
sale con un defecto leve, si se toma una muestra de 5 láminas ¿Qué probabilidad existe de que
salga al menos una defectuosa?

Solución: Y el número de observacoines que arroja una lámina defectuosa tiene distribución
binomial, entonces para encontrar la distribución:
5
𝑃(𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛𝑎 𝑑𝑒𝑓𝑒𝑐𝑡𝑢𝑜𝑠𝑎) = 1 − 𝑝(0) = 1 − ( ) 𝑝0 𝑞 5
0
𝑃(𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛𝑎 𝑑𝑒𝑓𝑒𝑐𝑡𝑢𝑜𝑠𝑎) = 1 − (0.95)5 = 1 − 0.775 = 0.226
Q: representa el susceso contrario, que esté en perfectas condicnes es de 95% de ahí el 0.95, ya
que el porcentaje de laminas defectuosas es de 5% es decir 0.05.

1.4.2 Distribución Poisson


Ocurre que la función de probabilidad binomial converge a la de Poisson, es por ello que la
probabilidad de Poisson puede ser usada para calcular sus similares binomiales para un n grande,
p pequeña y 𝜆 = 𝑛𝑝 menor que, aproximadamente, 7.

La distribución de Poisson es muy útil para generar modelos para la probabilidad del número “y”
de eventos que ocurren en el espacio, tiempo incluso volumen (u otra dimensión), donde 𝜆, es el
valor promedio de Y. Como es el caso de accidentes industriales, atención en servicio de clientes o
cajas etc.

Definición. Una variable aleatoria “Y” tiene distribución de probabilidad de Poisson si y sólo si, se
cumple que:
𝜆𝑦 −𝜆
𝑝(𝑦) = 𝑒 , 𝑦 = 0,1,2 … . . 𝜆 > 0.
𝑦!
𝜆: El parámetro 𝜆 utilizado en la fórmula, representa la media de la distribución.

ESTADÍSTICA PARA LA GESTIÓN


Ejemplo. Suponga que una empresa que hace vigilancia en Andina Minerales hace diseña un
sistema de vigilancia para que un guardia pueda estar en un lugar de su ruta Y = 0, 1, 2, 3, . . .
veces por periodo de media hora, con cada lugar visitado un promedio de una vez por periodo.
Suponga que Y posee una distribución de probabilidad de Poisson. Calcule la probabilidad de que
el guardia no llegue a un lugar determinado durante un periodo de media hora. ¿Cuál es la
probabilidad de que sea en Dos veces?

Solución:

Paso 1: el periodo es de media hora y el número medio de visitas por intervalo de tiempo de
media hora es 𝜆 = 1

Paso 2: Aplicando 𝜆 a la fórmula se tiene que:

(1)𝑦 𝑒 1 𝑒 −1
𝑃(𝑦) = = 𝑦 = 0,1,2 …
𝑦! 𝑦!
Paso3: se calcula para cada situación Y=0 no se ha visitado el lugar:

𝑒 −1
𝑃(𝑌 = 0) = 0 = 𝑝(0) = = 𝑒 −1 = 0.368
0!
Paso 4: se calcula para la situación Y = 2

𝑒 −1 𝑒 −1
𝑃(𝑌 = 2) = 𝑝(2) = = = 0.184
2! 2
Los valores fueron calculados para un e = 2.718.

1.5 Variables aleatorias Continua. Modelos de Distribución Uniforme, Normal y Normal


Estándar.
Sabemos que cualquier variable aleatoria que puede tomar cualquier valor dentro de un intervalo
se le denomina variable aleatoria continua, es decir su valor no es un numero entero, sino que
decimal y se encuentra en un intervalo. Es importante señalar que la distribución de probabilidad
para una variable aleatoria continua no puede ser especificada de la misma manera que una
discreta. es por lo anterior que se debe desarrollar un método diferente para describir la
distribución de probabilidad para una variable aleatoria continua, los modelos que veremos en
éste apunte serán la distribución Uniforme, normal y normal estándar.

Función de distribución para una variable continua

Denote “Y” como cualquier variable aleatoria. La función de distribución de Y, denotada por

F(y), es tal que 𝐹(𝑦) = 𝑃(𝑌 ≤ 𝑦) para -∞ < 𝑦 > ∞ +

Definición: Si una variable aleatoria “Y” cuya función de distribución es F(y), se dice que es variable
aleatoria continua si F(y) es continua, -∞ < 𝑦 > ∞ +.

ESTADÍSTICA PARA LA GESTIÓN


Dado lo anterior, se cumple entonces que:

Sea 𝐹(𝑦) la función de distribución para una variable aleatoria continua Y. Entonces f(y) está dada
por
𝑑𝐹(𝑦)
𝑓(𝑦) = = 𝐹′(𝑦)
𝑑𝑦
Siempre que la derivada1 exista, se le denomina función de densidad de probabilidad para la
variable aleatoria (continua) Y.

Siendo f(y) una función de densidad para una variable aleatoria continua, entonces tiene las
siguientes propiedades

i). 𝑓(𝑦) ≥ 0 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑎 𝑦, −∞ < 𝑦 > +∞


+∝
ii). ∫−∞ 𝑓(𝑦) 𝑑𝑦 = 1

1.5.1 Distribución Uniforme


Suponga el siguiente caso: un autobús llega siempre a una parada particular entre las 8:00 y las
8:10 a.m. y que la probabilidad de que llegue en cualquier subintervalo dado es proporcional sólo
a la duración del subintervalo. Esto es, es igual de probable que llegue entre las 8:00 y 8:02 a que
llegue entre las 8:06 y las 8:08. A partir de lo anterior es posible intuir que la frecuencia relativa
con la cual se observa un valor de Y entre 0 y 2 sería aproximadamente idéntica a la de la
frecuencia relativa con la cual observamos un valor de Y entre 6 y 8. Un modelo razonable para la
función de densidad de Y se muestra en la Figura 4.

Figura 4. Grafico función de densidad y

Fuente: Levin et al. (2004).

Si se observa las áreas correspondientes a la zona bajo las curvas, representan probabilidades para
variables aleatorias continuas y A1 = A2, se puede deducir que 𝑃(0 ≤ 𝑦 ≤ 2) = 𝑃(6 ≤ 𝑦 ≤ 8).

1
Si el estudiante no está familiarizado con el cálculo de derivadas se le recomienda revisar algún apunte de
cálculo que contenga el cálculo de derivadas.

ESTADÍSTICA PARA LA GESTIÓN


La situación anterior representa claramente un ejemplo de una variable aleatoria cuya distribución
es uniforme. La forma general para la función de densidad se da en su definición.

Definición:

Si 𝜃1 < 𝜃2 , se dice que una variable aleatoria Y tiene distribución de Probabilidad Uniforme en el
intervalo (𝜃1 , 𝜃2 ) si y solo si la función de densidad de Y es
1
, 𝜃1 ≤ 𝑦 ≤ 𝜃2
𝜃2 − 𝜃1
𝑓(𝑦) =
{ 0 , 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜 (𝑜 𝑝𝑢𝑛𝑡𝑜)
Para el caso de la espera del autobús se puede considerar a 𝜃1 = 0 𝑦 𝜃2 = 10, porque estamos
interesados sólo en un intervalo particular de diez minutos.

Levin et al. (2004), nos aportan la definición de parámetros y la importancia en la distribución


uniforme: “Las constantes que determinan la forma específica de una función de densidad se
denominan parámetros de la función de densidad… Las cantidades 𝜃1 𝑦 𝜃2 son parámetros de la
función de densidad uniforme y son valores numéricos claramente significativos... Tanto la
amplitud como la probabilidad de que Y caiga en cualquier intervalo determinado dependen de los
valores de 𝜃1 𝑦 𝜃2” (p. 175).

Ejemplo: La llegada de clientes a una caja de un banco sigue una distribución de Poisson. Es sabido
que, durante un periodo determinado de 30 minutos, un cliente llega a la caja. Se solicita
encontrar la probabilidad de que el cliente llegue durante los últimos 5 minutos del periodo de 30
minutos.

Solución: sabemos que el tiempo real de llegada tiene distribución uniforme en el intervalo de 0 a
30. Denotamos a Y como el tiempo de llegada, se tiene que:
30
1 30 − 25 5 1
𝑃(25 ≤ 𝑌 ≤ 30) = ∫ 𝑑𝑦 = = =
25 30 30 30 6
1
La probabilidad de llegada de un cliente en los últimos 5 minutos es de 6, dado que es uniforme en
los otros tramos de 5 minutos es el mismo.

1.5.2 Distribución Normal


La distribución de probabilidad continua que más se utiliza es la distribución normal, con la
conocida forma de campana de Gauss.

Definición: Una variable aleatoria continua Y tiene distribución normal de probabilidad si y sólo sí
para: 𝜎 > 0 𝑦 − ∞ < 𝜇 < +∞, la función de densidad de Y es:
1 2 /(2𝜎2 )
𝑓(𝑦) = 𝑒 −(𝑦−𝜇) , − ∞ < 𝑦 < +∞.
𝜎√2𝜋
Si La variable “Y” es aleatoria con distribución normal y parámetros 𝜇 𝑦 𝜎, entonces se cumple
que:

ESTADÍSTICA PARA LA GESTIÓN


𝐸(𝑌) = 𝜇 𝑦 𝑉(𝑦) = 𝜎 2
La Figura 4 denota la grafica de una distribución normal, para la cual el área sobrada reprsenta la
función de densidad normal correspondiente a 𝑃(𝑎 ≤ 𝑌 ≤ 𝑏) y requieren de la evaluación de la
siguiente integral:
𝑏
1 2 /(2𝜎2 )
∫ 𝑒 −(𝑦−𝜇) 𝑑𝑦
𝑎 𝜎√2𝜋

Figura 4 . Gráfica de una distribución normal

Fuente Levin et al. (2004).

Propiedades de la distribución normal

i) Es simétrica con respecto al eje vertical 𝑋 = 𝜇, ya que f(x) sólo depende de x mediante la
expresión (𝑥 − 𝜇)2 , lo que implica que: 𝑓(𝜇 + 𝑥) = 𝑓(𝜇 − 𝑥).
1
ii) Tiene su valor máximo en 𝑥 = 𝜇 (su moda). El valor máximo es: 𝑓(𝜇) =
𝜎 √2𝜋

iii) Tiene al eje X como una asíntota horizontal.

iv) Sus puntos de inflexión son: 𝑥 = 𝜇 − 𝜎, y 𝑥 = 𝜇 + 𝜎.

v) El área total que encierra la curva y el eje X es igual a 1.

1.5.3 Distribución Normal Estándar


La distribución normal estándar es el proceso de estandarización de una variable aleatoria con
distribución normal. Siempre será posible transformar una variable aleatoria normal “Y” en una
variable aleatoria normal estándar “Z”, para ello se utiliza la siguiente relación:
𝑌−𝜇
𝑍=
𝜎

ESTADÍSTICA PARA LA GESTIÓN


Sobre a variable normal estándarizada “Z” Levin et al. (2004), Nos señala: “Z localiza un punto
medido desde la media de una variable aleatoria normal, con la distancia expresada en unidades
de la desviación estándar de la variable aleatoria normal original. Entonces, el valor medio de Z
debe ser 0 y su desviación estándar debe ser igual a 1” (p. 181). La variable estandarizada Z, tiene
como media 𝜇 = 0 𝑦 𝜎 = 1, en otros libros se anota como E(Z)=0, y Var(Z)=1. Hacen referencia a
lo mismo.
𝑦1 − 𝜇
Si Y toma valor 𝑦1 , la variable Z toma valor 𝑧1 = 𝜎
𝑦2 − 𝜇
Si Y toma valor 𝑦2 , la variable Z toma valor 𝑧2 = 𝜎

Unidad 2 Muestreo e Inferencia.


2.1 Tipos de Muestreo.
El método más utilizado en estadística es el de muestreo aleatorio. En una muestra aleatoria
podemos conocer las posibilidades, de que un elemento de la población se incluya o no en la
muestra. Es decir, se puede determinar objetivamente las estimaciones de las características de la
población que resultan de una muestra. Dentro del muestreo aleatorio encontramos cuatro tipos:
muestreo aleatorio simple, sistemático, estratificado y de racimo.

Muestreo aleatorio simple: selecciona muestras mediante métodos que permiten que cada
posible muestra tenga una igual probabilidad de ser seleccionada y que cada elemento de la
población total tenga la misma posibilidad de ser incluido en la muestra.

Muestreo aleatorio sistemático: los elementos son seleccionados de la población dentro de un


intervalo uniforme que se mide con respecto al tiempo, al orden o al espacio.

Muestreo aleatorio estratificado: Se divide la población en grupos relativamente homogéneos,


llamados estratos. Después utilizamos uno de los dos planteamientos: a) se selecciona
aleatoriamente, en cada estrato, un número específico de elementos correspondiente a la
proporción del mismo en relación con la población completa. b) se extrae el mismo número de
elementos en cada estrato y posteriormente se pondera el resultado, considerando la proporción
que el estrato representa (peso) con respecto a la población estudiada.

Muestreo aleatorio de racimo: Se divide la población en grupos, o racimos, y luego se selecciona


una muestra aleatoria de dichos racimos, se asume con ello que cada racimo es representativo de
la población estudiada.

2.2 Definiciones, conceptos y fundamentos de Inferencia.


A lo largo de éste apunte hemos ido revisando conceptos y definiciones que nos llevan a poder
realizar inferencias estadísticas respecto de los datos recopilados en una muestra. A diferencia de
la estadística descriptiva, la estadística inferencial genera información para la toma de decisiones,
ya que generaliza desde un caso particular (muestra) a todos los casos similares (población), éste
tipo de inferencia de lo particular a lo general se llama inferencia inductiva, la estadística permite
medir el grado de incertidumbre de cada inferencia medida en probabilidades. Hemos visto que
mediante la probabilidad se puede establecer, la probabilidad respecto de: producir un artículo

ESTADÍSTICA PARA LA GESTIÓN


defectuoso, la vida útil de una máquina, el tiempo de espera de una atención al cliente, la llegada
de clientes a una caja de banco, etc. Es decir, la probabilidad nos entrega el dato estadístico del
grado de certeza respecto a una situación que no es posible predecir, y que es vital en la toma de
decisiones administrativas financieras y de producción.

Para una adecuada inferencia es necesario que la muestra sobre la cual se basa la inferencia, sea
representativa de la población, la recolección de datos debe ser adecuada y libre de sesgo. Los
datos deben ser ordenados e ingresados correctamente. Recordemos que “la inferencia
estadística, rama de la estadística que se ocupa del uso de los conceptos de probabilidad para
manejar la incertidumbre en la toma de decisiones. La inferencia estadística está basada en la
estimación, concepto que se introduce en este capítulo, y en las pruebas de hipótesis” (Levin et al.
2004, p. 274)

Estimador: todo estadístico de la muestra que sea utilizado para estimar un parámetro poblacional
se le denomina estimador, lo anterior quiere decir que un estimador es un estadístico de la
muestra utilizado para estimar un parámetro poblacional. La media de la muestra x̅ puede ser un
estimador de la media de la población μ.

Estimación: Al observar un valor numérico específico de él estimador, nos referimos a ese valor
como una estimación. Lo anterior quiere decir, que una estimación es un valor específico
observado de un estadístico. Se realiza una estimación cuando se toma una muestra y se calcula el
valor que toma dicho estimador en esa muestra.

Estimación puntual: Corresponde a un solo número que se utiliza para estimar un parámetro de
población desconocido.

Estimación por intervalo: Corresponde a un rango de valores que se utiliza para estimar un
parámetro de la población. Una estimación por intervalo indica el error de dos formas: a)
mediante extensión del intervalo y b) mediante la probabilidad de que el verdadero parámetro
poblacional se encuentre dentro.

Criterios para un buen estimador:

a) Ser Insesgado: El término insesgado se refiere al hecho de que una media de la muestra es un
estimador no sesgado de una media de la población porque la media de la distribución muestral
de las medias de las muestras tomadas de la misma población es igual a la media de la población
misma.

b) Ser Eficiente: La eficiencia hace referencia al tamaño del error estándar del estadístico.

c) Consistencia: Se considera que estadísticamente un estimador es consistente para un


parámetro de población, si al aumentar el tamaño de la muestra, se tiene casi la certeza de que el
valor de la estadística se acerca bastante al valor del parámetro poblacional.

d) Suficiencia. Si utiliza tanta información de la muestra que ningún otro estimador puede extraer
información adicional acerca del parámetro de población que se está estimando.

ESTADÍSTICA PARA LA GESTIÓN


2.3 Distribución muestral de: media y de proporción.
Una distribución muestral de una estadística, corresponde a su distribución de probabilidad, a
modo de ejemplo, a la distribución de probabilidad de la estadística media 𝑋̅, se le denomina
distribución muestral de la media.

2.3.1. Distribución muestral de media


Sea 𝑥1 , 𝑥2 … . 𝑥𝑛 , una muestra aleatoria de tamaño n escogida de una población
𝑓(𝑥) 𝑐𝑜𝑛 𝑚𝑒𝑑𝑖𝑎 𝜇 𝑦 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝜎 2 . Si 𝑋̅ es la media muestral, entonces:
𝜎2
i) 𝐸(𝑥̅ ) = 𝜇 ii)𝑉𝑎𝑟 (𝑋̅) = 𝑛

iii) Para un n suficientemente grande, la variable aleatoria “Z” se calcula:

𝑋̅ − 𝜇
𝑍= 𝜎
√𝑛
Z tiende a tener una distribución aproximadamente normal N(0,1), es decir media 0 y varianza 1

2.3.2 Distribución muestral de proporción (𝒑̅)


Cuando el interés se centra por ejemplo en la proporción de productos defectuosos dentro de una
muestra aleatoria, la distribución muestral de proporciones es más adecuada para determinar
dicha proporción, La proporción muestral 𝑝̅ es el estimador puntual de la proporción poblacional
p. La fórmula para calcular la proporción muestral es:
𝑥
𝑝̅ =
𝑛
Donde x: corresponde al número de elementos de la muestra que poseen la característica de
interés y n: corresponde tamaño de la muestra.

La distribución muestral de 𝑝̅ , es la distribución de probabilidad de todos los posibles valores de la


proporción muestral 𝑝̅ .

La distribución muestral de 𝑝̅ se aproxima mediante una distribución normal siempre que se


cumpla que 𝑛𝑝 ≥ 5 𝑦 𝑛(1 − 𝑝) ≥ 5.

Suponiendo que el porcentaje de todos los trabajadores de Andina minerales que se han
capacitado es de 0.60 (𝑝 = 0.60), si se toma una muestra de 30 trabajadores se tiene que:

𝑛𝑝 = 30(0.60) = 18 𝑦 𝑛(1 − 𝑝) = 30(0.40) = 12.


Dado lo anterior la distribución muestral de 𝑝̅ se calcula mediante la distribución normal. El valor
práctico una distribución muestral de 𝑝̅ , es que nos permite obtener información probabilística
acerca de la diferencia entre la proporción muestral y la proporción poblacional.

El valor esperado de 𝑝̅ , se denota: 𝐸(𝑝̅ ) = 𝑝, donde 𝑝 es la proporción poblacional.

ESTADÍSTICA PARA LA GESTIÓN


La desviación estándar de 𝑝̅ obedece a si la población es finita o infinita. Las dos fórmulas para
calcular la desviación estándar de se presentan a continuación.

𝑁−𝑛 𝑝(1−𝑝)
Para una población finita2: 𝜎𝑝 = √ 𝑁−1 √ 𝑛

𝑝(1−𝑝)
Para una población infinita: 𝜎𝑝 = √ 𝑛

2.4 Intervalos de confianza para la media y proporción poblacional.


En estadística, la probabilidad que se asocia a una estimación de intervalo se conoce como nivel de
confianza. Esta probabilidad indica qué tanta confianza tenemos de que la estimación de intervalo
incluya al parámetro de población. En la estimación, los niveles de confianza que se utilizan con
más frecuencia son 90, 95 y 99%. El intervalo de confianza es el rango de la estimación. Si se
determina que con el 90% de confianza la media de la población de ingresos de las personas que
viven en una ciudad está entre $800.000 y $2400.000, entonces el rango $800.000-$240.000, es el
intervalo de confianza.

2.4.1 Intervalos de confianza para la media


La administración de la empresa ya ha determinado que la desviación estándar de la vida útil de la
población del producto “Ac” es 6 meses. Suponga que seleccionamos una sola muestra aleatoria
de 100 unidades de “Ac”, tomamos los datos referentes a su vida útil obteniendo:

𝑛 = 100 (𝑚𝑢𝑒𝑠𝑡𝑟𝑎),
𝑥̅ = 21 𝑚𝑒𝑠𝑒𝑠 (𝑚𝑒𝑑𝑖𝑎 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎),
𝜎 = 6 𝑚𝑒𝑠𝑒𝑠(𝑑𝑒𝑠𝑣. 𝑒𝑠𝑡á𝑛𝑑𝑎𝑟 𝑃𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛)
Se busca el intervalo de confianza con un nivel de confianza del 95%, como el n es mayor que 30
usaremos la distribución normal como distribución de muestreo. Calculamos el error estándar de
la media:
𝜎 6 6
𝜎𝑥̅ = = = = 0.6 (𝑒𝑟𝑟𝑜𝑟 𝑒𝑠𝑡á𝑛𝑑𝑎𝑟 𝑚𝑒𝑑𝑖𝑎 𝑝𝑎𝑟𝑎 𝑝𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛 𝑓𝑖𝑛𝑖𝑡𝑎)
√𝑛 √100 10
1−𝛼 95
Como se trabaja con un nivel del 95% de confianza incluirá el 47.5% ( 2
= 2
= 47.5), del área
que se encuentra a ambos lados de la media de la distribución de muestreo, podemos buscar en el
cuerpo de la tabla de “Áreas bajo la curva de distribución de probabilidad normal estándar, entre
la media y valores positivos de z”3, el valor correspondiente a 0.475.

Al mirar la tabla se denota que 0.475 del área bajo la curva normal, está contenida entre la media
y un punto situado a 1.96 errores estándar a la derecha de la media. Se sabe que (2)*(0.475) =

𝑁−𝑛
2
√𝑁−1, se conoce como el factor de corrección
3
La Tabla se incluye al final del apunte.

ESTADÍSTICA PARA LA GESTIÓN


0.95, del área está localizada entre ±1.96 errores estándar de la media y que los límites de
confianza son:

𝑥̅ + 1.96𝜎𝑥̅ ← 𝑙𝑖𝑚𝑖𝑡𝑒 𝑠𝑢𝑝𝑒𝑟𝑖𝑜𝑟


𝑥̅ − 1.96𝜎𝑥̅ ← 𝑙𝑖𝑚𝑖𝑡𝑒 𝑖𝑛𝑓𝑒𝑟𝑖𝑜𝑟
Reemplazando los valores se obtiene que:

𝑥̅ + 1.96𝜎𝑥̅ = 21 𝑚𝑒𝑠𝑒𝑠 + 1.96(0.6 𝑚𝑒𝑠𝑒𝑠)


= 21 + 1.18 𝑚𝑒𝑠𝑒𝑠
= 22 .18 𝑚𝑒𝑠𝑒𝑠 ← 𝑙𝑖𝑚𝑖𝑡𝑒 𝑠𝑢𝑝𝑒𝑟𝑖𝑜𝑟
𝑥̅ − 1.96𝜎𝑥̅ = 21 𝑚𝑒𝑠𝑒𝑠 − 1.96(0.6 𝑚𝑒𝑠𝑒𝑠)

= 21 − 1.18 𝑚𝑒𝑠𝑒𝑠
= 19 .82 𝑚𝑒𝑠𝑒𝑠 ← 𝑙𝑖𝑚𝑖𝑡𝑒 𝑖𝑛𝑓𝑒𝑟𝑖𝑜𝑟
Es posible señalar que se estimó la vida media de la población de productos Ac entre 19.82 y 22.18
meses con un 95% de confianza.

2.4.2 Intervalos de confianza para la proporción poblacional


En estadística, se utilizan muestras para estimar la proporción de ocurrencias de un evento en una
determinada población. La distribución binomial es la distribución correcta que se debe utilizar en
la construcción de intervalos de confianza para una proporción de población. Afortunadamente,
conforme aumenta el tamaño de la muestra, la distribución binomial puede aproximarse por una
distribución normal apropiada, que podemos utilizar para aproximar la distribución muestral. Los
estadísticos recomiendan que, en la estimación, n sea lo suficientemente grande para que tanto
np como n-p sean al menos igual a 5 cuando se utiliza la distribución normal como sustituto de la
binomial.

Denotamos la proporción de éxitos en una muestra como 𝑝̂ .

Sabemos que en una distribución binomial 𝜇 = 𝑛𝑝, muestra que la media de la distribución
binomial es igual al producto del número de ensayos, n, por la probabilidad de obtener un éxito p,
Para cambiar el número de éxitos a la proporción de éxitos, se divide “np” entre “n” y obtenemos
sólo el valor de p. Es así como. 𝜇 convierte en 𝜇𝑝 , es decir, en la media de la distribución de
muestreo de la proporción de éxitos. Quedando entonces:

𝜇𝑝 = 𝑝

La desviación estándar de la proporción de éxitos en una muestra se calcula como:


𝑝𝑞
𝜎𝑝 = √
𝑛
Andina Minerales está interesada en saber la estimación de qué proporción de sus operarios
prefieren planificar su propios planes de jubilación, en lugar de seguir un plan patrocinado por la
compañía. Para ello se tomama una pequeña muestra aleatoria de 75 operarios y encontramos

ESTADÍSTICA PARA LA GESTIÓN


que el 0.40% de ellos están interesados en seguir sus propios planes de jubilación. Resumiendo los
datos d ela muestra son:

𝑛 = 75, 𝑝̂ = 0.4, 𝑞̂ = 0.6


Utilizando la misma muestra Andina minerales pide encontrar un intervalo en el que puedan tener
el 99% de confianza de que contiene a la proporción verdadera de la población.

Es posible estimar los parámetros de la población, para ello se deben sustituir los estadísticos
correspondientes de la muestra, 𝑝̂ 𝑦 𝑞̂, en la fórmula del error estándar de la proporción,
quedando:

𝑝̂ 𝑞̂
𝜎̂𝑝 = √
𝑛

Reemplazando se obtiene que:

(0.4) ∗ (0.6)
𝜎̂𝑝 = √
75

= √0.0032
= 0.057 (𝑒𝑟𝑟𝑜𝑟 𝑒𝑠𝑡á𝑛𝑑𝑎𝑟 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑜𝑝𝑜𝑟𝑐𝑖ó𝑛)
Un nivel de confianza del 99% incluiría 49.5% del área que se encuentra a cualquier lado de la
media de la distribución de muestreo. El cuerpo de la tabla de áreas bajo la curva, señala que
0.495 del área bajo la curva normal está localizada entre la media y un punto que se encuentra a
2.58 errores estándar de la media. Esto quiere decir que, 99% del área está contenida entre ±2.58
errores estándar de la media, dado lo anterior los límites de confinaza serían:

𝑝̂ + 2.58 𝜎̂𝑝 = 0.4 + 2.58 (0.057)

= 0.4 + 0.147
= 0.547 (𝑙𝑖𝑚𝑖𝑡𝑒 𝑠𝑢𝑝𝑒𝑟𝑖𝑜𝑟)
𝑝̂ − 2.58 𝜎̂𝑝 = 0.4 − 2.58 (0.057)

= 0.4 − 0.147
= 0.253 (𝑙í𝑚𝑖𝑡𝑒 𝑖𝑛𝑓𝑒𝑟𝑖𝑜𝑟)

Dado el resultado se puede estimar que a partir de la muestra de 75 operarios, con el 99% de
confianza, se cree que la proporción de la población total de empleados que desean establecer sus
propios planes de jubilación se encuentra en el intervalo 0.253 y 0.547.

ESTADÍSTICA PARA LA GESTIÓN


2.5 Tamaño de muestra para la media y la proporción.
2.51 Tamaño de muestra para la media
Estad´sticamente es posible determinar un tamaño de la muestra para la media tal que el error de
estimación sea tan pequeño como se estime conveniente. Es decir dado un cierto nivel de
confianza y un error fijo (𝜀)se puede determinar un n que cumpla que:

𝑃(|𝑥̅ − 𝜇| < 𝜀) = 𝑛𝑖𝑣𝑒𝑙 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑧𝑎 𝑟𝑒𝑞𝑢𝑒𝑟𝑖𝑑𝑜


La fórmula del error máximo de estimación es:
𝑧𝜎
𝜀=
√𝑛
Elevando al cuadrado y despejando n queda:
𝑧𝜎 2
𝑛=( )
𝜀
Si la población es finita y no existe reemplazo se usa el factor de corrección quedando:

𝑧𝜎 𝑁−𝑛
𝜀= √
√𝑛 𝑁 − 1

Elevando al cuadrodo de la misma forma que antes queda:

𝑧2𝜎2𝑁
𝑛= 2
𝜀 (𝑁 − 1) + 𝑧 2 𝜎 2

2.5.2 Tamaño de muestra para la proporción


Para determinar el tamaño de la muestra cuando se desea estimar p se utiliza la siguiente fórmula
del error:

𝑝𝑞 𝑧 2 𝑝𝑞
𝜀 = 𝑧√ 𝑎𝑙 𝑒𝑙𝑒𝑣𝑎𝑟 𝑎𝑙 𝑐𝑢𝑎𝑑𝑟𝑎𝑑𝑜 𝑦 𝑑𝑒𝑠𝑝𝑒𝑗𝑎𝑟 𝑞𝑢𝑒𝑑𝑎 𝑛 = 2
𝑛 𝜀
Se debe recordar que el valor del error se busca minimizar mediante el aumento de n, en caso de
que no se cuente con el valor de la proporcion de la población, se pueden usar los siguientes
métodos:

a) Considerar una muestra preliminar mayor o igual a 30, para a partir de ella proporcionar una
estimación de P. Después con el uso de la fórmula se podría determinar de forma aproximada el
valor de n que se necesita.

b) Considerar arbitrariamente el valor de p como 0.5, ya que al utilizarlo en la formula se obtiene


el tamaño más grande posible de muestra.

ESTADÍSTICA PARA LA GESTIÓN


Bibliografía
Aguilar, A. Altamira, j. García, O. (2010). Introducción a la inferencia estadística. México: Pearson
Educación.

Anderson, D. Sweeney, D. Williams, T. (2008). Estadística para administración y economía. 10ª


Edición. México, D.F.: Cengage Learning Editores, S.A.

Canavos, G. (1988). Probabilidad y Estadística, aplicaciones y métodos. Juares, México: McGraw


Hill.

Córdova, M. (2003). Estadística descriptiva e inferencia. 5a Ed. Lima, Perú: Moshera

Levin et al. (2004). Estadística para la administración y economía. 7ª Edición. Naucalpan de Juárez,
Mexico: Pearson Educación.

Montgomery, D. C., & Runger, G. C. (2012). Probabilidad y estadística. México: Limusa Wiley.

Peña, D. (2014). Fundamentos de estadística. Madrid: Difusora Larousse - Alianza Editorial.


Retrieved from http://www.ebrary.com

Spiegel, M. R. (2009). Estadística. México, D.F.: McGraw-Hill Interamericana.

Triola, M. (2004). Estadística. Novena edición. México: Pearson Educación.

Wackerly, D. Mendenhall, W. Scheaffer, R. (2010). Estadística matemática con aplicaciones.


Séptima Edición. D.F., México: Cengage Learning Editores.

Walpole, R. E., Myers, R. H., & Myers, S. L. (1999). Probabilidad y estadística para ingenieros.
México: Prentice- Hall Hispanoamericana, S.A.

ESTADÍSTICA PARA LA GESTIÓN


ANEXO1 TABLAS
Tabla 1 áreas bajo la curva de distribución normal

Fuente: Levin et al. (2004)

ESTADÍSTICA PARA LA GESTIÓN


Tabla 2 valor Z

ESTADÍSTICA PARA LA GESTIÓN

Potrebbero piacerti anche