Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Los valores para determinar una probabilidad, siempre van a estar contenidos en una escala entre
0 y 1 ambos inclusive. Un valor cercano a cero indica una probabilidad baja de ocurrencia de un
evento, un valor cercano a 1 indican una probabilidad casi segura de ocurrencia del evento, otros
valores alejados de los extremos 0 y 1 indican distintos grados de ocurrencia. En estadística
hablamos de probabilidad y no de predicción de evento ya que todo evento tiene un grado de
error y no es posible una predicción exacta sobre la ocurrencia dado que existe un grado de azar e
incertidumbre vinculado a dicho evento.
Se utiliza la expresión P(A) para denotar la probabilidad de que ocurra el evento A. P(A) viene a
constituir la proporción de veces en que ocurre el evento A, a lo largo del tiempo, en el caso de
que el experimento se realizara una y otra vez. En probabilidad existen axiomas o reglas que
detallamos a continuación:
iii). A y B eventos mutuamente excluyentes o disjuntos, se cumple que: 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵).
De lo anterior se puede generalizar que, si 𝐴1 , 𝐴2 , … son eventos mutuamente excluyentes, se
cumple que:
vii) Regla formal de la suma: Sean A y B cualesquiera eventos (no excluyentes), se cumple que:
Viii) A y B son eventos independientes: Cuando la ocurrencia de uno (A) no afecta la probabilidad
de la ocurrencia del otro (B). Algunos sucesos son independientes si la ocurrencia de cualquiera no
ix) Regla formal de la multiplicación, cuando se calcula la probabilidad de que ocurra un evento y a
continuación un segundo evento dado que el primero ya ocurrió, se cumple que:
Experimento: Término que se utiliza en estadística para describir a cualquier proceso que genera
un conjunto de datos cuantitativos (y a veces cualitativos). Dado que, en la mayoría de los casos,
los resultados de los experimentos dependen de un grado de azar, no es posible pronosticar de
manera exacta el resultado.
Experimento aleatorio: Es todo proceso en el cual la ejecución de un acto (prueba o test) realizada
una o más veces, arroja un resultado que en cada prueba depende del azar y en consecuencia no
se puede predecir con certeza.
Muestreo aleatorio: cuando una población a partir de la cual se muestrea un elemento en forma
aleatoria, constituye un espacio muestral con resultados igualmente probables.
Evento (suceso): Se define en estadística como cualquier tipo de conjunto que contiene los
resultados o consecuencias de un experimento (acto o procedimiento). Corresponde a cualquier
subconjunto del espacio muestral.
Evento unitario o elemental (suceso simple): Se define en estadística como un resultado, evento
o un suceso que ya no puede desglosarse en componentes más simples y que contienen un sólo
punto muestral.
Eventos compuestos (sucesos compuestos): Son aquellos que consisten de dos o más eventos.
Evento imposible (suceso imposible): Se denota con el símbolo de conjunto vacío ∅, que no tiene
puntos muéstrales, en consecuencia no ocurre nunca.
Un evento A ocurre: si contiene por lo menos un punto muestral de algún experimento aleatorio.
Es decir, un evento A ocurre si y sólo si existe 𝜔 ∈ 𝐴.
Complemento del evento A: hace referencia al evento que se denota por 𝐴𝑐 𝑜 𝐴′ 𝑜 𝐴̅, que consiste
de todos los puntos muéstrales que no están en el evento A, es decir se cumple que:
𝐴𝑐 = {𝜔 ∈ Ω ∕ 𝜔 ∉ 𝐴 } (𝐹. 01)
El evento 𝐴𝑐 describe el evento de que no ocurra A.
a) Unión de los eventos A y B, al evento A v j B que consiste de todos los puntos muéstrales que
pertenecen a A o a B, o a ambos, es decir se cumple que:
𝐴 ∪ 𝐵 = {𝜔 ∈ Ω/𝜔 ∈ 𝐴 ∨ 𝜔 ∈ 𝐵} (F.02)
b) Intersección de los eventos A y B: se refiere al evento 𝐴 ∩ 𝐵, que consiste de todos los puntos
muéstrales que son comunes a 𝐴 y a 𝐵, es decir se cumple que:
𝐴 ∩ 𝐵 = {𝜔 ∈ Ω/𝜔 ∈ 𝐴 ∧ 𝜔 ∈ 𝐵} (F.03)
𝐴∩𝐵 = ∅
d) Diferencia del evento A menos B: es el evento A — B, que consiste de todos los puntos
muéstrales que pertenecen al evento A y no pertenecen al evento B, esto es:
𝐴 − 𝐵 = {𝜔 ∈ Ω/𝜔 ∈ 𝐴 ∧ 𝜔 ∉ 𝐵} (F.04)
e) Producto cartesiano de los eventos A y B: es el evento 𝐴𝑥𝐵 que consiste de todos los pares
ordenados de puntos muéstrales (𝜔1 , 𝜔2 ), siendo 𝜔1 ∈ 𝐴 y 𝜔2 ∈ 𝐵, es decir se cumple que:
Finalmente se exponen los diagramas de Ven que resumen las operaciones, Ver figura 1
Se recomienda al estudiante que acuda a la bibliográfica recomendada para el curso y repase los
contenidos referentes a teoría de conjuntos, los cuales serán de mucha utilidad en probabilidad.
Éste tipo de cálculo de probabilidad es muy útil en situaciones ideales, como lanzar un dado sacar
una carta de un mazo o lanzar una moneda, en el mundo real las posibilidades no siempre suelen
ser igualitarias para todos los resultados probables.
Este método utiliza la frecuencia relativa de las presentaciones pasadas de un evento como
probabilidad. Determinamos qué tan frecuentemente ha sucedido algo en el pasado y usamos esa
cifra para predecir la probabilidad de que suceda de nuevo en el futuro.
Ejemplo 2: Las compañías de seguro pueden fijar sus primas según datos en cuanto a los índices de
mortalidad de acuerdo a las edades de sus clientes. Si se tiene el dato supongamos: de 200.000
hombres de 40 años 80 mueren al año, la compañía fija la posibilidad de muerte de un cliente de
40 años edad como:
80
𝑃(𝑐𝑙𝑖𝑒𝑛𝑡𝑒 40 𝑎ñ𝑜𝑠 𝑑𝑒 𝑒𝑑𝑎𝑑 𝑚𝑢𝑒𝑟𝑎) = = 0.0004
200000
La probabilidad subjetiva no será abordada en éste módulo si el estudiante se interesa puede
recurrir a Levin y Rubin (2004).
Considere la siguiente anotación para los eventos K= la bolita es de color, G= la bolita es gris, T= la
bolita tiene estrellas y F= la bolita tiene franja. Pregunta: suponga que una persona saca una bolita
de color, ¿Cuál es la posibilidad que tenga estrellas?
Paso 1: Ya sabemos que salió color entonces nos enfocamos en las bolitas de color, sabemos que 3
bolitas tienen estrellas y 1 franjas entonces se cumple que.
K={𝑇, 𝑇, 𝑇, 𝐹}
Paso 2: Calculamos la posibilidad de elegir una bolita con estrellas del total de bolitas de color y la
probabilidad de sacar una bola con franja:
𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 3
𝑃(𝑇|𝐾) = = = 0.75
𝑐𝑎𝑠𝑜𝑠 𝑡𝑜𝑡𝑎𝑏𝑙𝑒𝑠 4
𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 1
𝑃(𝐹|𝐾) = = = 0.25
𝑐𝑎𝑠𝑜𝑠 𝑡𝑜𝑡𝑎𝑏𝑙𝑒𝑠 4
𝑆𝑢𝑚𝑎𝑛𝑑𝑜 𝑎𝑚𝑏𝑎𝑠 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑𝑒𝑠 = 0.75 + 0.25 = 1 𝑒𝑠𝑡𝑎 𝑏𝑖𝑒𝑛 𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑎
Es posible entonces señalar sabiendo que ya salió una bolita de color, la probabilidad de que ésta
tenga estrellas es de 0.75, es decir un 75%.
Habrán notado que no se ha utilizado la fórmula para el cálculo, pues bien, ahora la utilizaremos:
Paso 1: en el numerador colocamos la probabilidad de que la bolita sea de color y con estrellas
dentro del total de bolitas (10):
3
= 0.3
10
Paso 2: en el denominador colocamos la probabilidad de que sea una bola de color, dentro del
total de bolitas (10):
4
= 0.4
10
Paso 3: Reemplazamos en la fórmula y calculamos:
3
𝑃(𝑇𝐾) 10 0.3
𝑃(𝑇|𝐾) = = = 0.75
𝑃(𝐾) 4 0.4
10
Se deja a modo de resumen una tabla con las fórmulas para la probabilidad marginal y conjunta,
las que el estudiante podrá revisar en profundidad acudiendo a la bibliografía recomendada.
Figura 2
Al respecto Levin et al. (2004), nos introduce en el origen del Teorema de Bayes: “El origen del
concepto de la obtención de probabilidades posteriores con información limitada se atribuye al
reverendo Thomas Bayes (1702-1761) … El teorema de Bayes ofrece un potente método
estadístico para evaluar nueva información y revisar nuestras anteriores estimaciones (basadas
sólo en información limitada) de la probabilidad de que las cosas se encuentren en un estado o en
otro” (p. 158)
La fórmula del teorema de Bayes es similar a la utilizada en la probabilidad condicional dada una
dependencia de eventos:
𝑃(𝐵𝐴)
𝑃(𝐵|𝐴) =
𝑃(𝐴)
Vamos a realizar un ejemplo para explicar cómo se realiza el cálculo de probabilidades posteriores
usando Bayes: Suponga que en una caja tenemos 10 dados cargados, en una mitad sale 1 el 40%
El estudiante puede pensar de forma errónea que la probabilidad es 0.5, el evento que salga un 1,
nos entrega una información adicional, para responder correctamente se debe realizar una tabla,
tal como lo ilustra la Tabla 1.
Si se considera pobre la información de lanzar una vez un dado se puede lanzar una segunda vez
suponiendo que ese segundo lanzamiento también sale un 1, entonces se agrega una nueva
columna, ver Tabla 2
Para algún entero positivo “K”, sean los conjuntos 𝐵1 , 𝐵2 , … . . 𝐵𝑘 , tales que se cumpla:
i) Ω = 𝐵1 ∪ 𝐵2 ∪ … . .∪ 𝐵𝑘
ii) 𝐵𝑖 ∩ 𝐵𝑗 = ∅, 𝑝𝑎𝑟𝑎 𝑖 ≠ 𝑗.
𝐴 = (𝐴 ∩ 𝐵1 ) ∪ (𝐴 ∩ 𝐵2 ) ∪ … .∪ (𝐴 ∩ 𝐵𝑘 )
La Figura 2 denota la situación anterior para una caso en el que K=3, es decir existen tres
partiociones para Ω.
Suponga que {𝐵1 , 𝐵2 , … 𝐵𝑘 } es una partición de Ω, tal que 𝑃(𝐵𝑖 ) > 0, para i=1,2,….k. entonces,
para todo evento A, se cumple que:
𝑘
𝐴 = 𝐴 ∩ Ω = A ∩ (𝐵1 ∪ 𝐵2 ∪ … ∪ 𝐵𝑘 )
= (A ∩ 𝐵1 ) ∪ (𝐴 ∩ 𝐵2 ) ∪ … ∪ (𝐴 ∩ 𝐵𝑘 )
(A ∩ 𝐵𝑖 ) ∩ (𝐴 ∩ 𝐵𝑗 ) = 𝐴 ∩ (𝐵𝑖 ∩ 𝐵𝑗 ) = 𝐴 ∩ ∅ = ∅
= ∑ 𝑃(𝐴|𝐵𝑖 )𝑃(𝐵𝑖 )
𝑖=1
La anotación de la probabilidad de que la variable “Y” tome el valor y, es P(Y = y), se define como
aquella suma de probabilidades de todos los puntos muestrales en Ω a los que se asigna el valor
“y”. Finalmente podemos señalar que la distribución de probabilidad para una variable discreta “Y”
se puede representar mediante una fórmula, una tabla o una gráfica que genere p(y) = P(Y = y)
para toda y.
ii). Cada prueba resulta en uno de dos resultados: éxito, (denotado como S ó 1), o fracaso,
(denotado como F ó 0).
iii). La probabilidad de éxito en una sola prueba es igual a algún valor “p” y es el mismo de una
prueba a la otra. La probabilidad de fracaso es igual a q = (1 – p).
v). La variable aleatoria de interés es “Y”, el número de éxitos observado durante las n pruebas.
Se puede señalar que la distribución de probabilidad binomial tiene variadas aplicaciones debido a
que el experimento binomial se presenta al muestrear defectos en control de calidad industrial, en
el muestreo de preferencia de los consumidores y en muchas otras situaciones físicas.
Una variable aleatoria Y tiene una distribución binomial basada en n pruebas con probabilidad p de
éxito si y sólo si:
𝑛
𝑝(𝑦) = ( ) 𝑝 𝑦 𝑞 𝑛−𝑦 , 𝑦 = 0,1,2 … 𝑛 𝑦 0 ≤ 𝑝 ≤ 1.
𝑦
Ejemplo 3. Suponga la siguiente situacion Andina minerales al produir 5000 láminas de cobre el 5%
sale con un defecto leve, si se toma una muestra de 5 láminas ¿Qué probabilidad existe de que
salga al menos una defectuosa?
Solución: Y el número de observacoines que arroja una lámina defectuosa tiene distribución
binomial, entonces para encontrar la distribución:
5
𝑃(𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛𝑎 𝑑𝑒𝑓𝑒𝑐𝑡𝑢𝑜𝑠𝑎) = 1 − 𝑝(0) = 1 − ( ) 𝑝0 𝑞 5
0
𝑃(𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛𝑎 𝑑𝑒𝑓𝑒𝑐𝑡𝑢𝑜𝑠𝑎) = 1 − (0.95)5 = 1 − 0.775 = 0.226
Q: representa el susceso contrario, que esté en perfectas condicnes es de 95% de ahí el 0.95, ya
que el porcentaje de laminas defectuosas es de 5% es decir 0.05.
La distribución de Poisson es muy útil para generar modelos para la probabilidad del número “y”
de eventos que ocurren en el espacio, tiempo incluso volumen (u otra dimensión), donde 𝜆, es el
valor promedio de Y. Como es el caso de accidentes industriales, atención en servicio de clientes o
cajas etc.
Definición. Una variable aleatoria “Y” tiene distribución de probabilidad de Poisson si y sólo si, se
cumple que:
𝜆𝑦 −𝜆
𝑝(𝑦) = 𝑒 , 𝑦 = 0,1,2 … . . 𝜆 > 0.
𝑦!
𝜆: El parámetro 𝜆 utilizado en la fórmula, representa la media de la distribución.
Solución:
Paso 1: el periodo es de media hora y el número medio de visitas por intervalo de tiempo de
media hora es 𝜆 = 1
(1)𝑦 𝑒 1 𝑒 −1
𝑃(𝑦) = = 𝑦 = 0,1,2 …
𝑦! 𝑦!
Paso3: se calcula para cada situación Y=0 no se ha visitado el lugar:
𝑒 −1
𝑃(𝑌 = 0) = 0 = 𝑝(0) = = 𝑒 −1 = 0.368
0!
Paso 4: se calcula para la situación Y = 2
𝑒 −1 𝑒 −1
𝑃(𝑌 = 2) = 𝑝(2) = = = 0.184
2! 2
Los valores fueron calculados para un e = 2.718.
Denote “Y” como cualquier variable aleatoria. La función de distribución de Y, denotada por
Definición: Si una variable aleatoria “Y” cuya función de distribución es F(y), se dice que es variable
aleatoria continua si F(y) es continua, -∞ < 𝑦 > ∞ +.
Sea 𝐹(𝑦) la función de distribución para una variable aleatoria continua Y. Entonces f(y) está dada
por
𝑑𝐹(𝑦)
𝑓(𝑦) = = 𝐹′(𝑦)
𝑑𝑦
Siempre que la derivada1 exista, se le denomina función de densidad de probabilidad para la
variable aleatoria (continua) Y.
Siendo f(y) una función de densidad para una variable aleatoria continua, entonces tiene las
siguientes propiedades
Si se observa las áreas correspondientes a la zona bajo las curvas, representan probabilidades para
variables aleatorias continuas y A1 = A2, se puede deducir que 𝑃(0 ≤ 𝑦 ≤ 2) = 𝑃(6 ≤ 𝑦 ≤ 8).
1
Si el estudiante no está familiarizado con el cálculo de derivadas se le recomienda revisar algún apunte de
cálculo que contenga el cálculo de derivadas.
Definición:
Si 𝜃1 < 𝜃2 , se dice que una variable aleatoria Y tiene distribución de Probabilidad Uniforme en el
intervalo (𝜃1 , 𝜃2 ) si y solo si la función de densidad de Y es
1
, 𝜃1 ≤ 𝑦 ≤ 𝜃2
𝜃2 − 𝜃1
𝑓(𝑦) =
{ 0 , 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜 (𝑜 𝑝𝑢𝑛𝑡𝑜)
Para el caso de la espera del autobús se puede considerar a 𝜃1 = 0 𝑦 𝜃2 = 10, porque estamos
interesados sólo en un intervalo particular de diez minutos.
Ejemplo: La llegada de clientes a una caja de un banco sigue una distribución de Poisson. Es sabido
que, durante un periodo determinado de 30 minutos, un cliente llega a la caja. Se solicita
encontrar la probabilidad de que el cliente llegue durante los últimos 5 minutos del periodo de 30
minutos.
Solución: sabemos que el tiempo real de llegada tiene distribución uniforme en el intervalo de 0 a
30. Denotamos a Y como el tiempo de llegada, se tiene que:
30
1 30 − 25 5 1
𝑃(25 ≤ 𝑌 ≤ 30) = ∫ 𝑑𝑦 = = =
25 30 30 30 6
1
La probabilidad de llegada de un cliente en los últimos 5 minutos es de 6, dado que es uniforme en
los otros tramos de 5 minutos es el mismo.
Definición: Una variable aleatoria continua Y tiene distribución normal de probabilidad si y sólo sí
para: 𝜎 > 0 𝑦 − ∞ < 𝜇 < +∞, la función de densidad de Y es:
1 2 /(2𝜎2 )
𝑓(𝑦) = 𝑒 −(𝑦−𝜇) , − ∞ < 𝑦 < +∞.
𝜎√2𝜋
Si La variable “Y” es aleatoria con distribución normal y parámetros 𝜇 𝑦 𝜎, entonces se cumple
que:
i) Es simétrica con respecto al eje vertical 𝑋 = 𝜇, ya que f(x) sólo depende de x mediante la
expresión (𝑥 − 𝜇)2 , lo que implica que: 𝑓(𝜇 + 𝑥) = 𝑓(𝜇 − 𝑥).
1
ii) Tiene su valor máximo en 𝑥 = 𝜇 (su moda). El valor máximo es: 𝑓(𝜇) =
𝜎 √2𝜋
Muestreo aleatorio simple: selecciona muestras mediante métodos que permiten que cada
posible muestra tenga una igual probabilidad de ser seleccionada y que cada elemento de la
población total tenga la misma posibilidad de ser incluido en la muestra.
Para una adecuada inferencia es necesario que la muestra sobre la cual se basa la inferencia, sea
representativa de la población, la recolección de datos debe ser adecuada y libre de sesgo. Los
datos deben ser ordenados e ingresados correctamente. Recordemos que “la inferencia
estadística, rama de la estadística que se ocupa del uso de los conceptos de probabilidad para
manejar la incertidumbre en la toma de decisiones. La inferencia estadística está basada en la
estimación, concepto que se introduce en este capítulo, y en las pruebas de hipótesis” (Levin et al.
2004, p. 274)
Estimador: todo estadístico de la muestra que sea utilizado para estimar un parámetro poblacional
se le denomina estimador, lo anterior quiere decir que un estimador es un estadístico de la
muestra utilizado para estimar un parámetro poblacional. La media de la muestra x̅ puede ser un
estimador de la media de la población μ.
Estimación: Al observar un valor numérico específico de él estimador, nos referimos a ese valor
como una estimación. Lo anterior quiere decir, que una estimación es un valor específico
observado de un estadístico. Se realiza una estimación cuando se toma una muestra y se calcula el
valor que toma dicho estimador en esa muestra.
Estimación puntual: Corresponde a un solo número que se utiliza para estimar un parámetro de
población desconocido.
Estimación por intervalo: Corresponde a un rango de valores que se utiliza para estimar un
parámetro de la población. Una estimación por intervalo indica el error de dos formas: a)
mediante extensión del intervalo y b) mediante la probabilidad de que el verdadero parámetro
poblacional se encuentre dentro.
a) Ser Insesgado: El término insesgado se refiere al hecho de que una media de la muestra es un
estimador no sesgado de una media de la población porque la media de la distribución muestral
de las medias de las muestras tomadas de la misma población es igual a la media de la población
misma.
b) Ser Eficiente: La eficiencia hace referencia al tamaño del error estándar del estadístico.
d) Suficiencia. Si utiliza tanta información de la muestra que ningún otro estimador puede extraer
información adicional acerca del parámetro de población que se está estimando.
𝑋̅ − 𝜇
𝑍= 𝜎
√𝑛
Z tiende a tener una distribución aproximadamente normal N(0,1), es decir media 0 y varianza 1
Suponiendo que el porcentaje de todos los trabajadores de Andina minerales que se han
capacitado es de 0.60 (𝑝 = 0.60), si se toma una muestra de 30 trabajadores se tiene que:
𝑁−𝑛 𝑝(1−𝑝)
Para una población finita2: 𝜎𝑝 = √ 𝑁−1 √ 𝑛
𝑝(1−𝑝)
Para una población infinita: 𝜎𝑝 = √ 𝑛
𝑛 = 100 (𝑚𝑢𝑒𝑠𝑡𝑟𝑎),
𝑥̅ = 21 𝑚𝑒𝑠𝑒𝑠 (𝑚𝑒𝑑𝑖𝑎 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎),
𝜎 = 6 𝑚𝑒𝑠𝑒𝑠(𝑑𝑒𝑠𝑣. 𝑒𝑠𝑡á𝑛𝑑𝑎𝑟 𝑃𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛)
Se busca el intervalo de confianza con un nivel de confianza del 95%, como el n es mayor que 30
usaremos la distribución normal como distribución de muestreo. Calculamos el error estándar de
la media:
𝜎 6 6
𝜎𝑥̅ = = = = 0.6 (𝑒𝑟𝑟𝑜𝑟 𝑒𝑠𝑡á𝑛𝑑𝑎𝑟 𝑚𝑒𝑑𝑖𝑎 𝑝𝑎𝑟𝑎 𝑝𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛 𝑓𝑖𝑛𝑖𝑡𝑎)
√𝑛 √100 10
1−𝛼 95
Como se trabaja con un nivel del 95% de confianza incluirá el 47.5% ( 2
= 2
= 47.5), del área
que se encuentra a ambos lados de la media de la distribución de muestreo, podemos buscar en el
cuerpo de la tabla de “Áreas bajo la curva de distribución de probabilidad normal estándar, entre
la media y valores positivos de z”3, el valor correspondiente a 0.475.
Al mirar la tabla se denota que 0.475 del área bajo la curva normal, está contenida entre la media
y un punto situado a 1.96 errores estándar a la derecha de la media. Se sabe que (2)*(0.475) =
𝑁−𝑛
2
√𝑁−1, se conoce como el factor de corrección
3
La Tabla se incluye al final del apunte.
= 21 − 1.18 𝑚𝑒𝑠𝑒𝑠
= 19 .82 𝑚𝑒𝑠𝑒𝑠 ← 𝑙𝑖𝑚𝑖𝑡𝑒 𝑖𝑛𝑓𝑒𝑟𝑖𝑜𝑟
Es posible señalar que se estimó la vida media de la población de productos Ac entre 19.82 y 22.18
meses con un 95% de confianza.
Sabemos que en una distribución binomial 𝜇 = 𝑛𝑝, muestra que la media de la distribución
binomial es igual al producto del número de ensayos, n, por la probabilidad de obtener un éxito p,
Para cambiar el número de éxitos a la proporción de éxitos, se divide “np” entre “n” y obtenemos
sólo el valor de p. Es así como. 𝜇 convierte en 𝜇𝑝 , es decir, en la media de la distribución de
muestreo de la proporción de éxitos. Quedando entonces:
𝜇𝑝 = 𝑝
Es posible estimar los parámetros de la población, para ello se deben sustituir los estadísticos
correspondientes de la muestra, 𝑝̂ 𝑦 𝑞̂, en la fórmula del error estándar de la proporción,
quedando:
𝑝̂ 𝑞̂
𝜎̂𝑝 = √
𝑛
(0.4) ∗ (0.6)
𝜎̂𝑝 = √
75
= √0.0032
= 0.057 (𝑒𝑟𝑟𝑜𝑟 𝑒𝑠𝑡á𝑛𝑑𝑎𝑟 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑜𝑝𝑜𝑟𝑐𝑖ó𝑛)
Un nivel de confianza del 99% incluiría 49.5% del área que se encuentra a cualquier lado de la
media de la distribución de muestreo. El cuerpo de la tabla de áreas bajo la curva, señala que
0.495 del área bajo la curva normal está localizada entre la media y un punto que se encuentra a
2.58 errores estándar de la media. Esto quiere decir que, 99% del área está contenida entre ±2.58
errores estándar de la media, dado lo anterior los límites de confinaza serían:
= 0.4 + 0.147
= 0.547 (𝑙𝑖𝑚𝑖𝑡𝑒 𝑠𝑢𝑝𝑒𝑟𝑖𝑜𝑟)
𝑝̂ − 2.58 𝜎̂𝑝 = 0.4 − 2.58 (0.057)
= 0.4 − 0.147
= 0.253 (𝑙í𝑚𝑖𝑡𝑒 𝑖𝑛𝑓𝑒𝑟𝑖𝑜𝑟)
Dado el resultado se puede estimar que a partir de la muestra de 75 operarios, con el 99% de
confianza, se cree que la proporción de la población total de empleados que desean establecer sus
propios planes de jubilación se encuentra en el intervalo 0.253 y 0.547.
𝑧𝜎 𝑁−𝑛
𝜀= √
√𝑛 𝑁 − 1
𝑧2𝜎2𝑁
𝑛= 2
𝜀 (𝑁 − 1) + 𝑧 2 𝜎 2
𝑝𝑞 𝑧 2 𝑝𝑞
𝜀 = 𝑧√ 𝑎𝑙 𝑒𝑙𝑒𝑣𝑎𝑟 𝑎𝑙 𝑐𝑢𝑎𝑑𝑟𝑎𝑑𝑜 𝑦 𝑑𝑒𝑠𝑝𝑒𝑗𝑎𝑟 𝑞𝑢𝑒𝑑𝑎 𝑛 = 2
𝑛 𝜀
Se debe recordar que el valor del error se busca minimizar mediante el aumento de n, en caso de
que no se cuente con el valor de la proporcion de la población, se pueden usar los siguientes
métodos:
a) Considerar una muestra preliminar mayor o igual a 30, para a partir de ella proporcionar una
estimación de P. Después con el uso de la fórmula se podría determinar de forma aproximada el
valor de n que se necesita.
Levin et al. (2004). Estadística para la administración y economía. 7ª Edición. Naucalpan de Juárez,
Mexico: Pearson Educación.
Montgomery, D. C., & Runger, G. C. (2012). Probabilidad y estadística. México: Limusa Wiley.
Walpole, R. E., Myers, R. H., & Myers, S. L. (1999). Probabilidad y estadística para ingenieros.
México: Prentice- Hall Hispanoamericana, S.A.