Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Nº 1
1) INTRODUCCIÓN
Estadística
Recopilar,
Presentar y
𝐄𝐬𝐭𝐚𝐝í𝐬𝐭𝐢𝐜𝐚 𝐃𝐞𝐬𝐜𝐫𝐢𝐩𝐭𝐢𝐯𝐚
𝑳𝐚 𝐄𝐬𝐭𝐚𝐝í𝐬𝐭𝐢𝐜𝐚 𝐬𝐞 𝐜𝐥𝐚𝐬𝐢𝐟𝐢𝐜𝐚 𝐞𝐧 {
𝐄𝐬𝐭𝐚𝐝í𝐬𝐭𝐢𝐜𝐚 𝐈𝐧𝐟𝐞𝐫𝐞𝐧𝐜𝐢𝐚𝐥
Estadística Descriptiva
Estadística Inferencial
Ejemplo:
Si lanzamos 5 veces una moneda, obtenemos 5 datos: cara, cara, sello, cara,
sello.
(2) Población
𝐅𝐢𝐧𝐢𝐭𝐚
𝑳𝐚 𝐩𝐨𝐛𝐥𝐚𝐜𝐢ó𝐧 𝐩𝐮𝐞𝐝𝐞 𝐬𝐞𝐫 {
𝐈𝐧𝐟𝐢𝐧𝐢𝐭𝐚
(3) Muestra
Es cada uno de los objetos sobre los que se realiza la observación de una o más
variables. Son los sujetos u objetos de estudio
(5) Variable
Es cada una de las características que poseen los objetos. Se denotan con las
letras X, Y, Z, etc.
𝐍𝐨𝐦𝐢𝐧𝐚𝐥
𝑪𝒖𝒂𝒍𝒊𝒕𝒂𝒕𝒊𝒗𝒂 {
𝐎𝐫𝐝𝐢𝐧𝐚𝐥
𝑳𝒂𝒔 𝒗𝒂𝒓𝒊𝒂𝒃𝒍𝒆𝒔 𝒔𝒆 𝒄𝒍𝒂𝒔𝒊𝒇𝒊𝒄𝒂𝒏 𝒆𝒏
𝐃𝐢𝐬𝐜𝐫𝐞𝐭𝐚
𝑪𝒖𝒂𝒏𝒕𝒊𝒕𝒂𝒕𝒊𝒗𝒂 {
{ 𝐂𝐨𝐧𝐭𝐢𝐧𝐮𝐚
Son aquellas que expresan una cualidad o atributo, sus datos se expresan
mediante palabras.
Ejemplos:
Ejemplos:
(6) Parámetro
𝐌𝐞𝐝𝐢𝐚 𝐩𝐨𝐛𝐥𝐚𝐜𝐢𝐨𝐧𝐚𝐥 ∶ 𝛍
𝐕𝐚𝐫𝐢𝐚𝐧𝐳𝐚 𝐩𝐨𝐛𝐥𝐚𝐜𝐢𝐨𝐧𝐚𝐥 ∶ 𝛔𝟐
𝑳𝒐𝐬 𝐏𝐚𝐫á𝐦𝐞𝐭𝐫𝐨𝐬 𝐦á𝐬 𝐮𝐬𝐚𝐝𝐨𝐬 𝐬𝐨𝐧
𝐃𝐞𝐬𝐯𝐢𝐚𝐜𝐢ó𝐧 𝐞𝐬𝐭á𝐧𝐝𝐚𝐫 𝐩𝐨𝐛𝐥𝐚𝐜𝐢𝐨𝐧𝐚𝐥: 𝛔 (𝐬𝐢𝐠𝐦𝐚)
{ 𝐏𝐫𝐨𝐩𝐨𝐫𝐜𝐢ó𝐧 𝐩𝐨𝐛𝐥𝐚𝐜𝐢𝐨𝐧𝐚𝐥 ∶ 𝐏
(7) Estadígrafo
𝐕𝐚𝐫𝐢𝐚𝐧𝐳𝐚 𝐦𝐮𝐞𝐬𝐭𝐫𝐚𝐥: 𝐬𝟐
𝐋𝐨𝐬 𝐄𝐬𝐭𝐚𝐝í𝐠𝐫𝐚𝐟𝐨𝐬 𝐦á𝐬 𝐮𝐬𝐚𝐝𝐨𝐬 𝐬𝐨𝐧
𝐃𝐞𝐬𝐯𝐢𝐚𝐜𝐢ó𝐧 𝐞𝐬𝐭á𝐧𝐝𝐚𝐫 𝐦𝐮𝐞𝐬𝐭𝐫𝐚𝐥: 𝐬
{𝐏𝐫𝐨𝐩𝐨𝐫𝐜𝐢ó𝐧 𝐦𝐮𝐞𝐬𝐭𝐫𝐚𝐥: 𝐩
Se utilizan para presentar los datos obtenidos en alguna investigación en forma clara
y ordenada. Son auto-explicativas
¿ 𝐐𝐮é?
¿ 𝐃ó𝐧𝐝𝐞?
𝐓í𝐭𝐮𝐥𝐨 {
¿ 𝐂ó𝐦𝐨?
¿ 𝐂𝐮á𝐧𝐝𝐨?
𝑷𝐚𝐫𝐭𝐞𝐬 𝐝𝐞 𝐮𝐧𝐚 𝐃𝐢𝐬𝐭𝐫𝐢𝐛𝐮𝐜𝐢ó𝐧 𝐝𝐞 𝐟𝐫𝐞𝐜𝐮𝐞𝐧𝐜𝐢𝐚 𝐂𝐮𝐞𝐫𝐩𝐨
𝐂𝐮𝐚𝐝𝐫𝐨 {𝐄𝐧𝐜𝐚𝐛𝐞𝐳𝐚𝐦𝐢𝐞𝐧𝐭𝐨
𝐂𝐨𝐥𝐮𝐦𝐧𝐚 𝐦𝐚𝐭𝐫𝐢𝐳
𝐈𝐧𝐝𝐢𝐜𝐚𝐜𝐢𝐨𝐧𝐞𝐬 𝐅𝐮𝐞𝐧𝐭𝐞
{𝐍𝐨𝐭𝐚
{𝐜𝐨𝐦𝐩𝐥𝐞𝐦𝐞𝐧𝐭𝐚𝐫𝐢𝐚𝐬
𝐂𝐨𝐦𝐞𝐧𝐭𝐚𝐫𝐢𝐨
(2) El cuerpo. Está formado por un conjunto de filas y columnas que contienen
respectivamente, las series horizontales y verticales de información.
(b) Notas: Son colocadas al pie del cuadro para esclarecimientos de orden
general.
(c) Comentarios. También colocadas al pie del cuadro, sirven para aclarar
minucias en relación a las celdas, columnas, filas.
Ejemplo
Formas genéricas:
𝒄𝑴 𝑛𝑀 𝑓𝑀
Total 𝑛 1
𝑥1 𝑛1 𝑓1 𝑵𝟏 = 𝒏 𝟏 𝑭𝟏 = 𝒇𝟏
𝑥2 𝑛2 𝑓2 𝑵𝟐 = 𝒏 𝟏 + 𝒏 𝟐 𝑭𝟐 = 𝒇𝟏 + 𝒇𝟐
⋮ ⋮ ⋮ ⋮⋮ ⋮
𝑥𝑀 𝑛𝑀 𝑓𝑀 𝑵𝑴 = 𝒏 𝟏 + ⋯ + 𝒏 𝑴 = 𝒏 𝑭 𝑴 = 𝒇 𝟏 + ⋯ + 𝒇 𝑴 = 𝟏
Total 𝑛 1
𝐼1 𝑦1 𝑛1 𝑓1 𝑁1 = 𝑛1 𝐹1 = 𝑓1
𝐼2 𝑦2 𝑛2 𝑓2 𝑁2 = 𝑛1 + 𝑛2 𝐹2 = 𝑓1 + 𝑓2
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
𝐼𝑀 𝑦𝑀 𝑛𝑀 𝑓𝑀 𝑁𝑀 = 𝑛1 + ⋯ + 𝑛𝑀 = 𝑛 𝐹𝑀 = 𝑓1 + ⋯ + 𝑓𝑀 = 1
Total 𝑛 1
Donde:
Tipos de frecuencias
𝑛1 + 𝑛2 + ⋯ + 𝑛𝑀 = ∑ 𝑛𝑖 = 𝑛
𝑖=1
𝑁𝑖 = 𝑛1 + 𝑛2 + ⋯ + 𝑛𝑖 = ∑ 𝑛𝑗
𝑗=1
𝑛𝑖
𝑓𝑖 =
𝑛
𝑓1 + 𝑓2 + ⋯ + 𝑓𝑀 = ∑ 𝑓𝑖 = 1
𝑖=1
𝑖
𝑁𝑖
𝐹𝑖 = = 𝑓1 + 𝑓2 + ⋯ + 𝑓𝑖 = ∑ 𝑓𝑗
𝑛
𝑗=1
Femenino 19 47,5%
Masculino 21 52,5%
Total 40 100,0%
0 4 10% 4 10%
1 11 27,5% 15 37,5%
2 12 30% 27 67,5%
3 11 27,5% 38 95%
4 2 5% 40 100%
Total 40 100,0%
20 21 22 22 24 24 25 26 28 28
28 29 30 30 30 31 31 32 32 33
33 35 36 38 38 39 40 40 42 44
45 45 46 48 54 58 60 60 62 65
𝒍𝒐𝒈(𝒏)
𝟏+ ≈ 𝟏 + 𝟑, 𝟑 ∙ 𝒍𝒐𝒈(𝒏) = 𝟏 + 𝟑, 𝟑 ∙ 𝒍𝒐𝒈(𝟒𝟎) = 𝟔, 𝟐𝟖𝟔𝟕𝟗𝟕𝟗𝟕 …
𝒍𝒐𝒈(𝟐)
↑
𝑹 𝟒𝟓 ⏞ 𝟐𝟖𝟓𝟕𝟏𝟒𝟐𝟗 …
= = 𝟔, (𝟒)
𝑴 𝟕
Por lo tanto, la amplitud común es: 𝑨 = 𝟔, 𝟓 , ya que, los datos tienen cero
decimal. Y la amplitud deberá tener un decimal más que los datos
𝑹
Si la división es exacta, la amplitud es igual a 𝑴
Acumulados
TOTAL 40 100,0
Edad Edad
Estos dan una idea mucho más sintética que las “tablas”. Algunas veces su finalidad
es simplemente tratar de mostrar a otras personas la evolución de determinado
fenómeno, pues mientras que la interpretación de una “tabla” requiere ciertos
conocimientos, cualquiera puede comprender fácilmente que una línea ascendente
indica un aumento del fenómeno estudiado.
(1) El título
Algunos gráficos
𝜶𝒊 = 𝒇𝒊 ∙ 𝟑𝟔𝟎°
Suministra información sobre los valores mínimo y máximo, los percentiles P25,
P50, y P75, y sobre la existencia de valores atípicos y la asimetría de la distribución.
𝐌𝐞𝐝𝐢𝐚 𝐀𝐫𝐢𝐭𝐦é𝐭𝐢𝐜𝐚
𝐌𝐞𝐝𝐢𝐚 𝐆𝐞𝐨𝐦é𝐭𝐫𝐢𝐜𝐚
𝐂𝐞𝐧𝐭𝐫𝐚𝐥 {𝐏𝐫𝐨𝐦𝐞𝐝𝐢𝐨𝐬 {
𝐌𝐞𝐝𝐢𝐚 𝐀𝐫𝐦ó𝐧𝐢𝐜𝐚
𝐃𝐞 𝐏𝐨𝐬𝐢𝐜𝐢ó𝐧 𝐌𝐞𝐝𝐢𝐚 𝐂𝐮𝐚𝐝𝐫á𝐭𝐢𝐜𝐚
𝐂𝐮𝐚𝐫𝐭𝐢𝐥𝐞𝐬
𝐍𝐨 𝐜𝐞𝐧𝐭𝐫𝐚𝐥 { 𝐂𝐮𝐚𝐧𝐭𝐢𝐥𝐞𝐬 {𝐃𝐞𝐜𝐢𝐥𝐞𝐬
{ 𝐏𝐞𝐫𝐜𝐞𝐧𝐭𝐢𝐥𝐞𝐬
𝐑𝐚𝐧𝐠𝐨
𝐌𝐞𝐝𝐢𝐝𝐚𝐬 𝐞𝐬𝐭𝐚𝐝í𝐬𝐭𝐢𝐜𝐚𝐬 𝐃𝐞𝐬𝐯𝐢𝐚𝐜𝐢ó𝐧 𝐦𝐞𝐝𝐢𝐚
𝐀𝐛𝐬𝐨𝐥𝐮𝐭𝐚 {
𝐕𝐚𝐫𝐢𝐚𝐧𝐳𝐚
𝐃𝐞 𝐃𝐢𝐬𝐩𝐞𝐫𝐬𝐢ó𝐧 𝐃𝐞𝐬𝐯𝐢𝐚𝐜𝐢ó𝐧 𝐞𝐬𝐭á𝐧𝐝𝐚𝐫
𝐂𝐨𝐞𝐟𝐢𝐜𝐢𝐞𝐧𝐭𝐞 𝐝𝐞 𝐝𝐢𝐬𝐩𝐚𝐫𝐢𝐝𝐚𝐝
𝐑𝐞𝐥𝐚𝐭𝐢𝐯𝐚 { 𝐂𝐨𝐞𝐟𝐢𝐜𝐢𝐞𝐧𝐭𝐞 𝐝𝐞 𝐯𝐚𝐫𝐢𝐚𝐜𝐢ó𝐧
{ 𝐏𝐮𝐧𝐭𝐚𝐣𝐞 𝐙
𝐀𝐬𝐢𝐦𝐞𝐭𝐫í𝐚
{𝐃𝐞 𝐅𝐨𝐫𝐦𝐚 {𝐂𝐮𝐫𝐭𝐨𝐬𝐢𝐬
Nos facilitan información sobre los datos que estamos analizando. Estas medidas
permiten conocer diversas características de los datos.
Nos dan el valor que ocupa una determinada “posición" respecto al resto de la
muestra.
3°) Debe ser fácil de comprender (no debe tener un carácter abstracto) y de
interpretar.
Tipos
Medidas de posición central: informan sobre los valores medios de los datos.
(1.1.1) Promedio
Ejemplo
Los pesos en kilogramos de seis trabajadores son: 84, 91, 72, 68, 87 y 78.
Hallar el peso medio.
𝑥1 + 𝑥2 + ⋯ + 𝑥𝑛 84 + 91 + 72 + 68 + 87 + 78
𝑥̅ = = = 80 𝑘𝑔
𝑛 6
𝑀 𝑀
𝑛1 𝑦1 + 𝑛2 𝑦2 + ⋯ + 𝑛𝑀 𝑦𝑀 1
𝑦̅ = = ∑ 𝑛𝑖 𝑦𝑖 = ∑ 𝑛𝑖 𝑓𝑖
𝑛 𝑛
𝑖=1 𝑖=1
Ejemplo:
La suma de las desviaciones de los números 84, 91, 72, 68, 87, 78 de
su media aritmética 80 es igual a 0, en efecto:
(84 − 80) + (91 − 80) + (72 − 80) + (68 − 80) + (87 − 80) + (78 − 80)
= 4 + 11 − 8 − 12 + 7 − 2 = 0
∑(𝑥𝑖 − 𝑥̅ )2 ; es mínimo
𝑦𝑖 = 𝐴 + 𝑥𝑖 ⟹ 𝑦̅ = 𝐴 + 𝑥̅
𝑦𝑖 = 𝐴 ∙ 𝑥𝑖 ⟹ 𝑦̅ = 𝐴 ∙ 𝑥̅
𝑛
𝑛 𝑛 𝑛
𝑥̅𝐺 = √𝑥1 1 ∙ 𝑥2 2 ∙ … ∙ 𝑥𝑀𝑀
1 𝑛
𝑥̅ 𝐻 = = 𝑛
1 𝑛1 𝑛2 𝑛𝑀 ∑ 𝑖
𝑛 (𝑥1 + 𝑥2 + ⋯ + 𝑥𝑀 ) 𝑥𝑖
Se usa cuando las unidades de los valores son cuocientes (m/seg; km/hr,
etc).
𝑛1 𝑥12 + 𝑛2 𝑥22 + ⋯ + 𝑛𝑀 𝑥𝑀
2
𝑥̅ 𝐶 = √
𝑛
NOTA
𝑥̅𝐻 ≤ 𝑥̅𝐺 ≤ 𝑥̅
(1.1.2) Mediana
𝑛+1
2 º ) Ubicar la posición de la mediana, usando: 2
E je mpl o: 2, 3, 4, 4, 5, 5, 5, 6, 6
𝑛+1 9+1
= = 5 → 𝐿𝑎 𝑀𝑒 𝑜𝑐𝑢𝑝𝑎 𝑙𝑎 5𝑡𝑎 𝑝𝑜𝑠𝑖𝑐𝑖ó𝑛 ⟹ 𝑀𝑒 = 5
2 2
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 22
𝑛+1 6+1
= = 3,5 → 𝐿𝑎 𝑀𝑒 𝑒𝑠𝑡á 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎 3𝑟𝑎 𝑦 𝑙𝑎 4𝑡𝑎 𝑝𝑜𝑠𝑖𝑐𝑖ó𝑛
2 2
𝐴𝑀𝑒
𝑀𝑒 = 𝐿𝐼𝑀𝑒 + ∙ (50% ∙ 𝑛 − 𝑁𝑀𝑒 −1 )
𝑛𝑀𝑒
Donde :
𝑳𝑰𝑴𝒆 , 𝑒𝑠 𝑒𝑙 𝑙í𝑚𝑖𝑡𝑒 𝑖𝑛𝑓𝑒𝑟𝑖𝑜𝑟 𝑑𝑒 𝑙𝑎 𝑐𝑙𝑎𝑠𝑒 𝑑𝑜𝑛𝑑𝑒 𝑠𝑒 𝑒𝑛𝑐𝑢𝑒𝑛𝑡𝑟𝑎 𝑙𝑎 𝑚𝑒𝑑𝑖𝑎𝑛𝑎.
Propiedad
(1.1.3) Moda
Ejemplo
Ha l l a r la moda de la distribución:
2, 3, 3, 4, 4, 4, 5, 5 𝑀0 = 4
Ejemplo
1, 1, 1, 4, 4, 5, 5, 5, 7, 8, 9, 9, 9 𝑀0 = 1; 5 𝑦 9. TRI MO D AL
Ejemplo
2, 2, 3, 3, 6, 6, 9, 9
Ejemplo
0, 1, 3, 3, 5, 5, 7, 8 𝑀0 = 4
𝑛𝑀0 − 𝑛𝑀0−1
𝑀0 = 𝐿𝐼𝑀0 + 𝐴𝑀0 ∙
(𝑛𝑀0 − 𝑛𝑀0−1 ) + (𝑛𝑀0 − 𝑛𝑀0 +1 )
𝑛𝑀0+1
𝑀0 = 𝐿𝐼𝑀0 + 𝐴𝑀0 ∙
𝑛𝑀0−1 + 𝑛𝑀0 +1
ℎ𝑀0 − ℎ𝑀0−1
𝑀0 = 𝐿𝐼𝑀0 + 𝐴𝑀0 ∙
(ℎ𝑀0 − ℎ𝑀0−1 ) + (ℎ𝑀0 − ℎ𝑀0 +1 )
ℎ𝑀0+1
𝑀0 = 𝐿𝐼𝑀0 + 𝐴𝑀0 ∙
𝑛𝑀0−1 + 𝑛𝑀0 +1
Estas 3 medidas de posición central son muy usuales. ¿Cuando las utilizamos?
𝑀0 ≈ 3𝑀𝑒 − 2𝑥̅
Observe que:
̅ = 𝑴𝟎 = 𝑴𝒆 , la distribución es simétrica
Si 𝒙
(1.2.1) Percentil al k%
Se representa por P k .
𝑘
𝑃𝑜𝑠 = (𝑛 + 1) ∙ ; 𝑘 = 1,2, … , 99
100
3 º ) Aplicar la fórmula:
𝐴𝑃𝑘
𝑃𝑘 = 𝐿𝐼𝑃𝑘 + ∙ (𝑘% ∙ 𝑛 − 𝑁𝑃𝑘−1 )
𝑛𝑃𝑘
Donde :
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 27
𝒌% ∙ 𝒏, 𝑒𝑠 𝑙𝑎 𝑢𝑏𝑖𝑐𝑎𝑐𝑖ó𝑛 𝑑𝑒 𝑃𝑘 .
TOTAL 40 100
Solución
(2) Mediana:
1º) 𝒌% ∙ 𝒏 = 𝟓𝟎% ∙ 𝟒𝟎 =
𝟐𝟎 𝑎𝑣𝑎 𝑢𝑏𝑖𝑐𝑎𝑐𝑖ó𝑛, 𝑙𝑎 𝑚𝑒𝑑𝑖𝑎𝑛𝑎 𝑝𝑒𝑟𝑡𝑒𝑛𝑒𝑐𝑒 𝑎𝑙 𝑡𝑒𝑟𝑐𝑒𝑟 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜
𝐴𝑀𝑒 6,5
2º) 𝑀𝑒 = 𝐿𝐼𝑀𝑒 + 𝑛 ∙ (50% ∙ 𝑛 − 𝑁𝑀𝑒−1 ) = 33 + ∙ (20 − 19) = 33,9286
𝑀𝑒 7
La mediana es 33,93 años, ya que por debajo está el 50% de las edades
3) Moda:
𝑛𝑀0 − 𝑛𝑀0−1 11 − 8
𝑀0 = 𝐿𝐼𝑀0 + 𝐴𝑀0 ∙ = 26,5 + 6,5 ∙
(𝑛𝑀0 − 𝑛𝑀0−1 ) + (𝑛𝑀0 − 𝑛𝑀0 +1 ) (11 − 8) + (11 − 7)
= 29,2857 ≈ 29,3
𝑛𝑀0+1 8
𝑀0 = 𝐿𝐼𝑀0 + 𝐴𝑀0 ∙ = 26,5 + 6,5 ∙ = 29,5333 ≈ 29,5
𝑛𝑀0−1 + 𝑛𝑀0 +1 8+7
4) Percentil 25
1º) 𝒌% ∙ 𝒏 = 𝟐𝟓% ∙ 𝟒𝟎 =
𝟏𝟎 𝑎𝑣𝑎 𝑢𝑏𝑖𝑐𝑎𝑐𝑖ó𝑛, 𝑒𝑙 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑖𝑙 25 𝑝𝑒𝑟𝑡𝑒𝑛𝑒𝑐𝑒 𝑎𝑙 2𝑑𝑜. 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜
𝐴𝑃25 6,5
2º) 𝑄1 = 𝑃25 = 𝐿𝐼𝑃25 + 𝑛 ∙ (25% ∙ 𝑛 − 𝑁𝑃25−1 ) = 26,5 + 11 ∙ (10 − 8) =
𝑃25
27,6818 ≈ 27,7
5) Percentil 75
1º) 𝒌% ∙ 𝒏 = 𝟕𝟓% ∙ 𝟒𝟎 =
𝟑𝟎 𝑎𝑣𝑎 𝑢𝑏𝑖𝑐𝑎𝑐𝑖ó𝑛, 𝑒𝑙 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑖𝑙 75 𝑝𝑒𝑟𝑡𝑒𝑛𝑒𝑐𝑒 𝑎𝑙 4𝑡𝑜. 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜
𝐴𝑃75 6,5
2º) 𝑃75 = 𝐿𝐼𝑃75 + 𝑛 ∙ (75% ∙ 𝑛 − 𝑁𝑃75 −1 ) = 39,5 + 11 ∙ (30 − 26) = 43,833 ≈ 43,8
𝑃75
El percentil 75 es 43,8 años, ya que, por debajo de ella se sitúa el 75% de las
edades.
Las medidas de posición central tenían como objetivo el resumir los datos en un valor
representativo, las medidas de dispersión nos dirán hasta que punto estas medidas
de posición central son representativas como resumen de la información. Las
medidas de dispersión cuantifican la separación, la dispersión, la variabilidad de los
valores de la distribución respecto a un valor central.
̅)𝟐 ∑ 𝒏𝒊 𝒙𝟐 − 𝒏𝒙
∑ 𝒏𝒊 (𝒙𝒊 − 𝒙 ̅𝟐 ̅̅̅𝟐
𝝈𝟐 = = =𝒙 −𝒙 ̅𝟐
𝒏 𝒏
(2) En el caso extremo en que todas las observaciones fueran iguales, la media
coincidiría con ese valor común y la varianza sería cero. En general, cuanto
más dispersas sean las observaciones, mayores serán las diferencias dentro
de los cuadrados y por lo tanto mayor será el valor de s2.
̅)𝟐 ∑ 𝒏𝒊 𝒙𝟐 − 𝒏𝒙
∑ 𝒏𝒊 (𝒙𝒊 − 𝒙 ̅𝟐
𝑺𝟐 = =
𝒏−𝟏 𝒏−𝟏
Propiedades de la varianza
2 2
2
(𝑛1 − 1) ∙ 𝑆12 + (𝑛2 − 1) ∙ 𝑆22 + 𝑛1 ∙ (𝑥̅1 − 𝑥̿𝑝 ) + 𝑛2 ∙ (𝑥̅2 − 𝑥̿𝑝 )
𝑆 =
𝑛−1
2
2
∑(𝑛𝑖 − 1) ∙ 𝑆𝑖2 ∑ 𝑛𝑖 ∙ (𝑥̅𝑖 − 𝑥̿ 𝑝 )
𝑆 = + = 𝐼𝑛𝑡𝑟𝑎𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 + 𝐼𝑛𝑡𝑒𝑟𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎
𝑛−1 𝑛−1
∑ 𝑛𝑖 |𝑦𝑖 − 𝑦̅|
𝑫𝒚̅ =
𝑛
Si 𝑫𝒚̅ toma valores grandes significa que los valores de la variable se distribuirán
en valores alejados de la media.
Ejemplo
LI i ; LSi yi ni fi N i Fi ni yi y
Total 40 393,25
393,25
𝑦̅ = 37,0625 𝑫𝒚̅ = = 9,83125
40
∑ 𝑛𝑖 |𝑦𝑖 − 𝑀𝑒 |
𝑫𝑴𝒆 =
𝑛
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 33
Ejemplo
LI i ; LSi yi ni fi N i Fi ni yi M e
Total 40 388,1428571
388,1428571
𝑀𝑒 = 33,9286 𝑫𝑴𝒆 = = 9,7035714
40
𝑹𝒆 = 𝒙𝒎á𝒙 − 𝒙𝑴í𝒏
Ejemplo: 𝑹𝒆 = 𝟔𝟓 − 𝟐𝟎 = 𝟒𝟓
𝑺
𝑪𝑽 =
|𝒙
̅|
Recomendación.
Ejemplo:
TOTAL 40 100
(1) Rango: Es la diferencia entre el máximo valor (65) y el mínimo valor (20). Luego
el rango de esta muestra es 45.
𝑆 = +√149,9063
Luego: 𝑆 = 12,2436
𝑺 𝟏𝟐, 𝟐𝟒𝟑𝟔
𝑪𝑽 = =
̅ 𝟑𝟕, 𝟎𝟔𝟐𝟓
𝒚
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 36
̅
𝒙𝒊 − 𝒙
𝒁𝒊 =
𝑺𝒙
̅
−𝒙 𝟏
Se trata de una transformación lineal: 𝒁𝒊 = 𝑨 + 𝑩𝒙𝒊 → 𝑨 = 𝒚𝑩=𝑺
𝑺𝒙 𝒙
Se la define por:
𝒙𝒎á𝒙
𝑪𝑫 =
𝒙𝒎í𝒏
I
Para medir el nivel de asimetría, tenemos:
̅) 𝟑
𝒎𝟑 ∑ 𝒏𝒊 (𝒙𝒊 − 𝒙
𝒈𝟏 = =
𝝈𝟑 𝒏𝝈𝟑
Ejemplo:
LI i ; LSi yi ni fi N i Fi X X n X X n
i
2
i i
3
i
̅)𝟑
∑ 𝒏𝒊 (𝒙𝒊 −𝒙 𝟓𝟔𝟑𝟎𝟔,𝟕𝟎𝟕𝟎
Luego: 𝒈𝟏 = = (𝟒𝟎)(𝟏𝟐,𝟎𝟖𝟗𝟔)𝟑 = 𝟎, 𝟕𝟗𝟔𝟔
𝒏𝝈𝟑
̅ − 𝑴𝟎
𝒙
𝑨𝑺 =
𝑺
Si 𝑨𝑺 = 𝟎 la distribución es simétrica.
̅) 𝟒
𝒎𝟒 ∑ 𝒏𝒊 (𝒙𝒊 − 𝒙
𝒈𝟐 = = −𝟑
𝝈𝟒 𝒏𝝈𝟒
g2 = 0 (distribución mesocúrtica)
Ejemplo:
LI i ; LSi yi ni fi N i Fi X X n X X n
i
2
i i
4
i
̅) 𝟒
∑ 𝒏𝒊 (𝒙𝒊 − 𝒙 𝟐𝟐𝟐𝟔𝟖𝟔𝟖, 𝟗𝟓𝟓𝟐
𝒈𝟐 = 𝟒
−𝟑= − 𝟑 = −𝟎, 𝟑𝟗𝟑𝟗
𝒏𝝈 (𝟒𝟎)(𝟏𝟐, 𝟎𝟖𝟗𝟔)𝟒
En este punto veremos como quedan afectadas algunas de las medidas de una
variable cuando le sumamos o multiplicamos alguna cantidad. Es decir, calculamos
una transformación lineal de la variable original, y de la que obtenemos queremos
saber cuanto vale su media, mediana, varianza y desviación típica.
Teorema 1.
̅, mediana
Supongamos que tenemos una muestra aleatoria 𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 con media 𝒙
𝑴𝒆𝑿 y desviación estándar 𝑺𝑿 y que hacemos una transformación lineal de los datos:
𝒚𝒊 = 𝑨 + 𝑩𝒙𝒊 , 𝒑𝒂𝒓𝒂 𝒊 = 𝟏, 𝟐, … , 𝒏
𝑴𝒆𝒅𝒊𝒂 → ̅ = 𝑨 + 𝑩𝒙
𝒚 ̅
𝑴𝒆𝒅𝒊𝒂𝒏𝒂 → 𝑴𝒆𝒀 = 𝑨 + 𝑩𝑴𝒆𝑿
𝑽𝒂𝒓𝒊𝒂𝒏𝒛𝒂 → 𝑺𝟐𝒀 = 𝑩𝟐 𝑺𝟐𝑿
Demostración de tarea.
Teorema 2.
̅ y desviación estándar 𝑺𝑿 , la
Dada la muestra aleatoria 𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 con media 𝒙
distribución de las variables estandarizadas:
̅
𝒙𝒊 − 𝒙
𝒚𝒊 = , 𝒑𝒂𝒓𝒂 𝒊 = 𝟏, 𝟐, … , 𝒏
𝑺𝑿
Demostración de tarea.
Nótese que:
̅
𝒙𝒊 − 𝒙
𝒚𝒊 = , 𝒑𝒂𝒓𝒂 𝒊 = 𝟏, 𝟐, … , 𝒏
𝑺𝑿
̅
𝒙𝒊 − 𝒙
𝒚𝒊 = ⟹
𝑺𝑿
̅ 𝟏
−𝒙
𝒚𝒊 = + ∙ 𝒙 𝒑𝒂𝒓𝒂 𝒊 = 𝟏, 𝟐, … , 𝒏
𝑺𝑿 𝑺𝑿 𝒊
𝑫𝒐𝒏𝒅𝒆:
̅
−𝒙
𝑨=
𝑺𝑿
𝟏
𝑩=
𝑺𝑿
1) En una Empresa donde los salarios tienen una media de $100.000 y una desviación
estándar de $10.000, el sindicato solicita que cada salario X, se transforme en Y,
mediante la siguiente relación: Y 2,5 X 10.000 . El Gerente acoge la petición
rebajando los salarios propuestos por el sindicato en 10%, lo que es aceptado. ¿Qué
distribución de salarios es más homogénea?. ¿Qué propuesta prefieren los
trabajadores?
Solución:
Luego:
Y 2,5 X 10.000 Y 2,5 X 10.000 2,5 100 .000 10.000 260 .000 y
s Y 2,5 s X 2,5 10.000 25.000
Por lo tanto,
CV Y
25.000
0,09615
260.000
Por lo tanto,
CV Z
22.500
0,09615
234.000
s 15.000
CV H 0,375 37,5%
H 40.000
s 12.000
CV M 0,4 40%
M 30.000
Luego, podemos concluir que los salarios de las mujeres presentan mayor dispersión
relativa que los salarios de los hombres.
s
i) 0,57 s 0,57 X (1)
X
s
ii ) 0,50 s 0,50 ( X 11.000) (2)
X 11.000
Además, esta media está compuesta por la ponderación de las medias de dos
grupos: 35 personas con ingreso medio de $40.000 y 165 personas con ingreso
35 40.000 165 x 2
78.571,43 x p 78.571,43 200 35 40.000 165 x 2
200
x 2 86.753,25
46 47 52 54 56 57 57 58 58 59
60 61 63 63 64 65 66 67 67 67
67 67 68 68 69 69 70 70 70 70
72 72 73 73 73 74 76 76 77 77
77 79 80 82 84 85 86 88 93 94
Solución:
n: número de observaciones 50
Media 69,32
Mediana 69,00
Moda 67
Varianza 116,671
Asimetría 0,135
Curtosis -0,003
Rango 48
Mínimo 46
Máximo 94
Percentiles 10 56,10
25 62,50
50 69,00
75 76,25
90 84,90
Comentarios
Solución
1 7
y MY
1
(1) La media ni yi 1482,5 37,0625
50 i1 50
7
n y
2
2
n y
60791 ,5 40 37 ,0625
i i 2
(2) La varianza s 2 VarY i 1
149 ,9063
40 1 40 1
60791,5 40 37,0625
2
(3) La desviación estándar s deY 149,9063 12,2436
40 1
deY 12,2436
(4) El Coeficiente de variación CV Y 0,3304 33,04%
y 37,0625
Como la edad de los empleados fue dado en años, podemos afirmar que la edad
promedio del grupo de 40 empleados es de 37,0625 años, con una desviación
estándar de 12,2436 años y un coeficiente de variación de 33,04%, este último
nos indica que la media aritmética es representativa y las edades son
homogéneos
Percentil 10
aP10
10% n N anterior 20 8 0 23,25
6,5
2º) D1 P10 LI P10
nP10 8
Percentil 25
aP25
25% n N anterior 26,5 10 8 27,6818
6,5
2º) Q2 P25 LI P25
nP25 11
Percentil 50
aP50
50% n N anterior 33 20 19 33,9286
6,5
2º) D5 Q2 P50 LI P 50
nP50 7
Percentil 75
aP75
75% n N anterior 39,5 30 26 43,8333
6,5
2º) Q3 P75 LI P75
nP75 6
Percentil 90
aP90
90% n N anterior 59 36 36 59,000
6,5
2º) D9 P90 LI P90
nP90 2
M 0 LI Mo a
ni ni1
26,5 6,5
11 8 29,2857
(6) La moda
ni ni1 ni ni1 11 8 11 7
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 48
ni1 8
Aproximadamente: M 0 LI Mo a 26,5 6,5 29,5333
ni1 ni1 87
6) Una empresa decide hacer un reajuste entre sus empleados. La clasificación se lleva
a cabo mediante la aplicación de un test que arroja las siguientes puntuaciones.
Clases Nº de empleados
[ 0 ; 30[ 94
[70 ; 90[ 98
[90 ; 100] 8
Total 500
Ejecutivos 5% 100%
Luego, tendremos que hallar los percentiles 65, 85 y 95. Los cálculos que
necesitamos son:
Clases ni Ni
[ 0 ; 30[ 94 94
Total 500
Percentil 65
aP65
65% n N anterior 50 325 234 61,37
20
2º) P65 LI P65
nP65 160
Percentil 85
aP85
85% n N anterior 70 425 394 76,33
20
2º) P85 hLI P85
nP85 98
Percentil 95
aP95
95% n N anterior 70 475 394 86,53
20
2º) P95 hLI P95
nP95 98
Pulsaciones [70 ; 75) [75 ; 80) [80 ; 85) [85 ; 90) [90 ; 95) [95 ; 100] Total
Nº de atletas 3 3 7 10 12 8 43
Se pide:
Solución:
xM
CA o 88,2 91,67 0,476 0
s 7,285
M
M
n x x
i i
3
9.195,65
CA 3 i 1 0,553 0
s 3 ns 3 43 7,285 3
Q Q P P
25 93,85 83,39 0,2597 0,263
CAP 3 1 75
2 P P 2 P P 97,31 77,17
90 10 90 10
1) INTRODUCCIÓN
Se simboliza por: 𝛀.
(3) Suceso
Nótese que:
𝐴𝑐 = {𝒘 ∈ 𝛀 / 𝒘 ∉ 𝑨}
Ejemplos:
(𝟏, 𝟏), (𝟏, 𝟐), (𝟏, 𝟑), (𝟏, 𝟒), (𝟏, 𝟓), (𝟏, 𝟔)
(𝟐, 𝟏), (𝟐, 𝟐), (𝟐, 𝟑), (𝟐, 𝟒), (𝟐, 𝟓), (𝟐, 𝟔)
(𝟑, 𝟏), (𝟑, 𝟐), (𝟑, 𝟑), (𝟑, 𝟒), (𝟑, 𝟓), (𝟑, 𝟔)
Espacio muestral asociado: 𝛀 =
(𝟒, 𝟏), (𝟒, 𝟐), (𝟒, 𝟑), (𝟒, 𝟒), (𝟒, 𝟓), (𝟒, 𝟔)
(𝟓, 𝟏), (𝟓, 𝟐), (𝟓, 𝟑), (𝟓, 𝟒), (𝟓, 𝟓), (𝟓, 𝟔)
{(𝟔, 𝟏), (𝟔, 𝟐), (𝟔, 𝟑), (𝟔, 𝟒), (𝟔, 𝟓), (𝟔, 𝟔)}
𝑨 ∪ 𝑩 = {𝒘 ∈ 𝛀 / 𝐰 ∈ 𝐀 ∨ 𝐰 ∈ 𝐁}
Unión de sucesos: 𝑨 ∪ 𝑩
𝑨 ∩ 𝑩 = {𝒘 ∈ 𝛀 / 𝐰 ∈ 𝐀 ∧ 𝐰 ∈ 𝐁}
Intersección de sucesos: 𝑨 ∩ 𝑩
𝑩 − 𝑨 = {𝒘 ∈ 𝛀 / 𝐰 ∈ 𝐁 ∧ 𝐰 ∉ 𝐀}
Diferencia de sucesos: 𝑩 − 𝑨
𝑨𝒙𝑩 = {(𝒘𝟏 , 𝒘𝟐 ) / 𝒘𝟏 ∈ 𝐀 ∧ 𝒘𝟐 ∈ 𝐁}
4) ALGEBRA DE SUCESOS
Intersección Unión
2) Asociativa 𝐴 ∩ (𝐵 ∩ 𝐶) = (𝐴 ∩ 𝐵) ∩ 𝐶 𝐴 ∪ (𝐵 ∪ 𝐶) = (𝐴 ∪ 𝐵) ∪ 𝐶
4) Simplificación 𝐴 ∩ (𝐴 ∪ 𝐵) = 𝐴 𝐴 ∪ (𝐴 ∩ 𝐵) = 𝐴
5) Distributiva 𝐴 ∩ (𝐵 ∪ 𝐶) = (𝐴 ∩ 𝐵) 𝐴 ∪ (𝐵 ∩ 𝐶) = (𝐴 ∪ 𝐵)
∪ (𝐴 ∩ 𝐶) ∩ (𝐴 ∪ 𝐶)
𝐴 ∩ 𝐴𝑐 = ϕ 𝐴 ∪ 𝐴𝑐 = Ω
9) Diferencia 𝐴 − 𝐵 = 𝐴 ∩ 𝐵𝑐
NOTA
(1) El suceso de que ocurra por lo menos uno de ellos se describe por el conjunto:
𝑛
𝐴1 ∪ 𝐴2 ∪ … ∪ 𝐴𝑛 = ⋃ 𝐴𝑖
𝑖=1
(2) El suceso de que ocurran todos ellos junto se describe por el conjunto
𝑛
𝐴1 ∩ 𝐴2 ∩ … ∩ 𝐴𝑛 = ⋂ 𝐴𝑖
𝑖=1
𝑛 𝑐 𝑛 𝑛 𝑐 𝑛
(⋃ 𝐴𝑖 ) = ⋂(𝐴𝑖 )𝑐 𝑦 (⋂ 𝐴𝑖 ) = ⋃(𝐴𝑖 )𝑐
𝑖=1 𝑖=1 𝑖=1 𝑖=1
Regla de multiplicación
Si una operación puede realizarse de 𝒏𝟏 formas y por cada una de estas una
segunda operación puede realizarse de 𝒏𝟐 formas, entonces, las dos
operaciones pueden realizarse de 𝒏𝟏 ∙ 𝒏𝟐 formas; y así sucesivamente
Regla de adición
𝒏 (⋃ 𝑨𝒊 ) = ∑ 𝒏(𝑨𝒊 )
𝒊=𝟏 𝒊=𝟏
(2) Variaciones
A Variaciones simples
n!
Vkn
n k !
𝑽𝑹𝒏𝑲 = 𝒏𝒌
Ejemplo
(3) Permutaciones
A Permutaciones simples
𝑷𝒏 = 𝑽𝒏𝒏 = 𝒏!
B Permutaciones circulares
(4) Combinaciones
A Combinaciones simples
𝒏+𝒌−𝟏 (𝒏 + 𝒌 − 𝟏)!
𝑪𝑹𝒏𝒌 = ( )=
𝒌 𝒌! ∙ (𝒏 − 𝟏)!
6) PROBABILIDAD DE UN SUCESO
Axioma 2: 𝑷(𝛀) = 𝟏
Entonces:
𝒏 𝒏
𝑷 (⋃ 𝑨𝒊 ) = ∑ 𝑷(𝑨𝒊 )
𝒊=𝟏 𝒊=𝟏
𝑷(𝑨) + 𝑷(𝑨𝒄 ) = 𝟏
Demostración
Demostración
Por el ax. 3, se tiene, 𝑷(𝑩) = 𝑷(𝑨) + 𝑷(𝑩 − 𝑨) o 𝑷(𝑩) − 𝑷(𝑨) = 𝑷(𝑩 − 𝑨).
Además por ax. 1 𝑷(𝑩 − 𝑨) ≥ 𝟎, de donde resulta 𝑷(𝑩) − 𝑷(𝑨) ≥ 𝟎, o 𝑷(𝑩) ≥ 𝑷(𝑨)
Demostración
NOTAS:
𝒌 ≤ 𝒏 se tiene que:
𝒌
𝒌
𝑷(𝑨) = ∑ 𝑷(𝑨𝒊 ) =
𝒏
𝒊=𝟏
EJEMPLOS RESUELTOS
Solución:
= Estudiantes de Ingeniería
A = Cursan matemática
B = Cursan estadística
𝟏𝟎𝟎 𝟖𝟎 𝟑𝟎
̅
𝑷(𝑨) = 𝟑𝟎𝟎 = 𝟎, 𝟑 ̅ 𝑷(𝑨 ∩ 𝑩) =
𝑷(𝑩) = 𝟑𝟎𝟎 = 𝟎, 𝟐𝟔 = 𝟎, 𝟎𝟏
𝟑𝟎𝟎
𝟏𝟓𝟎
a) 𝑷(𝑨 ∪ 𝑩) = 𝑷(𝑨) + 𝑷(𝑩) − 𝑷(𝑨 ∩ 𝑩) = 𝟑𝟎𝟎 = 𝟎, 𝟓
b) 𝑷(𝑨𝒄 ) = 1 − 𝑃(𝐴) = 1 − 0, 3̅ = 0, 6̅
2) Una caja contiene 220 tornillos iguales, de los cuales 80 son producidos por la
máquina A, 60 por la máquina B, 50 por la máquina C y 30 por la máquina D. Si se
elige un tornillo al azar de la caja. ¿Cuál es la probabilidad que el tornillo elegido haya
sido producido por las máquinas A o C?
𝟖𝟎 𝟓𝟎 𝟏𝟑𝟎
𝑷(𝑨 ∪ 𝑪) = 𝑷(𝑨) + 𝑷(𝑪) = + = ̅̅̅̅
= 𝟎, 𝟓𝟗𝟎
𝟐𝟐𝟎 𝟐𝟐𝟎 𝟐𝟐𝟎
𝐀𝐝𝐞𝐦á𝐬: 𝛀 = {𝑨, 𝑩, 𝑪, 𝑫}
𝟖𝟎 𝟔𝟎 𝟓𝟎 𝟑𝟎
𝑷(𝑨 ∪ 𝑩 ∪ 𝑪 ∪ 𝑫) = 𝑷(𝑨) + 𝑷(𝑩) + 𝑷(𝑪) + 𝑷(𝐃) = + + + =𝟏
𝟐𝟐𝟎 𝟐𝟐𝟎 𝟐𝟐𝟎 𝟐𝟐𝟎
Solución.
⟹ 𝑷(𝑨𝒄 ) = 𝟏 − 𝑷(𝑨) = 𝟏 − 𝟎, 𝟒 = 𝟎, 𝟔
Solución.
𝟒 𝟏𝟑 𝟒 𝟏𝟑 𝟒
𝑷(𝑨 ∪ 𝑩) = 𝑷(𝑨) + 𝑷(𝑩) − 𝑷(𝐀 ∩ 𝐁) = + − ∙ =
𝟓𝟐 𝟓𝟐 𝟓𝟐 𝟓𝟐 𝟏𝟑
Solución.
𝟖 𝟏𝟑 𝟒
𝑷(𝑯) = 𝟐𝟔 𝑷(𝑰) = 𝟐𝟔 𝑷(𝑯 ∩ 𝑰) = 𝟐𝟔
𝟖 𝟏𝟑 𝟒 𝟏𝟕
𝑷(𝑯 ∪ 𝑰) = 𝑷(𝑯) + 𝑷(𝑰) − 𝑷(𝑯 ∩ 𝑰) = + − =
𝟐𝟔 𝟐𝟔 𝟐𝟔 𝟐𝟔
Solución:
Trabajadores de la empresa
𝑷(𝑨 ∪ 𝑩 ∪ 𝑪) = 𝟎, 𝟑 + 𝟎, 𝟐 + 𝟎, 𝟏𝟓 − 𝟎, 𝟏𝟐 − 𝟎, 𝟎𝟗 − 𝟎, 𝟎𝟔 + 𝟎, 𝟎𝟑 = 𝟎, 𝟒𝟏
7) PROBABILIDAD CONDICIONAL
𝑷(𝑨 ∩ 𝑩)
𝑷(𝑩⁄𝑨) = ; 𝒔𝒊 𝑷(𝑨) ≠ 𝟎
𝑷(𝑨)
NOTAS
#(𝑨 ∩ 𝑩)
𝑷(𝑩⁄𝑨) = ; 𝒔𝒊 #(𝑨) ≠ 𝟎
#(𝑨)
4) Si 𝑨 ∩ 𝑩 = 𝝓, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠: 𝑷(𝑩⁄𝑨) = 𝟎
𝑷(𝑨)
5) Si 𝑨 ⊂ 𝑩, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠: 𝑷(𝑩⁄𝑨) = 𝑷(𝑨) = 𝟏
𝑷(𝑩)
6) Si 𝑩 ⊂ 𝑨, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠: 𝑷(𝑩⁄𝑨) = 𝑷(𝑨)
𝝓
7) Si 𝑷(𝑩) > 𝟎 ⟹ 𝑷 ( ⁄𝑩) = 𝟎
𝒄
8) 𝑷 (𝑨 ⁄𝑩) = 𝟏 − 𝑷(𝑨⁄𝑩)
Ejemplo
Un club consiste de 150 socios. Del total, 3/5 son hombres y 2/3 son profesionales.
Además, 1/3 de las mujeres son no profesionales.
b1) Si las 3 son mujeres, ¿cuál es la probabilidad de que al menos una de ellas
sea profesional?
b2) Si resultan ser del mismo sexo, ¿cuál es la probabilidad de que sean mujeres
Solución.
El espacio muestral 𝛀 consiste de los 150 socios del club que son clasificados en:
Hombre (H), Mujer (M), Profesional (P), y No profesional (NP), vea la tabla siguiente.
Hombre (H) 60 30 90
Mujer (M) 40 20 60
#(𝑯∩𝑷) 𝟔𝟎
a1) 𝑷(𝑯 ∩ 𝑷) = = 𝟏𝟓𝟎 = 𝟎, 𝟒
#(𝛀)
#(𝑯 ∩ 𝑷) 𝟔𝟎
𝑷(𝑯⁄𝑷) = = = 𝟎, 𝟔
𝑷(𝐏) 𝟏𝟎𝟎
b1) Sean los sucesos A: “las 3 son mujeres” y B: “al menos una es profesional
𝑩 #(𝑨 ∩ 𝑩) 𝑪𝟒𝟎 𝟐𝟎 𝟒𝟎 𝟐𝟎 𝟒𝟎 𝟐𝟎
𝟏 ∙ 𝑪𝟐 + 𝑪𝟐 ∙ 𝑪𝟏 + 𝑪𝟑 ∙ 𝑪𝟎 𝑪𝟒𝟎 𝟐𝟎
𝟎 ∙ 𝑪𝟑
𝑷( ⁄𝑨) = = =𝟏−
#(𝑨) 𝑪𝟔𝟎 𝟑 𝑪𝟔𝟎 𝟑
= 𝟎, 𝟗𝟔𝟔𝟔𝟖𝟔
b2) Sean los sucesos A: “los 3 son del mismo sexo” y B: “las 3 son mujeres”.
Observar que el suceso A es “los 3 son H o los 3 son M”, y que 𝑩 ⊂ 𝑨, luego,
𝑩∩𝑨=𝑩
Entonces, #𝑨 = 𝑪𝟗𝟎 𝟔𝟎
𝟑 + 𝑪𝟑 = 𝟏𝟓𝟏. 𝟕𝟎𝟎, y considerando el espacio muestral
reducido A, se tiene:
8) SUCESOS INDEPENDIENTES
Generalizando esta definición para n sucesos: se dice que n sucesos A1, A2, ... An
son mutuamente independientes si y sólo si:
𝒏 𝒏
𝑷 (⋃ 𝑨𝒊 ) = ∏ 𝑷(𝑨𝒊 )
𝒊=𝟏 𝒊=𝟏
a) 𝑨 𝒚 𝑩𝒄 son independientes
b) 𝑨𝒄 𝒚 𝑩 son independientes.
c) 𝑨𝒄 𝒚 𝑩𝒄 son independientes
Demostraciones (Ejercicio)
Demostración c).
Ejemplo
Solución.
Sea R; suceso de vender los refrigeradores dentro de un mes, entonces: P(R) = 0,25
Luego calculamos:
9) TEOREMA DE LA MULTIPLICACIÓN
𝑷(𝑨∩𝑩)
Generalmente en la expresión: 𝑷(𝑨⁄𝑩) = , 𝑷(𝑨 ∩ 𝑩) = 𝑷(𝑩 ∩ 𝑨) resulta muy
𝑷(𝑩)
En general:
𝒏
𝑨
𝑷 (⋂ 𝑨𝒊 ) = 𝑷(𝑨𝒊 ) ∙ 𝑷 ( 𝒊⁄ 𝒏−𝟏 )
⋂𝒊=𝟏 𝑨𝒊
𝒊=𝟏
Ejemplos
1) Supongamos que en una urna hay 7 bolas del mismo tamaño, de los cuales 4 son
blancas y 3 son rojas. Se extraen sucesivamente dos bolas al azar sin reemplazo.
¿Cuál es la probabilidad de que la primera bola extraída sea blanca y la segunda
sea roja?
Solución.
𝟒 𝟑 𝟐
⟹ 𝑷(𝑩 ∩ 𝑹) = 𝑷(𝑩) ∙ 𝑷(𝑹⁄𝑩) = ∙ = = 𝟎, 𝟐𝟖𝟓𝟕
𝟕 𝟔 𝟕
Solución.
𝑨𝟐 𝑨 𝟕 𝟔 𝟓
𝑷(𝑨𝟏 ∩ 𝑨𝟐 ∩ 𝑨𝟑 ) = 𝑷(𝑨𝟏 ) ∙ 𝑷 ( ⁄𝑨 ) ∙ 𝑷 ( 𝟑⁄𝑨 ∩ 𝑨 ) = ∙ ∙ = 𝟎, 𝟐𝟗𝟏𝟕
𝟏 𝟏 𝟐 𝟏𝟎 𝟗 𝟖
𝑷(𝑨𝒊 ) ∙ 𝑷 (𝑩⁄𝑨 )
𝑨 𝒊
𝑷 ( 𝒊⁄𝑩) =
∑𝒏𝒊=𝟏 𝑷(𝑨𝒊 ) ∙ 𝑷 (𝑩⁄𝑨 )
𝒊
Ejemplos
1) En una empresa del total de trabajadores, se tiene que el 50% son Técnicos
Profesionales, el 30% son Administrativos y el 20% Personal de Servicio; además se
tiene que el 8% de los Profesionales, 9% de los Administrativos y el 10% del Personal
de Servicio son “afuerinos” (nacidos fuera de Iquique). Supongamos que se selecciona
un trabajador al azar y resulta ser “afuerino” (B). Hallar la probabilidad de que el
trabajador sea Técnico Profesional (A1).
Solución.
𝐴
Debemos hallar 𝑃 ( 1⁄𝐵 ), de acuerdo al Teorema de Bayes:
P(A1 ) ∙ P (B⁄A )
A 1
P ( 1⁄B) =
P(A1 ) ∙ P ( ⁄A ) + P(A2 ) ∙ P ( ⁄A ) + P(A3 ) ∙ P (B⁄A )
B B
1 2 3
0,5 ∙ 0,08
= = 0,4698
0,5 ∙ 0,08 + 0,3 ∙ 0,09 + 0,2 ∙ 0,1
Solución.
𝐴
Debemos hallar 𝑃 ( 1⁄𝐵 ), de acuerdo al Teorema de Bayes:
3) En una Universidad, el 60% de los estudiantes son del grupo estudiantil ALFA y el
40% del grupo BETA. En las elecciones para presidente de la Federación de
estudiantes se presentaron dos candidatos, Luis y Enrique. Realizada la elección, el
80% del grupo ALFA y el 10% del grupo BETA votaron por Luis. El 20% de ALFA y el
90% de BETA votaron por Enrique. Si se selecciona un votante al azar y resulta que
voto por Enrique, ¿cuál es la probabilidad de que sea del grupo ALFA?.
Solución.
𝐴
Debemos hallar 𝑃 ( 1⁄𝐵 ), de acuerdo al Teorema de Bayes:
Solución:
𝑆𝑒𝑎 Ω = {𝑀á𝑞𝑢𝑖𝑛𝑎 𝐴, 𝐵, 𝐶}
a) 𝑃(𝐷) = 𝑃(𝐴) ∙ 𝑃(𝐷⁄𝐴) + 𝑃(𝐵) ∙ 𝑃(𝐷⁄𝐵 ) + 𝑃(𝐶) ∙ 𝑃(𝐷⁄𝐶 ) = 0,2 ∙ 0,03 + 0,3 ∙ 0,04 +
0,5 ∙ 0,05 = 0,043
𝑃(𝐴)∙𝑃(𝐷⁄𝐴) 0,2∙0,03
b) 𝑃(𝐴⁄𝐷) = = = 0,1395
𝑃(𝐷) 0,043
5. El centro de cálculo de una determinada compañía consta, entre otras, de tres salas,
A, B y C, de PC con 8, 6 y 4 computadores cada una. Se sabe, por un cartel que hay
en la puerta, que uno de los computadores de cada sala contiene virus.
1
𝐴 = {𝐸𝑛𝑡𝑟𝑎𝑟 𝑒𝑛 𝑙𝑎 𝑠𝑎𝑙𝑎 𝐴}, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠: 𝑃(𝐴) =
3
1
𝐵 = {𝐸𝑛𝑡𝑟𝑎𝑟 𝑒𝑛 𝑙𝑎 𝑠𝑎𝑙𝑎 𝐵}, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠: 𝑃(𝐵) =
3
1
𝐶 = {𝐸𝑛𝑡𝑟𝑎𝑟 𝑒𝑛 𝑙𝑎 𝑠𝑎𝑙𝑎 𝐶}, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠: 𝑃(𝐶) =
3
1 1 1 1 1 1
𝑃(𝐶𝑉) = 𝑃(𝐴) ∙ 𝑃(𝐶𝑉⁄𝐴) + 𝑃(𝐵) ∙ 𝑃(𝐶𝑉⁄𝐵 ) + 𝑃(𝐶) ∙ 𝑃(𝐶𝑉⁄𝐶 ) = ∙ + ∙ + ∙
3 8 3 6 3 4
13
=
72
1 1
𝑃(𝐴) ∙ 𝑃(𝐶𝑉⁄𝐴) ∙ 3
𝑃(𝐴⁄𝐶𝑉 ) = =3 8=
𝑃(𝐶𝑉) 13 13
72
1) INTRODUCCIÓN
2) VARIABLE ALEATORIA
Es una función real definida sobre 𝛀 que asigna a cada elemento de 𝛀 un número
real. Transforma, por lo tanto, los elementos del espacio muestral en valores
numéricos.
Ejemplos
(1) Sea el experimento aleatorio de lanzar dos monedas. Los resultados posibles son:
𝛀 = {(𝒄, 𝒄), (𝒄, 𝒔), (𝒔, 𝒄), (𝒔, 𝒔)}; 𝒄 = 𝒄𝒂𝒓𝒂 𝒚 𝒔 = 𝒔𝒆𝒍𝒍𝒐
(2) Sea el experimento aleatorio consistente en lanzar dos monedas hasta que
salgan dos caras. Este experimento da lugar a una colección infinita numerable
de sucesos elementales.
Y = Número de veces que se han de tirar las dos monedas hasta que salgan dos
caras.
Es aquella variable aleatoria que toma cualquier valor en un intervalo real dado.
Teniendo en cuenta que los valores de una variable aleatoria quedan determinados
por el resultado de un experimento aleatorio, es posible asignar probabilidad a cada
uno de ellos en el caso de las variables aleatorias discretas, o bien definir una función
para evaluar la probabilidad en intervalos, en el caso de las variables aleatorias
continuas.
Sea X una variable aleatoria y sea k uno de los valores que toma dicha variable, la
probabilidad de que la variable tome dicho valor es: 𝑷(𝑿 = 𝒌) = 𝒑(𝒌).
1) 𝑷(𝑿 = 𝒌) = 𝒑(𝒌) ≥ 𝟎
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 79
2) ∑𝒌 𝒑(𝒌) = 𝟏
1 1
𝑃(𝑋 = 0) = 𝑝(0) = 𝑃{(𝑠, 𝑠)} = ; 𝑃(𝑋 = 1) = 𝑝(1) = 𝑃{(𝑠, 𝑐), (𝑐, 𝑠)} = ; 𝑃(𝑋 = 2)
4 2
1
= 𝑝(2) = 𝑃{(𝑐, 𝑐)} =
4
Entonces, se tiene:
X 0 1 2
+∞
2) ∫−∞ 𝒇(𝒙)𝒅𝒙=1
Nótese que:
𝒂
𝑷(𝑿 = 𝒂) = ∫𝒂 𝒇(𝒙)𝒅𝒙 = 𝑭(𝒂) − 𝑭(𝒂) = 𝟎
Es una función definida para cada número real que hace corresponder a cada x la
probabilidad de que la variable aleatoria tome un valor menor o igual que él:
𝑭(𝒌) = 𝑷(𝑿 ≤ 𝒌)
Tal como está definida, se trata de una función no decreciente que verifica:
𝟎 𝒙<𝟎
𝟏
𝟎≤𝒙<𝟏
𝑭(𝒙) = 𝟒
𝟑
𝟏≤𝒙<𝟐
𝟒
{𝟏 𝒙≥𝟐
Utilizando el Teorema Fundamental del Cálculo Integral, basta con derivar en los
puntos en que sea posible la función F(x) para obtener f(x). En los puntos en los que
no sea derivable F(x), se adopta el convenio de asignar a f(x) el valor 0.
1 1
𝑷(𝑿 ≤ 𝒙𝑴𝒆 ) ≤ 𝑦 𝑷(𝑿 > 𝒙𝑴𝒆 ) ≤
2 2
y la moda, que se define como el valor 𝒙𝑴𝒐 para el que 𝒇(𝒙) 𝒐 𝒑(𝒙𝒊 ) toman el valor
máximo. La media, la moda y la mediana son medidas de tendencia central o de
centralización de una variable aleatoria X .
∑𝒊 𝒙𝒊 𝒑(𝒙𝒊 ) ; 𝒔𝒊 𝑿 𝒆𝒔 𝒗. 𝒂 𝒅𝒊𝒔𝒄𝒓𝒆𝒕𝒂
𝑬(𝑿) = { +∞ siempre que exista
∫−∞ 𝒙𝒇(𝒙)𝒅𝒙 ; 𝒔𝒊 𝑿 𝒆𝒔 𝒗. 𝒂 𝒄𝒐𝒏𝒕𝒊𝒏𝒖𝒂
Sea X una variable aleatoria y sea 𝒀 = 𝒈(𝑿) otra variable aleatoria en función de X
. Se calcula la esperanza o valor esperado de Y como:
∫ 𝒈(𝒙)𝒇(𝒙)𝒅𝒙 ; 𝒔𝒊 𝑿 𝒆𝒔 𝒗. 𝒂 𝒄𝒐𝒏𝒕𝒊𝒏𝒖𝒂
{−∞
Para centrar el origen de las medidas, conviene trabajar con potencias de 𝑿 − 𝑬(𝑿).
Se define el momento central de orden k, 𝝁𝒌 , de una variable aleatoria X como:
𝝁𝒌 = 𝑬[𝑿 − 𝑬(𝑿)]𝒌
𝟐
𝝁𝟐 = 𝑬(𝑿𝟐 ) − (𝑬(𝑿))
1) INTRODUCCIÓN
Ejemplo 4.1
3) FUNCIÓN DE DISTRIBUCIÓN
𝑭(𝒙, 𝒚) = 𝑷(𝑿 ≤ 𝒙, 𝒀 ≤ 𝒚)
Ejemplo:
𝟏
𝑷(𝑿 = 𝒊, 𝒀 = 𝒋) = 𝟑𝟔; 𝒑𝒂𝒓𝒂 𝒕𝒐𝒅𝒐 𝒊 ≠ 𝒋; 𝒊, 𝒋 = 𝟏, 𝟐, 𝟑, 𝟒, 𝟓, 𝟔
𝟏 𝟐 𝟑
𝑷(𝑿 = 𝟏, 𝒀 = 𝟏) = 𝟑𝟔 𝑷(𝑿 = 𝟐, 𝒀 = 𝟐) = 𝟑𝟔 𝑷(𝑿 = 𝟑, 𝒀 = 𝟑) = 𝟑𝟔
𝟒 𝟓 𝟔
𝑷(𝑿 = 𝟒, 𝒀 = 𝟒) = 𝟑𝟔 𝑷(𝑿 = 𝟓, 𝒀 = 𝟓) = 𝟑𝟔 𝑷(𝑿 = 𝟔, 𝒀 = 𝟔) = 𝟑𝟔
+∞
1) 𝒇(𝒙, 𝒚) ≥ 𝟎 2) ∫−∞ 𝒇(𝒙, 𝒚)𝒅𝒙𝒅𝒚
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 85
𝒃 𝒅
𝟐 𝟎<𝒙<𝒚<𝟏
Ejemplo 4.2: Sea: 𝒇(𝒙, 𝒚) = {
𝟎 𝒓𝒆𝒔𝒕𝒐
6) DISTRIBUCIONES MARGINALES
Dada una variable aleatoria bidimensional (𝑿, 𝒀), se llaman variables marginales a
cada una de las variables componentes X e Y , y a sus distribuciones,
distribuciones marginales.
En el caso de ser (𝑿, 𝒀) de tipo discreto, tomando los pares de valores (𝒙𝒊 , 𝒚𝒋 ), 𝒊 =
𝟏, … , 𝒏: 𝒋 = 𝟏, … , 𝒌, con probabilidades 𝒑𝒊𝒋 , las variables marginales X e Y , son de
tipo discreto;
Si (𝑿, 𝒀) es de tipo continuo, con densidad 𝒇(𝒙, 𝒚), entonces X e Y son variables
continuas con densidades respectivas:
∞ ∞
𝑓(𝑥) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑦 y 𝑓(𝑦) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑥
Ejemplo
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 86
Para la variable discreta del ejemplo 4.1, la variable marginal X toma los valores 1,
1
2, 3, 4, 5, 6, con probabilidades 6 para todos ellos.
Para la variable continua del ejemplo 4.2, X toma valores en el intervalo (0,1), y su
densidad se obtiene como:
𝑓(𝑥) = ∫ 2𝑑𝑦 = 2 − 2𝑥
𝑥
𝑓(𝑦) = ∫ 2𝑑𝑥 = 2𝑦
0
7) DISTRIBUCIONES CONDICIONALES
Dada una variable aleatoria bidimensional (𝑿, 𝒀), se llama distribución condicional
de X sobre Y a la distribución de la variable unidimensional X sabiendo que Y ha
tomado un determinado valor y. Análogamente se define la distribución
condicional de Y sobre X . La notación para estas distribuciones será: 𝑋⁄𝑌 = 𝑦 e
𝑌⁄
𝑋 = 𝑥, respectivamente:
Si (𝑿, 𝒀) es de tipo continuo con densidad 𝑓(𝒙, 𝒚), 𝑋⁄𝑌 = 𝑦 e 𝑌⁄𝑋 = 𝑥, son variables
𝑓(𝑥,𝑦) 𝑦 𝑓(𝑥,𝑦)
𝑓(𝑥⁄𝑦) = y 𝑓( ⁄𝑥) = 𝑓(𝑥)
𝑓(𝑦)
Ejemplo
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 87
𝑦 2
La variable 𝑌⁄𝑋 = 𝑥 tiene como densidad 𝑓( ⁄𝑥) = 2−2𝑥 𝑐𝑢𝑎𝑛𝑑𝑜 𝑥 < 𝑦 < 1, y
1
La variable 𝑋⁄𝑌 = 𝑦 tiene como densidad 𝑓(𝑥⁄𝑦) = 𝑦 𝑐𝑢𝑎𝑛𝑑𝑜 0 < 𝑥 < 𝑦..
de Y .
Si (𝑿, 𝒀) es continua con densidad 𝒇(𝒙, 𝒚), X e Y son independientes sí y sólo sí,
"𝒇(𝒙, 𝒚) = 𝒇(𝒙) ∙ 𝒇(𝒚)"
Para el caso bidimensional, la esperanza no tiene una interpretación clara. Por ello,
resulta mucho más útil hablar de la esperanza de una función de la variable aleatoria.
𝒏 𝒌
𝜶𝒉𝒌 = 𝑬(𝑿𝒉 𝒀𝒌 )
𝒉 𝒌
𝝁𝒉𝒌 = 𝑬 [(𝑿 − 𝑬(𝑿)) (𝒀 − 𝑬(𝒀)) ]
Resulta de especial interés la covarianza, 𝝁𝟏𝟏 , que permite medir la relación lineal
existente entre las variables X e Y. También se suele denotar por Cov(X,Y). Se
suele emplear normalizada, dando lugar al coeficiente de correlación lineal:
𝝁𝟏𝟏
𝝆=
√𝝁𝟎𝟐 ∙ 𝝁𝟐𝟎
𝝆 toma valores entre –1 y 1, de manera que cuanto más cercano a uno sea el valor
absoluto de 𝝆, mayor es la dependencia lineal entre las variables. Si 𝝆 es positivo,
la relación entre las variables es directa, mientras que si es negativo, esta relación
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 89
Por último, sin más que aplicar las definiciones dadas en 4.9 y la caracterización de
independencia para el caso de n variables, se demuestran los siguientes resultados:
1) INTRODUCCIÓN
Se considera una v.a que toma un conjunto finito de valores de manera que la
probabilidad de tomar cada valor es la misma. Se dice entonces que la v.a sigue una
distribución Uniforme Discreta.
Ejemplo
𝟏
En el sorteo del kino la probabilidad de ganarlo es y la v.a que indica el
𝟒.𝟒𝟓𝟕.𝟒𝟎𝟎
3) DISTRIBUCIÓN BINOMIAL
𝒏
𝑷(𝑿 = 𝒌) = 𝒑(𝒌) = ( ) ∙ 𝒑𝒌 ∙ (𝟏 − 𝒑)𝒏−𝒌
𝒌
Ejemplo.
Ejemplo.
Si el número de caras obtenidas al lanzar una moneda es una v.a con distribución
𝑩(𝟏, 𝟎, 𝟓), el número de caras obtenidas al lanzar 4 monedas será una v.a con
distribución 𝑩(𝟒, 𝟎, 𝟓).
4) DISTRIBUCIÓN DE POISSÓN
Esta v.a discreta también es conocida como “ley de los sucesos raros”, y
representa experimentos del tipo:
Se dice que una v.a X sigue una distribución de Poisson de parámetro 𝝁 y se designa
por 𝑰𝑷(𝝁) si toma los valores 𝒌 = 𝟎, 𝟏, … , ∞ con probabilidades:
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 92
−𝝁
𝝁𝒌
𝑷(𝑿 = 𝒌) = 𝒑(𝒌) = 𝒆 ∙
𝒌!
Ejemplo.
𝝁𝒌
Si: 𝒏 → ∞, 𝒑 → 𝟎 𝒚 𝒏𝒑 → 𝝁, entonces se demuestra que: 𝐥𝐢𝐦 𝑷(𝑿 = 𝒌) = 𝒆−𝝁 ∙
𝒏→∞ 𝒌!
5) DISTRIBUCIÓN GEOMÉTRICA
𝟏 𝟏−𝒑
𝑬(𝑿) = 𝒚 𝑽𝒂𝒓(𝑿) =
𝒑 𝒑𝟐
𝑷 (𝑿 = 𝒏 + 𝒌⁄𝑿 ≥ 𝒌) = 𝑷(𝑿 = 𝒌)
6) DISTRIBUCIÓN HIPERGEOMÉTRICA
𝑵𝟏 𝑵
()∙( 𝟐 )
𝑷(𝑿 = 𝒌) = 𝒌 𝒏−𝒌
𝑵
( )
𝒏
Donde:
𝑛: 𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑒𝑥𝑡𝑟𝑎𝑐𝑐𝑖𝑜𝑛𝑒𝑠.
𝑁 = 𝑁1 + 𝑁2 .
𝑵𝟏 𝑵𝟏 𝑵𝟏 𝑵 − 𝒏
𝝁=𝒏∙ ; 𝝈𝟐 = 𝒏 ∙ ∙ (𝟏 − ) ∙
𝑵 𝑵 𝑵 𝑵−𝟏
Ejemplo.
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 94
Una lista de 100 artículos contiene 20 defectuosos. Se eligen 10 artículos al azar, sin
sustituir el artículo antes que sea elegido el próximo. ¿Cuál es la probabilidad de que
exactamente la mitad de los artículos escogido sea defectuoso?
Solución:
𝑵𝟏 = 𝟐𝟎 𝟐𝟎 𝟖𝟎
( )∙( )
𝒏 = 𝟏𝟎 } ⟹ 𝑷(𝑿 = 𝟓) = 𝒑(𝟓) = 𝟓 𝟓 = 𝟎, 𝟎𝟐𝟏 = 𝟐, 𝟏%
𝟏𝟎𝟎
𝑵𝟐 = 𝟖𝟎 ( )
𝟏𝟎
1) INTRODUCCIÓN
2) DISTRIBUCIÓN UNIFORME
Se considera una v.a X que toma valores en un intervalo finito a, b , de manera que
la probabilidad asignada a subintervalos de igual amplitud es la misma. Se dice
entonces que dicha v.a está uniformemente distribuida en el intervalo a, b y se
designa por X ~ U a, b . La función de densidad de esta v.a viene dada por:
1
𝑓(𝑥) = {𝑏 − 𝑎 𝑠𝑖 𝑥 𝜖 [𝑎, 𝑏]
0 𝑟𝑒𝑠𝑡𝑜
𝑏+𝑎 (𝑏−𝑎)2
𝐸(𝑋) = y 𝑉𝑎𝑟(𝑋) =
2 12
3) DISTRIBUCIÓN NORMAL
1 𝑥−𝜇 2
1
𝑓(𝑥) = 𝜎√2𝜋 𝑒 −2( )
𝜎 ; ∀ 𝑥 𝜖 𝐼𝑅, 𝜇 𝜖 𝐼𝑅; 𝜎 > 0
distribución 𝐍(𝟎 , 𝟏), que es la que esta tabulada. A este proceso se le conoce como
tipificar la variable.
𝑧2
1
𝑓(𝑧) = 𝑒 − 2 ; ∀ 𝑧 𝜖 𝐼𝑅
√2𝜋
𝝈𝟐
̅ ~𝑵 (𝝁 ,
𝑺𝒊 𝑿𝒊 ~𝑵(𝝁 , 𝝈𝟐 ) ⟹ 𝑿 )
𝒏
Este resultado se conoce como teorema de Moivre, y sirve para aproximar una
v.a por una normal cuando n es grande y 0,1 < 𝑝 < 0,9
𝐧 ̅ −𝛍
̅ = ∑𝐢=𝟏 𝐗 𝐢 , se tiene que
2. En las hipótesis del teorema, llamando 𝐗
𝑿
𝝈 ~𝐍(𝟎 , 𝟏).
𝐧 ⁄ 𝒏
√
4) DISTRIBUCIÓN GAMMA
Sea X una v.a continua. Se dice que X sigue una distribución Gamma de parámetros
𝜶 𝒚 𝜷 y se escribe X ~ ; si su función de densidad es de la forma:
-x -1
e x si x 0, 0, 0
f x
0
resto
Donde e x x 1dx
0
y Var X 2
EX
e - x si x 0, 0
f x
0 resto
La distribución Exponencial es, además, la única v.a continua y no negativa que tiene
la propiedad de falta de memoria; es decir si X ~ exp , entonces t 0
P X th
X t
P X h .
Otro caso particular interesante de la distribución Gamma se produce cuando n
es entero. En este caso, la distribución n; se llama distribución de Erlang y
utilizando que si n IN , n n 1! , se obtiene la función de densidad:
n -x n-1
si x 0, n 0, 0
f x n 1!
e x
0
resto
Hasta ahora se han estudiado modelos probabilísticos teóricos que explican en cierto
modo el comportamiento de determinadas variables (el número de llamadas a una
central telefónica se suele modelar con una distribución de Poisson, la duración de
determinados componentes electrónicos puede modelarse con una distribución
exponencial, etc.).
Habrá de ser suficientemente grande para que las estimaciones sean fiables,
pero tampoco en exceso para no despilfarrar recursos.
Definición
En adelante, se denotan por 𝑿𝒊 las v.a de una m.a.s, por 𝒙𝒊 a los valores concretos
de una muestra y por n al tamaño de la muestra.
Conocidos los datos de una muestra, se necesita algún método o función que permita
obtener la información que se desea. Por ejemplo, si se tienen los datos
(𝐱 𝟏 , 𝐱 𝟐 , … , 𝐱 𝐧 ) y se quiere obtener información sobre la media de la población, se
𝐱𝟏 +,𝐱𝟐 +⋯+𝐱𝐧
puede elegir la función 𝑮(𝐱 𝟏 , 𝐱 𝟐 , … , 𝐱 𝐧 ) = para estimarla. Esta es la idea
𝒏
de estadístico.
Como las muestras pueden ser distintas, para cada una de ellas se obtendrá una
estimación distinta. Se tiene, por lo tanto, que el estadístico ha de ser considerado
también como una v.a y tendrá su propia distribución de probabilidad.
Una vez obtenida la muestra, se pueden hacer distintos tipos de inferencias sobre el
modelo:
2) ESTIMACIÓN PUNTUAL
Ejemplo, se sabe que el número de clientes diarios de una tienda sigue una
distribución de Poisson, pero se desconoce su media. O bien, se sabe que la nota
de estadística de un curso se distribuye como una normal, pero se desconocen su
media y su varianza.
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 103
3) OBTENCIÓN DE ESTIMADORES
Consiste en igualar momentos muestrales con los momentos de v.a del mismo orden
(momentos poblacionales). Se igualan tantos momentos como parámetros
desconocidos se tengan, de modo que el sistema de ecuaciones resultante permita
despejar los parámetros que se quieren estimar.
Consiste en elegir el valor del parámetro que hace más probable (más verosímil) los
valores obtenidos en la muestra.
El método general se basa en buscar el valor del parámetro que hace máximo el
valor de una función que mide la probabilidad de la muestra. Esta función es la
llamada función de verosimilitud.
n
p , x i para una v.a discreta X
i 1
L ; x1 ,..., x n n
f , x
i para una v.a continua X
i 1
Donde:
p , x es la función de cuantía de la v.a discreta X, y x1 ,..., xn los datos concretos
de una m.a.s
L ; x1 ,..., xn (al ser Ln(X) una función monótona creciente, la nueva función tiene
los mismos extremos que la función de verosimilitud). En la mayoría de los casos,
basta con hallar los valores que anulan la derivada.
Ejemplo
n
x
L ; x1 ,..., xn e
i
i 1 xi !
n
xi n n
LnL; x1 ,..., xn Ln e n Ln xi Lnxi !
i 1 xi ! i 1 i 1
n
d
LnL ; x1 ,..., xn n xi 0 X
d i 1
NOTAS:
Ejemplo
Si la media de una v.a X es , E X , el estadístico X , media muestral, es un
estimador centrado para . En efecto:
n
X
EX i 1
i
n n
n n
i 1 1
E X E
n i 1 n n i 1
Ejemplo
n 1 2
E m2 2
n
X
n
2
i X
Si se toma: s2 i 1
n 1
Var T
1
I n
Siendo
2
2 denominada cantidad de información de
I n nE Lnf ; x nE 2 Lnf ; x
Fisher.
Por lo tanto, si se verifican las hipótesis del resultado anterior {la relativa a los valores
que toma la v.a y que el estimador T sea centrado} y se observa que su varianza es
iguala 1 , se puede asegurar que T es un estimador eficiente de .
I n
La anterior condición es una condición suficiente para probar la eficiencia, por tanto
puede haber estimadores eficientes que no alcancen la cota.
Ejemplo.
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 107
Se calcula Var X y se obtiene:
n X 1 2 n
2
1
Var X Var i n
i¡1 n n i 1 n n
X X
f ; X e Ln f ; X e XLn Ln X !
X! X !
2 X X
Ln f ; X e
2
X ! 2
2 X X 1
I n nE 2 Ln f ; X e n 2 E X 2
n n
nE 2
X !
1
I n n
ECM T E T 2
(Representa la dispersión del estimador respecto del parámetro). Además, se tiene:
ECM T Var T E T
2
Otras propiedades de los estimadores que requieren un análisis más complejo, y que
no se abordan aquí, son las siguientes:
1) INTRODUCCIÓN
Como X ~ N ; 2 , por la definición de 𝑿 y las propiedades de reproductividad de
la normal, se tiene que X ~ N ; .
2
n
En general se expresa:
Z
X
0
~N0 ,1
n
Si Z1 ,..., Z n son v.a independientes con distribución N 0;1 , se dice que la v.a
n2 .
n 1
n2 ~ ;
2 2
Teorema de Fisher: Si X 1 ,..., X n es una m.a.s de una v.a X ~ N ; 2 , entonces:
1. s2 y X son independientes
2. n 12s ~ n21
2
Si Z y X son v.a independientes tales que Z ~ N 0 ; 1 y X ~ n , se dice que la v.a
2
tn.
X
~ t n 1
s
n
X 1 X 2 1 2 donde: s c
n1 1s12 n2 1s 22
1 1
~ t n1 n2 2 n1 n2 2
sc
n1 n2
X1 X 2 D X1 X 2
d 2 x12 x22
Problema 2 x12 x 22
d
n
D
i d i x1i x2i
donde: s D i 1
y donde
n 1 D X1 X 2
2 2
(3.2) DISTRIBUCIÓN PARA COMPARAR s1 Y s 2
X
v.a n sigue una distribución F de Snedecor con n y m grados de libertad, y se
Y
m
denota por Fn ,m .
s12
2 2 12
Conocidas las distribuciones asociadas ha s1 y s 2 , se tiene que: ~ Fn1 1,n2 2
s 22
22
Esta situación se modela con una binomial. La v.a que indica si un individuo tiene o
no una determinada característica puede considerarse una B 1 ; p , representando
el parámetro p la proporción de individuos de la población que tienen dicha
característica.
p* p
N0 ,1
1 p p
* *
Obsérvese que en lugar de s 2 para estimar la varianza, se ha utilizado 1 p p . (La
* *
varianza de la binomial es 1 p p .
p1* p2* p1 p2
N0 ,1 para valores suficientemente grandes de n1 y n2 .
1 p p
*
1
*
1
n
1) INTRODUCCIÓN
2) INTERVALOS DE CONFIANZA
𝐏(𝐚 ≤ 𝐖 ≤ 𝐛) = 𝟏 − 𝛂 o bien:
NOTAS:
2º ̂.
Encontrar la distribución del estimador 𝛉
̅ −𝝁
𝑿
𝐙= 𝝈𝟎 ~𝑁(0 , 1)
√𝒏
𝐏(−𝒁𝟏−𝜶 ≤ 𝐙 ≤ 𝒁𝟏−𝜶 ) = 𝟏 − 𝛂
𝝈𝟎 𝝈𝟎
̅ − 𝒁𝟏−𝜶∙
𝐏 (𝑿 ̅ + 𝒁𝟏−𝜶 ∙
≤𝝁≤𝑿 )=𝟏−𝛂
√𝒏 √𝒏
Observaciones:
̅ − 𝒁𝟏−𝜶∙ 𝝈𝟎 𝐡𝐚𝐬𝐭𝐚 𝑿
1) La probabilidad de que el intervalo aleatorio: 𝑿 ̅ + 𝒁𝟏−𝜶 ∙ 𝝈𝟎
𝒏 √ 𝒏 √
̅ por su estimación 𝒙
2) Reemplazando la variable aleatoria 𝑿 ̅ calculado a partir de
̅±
los datos de la m.a.s, un intervalo del 𝟏𝟎𝟎(𝟏 − 𝜶)% para 𝛍, resulta ser: 𝒙
𝝈𝟎 𝝈𝟎 𝝈𝟎 𝝈𝟎
𝒁𝟏−𝜶∙ ̅ − 𝒁𝟏−𝜶∙
o bien: 𝐼𝜇;1−𝛼 = [ 𝒙 ̅ + 𝒁𝟏−𝜶 ∙
;𝒙 ̅ − 𝒁𝟏−𝜶∙
] ; donde: 𝒙 ̅+
𝐲 𝒙
√𝒏 √𝒏 √𝒏 √𝒏
𝝈𝟎
𝒁𝟏−𝜶 ∙ reciben el nombre de límites de confianza inferior y superior
√𝒏
respectivamente.
Ejemplo. Los siguientes datos corresponden a los pesos en gr. del contenido de 16
cajas de cereal que se seleccionaron de un proceso de llenado con el propósito de
verificar el peso promedio: 506; 508; 499; 503; 504; 510; 497; 512; 514; 505; 493;
496; 506; 502; 509 y 496. Si el peso de cada caja es una variable aleatoria normal
con una desviación estándar 𝛔 = 𝟓 𝐠𝐫. , obtener los intervalos de confianza
estimados del 90, 95 y 99%, para la media.
Solución:
Observación
Supóngase que el muestreo se realiza sobre una población que tiene distribución normal
con media 𝛍 desconocida y varianza 𝝈𝟐𝟎 conocida. Se desea estimar el tamaño necesario
de la muestra de manera tal que, con una probabilidad 𝟏𝟎𝟎(𝟏 − 𝜶)%, la media muestral
̅ se encuentre en un intervalo igual a 𝜺 unidades alrededor de la media poblacional 𝛍.
𝑿
𝛔
̅ − 𝛍| < 𝛆) = 𝟏 − 𝛂 𝐞𝐧 𝐝𝐨𝐧𝐝𝐞 𝛆 = 𝐙𝟏−𝛂 ∙
Solución: 𝐏(|𝐗 ; resolviendo para n, se
√𝐧
𝒁𝟐𝟏−𝜶 ∙𝝈𝟐
tiene: 𝐧 = 𝛆𝟐
̅−𝝁
𝑿
𝐓= ~𝒕𝒈𝒍=𝒏−𝟏
𝑺
√𝒏
𝐏(−𝒕𝟏−𝜶;𝒈𝒍=𝒏−𝟏 ≤ 𝐓 ≤ 𝒕𝟏−𝜶;𝒈𝒍=𝒏−𝟏 ) = 𝟏 − 𝛂
𝑺 𝑺
̅ − 𝒕𝟏−𝜶;𝒈𝒍=𝒏−𝟏
𝐏 (𝑿 ̅ + 𝒕𝟏−𝜶;𝒈𝒍=𝒏−𝟏 ∙
≤𝝁≤𝑿 )=𝟏−𝛂
√𝒏 √𝒏
Observaciones:
𝑺
̅ − 𝒕𝟏−𝜶;𝒈𝒍=𝒏−𝟏
1) La probabilidad de que el intervalo aleatorio: 𝑿 ̅+
𝐡𝐚𝐬𝐭𝐚 𝑿
√𝒏
𝑺
𝒕𝟏−𝜶;𝒈𝒍=𝒏−𝟏 ∙ contenga el verdadero valor de la media 𝛍 es (𝟏 − 𝜶).
√𝒏
̅ por su estimación 𝒙
2) Reemplazando la variable aleatoria 𝑿 ̅ calculado a partir de
̅±
los datos de la m.a.s, un intervalo del 𝟏𝟎𝟎(𝟏 − 𝜶)% para 𝛍, resulta ser: 𝒙
𝑺 𝑺 𝑺
𝒕𝟏−𝜶;𝒈𝒍=𝒏−𝟏 ∙ ̅ − 𝒕𝟏−𝜶;𝒈𝒍=𝒏−𝟏
o bien 𝑰𝝁;𝟏−𝜶 = [𝒙 ̅ + 𝒕𝟏−𝜶;𝒈𝒍=𝒏−𝟏 ∙
;𝒙 ] donde:
√𝒏 √𝒏 √𝒏
𝑺 𝑺
̅ − 𝒕𝟏−𝜶;𝒈𝒍=𝒏−𝟏
𝒙 ̅ + 𝒕𝟏−𝜶;𝒈𝒍=𝒏−𝟏 ∙
𝐲 𝒙 reciben el nombre de límites de
√𝒏 √𝒏
𝑺
𝒍𝒐𝒏𝒈[𝑰𝝁;𝟏−𝜶 ] = 𝟐𝒕𝟏−𝜶;𝒈𝒍=𝒏−𝟏
√𝒏
Y ~ N 2 ; 22 . Dado: 𝛂 𝛜 [𝟎 , 𝟏]
X 1 X 2 1 2
Z ~N0 ;1
01
2
02
2
n1 n2
2 2 X2 Y2
P X Y z1 01 02 1 2 X Y z1 1
n n n n
1 2 X Y
Observaciones:
1) La probabilidad de que el intervalo aleatorio:
012 022 01
2
02
2
X Y z1 hasta X Y z1
n1 n2 n1 n2
01
2
02
2
x y z1
n1 n2
o bien:
2 2 2 2
I 1 2 ;1 ; X Y z1 01 02 ; X Y z1 01 02
n1 n2 n1 n2
01
2
02
2
01
2
02
2
donde: x y z1 y x y z1 reciben el nombre de límites
n1 n2 n1 n2
12 22
long I 1 2 ;1 ; 2 z1
n1
n2
X 1 X 2 1 2
T ~ t1 ; gl n1 n2 2
1 1
sc
n1 n2
1 1
X Y t1 ; gl n1 n2 2 sc o bien
n1 n2
1 1 1 1
I 1 2 ;1 X Y t1 ; gl n1 n2 2 sc ; X Y t1 ; gl n1 n2 2 sc
n1 n 2 n1 n2
sc2
n1 1 s12 n2 1 s22
n1 n2 2
Ejemplo
iguales).
16.300 13.200
18.200 15.100
17.500 13.900
16.100 14.700
15.900 15.600
15.400 15.800
15.800 14.900
17.300 18.100
14.900 15.600
15.100 15.300
16.200
15.200
15400
16.600
Solución:
n A 10 n B 14
A 16.250 B 15.400
s 2A 1.187.222,22 s 2B 1.352.307,69
s c2 1.284.772,73 s c 1.133,48
1 1
A B t 0,90; gl 22 sc
n1 n2
Sea (𝐗 𝟏 , 𝐗 𝟐 , … , 𝐗 𝐧 ) una m.a.s, de una población normal, o sea, X ~ N ; 2 . Dado:
𝛂 𝛜 [𝟎 , 𝟏]
n 1s 2 ~ 2
La v.a pivotal y su distribución es: W n 1
2
Pa W b 1
n 1 s 2 n 1 s 2
es decir: P 2 1
b a
a 12 n 1 y b 2 n 1
2 2
Observaciones:
n 1 s 2 hasta
n 1 s 2 contenga el verdadero valor de la media 2 es (𝟏 − 𝜶)
b b
n 1 s 2 n 1 s 2
I 2 ;1 ;
b a
n 1 s 2 n 1 s 2
donde: y reciben el nombre de límites de confianza inferior
b a
y superior respectivamente.
1 1
long I 2 ;1 n 1 s 2
a b
Ejemplo: Un proceso produce cierta clase de cojinetes de bola cuyo diámetro interior
es de 3 cm. Se seleccionan, en forma aleatoria, 12 de estos cojinetes y se miden sus
diámetros internos, que resultan ser: 3,01; 3,05; 2,99; 3,00; 3,02; 2,99; 2,97; 2,97;
3,02 y 3,01. Suponiendo que el diámetro es una variable aleatoria normalmente
distribuida, determinar un intervalo de confianza del 99% para la varianza 2 .
Solución:
Y ~ N 2 ; 22 . Dado: 𝛂 𝛜 [𝟎 , 𝟏]
s12
12
La v.a pivotal y su distribución es: F ~ Fn1 1,n2 2
s 22
22
s12
12
P a 2 b 1
s2
2
2
s
2 2
P a 12 22 b 1
s2 1
s2 2
2 2
s 22
P a 2 2 b 2 1
s1 1 s1
22
De ésta forma un intervalo de 𝟏𝟎𝟎(𝟏 − 𝜶)% de confianza para está dado por:
12
s 22 s 22
I 2 a 2 ; b 2
;1
s1 s1
2
12
; b f1 n1 1; n2 1
1
donde: a
f1 n2 1; n1 1
A2
Solución
s B2 s B2
I 2 a 2 ; b 2
;1
sA sA
B
A2
P Pˆ
Z
~N0 ;1
Pˆ 1 Pˆ
n
P Pˆ z1
Pˆ 1 Pˆ
P Pˆ z1
1
Pˆ 1 Pˆ
n n
o bien:
I P;1 Pˆ z1
Pˆ 1 Pˆ ˆ
; P z1
Pˆ 1 Pˆ
n n
Ejemplo:
Solución
El estimado de P es Pˆ 19 0,095
200
ˆ ˆ ˆ
ˆ
Luego el intervalo aleatorio, resulta ser: I P;1 Pˆ z1 P 1 P ; Pˆ z1 P 1 P
n n
Existe una razón para sospechar de la afirmación del fabricante, ya que el intervalo
de confianza se encuentra completamente a la derecha del valor asegurado.
OBSERVACIONES:
X Y X Y
T
s X2 sY2
n X nY
2
s X2 sY2
n X nY
v 2 2
2
s X2 1 sY2 1
n X n X 1 nY nY 1
N n
4) Si se conoce N, la varianza se corrige multiplicándola por:
N 1
Y ~ B n2 ; P2 . Dado: 𝛂 𝛜 [𝟎 , 𝟏]
Z
Pˆ Pˆ P P ~ N 0 ; 1
1 2 1 2
Pˆ 1 Pˆ Pˆ 1 Pˆ
1
1 2 2
n1 n2
Pˆ 1 Pˆ1 Pˆ2 1 Pˆ2
P Pˆ1 Pˆ2 Z1 1
Pˆ 1 Pˆ1 Pˆ2 1 Pˆ2
P1 P2 Pˆ1 Pˆ2 Z1 1
n1 n2 n1 n2
o bien:
Pˆ 1 Pˆ1 Pˆ2 1 Pˆ2 ˆ ˆ
I P1 P2 ;1 Pˆ1 Pˆ2 Z1 1
Pˆ 1 Pˆ1 Pˆ2 1 Pˆ2
; P1 P2 Z1 1
n1 n2 n1 n2
z1 , lo que hace,
n
z12 2
n
2
Si se conoce N:
N z12 2
n
z12 2 2 N 1
z1
Pˆ 1 Pˆ
, lo que hace:
n
n
z1 Pˆ 1 Pˆ
2
Si se conoce N:
n
N z12 Pˆ 1 Pˆ
2
z
1
Pˆ 1 Pˆ 2 N 1
1
Si no se conoce la varianza poblacional, se la estima con Pˆ .
2
1) INTRODUCCIÓN
2) CONCEPTOS BÁSICOS
Ejemplos
Ejemplos
Observaciones:
1) H 0 : 0 v/s H a : 0
//////////////////////////////////////
C 0
2) H 0 : 0 v/s H a : 0
//////////////////////////////////////////
0 C
3) H 0 : 0 v/s H a : 0
2 2
////////////////////////////////////// //////////////////////////////////////////
C1 0 C2
H 0 : 0 v/s H a : 0
Los riesgos que se pueden cometer al hacer o tomar falsas decisiones son:
P C
ˆ
0
P C
ˆ
a
Observaciones:
Metodología:
a) 0
H 0 : 0 v/s H a : b) 0
c)
0
x 0
La estadística de prueba es: Z calc
0
n
x 0
La estadística de prueba es: Tcalc
s
n
Regla de decisión:
NOTAS:
2) Cuando se utiliza la distribución “t” el control del tamaño del ETII debe hacerse
mediante tablas “t” no centradas
n 25 4 X 16,5 5% 0,05
Pruebe que : H 0 : 18 v/s H a : 18
Solución:
H 0 : 18 v/s H a : 18
x 0 16,5 18
Z calc 1,875
0 4
n 25
Decisión:
Metodología:
a ) 2 02
H 0 : 2 02 v/s H a : b) 2 02
c) 2 2
0
calc
2
n 1 s 2
02
Regla de decisión:
Ejemplo:
Sea
n 15 s 2 36,29 5% 0,05
Pruebe que : H 0 : 2 02 40 v/s H a : 2 02 40
Solución:
H 0 : 2 02 40 v/s H a : 2 02 40
calc
2
n 1 s 2
14 36,29
12,7
2
0 40
Decisión:
Sean:
Metodología:
a ) 12 22
H 0 : 12 22 v/s H a : b) 12 22
c ) 2 2
1 2
s12
Fcalc
s 22
Regla de decisión:
F2 f n1 1; n 2 1
1
F1
f n 2 1; n1 1
Donde:
F4 f n1 1; n 2 1
1
F3
f n 2 1; n1 1 2
2
Ejemplo: Sea
Solución:
Regla de decisión:
Por lo tanto, existe suficiente evidencia para rechazar que las varianzas
poblacionales son iguales a un 5% de significación.
Sean:
(𝐗 𝟏 , 𝐗 𝟐 , … , 𝐗 𝒏𝟏 ) una m.a.s de la variable aleatoria X ~ N 1 ; 01 y
2
(𝐘𝟏 , 𝐘𝟐 , … , 𝐘𝒏𝟐 ) una m.a.s de la variable aleatoria Y ~ N 2 ; 02 . Dado: 𝛂 𝛜 [𝟎 , 𝟏]
2
Metodología:
a ) 1 2 D
H 0 : 1 2 D v/s H a : b) 1 2 D
c ) D
1 2
X Y D
Z calc
01
2
02
2
n1 n2
Tcalc
X Y D
donde s c2
n1 1 s12 n2 1 s22
1 1 n1 n2 2
sc
n1 n2
Regla de decisión:
Regla de decisión:
NOTAS:
2) Cuando se utiliza la distribución “t” el control del tamaño del ETI debe hacerse
mediante tablas “t” no centradas.
Ejemplo 1:
Solución:
H 0 : 1 2 v/s H a : 1 2
X Y D 4,5 3,75 0
Z calc 2,18
01
2
02
2 1,8 1,8
n1 n2 50 60
Regla de decisión:
Por lo tanto, existe suficiente evidencia para rechazar que las medias
poblacionales son iguales a un 5% de significación.
Ejemplo 2:
n1 15 n2 21 x 85 y 87 s12 30 s 22 25 5%
Sea:
Pruebe que : H 0 : 1 2 v/s H a : 1 2
Solución:
1º) Probaremos: H 0 : 1 2 H a : 12 22
2 2
v/s
s12 30
a) La Estadística de prueba, bajo H0, es: Fcalc 2
1,2
s 2 25
b) Decisión:
Por lo tanto, no existe suficiente evidencia para rechazar que las varianzas
poblacionales son iguales, o no tome ninguna decisión, a un 5% de
significación.
x yD 85 - 87
Tcalc 1,14
1 1 1 1
sc 27
n1 n2 15 21
n1 1 s12 n 2 1 s 22 14 30 20 25
donde s c2 27
n1 n 2 2 15 21 2
b) Decisión:
Rechace H0, ya que: 1,96 t 0,025 34 Tcalc 1,14 t 0,025 34 1,96 .
Por lo tanto, existe suficiente evidencia para rechazar que las medias
poblacionales son iguales, o no tome ninguna decisión, a un 5% de
significación.
Metodología:
a ) P P0
H 0 : P P0 v/s H a : b) P P0
c ) P P
0
Pˆ P0
Z calc
P0 1 P0
n
Regla de decisión:
Ejemplo:
Sea
Solución:
Pˆ P0 0,17 0,25
Z calc 2,02
P0 1 P0 0,25 0,75
n 120
Decisión:
Metodología:
a) P1 P2
H 0 : P1 P2 v/s H a : b) P1 P2
c) P1 P2
Pˆ1 Pˆ2
Z calc
Pˆ1 1 Pˆ1 Pˆ2 1 Pˆ2
n1 n2
Regla de decisión:
Ejemplo:
Sea
Solución:
H 0 : P1 P2 v/s H a : P1 P2
Regla de decisión:
Por lo tanto, no existe suficiente evidencia para rechazar que las proporciones
poblacionales son iguales a un 5% de significación, o bien no tome ninguna
decisión.
rechaza.
nula.
Esta idea permite evaluar en cierta forma el grado de confianza con el que se acepta
o rechaza una hipótesis. Formalizando, se define el p-valor de una prueba como
el mínimo nivel de significación para el que, con los datos de una muestra
concreta, se tendría que rechazar H 0 .
En general, cuanto más próximo sea p a 1, mayor evidencia habrá para no rechazar
H 0 , mientras que cuanto más cercano a 0, con mayor confianza se rechazará H 0 .
A título práctico
rechazar H 0 ;
3º) Si 0,05 p 0,25 , habrá que considerar las consecuencias prácticas de aceptar o
rechazar H 0 .
1º) Rechace H 0 si p .
2º) No rechace H 0 si p ,
1) INTRODUCCIÓN
El método general se basará en elegir un estadístico que mida las diferencias entre
los valores obtenidos en una muestra y los valores esperados o teóricos
(suponiendo cierta la hipótesis hecha sobre el modelo que sigue la población).
METODOLOGÍA:
X ~
f x; o
Las frecuencia s no son todas iguales
H0 :
F x F0 x o v/s Ha :
i 1,2,3,..., k
E E
i
k
Oi E i 2
calc
2
i 1 Ei
donde :
O i : son las frecuencia s observadas en la muestra
E i : son las frecuencia s esperadas, bajo H 0
E i n p i ; i 1,2,..., k
Regla de decisión:
OBSERVACIONES:
Otra regla conservadora es seleccionar una muestra de manera tal que, toda
frecuencia esperada (Ei), no debe ser menor que 5, esto se puede lograr
combinando clases vecinas.
estimando.
Ejemplo.
Nº autos vendidos 27 18 15 24 36 30
Solución:
k
Oi E i 2 27 25
2
30 25
2
2
calc ... 12,0
i 1 Ei 25 25
Las frecuencias observadas (Oi) y las frecuencias esperadas (Ei) son para n =
150
Nº autos vendidos(Oi) 27 18 15 24 36 30
Ei 25 25 25 25 25 25
Regla de decisión: Rechazamos H0, ya que, 12,0 calc 0,95 5 11,1
2 2
Es válida para v.a. continuas, y es más conveniente que la prueba 2, pues no
requiere ninguna elección arbitraria de intervalos en los que comparar. Además,
tiene la ventaja de que se puede aplicar con muestras pequeñas.
Metodología
2º) Calcular la función de distribución acumulativa muestral (f.d.a.m.), S(x), dada por:
0 x x k
k
sx x k x x n
n
1 x x n
donde :
s x : es la proporción del nº de valores en la muestra
que son menores o iguale a x
3º) Calcular las probabilidades F0(x), bajo H0 y obtener los D(x), tal que:
Dx sx F0 x x
Ejemplo.
Solución:
X N 985;50
~ o
H0 :
v/s H a : No es así
F x F0 x
Dcalc 0,1207
Cuando una m.a.s que se obtiene de una población se clasifica de ésta manera, el
resultado recibe el nombre de tabla de contingencia con dos criterios de
clasificación. Sea la m.a.s de una población que se clasifica de acuerdo con dos
categorías A y B, cada una de las cuales contiene un número r y c de categorías
respectivamente. Además, sea Nij el número de observaciones en la categoría (i,j)
de las características A y B, respectivamente, para i 1,2,..., r y j 1,1,2..., c .
Entonces, una tabla de contingencia es un arreglo matricial de r * c, dado en la
tabla que se muestra a continuación, en donde las entradas representan las
realizaciones de las variables aleatorias Nij.
Característica B
1 2 ...j... C
Categorías Totales
1 n11 n12 n1 j n 1c n1
: : : : : :
I n i1 n i 2 n ij n ic ni
Característica A
: : : : : :
R n r1 n r 2 n rj n rc n r
n1 n 2 n j n c n
Totales
Donde :
c r c r
n i n ij n j n ij n n ij
j 1 i 1 j 1 i 1
i 1,2,..., r j 1,2,..., c
Para probar:
H 0 : p ij p i p j ; i 1,2,..., r j 1,2,..., c
o equivalent emente
H 0 : Los niveles de la categoría A son independie ntes de
los niveles de la categoría B
c r O E ij
2
2 ij
calc
j 1 i 1 E ij
donde :
ni n j
E ij
n
Ejemplo.
Grado de liberalismo
calc
2
30 22,52 83 66,92 ...
52 40,42 26,752
22,5 66,9 40,4
3) PRUEBA DE NORMALIDAD
Probar la normalidad de una variable es importante por ser una hipótesis necesaria
en muchos casos.
En esta sección se explica una prueba basado en el ajuste de la muestra a una recta
al dibujarla en papel probabilístico normal. Se rechaza la hipótesis de normalidad
cuando el ajuste no sea bueno.
En este caso, el estadístico mide la bondad del ajuste de datos a la recta; cuanto
mayor sea su valor, más credibilidad tiene la hipótesis de normalidad. Si denotamos
por W el estadístico, la región crítica es del tipo W k .
2
h
ai ,n xni 1 xi
W i 1 n
2
xi X
i 1
n
siendo x i el valor ordenado de la muestra que ocupa el lugar i-ésimo; h es si n
2
n 1
es par y si es impar. Los valores a i , n están tabulados y se obtienen a partir de
2
la inversa de la función de distribución de la N(0,1).
4) PRUEBA DE RACHAS
Ejemplo.
Al tirar 10 veces una moneda, se obtiene el resultado de la figura (se denota por C
el resultado cara (éxito), y por S el resultado sello (fracaso)):
CC S C SSS C S
R E R
N 0,1
Var R
Esta prueba se puede aplicar también a variables más generales considerando que
una racha es una sucesión de valores por encima o por debajo de la mediana. De
esta forma, se tienen sólo dos opciones y se reduce al caso anterior.
Ejemplo.
La mediana es 50. Si se denotan por + los valores situados por encima de ella y
por - los que están por debajo, se tiene la secuencia:
-++--++-
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 159
explicatorias.
Tienen igual interés los métodos de regresión lineal, donde se admite que la
relación entre la variable respuesta y las variables regresoras es lineal. Ello se debe
a la sencillez de este tipo de modelos y a que constituyen un primer escalón a la hora
de estudiar modelos más complejos.
En este caso existe una única variable regresora, X, de la cual se han hecho n
yi 0 1 xi ei
1. E ei 0, i 1,2,..., n
3. E ei e j 0, para i j (hipótesis de incorrelación de los errores)
Gráficamente, se trata de obtener la recta que más se acerca a todos los puntos. Por
ello, se minimizará la suma de las distancias de cada punto a la recta, tal y como se
indica en la figura 12.1
Figura 12.1
minimizar la expresión:
y 0 1 xi
2
i
i 1
n n
n 0 1 xi yi
i 1 i 1
n n n
0 xi 1 xi2 xi yi
i 1 i 1 i 1
ˆ0 y 1* x
y x x
n
i i
ˆ1 i 1
x x
n
2
i
i 1
y yˆ
2
2
i i
ˆ 2 i 1
n2
eˆi yi yˆ i
De forma que:
eˆ 2
i
ˆ 2 i 1
n2
1. Centrados para 0 y 1 .
n2 2
b) ˆ el estimador de máxima verosimilitud para 2
n
n2 2
b) ˆ ~ n22
n
ˆ0 t n-1, 2 1
ˆ
x
2
ˆ1 t n-1,
ˆ 2
x x
n n
n
xi x
2 2 2 2
i
i 1 i 1
1
Var ˆ0 ˆ
2 x
2
Var ˆ1
ˆ 2
x x
n n
n
xi x
2 2
i
i 1 i 1
obtienen con sólo recordar la relación existente entre intervalos de confianza y las
pruebas de hipótesis bilaterales.
5) EL COEFICIENTE DE DETERMINACIÓN
y yˆ
n
2
i i
i 1
R2 1
y y
n
2
i
i 1
Se verifica que este coeficiente toma valores entre 0 y 1 y que cuanto más cercano
a 1 se encuentre, mejor es el ajuste de la recta de regresión a la nube de puntos.
La mayor parte de las ideas y resultados vistos para el caso de una única variable
regresora se pueden extender para el caso general en el que existan k variables
regresoras, X 1 , X 2 ,..., X k .
Al igual que para el caso de una variable, se han tomado n observaciones para cada
una de las k variables regresoras, xi1 ,..., xik , i 1,2,..., n .
k
yi ij xij ei
j 1
a) E ei 0, i 1,2,..., n
Para facilitar los cálculos que habrán de realizarse a partir de ahora, el modelo lineal
general suele emplearse escrito en forma matricial:
Y Xβ e
Donde
respuesta,
(4) e e1 ,..., en es el vector de errores, que contiene los errores cometidos en las n
estimaciones.
A partir de este momento, los cálculos se complican en exceso. Sin embargo, las
ideas y resultados son similares a los estudiados en el caso de una única variable
regresora.
Y XβT Y Xβ
X Xβ X Y
T T
1
βˆ XT X XT Y
Este estimador sigue verificando las buenas propiedades del caso unidimensional:
a) Es centrado para β ,
ˆ Xβˆ X XT X 1 XT Y
Y
Y el vector de residuos:
ˆ
eˆ Y Y
Además, el estimador para la varianza de los errores es una extensión natural del
estimador para el caso unidimensional:
eˆ T eˆ
ˆ 2
nk
Con normalidad, se siguen cumpliendo las propiedades que se verifican para el caso
unidimensional:
nk 2
(2) ̂ es el estimador de 2 ,
n
nk 2
(5) ˆ ~ n2k
n
Para medir el ajuste del modelo general a una nube de puntos, se define el
coeficiente de determinación de la misma forma y con las mismas características
que para el caso de una única variable regresora.
Un caso particular del modelo lineal general que se utiliza con cierta frecuencia es la
regresión polinomial. El modelo es:
1) INTRODUCCIÓN
Para validar las hipótesis hechas, la herramienta fundamental son los residuos
eˆi yi yˆ i ya que los errores, ê i , no son directamente observables.
Las técnicas basadas en el estudio de los residuos son de dos tipos: gráficas y
analíticas.
n
a) eˆ
i 1
i 0
n
b) eˆ y
i 1
i i 0
Esta propiedad indica que los residuos y los valores ajustados son incorrelados.
n
c) eˆ x
i 1
i i 0
Esta propiedad indica que los residuos y las variables regresoras son
incorrelados.
Entonces, los gráficos normales con forma de S aplastada (Figura 13.1) indican
salidas de la distribución normal hacia distribuciones con colas más altas que ella,
mientras que los gráficos con forma contraria (Figura 13.2), indican salidas hacia
distribuciones con colas más bajas que la normal.
Los resultados obtenidos en estos gráficos deben apoyarse en las pruebas usuales
de normalidad (estudiados en la unidad 11), como el de Shapiro-Francia, cuyo
estadístico es:
W
eˆ a
T 2
a a eˆ
T
i e
2
Si las hipótesis hechas sobre el modelo se cumplen, los residuos y los valores
ajustados son incorrelados. Además, como la suma de los residuos es cero, éstos
deben encontrarse en una franja centrada respecto al origen sin presentar una
tendencia especial- En esta situación, estos gráficos son del siguiente tipo:
Un gráfico del tipo de la Figura 13.4 indica que la variabilidad de los residuos
aumenta con la magnitud de las predicciones. Este tipo de gráficos indican que la
hipótesis de varianza constante de lo errores no se está cumpliendo. En esta
situación, para realizar el ajuste del modelo se recurre al método de mínimos
cuadrados generalizados, donde se supone una estructura determinada para la
matriz de varianzas-covarianzas de los errores.
Un gráfico del tipo de la Figura 13.5 indica que la varianza de los errores no es
constante y que se está violando la hipótesis de linealidad, por lo que es preciso
revisar el modelo propuesto.
Estos gráficos tienen interés. Ya que la dependencia entre los errores es un problema
frecuente si las varianzas en estudio dependen del tiempo.
Los tipos de gráficos que indican correlación de los errores pueden ser los de las
Figuras 13.7 y 13.8.
eˆ
n
2
i eˆi 1
i 2
d n
eˆ
2
i
i 1
3) DIAGNÓSTICO DE INFLUENCIA
Se dice que un caso es influyente cuando su eliminación del conjunto de datos hace
que se modifiquen sustancialmente los resultados. Esta situación es sencilla de
describir gráficamente (ver figuras 13.10 y 13.11).
Para medir la influencia del caso i-ésimo en el análisis, se debe realizar primero el
ajuste del modelo con todos los casos y luego ajustar el modelo excluyendo el caso
i-ésimo para, a continuación comparar los resultados. El caso será tanto más
influyente cuanto mayor sea la diferencia entre los dos análisis.
(1) La medida de Cook: mide la influencia del caso i-ésimo sobre el vector de
parámetros, , comparando el estimador obtenido para con todos los casos
y excluyendo el caso i ésimo. Se define como:
Ci
1 ˆ ˆ T T ˆ ˆ
kˆ 2
i X X i
Se considera que el caso i ésimo es influyente si Ci es grande. Normalmente,
valores de Ci mayores que 1 suelen indicar casos influyentes.
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 175
(2) Los DFFITS: miden la influencia del caso i ésimo sobre los valores ajustados,
comparando los valores ajustados obtenidos al hacer el análisis con todos los
casos y excluyendo el caso i-ésimo. Se define como:
ˆ Y
Y ˆ
i
DFFITSi
i
̂ i hii
cuales:
k
DFFITS i 1,5
nk
INDICE GENERAL
Pág N°
1) Introducción 1
Formas genéricas: 5
Tipos de frecuencias 7
(1.1.1) Promedio 15
(1.1.2) Mediana 17
(1.1.3) Moda 18
(1.2.1) Percentiles 21
(2.1.1) Varianza s 2 24
1) Introducción 39
(1) Unión
(2) Intersección 29
(4) Diferencia 30
4) Algebra de sucesos 30
Regla de multiplicación 31
Regla de adición 31
(2) Variaciones 31
A Variaciones simples
(3) Permutaciones 31
A Permutaciones simples
B Permutaciones circulares 32
(4) Combinaciones 32
A Combinaciones simples 32
6) Probabilidad de un suceso 33
Ejemplos resueltos 34
7) Probabilidad condicional 35
8) Sucesos independientes 36
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 179
9) Teorema de la multiplicación 37
1) Introducción 39
2) Variable aleatoria 39
1) Introducción 42
3) Función de distribución 42
6) Distribuciones marginales 43
7) Distribuciones condicionales 44
1) Introducción 46
3) Distribución Binomial 46
4) Distribución de Poissón 46
5) Distribución geométrica 47
1 6) DISTRIBUCIÓN HIPERGEÓMETRICA 47
1) Introducción 48
2) Distribución uniforme 48
3) Distribución normal 48
4) Distribución gamma 49
2) Estimación puntual 52
3) Obtención de estimadores 52
1) Introducción 55
(2.1) Distribución asociada a X conocida
2
55
(2.3) Distribución asociada a X desconocida
2
55
(3.1) Distribución asociada a X 1 X 2 sup oniendo 1 2
2 2
56
2 2
(3.2) Distribución para comparar s1 y s 2 56
1) Introducción 58
2) Intervalos de confianza 58
ESTADISTICA APLICADA. JUAN ZAMBRANO CHALLAPA. 2017
UNIVERSIDAD ARTURO PRAT – IQUIQUE CHILE Pág. Nº 182
(2.1) Intervalo de confianza para la media de una población normal con varianza
conocida. 59
(2.2) Intervalo de confianza para la media de una población normal con varianza
desconocida. 60
1) Introducción 68
2) Conceptos básicos 68
(4.2) Prueba de hipótesis para la varianza de una distribución normal con media
poblacional desconocida 71
1) Introducción 78
3) Prueba de normalidad 81
4) Prueba de rachas 82
1) Introducción 83
5) El coeficiente de determinación 85
1) Introducción 87
3) Diagnóstico de influencia 89
INDICE GENERAL 91