Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Material Completo
-2-
UNIDAD N°4: DISTRIBUCIONES CONTINUAS DE PROBABILIDADES. ...... 18
4.1) DISTRIBUCIÓN NORMAL. ............................................................................... 18
4.1.1. Función de Densidad Normal.................................................................. 18
4.1.2. Probabilidades Acumuladas. ................................................................... 19
UNIDAD N°5: ESTADÍSTICA DESCRIPTIVA. .................................................... 21
5.1) DEFINICIONES BÁSICAS. ................................................................................ 21
5.1.1. Dato........................................................................................................ 21
5.1.2. Información. ........................................................................................... 21
5.1.3. Población................................................................................................ 21
5.1.4. Universo. ................................................................................................ 21
5.1.5. Muestra. ................................................................................................. 21
5.2) ANÁLISIS DE DATOS Y GENERACIÓN DE RESULTADOS. ................................... 22
5.2.1. Medidas de Tendencia Central. ............................................................... 22
5.2.1.A. Media................................................................................................ 22
5.2.1.B. Mediana............................................................................................ 22
5.2.1.C. Modo/a. ............................................................................................ 22
5.2.2. Medidas de Tendencia No Central. ......................................................... 23
5.2.2.A. Percentiles. ....................................................................................... 23
5.2.2.B. Deciles.............................................................................................. 23
5.2.2.C. Cuartiles. .......................................................................................... 23
5.2.3. Medidas de Dispersión............................................................................ 24
5.2.3.A. Rango. .............................................................................................. 24
5.2.3.B. Varianza. .......................................................................................... 24
5.2.3.C. Coeficiente de Dispersión o Desviación Estándar.............................. 24
5.3) ANÁLISIS DE SIMETRÍA. ................................................................................. 24
5.3.1. Comparación de la Media con la Mediana y la Moda. ............................. 24
5.3.2. Comparación relativa de Media y Mediana con respecto a la Desviación.25
5.3.3. Coeficiente de Asimetría......................................................................... 25
5.3.4. Coeficiente de Curtosis. .......................................................................... 25
5.4) ANÁLISIS DE CAJA Y BIGOTES........................................................................ 26
UNIDAD N°6: DISTRIB. DE LAS CARACTERÍSTICAS MUESTRALES. ........ 27
6.1) VARIABLES ALEATORIAS MUESTRALES (EN GENERAL). .................................. 27
6.2) VARIABLE ALEATORIA MEDIA MUESTRAL..................................................... 27
6.2.1. Distribución de la V.A. Media Muestral.................................................. 27
6.2.2. Parámetros de la V.A. Media Muestral.................................................... 29
6.3) VARIABLE ALEATORIA VARIANZA MUESTRAL. .............................................. 29
6.3.1. Distribución de la V.A. Varianza Muestral.............................................. 29
6.3.2. Parámetros de la V.A. Varianza Muestral................................................ 30
6.4) VARIABLE ALEATORIA DISPERSIÓN MUESTRAL. ............................................ 31
6.4.1. Distribución de la V.A. Dispersión Muestral........................................... 31
6.4.2. Parámetros de la V.A. Dispersión Muestral............................................. 31
6.5) VARIABLE ALEATORIA PROPORCIÓN MUESTRAL............................................ 31
6.5.1. Distribución de la V.A. Proporción Muestral. ......................................... 31
6.5.2. Parámetros de la V.A. Proporción Muestral. ........................................... 31
UNIDAD N°7: INTERVALOS DE CONFIANZA. ................................................. 33
7.1) INTERVALOS DE CONFIANZA PARA LA MEDIA POBLACIONAL. ......................... 33
7.2) INTERVALOS DE CONFIANZA PARA LA VARIANZA POBLACIONAL. ................... 34
-3-
7.3) INTERVALOS DE CONFIANZA PARA LA DISPERSIÓN POBLACIONAL. ................. 34
7.4) INTERVALOS DE CONFIANZA PARA LA PROPORCIÓN POBLACIONAL. ................ 34
7.5) DETERMINACIÓN DEL TAMAÑO DE MUESTRA................................................. 35
UNIDAD N°8: TEST DE HIPÓTESIS..................................................................... 36
8.1) . 36
UNIDAD N°9: REGRESIÓN Y CORRELACIÓN. ................................................ 37
9.1) MODELO DE REGRESIÓN LINEAL SIMPLE........................................................ 37
9.2) MODELO DE REGRESIÓN EXPONENCIAL SIMPLE. ............................................ 38
9.3) MODELO DE REGRESIÓN POTENCIAL SIMPLE.................................................. 39
9.4) ANÁLISIS DE LAS VARIACIONES DEL MODELO DE REGRESIÓN......................... 41
9.5) MEDIDAS DE LA BONDAD EN EL AJUSTE......................................................... 42
9.4.1. Medidas Relat. de la Bondad del Ajuste: Correlación y Determinación.42
9.4.2. Medida Absoluta de la Bondad del Ajuste: el Se . ................................... 44
UNIDAD N°10: SERIES CRONOLÓGICAS.......................................................... 45
10.1) . 45
UNIDAD N°11: NÚMEROS ÍNDICES. ................................................................... 46
11.1) ÍNDICES SIMPLES........................................................................................... 46
11.2) ÍNDICES AGREGATIVOS SIMPLES.................................................................... 47
11.3) ÍNDICES AGREGATIVOS PONDERADOS. ........................................................... 47
11.3.1. Índice de Laspeyres. ............................................................................... 47
11.3.2. Índice de Paasche.................................................................................... 48
11.4) ÍNDICE DE FISHER.......................................................................................... 49
11.5) OTROS ÍNDICES AGREGATIVOS PONDERADOS................................................. 50
11.5.1. Índice de Drovisch-Bowley..................................................................... 50
11.5.2. Índice de Edgeworth-Marshall. ............................................................... 50
11.5.3. Índice de Walch. ..................................................................................... 51
APÉNDICE I. LOS PARÁMETROS. DEFINICIONES Y PROPIEDADES. ...... 52
12.1) EL VALOR ESPERADO O ESPERANZA. ............................................................. 52
12.1.1. Definición y cálculo de la Esperanza....................................................... 52
12.1.2. Propiedades del Valor Esperado.............................................................. 52
12.2) LA VARIANZA. .............................................................................................. 53
12.2.1. Definición y cálculo de la Varianza......................................................... 53
12.2.2. Propiedades de la Varianza. .................................................................... 53
12.3) LA DISPERSIÓN O DESVÍO ESPERADO. ............................................................ 55
12.3.1. Definición y cálculo de la Dispersión...................................................... 55
12.3.2. Propiedades del Desvío Esperado............................................................ 55
APÉNDICE II. DISTRIBUCIÓN DE CARACTERÍSTICAS MUESTRALES..... 57
13.1.1) DISTRIBUCIÓN DE LA VARIABLE ALEATORIA MEDIA MUESTRAL................ 57
13.1.2) PARÁMETROS DE LA VARIABLE ALEATORIA MEDIA MUESTRAL................. 57
13.2.1) DISTRIBUCIÓN DE LA VARIABLE ALEATORIA VARIANZA MUESTRAL.......... 58
13.2.2) PARÁMETROS DE LA VARIABLE ALEATORIA VARIANZA MUESTRAL. .......... 58
13.3.1) DISTRIBUCIÓN DE LA VARIABLE ALEATORIA DISPERSIÓN MUESTRAL. ....... 58
13.4.1) DISTRIBUCIÓN DE LA VARIABLE ALEATORIA PROPORCIÓN MUESTRAL. ..... 59
13.4.2) PARÁMETROS DE LA VARIABLE ALEATORIA PROPORCIÓN MUESTRAL........ 59
-4-
INTRODUCCIÓN: “REGLAS DE CONTEO”.
n ∈ E/ + ⇒ n ! = n ⋅ (n − 1) ⋅ (n − 2) ⋅ (n − 3) ⋅ K ⋅ 3 ⋅ 2 ⋅ 1
n !⇒
n = 0 ⇒ 0 ! = 1
0.2) PERMUTACIONES.
Son las distintas disposiciones ordenadas que se pueden formar con un conjunto
de objetos diferentes.
Dados n elementos, permutar es ordenar de todas las maneras posibles.
Se define de la siguiente manera:
Pn = n ⋅ (n − 1) ⋅ (n − 2) ⋅ (n − 3) ⋅ K ⋅ 3 ⋅ 2 ⋅ 1 = n !
0.3) VARIACIONES.
Son las distintas formas en que podemos agrupar los elementos de un conjunto
con N elementos tomados en grupos de n elementos. Es por esto que siempre se cumple
que N > n . Estos grupos se diferencian por el orden de sus elementos.
Su cálculo es el siguiente:
N!
V Nn =
( N − n)!
0.4) COMBINACIONES.
Es la cantidad de grupos de N elementos tomados de a n elementos. En este caso
los grupos son distintos únicamente cuando tienen un elemento diferente y no por el
orden de los mismos.
Se define como:
N!
C Nn =
( N − n)!⋅n !
-5-
UNIDAD N°1: PROBABILIDADES.
1.1.1. Probabilidad.
Es una medida, que se aplica para cuantificar la incertidumbre de un evento o
suceso aleatorio. Es la medida de la expectativa de aparición de un tal suceso.
Sueles notarse en porcentajes, pero de manera tradicional se expresa en términos
relativos.
La notación matemática es P (s ) , que se lee: Probabilidad de un suceso “s”. El
número expresado en términos relativos oscila entre 0 y 1.
-6-
La probabilidad en este caso se calcula a priori, o sea, antes de hacer cualquier
prueba. Se calcula de la siguiente manera:
Casos Faborables s
P( s) = =
Casos Posbiles EM
Podemos agregar en base a estos límites una distinción entre las probabilidades
asignadas a los Eventos Seguros y a los Imposibles.
La probabilidad de un evento seguro (que es lo mismo que decir la probabilidad
del espacio muestral) es igual a 1. Pero que sea uno no implica que sea un evento
seguro, es decir que no hay doble implicación en la afirmación.
Evento Seguro ⇒ P( Evento Seguro) = P(EM) = 1
En el caso de los Sucesos Imposibles (es decir del conjunto vacío), la
probabilidad asociada es 0. Pero que sea cero no implica que sea un suceso
imposible.
Suceso Imposible ⇒ P( Suceso Imposible) = P( φ ) = 0
Una última aclaración en esto sería que si un suceso es seguro no implica que
necesariamente vaya a aparecer, y que sea imposible no implica que no
aparezca, ya que estamos hablando en términos probabilísticos, es decir de las
posibilidades de aparición de ese suceso.
Si son compatibles ⇒ P ( A ∪ B) = P( A) + P ( B) − P( A ∩ B)
Si son incompatibles ⇒ P ( A ∪ B) = P( A) + P ( B)
-7-
Otras maneras de expresar la probabilidad total de dos sucesos, A y B, son las
siguientes:
P( A ∪ B) = P( A) + P( B) − P ( A ∩ B)
P( A ∪ B) = P( A) + P( A ∩ B)
P( A ∪ B) = P( A ∩ B) + P( A ∩ B ) + P ( A ∩ B)
P( A ∪ B) = P( B) + P( A ∩ B)
P( A ∪ B) = 1 − P( A ∪ B)
P( A ∪ B) = P( A ∪ B)
-8-
cambio, si no se cumple la igualdad, que aparezca A condiciona la aparición de
B, por lo que se llaman sucesos estocásticamente dependientes.
PA =
B
( )
P( A ∩ B)
P( B)
⇔ P(B) ≠ 0
P(C m ) ⋅ P k
E
Cm P(C m ∩ E k ) P(C m E k ) C m
P = = n = n
E k
P (C i E k ) ∑ P(C i ) ⋅ P k
P( E k ) E
∑i =1 i =1 Ci
-9-
UNIDAD N°2: VARIABLES ALEATORIAS.
VAC ⇒ P(X ≤ Ls ) = ∫ f ( x) dx = 1
Li ; −∞
-10-
2.3.1.A. Valor Esperado o Esperanza.
El Valor Esperado o Esperanza Matemática, es una construcción a partir de
las cosas que suceden y a la fuerza con que estas pasan, que denota una
expectativa. Es, junto con la Dispersión, un parámetro fundamental dentro
del cálculo estadístico.
Su resultado es un valor de variable, del cual decimos que tenemos
expectativa de que resulte, en promedio, al experimentar.
Su cálculo es el siguiente:
n;+ ∞
Situación Discreta ⇒ E(X) = µ = ∑X
i =1
i ⋅ P(X i )
Ls ; +∞
Situación Continua ⇒ E ( X ) = µ = ∫ X ⋅ f ( X ) dx
Li ; −∞
2.3.1.B. Moda.
Es el valor de variable que posee la mayor probabilidad asociada. Es decir,
es el valor con mayor expectativa de aparición.
2.3.1.C. Mediana.
Es el valor del Espacio Muestral que divide simétricamente los valores
poblacionales de la variable.
2.3.2.A. Varianza.
Se conoce a la Varianza como la sumatoria de los desvíos cuadráticos de la
variable ( X i ) con respecto de su valor esperado [ E ( X ) ] ponderados por sus
probabilidades asociadas [ P ( X i ) ].
Es por esto que cálculo es el siguiente:
n
Situación Discreta ⇒ Var(X) = σ 2 = ∑ [ X i − E ( X )] ⋅ P( X i )
2
i =1
Ls ; +∞
-11-
Var (k ) = 0 ∀k ∈ R/
Var (k + X ) = Var ( X )
Var (k ⋅ X ) = k 2 ⋅ Var ( X )
-12-
n
Disp ( X ) σ
+ ∑ [X
i =1
i − E ( X )] ⋅ P( X i )
2
∑ X i ⋅ P( X i )
i =1
P[E ( X ) − t ⋅ σ ≤ X ≤ E ( X ) + t ⋅ σ ] ≥ 1 − 2
1
t
En general no se conoce la distribución de la Variable Aleatoria, ni su E ( X ) , ni
su Disp( X ) . Este teorema sirva para hallar la P( X ) en un rango dado.
2.5) COVARIANZA.
Dadas dos Variables Aleatorias X e Y, la Cov( X ; Y ) es una medida de la forma en
que varían conjuntamente las variables y nos dice cómo se relacionan entre ellas.
Se puede decir que es el valor esperado de los desvíos de las variable X e Y, de
manera conjunta.
Su cálculo se expresa de estas dos maneras equivalentes:
-13-
[ ]
n m
Cov ( X ; Y ) = ∑∑ [X i − E ( X )] ⋅ Y j − E (Y ) ⋅ P( X i ; Y j )
i =1 j =1
n m
Cov ( X ; Y ) = ∑∑ X i ⋅ Y j ⋅ P( X i ; Y j ) − [E ( X ) ⋅ E (Y ) ]
i =1 j =1
-14-
UNIDAD N°3: DISTRIBUCIONES DISCRETAS DE PROBABILIDADES.
P( X = X n ) = C nX n ⋅ p X n ⋅ q ( n − X n )
-15-
Al igual que en la distribución Binomial, se basa en la existencia de un universo
dicotómico, pero a diferencia de la anterior las repeticiones son dependientes unas de
otras.
Es por esto que la probabilidad del suceso favorable va a estar dada por:
k
P( SF ) = p =
N
Es decir, luego de cada repetición la probabilidad del suceso favorable se va a ver
alterada, a diferencia del caso de la Binomial donde se mantiene constante a lo largo del
experimento.
Podemos decir que si tenemos un número N total de elementos en una población
finita, de manera tal, que k de estos elementos presenta una cierta característica en la
modalidad A (suceso “favorable”), y N − k presenta una cierta característica en la
modalidad A (suceso “no favorable”); si se toma una muestra aleatoria de la población
construida por n elementos, la probabilidad de que X n presenten la característica de A
y n − X n la presenten de la modalidad A es la siguiente:
C kX n ⋅ C Nn −−Xk n
P( X = X n ) =
C Nn
P( X = X 0 ) =
X 0!
Los parámetros están definidos de la siguiente forma:
E( X ) = n ⋅ p = λ
Var ( X ) = E ( X ) = n ⋅ p = λ
Disp ( X ) = + Var ( X ) = + E ( X ) = + λ
-16-
3.5) DISTRIBUCIÓN MULTINOMIAL.
El concepto y el razonamiento de los sucesos es el mismo que en la Binomial, la
diferencia es que en la Binomial se trabaja sobre un universo dicotómico donde las
posibilidades son que en las repeticiones se de el suceso favorable o no, en cambio en
este tipo de distribución hablamos de múltiples sucesos simultáneos en las repeticiones.
Además podríamos comprobar a partir de un ejemplo muy sencillamente la distribución
Binomial es el caso de la Multinomial con dos posibilidades.
La forma de calcular las probabilidades es la siguiente:
n!
P( X 1 = x1 ; X 2 = x 2 ;K; X n = x n ) = ⋅ P1 1 ⋅ P2 2 ⋅ K ⋅ Pn n
x x x
x1!⋅ x 2 !⋅K ⋅ x n !
Los parámetros definidos para cada variable en particular tienen la misma forma
que en el caso de la Binomial.
µ X i = E ( X i ) = n ⋅ pi
σ X2 = Var ( X i ) = n ⋅ p i ⋅ qi
i
σ X = Disp ( X i ) = + n ⋅ p i ⋅ qi
i
-17-
UNIDAD N°4: DISTRIBUCIONES CONTINUAS DE PROBABILIDADES.
Cuando una VA toma ilimitados valores dentro del campo de los números reales,
se dice que es una VA Continua. La distribución Normal es un tipo de distribución
continua, y se denota de la siguiente manera:
µ = E( X )
⇒ X ≈ N (µ;σ )
σ = Disp( X )
1 − ⋅
2 σ
f ( x) = ⋅e
σ ⋅ 2π
Con esto podemos definir los intervalos de crecimiento y decrecimiento que van a
estar dados por:
f ( x ) es creciente en ( −∞; µ )
f ( x ) es decreciente en ( µ ;+∞ )
-18-
Además, posee dos puntos de inflexión situados en:
x1 = µ − σ
x2 = µ + σ
Es por esto que los intervalos de concavidad van a ser los siguientes:
f ( x) es concava o con concavidad hacia abajo en ( µ − σ ; µ + σ )
f ( x) es convexa o con concavidad hacia arriba en ( −∞; µ − σ ) ∪ ( µ + σ ;+∞)
Conjugando todo esto, el gráfico típico de una función de densidad simétrica (la
característica de una Distribución de tipo Normal) es el siguiente:
Es decir que el valor esperado divide la gráfica en dos regiones iguales con
probabilidades acumuladas de 0,50.
-19-
Además del gráfico de la Función de Densidad, existe otro que representa
directamente las Probabilidades Acumuladas. Se la puede definir como:
1 u−µ
2
x − ⋅
1 2 σ
f a ( x) =
2π
∫σ ⋅
⋅e
−∞
du
-20-
UNIDAD N°5: ESTADÍSTICA DESCRIPTIVA.
5.1.1. Dato.
Es el resultado de una evaluación cuantitativa o cualitativa de un suceso. Por
ejemplo el de compra de una PC –medición cuantitativa– o el grado de
satisfacción de un usuario respecto de un servicio médico asistencial –medición
cualitativa–.
5.1.2. Información.
Representa el conjunto de datos interrelacionados. La interrelación puede
aplicarse a datos que correspondan a la misma variable presentes en distintos
elementos, o bien a datos que correspondan a distintas variables presentes en un
mismo elemento. En ambos casos, el fin de la información es alimentar el
proceso de la toma de decisiones.
De acuerdo a John Burch y Gary Grudnitski en Diseño de Sistemas de
Información se tiene que: “La información la componen datos que se han
colocado en un contexto significativo y útil y se ha comunicado a un receptor,
quien la utiliza para tomar decisiones. (…) Especialmente en los negocios, la
información debe dar señales oportunas de aviso y anticipar el futuro”.
Por ejemplo, la gerencia de compras de una empresa analiza los precios de un
determinado insumo entre los diversos proveedores existentes en el mercado –lo
que implica varios valores para una misma variable–; o bien un analista
financiero analiza el monto de las inversiones de una empresa en las áreas:
productiva, capacitación y perfeccionamiento del personal, mantenimiento y
modernización de la infraestructura, y administración comercial –lo cual lleva a
obtener varios valores que surgen de distintas variables–.
5.1.3. Población.
Es el conjunto de todos los valores que toma una característica predeterminada.
Por ejemplo: lo valores del salario básico correspondiente a los empleados de la
administración pública central.
5.1.4. Universo.
Es el conjunto del total de elementos que serán los portadores de la información
sobre la característica en estudio. En nuestro ejemplo anterior, sería el conjunto
de todos los empleados de la administración pública central.
5.1.5. Muestra.
Es un subconjunto del universo en estudio y, consecuentemente, subconjunto de
la población respectiva. En nuestro ejemplo podríamos pensar en todos los
empleados de la administración pública central que fueron seleccionados por
alguna técnica muestral específica.
-21-
5.2) ANÁLISIS DE DATOS Y GENERACIÓN DE RESULTADOS.
5.2.1.A. Media.
El concepto es el mismo que el de la esperanza matemática, la diferencia
radica en que el valor esperado se calcula a priori –antes de experimentar–
ya que muestra cuál es el valor esperable de aparecer post-experimentación,
en cambio la media se calcula a posteriori, es decir sobre una muestra.
Es por esto que su cálculo es el siguiente:
n
n ∑X i ⋅F n
M ( X ) = X = ∑ X i ⋅ P( X i ) = i =1
= ∑ X i ⋅ fr
i =1 N i =1
5.2.1.B. Mediana.
La mediana es un valor que separa la serie ordenada en dos grupos que
contiene la misma cantidad de datos, de tal manera que en el primer grupo se
encuentran todos aquellos valores menores o iguales a ella y en el segundo
grupo el resto de los valores.
Se calcula sobre el intervalo en donde se logra acumular el 50% de las
frecuencias, y su cálculo es el siguiente:
N
− f aia
M e ( X ) = Linf + 2 ⋅ wi
fi
5.2.1.C. Modo/a.
Es el valor de variable que mayor cantidad de observaciones presenta, es
decir es el valor de mayor frecuencia relativa o absoluta asociada. Es por
esto que en general, cuando la serie de datos está conformada por pocos
valores, el modo no es para nada relevante.
En el caso que se tenga valores agrupados con amplitudes de intervalos
constantes o no, la modalidad de cálculo viene dada por la fórmula:
fi f
− ia
d1 wi wia
M o ( X ) = Linf + ⋅ wi = ⋅ wi
d1 + d 2 f f f f
i − ia + i − ip
wi wia wi wip
-22-
El valor modal se calcula sobre el intervalo que posee la mayor altura en la
f
muestra. Para conocer las alturas se recurre a la siguiente fórmula: hi = i .
wi
Entonces la moda se calcula sobre el intervalo que arroje mayor resultado.
5.2.2.A. Percentiles.
Dividen a la serie ordenada en cien grupos de igual cantidad de elementos.
Su cálculo es el siguiente:
N
k⋅ − Faia
Pk = Linf + 100 ⋅ wi
Fi
5.2.2.B. Deciles.
Dividen a la serie ordenada en diez grupos de igual cantidad de elementos.
Su cálculo es el siguiente:
N
k ⋅ − Faia
Dk = Linf + 10 ⋅ wi
Fi
5.2.2.C. Cuartiles.
Dividen a la serie ordenada en cuatro grupos de igual cantidad de elementos.
Su cálculo es el siguiente:
N
k ⋅ − Faia
Qk = Linf + 4 ⋅ wi
Fi
-23-
5.2.3. Medidas de Dispersión.
5.2.3.A. Rango.
Es la distancia entre el mayor y el menor de los valores observados. Nos
permite analizar la extensión de las variaciones observadas. Es muy sensible
a la presentación de valores atípicos.
5.2.3.B. Varianza.
Es una medida de variabilidad basada en las desviaciones respecto de la
media de la variable. Nos da una distancia promedio –en unidades
cuadráticas– entre cualquier observación de datos y la media del mismo.
∑ [X ] ⋅ F(X )
n
2
−X
[ ] ⋅ f (X ) =
n i i
Var(X) = s 2 = ∑ X i − X
2
i =1
r i
i =1 N
-24-
5.3.2. Comparación relativa de Media y Mediana con respecto a la Desviación.
Este tipo de relación para conocerla Asimetría permite sacar el sesgo que
presenta la serie –en caso de ser asimétrica–. Compara relativamente la M ( X )
con la M e ( X ) de la siguiente manera:
M (X ) − M e (X )
As =
s( x)
∑ (X )
n
3
−X
∑ (X ) ⋅f
i n
3
i =1 −X
N
i r
E( X − X )3
CAs = 3
= i =1
3
=
Disp ( X ) 3
∑ (X ) ∑ (X )
n
2 n
2
i −X i −X ⋅ fr
i =1 i =1
N
∑ (X )
n
4
−X
∑ (X )
i n
4
i =1 −X ⋅ fr
N
i
E( X − X ) 4
K= 4
= i =1
4
=
Disp( X ) 4
∑ (X ) ∑ (X )
n
2 n
2
i −X i −X ⋅ fr
i =1 i =1
N
-25-
Sus resultados se interpretan de la siguiente manera:
K > 3 ⇒ Distribución Leptocúrtica
K ⇒ K = 3 ⇒ Distribución Mesocúrtica
K < 3 ⇒ Distribución Platicúrtica
Una vez conocido esto podemos ubicar la “caja” sobre el intervalo delimitado por
los límites inferior y superior de la distribución. Esto nos va a mostrar qué tan simétrica
o asimétrica es la distribución, ya que cuanto más al centro la caja esté ubicada más
simétrica va a ser, en cambio cuando se ubique más hacia los extremos va a mostrar
mayor asimetría.
La segunda parte, la que corresponde a los “bigotes”, surge del cálculo y ubicación
en el diagrama de cuatro barreras o bisagras que van a determinar la tipicidad o
atipicidad de los valores de la muestra. Estas barreras se calculan así:
Se dice que los valores de la distribución que quedan comprendidos entre la “caja”
y las Barreras Interior Inferior y Superior son “Valores Típicos”. Los que queden entre
las Barreras Interiores y Exteriores, tanto Inferiores como Superiores, son “Valores
Atípicos”. Y los valores que menores a la Barrera Exterior Inferior superan la Barrera
Exterior Superior, son “Valores Muy Atípicos”.
BEI BES
BII BIS
Q1 Me(X) Q3
-26-
UNIDAD N°6: DISTRIBUCIONES DE LAS CARACTERÍSTICAS MUESTRALES.
PARÁMETRO ESTIMADOR
POBLACIÓN MUESTRAL
VALOR ESPERADO µ x óm
VARIANZA σ 2
s2
DISPERSIÓN σ s
PROPORCIÓN p p
Habiendo aclarado esto previo, podemos decir que dada una n cantidad de
muestras tomadas de forma aleatoria, sobre las cuales puede individualmente
determinarse estimadores muestrales (como lo son la media, la desviación estándar y la
dispersión), surge una Variable Aleatoria Muestral cuando se crea una variable tomando
como valores los estimadores de las n muestras.
Son Variables Aleatorias Muestrales entonces:
• la Variable Aleatoria Media Muestral ( VA X ), que surge de tomar las
medias ( m ) de cada una de las n muestras;
• la Variable Aleatoria Varianza Muestral ( VA S 2 ), donde los valores de
variable van a ser las varianzas ( s 2 ) de cada muestra;
• la Variable Aleatoria Dispersión Muestral ( VA S ), que posee como
valores las dispersiones ( s ) de cada muestra;
• la Variable Aleatoria Proporción Muestral ( VA P ), que tiene como
valores de variable las proporciones muestrales ( p ) de cada muestra.
Cabe aclarar que como estas son Variables Aleatorias, puede estimarse sobre ella
nuevamente Parámetros, ya sea el valor esperado, la varianza, la dispersión, etc.
-27-
Si conocemos que la Variable Poblacional se distribuye normalmente y además
conocemos la dispersión poblacional, decimos que la VA X va a seguir una
distribución normal, es decir:
σ
X ≈ N (µ ; σ ) y σ conocida ⇒ X ≈ N µ ;
n
Podemos ver cómo el pasaje de la variable poblacional a la muestral afecta a la
dispersión y no a la esperanza. Esto se da ya que la desviación es una medida
que, al aumentar el tamaño de las muestras, va a tender a hacerse nula ya que los
valores van a acercarse cada vez más a los reales y los datos se concentran con
mayor fuerza.
-28-
σ
σ conocida ⇒ X ≈ N µ ;
No conocemos n
⇒ T .C.L. ⇒ n ≥ 30 ⇒
distribución de X σ desconocida ⇒ X ≈ N µ ; s
n
n n ∑ i =1
i ∑
n i =1 n
Con esto decimos que el valor esperado de la VA X converge a la esperanza
poblacional.
n n 2 i =1∑ n2 n
En este caso decimos que la Varianza Muestral representa la enésima parte de la
Varianza Poblacional, es decir que al aumentar el tamaño de n menor será la
Varianza Muestral.
-29-
A diferencia de las distribuciones Normal y T-Student, la Chi-Cuadrado no es
simétrica, sino que es del tipo Asimétrica Derecha.
Var 2
n
( ) ( )
= 2 ⋅ (n − 1) ⇒ 2 ⋅ Var S 2 = 2 ⋅ (n − 1) ⇒ Var S 2 = 2 ⋅ (n − 1) ⋅ 2
σ σ n
-30-
Por último, la Dispersión es igual a la raíz cuadrada de la varianza, con lo que
resulta de este modo:
σ4
( ) ( )
Disp S 2 = + Var S 2 = + 2 ⋅ (n − 1) ⋅
n2
-31-
Es por esto que se dice que la esperanza de la V.A. Proporción Muestral
converge a la proporción poblacional.
Esto nos muestra que la Varianza depende, a diferencia del valor esperado, del
tamaño de la muestra. Por esto se deduce que entre el tamaño de muestra y la
varianza se crea una relación inversa, es decir que a mayor tamaño de muestra
menor va a ser la varianza, y a menor tamaño de muestra mayor varianza.
Lo que nos muestra, que al igual que la Varianza, depende del tamaño de la
muestra.
-32-
UNIDAD N°7: INTERVALOS DE CONFIANZA.
-33-
Para el caso en que siendo el tamaño de muestra menor a treinta, es decir n < 30 ,
y no pueda suponerse Normalidad –como propone el Teorema Central del Límite–, pero
sí se conoce la dispersión poblacional σ , es apta la utilización de la Desigualdad de
Chébishev, formándose de este modo el intervalo:
σ −2
P x − E( X ) ≤ t ⋅ > 1− t
n
Esta desigualdad, desarrollándola, puede rescribirse de esta manera:
σ σ 1
Px − t ⋅ ≤ µ ≤ x +t⋅ ≥ 1− t2 = 1−α
n n
-34-
p⋅q p⋅q
P p − z α ⋅ ≤ p≤ p+z α ⋅ = 1−α
1− n 1− n
2 2
1− 1 − 1−
n= 2 =
2
= 2
Amp 2 ( Amp 2 ) 2
E 2
El cociente Amp 2 representa el error ( E ) que se está dispuesto a cometer. Es
decir, cuánto resigno desviarme hacia un lado y el otro de mi media para crear el
intervalo y así asegurar mi nivel de confianza deseado.
-35-
UNIDAD N°8: TEST DE HIPÓTESIS.
8.1) .
-36-
UNIDAD N°9: REGRESIÓN Y CORRELACIÓN.
[
⋅ ∑∑ (xi − x ) ⋅ ( y j − y ) ]
n m
1
n − 1 i =1 j =1 Cov Muestral (x; y )
b= n
=
s x2
⋅ ∑ (xi − x )
1 2
n − 1 i =1
a = y −b⋅x
Otro método, más exacto, es el de los Mínimos Cuadrados, que parte de minimizar
los errores del ajuste. Su justificación teórica se funda en las derivadas parciales de la
ecuación:
n n
∑ ( yi − yˆ i )2 = ∑ [yi − (a + b ⋅ xi )]2
i =1 i =1
=0
∑ i y = n ⋅ a + b ⋅ ∑ xi
i=1 i =1
n n n
(y ⋅ x ) = a ⋅ x + b ⋅ x2
∑
i =1
i i ∑i =1
i ∑
i =1
i
n n
∑y
i =1
i ∑x
i =1
i
n n
n n n n
∆a
∑ (y i ⋅ xi ) ∑x 2
i ∑ y i ⋅ ∑ xi2 − ∑ ( y i ⋅ xi ) ⋅ ∑ xi
= i =1 i =1 i =1
i =1 i =1 i =1
a= =
∆ n
n
n
n
n ∑xi =1
i n ⋅ ∑ xi2 − ∑ xi ⋅ ∑ xi
i =1 i =1 i =1
n n
∑x ∑x
i =1
i
i =1
2
i
-37-
n
n ∑y
i =1
i
n n
n n n
∆b
∑ xi ∑ ( y i ⋅ xi ) n ⋅ ∑ ( y i ⋅ xi ) − ∑ xi ⋅ ∑ y i
= n i =1 i =1
i =1 i =1 i =1
b= =
∆ n
n n
n ∑x
i =1
i n ⋅ ∑ xi2 − ∑ xi ⋅ ∑ xi
i =1 i =1 i =1
n n
∑x ∑x
i =1
i
i =1
2
i
n n
∑ ln ( y i ) = n ⋅ ln (a ) + ln ( b ) ⋅ ∑ xi
i =1 i =1
n n n
[x ⋅ ln ( y )] = ln (a ) ⋅ x + ln (b ) ⋅ x 2
∑
i =1
i i ∑i =1
i ∑
i =1
i
Para determinar los parámetros no debemos perder de vista que tanto a como b
están influenciados en el Sistema por Logaritmos, con lo cual al momento de aplicar
Cramer no vamos a obtener como resultado los valores puros de a y b sino que nos
vamos a encontrar con los valores correspondientes a ln(a ) y ln (b ) .
Para poder encontrar el resultado real de a y b , a los valores arrojados por el
método Cramer, le aplicamos antilogaritmos del siguiente modo:
∆a ∆b
∆a ∆b
ln (a ) = ⇒a=e∆ ln (b ) = ⇒a=e∆
∆ ∆
-38-
Volviendo al Sistema, si aplicamos Cramer, los valores correspondientes a ln (a ) y
ln (b ) los hallamos de la siguiente manera. Para ln(a ) :
n n
∑ ln( y )
i =1
i ∑xi =1
i
n n
∆a
∑ [x i ⋅ ln ( y i )] ∑x 2
i
ln (a ) =
i =1 i =1
=
∆ n
n ∑x
i =1
i
n n
∑x ∑x
i =1
i
i =1
2
i
n n 2 n n
ln (
∑ i ∑ y ) ⋅ x − ∑ i [ x ⋅ ln ( y )]
i ⋅ ∑ xi
∆a i =1
i
ln (a ) = =
i =1 i =1 i =1
∆ n
n
n
n ⋅ ∑ xi2 − ∑ xi ⋅ ∑ xi
i =1 i =1 i =1
n n
∆b
∑ x ∑ [x i i ⋅ ln ( y i )]
ln (b ) = = i =1 i =1
∆ n
n ∑xi =1
i
n n
∑x ∑x
i =1
i
i =1
2
i
n n n
n ⋅ ∑ [xi ⋅ ln ( y i )] − ∑ xi ⋅ ∑ ln ( y i )
∆b i =1 i =1 i =1
ln (b ) = =
∆ n
n
n
n ⋅ ∑ xi2 − ∑ xi ⋅ ∑ xi
i =1 i =1 i =1
-39-
Al igual que en el Modelo Exponencial, por medio de la aplicación de Logaritmos
Neperianos vamos a transformar la curva en una recta, con lo que se obtiene:
( ) ( )
ln ( yˆ ) = ln a ⋅ x b ⇒ ln ( y ) = ln (a ) + ln x b ⇒ ln ( y ) = ln (a ) + b ⋅ ln (x )
n n
∑ ln ( y i ) = n ⋅ ln (a ) + b ⋅ ∑ ln ( xi )
i =1 i =1
n n n
[ln ( y ) ⋅ ln ( x )] = ln (a ) ⋅ x + b ⋅ [ln ( x )]2
∑
i =1
i i ∑
i =1
i ∑
i =1
i
n n
∑ ln( y )
i =1
i ∑ ln(x )
i =1
i
n n
∆a
i i i
ln (a ) = = i =1 i =1
∆ n
n ∑ ln(x )
i =1
i
n n
∑ ln(x ) ∑ [ln(x )]
2
i i
i =1 i =1
n n 2 n n
∑ ln ( y )
i ∑
⋅ [ln ( x )] − ∑ [ln ( y ) ⋅ ln ( x ]
i ⋅ ∑ ln ( x i )
)
∆a i =1
i i
ln (a ) = = i =1 i =1 i =1
∆ n
2 n
n
n ⋅ ∑ [ln (xi )] − ∑ ln ( xi ) ⋅ ∑ ln ( xi )
i =1 i =1 i =1
∆a
∆a
ln (a ) = ⇒a=e∆
∆
Por otra parte, para obtener b , basta con resolver el cociente, ya que no está
condicionado por ningún logaritmo en el Sistema.
Es por esto que para b tenemos:
-40-
n
n ∑ ln( y )
i =1
i
n n
∆b
∑ ln(x ) ∑ [ln( y ) ⋅ ln(x )]
i =1
i
i =1
i i
b= =
∆ n
n ∑ ln(x )
i =1
i
n n
∑ ln(x ) ∑ [ln(x )]
2
i i
i =1 i =1
n n n
n ⋅ ∑ [ln ( y i ) ⋅ ln ( xi )] − ∑ ln ( xi ) ⋅ ∑ ln ( y i )
∆b
= i =1 i =1
i =1
b=
∆ n n
n
n ⋅ ∑ [ln (xi )] − ∑ ln ( xi ) ⋅ ∑ ln (xi )
2
i =1 i =1 i =1
i =1
i =1
i =1
-41-
SCT = SCE + SCR
n
2 n
2 n
2
∑ ( y i − y ) = ∑ ( y i − yˆ i ) + ∑ ( yˆ i − y )
i =1 i =1 i =1
-42-
Cov Muestral ( x; y ) s y Cov Muestral ( x; y )
⋅ ⇒ =b
sx ⋅ s y sx s x2
Desde este punto, decimos que el r 2 va a tomar valores entre 0 y 1, ya que son
los valores positivos del coeficiente r . Es decir r 2 ∈ [0;1] . Cuando r 2 = 1 ,
podemos decir que el modelo ajusta y representa de manera perfecta. Cuando es
-43-
r 2 = 0 el modelo no ajusta, con lo cual debería buscarse otro modelo para
relacionar los valores. Cuando está entre cero y uno ( 0 < r 2 < 1 ) podemos
plantear dos casos, cuando se acerca a cero y cuando lo hace a uno. Cuando r 2
se aproxima a cero, cuanto más cerca, menos ajusta. Cuando se acerca a uno, en
cambio, cuan más próximo a uno esté, mejor y más representativo será el ajuste.
Esta medida nos muestra el porcentaje de los datos que se encuentran contenidos
en un entorno de la recta de regresión.
-44-
UNIDAD N°10: SERIES CRONOLÓGICAS.
10.1) .
-45-
UNIDAD N°11: NÚMEROS ÍNDICES.
Si deseamos ver solamente la variación del precio, sin considerar el valor base del
momento cero, al índice le debemos restar 100%, que se corresponde con el valor
relativo del momento base.
Variación = Indice − 100%
Esta consideración es válida para todos los índices que se estudian en esta unidad.
Esto se da ya que los índices son acumulativos, es decir que reflejan la variación entre
dos momentos manteniendo la base del momento inicial.
-46-
11.2) ÍNDICES AGREGATIVOS SIMPLES.
Como dentro de la economía se producen una pluralidad de bienes es que los
índices simples no cobran relevancia para el análisis de los cambios en los mercados. Es
por esto que se idearon los Índices Agregativos.
La función de estos números índices es mostrar variaciones porcentuales sobre
variaciones alguna característica de un grupo de bienes, denominado canasta.
Si consideramos una canasta cualquiera de n bienes y buscamos cuantificar en un
porcentaje cuánto cambia el precio de los bienes en su conjunto, hacemos el cociente
entre la sumatoria de los precios en el momento en estudio y la de los precios en el
momento base. Es por esto que el Índice Agregativo Simple de Precios tiene la siguiente
forma:
n
∑p ti
IAS p = i =1
n
⋅ 100
∑p
i =1
0i
∑q ti
IAS q = i =1
n
⋅ 100
∑q
i =1
0i
-47-
Para armar el índice de Precios, consideró ponderar el índice agregativo antes
desarrollado con las cantidades de los n bienes de la canasta en el momento
base o inicial.
Con esto formuló su índice como el cociente entre la sumatoria de los productos
de precios en el momento t y cantidades del momento base, y la sumatoria de
los productos entre los precios y cantidades del momento cero, por cien (para
generar el valor porcentual).
n
∑p ti ⋅ q0i
IL p = i =1
n
⋅ 100
∑ p 0i ⋅ q 0i
i =1
Este índice de Precios es utilizado por el INDEC para calcular el famoso IPC
(Índice de Precios al Consumidor) el cual genera luego el índice de Inflación
(habitualmente, notado con la letra griega π ). Éste no es más que la variación
porcentual en el IPC entre dos momentos por lo que va a estar dada, para un
momento t con respecto a su momento anterior (es decir, t − 1 ), por:
IPC (t ) − IPC (t −1)
Inflación(t ) = π (t ) = ⋅ 100
IPC (t −1)
Como el Índice de Precios de Laspeyres pondera mediante las cantidades del año
base, se entiende que sobrevalúa la variación en el precio.
Por otra parte, para el índice de Cantidades, consideró ponderar basándose en los
precios del momento cero.
Su índice de cantidades es igual al producto de 100 por el la sumatoria de los
productos de las cantidades de cada bien en el momento actual t y sus
respectivos precios en el momento inicial cero, dividido la sumatoria los
productos entre las cantidades y precios de esos bienes en el momento base.
n
∑q ti ⋅ p 0i
ILq = i =1
n
⋅ 100
∑q
i =1
0i ⋅ p 0i
-48-
En cuanto al índice de Precios, en lugar de ponderar los precios utilizando las
cantidades del año base como propone Laspeyres, Paasche, realiza las
valuaciones mediante las cantidades del momento actual.
Por esto es que su índice queda compuesto por la sumatoria de los productos
entre precios y cantidades de los n bienes de la canasta en el momento actual t
dividido, la sumatoria de los productos entre precios del momento base y
cantidades al momento t , multiplicado todo esa división por 100.
n
∑p ti ⋅ qti
IPp = i =1
n
⋅ 100
∑p
i =1
0i ⋅ q ti
∑q ti ⋅ pt i
IPq = i =1
n
⋅ 100
∑q
i =1
0i ⋅ p ti
-49-
Justamente, el Índice de Fisher para precios es igual a la raíz cuadrada del
producto entre el Índice de Precios de Laspeyres y el Índice de Precios de Paasche.
IF p = IL p ⋅ IPp
-50-
∑ p ⋅ (q )
n
ti 0i + q ti
IEM p = i =1
⋅ 100
( )
n
∑ p 0i ⋅ q 0i + qti
i =1
∑ q ⋅ (p )
n
ti 0i + pti
IEM q = i =1
⋅ 100
∑ q ⋅ (p )
n
0i 0i + p ti
i =1
∑p ti ⋅ q 0i ⋅ qti
IW p = i =1
n
⋅ 100
∑p
i =1
0i ⋅ q 0 i ⋅ q ti
∑q ti ⋅ p 0i ⋅ p t i
IWq = i =1
n
⋅ 100
∑q
i =1
0i ⋅ p 0i ⋅ p ti
-51-
APÉNDICE I. LOS PARÁMETROS. DEFINICIONES Y PROPIEDADES.
Situación Continua ⇒ E ( X ) = µ = ∫ X ⋅ f ( X ) dx
Li ; −∞
E ( k ) = k ⋅1
E (k ) = k
b. El valor esperado de una variable X más o menos una constante (k) es igual
a la constante más o menos el valor esperado de la variable.
n
E (k ± X ) = ∑ (k ± X i ) ⋅ P( X i )
i =1
n
E (k ± X ) = ∑ [(k ) ⋅ P( X i ) ± ( X i ) ⋅ P( X i )]
i =1
n n
E (k ± X ) = ∑ (k ) ⋅ P( X i ) ± ∑ ( X i ) ⋅ P( X i )
i =1 i =1
n n
E (k ± X ) = k ⋅ ∑ P( X i ) ± ∑ ( X i ) ⋅ P( X i )
i =1 i =1
E (k ± X ) = k ⋅1 + E ( X )
E (k ± X ) = k + E ( X )
-52-
n
E (k ⋅ X ) = ∑ (k ⋅ X i ) ⋅ P( X i )
i =1
n
E (k ⋅ X ) = k ⋅ ∑ ( X i ) ⋅ P( X i )
i =1
E (k ⋅ X ) = k ⋅ E ( X )
E ( X ± Y ) = E ( X ) ± E (Y )
E ( X ⋅ Y ) = E ( X ) ⋅ E (Y ) ⇔ X,Y Independientes
mín( X ) ≤ E ( X ) ≤ máx( X )
12.2) LA VARIANZA.
n
Situación Discreta ⇒ Var(X) = σ 2 = ∑ [ X i − E ( X )] ⋅ P( X i )
2
i =1
Ls ; +∞
-53-
( )
n
Var ( X ) = E [X i − E ( X i )] = ∑ [X i − E ( X i )] ⋅ P( X i ) = E X i2 − [E ( X i )]
2 2 2
i =1
Var ( k ) = 0
n
Var (k ± X ) = ∑ [(k ± X i ) − E (k ± X )] ⋅ P( X i )
2
i =1
n
Var (k ± X ) = ∑ {k ± X i − [E ( X ) ± k ]} ⋅ P( X i )
2
i =1
n
Var (k ± X ) = ∑ [k ± X i − E (k ) m k ] ⋅ P( X i )
2
i =1
n
Var (k ± X ) = ∑ [ X i − E (k )] ⋅ P( X i )
2
i =1
Var (k ± X ) = Var ( X )
n
Var (k ⋅ X ) = ∑ [(k ⋅ X i ) − E (k ⋅ X )] ⋅ P( X i )
2
i =1
n
Var (k ⋅ X ) = ∑ [k ⋅ X i − k ⋅ E ( X )] ⋅ P( X i )
2
i =1
n
Var (k ⋅ X ) = ∑ {k ⋅ [ X i − E ( X )]} ⋅ P( X i )
2
i =1
n
Var (k ⋅ X ) = ∑ k 2 ⋅ [X i − E ( X )] ⋅ P( X i )
2
i =1
n
Var (k ⋅ X ) = k 2 ⋅ ∑ [X i − E ( X )] ⋅ P( X i )
2
i =1
Var (k ⋅ X ) = k ⋅ Var ( X )
2
-54-
[ ]
Var ( X + Y ) = ∑∑ (X i + Y j ) − E ( X + Y ) ⋅ P( X i ) ⋅ P (Y j )
n m
2
i =1 j =1
[ ]
Var ( X + Y ) = ∑∑ {[X i − E ( X )] + Y j − E (Y ) } ⋅ P( X i ) ⋅ P(Y j )
n m
2
i =1 j =1
{ [ ] [ ]}
Var ( X + Y ) = ∑∑ [X i − E ( X )] + 2 ⋅ [X i − E ( X )]⋅ Y j − E (Y ) + Y j − E (Y ) ⋅ P( X i ) ⋅ P(Y j )
n m
2 2
i =1 j =1
[ ]
Var ( X + Y ) = ∑ [ X i − E ( X )] ⋅ P( X i ) ⋅ P(Y j ) + 2 ⋅ ∑∑ [X i − E ( X )]⋅ Y j − E (Y ) ⋅ P( X i ) ⋅ P (Y j )
n n m
2
i =1 i =1 j =1
[ ]
+ ∑ Y j − E (Y ) ⋅ P( X i ) ⋅ P (Y j )
n
2
i =1
-55-
a. La Dispersión de una constante (k) es igual a cero.
Disp(k ) = + Var (k ) = + 0 = 0
b. El Desvío Esperado de una variable más o menos una constante (k) es igual
a las Dispersión de la variable.
Disp(k ± X ) = + Var (k ± X )
Disp(k ± X ) = + Var ( X )
Disp(k ± X ) = Disp( X )
-56-
APÉNDICE II. DISTRIBUCIÓN DE CARACTERÍSTICAS MUESTRALES.
σ
Conocemos σ ⇒ X ≈ N µ ;
n
Conocemos
distribución de X ⇒ s
Aplicamos el n ≥ 30 ⇒ X ≈ N µ ;
n
X ≈ N (µ ; σ ) No conocemos σ ⇒ Teorema Central ⇒
s
del Límite n < 30 ⇒ X ≈ t n −1 µ ;
n −1
Dada una Variable
⇒
Poblacional X
Aplicamos el σ
σ conocida ⇒ X ≈ N µ ;
No conocemos Teorema Central n
⇒ n ≥ 30 ⇒ ⇒
distribución de X del Límite s
σ desconocida ⇒ X ≈ N µ ;
(supone X ≈ N ) n
Var ( X ) Disp( X )
E (X ) = E ( X ) Var (X ) = Disp(X ) =
n n
-57-
13.2.1) DISTRIBUCIÓN DE LA VARIABLE ALEATORIA VARIANZA MUESTRAL.
n ⋅ s2
La estandarización es: dado s 2 ⇒ χ n2−1 = .
σ2
σ2 σ4 σ4
( )
E S 2 = (n − 1) ⋅ ( )
Var S 2 = 2 ⋅ (n − 1) ⋅ ( )
Disp S 2 = + 2 ⋅ (n − 1) ⋅
n n2 n2
-58-
Sus valores de variable son las dispersiones de un número finito de muestras, es decir que cada valor será un s .
Sus valores de variables son las proporciones de un número finito de muestras, es decir serán p .
p ⋅ q
Si se conoce p ⇒ p ≈ N p;
n
p⋅q
Si no se conoce p ⇒ p ≈ N p;
n
p⋅q p⋅q
E( p) = p Var ( p ) = Disp( p ) = +
n n
-59-
-60-