Sei sulla pagina 1di 60

ESTADÍSTICA

Material Completo

Cátedra: Liliana Ghersi.


ÍNDICE

INTRODUCCIÓN: “REGLAS DE CONTEO”. ....................................................... 5


0.1) EL NÚMERO FACTORIAL.................................................................................. 5
0.2) PERMUTACIONES. ............................................................................................ 5
0.3) VARIACIONES.................................................................................................. 5
0.4) COMBINACIONES. ............................................................................................ 5
UNIDAD N°1: PROBABILIDADES.......................................................................... 6
1.1) ALGUNAS DEFINICIONES INTRODUCTORIAS. ..................................................... 6
1.1.1. Probabilidad. ............................................................................................ 6
1.1.2. Espacio Muestral. ..................................................................................... 6
1.1.3. Experimento Aleatorio.............................................................................. 6
1.1.4. Suceso Aleatorio....................................................................................... 6
1.1.5. Sucesos Incompatibles. ............................................................................. 6
1.1.6. Sucesos Compatibles. ............................................................................... 6
1.1.7. Eventos dependientes o condicionados...................................................... 6
1.1.8. Eventos independientes............................................................................. 6
1.2) TEORÍAS OBJETIVAS DE PROBABILIDAD. .......................................................... 6
1.2.1. Definición Clásica (Pierre Simon Laplace)................................................ 6
1.2.2. Definición Frecuentalista (Richard Von Mises)......................................... 7
1.2.3. Definición Axiomática.............................................................................. 7
1.3) CÁLCULO DE PROBABILIDADES........................................................................ 7
1.3.1. Probabilidad Total. ................................................................................... 7
1.3.2. Probabilidad Conjunta. ............................................................................. 8
1.3.3. Probabilidad Condicionada. ...................................................................... 9
1.4) TEOREMA DE BAYES........................................................................................ 9
UNIDAD N°2: VARIABLES ALEATORIAS.......................................................... 10
2.1) DEFINICIÓN DE VARIABLE ALEATORIA........................................................... 10
2.2) TIPOS DE VARIABLES ALEATORIAS. PROB. ACUMULADA. LEY DE CIERRE. ...... 10
2.3) PARÁMETROS POBLACIONALES DE UNA VARIABLE ALEATORIA. ..................... 10
2.3.1. Parámetros de Tendencia Central. ........................................................... 10
2.3.1.A. Valor Esperado o Esperanza.............................................................. 11
2.3.1.B. Moda. ............................................................................................... 11
2.3.1.C. Mediana............................................................................................ 11
2.3.2. Parámetros de Variabilidad. .................................................................... 11
2.3.2.A. Varianza. .......................................................................................... 11
2.3.2.B. Desvío Esperado o Dispersión........................................................... 12
2.3.3. Coeficiente de Variabilidad..................................................................... 12
2.4) DESIGUALDAD DE CHÉBISHEV. ...................................................................... 13
2.5) COVARIANZA. ............................................................................................... 13
UNIDAD N°3: DISTRIBUCIONES DISCRETAS DE PROBABILIDADES. ....... 15
3.1) EXPERIMENTO O DISTRIBUCIÓN DE BERNOULLI.............................................. 15
3.2) DISTRIBUCIÓN BINOMIAL. ............................................................................. 15
3.3) DISTRIBUCIÓN HIPERGEOMÉTRICA................................................................. 15
3.4) DISTRIBUCIÓN DE POISSON. ........................................................................... 16
3.5) DISTRIBUCIÓN MULTINOMIAL........................................................................ 17

-2-
UNIDAD N°4: DISTRIBUCIONES CONTINUAS DE PROBABILIDADES. ...... 18
4.1) DISTRIBUCIÓN NORMAL. ............................................................................... 18
4.1.1. Función de Densidad Normal.................................................................. 18
4.1.2. Probabilidades Acumuladas. ................................................................... 19
UNIDAD N°5: ESTADÍSTICA DESCRIPTIVA. .................................................... 21
5.1) DEFINICIONES BÁSICAS. ................................................................................ 21
5.1.1. Dato........................................................................................................ 21
5.1.2. Información. ........................................................................................... 21
5.1.3. Población................................................................................................ 21
5.1.4. Universo. ................................................................................................ 21
5.1.5. Muestra. ................................................................................................. 21
5.2) ANÁLISIS DE DATOS Y GENERACIÓN DE RESULTADOS. ................................... 22
5.2.1. Medidas de Tendencia Central. ............................................................... 22
5.2.1.A. Media................................................................................................ 22
5.2.1.B. Mediana............................................................................................ 22
5.2.1.C. Modo/a. ............................................................................................ 22
5.2.2. Medidas de Tendencia No Central. ......................................................... 23
5.2.2.A. Percentiles. ....................................................................................... 23
5.2.2.B. Deciles.............................................................................................. 23
5.2.2.C. Cuartiles. .......................................................................................... 23
5.2.3. Medidas de Dispersión............................................................................ 24
5.2.3.A. Rango. .............................................................................................. 24
5.2.3.B. Varianza. .......................................................................................... 24
5.2.3.C. Coeficiente de Dispersión o Desviación Estándar.............................. 24
5.3) ANÁLISIS DE SIMETRÍA. ................................................................................. 24
5.3.1. Comparación de la Media con la Mediana y la Moda. ............................. 24
5.3.2. Comparación relativa de Media y Mediana con respecto a la Desviación.25
5.3.3. Coeficiente de Asimetría......................................................................... 25
5.3.4. Coeficiente de Curtosis. .......................................................................... 25
5.4) ANÁLISIS DE CAJA Y BIGOTES........................................................................ 26
UNIDAD N°6: DISTRIB. DE LAS CARACTERÍSTICAS MUESTRALES. ........ 27
6.1) VARIABLES ALEATORIAS MUESTRALES (EN GENERAL). .................................. 27
6.2) VARIABLE ALEATORIA MEDIA MUESTRAL..................................................... 27
6.2.1. Distribución de la V.A. Media Muestral.................................................. 27
6.2.2. Parámetros de la V.A. Media Muestral.................................................... 29
6.3) VARIABLE ALEATORIA VARIANZA MUESTRAL. .............................................. 29
6.3.1. Distribución de la V.A. Varianza Muestral.............................................. 29
6.3.2. Parámetros de la V.A. Varianza Muestral................................................ 30
6.4) VARIABLE ALEATORIA DISPERSIÓN MUESTRAL. ............................................ 31
6.4.1. Distribución de la V.A. Dispersión Muestral........................................... 31
6.4.2. Parámetros de la V.A. Dispersión Muestral............................................. 31
6.5) VARIABLE ALEATORIA PROPORCIÓN MUESTRAL............................................ 31
6.5.1. Distribución de la V.A. Proporción Muestral. ......................................... 31
6.5.2. Parámetros de la V.A. Proporción Muestral. ........................................... 31
UNIDAD N°7: INTERVALOS DE CONFIANZA. ................................................. 33
7.1) INTERVALOS DE CONFIANZA PARA LA MEDIA POBLACIONAL. ......................... 33
7.2) INTERVALOS DE CONFIANZA PARA LA VARIANZA POBLACIONAL. ................... 34

-3-
7.3) INTERVALOS DE CONFIANZA PARA LA DISPERSIÓN POBLACIONAL. ................. 34
7.4) INTERVALOS DE CONFIANZA PARA LA PROPORCIÓN POBLACIONAL. ................ 34
7.5) DETERMINACIÓN DEL TAMAÑO DE MUESTRA................................................. 35
UNIDAD N°8: TEST DE HIPÓTESIS..................................................................... 36
8.1) . 36
UNIDAD N°9: REGRESIÓN Y CORRELACIÓN. ................................................ 37
9.1) MODELO DE REGRESIÓN LINEAL SIMPLE........................................................ 37
9.2) MODELO DE REGRESIÓN EXPONENCIAL SIMPLE. ............................................ 38
9.3) MODELO DE REGRESIÓN POTENCIAL SIMPLE.................................................. 39
9.4) ANÁLISIS DE LAS VARIACIONES DEL MODELO DE REGRESIÓN......................... 41
9.5) MEDIDAS DE LA BONDAD EN EL AJUSTE......................................................... 42
9.4.1. Medidas Relat. de la Bondad del Ajuste: Correlación y Determinación.42
9.4.2. Medida Absoluta de la Bondad del Ajuste: el Se . ................................... 44
UNIDAD N°10: SERIES CRONOLÓGICAS.......................................................... 45
10.1) . 45
UNIDAD N°11: NÚMEROS ÍNDICES. ................................................................... 46
11.1) ÍNDICES SIMPLES........................................................................................... 46
11.2) ÍNDICES AGREGATIVOS SIMPLES.................................................................... 47
11.3) ÍNDICES AGREGATIVOS PONDERADOS. ........................................................... 47
11.3.1. Índice de Laspeyres. ............................................................................... 47
11.3.2. Índice de Paasche.................................................................................... 48
11.4) ÍNDICE DE FISHER.......................................................................................... 49
11.5) OTROS ÍNDICES AGREGATIVOS PONDERADOS................................................. 50
11.5.1. Índice de Drovisch-Bowley..................................................................... 50
11.5.2. Índice de Edgeworth-Marshall. ............................................................... 50
11.5.3. Índice de Walch. ..................................................................................... 51
APÉNDICE I. LOS PARÁMETROS. DEFINICIONES Y PROPIEDADES. ...... 52
12.1) EL VALOR ESPERADO O ESPERANZA. ............................................................. 52
12.1.1. Definición y cálculo de la Esperanza....................................................... 52
12.1.2. Propiedades del Valor Esperado.............................................................. 52
12.2) LA VARIANZA. .............................................................................................. 53
12.2.1. Definición y cálculo de la Varianza......................................................... 53
12.2.2. Propiedades de la Varianza. .................................................................... 53
12.3) LA DISPERSIÓN O DESVÍO ESPERADO. ............................................................ 55
12.3.1. Definición y cálculo de la Dispersión...................................................... 55
12.3.2. Propiedades del Desvío Esperado............................................................ 55
APÉNDICE II. DISTRIBUCIÓN DE CARACTERÍSTICAS MUESTRALES..... 57
13.1.1) DISTRIBUCIÓN DE LA VARIABLE ALEATORIA MEDIA MUESTRAL................ 57
13.1.2) PARÁMETROS DE LA VARIABLE ALEATORIA MEDIA MUESTRAL................. 57
13.2.1) DISTRIBUCIÓN DE LA VARIABLE ALEATORIA VARIANZA MUESTRAL.......... 58
13.2.2) PARÁMETROS DE LA VARIABLE ALEATORIA VARIANZA MUESTRAL. .......... 58
13.3.1) DISTRIBUCIÓN DE LA VARIABLE ALEATORIA DISPERSIÓN MUESTRAL. ....... 58
13.4.1) DISTRIBUCIÓN DE LA VARIABLE ALEATORIA PROPORCIÓN MUESTRAL. ..... 59
13.4.2) PARÁMETROS DE LA VARIABLE ALEATORIA PROPORCIÓN MUESTRAL........ 59

-4-
INTRODUCCIÓN: “REGLAS DE CONTEO”.

0.1) EL NÚMERO FACTORIAL.


Se define como:

n ∈ E/ + ⇒ n ! = n ⋅ (n − 1) ⋅ (n − 2) ⋅ (n − 3) ⋅ K ⋅ 3 ⋅ 2 ⋅ 1
n !⇒ 
n = 0 ⇒ 0 ! = 1

0.2) PERMUTACIONES.
Son las distintas disposiciones ordenadas que se pueden formar con un conjunto
de objetos diferentes.
Dados n elementos, permutar es ordenar de todas las maneras posibles.
Se define de la siguiente manera:

Pn = n ⋅ (n − 1) ⋅ (n − 2) ⋅ (n − 3) ⋅ K ⋅ 3 ⋅ 2 ⋅ 1 = n !

0.3) VARIACIONES.
Son las distintas formas en que podemos agrupar los elementos de un conjunto
con N elementos tomados en grupos de n elementos. Es por esto que siempre se cumple
que N > n . Estos grupos se diferencian por el orden de sus elementos.
Su cálculo es el siguiente:
N!
V Nn =
( N − n)!

En el caso que se de N = n , estamos frente a una simple permutación.


N! N!
V Nn = V NN = = = N!
( N − N )! 0!

0.4) COMBINACIONES.
Es la cantidad de grupos de N elementos tomados de a n elementos. En este caso
los grupos son distintos únicamente cuando tienen un elemento diferente y no por el
orden de los mismos.
Se define como:
N!
C Nn =
( N − n)!⋅n !

-5-
UNIDAD N°1: PROBABILIDADES.

1.1) ALGUNAS DEFINICIONES INTRODUCTORIAS.

1.1.1. Probabilidad.
Es una medida, que se aplica para cuantificar la incertidumbre de un evento o
suceso aleatorio. Es la medida de la expectativa de aparición de un tal suceso.
Sueles notarse en porcentajes, pero de manera tradicional se expresa en términos
relativos.
La notación matemática es P (s ) , que se lee: Probabilidad de un suceso “s”. El
número expresado en términos relativos oscila entre 0 y 1.

1.1.2. Espacio Muestral.


Es el conjunto de todos los posibles resultados “elementales” de un experimento
aleatorio.

1.1.3. Experimento Aleatorio.


Es la observación de un fenómeno del cual no sabemos qué resultado se va a
obtener.

1.1.4. Suceso Aleatorio.


Dado un experimento aleatorio y su correspondiente espacio muestral se define
como suceso aleatorio a un conjunto de resultados posibles, o sea, un
subconjunto del espacio muestral.

1.1.5. Sucesos Incompatibles.


También conocidos como mutuamente excluyentes o disjuntos, son eventos
definidos de modo que la ocurrencia de un elemento imposibilita la ocurrencia
de cualquiera de los otros.

1.1.6. Sucesos Compatibles.


Son eventos que pueden presentarse simultáneamente.

1.1.7. Eventos dependientes o condicionados.


Son sucesos donde la presencia de uno condiciona la de otro.

1.1.8. Eventos independientes.


Cuando la ocurrencia o no de un suceso no afecta la posibilidad asignada a la
ocurrencia de otro.

1.2) TEORÍAS OBJETIVAS DE PROBABILIDAD.

1.2.1. Definición Clásica (Pierre Simon Laplace).

-6-
La probabilidad en este caso se calcula a priori, o sea, antes de hacer cualquier
prueba. Se calcula de la siguiente manera:
Casos Faborables s
P( s) = =
Casos Posbiles EM

1.2.2. Definición Frecuentalista (Richard Von Mises).


A diferencia de la definición Clásica, los frecuentalistas definen la posibilidad a
posteriori, es decir, luego de experimentar.
Se calcula de esta forma:
Casos Favorables Casos Favorables
P( s) = lim =
n → +∞ Casos Totales Cantidad de veces que se experimentó

1.2.3. Definición Axiomática.


Se constituye un modelo en el cual a cada uno de los resultados posibles de un
experimento aleatorio se le asigna una probabilidad que cumple con las
siguientes pautas:
0 ≤ P( s ) ≤ 1

 P( EM ) = 1

Podemos agregar en base a estos límites una distinción entre las probabilidades
asignadas a los Eventos Seguros y a los Imposibles.
La probabilidad de un evento seguro (que es lo mismo que decir la probabilidad
del espacio muestral) es igual a 1. Pero que sea uno no implica que sea un evento
seguro, es decir que no hay doble implicación en la afirmación.
Evento Seguro ⇒ P( Evento Seguro) = P(EM) = 1
En el caso de los Sucesos Imposibles (es decir del conjunto vacío), la
probabilidad asociada es 0. Pero que sea cero no implica que sea un suceso
imposible.
Suceso Imposible ⇒ P( Suceso Imposible) = P( φ ) = 0
Una última aclaración en esto sería que si un suceso es seguro no implica que
necesariamente vaya a aparecer, y que sea imposible no implica que no
aparezca, ya que estamos hablando en términos probabilísticos, es decir de las
posibilidades de aparición de ese suceso.

1.3) CÁLCULO DE PROBABILIDADES.

1.3.1. Probabilidad Total.


Dados dos sucesos A y B, es la probabilidad de que ocurra A o B, o ambos.
Según el Teorema de la Adición de Probabilidades:

Si son compatibles ⇒ P ( A ∪ B) = P( A) + P ( B) − P( A ∩ B)
Si son incompatibles ⇒ P ( A ∪ B) = P( A) + P ( B)

-7-
Otras maneras de expresar la probabilidad total de dos sucesos, A y B, son las
siguientes:
P( A ∪ B) = P( A) + P( B) − P ( A ∩ B)
P( A ∪ B) = P( A) + P( A ∩ B)
P( A ∪ B) = P( A ∩ B) + P( A ∩ B ) + P ( A ∩ B)
P( A ∪ B) = P( B) + P( A ∩ B)
P( A ∪ B) = 1 − P( A ∪ B)
P( A ∪ B) = P( A ∪ B)

1.3.2. Probabilidad Conjunta.


Dados dos sucesos A y B, es la probabilidad de que ocurran, simultáneamente,
ambos.
Según el Teorema del Producto de Probabilidades:
Si son dependientes ⇒ P( A ∩ B) = P( A) ⋅ P B( )
A
⇒ P( B) ≠ P B
A
( )
Si son independientes ⇒ P( A ∩ B) = P( A) ⋅ P( B) ⇒ P( B) = P B
A
( )
De esto se desprende el supuesto de que si P( B) = P B ( A) se dice que ambos
sucesos son estocásticamente independientes. Si P( B) ≠ P (B ) se dice que son
A
estocásticamente dependientes.

Para probar la independencia de con eventos, A y B, se parte, generalmente de la


probabilidad condicional o directamente desde la conjunta.
( )
Entonces, si P( A ∩ B) = P( A) ⋅ P B , y P( A ∩ B) = P( A) ⋅ P(B ) , podemos
A
igualar y decir que:

P( A ∩ B) = P ( A ∩ B) ⇒ P( A) ⋅ P B( A) = P( A) ⋅ P(B ) ⇒ P(B A) = P(B )


Finalmente llegamos a la expresión que buscábamos para probar la
( )
independencia de dos conjuntos, tenemos que probar que P B = P(B ) .
A
Viéndolo desde un punto de vista más racional, y quizás un poco menos
matemático, podemos ver para probar la dependencia o independencia, si el
suceso A condiciona la aparición de B, o viceversa. Parecería obvio decir
que P( B ) = P(B ) , pero es un buen punto de partida para probar lo que
queremos, porque lo que hacemos desde esa igualdad para ver si ambos sucesos
son independientes o no, es agregarle en uno de los lados la condición, en este
caso A. Y así es como obtenemos, de forma inductiva, a la expresión que
( )
logramos más arriba P( B ) = P B .
A
Entonces, si esta igualdad se cumple, decimos que A no condiciona a la
aparición de B por lo que son sucesos estocásticamente independientes. En

-8-
cambio, si no se cumple la igualdad, que aparezca A condiciona la aparición de
B, por lo que se llaman sucesos estocásticamente dependientes.

1.3.3. Probabilidad Condicionada.


Dados dos sucesos A y B, es la probabilidad de que ocurra A sabiendo de ya
ocurrió B, o viceversa.

PA =
B
( )
P( A ∩ B)
P( B)
⇔ P(B) ≠ 0

1.4) TEOREMA DE BAYES.


La regla de Bayes sirve para calcular probabilidades condicionales, pero su
importancia tiene que ver con el uso de probabilidades subjetivas para tratar problemas
de decisión bajo incertidumbre. El interés de Bayes fue buscar la probabilidad de una
causa específica cuando se observa un fenómeno particular.
Entonces podemos decir que esta regla sirve para calcular la probabilidad de
aparición de una causa ( C m ) dado que ya se dio un efecto ( E k ). La fórmula es la
siguiente:

P(C m ) ⋅ P k 
E
 Cm  P(C m ∩ E k ) P(C m E k )  C m 
P = = n = n
 E k 
P (C i E k ) ∑ P(C i ) ⋅ P k 
P( E k ) E
∑i =1 i =1  Ci 

-9-
UNIDAD N°2: VARIABLES ALEATORIAS.

2.1) DEFINICIÓN DE VARIABLE ALEATORIA.


Una Variable Aleatoria (VA) es una función cuya primera coordenada es un
elemento de la colección exhaustiva definida para el espacio muestral (EM) y la
segunda coordenada es la “Probabilidad del Evento” o la “Ley de Densidad de ese
evento”.
La primera coordenada va a ser un número que identifica al evento en cuestión por
lo tanto una VA es un conjunto de pares ordenados numéricos donde el valor de la
primera depende su para su presentación de la aparición del evento de la colección
exhaustiva.
Una VA puede estar dentro del campo real ( VA ∈ R/ ) como el complejo ( VA ∈ C/ ).

2.2) TIPOS DE VARIABLES ALEATORIAS. PROBABILIDAD ACUMULADA. LEY DE


CIERRE.
Cuando los elementos de la colección exhaustiva sea, finita o infinita, numerable
se llama “Ley de Probabilidad” la que determina el valor de la segunda coordenada y se
la denomina Variable Aleatoria Discreta (VAD). En este tipo de VA si tomamos dos
valores de variable existen infinitos puntos interiores que no son tomados en cuenta, es
decir que la gráfica de distribución va a ser un conjunto de puntos aislados unos de
otros.
Cuando el conjunto es no numerable (es decir, ilimitado) se usa para definir la
segunda coordenada la “Ley de Distribución”. Este tipo de VA se llama Variable
Aleatoria Continua (VAC). A diferencia de una VA Discreta el gráfico va a ser una
curva completa ya que toma todos los valores posibles dentro del campo que se
determine, ya sea el real ( VAC ∈ R/ ) o el complejo ( VAC ∈ C/ ).

Para calcular, en ambos casos de variables, la probabilidad acumulada a un punto


“a” se hace aplica el siguiente razonamiento:
X i =a
VAD ⇒ P(X ≤ a) = ∑ P( X
i =1
i )
a
VAC ⇒ P(X ≤ a ) = ∫ f ( x) dx
Li ; −∞

Para los dos casos se cumple la Ley de Cierre de la siguiente forma:


X i =a
VAD ⇒ P(X ≤ Ls ) = ∑ P( X
i =1
i ) =1
Ls ; +∞

VAC ⇒ P(X ≤ Ls ) = ∫ f ( x) dx = 1
Li ; −∞

2.3) PARÁMETROS POBLACIONALES DE UNA VARIABLE ALEATORIA.

2.3.1. Parámetros de Tendencia Central.

-10-
2.3.1.A. Valor Esperado o Esperanza.
El Valor Esperado o Esperanza Matemática, es una construcción a partir de
las cosas que suceden y a la fuerza con que estas pasan, que denota una
expectativa. Es, junto con la Dispersión, un parámetro fundamental dentro
del cálculo estadístico.
Su resultado es un valor de variable, del cual decimos que tenemos
expectativa de que resulte, en promedio, al experimentar.
Su cálculo es el siguiente:
n;+ ∞
Situación Discreta ⇒ E(X) = µ = ∑X
i =1
i ⋅ P(X i )
Ls ; +∞

Situación Continua ⇒ E ( X ) = µ = ∫ X ⋅ f ( X ) dx
Li ; −∞

La Esperanza [ E ( X ) ] presenta las siguientes propiedades:


E (k ) = k ∀k ∈ R/
E (k + X ) = k + E ( X )
E (k ⋅ X ) = k ⋅ E ( X )
E ( X ± Y ) = E ( X ) ± E (Y )
E ( X ⋅ Y ) = E ( X ) ⋅ E (Y ) ⇔ X,Y Independientes
mín( X ) ≤ E ( X ) ≤ máx( X )

2.3.1.B. Moda.
Es el valor de variable que posee la mayor probabilidad asociada. Es decir,
es el valor con mayor expectativa de aparición.

2.3.1.C. Mediana.
Es el valor del Espacio Muestral que divide simétricamente los valores
poblacionales de la variable.

2.3.2. Parámetros de Variabilidad.

2.3.2.A. Varianza.
Se conoce a la Varianza como la sumatoria de los desvíos cuadráticos de la
variable ( X i ) con respecto de su valor esperado [ E ( X ) ] ponderados por sus
probabilidades asociadas [ P ( X i ) ].
Es por esto que cálculo es el siguiente:
n
Situación Discreta ⇒ Var(X) = σ 2 = ∑ [ X i − E ( X )] ⋅ P( X i )
2

i =1
Ls ; +∞

Situación Continua ⇒ Var ( X ) = σ 2 = ∫ [X − E ( X )] ⋅ f ( X i ) dx


2
i
Li ; −∞

La Varianza [ Var ( X ) ] posee, entre otras, estas propiedades fundamentales:

-11-
Var (k ) = 0 ∀k ∈ R/
Var (k + X ) = Var ( X )
Var (k ⋅ X ) = k 2 ⋅ Var ( X )

2.3.2.B. Desvío Esperado o Dispersión.


Como habíamos anticipado, conjuntamente con el valor esperado, éste es un
parámetro fundamental para el estudio de las poblaciones y también para el
estudio de muestras.
Representa la diferencia entre el Valor esperado y lo que en realidad
esperamos. De alguna manera es un tipo de valor esperado ya que nos
determina cuánto esperamos desviarnos de lo que en realidad deseamos
alcanzar.
Por esto es que su cálculo es, de alguna manera, la simplificación del
resultado de la Var ( X ) , ya que esta muestra los desvíos cuadráticos
ponderados por las probabilidades asociadas, y la Disp ( X ) los desvíos con
respecto del valor esperado [ E ( X ) ]. Se calcula de la siguiente manera:
Disp ( X ) = + Var ( X ) = + σ 2 = σ

Al igual que el valor esperado y la varianza, la dispersión posee propiedades


aplicables al cálculo. Las más comunes son las siguientes:
Disp (k ) = 0 ∀k ∈ R/
Disp (k + X ) = Disp ( X )
Disp (k ⋅ X ) = k ⋅ Disp ( X )

En torno a este punto podemos hablar de una clasificación de las Variables


Aleatorias con respecto de su E ( X ) . Podemos dividir a las variables en:
Homogéneas y Heterogéneas.
Una VA es Homogénea cuando los valores de la variable está próximos a su
E ( X ) . En cambio decimos que es Heterogénea cuando los valores de la
variable están lejos de su E ( X ) .
Desde el punto de vista de la Dispersión, se puede decir que: cuando ésta se
acerca a 0 (cero) la variable tiende a ser Homogénea ya que los desvíos son
más pequeños, en cambio cuando la Dispersión tiende a ser un número más
alto, la variable va a ser Heterogénea ya que los desvíos son mayores.

2.3.3. Coeficiente de Variabilidad.


Este coeficiente nos muestra cuán representativa es la E ( X ) con respecto de los
valores de la variable. Por lo general se expresa como un porcentaje. Es por esto
que su cálculo es el siguiente:

-12-
n

Disp ( X ) σ
+ ∑ [X
i =1
i − E ( X )] ⋅ P( X i )
2

C.V . = ⋅ 100 = ⋅ 100 = ⋅ 100


E( X ) µ n

∑ X i ⋅ P( X i )
i =1

En el caso de no querer expresar en valores porcentuales y verlo en valores


relativos, basta con obviar la multiplicación por el 100.
Los resultados de este coeficiente pueden clasificarse en varios grupos de
representación. La manera más común es la siguiente.

C.V. C.V. (%) E(X) con respecto de los valores de variable


0 – 0,10 0% – 10% Muy Representativa
0,10 – 0,30 10% – 30% Representativa
0,30 – 0,50 30% – 50% Poco Representativa
0,50 y más 50% y más Nada Representativa

2.4) DESIGUALDAD DE CHÉBISHEV.


Para Variables Aleatorias Discretas o Continuas dado un intervalo simétrico
respecto del valor esperado y sea E ( X ) = µ , es decir que E ( X ) existe y es finito, y la
Disp ( X ) = σ y es finita:
P[ X − E ( X ) ≤ t ⋅ σ ] ≥ 1 − t −2
Se define P( X ) de que la variable tome valores equis-distantes en, a lo sumo, t
veces el desvío ( t ∈ R/ + ). Cuanto mayor es t, la P( X ) se acerca más a 1, y cuando t = 1
la P( X ) = 0 .
Desarmando el valor absoluto la relación se puede expresar de la siguiente
manera:

P[E ( X ) − t ⋅ σ ≤ X ≤ E ( X ) + t ⋅ σ ] ≥ 1 − 2
1
t
En general no se conoce la distribución de la Variable Aleatoria, ni su E ( X ) , ni
su Disp( X ) . Este teorema sirva para hallar la P( X ) en un rango dado.

2.5) COVARIANZA.
Dadas dos Variables Aleatorias X e Y, la Cov( X ; Y ) es una medida de la forma en
que varían conjuntamente las variables y nos dice cómo se relacionan entre ellas.
Se puede decir que es el valor esperado de los desvíos de las variable X e Y, de
manera conjunta.
Su cálculo se expresa de estas dos maneras equivalentes:

-13-
[ ]
n m
Cov ( X ; Y ) = ∑∑ [X i − E ( X )] ⋅ Y j − E (Y ) ⋅ P( X i ; Y j )
i =1 j =1

 n m 
Cov ( X ; Y ) = ∑∑ X i ⋅ Y j ⋅ P( X i ; Y j )  − [E ( X ) ⋅ E (Y ) ]
 i =1 j =1 

Si la Cov( X ; Y ) es positiva, la relación entre las variables es Directa, lo que


implica que ambas variables crecen y decrecen de manera conjunta.
Si la Cov( X ; Y ) es negativa, se dice que la relación es Indirecta, es decir que
cuando una variable crece la otra decrece y viceversa.
Cuando X e Y son independientes Cov ( X ; Y ) = 0 , pero que la Cov ( X ; Y ) = 0 no
implica independencia entre ambas variables.

-14-
UNIDAD N°3: DISTRIBUCIONES DISCRETAS DE PROBABILIDADES.

3.1) EXPERIMENTO O DISTRIBUCIÓN DE BERNOULLI.


La Variable Aleatoria toma los valores 0 ó 1, es decir X ∈ {0,1}.
Es por esto que hablamos de una prueba dicotómica, ya que solamente existen dos
posibles resultados y son excluyentes uno del otro.
Si la variable X toma el valor 1 su probabilidad asociada va a ser la del suceso
favorable p. Si, en cambio, toma el valor 0, la probabilidad asociada será la del no
favorable definido como 1 − p , más usualmente denotado como q.
Analíticamente:
X = 1 ⇒ P ( SF ) = p 
 ⇒ X : {(0; q ), (1; p )}
X = 0 ⇒ P ( SF ) = 1 − p = q 

Es por esto que los parámetros son los siguientes:


E ( X ) = 0 ⋅ (1 − p ) + 1 ⋅ p = p
Var ( X ) = (0 − p ) 2 ⋅ (1 − p ) + (1 − p ) 2 ⋅ p = p ⋅ (1 − p ) = p ⋅ q
Disp ( X ) = + (0 − p ) 2 ⋅ (1 − p ) + (1 − p ) 2 ⋅ p = + p ⋅ (1 − p ) = + p ⋅ q

3.2) DISTRIBUCIÓN BINOMIAL.


Se dice que una Variable Aleatoria Discreta tiene una Distribución Binomial
cuando se determinan n repeticiones independientes del experimento de Bernoulli.
Se busca generalmente, determinar la probabilidad de un suceso ocurra un
determinado número ( X n ) de veces en n repeticiones independientes, en cada una de
las cuales la probabilidad del que ocurra el suceso favorable es p.
Analíticamente la notación de este tipo de distribución es la siguiente:
P( SF ) = p 
 ⇒ X ≈ Bi (n; p )
P( SF ) = 1 − p = q 

La probabilidad va a estar dada por la siguiente estructura:

P( X = X n ) = C nX n ⋅ p X n ⋅ q ( n − X n )

Ya que este tipo de distribución discreta surge de repetir n veces el experimento de


Bernoulli, los parámetros van a estar dados de la siguiente forma:
E( X ) = n ⋅ p
Var ( X ) = n ⋅ p ⋅ q
Disp ( X ) = + n ⋅ p ⋅ q
mo ( X ) = z o ⇔ n ⋅ p − q ≤ z o ≤ n ⋅ p ∀z o ∈ E/ + + {0}

3.3) DISTRIBUCIÓN HIPERGEOMÉTRICA.

-15-
Al igual que en la distribución Binomial, se basa en la existencia de un universo
dicotómico, pero a diferencia de la anterior las repeticiones son dependientes unas de
otras.
Es por esto que la probabilidad del suceso favorable va a estar dada por:
k
P( SF ) = p =
N
Es decir, luego de cada repetición la probabilidad del suceso favorable se va a ver
alterada, a diferencia del caso de la Binomial donde se mantiene constante a lo largo del
experimento.
Podemos decir que si tenemos un número N total de elementos en una población
finita, de manera tal, que k de estos elementos presenta una cierta característica en la
modalidad A (suceso “favorable”), y N − k presenta una cierta característica en la
modalidad A (suceso “no favorable”); si se toma una muestra aleatoria de la población
construida por n elementos, la probabilidad de que X n presenten la característica de A
y n − X n la presenten de la modalidad A es la siguiente:
C kX n ⋅ C Nn −−Xk n
P( X = X n ) =
C Nn

En este tipo de distribución los parámetros están dados de la siguiente forma:


k
E( X ) = n ⋅ p = n ⋅
N
k N −k N −n
Var ( X ) = n ⋅ p ⋅ q ⋅ ( FC ) = n ⋅ ⋅ ⋅
N N N −1
k N −k N −n
Disp ( X ) = + Var ( X ) = + n ⋅ p ⋅ q ⋅ ( FC ) = + n ⋅ ⋅ ⋅
N N N −1
“FC” representa el Factor de Corrección que sirve para corregir los resultados por
el hecho de que las pruebas no son independientes sino que unas dependen de otras.

3.4) DISTRIBUCIÓN DE POISSON.


En este tipo de distribución, si bien los sucesos son independientes y definidos de
manera discreta, las probabilidades están en términos continuos.
Se utiliza cuando la cantidad de veces que se repite el experimento es en forma
independiente para cada repetición, lo suficientemente grande, la probabilidad asociada
al suceso favorable es lo suficientemente pequeña; y la cantidad de veces de que se
presente el suceso también es pequeña.
La probabilidad en un punto X 0 está definida de la siguiente manera:
λ X ⋅ e −λ
0

P( X = X 0 ) =
X 0!
Los parámetros están definidos de la siguiente forma:
E( X ) = n ⋅ p = λ
Var ( X ) = E ( X ) = n ⋅ p = λ
Disp ( X ) = + Var ( X ) = + E ( X ) = + λ

-16-
3.5) DISTRIBUCIÓN MULTINOMIAL.
El concepto y el razonamiento de los sucesos es el mismo que en la Binomial, la
diferencia es que en la Binomial se trabaja sobre un universo dicotómico donde las
posibilidades son que en las repeticiones se de el suceso favorable o no, en cambio en
este tipo de distribución hablamos de múltiples sucesos simultáneos en las repeticiones.
Además podríamos comprobar a partir de un ejemplo muy sencillamente la distribución
Binomial es el caso de la Multinomial con dos posibilidades.
La forma de calcular las probabilidades es la siguiente:
n!
P( X 1 = x1 ; X 2 = x 2 ;K; X n = x n ) = ⋅ P1 1 ⋅ P2 2 ⋅ K ⋅ Pn n
x x x

x1!⋅ x 2 !⋅K ⋅ x n !

Los parámetros definidos para cada variable en particular tienen la misma forma
que en el caso de la Binomial.
µ X i = E ( X i ) = n ⋅ pi
σ X2 = Var ( X i ) = n ⋅ p i ⋅ qi
i

σ X = Disp ( X i ) = + n ⋅ p i ⋅ qi
i

Si se desea analizar la situación de manera conjunta, los parámetros se definen de


la siguiente manera:
k
µ = E ( X 1 ; X 2 ; X 3 ;K ; X k ) = ∑ n ⋅ p i = n
i =1
k k
σ 2 = Var ( X 1 ; X 2 ; X 3 ;K; X k ) = ∑ n ⋅ pi ⋅ q i = ∑ Var ( X i )
i =1 i =1
k k
σ = Disp( X 1 ; X 2 ; X 3 ;K; X k ) = ∑ + n ⋅ p i ⋅ qi = ∑ + Var ( X i )
i =1 i =1

La Covarianza para dos variables cualesquiera distintas, por ejemplo X 1 y X 2 , es


la siguiente:
λ1, 2 = E {[ X 1 − E ( X 1 )] ⋅ [X 2 − E ( X 2 )]} = E [( X 1 − n ⋅ p1 ) ⋅ ( X 2 − n ⋅ p 2 )]

Sintéticamente, la podemos expresar mediante la siguiente fórmula:


λ1, 2 = −n ⋅ p1 ⋅ p j

-17-
UNIDAD N°4: DISTRIBUCIONES CONTINUAS DE PROBABILIDADES.

4.1) DISTRIBUCIÓN NORMAL.

4.1.1. Función de Densidad Normal.

Cuando una VA toma ilimitados valores dentro del campo de los números reales,
se dice que es una VA Continua. La distribución Normal es un tipo de distribución
continua, y se denota de la siguiente manera:

µ = E( X ) 
 ⇒ X ≈ N (µ;σ )
σ = Disp( X )

En las VA continuas las probabilidades vienen dadas por la función de densidad.


En el caso de la Normal, la función de densidad es la siguiente:
1  x−µ 
2

1 − ⋅ 
2 σ 
f ( x) = ⋅e
σ ⋅ 2π

El dominio de esta función, como la VA se mueve dentro del campo de los


números reales va a ser ese mismo conjunto. Y su ámbito el intervalo real comprendido
entre 0 y 1, ya que estos son los límites entre los cuales puede tomar valor la
probabilidad de un suceso. Analíticamente:
Dom f = {x / x ∈ R/ }
 1 
Ambito f =  f ( x) ∈ R/ / 0 < f ( x) ≤ 
 σ ⋅ 2π 

Por otra parte la función es simétrica con respecto a la esperanza ( µ ). Es decir:


f ( x + µ ) = f (− x + µ ) .
En el mismo punto de la esperanza ( µ ) es donde la función alcanza su valor
máximo:
1
máx f = en x = µ
σ ⋅ 2π

Con esto podemos definir los intervalos de crecimiento y decrecimiento que van a
estar dados por:
 f ( x ) es creciente en ( −∞; µ )

 f ( x ) es decreciente en ( µ ;+∞ )

Esta función también posee un límite asintótico inferior en f ( x) = 0 , ya que se


cumple que:
lim f ( x) = lim f ( x) = 0 ⇒ Asíntota Horizontal en f(x) = 0
x → −∞ x → +∞

-18-
Además, posee dos puntos de inflexión situados en:
x1 = µ − σ
x2 = µ + σ
Es por esto que los intervalos de concavidad van a ser los siguientes:
 f ( x) es concava o con concavidad hacia abajo en ( µ − σ ; µ + σ )

 f ( x) es convexa o con concavidad hacia arriba en ( −∞; µ − σ ) ∪ ( µ + σ ;+∞)

Conjugando todo esto, el gráfico típico de una función de densidad simétrica (la
característica de una Distribución de tipo Normal) es el siguiente:

Este gráfico es comúnmente conocido como la Campana de Gauss.

4.1.2. Probabilidades Acumuladas.

Para calcular la Probabilidad Acumulada a un punto a, basándonos en la función


de densidad normal dada, esta Probabilidad va a ser igual al área generada entre la curva
y el eje de las abscisas con límite superior en ese punto a. Analíticamente:
 1 1  x−µ  
2
a a − ⋅ 
P ( X ≤ a ) = P ( X < a ) = ∫ f ( x) dx = ∫  ⋅e 2 σ   dx
−∞ − ∞ σ ⋅ 2π 
 

Como la gráfica es simétrica y posee su máximo en su valor esperado ( µ ), la


probabilidad acumulada hasta ese valor es igual a 0,5 como consecuencia de la Ley de
Cierre.
+∞

+∞
 P ( X ≥ µ ) = P ( X > µ ) = ∫ f ( x ) dx = 0,50
 µ
P ( X < +∞) = ∫ f ( x) dx = 1 ⇒  µ
−∞ 
 P ( X ≤ µ ) = P ( X < µ ) = ∫ f ( x) dx = 0,50
 −∞

Es decir que el valor esperado divide la gráfica en dos regiones iguales con
probabilidades acumuladas de 0,50.

-19-
Además del gráfico de la Función de Densidad, existe otro que representa
directamente las Probabilidades Acumuladas. Se la puede definir como:
1  u−µ 
2
x − ⋅ 
1 2 σ 
f a ( x) =

∫σ ⋅
⋅e
−∞
du

Esta función de Probabilidades Acumuladas tiene como dominio el campo de los


números reales y como ámbito el intervalo abierto entre 0 y 1.
Dom f a = {x / x ∈ R/ }
Ambito f a = { f ( x) ∈ R/ / 0 < f a ( x ) < 1}

No posee valores máximos ni mínimos.

La función es estrictamente creciente en todo su dominio y no decrece, esto es


porque en su avance va acumulando probabilidades.
 f a ( x) es creciente en Dom f a ⇒ Crece en R/

 f a ( x) no decrece

Posee dos asíntotas horizontales, una en 0 y otra en 1. Esto se da ya que:


 lim f a ( x) = 0 ⇒ Asíntota Horizontal en f(x) = 0
x → −∞

 xlim f a ( x) = 1 ⇒ Asíntota Horizontal en f(x) = 1
→ +∞

Tiene un solo punto de inflexión y está en la esperanza, es decir en x = µ . En este


valor, el punto que se define es el (µ ; f a ( µ ) ) , y como hasta µ se acumula el 50% de las
probabilidades, el punto de inflexión es el (µ ;0,50 ) .

Como consecuencia de este punto de inflexión pueden definirse los intervalos de


concavidad y convexidad, que son los siguientes:
 f ( x) es convexa o con concavidad hacia arriba en ( −∞; µ )

 f ( x) es concava o con concavidad hacia abajo en ( µ ;+∞ )

Conjugando el análisis hasta acá hecho, el gráfico es el siguiente:

-20-
UNIDAD N°5: ESTADÍSTICA DESCRIPTIVA.

5.1) DEFINICIONES BÁSICAS.

5.1.1. Dato.
Es el resultado de una evaluación cuantitativa o cualitativa de un suceso. Por
ejemplo el de compra de una PC –medición cuantitativa– o el grado de
satisfacción de un usuario respecto de un servicio médico asistencial –medición
cualitativa–.

5.1.2. Información.
Representa el conjunto de datos interrelacionados. La interrelación puede
aplicarse a datos que correspondan a la misma variable presentes en distintos
elementos, o bien a datos que correspondan a distintas variables presentes en un
mismo elemento. En ambos casos, el fin de la información es alimentar el
proceso de la toma de decisiones.
De acuerdo a John Burch y Gary Grudnitski en Diseño de Sistemas de
Información se tiene que: “La información la componen datos que se han
colocado en un contexto significativo y útil y se ha comunicado a un receptor,
quien la utiliza para tomar decisiones. (…) Especialmente en los negocios, la
información debe dar señales oportunas de aviso y anticipar el futuro”.
Por ejemplo, la gerencia de compras de una empresa analiza los precios de un
determinado insumo entre los diversos proveedores existentes en el mercado –lo
que implica varios valores para una misma variable–; o bien un analista
financiero analiza el monto de las inversiones de una empresa en las áreas:
productiva, capacitación y perfeccionamiento del personal, mantenimiento y
modernización de la infraestructura, y administración comercial –lo cual lleva a
obtener varios valores que surgen de distintas variables–.

5.1.3. Población.
Es el conjunto de todos los valores que toma una característica predeterminada.
Por ejemplo: lo valores del salario básico correspondiente a los empleados de la
administración pública central.

5.1.4. Universo.
Es el conjunto del total de elementos que serán los portadores de la información
sobre la característica en estudio. En nuestro ejemplo anterior, sería el conjunto
de todos los empleados de la administración pública central.

5.1.5. Muestra.
Es un subconjunto del universo en estudio y, consecuentemente, subconjunto de
la población respectiva. En nuestro ejemplo podríamos pensar en todos los
empleados de la administración pública central que fueron seleccionados por
alguna técnica muestral específica.

-21-
5.2) ANÁLISIS DE DATOS Y GENERACIÓN DE RESULTADOS.

5.2.1. Medidas de Tendencia Central.

5.2.1.A. Media.
El concepto es el mismo que el de la esperanza matemática, la diferencia
radica en que el valor esperado se calcula a priori –antes de experimentar–
ya que muestra cuál es el valor esperable de aparecer post-experimentación,
en cambio la media se calcula a posteriori, es decir sobre una muestra.
Es por esto que su cálculo es el siguiente:
n

n ∑X i ⋅F n
M ( X ) = X = ∑ X i ⋅ P( X i ) = i =1
= ∑ X i ⋅ fr
i =1 N i =1

Como mencionamos que mantiene el mismo concepto que la esperanza, las


propiedades de su cálculo son iguales.

5.2.1.B. Mediana.
La mediana es un valor que separa la serie ordenada en dos grupos que
contiene la misma cantidad de datos, de tal manera que en el primer grupo se
encuentran todos aquellos valores menores o iguales a ella y en el segundo
grupo el resto de los valores.
Se calcula sobre el intervalo en donde se logra acumular el 50% de las
frecuencias, y su cálculo es el siguiente:
N
− f aia
M e ( X ) = Linf + 2 ⋅ wi
fi

5.2.1.C. Modo/a.
Es el valor de variable que mayor cantidad de observaciones presenta, es
decir es el valor de mayor frecuencia relativa o absoluta asociada. Es por
esto que en general, cuando la serie de datos está conformada por pocos
valores, el modo no es para nada relevante.
En el caso que se tenga valores agrupados con amplitudes de intervalos
constantes o no, la modalidad de cálculo viene dada por la fórmula:

  fi f  
  − ia  
d1   wi wia  
M o ( X ) = Linf + ⋅ wi =   ⋅ wi
d1 + d 2  f f   f f 
  i − ia  +  i − ip

  wi wia   wi wip  
  

-22-
El valor modal se calcula sobre el intervalo que posee la mayor altura en la
f
muestra. Para conocer las alturas se recurre a la siguiente fórmula: hi = i .
wi
Entonces la moda se calcula sobre el intervalo que arroje mayor resultado.

5.2.2. Medidas de Tendencia No Central.

La mediana permite dividir la muestra en dos grupos iguales, pero se podría


pensar en dividir la serie en grupos de cuatro, diez o cien grupos, que contengan
cada uno de ellos la misma cantidad de elementos. De esta idea surgen los
Percentiles, Deciles y Cuartiles.

5.2.2.A. Percentiles.
Dividen a la serie ordenada en cien grupos de igual cantidad de elementos.
Su cálculo es el siguiente:
N
k⋅ − Faia
Pk = Linf + 100 ⋅ wi
Fi

Si lo relacionamos con la mediana, vamos a decir que el Percentil cincuenta


( P50 ) va a ser igual a la mediana.

5.2.2.B. Deciles.
Dividen a la serie ordenada en diez grupos de igual cantidad de elementos.
Su cálculo es el siguiente:
N
k ⋅ − Faia
Dk = Linf + 10 ⋅ wi
Fi

Si lo relacionamos con la mediana, vamos a decir que el Decil cinco ( D5 ) va


a ser igual a la mediana.

5.2.2.C. Cuartiles.
Dividen a la serie ordenada en cuatro grupos de igual cantidad de elementos.
Su cálculo es el siguiente:
N
k ⋅ − Faia
Qk = Linf + 4 ⋅ wi
Fi

Si lo relacionamos con la mediana, vamos a decir que el Cuartil dos ( Q2 ) va


a ser igual a la mediana.

-23-
5.2.3. Medidas de Dispersión.

Estas medidas nos proporcionan información adicional a los efectos de juzgar


sobre la confiabilidad de nuestras medidas de tendencia central. Es decir para los
casos en que los datos se encuentran altamente dispersos, estas medidas nos
informan que la media no es representativa de la muestra, y para los casos en
que los datos estén altamente concentrados nos informarán que la media es
altamente representativa de la serie ordenada.

5.2.3.A. Rango.
Es la distancia entre el mayor y el menor de los valores observados. Nos
permite analizar la extensión de las variaciones observadas. Es muy sensible
a la presentación de valores atípicos.

5.2.3.B. Varianza.
Es una medida de variabilidad basada en las desviaciones respecto de la
media de la variable. Nos da una distancia promedio –en unidades
cuadráticas– entre cualquier observación de datos y la media del mismo.

∑ [X ] ⋅ F(X )
n
2
−X
[ ] ⋅ f (X ) =
n i i
Var(X) = s 2 = ∑ X i − X
2
i =1
r i
i =1 N

5.2.3.C. Coeficiente de Dispersión o Desviación Estándar.


Es la simplificación del valor –presente en valores cuadráticos– de la
Varianza. Muestra cuánto los valores de la variable se desvían, en promedio,
respecto de la media.
Su cálculo es el siguiente:
Disp ( X ) = s = + Var ( X ) = + s 2

5.3) ANÁLISIS DE SIMETRÍA.

5.3.1. Comparación de la Media con la Mediana y la Moda.


Surge de hacer una comparación entre los tres valores de tendencia central, con
lo que surge:
M ( X ) < M e ( X ) < M o ( X ) ⇒ Distribución Asimétrica Izquierda
M ( X ) = M e ( X ) = M o ( X ) ⇒ Distribución Simétrica
M ( X ) > M e ( X ) > M o ( X ) ⇒ Distribución Asimétrica Derecha

Se entiende que basta con comparar la M ( X ) con la M e ( X ) , ya que una


distribución puede tener más de una M o ( X ) y podría distorsionar el resultado
de esta comparación.

-24-
5.3.2. Comparación relativa de Media y Mediana con respecto a la Desviación.
Este tipo de relación para conocerla Asimetría permite sacar el sesgo que
presenta la serie –en caso de ser asimétrica–. Compara relativamente la M ( X )
con la M e ( X ) de la siguiente manera:
M (X ) − M e (X )
As =
s( x)

El análisis de los resultados es el siguiente:


 As > 0 ⇒ Distribución Asimétrica Derecha
As ⇒ 
 As < 0 ⇒ Distribución Asimétrica Izquierda

5.3.3. Coeficiente de Asimetría.


Viene dado por el cociente entre el momento centrado tercero de la variable y el
cubo del coeficiente de dispersión.

∑ (X )
n
3
−X
∑ (X ) ⋅f
i n
3
i =1 −X
N
i r
E( X − X )3
CAs = 3
= i =1
3
=
Disp ( X ) 3
∑ (X ) ∑ (X )
 n
2   n
2 
 i −X   i −X ⋅ fr 
 i =1   i =1 
 N 
 
 

El análisis de los resultados es el siguiente:


CAs > 0 ⇒ Distribución Asimétrica Derecha

CAs ⇒ CAs = 0 ⇒ Distribución Simétrica
CA < 0 ⇒ Distribución Asimétrica Izquierda
 s

5.3.4. Coeficiente de Curtosis.


Este coeficiente nos permite ver qué tan campanular es la distribución de la
variable. Su cálculo surge del cociente entre el momento centrado cuarto de la
variable y el coeficiente de dispersión elevado a la cuarta.

∑ (X )
n
4
−X
∑ (X )
i n
4
i =1 −X ⋅ fr
N
i
E( X − X ) 4
K= 4
= i =1
4
=
Disp( X ) 4
∑ (X ) ∑ (X )
 n
2   n
2 
 i −X   i −X ⋅ fr 
 i =1   i =1 
 N 
 
 

-25-
Sus resultados se interpretan de la siguiente manera:
 K > 3 ⇒ Distribución Leptocúrtica

K ⇒  K = 3 ⇒ Distribución Mesocúrtica
 K < 3 ⇒ Distribución Platicúrtica

5.4) ANÁLISIS DE CAJA Y BIGOTES.


Para comenzar el análisis se debe calcular el Rango Intercuartílico, que surge de la
diferencia entre el tercer y el primer Cuartil:

Rango Intercuartílico = RIC = q3 − q1

Una vez conocido esto podemos ubicar la “caja” sobre el intervalo delimitado por
los límites inferior y superior de la distribución. Esto nos va a mostrar qué tan simétrica
o asimétrica es la distribución, ya que cuanto más al centro la caja esté ubicada más
simétrica va a ser, en cambio cuando se ubique más hacia los extremos va a mostrar
mayor asimetría.

La segunda parte, la que corresponde a los “bigotes”, surge del cálculo y ubicación
en el diagrama de cuatro barreras o bisagras que van a determinar la tipicidad o
atipicidad de los valores de la muestra. Estas barreras se calculan así:

 Barrera Exterior Inferior = BEI = q1 − 3 ⋅ RIC


 Barrera Interior Inferior = BII = q − 1,5 ⋅ RIC

Barreras ⇒ 
1

 Barrera Interior Superior = BIS = q3 + 1,5 ⋅ RIC


 Barrera Exterior Superior = BES = q 3 + 3 ⋅ RIC

Se dice que los valores de la distribución que quedan comprendidos entre la “caja”
y las Barreras Interior Inferior y Superior son “Valores Típicos”. Los que queden entre
las Barreras Interiores y Exteriores, tanto Inferiores como Superiores, son “Valores
Atípicos”. Y los valores que menores a la Barrera Exterior Inferior superan la Barrera
Exterior Superior, son “Valores Muy Atípicos”.
BEI BES
BII BIS

Q1 Me(X) Q3

Valores Muy Valores Muy


Atípicos Valores Valores Típicos Valores Atípicos
Atípicos Atípicos

-26-
UNIDAD N°6: DISTRIBUCIONES DE LAS CARACTERÍSTICAS MUESTRALES.

6.1) VARIABLES ALEATORIAS MUESTRALES (EN GENERAL).


Sabemos que un parámetro es una característica de una población, por lo que es
fijo, único y siempre existe. En cambio, cuando hablamos en términos muestrales
(donde se trabaja solamente con un subespacio de esa población) se definen estadísticos
que representan alguna función de las observaciones de una muestra. En el caso de que
un estadístico, dada una muestra de tamaño n , se aproxima o converge a un parámetro
poblacional, se dice que es un estimador.

PARÁMETRO ESTIMADOR
POBLACIÓN MUESTRAL
VALOR ESPERADO µ x óm
VARIANZA σ 2
s2
DISPERSIÓN σ s
PROPORCIÓN p p

Habiendo aclarado esto previo, podemos decir que dada una n cantidad de
muestras tomadas de forma aleatoria, sobre las cuales puede individualmente
determinarse estimadores muestrales (como lo son la media, la desviación estándar y la
dispersión), surge una Variable Aleatoria Muestral cuando se crea una variable tomando
como valores los estimadores de las n muestras.
Son Variables Aleatorias Muestrales entonces:
• la Variable Aleatoria Media Muestral ( VA X ), que surge de tomar las
medias ( m ) de cada una de las n muestras;
• la Variable Aleatoria Varianza Muestral ( VA S 2 ), donde los valores de
variable van a ser las varianzas ( s 2 ) de cada muestra;
• la Variable Aleatoria Dispersión Muestral ( VA S ), que posee como
valores las dispersiones ( s ) de cada muestra;
• la Variable Aleatoria Proporción Muestral ( VA P ), que tiene como
valores de variable las proporciones muestrales ( p ) de cada muestra.

Cabe aclarar que como estas son Variables Aleatorias, puede estimarse sobre ella
nuevamente Parámetros, ya sea el valor esperado, la varianza, la dispersión, etc.

6.2) VARIABLE ALEATORIA MEDIA MUESTRAL.

6.2.1. Distribución de la V.A. Media Muestral.


El tipo de distribución al cual se someta esta Variable Aleatoria depende de tres
parámetros fundamentalmente: la distribución de la variable poblacional, la
dispersión poblacional, y el tamaño de la/s muestra/s.

-27-
Si conocemos que la Variable Poblacional se distribuye normalmente y además
conocemos la dispersión poblacional, decimos que la VA X va a seguir una
distribución normal, es decir:
 σ 
X ≈ N (µ ; σ ) y σ conocida ⇒ X ≈ N  µ ; 
 n
Podemos ver cómo el pasaje de la variable poblacional a la muestral afecta a la
dispersión y no a la esperanza. Esto se da ya que la desviación es una medida
que, al aumentar el tamaño de las muestras, va a tender a hacerse nula ya que los
valores van a acercarse cada vez más a los reales y los datos se concentran con
mayor fuerza.

En el caso de conocer que la Variable Poblacional se distribuye normalmente,


pero no conocer la dispersión poblacional se debe recurrir a la aplicación del
Teorema Central del Límite, mediante el cual vamos a inferir en la distribución
muestral partiendo del tamaño de la muestra n .
Este teorema enuncia lo siguiente: “Para cualquier población con media µ y
dispersión σ , desconocida, la distribuciones muestrales de la dispersión
muestral y la media muestral son aproximadamente normales, si el tamaño de n
es lo suficientemente grande”.
De esto surge que si n ≥ 30 la distribución se va a suponer normal, y si n < 30
se va a utilizar otra distribución continua que es la T-Student, que es de igual
forma que la Normal (por lo que la forma de estandarización es la misma) pero
con mayor concentración sobre el valor esperado.
  s 
n ≥ 30 ⇒ X ≈ N  µ ; 
X ≈ N (µ ; σ )    n
 ⇒ T .C.L. ⇒ 
σ desconocida  n < 30 ⇒ X ≈ t  µ ; s 
 n −1  
  n −1 
En ambos casos, como la dispersión poblacional σ no se conoce, se utiliza para
la distribución la desviación estándar muestral s . Esta desviación va a depender
del tamaño de la muestra. En el caso de la distribución T-Student, depende de los
n − 1 grados de libertad.
El término grado de libertad se refiere a la desviación estándar y se utiliza para
indicar el número de piezas de información disponibles a ella. La desviación
estándar se basa en n desviaciones de la media, pero las desviaciones deben
sumar cero de modo que sólo n − 1 desviaciones puedan variar libremente. La
última desviación está determinada por los otros n − 1 . Por consiguiente se dice
que el estadístico t (representante de la distribución T-Student) y el χ 2 (de la
distribución de tipo Chi-Cuadrado) tienen n − 1 grados de libertad.

Si en cambio, no conocemos la distribución de la Variable Poblacional X,


suponemos normalidad recurriendo al Teorema Central del Límite. Entonces se
dice que cuando n ≥ 30 la variable muestral se va a distribuir Normalmente. La
desviación va a estar determinada, si conocemos la dispersión poblacional, por
ella misma, y si no se conoce, por la desviación muestral.

-28-
  σ 
σ conocida ⇒ X ≈ N  µ ; 
No conocemos   n
⇒ T .C.L. ⇒ n ≥ 30 ⇒ 
distribución de X σ desconocida ⇒ X ≈ N  µ ; s 
  
  n

6.2.2. Parámetros de la V.A. Media Muestral.


Como habíamos anticipado, al ser esta una Variable Aleatoria, podemos
determinar sobre sus valores los parámetros que se trabajan sobre las
poblaciones y muestras, como lo son: la media o valor esperado, la varianza, la
dispersión.

En cuanto al valor esperado:


 n 
 ∑ Xi 
E (X ) = E  i =1  = 1 ⋅ E  X  = 1 ⋅ E ( X ) = 1 ⋅ n ⋅ E ( X ) = E ( X )
n n

 n  n ∑ i =1
i ∑
 n i =1 n
 
 
Con esto decimos que el valor esperado de la VA X converge a la esperanza
poblacional.

Por el lado de la varianza se puede deducir que:


 n 
 ∑ Xi 
Var ( X ) = Var  i =1  = 1 ⋅ Var ( X ) = 1 ⋅ n ⋅ Var ( X ) = Var ( X )
n

 n  n 2 i =1∑ n2 n
 
 
En este caso decimos que la Varianza Muestral representa la enésima parte de la
Varianza Poblacional, es decir que al aumentar el tamaño de n menor será la
Varianza Muestral.

La dispersión la podemos calcular a través de la obtención de la raíz cuadrada


positiva de la Varianza Muestral.
Var ( X ) + Var ( X ) Disp( X )
Disp ( X ) = + Var ( X ) = + = =
n n n

6.3) VARIABLE ALEATORIA VARIANZA MUESTRAL.

6.3.1. Distribución de la V.A. Varianza Muestral.


Generalmente, esta variable sigue una distribución del tipo Chi-Cuadrado (o Ji-
Cuadrado, como también suele escribirse). Esta se basa en la utilización del
estadístico χ 2 (Chi-Cuadrado), que al igual que como se dijo con la distribución
T-Student, depende de n − 1 grados de libertad.

-29-
A diferencia de las distribuciones Normal y T-Student, la Chi-Cuadrado no es
simétrica, sino que es del tipo Asimétrica Derecha.

Como la esencia de esta distribución radica en la “elevación al cuadrado de los


valores de variable” (que se corresponden con las varianzas de las n muestras),
la función de distribución se ubica solamente en el primer cuadrante.
Cabe aclarar que como los valores de variable de esta función representan
varianzas muestrales, en vez de estar representados por x , ó x (como el caso de
la Variable Aleatoria Media Muestral), se notan mediante s 2 , y la forma de
estandarización es la siguiente:
n ⋅ s2
Dado s 2 ⇒ χ n2−1 =
σ2

6.3.2. Parámetros de la V.A. Varianza Muestral.


La Esperanza, o valor esperado, se deduce igualando la fórmula de la media a
los ν grados de libertad.
 n⋅S2 
( ) ( )
E S 2 = E  2  ∧ E S 2 = ν = n − 1
 σ 
Es como consecuencia de estos dos supuestos que se infiere que la Esperanza
queda formada de la siguiente forma:
 n⋅S2  σ2
( ) ( )
E  2  = n − 1 ⇒ 2 ⋅ E S 2 = n − 1 ⇒ E S 2 = (n − 1) ⋅
n
 σ  σ n

Por el lado de la Varianza, el supuesto, en vez de ser el de igualar a los ν grados


de libertad, es el de igualar al doble de los grados de libertad, es decir 2ν .
 n⋅S2 
( ) ( )
Var S 2 = Var  2  ∧ Var S 2 = 2 ⋅ν = 2 ⋅ (n − 1)
 σ 
Con lo que queda conformada de la siguiente manera:
 n⋅S2 σ4
2

Var  2
  n 
( ) ( )
 = 2 ⋅ (n − 1) ⇒  2  ⋅ Var S 2 = 2 ⋅ (n − 1) ⇒ Var S 2 = 2 ⋅ (n − 1) ⋅ 2
 σ  σ  n

-30-
Por último, la Dispersión es igual a la raíz cuadrada de la varianza, con lo que
resulta de este modo:
σ4
( ) ( )
Disp S 2 = + Var S 2 = + 2 ⋅ (n − 1) ⋅
n2

6.4) VARIABLE ALEATORIA DISPERSIÓN MUESTRAL.

6.4.1. Distribución de la V.A. Dispersión Muestral.


Esta variable, al igual que la Varianza Muestral, se distribuye bajo el modelo
Chi-Cuadrado.

6.4.2. Parámetros de la V.A. Dispersión Muestral.

6.5) VARIABLE ALEATORIA PROPORCIÓN MUESTRAL.

6.5.1. Distribución de la V.A. Proporción Muestral.


Como este tipo de variable aleatoria, generalmente, se genera en base a muestras
de un tamaño mayor a 30, es decir con n ≥ 30 , se supone Normalidad en la
Distribución. No obstante está contemplado el caso para n < 30 donde se
recurre al modelo T-Student. Igualmente, para basarnos en el modelo Normal se
deben cumplir estas dos condiciones n ⋅ p ≥ 5 ∧ n ⋅ q ≥ 5 , donde q = (1 − p ) .
Una vez determinada la distribución Normal, ésta se forma del siguiente modo:
 p⋅q 
Si se conoce p ⇒ p :  p; 
 n 
 p⋅q 
Si no se conoce p ⇒ p :  p; 

 n 

6.5.2. Parámetros de la V.A. Proporción Muestral.


Como se vio en la Distribución Binomial, el valor esperado es igual al producto
entre el tamaño de muestra n y la probabilidad del suceso favorable p . Es
decir:
E(X ) X
E(X ) = n ⋅ p ⇒ p = = E 
n n
Entonces:
X 1
E( p ) = E  = ⋅ E(X ) = ⋅ n ⋅ p = p ⇒ E( p ) = p
1
n n n

-31-
Es por esto que se dice que la esperanza de la V.A. Proporción Muestral
converge a la proporción poblacional.

La Varianza se deduce de igual forma:


X 1 p⋅q p⋅q
Var ( p ) = Var   = 2 ⋅ Var ( X ) = 2 ⋅ n ⋅ p ⋅ q = ⇒ Var ( p ) =
1
n n n n n

Esto nos muestra que la Varianza depende, a diferencia del valor esperado, del
tamaño de la muestra. Por esto se deduce que entre el tamaño de muestra y la
varianza se crea una relación inversa, es decir que a mayor tamaño de muestra
menor va a ser la varianza, y a menor tamaño de muestra mayor varianza.

Finalmente, la Dispersión resulta de esta manera:


p⋅q
Disp( p ) = + Var ( p ) = +
n

Lo que nos muestra, que al igual que la Varianza, depende del tamaño de la
muestra.

-32-
UNIDAD N°7: INTERVALOS DE CONFIANZA.

El armado de un Intervalo de Confianza es una de las opciones que la Estadística


nos ofrece al momento de intentar estimar parámetros poblacionales a partir de datos
muestrales. Es por esto que a través de la conformación de estos intervalos podemos
inferir, por ejemplo, el valor esperado, la varianza, la dispersión, etc.

7.1) INTERVALOS DE CONFIANZA PARA LA MEDIA POBLACIONAL.


Supongamos que deseamos formar intervalos de confianza para la media de una
variable aleatoria X , para esto debemos partir de la variable media muestral sobre
muestras de n elementos; así debemos definir un grado de perceptibilidad de un α por
ciento, y por consiguiente un nivel del confianza (que es el generado por ese mismo
intervalo) de un 1 − α por ciento. Para la definición de estos intervalos debemos
contemplar diversas situaciones, como las que ahora enunciaremos.

Si la variable X (poblacional) se distribuye Normalmente, y conocemos la


dispersión poblacional σ , como ya hemos visto, la Variable Aleatoria Media Muestral
sigue la misma distribución que la anterior y su dispersión va a estar condicionada por
el tamaño n de la muestra; por lo que el intervalo queda conformado de la siguiente
manera:
 σ σ 
P x − z α ⋅ ≤µ≤x+z α ⋅ = 1−α
 1−
2 n 1−
2 n 

Así el intervalo que se genera es:


σ  σ σ 
x±z α ⋅ ⇒ IC =  x − z α ⋅ ;x + z α ⋅ 
1− 1− 1−
2 n  2 n 2 n

Si en cambio no conocemos la dispersión poblacional σ , por aplicación del


Teorema Central del Límite surge que en base al tamaño n de la muestra vamos a usar
o una distribución Normal, o T-Student.
 s s 
Si n ≥ 30 ⇒ P x − z α ⋅ ≤µ≤x+z α ⋅  = 1−α
 1−
2 n 1−
2 n 
 s s 
Si n < 30 ⇒ P x − t α ⋅ ≤ µ ≤ x +t α ⋅  = 1−α

 1−
2 n − 1 1−
2 n − 1 

Quedando así los intervalos:


 s s s 
Si n ≥ 30 ⇒ x ± z α ⋅
⇒ IC =  x − z α ⋅ ;x + z α ⋅ 
1− 1− 1−
2 n  2 n 2 n
s  s s 
Si n < 30 ⇒ x ± t α ⋅ ⇒ IC =  x − t α ⋅ ;x +t α ⋅ 
1−
2 n −1  1−
2 n −1 1−
2 n −1 

-33-
Para el caso en que siendo el tamaño de muestra menor a treinta, es decir n < 30 ,
y no pueda suponerse Normalidad –como propone el Teorema Central del Límite–, pero
sí se conoce la dispersión poblacional σ , es apta la utilización de la Desigualdad de
Chébishev, formándose de este modo el intervalo:
 σ  −2
P x − E( X ) ≤ t ⋅  > 1− t
 n 
Esta desigualdad, desarrollándola, puede rescribirse de esta manera:
 σ σ  1
Px − t ⋅ ≤ µ ≤ x +t⋅  ≥ 1− t2 = 1−α
 n n

7.2) INTERVALOS DE CONFIANZA PARA LA VARIANZA POBLACIONAL.


Si buscamos armar un intervalo con una confianza de 1 − α por ciento a parir de la
varianza muestral s 2 sobre muestras de n elementos, para la variable aleatoria X , se
debe partir del supuesto que X se distribuye normalmente y, como la Varianza
Muestral se distribuye por el modelo Chi-Cuadrado, entonces se tiene:
 n ⋅ s2 n ⋅ s2 
P 2 ≤ σ 2 ≤ 2  = 1−α
 χ χ inf 
 sup 

Entonces el intervalo queda conformado de la siguiente manera:


n ⋅ s2 n ⋅ s2 
IC =  2 ; 2 
 χ sup χ inf 

7.3) INTERVALOS DE CONFIANZA PARA LA DISPERSIÓN POBLACIONAL.


Para estimar por medio de un intervalo la Dispersión Poblacional, lo que se hace
es estimar la raíz cuadrada de la Varianza, que no es otra cosa que la dispersión. En la
fórmula se ve de la siguiente forma:
 n ⋅ s2 n ⋅ s 2   n ⋅ s2 n ⋅ s 2 
P ≤ σ2 ≤ = 1 − α ⇒ P  ≤σ ≤ = 1−α
 χ sup
2
χ inf
2   χ sup
2
χ inf
2 
   

El intervalo bajo esto queda formado del siguiente modo:


 n ⋅ s2 n ⋅ s2 
IC =  ; 
 χ sup χ inf
2 2


7.4) INTERVALOS DE CONFIANZA PARA LA PROPORCIÓN POBLACIONAL.


Partiendo del supuesto que la variable se distribuye normalmente, el intervalo se
calcula de esta manera:

-34-
 p⋅q p⋅q 
P p − z α ⋅ ≤ p≤ p+z α ⋅  = 1−α
1− n 1− n 
 2 2 

El intervalo entonces queda formado así:


p⋅q  p⋅q p⋅q 
p±z α ⋅ ⇒ IC =  p − z α ⋅ ;p+z α ⋅ 
1− n 1− n 1− n 
2  2 2

7.5) DETERMINACIÓN DEL TAMAÑO DE MUESTRA.


Para poder calcular a priori el tamaño de una muestra necesario para asegurar un
determinado nivel de confianza, se utiliza la siguiente fórmula:
 z α ⋅σ  z 2 α ⋅σ 2 z 2 α ⋅σ 2
2

 1−  1 − 1−
n= 2  =
2
= 2

 Amp 2  ( Amp 2 ) 2
E 2

 
El cociente Amp 2 representa el error ( E ) que se está dispuesto a cometer. Es
decir, cuánto resigno desviarme hacia un lado y el otro de mi media para crear el
intervalo y así asegurar mi nivel de confianza deseado.

-35-
UNIDAD N°8: TEST DE HIPÓTESIS.

Las hipótesis sobre la distribución de una variable aleatoria o los parámetros de


distribuciones conocidas se llaman estadísticas. Para verificarlas pueden realizarse
experimentos muestrales.
El criterio estadístico es la magnitud aleatoria que sirve para verificar esa
hipótesis. El valor observado, es el valor del criterio calculado muestralmente.

8.1) .

-36-
UNIDAD N°9: REGRESIÓN Y CORRELACIÓN.

9.1) MODELO DE REGRESIÓN LINEAL SIMPLE.


Este modelo nos permite realizar estimaciones y ver cómo se comportan dos
variables. La recta ajustada de regresión tiene la forma yˆ = a + b ⋅ x .
Para determinar los parámetros podemos hacerlo a través de dos maneras. Una es
por medio de la Covarianza Muestral y las medias de ambas variables, donde los
parámetros a y b quedan delimitados de la siguiente manera:

[
⋅ ∑∑ (xi − x ) ⋅ ( y j − y ) ]
n m
1
n − 1 i =1 j =1 Cov Muestral (x; y )
b= n
=
s x2
⋅ ∑ (xi − x )
1 2

n − 1 i =1
a = y −b⋅x

Otro método, más exacto, es el de los Mínimos Cuadrados, que parte de minimizar
los errores del ajuste. Su justificación teórica se funda en las derivadas parciales de la
ecuación:
n n

∑ ( yi − yˆ i )2 = ∑ [yi − (a + b ⋅ xi )]2
i =1 i =1
=0

De esto surge este sistema de ecuaciones lineales, conocido como el Sistema de


Ecuaciones Normales de Gauss.
n n

∑ i y = n ⋅ a + b ⋅ ∑ xi
 i=1 i =1
n n n
 (y ⋅ x ) = a ⋅ x + b ⋅ x2
∑
i =1
i i ∑i =1
i ∑
i =1
i

Por medio de la regla de Cramer, pueden determinarse los parámetros a y b del


siguiente modo.
Se generan las matrices correspondientes al ∆a , ∆b y al ∆ del sistema, y se
procede a realizar el cociente entre los determinantes de las matrices conformadas y así
se obtienen los parámetros a y b para el sistema formado.

n n

∑y
i =1
i ∑x
i =1
i

n n
 n   n   n   n 
∆a
∑ (y i ⋅ xi ) ∑x 2
i  ∑ y i  ⋅  ∑ xi2  − ∑ ( y i ⋅ xi ) ⋅  ∑ xi 
=   i =1   i =1   i =1 
i =1 i =1 i =1
a= =
∆ n
 n
  n
  n

n ∑xi =1
i  n ⋅ ∑ xi2  −  ∑ xi  ⋅  ∑ xi 
 i =1   i =1   i =1 
n n

∑x ∑x
i =1
i
i =1
2
i

-37-
n
n ∑y
i =1
i

n n
 n   n   n 
∆b
∑ xi ∑ ( y i ⋅ xi ) n ⋅ ∑ ( y i ⋅ xi ) −  ∑ xi  ⋅  ∑ y i 
=  n   i =1   i =1 
i =1 i =1 i =1
b= =
∆ n
   n   n 
n ∑x
i =1
i  n ⋅ ∑ xi2  −  ∑ xi  ⋅  ∑ xi 
 i =1   i =1   i =1 
n n

∑x ∑x
i =1
i
i =1
2
i

Con esto, reemplazando en la recta general, hallamos la Recta de Regresión


ˆy = a + b ⋅ x buscada.

9.2) MODELO DE REGRESIÓN EXPONENCIAL SIMPLE.


A diferencia del Modelo Lineal previamente desarrollado, éste estima mediante
una curva exponencial, es decir que la variable independiente x queda ubicada en un
exponente. Es por esto que la función de Regresión Exponencial Simple es yˆ = a ⋅ b x .
Para poder trabajarlo de una forma similar al modelo anterior, se busca linealizar
esta función con lo cual recurrimos a la aplicación de logaritmos para poder bajar la
variable x del exponente. Por comodidad, utilizamos Logaritmos Neperianos (o
Natural), es decir, de logaritmos de base e . Con esto, utilizando las propiedades de los
logaritmos, la Curva exponencial general la transformamos en una Recta del siguiente
modo:
( ) ( )
yˆ = a ⋅ b x ⇒ ln ( yˆ ) = ln a ⋅ b x ⇒ ln ( y ) = ln (a ) + ln b x ⇒ ln ( y ) = ln (a ) + x ⋅ ln (b )

Con lo cual convertimos la función inicial yˆ = a ⋅ b x mediante logaritmos en una


equivalente ln ( y ) = ln (a ) + x ⋅ ln (b ) . Esta nos permite formar el sistema de Ecuaciones
Normales de manera similar al Modelo Lineal:

n n

 ∑ ln ( y i ) = n ⋅ ln (a ) + ln ( b ) ⋅ ∑ xi
 i =1 i =1
n n n
 [x ⋅ ln ( y )] = ln (a ) ⋅ x + ln (b ) ⋅ x 2
∑
i =1
i i ∑i =1
i ∑
i =1
i

Para determinar los parámetros no debemos perder de vista que tanto a como b
están influenciados en el Sistema por Logaritmos, con lo cual al momento de aplicar
Cramer no vamos a obtener como resultado los valores puros de a y b sino que nos
vamos a encontrar con los valores correspondientes a ln(a ) y ln (b ) .
Para poder encontrar el resultado real de a y b , a los valores arrojados por el
método Cramer, le aplicamos antilogaritmos del siguiente modo:
∆a ∆b
∆a ∆b
ln (a ) = ⇒a=e∆ ln (b ) = ⇒a=e∆
∆ ∆

-38-
Volviendo al Sistema, si aplicamos Cramer, los valores correspondientes a ln (a ) y
ln (b ) los hallamos de la siguiente manera. Para ln(a ) :

n n

∑ ln( y )
i =1
i ∑xi =1
i

n n

∆a
∑ [x i ⋅ ln ( y i )] ∑x 2
i

ln (a ) =
i =1 i =1
=
∆ n
n ∑x
i =1
i

n n

∑x ∑x
i =1
i
i =1
2
i

 n   n 2  n  n
ln (
∑ i   ∑ y ) ⋅  x  − ∑ i [ x ⋅ ln ( y )]
i  ⋅ ∑ xi
∆a  i =1
i

ln (a ) = =
i =1   i =1  i =1
∆  n
  n
  n

 n ⋅ ∑ xi2  −  ∑ xi  ⋅  ∑ xi 
 i =1   i =1   i =1 

Para ln (b ) , por otra parte, tenemos:


n
n ∑ ln( y )
i =1
i

n n

∆b
∑ x ∑ [x i i ⋅ ln ( y i )]
ln (b ) = = i =1 i =1

∆ n
n ∑xi =1
i

n n

∑x ∑x
i =1
i
i =1
2
i

 n   n   n 
n ⋅ ∑ [xi ⋅ ln ( y i )] −  ∑ xi  ⋅ ∑ ln ( y i )
∆b  i =1   i =1   i =1 
ln (b ) = =
∆  n
  n
  n

 n ⋅ ∑ xi2  −  ∑ xi  ⋅  ∑ xi 
 i =1   i =1   i =1 

Así, como antes habíamos mencionado, aplicando antilogaritmos llegamos a los


reales valores de a y b para poder reemplazar en la curva de ajuste conformada
entonces por la función yˆ = a ⋅ b x .

9.3) MODELO DE REGRESIÓN POTENCIAL SIMPLE.


Este tercer modelo, al igual que el Modelo Exponencial, ajusta a una curva, pero a
diferencia de este, a una curva polinómica de grado b , por lo que la función general
tiene la forma yˆ = a ⋅ x b .

-39-
Al igual que en el Modelo Exponencial, por medio de la aplicación de Logaritmos
Neperianos vamos a transformar la curva en una recta, con lo que se obtiene:

( ) ( )
ln ( yˆ ) = ln a ⋅ x b ⇒ ln ( y ) = ln (a ) + ln x b ⇒ ln ( y ) = ln (a ) + b ⋅ ln (x )

Así, la curva inicial yˆ = a ⋅ x b , la convertimos en una recta ln ( y ) = ln (a ) + b ⋅ ln ( x ) .


De aquí, formamos el siguiente Sistema de Ecuaciones Normales:

n n

∑ ln ( y i ) = n ⋅ ln (a ) + b ⋅ ∑ ln ( xi )
 i =1 i =1
n n n
 [ln ( y ) ⋅ ln ( x )] = ln (a ) ⋅ x + b ⋅ [ln ( x )]2

 i =1
i i ∑
i =1
i ∑
i =1
i

Los parámetros a y b , al igual que antes, los buscamos mediante la aplicación de


la regla de Cramer. Debemos tener presente que, en este caso, solamente a está
afectado por un logaritmo, b lo vamos a obtener de forma directa mediante los
cocientes de determinantes. Es por esto que para a tenemos:

n n

∑ ln( y )
i =1
i ∑ ln(x )
i =1
i

n n

∑ [ln( y ) ⋅ ln(x )] ∑ [ln(x )]


2

∆a
i i i

ln (a ) = = i =1 i =1

∆ n
n ∑ ln(x )
i =1
i

n n

∑ ln(x ) ∑ [ln(x )]
2
i i
i =1 i =1

n   n 2 n  n 
 ∑ ln ( y )
i  ∑
⋅ [ln ( x )]  − ∑ [ln ( y ) ⋅ ln ( x ]
i  ⋅ ∑ ln ( x i )
)
∆a  i =1
i i

ln (a ) = =   i =1   i =1   i =1 
∆  n
2  n
  n

n ⋅ ∑ [ln (xi )]  − ∑ ln ( xi ) ⋅ ∑ ln ( xi )
 i =1   i =1   i =1 

Entonces, para obtener a tenemos:

∆a
∆a
ln (a ) = ⇒a=e∆

Por otra parte, para obtener b , basta con resolver el cociente, ya que no está
condicionado por ningún logaritmo en el Sistema.
Es por esto que para b tenemos:

-40-
n
n ∑ ln( y )
i =1
i

n n

∆b
∑ ln(x ) ∑ [ln( y ) ⋅ ln(x )]
i =1
i
i =1
i i

b= =
∆ n
n ∑ ln(x )
i =1
i

n n

∑ ln(x ) ∑ [ln(x )]
2
i i
i =1 i =1

n   n   n 
n ⋅ ∑ [ln ( y i ) ⋅ ln ( xi )] − ∑ ln ( xi ) ⋅ ∑ ln ( y i )
∆b
=    i =1   i =1 
i =1
b=
∆  n   n
  n

n ⋅ ∑ [ln (xi )]  − ∑ ln ( xi ) ⋅ ∑ ln (xi )
2

 i =1   i =1   i =1 

Así obtenemos la curva ajustada yˆ = a ⋅ x b , donde la variable independiente x es


la base de la potencia (en este caso, constante) b .

9.4) ANÁLISIS DE LAS VARIACIONES DEL MODELO DE REGRESIÓN.


Al considerar dos variables aleatorias, y determinar una regresión, se cometen
errores. Estos errores pueden estar o no explicados por el modelo de regresión.
La Variación Explicada por el modelo es conocida como Suma de los Cuadrados
de la Regresión ( SCR ) y considera las desviaciones cuadráticas de la función de
regresión ŷ con respecto al valor medio de la variable dependiente y .
n
SCR = ∑ ( yˆ i − y )
2

i =1

La Variación No Explicada por el modelo es la suma de las diferencias cuadráticas


entre los valores aleatorios de la variable dependiente y con la función de regresión ŷ .
Se la denomina Suma de los Cuadrados del Error ( SCE ).
n
SCE = ∑ ( yi − yˆ i )
2

i =1

Si ahora, tomamos en cuenta la Variación Total del modelo, consideramos la suma


de ambas variaciones, con lo que esta sería la suma de SCR (Variación Explicada) y
SCE (Variación No Explicada). La vamos a llamar entonces Suma de los Cuadrados
Total, y toma las diferencias cuadráticas entre los valores de la variable y la media.
n
SCT = ∑ ( y i − y )
2

i =1

Por lo que enunciamos en el párrafo anterior podemos generar la siguiente


relación entre los errores:

-41-
SCT = SCE + SCR
 n
2  n
2  n
2
∑ ( y i − y )  = ∑ ( y i − yˆ i )  + ∑ ( yˆ i − y ) 
 i =1   i =1   i =1 

9.5) MEDIDAS DE LA BONDAD EN EL AJUSTE.


Una vez determinado el modelo de regresión, es interesante interpretar cuán bien
se ajustaron los datos de x e y al modelo utilizado.

9.4.1. Medidas Relativas de la Bondad del Ajuste: Correlación y Determinación.


Dadas dos variables aleatorias x e y , para medir relación lineal entre ambas, se
utiliza el denominado Coeficiente de Correlación Lineal ρ , el cual está definido
como:
Cov (x; y )
ρ=
σ x ⋅σ y
Análogamente, podemos generar un estimador muestral para este parámetro, el
cual lo llamamos Coeficiente de Correlación Lineal Muestral r , que surge de:
Cov Muestral ( x; y )
r=
sx ⋅ s y
El valor de r entonces nos indica la fuerza en la relación lineal de las variables
x e y . Toma valores dentro del intervalo cerrado comprendido entre -1 y 1, es
decir r ∈ [− 1;1] .
Interpretando los valores de r decimos que la relación entre las variables es
perfecta directa para el caso r = 1 . Es inversa perfecta o indirecta perfecta para
r = −1 . Si analizamos el caso r = 0 , decimos que no existe una relación lineal
entre las variables. Cabe aclarar que el hecho de que r sea nulo no implica la no
relación o independencia entre las variables, sino la simple no relación lineal, es
decir que x e y pueden estar relacionados pero no linealmente. Cuando r toma
valores intermedios entre los casos antes vistos, ya sea − 1 < r < 0 ó 0 < r < 1 ,
podemos afirmar que cuanto más cercano esté a -1 ó a 1 la relación tiende a ser
más directa (si se acerca a 1) o indirecta (en cuanto más tienda a -1). En tanto
más se acerque a 0, decimos que el ajuste cada vez es más forzado, con lo cual
deja de ser representativo, y raya el borde de la no relación lineal presente en
cero.
Algo interesante para considerar en este punto es que puede probarse que el
signo de r es igual al signo del parámetro b . Veamos, si consideramos la
definición de r y la multiplicamos por el cociente entre s y y s x obtenemos:
Cov Muestral ( x; y ) Cov Muestral ( x; y ) s y
r= ⇒ ⋅
sx ⋅ s y sx ⋅ s y sx
Si simplificamos s y , y consideramos el producto de s x y s x como s x2
tendremos como consecuencia la fórmula antes utilizada para definir al
parámetro b .

-42-
Cov Muestral ( x; y ) s y Cov Muestral ( x; y )
⋅ ⇒ =b
sx ⋅ s y sx s x2

Con esto decimos que el signo de r y el de b son iguales. Si profundizamos aún


más, podemos ver que es igual ya que en ambos casos depende del signo de la
Covarianza. Esto se da porque tanto las dispersiones s x y s y como el de la
varianza s x2 son siempre positivas, quedando así la Covarianza como el único
valor con signo positivo o negativo.

Otra medida, que está relacionada con el Coeficiente de Correlación, es la que


denominaremos Coeficiente de Determinación. Este va a ser el cociente entre la
Variación Explicada por el modelo (Suma de los Cuadrados de la Regresión) y
la Variación Total (Suma de los Cuadrados Total).
SCR
r2 =
SCT

Podemos pensar también este coeficiente del siguiente modo. Si partimos de la


relación antes estudiada para los errores SCT = SCE + SCR , y buscamos
transformar cada uno de sus términos en una medida relativa con respecto a la
suma total, basta con dividir en ambos miembros por el SCT , con lo que
obtenemos:
SCT SCE SCR SCE SCR
= + ⇒ + =1
SCT SCT SCT SCT SCT

Si ahora consideramos la definición del r 2 y reemplazamos, tenemos:


SCE
+ r2 =1
SCT

Despejando, llegamos a otra forma de expresar el Coeficiente de Determinación


como la siguiente resta:
SCE
r 2 = 1−
SCT

Si consideramos ahora la relación entre este coeficiente y el antes estudiado


Coeficiente de Correlación Lineal, podemos pensar el r como la raíz cuadrada
positiva del r 2 , con lo cual podremos afirmar que:
SCR
r = + r2 = +
SCT

Desde este punto, decimos que el r 2 va a tomar valores entre 0 y 1, ya que son
los valores positivos del coeficiente r . Es decir r 2 ∈ [0;1] . Cuando r 2 = 1 ,
podemos decir que el modelo ajusta y representa de manera perfecta. Cuando es

-43-
r 2 = 0 el modelo no ajusta, con lo cual debería buscarse otro modelo para
relacionar los valores. Cuando está entre cero y uno ( 0 < r 2 < 1 ) podemos
plantear dos casos, cuando se acerca a cero y cuando lo hace a uno. Cuando r 2
se aproxima a cero, cuanto más cerca, menos ajusta. Cuando se acerca a uno, en
cambio, cuan más próximo a uno esté, mejor y más representativo será el ajuste.

9.4.2. Medida Absoluta de la Bondad del Ajuste: el Se .


Una medida absoluta, la cual es análoga a la Dispersión, es la que
denominaremos Error Estándar de la Estimación y notaremos como Se . Viene
definida por:
SCE
Se = +
N −2

Esta medida nos muestra el porcentaje de los datos que se encuentran contenidos
en un entorno de la recta de regresión.

Si ahora consideramos el error, pero en lugar de medir los desvíos, tomamos en


cuenta las variaciones cuadráticas (con el fin de lograr un concepto semejante al
que arrastramos de Varianza), tenemos la Variación Estándar de la Estimación
definida por:
SCE
Se 2 =
N −2

-44-
UNIDAD N°10: SERIES CRONOLÓGICAS.

10.1) .

-45-
UNIDAD N°11: NÚMEROS ÍNDICES.

11.1) ÍNDICES SIMPLES.


Un Índice de tipo Simple mide la variación en un factor entre dos momentos, un
momento cero o inicial (base) y el momento en cuestión. Es decir, que mide la variación
de la variable considerada entre el momento cero y el considerado.
Así es que si deseamos tomar la variación del precio de un bien entre un momento
inicial cero y otro momento t , surge el siguiente índice simple:
p
IS p = t ⋅ 100
p0

El cociente entre el precio actual ( pt ) y el precio inicial ( p0 ) muestra la variación,


en términos relativos, de los precios. Para obtener la variación porcentual, ya que los
índices reflejan variaciones porcentuales y no relativas, es que multiplicamos ese
cociente por 100.

Si ahora deseamos observar el cambio en las cantidades de un determinado bien,


en lugar de considerar el cociente de precios, consideramos el cociente entre las
cantidades del bien en el momento observado ( q t ) y el momento inicial ( q 0 ) y lo
multiplicamos por 100 para obtener la variación porcentual.
q
IS q = t ⋅ 100
q0

Es importante mencionar que el índice resultante, sea de precio o de cantidad,


muestra cuánto varió, manteniendo la base del momento cero, cualquiera de estas dos
características del bien. Es decir que todo índice en el momento cero es considerado
igual al 100%, con lo cual refleja las variaciones hacia otros momentos desde ese valor.
Por ejemplo, si consideramos un bien que en el momento cero costaba $80.- y en
el momento t $120.-, el índice de precios resultante será:
120
IS p = ⋅ 100 = 150%
80

Si deseamos ver solamente la variación del precio, sin considerar el valor base del
momento cero, al índice le debemos restar 100%, que se corresponde con el valor
relativo del momento base.
Variación = Indice − 100%

En este caso tendríamos 150% − 100% = 50% , es decir que el precio se


incrementó un 50%.

Esta consideración es válida para todos los índices que se estudian en esta unidad.
Esto se da ya que los índices son acumulativos, es decir que reflejan la variación entre
dos momentos manteniendo la base del momento inicial.

-46-
11.2) ÍNDICES AGREGATIVOS SIMPLES.
Como dentro de la economía se producen una pluralidad de bienes es que los
índices simples no cobran relevancia para el análisis de los cambios en los mercados. Es
por esto que se idearon los Índices Agregativos.
La función de estos números índices es mostrar variaciones porcentuales sobre
variaciones alguna característica de un grupo de bienes, denominado canasta.
Si consideramos una canasta cualquiera de n bienes y buscamos cuantificar en un
porcentaje cuánto cambia el precio de los bienes en su conjunto, hacemos el cociente
entre la sumatoria de los precios en el momento en estudio y la de los precios en el
momento base. Es por esto que el Índice Agregativo Simple de Precios tiene la siguiente
forma:
n

∑p ti
IAS p = i =1
n
⋅ 100
∑p
i =1
0i

Si en lugar de precios, buscamos la variación en las cantidades, las sumatorias


serán, en vez de las de los precios, las de las cantidades, formando así el Índice
Agregativo Simple de Cantidades.
n

∑q ti
IAS q = i =1
n
⋅ 100
∑q
i =1
0i

11.3) ÍNDICES AGREGATIVOS PONDERADOS.


Este tipo de índices, al igual que los Agregativos Simples, considera la variación
en una característica de una canasta de n bienes, pero a diferencia de los anteriores,
pone alguna característica que le otorgue un peso o carga. Es por esto que se denominan
ponderados, ya que para aportar carga o peso usan, por ejemplo, precios o cantidades.
La variación de los precios ha sido objeto de estudio desde hace siglos por parte
de destacados economistas y matemáticos. Algunos de los más conocidos y utilizados
son los de Étienne Laspeyres y Hermann Paasche. Otro famoso es el de Irving Fisher el
cual analizaremos más adelante.

11.3.1. Índice de Laspeyres.


Ernst Louis Étienne Laspeyres (1834-1913) fue un economista y estadístico
alemán que nació en Halle. Descendía de “hugonotes franceses” (es decir,
franceses seguidores de los ideales Calvinistas) emigrados a Berlín en 1696.
Estudió en Tubinga, Gotinga y Heidelberg, y fue uno de los promotores del
Instituto Internacional de Estadística.
Laspeyres con su razonamiento trata de encontrar cuál es el precio actual de una
canasta de bienes que se consumía en el momento base.

-47-
Para armar el índice de Precios, consideró ponderar el índice agregativo antes
desarrollado con las cantidades de los n bienes de la canasta en el momento
base o inicial.
Con esto formuló su índice como el cociente entre la sumatoria de los productos
de precios en el momento t y cantidades del momento base, y la sumatoria de
los productos entre los precios y cantidades del momento cero, por cien (para
generar el valor porcentual).
n

∑p ti ⋅ q0i
IL p = i =1
n
⋅ 100
∑ p 0i ⋅ q 0i
i =1

Este índice de Precios es utilizado por el INDEC para calcular el famoso IPC
(Índice de Precios al Consumidor) el cual genera luego el índice de Inflación
(habitualmente, notado con la letra griega π ). Éste no es más que la variación
porcentual en el IPC entre dos momentos por lo que va a estar dada, para un
momento t con respecto a su momento anterior (es decir, t − 1 ), por:
IPC (t ) − IPC (t −1)
Inflación(t ) = π (t ) = ⋅ 100
IPC (t −1)

Como el Índice de Precios de Laspeyres pondera mediante las cantidades del año
base, se entiende que sobrevalúa la variación en el precio.

Por otra parte, para el índice de Cantidades, consideró ponderar basándose en los
precios del momento cero.
Su índice de cantidades es igual al producto de 100 por el la sumatoria de los
productos de las cantidades de cada bien en el momento actual t y sus
respectivos precios en el momento inicial cero, dividido la sumatoria los
productos entre las cantidades y precios de esos bienes en el momento base.
n

∑q ti ⋅ p 0i
ILq = i =1
n
⋅ 100
∑q
i =1
0i ⋅ p 0i

11.3.2. Índice de Paasche.


Hermann Paasche (1851-1925) nació en Magdeburgo y estudió en la
Universidad de Halle Agricultura, Estadística, Economía y Filosofía. En 1874
creó el índice que lleva su nombre. En 1906 abandonó la docencia y se dedicó en
exclusiva a la política. Llegó a ser vicepresidente del Reichstag. Su hijo Hans
fue un activo pacifista al que se considera precursor del ecologismo alemán y
fue ejecutado tras la revolución espartaquista de 1920.

-48-
En cuanto al índice de Precios, en lugar de ponderar los precios utilizando las
cantidades del año base como propone Laspeyres, Paasche, realiza las
valuaciones mediante las cantidades del momento actual.
Por esto es que su índice queda compuesto por la sumatoria de los productos
entre precios y cantidades de los n bienes de la canasta en el momento actual t
dividido, la sumatoria de los productos entre precios del momento base y
cantidades al momento t , multiplicado todo esa división por 100.
n

∑p ti ⋅ qti
IPp = i =1
n
⋅ 100
∑p
i =1
0i ⋅ q ti

A diferencia del Índice de Precios de Laspeyres, el de Paasche, como realiza las


ponderaciones mediante las cantidades actuales de los bienes de la canasta
considerada, se entiende que refleja una subvaluación en el índice.

Por otra parte, el índice de Cantidades lo construyó ponderando mediante los


precios actuales de los bienes, es decir que consideró los precios del momento t .
Es por esto que el índice surge de la sumatoria de los productos de las cantidades
actuales por los precios actuales de los n bienes de la canasta, dividido la
sumatoria de los productos entre las cantidades presentes en el momento base y
los precios al momento actual t de los n bienes, todo ese cociente multiplicado
por 100 para poder generar el valor porcentual y no meramente relativo.
n

∑q ti ⋅ pt i
IPq = i =1
n
⋅ 100
∑q
i =1
0i ⋅ p ti

11.4) ÍNDICE DE FISHER.


Irving Fisher, nació el 27 de febrero de 1867 en Saugerties (Nueva York), y
falleció en la misma ciudad el 29 de abril del 1947. Fundamentalmente, contribuyó a
difundir las ideas económicas neoclásicas en Estados Unidos.
Su primera contribución teórica a la economía se encuentra en su tesis doctoral de
1892, "Mathematical Investigations in the Theory fo Value and Prices", que contiene
una completa exposición de la teoría del equilibrio económico general de Léon Walras,
aunque, increíblemente, en el prefacio declaró que no conocía la obra de Walras. Sus
principales puntos de referencia hay que buscarlos en Jevons, Auspitz y Lieben.
Debido a su extraordinario conocimiento matemático (su mentor fue el gran físico
de la termodinámica, Gibbs), Fisher dio formulaciones muy modernas para su época.
Fue uno de los pioneros de la ciencia econométrica.

Para el armado de su índice consideró las sobrevaluaciones que genera el índice de


Laspeyres y las subvaluaciones del de Paasche con lo cual, para corregir esos excesos y
faltas consideró un promedio entre ambos. El promedio que utilizó para crear el índice,
que hoy lleva su nombre, es el geométrico.

-49-
Justamente, el Índice de Fisher para precios es igual a la raíz cuadrada del
producto entre el Índice de Precios de Laspeyres y el Índice de Precios de Paasche.
IF p = IL p ⋅ IPp

Es decir que, el estadístico norteamericano diseñó otro método de cálculo de


índices para aprovechar las ventajas del índice de Laspeyres (comparabilidad con el
pasado y el futuro) y las bondades del método de Paasche (actualización de los hábitos
de consumo).

Análogamente, el Índice de Fisher para cantidades es igual a la raíz cuadrada del


producto entre el Índice de Cantidades de Laspeyres y el Índice de Cantidades de
Paasche.
IFq = ILq ⋅ IPq

11.5) OTROS ÍNDICES AGREGATIVOS PONDERADOS.


Además del ideal de Fisher, que considera el promedio geométrico entre los
índices de Étienne Laspeyres y el de Hermann Paasche, existen otros números índices
que intentan, al igual que este, aproximarse lo mejor posible a la verdadera variación
que sufrió la componente de los bienes, en este caso, entre dos momentos cualesquiera.
Algunos de ellos son: el de Drovisch-Bowley, el de Edgeworth-Marshall, y el de
Walch.

11.5.1. Índice de Drovisch-Bowley.


El primero, de Drovisch-Bowley, considera, en lugar de un promedio geométrico
entre los índices de Laspeyres y Paasche como Fisher, uno aritmético. Por esto
es que su índice es igual a la suma algebraica de ambos índices dividida por dos.
IL p + IPp
IDB p =
2

Si lo consideramos para cantidades en lugar de precios, simplemente se deberían


reemplazar los índices por sus respectivos para cantidades, con lo que el índice
queda conformado del siguiente modo:
ILq + IPq
IDBq =
2

11.5.2. Índice de Edgeworth-Marshall.


En segundo lugar, el índice de Edgeworth-Marshall para Precios, considera un
índice agregativo ponderado por la suma de las cantidades del momento base y
las actuales. Es por esto que el índice queda construido de la siguiente forma:

-50-
∑ p ⋅ (q )
n

ti 0i + q ti
IEM p = i =1
⋅ 100
( )
n

∑ p 0i ⋅ q 0i + qti
i =1

Consecuentemente, el índice para precios va a lograrse mediante la ponderación


de un índice agregativo por la suma de los precios actuales y los presentes en el
momento base.

∑ q ⋅ (p )
n

ti 0i + pti
IEM q = i =1
⋅ 100
∑ q ⋅ (p )
n

0i 0i + p ti
i =1

11.5.3. Índice de Walch.


Walch, buscando un nuevo índice de precios, para ponderar, realiza un promedio
geométrico entre las cantidades del momento base y las actuales.
n

∑p ti ⋅ q 0i ⋅ qti
IW p = i =1
n
⋅ 100
∑p
i =1
0i ⋅ q 0 i ⋅ q ti

Análogamente, para armar su índice de cantidades, las ponderaciones las hace


mediante el promedio geométrico de los precios.
n

∑q ti ⋅ p 0i ⋅ p t i
IWq = i =1
n
⋅ 100
∑q
i =1
0i ⋅ p 0i ⋅ p ti

-51-
APÉNDICE I. LOS PARÁMETROS. DEFINICIONES Y PROPIEDADES.

12.1) EL VALOR ESPERADO O ESPERANZA.

12.1.1. Definición y cálculo de la Esperanza.


Es el parámetro de tendencia central más importante. Es una construcción a
partir de las cosas que suceden y a la fuerza con que estas pasan, que denota una
expectativa. Su resultado es un valor de variable, del cual decimos que tenemos
expectativa de que resulte, en promedio, al experimentar.
Su cálculo es variable según qué variable aleatoria se lo desee hallar, pero puede
definirse así:
n;+ ∞
Situación Discreta ⇒ E(X) = µ = ∑X
i =1
i ⋅ P(X i )
Ls ; +∞

Situación Continua ⇒ E ( X ) = µ = ∫ X ⋅ f ( X ) dx
Li ; −∞

12.1.2. Propiedades del Valor Esperado.

a. El valor esperado de una constante (k) es igual a la constante.


n
E (k ) = ∑ k ⋅ P( X i )
i =1
n
E (k ) = k ⋅ ∑ P( X i )
i =1

E ( k ) = k ⋅1
E (k ) = k

b. El valor esperado de una variable X más o menos una constante (k) es igual
a la constante más o menos el valor esperado de la variable.
n
E (k ± X ) = ∑ (k ± X i ) ⋅ P( X i )
i =1
n
E (k ± X ) = ∑ [(k ) ⋅ P( X i ) ± ( X i ) ⋅ P( X i )]
i =1
n n
E (k ± X ) = ∑ (k ) ⋅ P( X i ) ± ∑ ( X i ) ⋅ P( X i )
i =1 i =1
n n
E (k ± X ) = k ⋅ ∑ P( X i ) ± ∑ ( X i ) ⋅ P( X i )
i =1 i =1

E (k ± X ) = k ⋅1 + E ( X )
E (k ± X ) = k + E ( X )

c. El valor esperado de una variable X multiplicada por una constante (k) es


igual al producto de la constante por el valor esperado de la variable.

-52-
n
E (k ⋅ X ) = ∑ (k ⋅ X i ) ⋅ P( X i )
i =1
n
E (k ⋅ X ) = k ⋅ ∑ ( X i ) ⋅ P( X i )
i =1

E (k ⋅ X ) = k ⋅ E ( X )

d. El valor esperado de la suma o resta de dos variables aleatorias es igual a la


suma o resta de las esperanzas de ambas variables.

E ( X ± Y ) = E ( X ) ± E (Y )

e. El valor esperado de un producto de variables es igual al producto de la


esperanza de cada variable si ambas variables son independientes.

E ( X ⋅ Y ) = E ( X ) ⋅ E (Y ) ⇔ X,Y Independientes

f. Toda distribución posee un valor máximo y un mínimo de variable, por lo


que se deduce que el valor esperado o esperanza matemática, se debe
encontrar entre ambos extremos.

mín( X ) ≤ E ( X ) ≤ máx( X )

12.2) LA VARIANZA.

12.2.1. Definición y cálculo de la Varianza.


A diferencia de la esperanza matemática, la Varianza, es de los que se conocen
como parámetros de variabilidad. Se conoce a la Varianza como la sumatoria de
los desvíos cuadráticos de la variable ( X i ) con respecto de su valor esperado
[ E ( X ) ] ponderados por sus probabilidades asociadas [ P( X i ) ].
Al igual que la esperanza, su cálculo es conceptualmente diferente si el
problema se resuelve de forma discreta o continua.

n
Situación Discreta ⇒ Var(X) = σ 2 = ∑ [ X i − E ( X )] ⋅ P( X i )
2

i =1
Ls ; +∞

Situación Continua ⇒ Var ( X ) = σ 2 = ∫ [X − E ( X )] ⋅ f ( X i ) dx


2
i
Li ; −∞

12.2.2. Propiedades de la Varianza.

a. La Varianza puede expresarse de forma equivalente del siguiente modo:

-53-
( )
n
Var ( X ) = E [X i − E ( X i )] = ∑ [X i − E ( X i )] ⋅ P( X i ) = E X i2 − [E ( X i )]
2 2 2

i =1

b. El Varianza de una constante (k) es igual a cero. Por lo que:

Var ( k ) = 0

c. La Varianza de una variable más o menos una constante (k) es igual a la


varianza de la variable, ya que suma algebraica de un número no altera al
valor de este parámetro.

n
Var (k ± X ) = ∑ [(k ± X i ) − E (k ± X )] ⋅ P( X i )
2

i =1
n
Var (k ± X ) = ∑ {k ± X i − [E ( X ) ± k ]} ⋅ P( X i )
2

i =1
n
Var (k ± X ) = ∑ [k ± X i − E (k ) m k ] ⋅ P( X i )
2

i =1
n
Var (k ± X ) = ∑ [ X i − E (k )] ⋅ P( X i )
2

i =1

Var (k ± X ) = Var ( X )

d. La Varianza del producto de un escalar (constante) por una variable


aleatoria, es igual al cuadrado del escalar por la Varianza de la variable.

n
Var (k ⋅ X ) = ∑ [(k ⋅ X i ) − E (k ⋅ X )] ⋅ P( X i )
2

i =1
n
Var (k ⋅ X ) = ∑ [k ⋅ X i − k ⋅ E ( X )] ⋅ P( X i )
2

i =1
n
Var (k ⋅ X ) = ∑ {k ⋅ [ X i − E ( X )]} ⋅ P( X i )
2

i =1
n
Var (k ⋅ X ) = ∑ k 2 ⋅ [X i − E ( X )] ⋅ P( X i )
2

i =1
n
Var (k ⋅ X ) = k 2 ⋅ ∑ [X i − E ( X )] ⋅ P( X i )
2

i =1

Var (k ⋅ X ) = k ⋅ Var ( X )
2

e. La Varianza de la suma de dos variables aleatorias X e Y es igual a la suma


de las varianzas, más el doble de la Covarianza.

-54-
[ ]
Var ( X + Y ) = ∑∑ (X i + Y j ) − E ( X + Y ) ⋅ P( X i ) ⋅ P (Y j )
n m
2

i =1 j =1

[ ]
Var ( X + Y ) = ∑∑ {[X i − E ( X )] + Y j − E (Y ) } ⋅ P( X i ) ⋅ P(Y j )
n m
2

i =1 j =1

{ [ ] [ ]}
Var ( X + Y ) = ∑∑ [X i − E ( X )] + 2 ⋅ [X i − E ( X )]⋅ Y j − E (Y ) + Y j − E (Y ) ⋅ P( X i ) ⋅ P(Y j )
n m
2 2

i =1 j =1

[ ]
Var ( X + Y ) = ∑ [ X i − E ( X )] ⋅ P( X i ) ⋅ P(Y j ) + 2 ⋅ ∑∑ [X i − E ( X )]⋅ Y j − E (Y ) ⋅ P( X i ) ⋅ P (Y j )
n n m
2

i =1 i =1 j =1

[ ]
+ ∑ Y j − E (Y ) ⋅ P( X i ) ⋅ P (Y j )
n
2

i =1

Como el primer término es la Varianza de X, el segundo es el doble de la


Covarianza de X e Y, y el tercer miembro es la Varianza de Y, podemos
resumir esta expresión a:

Var ( X + Y ) = Var ( X ) + 2 ⋅ Cov( X ;Y ) + Var (Y )

Para el caso específico en que X e Y sean independientes, como la


Covarianza es igual a cero, puede resumirse la igualdad a:

Var ( X + Y ) = Var ( X ) + Var (Y )

12.3) LA DISPERSIÓN O DESVÍO ESPERADO.

12.3.1. Definición y cálculo de la Dispersión.


Es, al igual que la Varianza, un parámetro de variabilidad. Conjuntamente con
el Valor Esperado, son los dos parámetros de mayor relevancia para el análisis
estadístico.
Representa la diferencia entre el Valor esperado y lo que en realidad esperamos.
De alguna manera es un tipo de valor esperado ya que nos determina cuánto
esperamos desviarnos de lo que en realidad deseamos alcanzar.
Su cálculo es, de alguna manera, la simplificación del resultado de la Var ( X ) ,
ya que ésta última muestra los desvíos cuadráticos ponderados por las
probabilidades asociadas, y la Disp ( X ) los desvíos (simples) con respecto al
valor esperado [ E ( X ) ].
Se calcula de la siguiente manera:
Disp ( X ) = + Var ( X ) = + σ 2 = σ

12.3.2. Propiedades del Desvío Esperado.


Como la Dispersión es la raíz cuadrada positiva de la Varianza, las propiedades
del Desvío Esperado pueden inducirse en base a las propiedades de la Varianza.

-55-
a. La Dispersión de una constante (k) es igual a cero.

Disp(k ) = + Var (k ) = + 0 = 0

b. El Desvío Esperado de una variable más o menos una constante (k) es igual
a las Dispersión de la variable.

Disp(k ± X ) = + Var (k ± X )
Disp(k ± X ) = + Var ( X )
Disp(k ± X ) = Disp( X )

c. La Dispersión del producto de un escalar por una variable aleatoria es igual


al valor absoluto de la constante por la Dispersión de la variable.

Disp(k ⋅ X ) = + Var (k ⋅ X ) = + k 2 ⋅ Var ( X )


Disp(k ⋅ X ) = + k 2 ⋅ Var ( X )
Disp(k ⋅ X ) = k ⋅ Disp( X )

-56-
APÉNDICE II. DISTRIBUCIÓN DE CARACTERÍSTICAS MUESTRALES.

13.1.1) DISTRIBUCIÓN DE LA VARIABLE ALEATORIA MEDIA MUESTRAL.

   σ 
 Conocemos σ ⇒ X ≈ N  µ ; 
   n
 Conocemos   
distribución de X  ⇒   s 
Aplicamos el  n ≥ 30 ⇒ X ≈ N  µ ; 
    n
 X ≈ N (µ ; σ )   No conocemos σ ⇒ Teorema Central  ⇒ 
 
  s 
 del Límite  n < 30 ⇒ X ≈ t n −1  µ ; 
   n −1 
 
Dada una Variable  
⇒
Poblacional X  
 Aplicamos el    σ 
 σ conocida ⇒ X ≈ N  µ ; 
 No conocemos  Teorema Central    n
  ⇒ n ≥ 30 ⇒ ⇒
distribución de X  del Límite    s 
 σ desconocida ⇒ X ≈ N  µ ; 
 (supone X ≈ N )    n 





13.1.2) PARÁMETROS DE LA VARIABLE ALEATORIA MEDIA MUESTRAL.

Var ( X ) Disp( X )
E (X ) = E ( X ) Var (X ) = Disp(X ) =
n n

-57-
13.2.1) DISTRIBUCIÓN DE LA VARIABLE ALEATORIA VARIANZA MUESTRAL.

 Sigue la distribución Chi-Cuadrado (ó Ji-Cuadrado) S 2 ≈ χ n2−1 .

 Esta distribución: se basa en el estadístico χ 2 ; tiene n − 1 grados


de libertad; y es Asimétrica Derecha.

 Sus valores de variable son las varianzas de un número finito de


muestras, es decir que cada valor será un s 2 .

n ⋅ s2
 La estandarización es: dado s 2 ⇒ χ n2−1 = .
σ2

13.2.2) PARÁMETROS DE LA VARIABLE ALEATORIA VARIANZA MUESTRAL.

σ2 σ4 σ4
( )
E S 2 = (n − 1) ⋅ ( )
Var S 2 = 2 ⋅ (n − 1) ⋅ ( )
Disp S 2 = + 2 ⋅ (n − 1) ⋅
n n2 n2

13.3.1) DISTRIBUCIÓN DE LA VARIABLE ALEATORIA DISPERSIÓN MUESTRAL.

 Al igual que la Varianza Muestral, sigue el modelo de distribución Chi-Cuadrado.

-58-
 Sus valores de variable son las dispersiones de un número finito de muestras, es decir que cada valor será un s .

13.4.1) DISTRIBUCIÓN DE LA VARIABLE ALEATORIA PROPORCIÓN MUESTRAL.

 Sus valores de variables son las proporciones de un número finito de muestras, es decir serán p .

 Este valor p se corresponde con la probabilidad p utilizada en la distribución Binomial.

 Si se trabaja con n ≥ 30 y se cumplen n ⋅ p ≥ 5 ∧ n ⋅ q ≥ 5 , se supone Normalidad y la distribución es:

 p ⋅ q 
Si se conoce p ⇒ p ≈ N  p;
 n 
 p⋅q 
Si no se conoce p ⇒ p ≈ N  p; 

 n 

 Para el caso en que se tenga n < 30 , se puede recurrir al modelo T-Student.

13.4.2) PARÁMETROS DE LA VARIABLE ALEATORIA PROPORCIÓN MUESTRAL.

p⋅q p⋅q
E( p) = p Var ( p ) = Disp( p ) = +
n n

-59-
-60-

Potrebbero piacerti anche