Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
(a) Problemas en los que la distribución de la variable se conoce, pero los parámetros (todos o
parte) que la caracterizan son desconocidos. El problema es, en este caso, cómo obtener un
valor o valores numéricos, a partir de los datos, que sea un pronóstico o estimación razonable
de ese parámetro. Cuando la solución proporcionada es un sólo valor numérico, hablaremos
de procedimientos de estimación puntual. Cuando la solución proporcionada es un intervalo
de valores en el que “probablemente” estará el parámetro, hablaremos de procedimientos de
estimación por intervalos.
(b) Problemas en los que se trata de constatar que una afirmación acerca de la distribución de
probabilidades del fenómeno estudiado es o no cierta. En este caso, hablaremos de procedimientos
de contraste de hipótesis.
Ejemplo 1: Supongamos que estamos estudiando el tiempo hasta el fallo de un determinado componente
electrónico. Se ha seleccionado una muestra representativa de este tipo de componente y se han
mantenido en funcionamiento hasta fallar, anotándose la duración de cada uno. Nos podemos plantear
los siguientes interrogantes:
(a) Si sabemos ya que el tiempo hasta el fallo sigue una distribución exponencial, ¿cuál es el tiempo
medio hasta el fallo para este tipo de componentes? (Corresponde a un problema de estimación
puntual).
(b) En las mismas condiciones que antes (sabiendo que la distribución es exponencial), ¿qué rango de
valores para la duración media parece razonable?. (Corresponderı́a a un problema de estimación
por intervalos).
(c) Los componentes provienen de dos procesos de fabricación distintos y se quiere determinar si
existen diferencias en cuanto al tiempo medio hasta el fallo. (Problema de contraste).
Estad´ıstica 69
(a) Muestreo aleatorio simple: En este caso, cada elemento de la población tiene idéntica probabilidad
de ser elegido en cada una de las extracciones. Este tipo de muestreo se aplica cuando en la
población existe homogeneidad respecto de la caracterı́stica a estudiar.
En los casos en los que la muestra se extrae de una población finita, corresponde a extracciones con
reemplazamiento.
Este tipo de muestreo es uno de los más importantes, pues en él se basan los demás tipos que
vamos a introducir y una gran parte de los métodos estadı́sticos que vamos a desarrollar son
válidos sólo si la muestra se ha seleccionado por este procedimiento.
Deftnición 1 Sea X una v.a.; llamaremos muestra aleatoria simple (m.a.s.) de tamaño n de
X a un conjunto de variables aleatorias (X1 , . . . , Xn ) independientes y con idéntica distribución
que la variable X. Por tanto, una m.a.s. es un vector aleatorio, cada uno de cuyos elementos
representa los posibles valores de la componente i-ésima de una muestra aleatoria de tamaño n
de la población.
Ejemplo 2: Consideremos una población formada por 10 matrimonios, sobre la que se observa la
caracterı́stica ”número de hijos”.
Lo que acabamos de dar es la ley de probabilidades del vector aleatorio (X1, X2, X3), donde cada
Xi representa el valor de X en el elemento i-ésimo de la muestra y podemos ver que cada Xi es
también una variable aleatoria con la misma distribución que X.
En general: puesto que una m.a.s. es un vector aleatorio, quedará definido si conozco su so-
porte y su ley de probabilidades. Teniendo en cuenta que las componentes del vector son v.a.
independientes y con la misma distribución que X,
• si X es discreta, p(x1 , x2 , . . . , xn ) = p(x1 )p(x2 ) . . . p(xn ), donde p es la función de probabilidad
de X.
• si X es continua, f (x1 , x2 , . . . , xn ) = f (x1 )f (x2 ) . . . f (xn ), donde f es la función de densidad
de X.
(b) Muestreo estratificado:
Se utiliza cuando la población no es homogénea. Se trata de respetar la heterogeneidad de la
población en la muestra: proporción de hombres/mujeres, de edad/profesión, ...
La población se subdivide en clases o estratos homogéneos. La muestra se toma asignando
un número de elementos a cada estrato y escogiendo los elementos dentro de cada estrato por
muestreo aleatorio simple.
(c) Muestreo por conglomerados.
Se utiliza cuando la población es homogénea respecto de la caracterı́stica a estudiar, pero se
encuentra dividida de manera natural en grupos (por ejemplo, provincias, colegios, ...). Se selec-
cionan algunos de los subgrupos de la población y en cada subgrupo se estudia toda la población
o una parte elegida por muestreo aleatorio simple.
(d) Muestreo sistemático.
Este tipo se utiliza para elementos ordenados de alguna manera (por ejemplo en listas, o en orden
cronológico de fabricación, etc).
Estad´ıstica 71
Deftnición 2 Dada una v.a. X, y un tamaño muestral n, llamaremos estadı́stico T a una aplicación
del conjunto de muestras aleatorias simples de la población en IRk ,
Un estadı́stico es, por tanto, un vector aleatorio, cuya distribución depende de la del vector aleatorio
(X1, . . . , Xn), y por tanto de la de la v.a. X.
Ejemplo 3: Con los mismos datos que en el ejemplo 2, podemos considerar los siguientes estad´ıstico,
definidos sobre el conjunto de muestras de tamanõ 3 de la variable X:
• T1 (X1 , X2 , X3 ) = máx{X1 , X2 , X3 }
Este estad´ıstico es una variable aleatoria cuyo soporte es ST1 = {1, 2, 3} y su ley de probabilidades
viene dada por:
p(T1 = 1) = p(muestras de tamanõ 3 para las que máx{X1 , X2 , X3 } = 1) = p((1, 1, 1)) = 0.027
Ejemplo 4:
• El espacio paramétrico del parámetro p de una variable aleatoria B(p) es el intervalo [0,1].
• El espacio paramétrico del parámetro pλ de una variable aleatoria P(λ) es (0, ∞).
• El espacio paramétrico del parámetro µ de una variable aleatoria N (µ, σ) es IR.
Ejemplo 5:
sesgo(θ̂) = E(θ̂) − θ.
Ejemplo 6:
• La media muestral es un estimador insesgado de la media de la población, µ.
Sea X la variable aleatoria correspondiente a la caracterı́stica de la población y (X1 , X2 , . . . , Xn )
Σ
n
Xi
una m.a.s. de X; sea X̄ = n . Entonces:
i=1
. n Σ . Σ
Σ Xi Σ
n
Xi Σ
n
E(Xi)
¯ =E
E(X) = =
n n n
E i=1
i=1
n i=1
n i=1
n
(aqu´ı se aplica que la media de una suma de v.a. es la suma de sus medias y que la media
de una constante por una v.a. es la constante por la media de la variable).
Como las variables Xi son igualmente distribuidas que la variable X, tendrán también su
misma media, µ; por tanto,
n n
Σ E(Xi ) Σµ
E(X̄ ) = = = µ.
n i=1
n
i=1
En ocasiones, los estimadores que se utilizan no son centrados. En ese caso, la propiedad equiva-
lente a ser de varianza mı́nima es tener error cuadrático medio mı́nimo:
Deftnición 4 Se define el error cuadrático medio (ECM) de un estimador θ̂ como: ECM (θ̂) =
E(θ̂ − θ)2 .
Demostración
En el resultado anterior, puede verse que si el estimador es centrado, el ECM coincide con la
varianza del estimador.
(c) Consistencia:
Los estimadores, en general dependen del tamaño n de la muestra (por ejemplo, X̄ en realidad
deberı́a escribirse como X̄n ). Por tanto, en general, para cada n vamos a tener un estimador
θ̂n ; se dice entonces que {θ̂n }∞
n=1 es una sucesión de estimadores consistentes si cumple las dos
condiciones siguientes:
i. lim E(θ̂n ) = θ.
n›→∞
ii. lim V ar(θ̂n ) = 0.
n›→∞
Esta propiedad nos asegura que aunque un estimador no sea insesgado y con varianza pequeña,
basta aumentar el tamaño de la muestra para poder disminuir el ECM, y en este sentido, los
estimadores con esta propiedad pueden ser estimadores razonables del parámetro.
Ejemplo 7:
i. La media muestral es un estimador consistente de la media poblacional.
En efecto, anteriormente hemos probado que para cualquier tamaño muestral n, la media
2
muestral es centrada y que V ar(X̄n ) = σ n. Por tanto, se cumplen las dos propiedades de la
definición de consistencia.
n
ii. El estimador θΣ ˆ = Xi
es un estimador consistente de la media poblacional.
n n−1
ni=1
En efecto, θ̂n = X̄ . Por tanto:
(n−1)
n n
• E(θ̂n ) = E(X̄ ) = µ −→ µ si n ›→ ∞ .
(n−1) 2 (n−1)
n2 σ2
• V ar(θ̂ ) = n
V ar(X̄ ) = = n
σ2 −→ 0 si n ›→ ∞ .
n (n−1)2 (n−1)2 n (n−1)2
Σ
n
Xi
α1 = n
i=1
Σ
n
(Xi )2
α2 = n
i=1
. .
Σ
n
(Xi)k
αk = n
i=1
. .
hasta obtener k ecuaciones que involucren a los parámetros.
De este sistema se despejan los parámetros y las expresiones obtenidas para éstos, en función de
los valores de la muestra, serán los estimadores por el método de los momentos.
Observación 2 Generalmente, los parámetros de los que depende la distribución de una v.a.
suelen ser la media poblacional, o la varianza o algún valor relacionado con estos; puede verse
fácilmente que estas medidas están relacionadas con los momentos respecto del origen. Por
ejemplo, α1 = µ α2 = σ2 + µ2.
Observación 3 Los estadı́sticos ası́ obtenidos pueden no ser estimadores, es decir, podemos
obtener soluciones que queden fuera del espacio paramétrico.
Ejemplo 8:
• Estimador por el método de los momentos de la media poblacional.
Puesto que hay que estimar un único parámetro, plantearemos una única ecuación:
n
α1 = Σ X i
i=1
n
Σ
n
Xi
y por tanto el estimador será: µ̂ = n
.
i=1
• Estimador por el método de los momentos de la media y la varianza poblacionales.
En este caso hay que estimar dos parámetros, luego habrá que plantear dos ecuaciones:
Σ
n
Xi
α1 = n
i=1
n 2
Σ (Xi)
α2 = n
i=1
Por tanto los correspondientes estimadores por el método de los momentos son:
.
µ̂ = X̄
σˆ2 = s2 .
Método:
- Formar la función de verosimilitud para una muestra arbitraria de tamaño n.
- Resolver el correspondiente problema de máximos absolutos en el dominio de los parámetros.
- Definir como EMV las expresiones obtenidas al determinar el máximo absoluto.
1. Obtener un estimador insesgado para p en una m.a.s. de tamaño n de una distribución binomial
B(m,p) con m conocido y calcular su error cuadrático medio. ¿Es consistente?.
2. Para estimar la media de una población se considera el estimador aX̄ . Encontrar el valor de a que
minimice el error cuadrático medio.
4. Calcular el valor de k para el cuál θ̂ = kX̄ es un estimador insesgado del parámetro θ de la v.a. X que
sigue una distribución uniforme en el intervalo (0, θ).
5. Calcular por el método de los momentos un estimador de θ en el supuesto de que X sea una variable
aleatoria con función de densidad:
0 x≤θ
( )=
f x 3θ3
x>θ
x4
6. Calcular por el método de los momentos estimadores de a y de b en una distribución uniforme en el
intervalo [a,b].
7. El coseno X del ángulo con el que se emiten los electrones en un proceso radiactivo es una variable
aleatoria con función de densidad:
1 + θx
f (x) = −1 ≤ x ≤ 1
2 ( 1 1)
θ −≤θ≤
0 en otro caso
Consideremos una muestra aleatoria simple (X1, X2, ..., Xn) de esta variable.
8. En una gran piscifactorı́a hay una proporción desconocida de peces de una especie A. Para obtener
informacion sobre esa proporción vamos a ir sacando peces al azar.
9. Hallar el E.M.V. para una m.a.s. de tamaño n en una v.a. de Bernouilli de parámetro p.
10. Hallar el E.M.V. de (µ, σ) para una m.a.s. de tamaño n en una v.a. N (µ, σ).
11. Sea X una v.a. con distribución uniforme en el intervalo [θ − 1, θ + 1]. Se ha observado la siguiente
muestra: 2.522 , 2.614 , 1.160 , 1.627 , 1.410 , 2.612 , 1.636 , 2.945 , 2.952 , 1.502. Hallar la estimación
máximo verosı́mil de θ.
(a) Demostrar que X(n) = máx (X1 , X2 , . . . , Xn ) es el E.M.V. de θ. ¿Es insesgado?. Calcular su
E.C.M. ¿Es consistente?.
(b) Dar un estimador T1 insesgado de θ. ¿Es consistente?.
(c) Sea T2 = (n + 2)X(n)/(n + 1). ¿Es insesgado?. ¿Es consistente?.
(d) ¿Qué estimador es preferible entre T1 y T2 ?.
(e) Se ha observado la siguiente muestra: 3.872 , 2.758 , 2.096 , 2.494 , 0.917 , 0.801 , 1.192 Hallar la
estimación de θ.
14. Calcular por el método de los momentos un estimador de θ en el supuesto de que X sea una variable
aleatoria U (−θ, θ) .
15. Sea X una v.a. con distribución geométrica de parámetro p. Obtener un estimador de p por el método
de los momentos y el E.M.V..
16. Sea (X1 , X2 , . . . , Xn ) una m.a.s. de una v.a. con función de densidad fθ (x) = θ(1 − x)θ−1 ; 0
≤ x ≤ 1, θ > 0.
Encontrar el estimador máximo verosı́mil para el paramétro θ.
Estad´ıstica 81
17. Dada una muestra aleatoria simple (X1 , X2 , . . . , Xn ) procedente de una población X con función de
densidad
x x2
e 2θ si x ≥ 0
f (x) = θ
0 si x < 0.
Calcular por el método de máxima verosimilitud un estimador para θ.
18. Sea X un variable aleatoria con media µ y varianza σ2. Dadas dos muestras aleatorias independientes
de tamaño n1 y n2 , con medias muestrales X̄1 y X̄2 , demuestre que
19. Supón que T1 , T2 y T3 son estimadores de θ. Se sabe que Eθ (T1) = Eθ (T2 ) = θ, Eθ (T3) = θ + 2, V
arθ(T1) = 12, V arθ(T2) = 10 y V arθ((T3 − θ)2) = 13. Compara estos tres estimadores desde el punto
de vista del sesgo y la varianza. ¿Cuál prefieres? ¿Por qué?
20. Sea X1 , X2 , . . . , X7 una m.a.s. de una población que tiene media µ y varianza σ 2 .
Se consideran dos estimadores de µ:
X1 + X2 + · · · + X7 2X1 − X6 + X4
θ̂1 = θ̂2 =
7 2
(a) ¿Estos estimadores son insesgados?
(b) Calcular la varianza de cada uno.
(c) ¿Cuál consideras mejor estimador de µ? ¿Por qué?
Estad´ıstica 82
21. Ciertas piezas tienen una duración mı́nima θ > 0 y una duración extra aleatoria que sigue una distri-
bución exponencial de parámetro 1 de manera que el tiempo de vida de la población de piezas es una
variable aleatoria X con densidad:
.
eθ−x si x > θ
f (x, θ) =
0 si x ≤ θ
23. En un experimento de Bernouilli se observan los valores x1, x2, . . . , xn en n ensayos independientes.
Se proponen los siguientes estadı̀sticos como estimadores del parámetro p:
n
. n Σ
Σ 1 Σ
T1 = 1 x1 T2 = 1+ x1
n i=1 n +2 i=1
24. Sea T una v.a. con distribución exponencial de parámetro λ, que representa el tiempo de vida de una
componente.
(a) Demostrar que la probabilidad de dejar de funcionar antes del tiempo medio de vida no depende
del parámetro λ.
(b) Hallar el E.M.V. de la media de la población a partir de una m.a.s. de tamaño n.
Estad´ıstica 83
2
25. El porcentaje X de una componente en un producto tiene una función de densidad f (x) = θ2(θ − x)
si 0 < x < θ, y cero en otro caso.
(a) Dada una muestra aleatoria simple de tamaño n calcular el estimador de θ por el método de los
momentos y analizar su consistencia.
(b) Suponiendo que el tamaño muestral es uno, calcular el estimador máximo verosı́mil de θ.
(c) Particulariza el estimador obtenido en el apartado (a) al caso n = 1 y compáralo con el obtenido
en el apartado (b).
26. La variable X representa los precios de alquiler de los apartamentos de una zona turı́stica. La función
de densidad de X es:
.
f x, θ 1θe−x/θ x >0
( )= 0 x≤0
Se elige una muesta aleatoria simple X1, X2, . . . , Xn (n ≥ 2) de precios y se consideran los estimadores
de θ:
θ̂1 = X1 + X2 + · · · + Xn−1 θ̂2 = X1 + X2 + · · · + Xn
n−1 n+1
(a) Estudia la consistencia de θ̂1 y θ̂2 .
(b) ¿Cuál de los dos estimadores es preferible?