Sei sulla pagina 1di 60

Loss Models

Captulo 2
Modelos para el Monto de un nico Pago
Traduccin por: Manuel Ignacio Fernndez Orellana

2.1 INTRODUCCIN
El propsito del seguro es indemnizar a los tenedores de plizas en el caso de ocurrencia de
eventos adversos imprevistos. Hay una gran variedad de eventos que son objeto de cobertura por
parte de los seguros, como bien lo indica la tabla 2.1
(Tabla 2.1) Beneficios de Seguros
Evento

Nombre del Seguro

Beneficio

Muerte

Vida

Pago fijo al beneficiario

Vida Continua

Anualidad (Renta Vitalicia)

Pago fijo, peridico al tenedor de pliza

Acto Ilcito Culposo

Responsabilidad Civil

Pago de cargos legales y daos

Dao a la Propiedad

Propiedad

Pago relacionado con el monto del dao

Inhabilidad para trabajar

Invalidez

Reemplazo del salario

Enfermedad

Salud

Pago de gastos mdicos

Existen algunas caractersticas comunes a cualquier sistema de seguros. Estos son:


1. Debe haber riesgo una condicin que exige la posibilidad de un desvo adverso respecto
del resultado esperado.
2. La prdida debe ser financiera es decir, implica que el valor de la prdida puede medirse
en dlares.
3. Algo o la totalidad del riesgo se transfiere del asegurado al asegurador
4. Existe la expectativa de que mediante la formacin de una cartera de riesgos (pooling), el
asegurador logre mejorar la estimacin del total de siniestros.
Lo expresado arriba fue extrado de un texto de introduccin al seguro de Vaughan [121].
Afirmaciones similares pueden encontrarse en otros textos. Pueden hallarse definiciones de inters
adicionales en Principios de la Ciencia Actuarial de la Sociedad de Actuarios [113]. Algunas de
ellas, junto con un principio (el nmero del principio fue tomado del documento citado) se repiten
aqu.
Pgina 1 de 60

Definicin 2.1 Regularidad Estadstica


Una regularidad estadstica describe un fenmeno tal que, si se realiza una sucesin de
experimentos independientes bajo las mismas condiciones especficas, la proporcin de ocurrencias
de un evento dado se estabiliza a medida que el nmero de experimentos realizados aumenta.
Definicin 2.2 Modelo Matemtico
Un modelo matemtico es una representacin abstracta y simplificada de un fenmeno dado, que
puede expresarse en trminos matemticos.
Definicin 2.3 Modelo Estocstico
Un modelo estocstico es un modelo matemtico aplicado a un fenmeno que presenta regularidad
estadstica y que puede describir con precisin las probabilidades de aparicin de los eventos de los
eventos en cuestin.
Definicin 2.4 Riesgo Actuarial
Un riesgo actuarial es un fenmeno que tiene un impacto econmico y que est sujeto a la
incertidumbre respecto a una o ms de las variables de riesgo: ocurrencia e intensidad (monto)
Principio 3.1 Los riesgos actuariales pueden ser modelados estocsticamente
Una caracterstica importante del sistema de seguros es que toda cantidad puede ser medida en
unidades monetarias. Esto significa que el conjunto de nmeros reales ser suficiente a nuestros
propsitos y que, especficamente, se podrn usar variables aleatorias para la construccin de
modelos actuariales.
Otra caracterstica distintiva de todos los sistemas de seguros es el elemento de aleatoriedad.
Como bien lo notamos en la Definicin 2.4, cada flujo de beneficios pagados a un tenedor de pliza
tiene tres componentes: el nmero de pagos a los beneficiarios (si los hay), el plazo de dichos pagos
y el monto de cada pago. Por ejemplo, un seguro de vida bsico hace exactamente un solo pago,
en concepto de un monto fijo, pero en un momento aleatorio. En el caso de los seguros de
automviles, cada uno de los tres componentes es aleatorio.
As como lo indicamos en la Definicin 1.9, las distribuciones de siniestros se refieren a la
asignacin de probabilidades a cada uno de estos procesos.
En este captulo, nos dedicaremos especficamente a determinar la distribucin de siniestros o de
los montos a pagar. La determinacin de los modelos probabilsticas que se refieren al componente
que mide el nmero de pagos ser abordar en el Captulo 3.
La explicacin de las distribuciones de siniestros empezar con la descripcin de dos mtodos
alternativos para la obtencin de una distribucin de siniestros. El mtodo emprico es fcil de
implementar, si bien no siempre est disponible. El enfoque paramtrico posee muchas
caractersticas atractivas, a pesar de ser ms difcil. El resto del captulo est dedicado a una
Pgina 2 de 60

explicacin detallada del enfoque paramtrico. En particular, se tratan los varios tipos de
problemas que surgen debido a la naturaleza de los datos relacionados con el negocio de los
seguros. Estos incluyen la gran variedad de mtodos de estimacin, datos de plizas con
modificaciones en la cobertura, datos de mltiples fuentes, tests de hiptesis, y situaciones ms
complejas (por ejemplo, distribuciones bivariadas).
A lo largo del captulo usaremos dos ejemplos para ejemplificar los mtodos utilizados. El primero
es el ejemplo 1.4. Como recordatorio, los datos son siniestros dentales bsicos en una pliza con un
deducible de 50. Los diez pagos observados fueron
141

16

46

40

351

259

317

1511

107

567

Nos vamos a referir a este ejemplo como ejemplo de datos dentales agrupados.
El segundo ejemplo es el siguiente.
Ejemplo 2.1 Considerar el mismo contexto, esto es, pagos dentales, solo que ahora suponga que
somos capaces de recolectar ms datos de montos. En particular, los datos se encuentran
resumidos en la Tabla 2.2
Tabla 2.2 Datos dentales agrupados
Monto Pagado

Nmero de Pagos

0-25

30

25-10

31

50-100

57

100-150

42

150-250

65

250-500

84

500-1000

45

1000-1500

10

1500-2500

11

2500-4000

Nos vamos a referir a este ejemplo como ejemplo de datos agrupados

2 ESTIMACIN EMPRICA
De los dos mtodos de estimacin ms comunes, la estimacin emprica es por lejos la ms simple.
Y como tal, no deberamos olvidar que cuando tenemos a disposicin una gran cantidad de
observaciones, este mtodo bien puede ser el ms preciso.
En esta seccin se introduce una definicin formal y unos cuantos estimadores empricos
especficos.
Dado que habremos de contar con ms de una forma de resolver un problema en particular, es
imperativo que tengamos algn mtodo para evaluar a un estimador.
Pgina 3 de 60

Un punto importante es que la calidad es una propiedad de un estimador y no del estimado.


Estamos interesados en la calidad del mtodo, no en la calidad de un resultado particular que
pudiera surgir de su aplicacin.
2.2.1 Definicin
El propsito de cualquier proceso de estimacin es utilizar los resultados o realizaciones de una
muestra para inferir sobre la poblacin de la cual fue extrada. Asumiremos de ahora en ms que
trabajamos con muestras aleatorias.
Definicin 2.5 (Muestra Aleatoria)
Sean X1 ,, Xn

VAIID (variables aleatorias independientes e idnticamente distribuidas).

Entonces, esta coleccin de variables aleatorias es lo que se denomina muestra aleatoria.


Una consecuencia inmediata es que la funcin de distribucin conjunta de una muestra aleatoria se
obtiene haciendo el producto de las funciones de distribucin marginales.

FX ,, X (x1 , , x n ) =
1

F ( x )
X

i =1

siendo FX (x ) la funcin de distribucin comn a toda la muestra aleatoria


La definicin es vlida solo si, dada una poblacin a la cual se le extrae una muestra, cada
miembro de la poblacin tiene iguales posibilidades (o igual probabilidad) de ser extrado y la
identidad de cada uno de los miembros extrados es irrelevante, de modo que no influye en la
identidad de otro miembro extrado,
El enfoque emprico estima a FX (x ) a partir de la distribucin emprica.
Definicin 2.6 La distribucin emprica se obtiene de una muestra, asignando una probabilidad de
1
n

a cada observacin.

Fn (x ) =

Ms formalmente, la funcin de distribucin acumulada (cdf) 1 es:

nmero de x j x
n

(datos individuales)

La funcin de distribucin acumulada es una funcin escalera que se incrementa en

1
n

en cada

punto que es dato. Es una distribucin discreta que asigna una probabilidad a lo sumo a n valores.
La funcin de probabilidad (pf) 2 es

fn (x ) =

nmero de x j = x
n

(datos individuales)

cumulative distribution function


probability function

Pgina 4 de 60

Siempre que tengamos una funcin de distribucin acumulada (cdf) o una funcin de probabilidad
(pf), hay asociada una variable aleatoria. Por razones de notacin, es conveniente definir a una
variable aleatoria para la cual su cdf 3 coincide con su cdf emprica.

Definicin 2.7 (Variable Aleatoria Emprica)


La Variable Aleatoria Emprica es una VA que tiene a

Fn (x ) como su funcin de

.
distribucin acumulada, y se denota X

Para datos agrupados resulta imposible determinar la funcin de distribucin acumulada, porque
los datos individuales no estn disponibles. Sin embargo, es posible aproximarla con la siguiente
definicin. La definicin adems provee una notacin estndar para conjuntos de datos agrupados
(Grfico 2.1) Funcin de Distribucin Emprica para montos individuales de planes dentales

Definicin 2.8 Sean c0 < c1 <

< cr los lmites para un conjunto de datos agrupados. Sea n j el

nmero de observaciones en el intervalo (c j-1 ,c j ] , j=1,, r. Es posible que cr = .


La funcin de distribucin emprica se obtiene en los lmites de cada intervalo como

F (c ) =
n

i =1 i

n
El grfico que surge de conectar los valores de la funcin de distribucin acumulada emprica, en

cada uno de estos puntos c1 ,c2

,cr , por segmentos de lneas rectas, se denomina ojiva y es una

aproximacin de la funcin de distribucin acumulada emprica. La definicin formal es


0
x c0

(c x )F (c ) + ( x c )F (c )
j
n j 1
j 1
n j
Fn (x ) =
c j 1 x c j

c j c j 1

x > cr
1

Como

(c j x )Fn(c j 1 ) + ( x c j 1 )Fn(c j )
c j c j 1

longitud del subintervalo


que va desde el lmite inferior
probabilidad asociada al hasta el punto donde quiero
intervalo (c j 1 ,c j ]
aproximar la funcin de
distribucin acumulada

Fn(c j 1 )
funcin de distribucin
acumulada hasta cj 1
(asociada a la probabilidad de
que x x j )

Fn(c j ) Fn(c j 1 )
c j c j 1

( x c j 1 )

longitud del intervalo

En este texto los trminos funcin de probabilidad y funcin de densidad de probabilidad y las abreviaciones

pf y pdf sern usadas indistintamente. El contexto debera dejar claro si la VA en cuestin es discreta, continua o
en parte continua y en parte discreta. La pdf ser denotada como una funcin f(x) y en el caso especial en el que la
VA asuma solo valores enteros, la pf puede ser escrita como pn
Pgina 5 de 60

Entonces

0
x c0

int ervalo genrico


(grupo j-simo)

Fn(c j ) Fn(c j 1 )

Fn (x ) = Fn(c j 1 ) +
( x c j 1 )
x (c j-1 ,c j ]
j=1,2,..,r

c j c j 1

x > cr
1

(r es la cantidad de intervalos utilizados en la agrupacin de datos)


Aclaraciones
La ojiva, en principio, no est definida para x > cr 1 en el caso en el que cr = .

(1)

SALVO, que nr , la cantidad de observaciones en (cr 1 , ) sea cero, es decir, nr = 0


(2)

La ojiva debe ser una funcin lineal a trozos. Como tal, la derivada existe en todos los
puntos excepto en los lmites superior e inferior de cada intervalo (en los c j ). Y donde
existe, es tan solo la pendiente del segmento de recta que los une.

Definicin 2.9 (Histograma)


Se denomina histograma a la derivada (donde exista) de la ojiva, es decir, a la aproximacin
emprica de la funcin de densidad
// En el campo continuo, se cumple la relacin, dada una variable aleatoria X con sus respectivas
funcin de densidad fX (x) y su funcin de distribucin acumulada FX (x)

fX (x) dx= dFX (x)


Una aproximacin sera fX (x) x FX (x)

siendo

x = c j c j 1
FX (x) = FX (c j ) FX (c j 1 )

Definicin formal de histograma:

0
x c0

nj
Fn(c j ) Fn(c j 1 )
fn (x ) =
x (c j-1 ,c j ] j=1,2,..,r
=

c j c j 1
n(c j c j 1 )

0
x > cr

// Notar que

F (c ) F (c )
Fn(c j ) Fn(c j 1 )
d
d
n j 1
= n j
x (c j-1 ,c j ):
+

= fn(x)
Fn(x)=
F
(c
)
(
x
c
)
n j 1
j 1
dx
dx
c j c j 1
c j c j 1

As como en el campo continuo las condiciones para que una funcin de la variable aleatoria x sea
considerada funcin de densidad de probabilidad eran:
(1) fX (x) 0
(2)

(no negatividad)

fX (x) dx =1

(ley de cierre)
Pgina 6 de 60

Por ser el histograma una aproximacin de la funcin de densidad de probabilidad, (1) El


histograma es SIEMPRE no negativo, y (2) tiene un rea de uno, salvo que cr = , en tal caso
no hay manera de representar la probabilidad del ltimo grupo (cr 1 , )
Es importante notar que es el rea y no la altura de las barras del histograma la que es
proporcional al nmero correspondiente a un grupo.

2.2.2 Estimadores empricos (pg. 29)


A partir de la distribucin emprica u ojiva, podemos obtener estimadores de cualquier
caracterstica de la distribucin poblacional. A lo largo del libro, asumimos que una muestra
aleatoria extrada de una poblacin, result en las observaciones x1 ,...,x n . Cualquier inferencia que
hagamos ser de la poblacin que produjo estos valores.
Lo ms importante de la estimacin emprica es hallar para la distribucin emprica la medida o
cantidad que nos interesa de la poblacin de la cual extrajimos la muestra.

2.2.2.1 Estimador emprico de la media (pg 30)


Para datos individuales, la media de la distribucin emprica se obtiene como
= x =

1
n

j =1

Esta es la familiar media muestral que ejemplifica la base de la estimacin emprica: para
determinar cierto aspecto o caracterstica de la poblacin, se determina la misma caracterstica a
partir de la muestra. A lo largo del libro se indicar a un estimado o a un estimador con un
circunflejo (o sombrero).
2.2.2.2

Estimador emprico de otros momentos

Los momentos poblacionales, si existe, se definen como

Definicin 2.10
El k-simo momento absoluto (o simple) es k ' = E[ x k ]

(momento en torno al origen)

El k-simo momento central es k = E[( x )k ]


Es comn denotar a 1' como
No podemos estar seguros de que las sumas o integrales que definen a estos momentos convergen.
Cuando la suma o la integral no converge decimos que ese momento no existe.
El momento se dice que es infinito si la suma o la integral se aproxima al infinito.
Aparte de la media, ciertos momentos han adquirido nombres especficos y smbolos adicionales

Pgina 7 de 60

Definicin 2.11

(pg. 31)

Varianza : 2 = 2 = 2 ' 2
Desvo Estndar: = 2
Coeficiente de Variacin:

Coeficiente de Asimetra: 1 =
Kurtosis:

2 =

3
3

4
Momento Factorial de orden k: E[ ( k ) ]=E[x(x 1)

(x-k+1)] ,k

Para cualquier distribucin simtrica el coeficiente de Asimetra 1 = 0 ( 1 es el coeficiente de


asimetra). Las distribuciones de simetra positiva tienden a tener la mayor masa de probabilidad
en valores pequeos, pero el resto de la probabilidad se extiende a lo largo de un gran rango de
valores ms grandes
El histograma de la figura 2.3 es un ejemplo de distribucin de simetra positiva
La kurtosis mide la naturaleza del apartamiento de los valores en torno a la media. Una pequea
kurtosis (es SIEMPRE NO NEGATIVA) indica la existencia de un pico agudo en el medio. Una
kurtosis grande indica un descenso ms lento.
Mientras que la kurtosis es similar a la varianza, en el sentido de que mide apartamiento, es ms
efectivo para distinguir a aquellas distribuciones que colocan probabilidad adicional en los valores
ms grandes. Una variable aleatoria con distribucin normal tiene una kurtosis de 3, sin importar
el valor de sus parmetros.
Las relaciones entre momentos centrales y absolutos son
3 = 3 ' 3 2 ' + 23
4 = 4 ' 43 ' + 6 2 ' 2 3 4

Los estimadores empricos para datos individuales son

k) = 1
k ' = E( X
n

k
j

j =1

)k ) = 1
k = E(( X
n

(x

j =1

Notar que la varianza muestral se define dividiendo la suma de cuadrados por el tamao de la
muestra. Es un poco diferente respecto de la usual divisin por n-1. Una explicacin de por qu
dicha diferencia, se encuentra en la siguiente subseccin.
Pgina 8 de 60

Para datos agrupados, y suponiendo que cr < , el histograma puede ser integrado para obtener
los momentos. Los momentos absolutos son
r

k ' =

fn ( x ) =

cj

x f ( x )dx
k

nj
n( c j c j 1 )

j =1 c
j 1
r

k ' =

j =1

cj

x
j =1 c
j 1

x =c

x k +1 j

n(c j c j 1 ) k + 1

x =c
nj

1
=
n

n(c j c j 1 )

dx =

n(c
j =1

nj
j

c j 1

cj

x dx
)
k

c j 1

n j (c kj +1 c kj +11 )

( k + 1)(c
j =1

j 1

nj

1
k ' =
n( k + 1)

c j 1 )

c kj +1 c kj +11

c j c j 1

j =1

Otro grupo de momentos es extremadamente til en los clculos de seguros. Como bien se indic
en la Definicin 1.7, es comn limitar el monto que va a ser pagado por la compaa aseguradora.
Si Y es la variable aleatoria monto pagado, est Y = min(X,u)= (X u ) , donde u es el lmite de
la pliza y el smbolo es interpretado como el mnimo entre. Esto lleva a la siguiente
definicin.
Definicin 2.12 El momento limitado de orden k de X es

k
E[( X )k ] = E[Y k ] = E min(X,u)

El primer momento limitado se denomina valor esperado limitado (o esperanza limitada) y se


denota LEV 4 .

Si X asume solo valores no negativos todos los momentos limitados con k 0 deben existir.
Ms an, Lim E(X u)=E(X) , si existe.
n

Las frmulas para el clculo de los momentos limitados son


CASO DISCRETO: E (X u)k =
x kj f( x j ) + u k
f( x j )

x j <u

CASO CONTINUO: E (X u)k =

x j u

x k f( x ) dx + u k

f( x ) dx

En ambos casos el segundo trmino puede ser reemplazado por u k 1 F( u )


Se puede al igual que antes, obtener estimadores empricos.

1
k
k
k

xj +
u (2.4)
Para datos individuales, la frmula es E (X u) =

x j u
x j <u

Para datos agrupados, el histograma puede ser utilizado si u [c j 1 ,c j ] , la frmula es

Limited Expected Value


Pgina 9 de 60

k

E (X
u) =

ci

j 1

n(ci ci 1 )

i =1 c
i 1

j 1

k

E (X
u) =

cj

ni

dx +

n( k + 1)(c c

i 1

i =1

n(c j c j 1 )

c j 1

ni(cik +1 cik+11 )
)

nj

cj

dx +

ci

nj

n(c j c j 1 )

dx +

ni

i = j +1 c

n(ci ci 1 )

dx

i 1

n j ( u k +1 c kj +11 )
n( k + 1)(c j c j 1 )

n j u k (c j u)
n(c j c j 1 )

i = j +1

niu
n

Para el caso especial en el que k=1, la frmula se simplifica

u) =
E (X

j 1

ni(ci + ci +1 )
2n

i =1

n j ( 2 uc j c 2j 1u k +1 u 2 )
2 n(c j c j 1 )

i = j +1

ni u
n

(2.5)

En los informes que hacen uso de datos agrupados, es muy comn incluir la media muestral de las
observaciones en cada grupo. Sea ai la media muestral para el i-simo grupo, con lo que

ai (ci 1 ,ci ] . Entonces el valor esperado limitado puede ser calculado en forma exacta en los
lmites del intervalo como
u) =
E (X

niai
n

i =1

u) = 1
E (X
n

LEV=

nic j

cj

i = j +1

n a + n n
i i

i =1

i = j +1

lmite c j
nmero de siniestros del grupo monto de grupo
nmero de siniestros

+

nmero total de siniestros
nmero total de siniestros del grupo j+1 en adelante

No queda claro cul es la mejor manera de interpolar entre los lmites de cada grupo. Una idea se
sugiere en el ejercicio 2.3
Ejemplo 2.4
Determinar la media emprica, el desvo estndar, el coeficiente de asimetra y kurtosis de las dos
muestras. Adems, estimar la esperanza limitada a 400 para cada muestra
Para el ejemplo de datos individuales tenemos
1' =(141+...+567)/10=335.5
'2 =(1412 +...+567 2 )/10=2.9307 10 5
3' =(1413 +...+567 3 )/10=3.7287 10 8
'4 =(1414 +...+567 4 )/10=5.3463 10 11

=335.5

=
2.9307 10 5 335.5 2 = 42486
.
1 =(1.5343 10 8 )/(7.6691 10 7 )=2.0006
2 =(5.3463 10 11 )/(3.2583 10 10 )=5.9586

De (2.4) la esperanza limitada a 400 es


400 ) = ( 141 + 16 + 46 + 40 + 351 + 259 + 317 + 400 + 107 + 400 ) / 10 = 207 .7
E( X

Pgina 10 de 60

Para los datos agrupados tenemos


30( 25 2 0 2 )
3( 4000 2 2500 2 )
1

+
+
...
=353.34
378( 2 )
25 0
4000 2500

30( 25 3 0 3 )
3( 4000 3 2500 3 )
1

2' =
...
=3.5768 10 5
+
+
378( 3 )
25 0
4000 2500

4
4
30( 25 4 0 4 )
3
(
4000
2500
)

=6.5863 10 8
3' =
+ ... +
378( 4 )
25 0
4000 2500

5
5
30( 25 5 0 5 )

3
4000
2500
(
)
1

=1.6261 10 12
'4 =
+ ... +
378( 5 )
25 0
4000 2500

=353.34

1' =

=
3.5768 10 5 353.342 = 482.53
1 =(6.5863 10 8 )/(1.1235 10 8 )=3.2730
2 =(1.6261 10 12 )/(5.4210 10 10 )=16.904

De (2.5) la esperanza limitada a 400 es


400 ) = { 30( 12.5 ) + 31( 37 .5 ) + 57 ( 75 ) + 42( 125 ) + 65( 200 ) + 84[ 2( 400 )( 500 ) 250 2 400 2 ] / 2( 250 ) +
E( X
+(45+10+11+3)(400)}/378 =215.56

Definicin 2.2.2.3 (Percentiles)


Saber todos los percentiles es equivalente a saber la funcin de distribucin acumulada. La
definicin formal de percentil es la siguiente
Definicin 2.13 El (100p) percentil de una distribucin F(x) es cualquier nmero p , tal que
F( p ) p F( p ) , donde F( p ) = Lim+ F( p h)
h 0

Si la funcin de distribucin acumulada es una funcin montona estrictamente creciente, entonces


la solucin va a ser nica. // p = F 1( p)
Pero si la funcin de distribucin acumulada es constante en algn intervalo, como es el caso de
toda distribucin discreta y toda distribucin emprica, los valores en los que sta es constante se
aceptan como un percentil especfico.
El estimador emprico de un percentil es simplemente el correspondiente percentil de la
distribucin emprica.
Ejemplo 2.5 (ejemplo dental)
Determinar los estimadores empricos de los percentiles 45 y 80 a partir de las dos muestras.
Datos Individuales

F10 ( 141) = 0.5


0.45 = 141
F10 ( 141 ) = 0.4

F10 ( 351) = 0.8


0.8 ( 351,567 )
F10 ( 567 ) = 0.8

Pgina 11 de 60

Datos Agrupados
c
^
0.45 =F
378 0.45 =

378 = n

378 B 0.45 = 170.1

F
1f
f
f
f
f
f
f
f
f
f
f

378

160 +

b
cG
225
@
160
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f^
0.45 @ 150 [ ^ 0.45 = 165.5384615
250 @ 150

X
b
c
^
^
^
\c j @ 1 = 150 F c j @ 1 = 160
b c
[^
^
^
Zc j = 250 F c j = 225

`
a 250
@
150
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^ 0.45 = 378 B0.45 @ 160 f
+ 150
225 @ 160
b
c
b
cG
F
1f
309
@
225
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f^
c
^
225 +
0.8 @ 250
0.45 =F
378 0.8 =
378
500 @ 250
378 B0.8 = 3024
b

302.4 2 250,500

c j @ 1 = 250 , F c j @ 1 = 225
b

c j = 500 , F c j = 309
b c

`
a 500
@
250
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^ 0.8 = 0.8 B378 @ 225 f
+ 250 = 480.3571429
309 @ 225
En ambos casos, el percentil puede ser encontrado grficamente localizando el porcentaje (0.45 y

0.80 en el ejemplo de arriba) por sobre el eje vertical del grfico adecuado (funcin de distribucin
acumulada u ojiva) y luego encontrando el percentil en el eje horizontal.
En el caso de datos individuales el mtodo descrito arriba es insatisfactorio porque no provee
una nica respuesta en algunos caso, y para otros existen varios percentiles con el mismo valor hay
varias maneras de suavizar el proceso. Nosotros preferimos el siguiente
Definicin 2.14 El estimador emprico suavizado de un percentil se obtiene haciendo
(Datos Individuales)
^ p = 1 @ h x `g a + h x bg + 1 c
`

B`

a C

g= n+1 p

parte entera del nmero n + 1 p


`

h = n + 1 p @ g parte fraccionaria del nmero n + 1 p


`

A indica la funcin de mayor valor entero, y adems, x`1a x ` 2a x `na son los estadsticos de

@A

orden de la muestra.

Salvo que haya dos o ms datos con el mismo valor, los percentiles sern nicos.
Una caracterstica de este procedimiento es que

^ p no puede obtenerse como

1f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
p< f
, o
n+1

1f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
p> f
. Parece razonable en la medida que no deberamos ser capaces de inferir el valor de los
n+1
percentiles muy bajos o muy altos a partir de muestras pequeas. Usaremos la versin suavizada
cada vez que se pida o se requiera el percentil emprico.

Pgina 12 de 60

Ejemplo 2.6 Determinar, para los datos individuales del ejemplo dental, los estimados suavizados
de los percentiles 45 y 80
g = 10 + 1 B0.45 = 4.95 = 4 [ h = 0.95
B`

^e
e
e
e
0.45
e
e
e
e
e
e
e
e
e:

C @

^ 0.45 = 1 @ 0.95 x ` 4a + 0.95 x ` 5a = 1 @ 0.95 B107 + 0.95 B141 = 139.3


`

g = 10 + 1 B0.8 = 8.8 = 8 [ h = 0.8


B`

^e
e
e
e
e
e
e
e
e
e:
0.8

C @

x ` 8a = 351 , x ` 9a = 567

^ 0.8 = 1 @ 0.8 B351 + 0.8 B567 = 523.8


`

2.2.3

Estimacin por Intervalo

Todos los estimadores discutidos hasta el momento han sido estimadores puntuales. Es decir
que el proceso de estimacin produce un nico valor que representa nuestro mejor intento de
determinar el valor del parmetro poblacional. Si bien aquel valor puede ser bueno, no
esperamos que coincida exactamente con el verdadero valor. Un resultado todava ms til
surge a partir de un estimador por intervalo. En lugar de arrojar un nico valor, el resultado
del proceso de estimacin es un rango de nmeros posibles, cada uno con la misma
probabilidad o chance de ser el verdadero valor. Un tipo especfico de estimador por intervalo
es el intervalo de confianza.
Definicin de Intervalo de Confianza
Un intervalo de confianza al 1 @ 100% para el parmetro es un par de valores L(lower
`

inferior) y U(upper superior) que surgen de una muestra aleatoria tales que

Pr L U 1 @ 8
`

L, U son variables aleatorias

Notar que esta definicin no define unvocamente al intervalo. Como la definicin es una
afirmacin probabilstica y debe cumplirse para todo valor de , no dice nada acerca de si un
determinado intervalo incluye al verdadero valor de de una poblacin en particular.
Ms an, el nivel de confianza (level of confidence), 1 @ , no es una propiedad de los valores
obtenidos especficamente. 5
La interpretacin correcta es que si usamos un determinado estimador por intervalo una y otra
vez, en una gran cantidad de muestras, aproximadamente el 1 @ 100% de las veces nuestro
`

intervalo va a incluir al verdadero valor.

Construir intervalos de confianza puede resultar bastante difcil. Por ejemplo, sabemos que si una
poblacin se comporta segn una distribucin Normal con media y varianza desconocidas, un
intervalo de confianza al 1 @ 100% para la media es:
`

and not of the particular values obtained


Pgina 13 de 60

donde

f
f
f
f
f
sf
f
f
f
f
f
f
f
f
f
f
f
w
w
w
w
w
w
w
L = X @ t fffffff,n @ 1 p
n
2
f
f
f
f
f
sf
f
f
f
f
f
f
f
f
f
f
f
w
w
w
w
w
w
w
U = X + t fffffff,n @ 1 p
n
2

v
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
u
b
c2
f
f
f
u
u n xi @ x
u
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
s = tX
i=1

n@1

1 @ 100% de la distribucin t con b

t ,b es el percentil

grados de libertad. Pero requiere un gran esfuerzo verificar que esto efectivamente es correcto. Sin
embargo, existe un mtodo de construir intervalos de confianza aproximados, de forma
^

relativamente sencilla. Suponer que tenemos un estimador puntual de un parmetro tal que
^

^
^
E = ; Var = v y que se comporta aproximadamente como una distribucin normal.

b c

b c

` a

Con todos estos supuestos tenemos que aproximadamente


H

^
L
@
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
L
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
1 @ = PrL
@z 1 @ fffffff
`w
aw
J
2
rv z 1 @ fffff

(2.7)

Al despejar se obtiene el intervalo deseado. A veces es bastante difcil de hacer, debido a la


aparicin de

en el denominador). Por ello, se reemplaza a v por v ^


` a

frmula todava ms aproximada


H

b c

para obtener la

M
L
@
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
M (2.8)
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
M
L@ z fffffff w
1 @ = PrL

f
f
f
f
f
f
f
b
c
K
J
1@
1
@
^
2
2
rv
^

donde z 1 @ es el percentil 1 @ 100% de la distribucin normal estndar.


`

//

Por simetra de la distribucin Normal,

L M L
M
L M L
M
Lz ffffffM
L
M

f =Lz
f
f
f
f
f
f
f
L M
1@ M
2

// 8 2 R:z1 @ fffffff= @z fffffff


2

//

IC 1 @ : F z1 @

2
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
b
c
^
r
v

f
f
f
f
f
f
f

Ejemplo 2.7 (pg 37)

Usar la ecuacin (2.8) para construir un intervalo de confianza aproximado al 95%, para la media
de una poblacin normal y varianza desconocida.
B C
b c
f
f
f

^
^
f
f
f
f
f
f
f
f
f
f
f
f
w
w
w
w
w
w
w y tiene una distribucin normal. El intervalo
Usar = x y notar que E ^ = , Var ^ = p
n
f
f
f
sf
f
f
f
f
f
f
f
f
f
f
f
w
w
w
w
w
w
w. Puesto que t 0.025,n @ 1 >1.96 , el intervalo de confianza
de confianza es entonces x F 1.96 p
n
aproximado debe ser ms angosto que el intervalo exacto dado por (2.6)
f
f
f
sf
f
f
f
f
f
f
f
f
f
f
f
w
w
w
w
w
w
w
L = x @t fffffff,n @ 1 p
n
2
f
f
f
sf
f
f
f
f
f
f
f
f
f
f
f
w
w
w
w
w
w
w
U = x + t fffffff,n @ 1 p
n
2
Eso significa que nuestro nivel de confianza es algo menor al 95%.
Ejemplo 2.8 Usar (2.7) y (2.8) para construir un intervalo de confianza al 95% para la media de
f
f
f

una distribucin de Poisson. Obtener intervalos para el caso particular en el que n=25 y x = 0.12
Pgina 14 de 60

Para el primer intervalo planteamos

f
f
f
f
f

@
f
X
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
w
w
w
w
w
w
w
w 1.96m
0.95 = Prl
m
l@ 1.96 w
f
f
f
f
r f
n

// Si Y ~ Poisson, entonces E Y = Var Y =


f
f
f
f
Bf
C

f
f
f
f
Bf
C

f
f
f
f
f
// E X = ; Var X = f
n
M
L
M
L

@ A

@ A

f
f
f
f M
w
w
w
w
w
w
w
w
w
Lf
f g
f f
2g
f
f
f
f M
f
f
f
f c2
f
f
f
f
f
f
f
f
f
bf
M
LX
Lf
@

1.96
2
2
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
M
M
Lf
L
w
w
w
w
w
w
w
w M 1.96 ^LX @ M 1.96 s ^ X @ =1.96
L w
^

2
X
+
+
X
0
L
n
n
n
f
f
f
fM
M
L r f
M
L
n

Resolviendo la ecuacin cuadrtica produce el intervalo


ff
f
f
f
f

X+

w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
v
f
f
f
f
f
u
2
u
3.8416
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
u15.3664 X +
1f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
tf
nf

1.9208
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
F
n
2
f
f
f

Si n=25 y x = 0.12 , el intervalo es IC: 0.197 F 0.156


Para la segunda aproximacin, el intervalo es
f
f
f
f
f

X F 1.96

f
f
f
f
f
w
w
w
w
w
w
w
w
w
w
w
w
X
f
f
f
f
f
sf

n
Si n=25 y x = 0.12, el intervalo es IC: 0.12 F 0.136
f
f
f

Este intervalo se extiende por debajo del cero, lo cual no es cierto para le verdadero valor de .
Es por esto que (2.8) no es ms que una psima aproximacin en este caso.
Los intervalos creados hasta el momento han sido paramtricos, en el sentido de que se ha
utilizado a la distribucin normal como una aproximacin. Pero hay una situacin en la que
podemos formar un intervalo de confianza que sea verdaderamente no-paramtrico. Es decir, el
nivel de confianza elegido es correcto ms all de la distribucin de la poblacin.
La situacin es la construccin de un intervalo de confianza para el percentil de una poblacin. El
siguiente teorema provee el resultado requerido.
Teorema (pg. 38)
Sea

X 1 ,X 2 , , X n una muestra aleatoria de tamao n donde cada

X j tiene una distribucin

continua. Sean X `1a , X ` 2a , , X `na los estadsticos de orden de la muestra. Sean 1 a<b n dos
nmeros enteros. Entonces el intervalo

X `a a ,X `ba es un intervalo de confianza al

para p (el percentil p de la poblacin), donde

1 @ = Pr a B b
@

1 @ 100%

y donde B es una variable aleatoria con distribucin Binomial con parmetros n y p


Notar que como a y b deben ser enteros, existe un lmite a los posibles valores que puede tomar
1 @ . Esto se evidencia en el siguiente ejemplo.

Pgina 15 de 60

Ejemplo 2.9 (datos individuales) Construir un intervalo de confianza de por lo menos el 90% para
el percentil 70.
La respuesta NO ES NICA, pero tiene sentido construir el intervalo usando la menor cantidad
posible de estadsticos. Las probabilidades asociadas a la distribucin binomial con n=10 y p=0.7
estn dadas en la tabla 2.3
Tabla 2.3

La

forma

ms

rpida

Pr(B=i)

Pr(B=i)

0.00001

0.20012

0.00014

0.26683

0.00145

0.23347

0.00900

0.12106

0.03676

10

0.02825

0.10292

de

llegar

la

probabilidad

de

0.9

es

sumando

0.26683+.23347+0.20012+0.12106+0.10292=0.92440
Esta es la Pr 5 B 10 , y justamente el intervalo general para una muestra de tamao 10 es
b

X ` 5a ,X `10a . Para este conjunto de datos el intervalo es (141,1511) y el nivel de confianza es en

realidad 92.44%.

Notar que de haber utilizado Pr(B=10) para obtener la probabilidad deseada, el valor de b sera
infinito y el lmite superior del intervalo de confianza hubiera sido el valor ms grande que puede
tomar la variable aleatoria. Similarmente, resulta que si

= 0 , entonces el lmite inferior es el

valor mnimo que puede tomar la variable aleatoria.


Para tamaos de muestras mayores este proceso se vuelve engorroso, en la medida en que las
probabilidades asociadas a la Binomial se tornan numerosas y difciles de calcular. En este
contexto, podemos recurrir a la distribucin normal para una aproximacin eficiente de la
binomial. El siguiente ejemplo ilustra el proceso.
Ejemplo 2.10 Determinar qu estadsticos de orden son los que forman parte de los lmites de un
intervalo de confianza al 90% correspondiente al percentil 70 proveniente de una muestra aleatoria
de tamao 750.
La variable B tiene una distribucin binomial con parmetros 750 y 0.70. sta puede aproximarse
mediante una distribucin normal con media 750(0.7)=525 y varianza 750(0.7)(0.3)=157.5 y con
un desvo estndar de 12.55. Entonces tenemos que

af
@
0.5
@
525
bf
@
0.5
@
525
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
0.9 = Pr a B b = Pr
<z<
12.55
12.55
`

donde z tiene una distribucin normal estndar y donde se aplic una correccin por continuidad
(se resta 0.5). Un intervalo simtrico al 90% se obtiene planteando
Pgina 16 de 60

X
^
af
@
0.5
@
525
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
= @ 1.645
^
\

12.55
^
b
@
0.5
@
525
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
= 1.645
^
Z
12.55

[ a = 504.86
[ b = 546.14

Para garantizar por lo menos un 90% de confianza, el intervalo

X ` 504a ,X ` 547a

En el ejercicio 2.16 se le pide hallar la frmula general para a y b cuando n,p y

1 @ son

arbitrarios. Un uso particular de dicho resultado es en estudios de simulacin donde el objetivo es


estimar un cierto percentil de una poblacin. El resultado permite determinar el nmero de
simulaciones necesarias para obtener cierto nivel de precisin (Cp. 4)
2.3

Evaluacin de un Estimador (pg 39)

Ahora que tenemos la habilidad de estimar cantidades en base a la informacin muestral, es


esencial que seamos capaces de evaluar la calidad de nuestro trabajo. En general, existen cuatro
tipos de errores que podemos cometer
1. Hemos extrado una muestra proveniente de una poblacin diferente de la que pretendamos
2. Hemos seleccionado un modelo para una poblacin que no es verdadero, o hicimos
suposiciones acerca de la poblacin que no son ciertas.
3. Nuestra muestra no es representativa de la poblacin, debido a que la posibilidad de
eleccin de los miembros de la muestra no es la misma para todos (no es una muestra
aleatoria)
4. El mtodo de estimacin en s es imperfecto
El primer tipo de error ocurre cuando el muestreo se prolonga a lo largo de un perodo de tiempo
extenso, Por ejemplo, los datos sobre montos de siniestros para automviles seran imprecisos si
incluyeran informacin de un perodo anterior a un cambio en las condiciones de manejo (como ser
un cambio en el lmite de la velocidad mxima permitida). Otra posibilidad es la existencia de un
esquema de muestreo defectuoso. Por ejemplo, los datos de los siniestros pueden no incluir una
provisin para aquellos que han ocurrido pero que an no han sido informados (por ejemplo, la
experiencia en mortalidad, de un ao calendario, recolectada desde el 1/Enero podra omitir
algunas muertes ocurridas en Diciembre).
El segundo tipo de error no es posible con estimadores empricos, ya que no se realiza ningn tipo
de suposicin acerca de la aleatoriedad de la muestra. Veremos cmo este error puede acrecentarse
en la siguiente seccin.
El tercer tipo de error puede minimizarse, pero no eliminarse. Cada vez que hacemos un anlisis
en base a la muestra en lugar de la poblacin, la posibilidad de error se incrementa. No hay
Pgina 17 de 60

ninguna seguridad de que los miembros de la muestra reflejarn fielmente a la poblacin y no hay
siquiera la ms remota idea de darnos cuenta que hemos elegido una muestra de esa ndole una
vez que, en ese momento, la hemos tomado.
El cuarto tipo de error se evala simultneamente con el tercero. La idea ac es que para algunos
estimadores, an si extrajramos una muestra de la totalidad de la poblacin, estaramos todava
cometiendo un error. Un ejemplo de tal estimador podra ser uno que requiera que los datos estn
agrupados

k .

que
k+1

la

media

k+1

de

la

poblacin

se

estime

por

medio

de

(2.2)

cf
@c
jf
jf
@
1f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
cm
jn j `
k
= Xl
ab
r

j=1

n k + 1 c j @c j @ 1

En esta seccin estaremos trabajando con el efecto combinado del tercer y cuarto tipos de error,
denominados errores de muestreo o errores de estimacin.
Definicin 2.16

Un estimador puntual es una funcin de los valores obtenidos a partir de una

muestra aleatoria. Como tal, un estimador es en s mismo una variable aleatoria, con su propia
distribucin, denominada distribucin de muestreo (o muestral)
Definicin 2.17

Un estimado puntual (valor estimado) es la realizacin numrica de un estimador

basado en una muestra aleatoria en particular.


Dejaremos de lado el denominativo puntual siempre que est claro que no nos estamos refiriendo
a un estimador por intervalo. A pesar de no ser parte del eje de discusin aqu, deberamos notar
que los lmites de un intervalo de confianza como lo hemos descrito en la seccin 2.2.3 son tambin
variables aleatorias.
Asumimos que el propsito de construir el estimador y posteriormente utilizar el estimado, es para
producir una buena conjetura acerca de algunos aspectos importantes de la poblacin.
Por una cuestin de notacin, usaremos tpicamente las letras del alfabeto griego para referirnos a
medidas o cantidades poblacionales y podremos circunflejos sobre ellas para denotar estimadores.
Al ser una variable aleatoria, tambin es muy comn denotar a su correspondiente estimador con
una letra romana minscula. El siguiente ejemplo aclara estos conceptos.
Ejemplo 2.11 Considerar la media y la varianza. Son claramente caractersticas poblacionales.
Estos son posibles estimadores
f
f
f
f
f n X
f
f
f
f
f2
n b
c
2
1f
jf
2
f
f
f
f
f
f
f
f
f
^ = X = X f
^ = S n = X X j @ X
n
n j=1
j=1
y sus correspondientes estimadores son
Pgina 18 de 60

f
f
f n xf
jf
f
f
f
^ = x = X f
n
j=1

n b
c2
f
f
f
2
1f
f
f
f
^ = s n2 = X x j @ x
n j=1

Otros estimadores podran haber sido


f
f
f
f
f
n b
c2
2
1f
2
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
X
= 0.5
= Sn@ 1 =
X j @X
n @1 j=1
Con esta notacin, como la definida arriba, no hay manera alguna de distinguir al estimador de su
estimado, utilizando letras griegas.
El primer conjunto de estimadores son los estimadores empricos. El segundo miembro, utiliza el
estimador emprico de la mediana para estimar la media y usa el ms comnmente elegido
denominador, n-1, para la estimacin de la varianza.
Debemos dejar nuevamente bien claro que la nica cantidad que puede ser evaluada respecto de su
calidad, es el estimador, no el estimado. Todas las medidas utilizadas aqu se aplican a la variable
aleatoria, e intentan indicar cun bien nos ira si adoptramos un determinado procedimiento. En
cualquier caso particular de aplicacin, el estimado en s puede resultar tanto bueno como malo,
algo que podr verificarse en el futuro pero que no se puede evidenciar de antemano o al momento
en el que se efecta el proceso de estimacin.
Las medidas de calidad de una estimador introducidas aqu son las estndar incluidas en la
mayora de los libros de Estadstica Matemtica.
^

Para todas las definiciones que siguen, (posiblemente un vector) indicar el parmetro y el
estimador.
La primera medida indica cun bien el estimador resulta en promedio. Si un buen estimador se
utiliza repetidamente, en muchas situaciones similares, los errores deberan cancelarse de modo que
no debera haber un comportamiento tendencial por sobre o por debajo del parmetro. (Concepto
de insesgadez)
^

Definicin 2.18 El sesgo (en ingls, bias) de un estimador es

b ^ = E ^ @
b c

b c

Un estimador para el que el sesgo es idnticamente cero se le da el nombre de insesgado


( b ^ = 0 8 )
b c

Notar que el sesgo es una funcin del valor del parmetro. El grado en el que un estimador se aleja
o aparta, en promedio, podra depender de un valor particular del parmetro. Todo lo dems
igual, preferiremos que un estimador sea insesgado.
Ejemplo 2,12 Determinar el sesgo de cada uno de los siguientes estimadores. Hgalo primero sin
hacer suposiciones sobre la poblacin, y luego bajo el supuesto de que la poblacin tiene una
funcin de distribucin F X x = x

0<x<1 . Notar que en este ejemplo artificial, hemos asumido la


1f
f
distribucin de la poblacin (y que por lo tanto, por ser distribucin uniforme, su media es f
y la
2
` a

Pgina 19 de 60

1f
f
f
f
f
f
f

varianza es

12

) es conocida. Sin algn tupo de suposicin los siguientes clculos pueden

efectuarse.
h

f
f
f
f
bf
c

f
f
f
f
bf
c

n
n
b c
1f
1f
f
f
f
f
f
f
E X = E j X X jk = X E x j =
n j=1
n j=1
2

E Sn

H h
I
i
i
f
f
f
f
f2
f
f
f
f
f
n
n
n
c
b
c
b
c
b
c
2
1f
1f
1f
f
f
f
f
f
f
f
f
f
f
L jX 2k
X X j @ X k= f
= Ej f
X j @ E nX M
JE
K= 2 + 2 @ 2 X X E X i X j
h

n j=1

E Sn = 2 + 2 @
b

b X = 0

c b

j=1

i=1 j=1

a
nf
@
1f
f
f
f
f
f
f
f
f
f
f
f
f
f
f2
n n @ 1 2 + n 2 + 2 = f

n
n
D
1f
f
f
f
f
f
f `

cE

2
f
f
f
f
f
f
f
n
d
e
b
c
b
c
n
2
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f2
, b 2 sn2 @ 1 = 0
E Sn@ 1 = E
sn = 2
n@1
f
f
f
f
f
2
2
Entonces, independientemente de la distribucin de la poblacin, X y S n @ 1 son insesgados y S n
2

b 2 S n = @
b

tiene un sesgo negativo. El valor esperado de la mediana muestral depende de la distribucin


poblacional. Si n es impar podemos escribir n=2m+1 y la mediana de la funcin de densidad de
^
probabilidad, haciendo que p =
0.5 es
B
C
B
m
` a f
` a
` aCm
n!
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f ` a
f ^ p = ` a2 f X p F X p 1 @ F X p
0 .5
m!

Para la distribucin en cuestin f X p = 1 , por lo tanto


1

E 0.5
b

n!
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
= Z p ` a2 pm
0

m!

cm

1@p

` a

n!
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
dp = ` a2 Z
m!

cm

pm + 1 1 @ p

b
c
n!
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
dp = ` a2 B m + 2,m + 1
m!

`
a `
a
`
a
m
+f
2f
f
m
+f
1f
m
+
1f
!m!
n!
n!
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
ff
f
f
f
f
f
f
f
f
f
f
f
f
f
f
ff
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f 1f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
`
a
a = = 0.5
= ` a2
= ` a2 `

2m + 3

m!

m!

2m + 2 !

y vemos que 0.5 es insesgado. Este resultado no es frecuente para la mediana muestral, se debe a
la simetra de la densidad.
2

A pesar de que S n es sesgado, vemos que a medida que crece el tamao de la muestra, el sesgo
decrece y en el lmite es cero. Esto induce la siguiente definicin.
Definicin 2.19 Sea

^
n un estimador basado en una muestra de tamao n. Un estimador es

^
asintticamente insesgado si el nlim
b n = 0 8
Q1

b c

` a

Para que un estimador sea til, no solo debera ser preciso en promedio, sino que adems debera
acercarse al verdadero valor del parmetro, al menos la mayora de las veces.
La precisin debera mejorar con el tamao muestral. En particular, si el tamao de la muestra es
infinito (as que de hecho estaramos muestreando a la poblacin) deberamos esperar que nuestro
estimador fuera perfecto.

(Concepto de consistencia)

La afirmacin ms dbil al respecto, es decir, aquella que es ms fcil de satisfacer, est dada por
la siguiente definicin

Pgina 20 de 60

Definicin 2.20 Un estimador es consistente


consistente) si

8 >0,8:

(llamado a veces, en este contexto, dbilmente

M
FL
G
M
L^
Ln @ M< = 1
lim
Pr
M
L
nQ 1

Una condicin suficiente pero no necesaria para la consistencia dbil es que 1) el estimador sea
insesgado y que 2)

lim Var ^ n = 0
nQ 1
^

b c

1 b = 0 ^ E =
b c

` a

b c

b c

Var n = 0
2 nlim
Q1

` a

M
FL
G
L^
M
L
M< = 1
lim
Pr

n
L
M
nQ 1

[ 8>0,8:

Ejemplo 2.13 (Continuacin Ejemplo 2.11)

Determinar cul de los estimadores de la media es consistente. Hgalo bajo la suposicin de que la
poblacin tiene distribucin uniforme F(x)=x , 0<x<1
Est claro del desarrollo anterior que tanto la media como la mediana muestrales son insesgados,
f
f
f
f
2
bf
c
f
f
f
f
f
f
f
Var
X
=
lim
=0
Con respecto a la varianza, tenemos que nlim
Q1
nQ 1 n
Siempre y cuando exista la varianza, la media muestral va a ser consistente para la media
poblacional. Con respecto a la mediana,
1

b
cm
n!
1f
m
+f
2f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f 1f
a@
Var 0.5 = Z p 2 ` a2 pm 1 @ p dp @ = `
4
2
2m
+
3
4
m!
0
b

Ff
G
m
+f
2f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f 1f
`
a@
=0

lim Var 0.5 = nlim


nQ 1
Q1
b

2 2m + 3

La mayora de los estimadores son consistentes. Lo que nos importa, en realidad, es que un
estimador no solo sea correcto en promedio, sino que se acerque la mayor parte de las veces, y en
particular, que se acerque ms al verdadero valor del parmetro ms que otros estimadores rivales.
Una medida, para muestras finitas, surge de la definicin de consistencia. La calidad de un
estimador podra ser medido por la probabilidad de que se acerquen dentro de un al verdadero
valor, es decir midiendo

dL
e
M
M
L^
P L @ M<

. Pero la eleccin de es arbitrario y preferimos medidas

que no se puedan alterar segn las preferencias del investigador.


FL
L^

MG
M

M
Por ello, podramos considerar E L
Ln @ M , el error absoluto promedio. Pero sabemos que trabajar

con valores absolutos, presenta retos matemticos indeseados, y por ello la siguiente se ha
convertido en la medida de precisin generalmente aceptada.
Definicin 2.21 El error medio cuadrtico (MSE: mean squared error) de un estimador es
c2 G

MSE ^ = E ^ @
b c

Fb

Notar que el MSE es una funcin del verdadero valor del parmetro. Un estimador puede ser
extremadamente bueno para algunos valores del parmetro pero muy malo o pobre para otros.

Pgina 21 de 60

Ejemplo 2.14 Considerar el estimador = 5 de un parmetro desconocido . El MSE es

a2

5@ ,

es cercano a 5, pero se vuelve malo para otros valores. Por

que es muy pequeo cuando

supuesto que este estimador es tanto sesgado como inconsistente.


Un resultado que surge directamente de las varias definiciones es
X
\D

Y
E2]

MSE ^ = E Z ^ @ E ^ + E ^ @ [
b c
^

b c

b c

b c

b c D b cE2
^

MSE = Var + b

Si restringimos nuestra atencin solamente a los estimadores insesgados, el mejor de ellos puede
definirse de la siguiente manera.
^

Definicin 2.22 Un estimador se denomina estimador insesgado de varianza mnima uniforme 6


si es 1) insesgado y 2) para todo valor de no existe otro estimador insesgado que tenga menor
varianza.
Es por el hecho de que estamos buscando solo estimadores insesgados, que hubiera sido igualmente
efectivo haber hecho la definicin en trminos del Error Cuadrtico Medio (MSE). Podramos
tambin generalizar la definicin, buscando estimadores que sean los uniformemente mejores 7
respecto del MSE, pero el ejemplo anterior indica por qu esto no es posible.
Existen algunos teoremas que son de utilidad para determinar los UMVUEs

(estimadores

insesgados de mnima varianza). Sin embargo, dichos estimadores son difciles de obtener. Por otro
lado, todava sigue siendo til el criterio a los efectos de comparar dos estimadores alternativos.
Ejemplo 2.15
En el ejemplo 2.12 se demostr que tanto la media como la mediana muestrales eran insesgadas
para una distribucin uniforme. Cul tiene el error cuadrtico medio ms chico para un tamao
de muestra de 11?
Para la media muestral, el MSE es la varianza, que es

1f
f
f
f
f
f
f
f
f
1f
1f
f
f
f
f
f
f
f
f f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
f
f
f
f
f
f
f
f
f
12

=
.
12 A 11 132

7f
f
f
f
f
f 1f
f
f
f 1
f
f
f
f
f
f
f
Para la mediana muestral, el MSE= f
@ =
26 4 52
(usando los clculos del ejemplo 2.13 con m=5) y por lo tanto la media muestral es preferible (en

este caso)

UMVUE: uniformly minimum variance unbiased estimator

uniformly best
Pgina 22 de 60

Todo el material discutido hasta este punto entra dentro del ttulo de lo conocido como estadstica
clsica o frecuencialista. Algunas de las suposiciones de este enfoque son que 1) la poblacin
existe, 2) el parmetro es un valor fijo que resulta ser desconocido y 3) que el analista no conoce
ms que lo que le es revelado a travs de una muestra de nmeros extrados de la poblacin. Las
inferencias se realizan haciendo ms supuestos entorno a la naturaleza del proceso de muestreo y/o
la poblacin, y luego las leyes de probabilidad son aplicadas.
Existe un enfoque alternativo del proceso de estimacin conocido como Bayesiano. Este enfoque
asume que tenemos ya una idea de cmo podra ser el parmetro y que esta idea puede expresarse
como una distribucin de probabilidad, y que los datos son fijos sin nmeros adicionales que valga
la pena considerar. 8 De nuevo, se pueden aplicar las leyes de probabilidad. Los detalles de este
proceso se retoman en la Seccin 2.8.
2.4 Estimacin Paramtrica (pg. 45)
Hasta el momento la estimacin emprica parece ser bastante buena. Sin embargo, tiene un
nmero importante de desventajas, que van a ser ejemplificadas luego en este captulo. Eso
significa que necesitamos algo mejor.
Tal aproximacin es la que se conoce como estimacin paramtrica. Existen otras, pero salvo una
breve introduccin en la seccin 2.11 no sern presentadas.
2.4.1 Definicin
Antes habamos obtenido cantidades de una poblacin (o su distribucin) que describa varias de
sus caractersticas. Existen ciertos casos en los que el proceso puede revertirse.
Definicin 2.23 Una familia paramtrica de distribuciones es una coleccin de funciones donde la
identidad de un determinado miembro est indexado por un nmero finito de variables llamadas
parmetros ( 1 , 2 , ,k ). Ms formalmente, la familia es
T b

F x ; ; 2

donde

es un escalar o un vector y

es el conjunto de todos los posibles valores de

Adems, la variable aleatoria X puede ser multivariada y por lo tanto x puede ser tambin un
vector.
Si es verdad que la distribucin poblacional es un miembro de la familia paramtrica, es
suficiente con ser capaces de obtener el valor de para determinar la distribucin. Luego de ello,
cualquier cantidad de inters puede ser determinada.
La estimacin paramtrica puede ser reducida a cuatro pasos:
1. Determinar la familia paramtrica que describe a la poblacin
2. Determinar el valor de los parmetros
3. Determinar el valor de la cantidad que nos es de inters

the data are fixed with no further numbers worthy of consideration


Pgina 23 de 60

4. Evaluar la precisin del valor hallado en (3)


2.4.2 Mtodos basados en la igualacin de cantidades poblacionales y muestrales
Los mtodos de estimacin de parmetros caen dentro de dos categoras. Una es encontrar un
sistema de ecuaciones donde el nmero de ecuaciones iguale al nmero de parmetros. Esperamos
que entonces exista exactamente una solucin posible a las ecuaciones, la cual se convierte en el
estimador. Las ecuaciones se eligen de modo que ciertas caractersticas que deseamos que sean
ciertas efectivamente lo sean. El otro conjunto de mtodos optimiza cierto criterio relevante, segn
nuestros propsitos.
Hay dos mtodos populares en la primera categora: 1) el mtodo de los momentos e 2) igualacin
de percentiles. El mtodo de momentos se basa en asegurarnos de que el modelo paramtrico tenga
los mismos momentos que el modelo emprico.
Definicin 2.24 Si una familia paramtrica tiene r parmetros, las ecuaciones de momentos son:
n
1f
f
f
f
j . = X x ij j = 1, ,,r (Igualacin de momentos absolutos entorno al origen)
n i=1
B

donde j . = E X | es una funcin del vector de parmetros desconocido . El estimador por el


mtodo de los momentos es la solucin a estas ecuaciones.
Ejemplo 2.16 (datos individuales)
Determinar los valores estimados por el mtodo de los momentos para las distribuciones
Exponencial, Gamma y Pareto. Para cada caso, estimar la media, el desvo estndar y la
probabilidad de que el monto de un siniestro individual supere los $500.
Exponencial
^

Para la distribucin exponencial, la ecuacin es =335.5 entonces = 335.5 . La media es que


es estimada por medio de 335.5, el desvo estndar es tambin y el estimado es 335.5.
Pr X>500 =e
`

Gamma

500
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

=e

500
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
335.5

= 0.22530

Para la distribucin Gamma


= 335.5
`
a 2
+ 1 = 293068.3

Las soluciones son ^ = 0.62357 , =538.03

La media es que se estima con (0.62357)(538.03)=335.5


El desvo estndar es

1f
f
f
f
f

2 que se estima con 424.86

500
f
f
f
f
f
f
f
f
f
f
f
Pr X>500 = 1 @ ,
que se estima con 0.22593

Pareto

Pgina 24 de 60

X
^
f
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
^
^
\ @ 1 = 335.5

Para la distribucin de Pareto ^


2
^
2
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
^
`
a
`
^
Z @ 1 @ 2a = 293068.3

Las soluciones son ^ = 5.3131 y ^ = 1447.1


f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
La media es f
, que se estima con 335.5
@1
1f
f
f
f
2
f

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
El desvo estndar es `
que se estima con 424.88
a`
a12ffff
@1 @2
`
a f

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
Pr X>500 = ` f
a que se estima con 0.20663
500 +
Debera notarse que para los ejemplos de las distribuciones Gamma y Pareto, el mtodo de
momentos arroja estimadores que coinciden con los estimadores empricos.
Esto debera quedar claro de la definicin del mtodo de momentos. Para el caso de la
exponencial, con un solo parmetro, solo la media coincide. Como recordatorio, el estimador
emprico de Pr(X>500)=0.2
El segundo mtodo conocido es el denominado Igualacin de Percentiles. Ac los percentiles de
una muestra y los del modelo son forzados a ser iguales en r puntos seleccionados arbitrariamente.
d

Las ecuaciones son: p j = F ^ p j ;

j = 1, , r

Ejemplo 2.17 Estimar los parmetros utilizando igualacin de percentiles para las distribuciones
exponencial y Pareto. Usar el percentil 70 para la exponencial y los percentiles 40 y 70 para la
distribucin de Pareto.
Los percentiles son

^ 0.7 = 0.3 317 + 0.7 351 = 340.8


`

^ 0.4 = 0.6 107 + 0.4 141 = 120.6


`

Para la distribucin exponencial

340,8
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
0.7 = 1 @ exp @ f
[ ^ = 283.06

Para la distribucin Pareto


X

^
^
Ff
G
^

^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^0.7 = 1 @
^
^
^
\
+ 340.8

` a

^
^
Ff
G
` a
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
^
0.4
=
1
@
2
^
^
^
+ 120.6
Z
` a
ln
0.6
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
e
de (2): = d f

ln fffffffffffffffffffffffffffffffffff
+ 120.6
` a
f
g
ln
0.6
` a f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
e ln
en (1): ln 0.3 = d f
+ 340.8

ln fffffffffffffffffffffffffffffffffff
+ 120.6

Pgina 25 de 60

Se usa un mtodo iterativo como ser biseccin o Newton Raspn para obtener la solucin
^

= 424.5 , ^ = 2.0428

2.4.4 Estimadores basados en optimizacin


El mayor problema de los estimadores basados en ecuaciones es su incapacidad de ajustar bien en
TODO el rango de valores observados, concentrndose en cambio en coincidir en unas pocas
caractersticas elegidas. Para poder ajustar bien a lo largo, debemos dejar de insistir en hacer que
el modelo emprico y terico, es decir, sus distribuciones, coincidan exactamente en algn aspecto.
En cambio, pedimos que estn cerca de alguna manera medible. Veremos tres formas de hacerlo.
Uno de ellos entra dentro de la categora que lleva el nombre de mnima distancia y relaciona a los
datos y al modelo en lugares especficos. El segundo mtodo no tiene un nombre reconocido, y
requiere el agrupamiento de los datos en intervalos, y luego compara determinada caracterstica
del modelo con los datos en cada intervalo. El tercer mtodo es mxima verosimilitud.
Todos estos mtodos requieren la habilidad para maximizar o minimizar funciones de una o ms
variables. En la mayora de las aplicaciones, la tcnica de clculo de igualar todas las derivadas a
cero y resolver el sistema de ecuaciones, va a ser bastante difcil de aplicar.
Muchos algoritmos numricos han sido diseados para hallar el ptimo de funciones. La mayora
de los textos de anlisis numrico provee una introduccin. Y numerosos algoritmos para
implementarlos se pueden encontrar en el Numerical Recipes Series (serie de recetas numricas).
Asimismo, los programas de planilla de clculo (spreadsheet programs) incluyen una herramienta
de optimizacin.
Finalmente, como una herramienta multiuso recomendamos el mtodo simples. Una explicacin
detallada de algoritmos puede encontrarse en Sequential Simples Optimization [123], y se
facilitan programas en [103]. El algoritmo es descrito en al Apndice C. La mayor ventaja es que
no se requiere el clculo de las derivadas. Sin embargo, la convergencia es lenta.
Independientemente del mtodo usado, recomendamos fuertemente que se verifique la solucin
propuesta, evaluando a la funcin en puntos cercanos y constatar que se trata de un mximo o de
un mnimo.
Muchos programas anuncian xito cuando en realidad no se lleg al punto ptimo. Finalmente,
advertimos que cualquier rutina numrica es capaz de determinar ptimos locales. Es imposible
saber con certeza si no existe un valor superior, a una distancia alejada de la solucin propuesta.
La siguiente definicin del estimador general de distancia mnima fue sacado de Klugman y Parsa
[77].

Pgina 26 de 60

Definicin 2.25 Para cierta familia paramtrica, sea F(x; ) la funcin de distribucin acumulada
y sea G(x; ) una funcin de x unvocamente relacionada con F. Esto es, si conocemos F y
podemos obtener G, y si conocemos G y podemos obtener F. Sea G n x la obtenida a partir de
` a

la funcin de distribucin acumulada emprica, de la misma manera. Entonces, si existe el valor de


k

D b

b cE2

que minimiza Q = X w j G c j ; @G n c j
` a

j=1

se denomina estimador de mnima distancia de .

Los valores de c 1 <c 2 < <c k y w1 , ,wk 0 son elegidos arbitrariamente 9 .


Si se usan datos agrupados, los c j sern los lmites de clase (del intervalo). Los valores de los
lmites se fijan a propsitos de la estimacin. Dos ejemplos especficos de este tipo de estimador
son:
1. Mnima cdf 10 (funcin de distribucin acumulada): G x ; = F x ;
b

conocido tambin como el estimador Crmer- von Mises

2. Mnima LEV 11 (esperanza lmitada): G x ; = E X V x ;


b

Este segundo estimador, limita cada trmino de la suma (2.11) a observaciones en un determinado
intervalo.

c 0 <c 1 < <c k donde

Definicin 2.26 Sea la particin del rango de posibles valores

c 0 es el

mnimo valor posible en el modelo y c k es el mximo valor posible. Sea G j cualquier funcin
que dependa solo de

F c j @ 1 ; ,
b

F c j ; y
b

` a

f x ; para
b

c j @ 1 <x<c j . Sea G j la misma

cantidad asociada a la distribucin emprica. Entonces, si existe, el valor de que minimiza


k

Q = X w j G j @G j
` a

j=1

` a

C2

se denomina estimador de distancia mnima por intervalo de

. Los pesos

w1 , , wk 0 son

arbitrarios.
Dos ejemplos especficos de este tipo de estimador son los siguientes (pg 54)
D b

cE

1. Mnimo chi cuadrado modificado: G j = n F c j ; @ F c j @ 1 ;


` a

1f
f
f
f
f
f
f
wj = f
Gj

2. Mnimo LAS 12 (Intensidad Media de Tramo): G j = E X V c j ; @ E X V c j @ 1 ;


` a

Se le pide en el ejercicio 2.24 verificar que la especificacin de mnimo LAS cumple con las
condiciones de la definicin.

No es obligatorio que el criterio involucre cuadrados. Podramos haber utilizado el valor absoluto y otra funcin de

prdida. Elevar al cuadrado tiene la conocida ventaja de ser matemticamente maleable.


10

Cumulative distribution function

11

Limited Expected Value (LEV)

12

Layer Average Severity (LAS)


Pgina 27 de 60

La principal ventaja de estos dos estimadores por sobre sus contrapartes de mnima distancia, es
que los errores son de alguna ms independientes. Es decir, si es difcil hacer coincidir a la funcin
de distribucin acumulada en un punto, esa dificultad va a perpetuarse en los argumentos
siguientes al usar el mtodo de mnima distancia.
(Responde a la pregunta: por qu es superior el mtodo de

2 modificado y mnimo LAS

respecto al estimador Crmer von Mises y mnimo LAS? )


La modificacin en el procedimiento basado en el chi cuadrado se refiere al uso del valor emprico
como peso en vez del valor del modelo. (en vez de dividir por el nmero esperado terico)
Estos estimadores son especialmente tiles para datos agrupados porque requieren solo de
informacin emprica en los valores elegidos.
El siguiente ejemplo muestra cmo estos problemas pueden sobrellevarse mediante una planilla de
clculo.
Ejemplo 2.21 (ejemplo dental, datos agrupados)
Determinar los estimadores de mnima cdf y mnimo chi cuadrado modificado para el parmetro
de una distribucin exponencial. Para el mnimo cdf usar pesos de 1.

Para el caso de mnimo cdf, la expresin a minimizar es


f

Q = 1 @e
` a

25
f
f
f
f
f
f
f
f
f
f

g2
30
f
f
f
f
f
f
f
f
f
f
f

378

+ + 1 @e

g2

378
f
f
f
f
f
f
f
f
f
f
@ f
378

400
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

Usando una rutina de optimizacin de una planilla de clculo, produce un estimado =281.5852.
El resultado est en la tabla 2.6
Para el mnimo chi cuadrado modificado, la cantidad a minimizar es
D

378 1 @e

25
f
f
f
f
f
f
f
f

cE2

@ 30

378 e

1500
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

2500
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

E2

@ 11

2500
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

C2

@
@3
378e
` a f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
Q =
+ +
+
30
11
3
Notar que combinamos los ltimos dos grupos (2500 a 4000 y 4000 a

@e

1 ), porque sin

observaciones por encima de 4000, la contribucin del ltimo intervalo a Q estara indefinida. De
nuevo, usando una planilla de clculo obtenemos el valor estimado ^ = 274.7305 . El resultado est
en la tabla 2.7.
Los mtodos descritos hasta el momento tienen una caracterstica que es tanto una ventaja como
una desventaja. Estos mtodos le confieren al analista un amplio margen de libertad, permitiendo
una gran flexibilidad respecto a la funcin a comparar. Si el analista tiene un avezado
conocimiento del ejercicio de estimacin, puede adoptar cierto criterio que le permita a los datos
ajustarse de la manera que ms sea conveniente.
Por ejemplo, si el objetivo es cotizar (poner un precio) a un contrato de reaseguro en el que
seremos responsables por el pago de siniestros en el rango de 1 a 5 millones de dlares, entonces el
mtodo de mnimo LAS con la mayor parte del peso en los intervalos que se extienden en el rango

Pgina 28 de 60

clave, parecera ser la mejor opcin. Por otro lado, tal flexibilidad permite al inescrupuloso o tal
vez mal informado analista, obtener resultados que no son apropiados.
El ltimo mtodo que va a ser presentado en esta seccin no deja lugar a decisiones arbitrarias.
Ms an, es el mejor mtodo, desde el punto de vista de sus propiedades estadsticas. Es la
llamada Estimacin Mximo Verosmil (MV) 13 ; el proceso, el estimador, y el estimado estn todos
identificados por la abreviatura MLE. La filosofa es bien simple. Sea la funcin de verosimilitud la
probabilidad de haber observado lo que se observ, dado un valor hipottico del parmetro. El
estimador ms razonable del verdadero parmetro es aquel le corresponde la ms alta probabilidad
de haber obtenido lo que efectivamente se obtuvo. Suponiendo independencia de las observaciones
tenemos la siguiente definicin.
Definicin 2.27
La funcin de verosimilitud para un conjunto n de observaciones independientes es
n

L =Y Lj
donde

Lj

` a

` a

` a

j=1

es la contribucin de la j-sima observacin a la verosimilitud. Si la j-sima

observacin es un evento con probabilidad positiva (tal como la de una distribucin discreta o de
un intervalo), entonces la contribucin es esa probabilidad. Si la j-sima observacin es un valor
que proviene de una distribucin continua, la contribucin es la funcin de densidad de
probabilidad en ese valor.
Dos casos en donde es fcil escribir la funcin de verosimilitud
n

1. Datos Individuales: L = Y f x j ;
` a

2. Datos Agrupados:

j=1
k D

cEn j

L = Y F c j ; @ F c j @ 1 ;
` a

j=1

Notar que si existe un lmite de la pliza de u, la contribucin de un siniestro que excede al lmite
b

(tal que el monto pagado asciende a u) es 1 @ F u ; y no f u ; . Esto es porque la distribucin


subyacente es de siniestros, y no de montos pagados. Cuando se paga u, todo lo que se sabe del
siniestro es que estuvo por encima del lmite.
No hay garanta de que la funcin de verosimilitud tenga un mximo. Es decir,

L podra
` a

crecer a medida que se acerca a un lmite como ser cero o infinito. Adems, existe la posibilidad
de mximos locales. Para la mayora de los casos no ser posible realizar la maximizacin a travs
de herramientas analticas, y en tal caso se usarn mtodos numricos.
Los estimadores mximo verosmiles poseen un nmero de propiedades que en conjunto no las
comparte con ningn otro estimador paramtrico. Entre ellas estn las siguientes:

13

Maximum Likelihood Estimation (MLE)


Pgina 29 de 60

1. Son asintticamente insesgados

lim b n = 0
nQ 1
b c

2. De entre los estimadores que tienen distribucin normal, son los que tienen menor varianza
asinttica
3. El estimador MV de una funcin de un parmetro es la misma funcin del estimador MV del
parmetro. Es decir, el estimador MV es invariante frente a la transformacin de un parmetro
g^ = g ^
` a

b c

4. Se puede obtener la expresin explcita de la varianza asinttica.


El tercer punto significa que de cualquier forma en la que parametricemos a la funcin, siempre
obtendremos la misma respuesta a la hora de estimar una cantidad de inters.
El punto 4 significa que siempre podremos aproximar la varianza del estimador (bajo la condicin
de que la verdadera distribucin sea un miembro de la familia paramtrica elegida)
Ejemplo 2.22 (Ejemplo dental, datos individuales)
Hallar los estimadores por el mtodo de los momentos y por Mxima Verosimilitud de los
parmetros de una distribucin Lognormal. selos para estimar la media de la poblacin
lognormal. Realice un estudio de simulacin para ver cul estimador es superior cuando la
poblacin es lognormal con = 5 y =1
Por mtodo de los momentos
Si la meta u objetivo fuera simplemente estimar la media, sabramos si las frmulas que el
estimador por momentos es la media muestral. Con respecto a los estimados de los parmetros, las
ecuaciones de momentos son:
1f
f2
335.5 = exp + f

2
f

293068.3 = exp 2 + 2 2

F 1f
G
1f
f
f2
2 = 2 f
ln293068.3 @ ln335.5 = 0.956917053
+ f
= ln335.5
2
2
[
1f
f
f
1f
f
f
+ 2 = ln293068.3
= ln293068.3 @ 0.956917053
2
2
^ =5.33716 y ^ =0.97822 ,

`f
a2
1f
f
con lo que el valor estimado de la media es exp 5.33716 + 0.97822 = 335.5
2
f

Por mtodo de MV

La funcin de verosimilitud de la funcin es:


H

c2

L logx j @ M
`
a 10 f
1f
K
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f J f
w
w
w
w
w
w
w
w
w
w
w
w
w exp @
L , = Y f
2
p
2
2
j = 1 xj

El logaritmo de la funcin de verosimilitud y sus derivadas parciales son


10

l , = @ X logx j @ 10log @
`

j=1

g
10
f
f
f
f
f
f
f

10

log2 @ X
j=1

c2

logx
@

jf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

2 2

Pgina 30 de 60

10 logx @
l
jf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
=X
2
j = 1

l
f
f
f
f
f
f
f
f
f 10
f
f
f
f
f
f
=@ f
+X

j=1
10

c2

logx
@

jf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
3

Igualando las derivadas parciales a cero se obtienen los valores estimados MV


10
1f
f
f
f
f
f
X logx j
^ = f
10 j = 1
v
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
e
u
2
10 d
u
1
f
f
f
f
f
f
f
^ = t X logx j @ ^

10 j = 1

^ =5.07491 y

En este ejemplo los valores estimados son

^ =1.30055. Usted debera notar que

estos nmeros difieren de los presentados en el ejemplo 1.4


Los diez nmeros eran los montos pagados con un deducible de 50. El modelo encontrado en ese
ejemplo anterior era para el siniestro en s. En este ejemplo, estamos encontrando un modelo para
f

el monto pagado. El valor estimado de la media es exp 5.07491 +

`f
a2
1f
f
1.30055 = 372.65
2
g

Los resultados de la simulacin se presentan en la tabla 2.8 basada en 1000 muestras de tamao
10. Mientras que por un lado, existe cierto sesgo para este tamao muestral (el verdadero valor de
la media es exp 5.5 = 244.69 , el estimador de mxima verosimilitud es claramente superior con
`

respecto a la varianza y al error medio cuadrtico.)


Tabla 2.8
Mtodo

media

varianza

MSE

Momentos

245.14

10430.45

10430.65

MV

248.85

8849.95

8867.21

2.5.1 Varianza de los estimadores MV (pg. 62)


La clave es un teorema presente en la mayora de los libros de estadstica matemtica. La versin
particular citada aqu y su generalizacin multiparamtrica est sacada de Rohatgi [109,p.384] y se
enuncia sin demostracin.
Recordar que L es la funcin de verosimilitud y que l es su logaritmo. Todos los resultados
` a

` a

asumen que la poblacin tiene una distribucin que es un miembro de la familia paramtrica
elegida.
Teorema 2.2
Asumir que la funcin de probabilidad

f x ; satisface lo siguiente (para

en un intervalo

conteniendo el verdadero valor, y reemplace a las integrales por sumas para variables discretas).
1.
2.

log f x ; es tres veces diferenciable respecto a


b
c
f
f
f
f
f
f
f
Z f
f x ; dx = 0 Esto permite poder sacar la derivada afuera de la integral y por eso

estamos derivando a la constante 1


Pgina 31 de 60

b
c
b
c
` a
f
df
df
f
f
f
f
f
f
f
f
f
f
f
fZ
f
f
f
f
f
f x ; dx = f
f x ; dx = f
1 =0
// Z

b
c
f
f
f
f
f
f
f
f
f
f
f
x
;
dx = 0 Es el mismo concepto para la derivada segunda
3. Z
2

X
Y
^
^
b
c
^
^
2
\
]
b
c
f
f
f
f
f
f
f
f
df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f Z f
f
x
;
dx
Z
//
=0
2 f x ; dx =

^
~
~
~
~
~
~
~
~
~
~
~ }
~
~
~
~
~
~
~
~
~
~
~y
^
^
d ^
Z {
[

constante

b
c
f
f
f
f
f
f
f
f
f
f
log
f
x
;
dx<0
4. @1 < Z f x ;
2

Esto indica que la integral indicada existe y que en el punto donde la derivada se hace cero, se
b

obtiene un mximo
` a b

5. Existe una funcin H(x) tal que Z H x f x ; dx< 1 con

L 3
M
L
b
cM
` a
L f
M
f
f
f
f
f
f
f
f
f
L
M
L 3 log f x ; M<H x .
L
M

Esto asegura

que la poblacin no sea demasiado extraa con respecto a los valores extremos.
Entonces se cumplen los siguientes resultados
(A)

A medida que n Q 1 , la probabilidad de que la ecuacin de verosimilitud ( L. = 0 )


` a

tenga solucin se acerca a uno


(B)

A medida que

n Q 1 , la distribucin del estimador por mxima verosimilitud

converge a una distribucin normal con media y varianza tal que I Var ^ n Q 1
` a

b c

Donde
H

2
b
c
b
c 2
b
c
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
J
K
Z
I = @ nE
= @ n f x ; f
2 log f x ;
2 log f x ; dx

` a

H
I
f
g2
b
c
f
f
f
f
f
f
f
f
J
K= n Z
log f x ; M
= n EL

cf

f x ;

f
f
f
f
f
f
f
f

cg2

log f x ;

dx

Para cualquier z, lo ltimo puede interpretarse como que


Y
X
^
^
^
^
^
^
@

]
\f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f ^
` a
<z
1
f
f
f
f
lim
Pr
=

z
B
C
@
`
a
nQ 1
^
^
2
^
^
^
^
[
ZI

y por lo tanto

B ` aC@ 1fffff
2

es una aproximacin til de Var ^ n

b c

A la cantidad I se le da el nombre de informacin (a veces ms especficamente, informacin


de Fisher).

` a

De este resultado surge inmediatamente que el estimador mximo verosmil (MV) es


asintticamente insesgado y consistente.

Pgina 32 de 60

Las condiciones (i) a (iv) suelen ser consideradas como condiciones de regularidad. Un escptico
podra traducir esta afirmacin como condiciones que casi siempre son verdaderas pero de difcil
comprobacin, as que asumamos que se cumplen en nuestro caso.
El propsito de las condiciones es garantizar que la funcin de densidad es lo suficientemente
suave respecto a cambios en el parmetro y que no existe nada inusual acerca de la densidad en s
misma.
Los enunciados arriba asumen que la muestra consiste en observaciones independientes e
idnticamente distribuidas.
Una versin ms general del resultado, utiliza el logaritmo de la funcin de verosimilitud
I
H
I
f
g2
` a
f
f
f
f
f
f
f
f
f
f` aK
f
f
f
f
f
f
f` a M
J
I = @ EJ f
l = EL
l K
H

Un caso intermedio es aquel en el que si bien las observaciones son independientes, no son

L j la contribucin de la j-sima observacin a la funcin de

idnticas. En este caso, sea


n

verosimilitud y sea l j = X l j
` a

j=1

` a

` a

el logaritmo de la funcin de verosimilitud, entonces

Hh
i2I
I
n
` a
` a M
Lj f
f
f
f
f
f
f
f
f
f` aK
f
f
f
f
f
f
L f
Xlj kM
I = @ EJ f
K
2 l = EJ

j=1

Si hay ms de un parmetro, el nico cambio es que el vector de estimadores mximo verosmiles


(MV) ahora tiene una distribucin asinttica normal multivariada. La matriz de covarianza de
esta distribucin se obtiene de la inversa de la matriz de rs elementos.
Para cualquier variable aleatoria multidimensional o multivariada, con respecto a la matriz de
covarianza, la varianza de cada variable aleatoria individual se ubica en los elementos de la
diagonal principal, y las covarianzas por afuera de la diagonal.
I rs
` a

I
H
I
2
2
b
c
` a

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
= @ EJ
l K= @ n EJ
log f x ; K

I rs = E
` a

s r

s r

Ff
f
f
f
f
f
f
f
f
f
f` a f
f
f
f
f
f
f
f
f` aG

l = nE

Ff
f
f
f
f
f
f
f
f
f

c
f
f
f
f
f
f
f
f
f
f

log f x ;

cG

log f x ;

La primera expresin en cada lnea es siempre correcta. La segunda expresin asume que la
verosimilitud es el producto de las n funciones de probabilidad idnticas
Cuando las observaciones son independientes pero no tienen distribuciones idnticas

I rs
` a

I
2
` a

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
= @ X EJ
lj K
n

j=1

s r

A esta matriz generalmente se la denomina matriz de informacin.

Pgina 33 de 60

sta debera parecer familiar en la medida en que es la misma matriz que fue utilizada para el
H

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f` aK
l ). La nica diferencia es
mtodo de scoring (recordar que (2.13) est basada en EJ
s r

que el verdadero valor de la varianza asinttica requiere de los verdaderos valores de los
parmetros, mientras que el mtodo scoring los reemplaza por los estimadores MV. Como nunca
sabremos los verdaderos valores, esto es lo ms cercano a lo que haremos para evaluar la varianza
de nuestro estimador.
La matriz de informacin tambin constituye la cota inferior de Rao- Crmer (ver por ejemplo,
Hogg y Craig [65, pp. 370-373]). Esto es, bajo las condiciones usuales, ningn estimador insesgado
tiene una varianza ms chica que la del correspondiente elemento en la diagonal principal de la
inversa de la matriz de informacin. Por lo tanto, al menos asintticamente, ningn estimador
insesgado es ms preciso que el estimador MV.
Ejemplo 2.24 (ejemplo dental, datos individuales)
Estimar la matriz de covarianza del estimador de mxima verosimilitud para una distribucin
lognormal.
Las primeras derivadas parciales fueron obtenidas en el ejemplo 2.22
l
f
f
f
f
f
f
f
f
f
=X
j = 1
10

logx
@

jf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

l
f
f
f
f
f
f
f
f
f 10
f
f
f
f
f
f
f
=@ +X
j=1

10

c2

logx
@

jf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
3

Las derivadas parciales segundas son:


2

f
lf
f
f
f
f
f
f
f
f
f 10
f
f
f
f
f
f
f
;
2 =@ 2

f
lf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

10

=@2X

logx
@

jf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

j=1

f
lf
f
f
f
f
f
f
f
f
f 10
f
f
f
f
f
f
f
X
2 = 2 @3

j=1

10

c2

logx
@

jf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
4

Los valores esperados son, teniendo en cuenta que logX se distribuye como una normal con
parmetros (media) y (desvo estndar)
H

10
lf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
K
EJ f
2 =@ 2

I
2
l

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
K
EJ
=0

2
F f
G
lf
f
f
f
f
f
f
f
f
f

20
f
f
f
f
f
f
=@ f
2

Cambiando los signos e invirtiendo, obtenemos la matriz de covarianza. En realidad, este es un


estimado, porque el teorema 2.22 solo provee la expresin de la matriz de covarianza en el lmite.
En este caso es
H

2
f
f
f
f
f
f M
L f
L 10 0 M
L
M
L
M
2M
L
f
f
f
f
f
f
f
J
K
0
20

Ahora aproximaremos la matriz de covarianza reemplazando por el valor estimado de mediante


el mtodo MV, calculado en el ejemplo 2.22
F 0.16914

G
0
0.084572

Pgina 34 de 60

Los ceros afuera de la diagonal indican que los valores estimados de los dos parmetros estn
asintticamente incorrelacionados. Para el caso particular de la distribucin lognormal, esto
tambin es cierto para cualquier tamao de la muestra.
Algo que podramos hacer con esta informacin es construir un intervalo de confianza aproximado
al 95% para el verdadero valor de los parmetros. Esto sera aplicando 1.96 desvos estndar a
ambos lados del valor estimado.
;

5.07491 F 1.96 0.16914


`

a 1fffff
2

= 5.07491 F 0.80608

1.30055 F 1.96 0.084572


`

a 1fffff
2

= 1.30055 F 0.56999

Si hubisemos sido capaces de obtener los valores esperados necesarios para obtener la matriz de
informacin, ya sea por nuestra falta de destreza integrando o por la inexistencia de una
antiderivada analtica, se puede construir una aproximacin colocando las derivadas segundas del
logaritmo de la funcin de verosimilitud directamente adentro de la matriz. Para la distribucin
lognormal, usando los valores estimados de los parmetros, resulta ser que los nmeros no
cambian. (A ud. se le pide probar que esto es as en el ejercicio 51). Esto es probable que no se
cumpla en futuros ejemplos y ejercicios (un ejemplo aparece en el ejercicio 2.52). Como ltima
aproximacin, si ni siquiera contamos con las derivadas, podemos aproximar con una frmula
aproximada de derivacin.
Ejemplo 2.25 (continuacin del ejemplo 2.24) Aproximar la matriz de covarianza por cada uno de
los mtodos menos refinados sugeridos arriba,
Anteriormente a sacar los valores esperados, los elementos de la matriz de informacin son:
2

lf
f
f
f
f
f
f
f
f
f
f 10
f
f
f
f
f
f
=@ f
2 = @ 5.91216
2
^
2

f
lf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

10

=@2X

logx

j
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

j=1

@^

logx j @^

=0

e2

10
f
lf
f
f
f
f
f
f
f
f
f 10
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
X
=
@
3
= @ 11.82431
2
2
4
^
j=1
^

Cambiando el signo e invirtiendo la matriz dan los mismos valores que los obtenidos usando el
valor esperado.
2.5.2 Funciones de Estimadores MV (pg 67)
Sin el siguiente teorema, todo este trabajo habra sido de poco valor. Esto es porque no estamos
tpicamente interesados en los parmetros en s mismos, ms bien, estamos interesados en una
funcin de los parmetros. El siguiente teorema est sacado de Rao [104, p.321]

Pgina 35 de 60

Teorema 2.3
b

Sea X n = X 1n , , X kn . una variable aleatoria multidimensional de dimensin k basado en una


muestra de tamao n. Suponiendo que X n es asintticamente normal con media y matriz de
covarianza /n, donde ni ni dependen de n. Sea g una funcin de k variables totalmente
b

diferenciable. Sea G n = g X 1n , , X kn . Entonces G n es asintticamente normal con media g y


b

g . =

(gradiente), es decir,

g . g , donde

matriz de covarianza

` a

g es el vector de derivadas parciales primeras

f
gf
f
gf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
, ,
y evaluada en , el verdadero valor del parmetro de
1
k
g

la variable aleatoria original.


Este es un caso especfico de aproximacin de los momentos de funciones de variables aleatorias.
El mtodo general se denomina Mtodo Delta (Delta Method). Para nuestros propsitos, X n es el
vector de estimadores mximo verosmiles de los parmetros y es el verdadero valor. Como de
costumbre, aproximamos el resultado reemplazando con los valores estimados de los parmetros.
Ejemplo 2.26 (Ejemplo dental, datos individuales)
Aproxime la varianza de un estimador MV de la media, usando la distribucin lognormal.
Compare esto con la varianza del mtodo de los momentos.
1f
f
f
La funcin en cuestin es g , = exp + 2
2
H

I
g

g
1f
f
f
f
f
f
f
f
f
fJ
f2 K
= exp + f

= 372.64
2

^ = 5.07491
f

= 1.30055
I
g
1f
f
f2 K

H
g
f
f
f
f
f
f
f
f
fJ

= exp +

= 484.64

= 5.07491

^ = 1.30055

La varianza aproximada del estimador es


371.64

484.64

AF 0.16914

G F 371.64 G
0
= 43351
0.084572 484.64

w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w

Un intervalo al 95% de confianza es 372.64 F 1.96 p43351

IC: 372.64 F 408.09

f
f
f
f
bf
c

Var
X
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
El estimador del mtodo de momentos es la media muestral, que tiene varianza f
. Esta
n
200564.5
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
= 20056.45 usando el estimador insesgado de la varianza.
puede ser estimada como f
10
Por qu el estimador del mtodo de los momentos parece ser tan superior?
La respuesta yace en los valores estimados mismos.
El valor estimado de

por momentos fue 0.97822, mientras que por MV fue de 1.30055. El

estimador MV indica que se trata de una poblacin con una mayor varianza y por lo tanto
cualquier valor estimado sacado de esa poblacin, sera de esperar que tuviera una mayor varianza
Pgina 36 de 60

muestral. Un test ms apropiado consiste en usar a los estimadores MV para evaluar a los
estimadores por momentos. Con esos parmetros la varianza de la poblacin es 614784 y la
varianza de la muestra es 61478.4.

De manera similar, si la varianza aproximada de los

estimadores MV fuese evaluada utilizando los estimadores por momentos, la varianza estimada
sera mucho menor.
El intervalo de arriba es un intervalo de confianza para la media de la poblacin. Sera de mayor
inters el valor real o efectivo 14 resultante de los siniestros el ao prximo.
Ejemplo 2.27 (continuacin ejemplo 2.26)
Suponer que conocemos que habr 100 siniestros el ao que viene. Determinar un intervalo de
prediccin al 95% para el pago total.
Sea

S = X 1 + + X 100 , donde

X i es el monto del i-simo siniestro. Entonces E(S)=100E(X) es

estimada por 100(372.64)=37264.


El error cuadrtico de este estimado est dado por
Hh
i2I
f
g
Lj
1f
f
f^ 2 k M
^
M
EL
J S @ 100exp + 2
K
X
^
\Fd

= E ^ S @ 100e

e
1f
f
f
f
f
+ 2
2

+ 100e

Z
H
I
d
e2
1f
f
f
f
f
+ 2
K+
EJ S @ 100e 2
d

= Var S + 10000Var e
` a

1f
f
f
f
f
+ 2
2

@e

1f
f
f
f
f2
+ ^
2

Y
e G2^
]
^
[

H
I
d
e2
1f
1f
f
f
f
f
f
f
f
f^ 2
+ 2
^ +
K+
10000 EJ e 2 @ e 2

^ +

1f
f
f
f
f^ 2

200E

Fd

S @ 100e

1f
f
f
f
f2

ed

1f
f
f
f
f2

@e

^ +

1f
f
f
f
f^ 2

eG

=100Var(X)+10000(43351)
b

= 100 e 2 + 2 @ e 2 + + 10000 43351 = 61478393 + 433510000 = 494988393


2

La tercera lnea se deduce que se trata del producto de variables independientes, cada una con
valor esperado nulo. Son independientes porque S depende nicamente de las futuras
observaciones, mientras que ^ y ^ dependen solo de las observaciones pasadas. Con el fin de
evaluar Var(X), se reemplaz por los estimados de los parmetros.
Un intervalo al 95% es

w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w
w

37264 F 1.96 p494988393 , es decir IC: 37264 F 43607

15

Debemos poner nfasis de nuevo en que si la poblacin es lognormal, el estimador MV de la media


tendr menor varianza que el estimador por momentos. Las verdaderas varianzas de estos

14

actual value

15

(es una mala aproximacin o estimacin)


Pgina 37 de 60

estimadores dependen de los verdaderos valores de los parmetros y seran evaluados en


justamente ese conjunto comn de valores. 16
Ejemplo 2.28 (datos agrupados) Estimar los parmetros para una distribucin de Pareto, la matriz
de covarianza aproximada, y construir un intervalo de confianza al 95% para la media de la
poblacin.
Utilizando el mtodo de scoring, los parmetros estimados son ^ =3.8275 y ^ = 948.52 . La matriz
de covarianza aproximada es
F 0.97058 290.01 G

290.01 90384

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f 948.52
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

=
= 335.46
^ @ 1 2.8275
Las derivadas con respecto a y a respectivamente son

El valor estimado de la media es


h

ci h
i
b
c
b
c j g , g , k
f
f
1f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f j f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
k
g , =
[ 5 g , =
,
= @`
a2 ,

@1

@1

@1

X
b
c
^
f
gf
f
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
^

= @ `f
^
a2
\

@1

^
b
c
^
^
f
gf
1f
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
, = f
Z

@1

Al ser evaluadas en los valores estimados estimados de los parmetros se obtiene


b
c
b
c
g
g
f
f
f
f
f
f
f
f
f
f^ ^
f
f
f
f
f
f
f
f^ ^
, = @ 118.64 ;
, = 0.35367

La varianza aproximada del estimador MV de la media es


H
b
cI
^
^
I

,
b
c
b
c
L g
h
i
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
fM
^
^ D
M
^ ,
^ ,
E@ 1L
^
g

b
c
L
M
Jf
K
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^

L
M
^
j
k
t
Var ^
I ,
L
M
b
c
L
^

^ , M
@1
L g
M
J f
K
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
H

i
GF
G
AF

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
ft @
k
Varj
@ 118.64 0.35367 0.97058 290.01 @ 118.64 = 629.51
^

^ @ 1

290.01 90.384

0.35367

y un intervalo de confianza aproximado al 95% es:

IC: 335.46 F 1.96 629.51


`

a 1fffff
2

= 335.46 F 49.18

2.6 Ventajas de la estimacin paramtrica


Hemos dedicado un gran esfuerzo en descubrir la mecnica de la estimacin paramtrica, as como
en determinar mtodos para la evaluacin de los estimadores. Mientras que por un lado muchos de
los conceptos involucrados en la realizacin de comparaciones ya ha sido discutida, utilizamos esta
seccin para organizar y expandir esas ideas.
2.6.1 Precisin

16

The true variances of these estimators depend on the true values of the parameters and would be evaluated at the

common set of values


Pgina 38 de 60

Ya se ha establecido que cuando la poblacin sigue la familia paramtrica elegida, los estimadores
MV son superiores a otros competidores. Es posible que an cuando la poblacin sea levemente
distinta de la familia elegida, los estimadores MV sigan funcionando bien. Sin embargo, es un gran
riesgo. Si esta fuera la nica ventaja de la estimacin paramtrica, solo valdra la pena en el caso
en el que tengamos un grado de confianza acerca de la naturaleza de la poblacin. Pero hay
muchas otras razones para elegir estimadores paramtricos. stas sern resaltadas en las siguientes
subsecciones.
2.6.2 Se pueden hacer inferencias ms all de la poblacin que gener los datos
El propsito de un modelo actuarial no es solamente representar al pasado, sino tambin
representar el futuro. El futuro va a diferir del pasado de maneras que no son predecibles (por
ejemplo variables aleatorias del mbito en donde se producen los siniestros 17 ) y en manera
predecible (por ejemplo, cambios planeados en la estructura de beneficios o en las caractersticas
de esos asegurados). Incluso cambios aleatorios pueden ser estimados, como ser la utilizacin de
una tasa de inflacin prevista o pronosticada. Una vez que se estableci la tasa, el cambio ya es
planeado, no aleatorio. Es esencial que nosotros seamos capaces de usar nuestro modelo para
investigar el impacto de cambios planeados, as como efectuar un anlisis del tipo qu pasara
si..? sobre los posibles cambios aleatorios.
Ejemplo 2.29 (datos individuales)
El conjunto de datos consiste en momentos pagados (por el asegurador) con un deducible de 50.
Estimar el monto pagado esperado por pago 18 , luego de imponer un 10% de inflacin en todos los
siniestros. Intente hacerlo emprica y paramtricamente.
Empricamente, podemos obtener el nuevo monto pagado a partir de los diez montos pagados
anteriores:
1.1

141

`
a
50
141
{
~
~
~
~
~
~+ }
~
~
~
~
~
~y

monto total del siniestro


g
es el monto del siniestro
SIN
aplicar
el
deducible
{
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~ }
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~y
f

@ 50

= 160.1

Se
ajusta
el~
monto
del
stro
por inflacin
r~
=~
10%
A~
{
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
}
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~
~y
Se aplica el deducible al valor ajustado por inflacin

16 [ 1.1(16+50)-50=22.6
46 [ 1.1(46+50)-50=55.6
40 [ 1.1(40+50)-50=49.0

351 [ 1.1(351+50)-50=391.1
259 [ 1.1(259+50)-50=289.9
317 [ 1.1(317+50)-50=353.7
1511 [ 1.1(1511+50)-50=1667.1
107 [ 1.1(107+50)-50=122.7

17

loss producing environment

18

Expected amount paid payment per payment


Pgina 39 de 60

567 [ 1.1(567+50)-50=628.7
Estos nmeros representan lo que se debera pagar luego de aplicada la inflacin del 10% sobre los
siniestros.
Podramos usar la media muestral de 374.05 como nuestro estimador, pero estaramos
sobreestimando el verdadero valor.
160.1
+
22.6
+f
55.6
+
49
+f
391.1
+
289.9
+f
353.7
+
1667.1
+f
122.7
+
628.7
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
374.05 = f
10
El valor ms bajo posible que podramos haber registrado por este anlisis emprico es
1.1(0+50)-50=5=5
Montos pagados por debajo de 5 provienen de siniestros de entre 45.45-50 (un siniestro de 45.45 al
ser inflada un 10% est justo en el deducible de 50)
Estos datos no aparecen y no pueden aparecer en nuestro de datos. Adems la inflacin afecta la
frecuencia en este caso; habr ms pagos al ser ahora ms fcil exceder el deducible. Es imposible
obtener un estimador emprico.

Estimacin paramtrica
Para una solucin paramtrica, considerar una distribucin exponencial con el parmetro estimado
por el mtodo de los momentos. Para resolver este problema necesitamos que la distribucin
exponencial modele el monto del siniestro, no el monto del pago. Si X es la variable aleatoria
monto del siniestro e Y la variable aleatoria monto pagado, entonces para el modelo obtenemos.
` a
+1
+1
b
c
c
` a
`
a b
`
a f
ff
xf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
` a dx
E Y = E X @ 50|X>50 =Z
x @ 50 f x | X>50 dx =Z
x @ 50
1
@
F
50
50
50
=Z

+1

@1

x @ 50

50

x
@ fffff

a f
ef
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
50
f
f
f
f
f
f
f
f

e@

+1

dx =Z

50

f
f
f
f
f

e
d
e
xf
@
50
50
50
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
@ fffffffff f
exp @
g
f
f
f
@
50
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f xf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f ` a
d
e
d
e 2 =
d
=

50
50
exp @ fffffffff
exp @ fffffffff

@1

x @ 50

exp @

= = Y = 355.5
Con inflacin, el monto pagado es 1.1X @ 50|1.1X>50 y el pago esperado es
+1

E 1.1X @ 50|1.1X>50 =Z

50
f
f
f
f
f
f
f
f
f
f
f
f
1.1

@1

1.1x @ 50

e
xf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
335.5

a 335.5
ef
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
@

e
50
f
f
f
f
f
f
f
f
1.1
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

dx

e 335.5
Tambin notar que previamente a la inflacin, la probabilidad de que un siniestro produzca un

desembolso de dinero (pago) era


`
a
50
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
Pr X>50 = exp @ f
= 0.86154
335.5
f

Luego de la inflacin es

Pr 1.1X>50 = exp @
`

i
50
f
f
f
f
f
f
f
f
f
f
f
k
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1.1

335.5

Pgina 40 de 60

= 0.87329

En la solucin paramtrica seguimos una cantidad de pasos determinados. Primero postulamos un


modelo para los siniestros incluyendo a aquellos por debajo de 50. Sin embargo los nicos datos
disponibles eran los montos pagados, Luego usamos el modelo para estudiar el monto pagado bajo
el nuevo escenario. Este ser in enfoque estndar y ser desarrollado en la seccin 2.9
Ejemplo 2.30
Los datos de la Tabla 2.10 representan 217 pagos de responsabilidad civil 19 de plizas con un
lmite de 300000. Estimar el cambio porcentual del pago promedio que resulta de (a) un 10% de
inflacin y (b) imposicin de un deducible de 1000. En ambos casos el lmite se mantiene en
300000.
Tabla 2.10
Pago

Fn x

nmero

Promedio

0-2500

41

1389

0.188940092

2500-7500

48

4661

0.410138248

7500-12500

24

9991

0.520737327

12500-17500

18

15482

0.603686635

17500-22500

15

20232

0.672811059

22500-32500

14

26616

0.737327188

32500-47500

16

40278

0.811059907

47500-67500

12

56414

0.866359447

67500-87500

74985

0.894009216

87500-125000

11

106851

0.94470046

125000-225000

184735

0.967741935

225000-300000

264025

0.986175115

300000-

300000

1.000000000

Total

217

` a

Empricamente, tenemos suficiente informacin para calcular la media previa a las modificaciones.
Esto es,
X ni a i = 41 B 1389 + 48 B 4661 + 24 B 9991 + 18 B 15482 + 15 B 20232 + 14 B 26616 + 16 B 40278 +

+ 12 B 56414 + 6 B 74985 + 11 B 106851 + 5 B 184735 + 4 B 264025 + 3 B 300000 = 7301703

f
f
f 7301703
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

x=

= 33648
217
Sin embargo, con un 10% de inflacin, es imposible determinar el efecto sobre los 4 pagos que
estaban entre 225000-300000. Algunos de ellos pueden toparse con el lmite al ser inflados. Con
respecto al deducible, no sabemos cuntos de los 41 pagos del primer grupo ser afectada o la
magnitud del efecto. De nuevo, los mtodos empricos fallan, no se aplican. Sin embargo,
deberamos darnos cuenta de que si utilizamos al histograma como la funcin de densidad, los
clculos se vuelven posibles. (ver ejercicio 2.53)

19

Liability Payments
Pgina 41 de 60

Para una solucin paramtrica consideremos la distribucin lognormal con los parmetros
estimados a partir de la igualacin de los percentiles 30 y 70. Los percentiles son:
0.30 ? Tabla:
Fn x

Pago

nmero

Promedio

0-2500

41

1389

0.188940092

2500-7500

48

4661

0.410138248

` a

`
a
0.3
@
0.188940092
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
0.30 = 2500 + f
7500 @ 2500 = 5010.416678 t 5010
0.410138248 @ 0.188940092
0.70 ? Tabla:
` a
Fn x
Pago
nmero Promedio

17500-22500

15

20232

22500-32500

14

26616

0.70 = 22500 +

0.672811059

0.737327188
`
0.70
@
0.672811059
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

0.737327188 @ 0.672811059
Las ecuaciones resultan
X
f
g
^
^
log2010
@
f
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
0.3 =
^
^
^
\

f
g [
^
^
log26714
@
f
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
0.7 =
^
^
^
Z

32500 @ 22500 = 26714.28586 t 26714

X
^
log5010
@
f
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
^
\@ 0.52440 =

cE

E min 1.1X, 300000 = E 1.1X V 300000


B

= 36690.05

El incremento debido a la inflacin es

^
^
Z

E X V 300000 = 33960.11 , con un 10% de inflacin la

cantidad deseada es

^ = 1.595871
[ ^
log26714
@
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
= 9.356065
0.52440 =

(Tabla Excel) ^
^
^

Hacemos notar que el pago esperado es

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
C 300000
= 272727.2727 AA

1.1

cE

X
V 272727
E 1.1 X V 272727 = 1.1 E{
~
~
~
~
~
~
~
~
~
~
~
~ }
~
~
~
~
~
~
~
~
~
~
~
~y
b

33354.59

36690.05
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
@ 1 = 0.0804 , es decir, un 8.04% de aumento.
33960.11

Imponer un deducible de 1000 cambia la variable PAGO. Si queremos obtener un pago esperado
por siniestro, la variable aleatoria de inters es:
X
^
\0
Y = ^X @ 1000
Z
299000
y el valor esperado es

X 1000
1000<X<300000
X 300000

300000

EY = Z
` a

1000

300000

X0
300000
^
^
\

=^ Z
0

1000

a ` a

aC

B `

aC

aC

x f x dx @ Z x f x dx @ 1000 F 300000 @ F 1000 + 299000 1 @ F 300000

^
Z

x @ 1000 f x dx + 299000 1 @ F 300000

` a

` a

Y X
Y
1000
^
^
^
^
^
C
B
C
\
]
]
` a
`
a
` a
`
a^
x f x dx + 300000 1 @ F 300000 @ Z x f x dx + 1000 1 @ F 1000
^
^
^
^
^
Z
[ ^
[
B

= E X V 300000 @ E X V 1000 = 33960.11 @ 973.63 = 32986.48


Pgina 42 de 60

32986.48
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
La reduccin debido al deducible es 1 @ f
= 0.0287, o el 2.87%
33960.11
Estos ejemplos nos dejan claro que los modelos paramtricos proveen una flexibilidad no presente
en su contraparte emprica. Vemos que el agrupamiento no representa un obstculo ni tampoco la
imposicin de la inflacin. El segundo de los ejemplos resalta la utilidad del valor esperado
limitado. El siguiente teorema confirma dicha afirmacin.
Teorema 2.5

(pg. 74)

Sea X la variable aleatoria monto del siniestro. Con una tasa de inflacin r, un deducible de
d, un lmite de u, un coaseguro de , la variable aleatoria monto pagado (por siniestro) es:
X
^
df
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
^
0
si X f
^
^
^
1
+
r
^
^
^
\ B`
C
a
df
uf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
Y = ^ 1 + r X @ d
si
<X<
^
1
+
r
1
+
r
^
^
^
^
^
`
a
uf
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
si X
^
Z u @ d
1+r
Entonces, el monto pagado por siniestro esperado es
E Y = 1+
` a

X
Y
D
E
]
F
G
a\
uf
df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
r ZE X V
@E XV
1+r
1+r [

Demostracin (no es la del libro)


uf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1+r

d
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1+r

+1

+1

B`

C ` a

E Y = Z y x f x dx = Z 0 A f x dx + Z 1 + r x @ d f x dx + Z u @ d f x dx
` a

@1

` a ` a

` a

@1

uf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1+r

= 1+r
`

a
H

Z x f x dx @ d Z
uf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

= 1+
`

x f x dx @ Z

u
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

1+r

x f x dx @ Z
` a

Z f x dx
uf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1+r

` a

uf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

1+r

+1

1+r

1+r

+1

M
` a
x f x dx M
M @ d Z f x dx + u Z
K
` a

df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1+r

uf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1+r

f x dx
` a

XH
I H
IY
^
^
u
d
^
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
1
1
+
+
^
]
1+r
` a
` a M L 1+r
` a
` a M^
u
d
a\L
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
M
M
L
L
Z
Z
Z
Z
x f x dx @
f x dx K@J
x f x dx @
f x dx K
r ^J
^
1 + r fffffufffffffffffff
1 + r fffffdfffffffffffff
^
^
^
^
0
^
^
[
Z 0
1+r
1+r

X
Y
D
E
]
F
G
a\
uf
df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1 + r ZE X V
@E XV
1+r
1+r [
`

a ` a

+1
+1
M
L 1+r
M
L
` a
` a M
` a
M
M
L Z
Z f x dx M+ u Z f x dx
L
x f x dx M
@
d
f
x
dx
+
M
K
L
K
J d
uf
uf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

` a

d
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

1+r

aL
= 1+r L
L Z
J
`

1+r

` a

f x dx + u @ d

df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1+r

u
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1+r

+1

` a

df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

1+r

aL
= 1+r L
L Z
J
`

uf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1+r

` a

df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1+r

df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1+r

Pgina 43 de 60

Si queramos el valor esperado del pago por cada pago, necesitamos solo entender que ahora la
df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
variable aleatoria en cuestin es Y / X> f
1+r
Corolario 2.6 El valor esperado del pago por pago es
E Y / X>
F

G
df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

= 1+r

1+r

uf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

E XV

@E XV

df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
E

1f
+f
rf
a f
1f
+f
rf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
d
e
df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1@F
1+r

Del Teorema 2.5 vemos que la diferencia de LEVs es a veces una cantidad til. El siguiente
resultado provee de un mtodo alternativo para el clculo de los LEV del modelo, que puede ser
especialmente til para obtener diferencias.
Teorema 2.7
x

` aC

si Pr X<0 = 0 [ E X V x = Z 1 @ F y dy
`

Demostracin (no es la del libro)


x

E X V x = Z u f u du + x 1 @ F x
B

X
^
\B

` aCu = x

= ^ uF u
Z

` a

` aC

Y
^
]

Integrando por partes

@ Z F u du^ + x 1 @ F x

u=0

` a

0
x

` aC

` aC

= xF x @ 0 @ Z F u du + x @ x F x = x @ Z F u du = Z 1 du @ Z F u du = Z 1 @ F u du
` a

` a

` a

` a

` a

El mismo resultado se cumple para distribuciones discretas y mixtas


E X V u @ E X V d =Z
b

Corolario 2.8
u

E X V u = Z 1 @ F t dt
b

` aC

uB

` aC

1 @ F y dy

; E X V d = Z 1 @ F t dt
b

` aC

[
u

E X V u @ E X V d = Z 1 @ F t dt @ Z 1 @ F t dt = Z 1 @ F t dt + Z 1 @ F t dt = Z 1 @ F t dt
b

` aC

` aC

` aC

` aC

` aC

El teorema 2.5 nos dice que para la mayora de las modificaciones el valor esperado limitado es
suficiente. Sin embargo, en la literatura encontrarn que otras dos cantidades se usan a menudo.
Estos son: cociente de eliminacin de siniestros (LER 20 ) y el siniestro medio excedente 21 .
Definicin (LER)
El cociente de eliminacin de siniestros (LER) para un deducible de d, es la reduccin relativa en
el pago esperado dada una imposicin de un deducible.
D

E min X,d

Formalmente,

cE

Ef
X
Vd
` a f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
` a
` a
LER X d = f
= f
E X
E X

20

Loss Elimination Ratio (LER)

21

Mean Excess Loss


Pgina 44 de 60

Suponiendo que E(X) y E(X^d) existen


En general, el trmino cociente de eliminacin de siniestros (LER) puede referirse a la reduccin
en el pago esperado ante cualquier combinacin o conjunto de modificaciones.
Una propiedad, si bien interesante, pero que no es necesariamente til es que el

LER X d

satisface todas las propiedades de una funcin de distribucin

LER X d =
` a

LER X

z
~
~
~
~
~ 0 |
~
~
~
~
~x
B
C
Vd
E
X
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
` a

E{
X
~ }
~y

` a

>0

cE

` a
V 0 E min X,0
Ef
X
0f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f E
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
` a =
` a
a=0
0 =
= `f
E X
E X
E X

` a

` a
lim
Ef
X
Vd
E
X
Vd
X
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f Ef
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
1
Q
` a =
` a
` a=1
dlim
LER
d
=
lim
=
X
Q1
dQ1
E X
E X
E X
` a

z
~
~
~
~
~ 0 |
~
~
~
~
~x
X
Y
u
`
a
^
^
\ B
Ef
X
Vu
` a f
` aC ] f
1f
@
F
uf
df
1f
df
df
f
f
f
f
f
f
f
f
f
f
f
f
ff
f
f
f
f
f
fZ
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
ff
` a = ` a
` a
LER X u =
1
@
F
t dt^ =
0
du E X
E X du ^
E{
X
du
Z
[
~ }
~y
b

(Funcin no decreciente)

>0

En la definicin, se not que los momentos deben existir antes de definir el LER. Es hora de
hablar acerca de la existencia de los momentos cuando E(X) no existe, es porque o bien
u

lim Z x f x dx no converge, o bien porque


uQ 1
d

` a

lim Z x f x dx
dQ0

no converge. Si el segundo lmite

` a

existe, todava E X V x va a seguir existiendo, an para las distribuciones de colas pesadas. Pero
si el primer lmite existe y el segundo no, tanto E(x) como E(X^x) no va a existir, pero s sus
diferencias. El concepto de cola pesada ser discutido o abordado en la siguiente seccin.
La segunda cantidad que es til en la descripcin del comportamiento de la variable aleatoria
siniestro, respecto a grandes siniestros 22 . Esto ser ampliado en la siguiente seccin.
Definicin El siniestro medio excedente 23 para un deducible de d es el valor esperado del
siniestro por encima del deducible, condicionado a que el monto del siniestro super el deducible.
De lo contrario 2.6 es:
e X d = e d = E X @ d | X>d =
` a

Por supuesto que si E(X) es


excedente tambin ser

` a

Ef
X
@
E
X
Vd
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
`

1 @F x d

` a

1 debido a que X tiene una cola pesada, el siniestro medio

1 . Si existe algn problema cerca del origen, el numerador puede ser

evaluado como Z

x @ d f x dx

a ` a

22

The second quantity is useful in describing the behavior of the loss random variable with regard to large losses.

23

Mean Excess Loss


Pgina 45 de 60

Ejemplo 2.31 Determinar el siniestro medio excedente de una distribucin de Pareto

` a

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f x = `f
a + 1
x+
k
B C
f
kf
!f
k
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
a`
a `
a
E X =`
X
@1 @2 @k
H
I
^
^
f
g @ 1
^
^
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
L
M
^
^
J1 @
K
^
\ @ 1
C ^
x+

E X V x =^
^
f
g
^
^
^
f
^
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
^
^
^
^
Z@ log x +
B

FX x =1@
` a

g
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

x+

=1
f

[ 1 @F X x =
` a

g
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

x+

I
e @ 1
d
ed
e @ 1
f
f

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
J1 @
K
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
@
@1 @a
d+
` a f

@
1f
df
+f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
eX d =
=
=
d
e
d
e
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
d+
d+
H

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
+f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f df
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
@
1f
=
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f @1
d+

(Suponiendo >1 )
Notar que la funcin es una lnea recta. El resultado final de la explicacin que sigue indica cmo
el momento segundo limitado puede utilizarse para calcular la varianza de un monto de siniestro
modificado.
Teorema 2.9
Sea X una variable aleatoria para el monto del siniestro. Con un deducible de d, un lmite de
u, un coaseguro de . Si Y representa el monto pagado (por siniestro) entonces
X
^
0
Xd
^
^
\ `
a
d<X<u
Y = ^ X @ d
`
a
^
^
Z u @ d
Xu
Entonces la varianza del monto pagado por siniestro es
Var Y = E Y
` a

X
\ Db

c B ` aC2

= 2 ZE X V u

@E Y

c2 E

Db

@E XV d

c2 E

C D b

@ 2d E X V u + 2d E X V d @ E X V u @ E X V d
B

Y
cE2]
[

La varianza del monto pagado pago por pago se obtiene dividiendo el primer trmino de (2.15) por
B

` aC2

1 @ F X d y el segundo por 1 @ F X d
` a

. Es decir,
b

b ` ac2

E
Y
E
Y
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f f
` a @B
Var Y / X>d =
` aC2
1 @F X d
1 @F X d
b

Ejemplo 2.32 (Continuacin, ejemplo 2.30) Estimar la varianza del monto del siniestro con un
deducible de 1000 y un lmite de 300000.

Pgina 46 de 60

Los dos nmeros que se piden son

E X V 1000

lognormal, en general tenemos


Db

E XVx
=Z

c2 E

c2 E

Db

E X V 130000

I
H
I
f
g2
f
g
logx
logt
@
f
@
f
tf
1f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
L
M
2J
K
w
w
w
w
w
w
w
w
w
w
w
w
w
=Z p
expJ@
Kdt + x 1 @
2

2 t

. Para la distribucin

0
@

logx
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
`
a

f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

f
g
f
g
exp y +
`
a
logx
@
f
1f
f
f2
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
fK
2J
w
w
w
w
w
w
w
w
w
w
w
w
w
exp
@
y
exp
y
+

dy
+
x
1
@

p2
2

@1

= exp 2 + 2 2
b

2G
F logx
@

@
2
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

I
g

logx
@
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
fK
+ x 2J1 @ f

Entonces usando los valores estimados de los parmetros


^ =1.595871

^ =9.356065 y
Db

c2 E

E X V 1000

Finalmente,

= 962490

tenemos
c2 E

Db

E X V 300000

= 4581050352

a2

Var Y = 4581050352 @ 962490 @ 2000 33960.11 + 2000 973.63 @ 33960.11 @ 973.63 = 3426007039
` a

a `

El clculo de la funcin de distribucin acumulada o del LEV para muchas distribuciones


involucra integrales que deben ser evaluadas numricamente. Dos ejemplos especficos surgidos con
anterioridad fueron la beta incompleta, denotada en este texto como

a;b;x

y la gamma,

; x . Estn definidas formalmente en la subseccin 2.7.3 y se

denotada como integrales

discuten con detalle al comienzo del Apndice A. Estas funciones estn disponibles en la mayora
de las planillas de clculo y programas estadsticos.
2.6.4 Tests de Hiptesis (pg. 81; ver pg. 126)
Algunas veces nuestras preguntas son del tipo s o no ms que la bsqueda de un valor
numrico. Si la pregunta se refiere a los parmetros, podemos plantear un test de hiptesis
estadstico. El test se lleva a cabo obteniendo un estadstico del test y una regin crtica. Una de
las grandes ventajas de los estimadores MV es que tenemos acceso al test de cociente de
verosimilitudes. El siguiente teorema est sacado de Rao[104,p.350] y describe el Test.
Teorema 2.10
Sea

= 1 , ,r . una variable aleatoria de dimensin r que representa a los parmetros de la

distribucin de la poblacin. La hiptesis es que k restricciones de la forma R j tiene primeras


` a

derivadas parciales continuas. Sea la hiptesis alternativa, que no hay restricciones en los valores
b

de los parmetros. Sea L ; x la funcin de verosimilitud, donde x representa a todos los datos
de la muestra aleatoria ( x = x 1 , ,x n . ) . Los estimadores MV restringidos de son aquellos
`

que maximizan a la funcin de verosimilitud con k restricciones, los cuales se denotan con *.
Sean

los estimadores MV no restringidos. Finalmente, el estadstico del test de cociente de

verosimilitudes se define como


D

cE

LRT = 2 logL ^ ; x @ logL * ; x ~k2


b

Pgina 47 de 60

Entonces, suponiendo que se cumplen las condiciones (i) a (iv) del Teorema 2.2, a medida que el
tamao de la muestra se acerca a infinito, el estadstico del test, bajo el supuesto de que la
hiptesis nula es verdadera, se comporta como una distribucin 2 con k grados de libertad.
2.9 Seleccin y Validacin de Modelos (pg. 115)
Hasta este momento nuestra bsqueda de un modelo paramtrico nos ha permitido postular
demasiados modelos. Disponemos de una gran cantidad de distribuciones de las cuales elegir, y
una variedad enorme de maneras de estimar los parmetros. Lo que necesitamos ahora es un
mtodo para acotar y seleccionar un nico modelo y un solo valor estimado del parmetro(s). Con
respecto a la seleccin del modelo, existen dos enfoques. El primero es un enfoque mecnico del
tipo s o no. Para cada modelo propuesto, la decisin a tomar consiste en aceptar o no aceptar el
modelo. Cualquier modelo aceptable, luego puede ser usado, con algn otro criterio no estadstico
para guiar la decisin. La Principal desventaja es que existen demasiados modelos no aceptables, o
demasiados modelos aceptables, algunos de los cuales puede violar la buscada parsimonia.
El segundo enfoque consiste en ordenar de mejor a peor los modelos y elegir el que aparezca
primero en la lista. Esto parece tener ms sentido, an as, veremos de todas maneras el enfoque
de s/no, en parte porque eventualmente lleva al desarrollo de un criterio de comparacin de
modelos.
Independientemente del enfoque utilizado, tenga en cuenta que no debera ignorar su propia
experiencia. An si no est basndose en un enfoque Bayesiano, sus opiniones acerca de qu
modelo posiblemente sea el mejor es interesante. Por ejemplo, si en el pasado la distribucin
Weibull ha resultado ser un modelo consistente, pero esta vez los datos sugieren que se trata de
una distribucin Gamma transformada, sera aconsejable que siga utilizando la Weibull de todas
maneras. O suponer que un cliente necesita ayuda para el proceso de estimacin, pero cree que la
distribucin a utilizar es la lognormal. Si existe una leve diferencia entre la lognormal y otra
distribucin, hay muy pocas razones para volcarse a favor de la alternativa. Por supuesto, si los
datos indican que la distribucin generalizada de Pareto es por lejos la mejor, deber explicar su
eleccin y describir a su cliente el nuevo modelo.
Con respecto a la estimacin de parmetros, preferiremos la estimacin de mxima
verosimilitud a menos que exista alguna buena razn para no hacerlo. Alguno de esos argumentos
fueron desarrollados a lo largo del captulo. Tambin deberamos resaltar que estamos
recomendando un enfoque genrico de estimacin. Esto es, ya sea que est a favor del mtodo de
MV, mnimo

2 modificado, u otro mtodo, ese mtodo ser usado independientemente del

modelo considerado.

Pgina 48 de 60

Los estadgrafos le han dedicado una gran cantidad de energa al estudio de distribuciones
especficas en un intento de aprender cmo deberan manejarse (por ejemplo, hay un libro entero
[4] dedicado a la distribucin de Pareto), y es ciertamente verdadero que uno podra confrontar o
comparar la estimacin y la estrategia de prueba con el modelo. 24 Con nuestro gran nmero de
modelos, preferiramos adoptar una estrategia consistente.
2.9.1 Probando la aceptabilidad de un modelo
El asunto podra ser toma como test de hiptesis. La hiptesis nula es que el modelo es aceptable,
mientras que la alternativa es que no lo es. En el caso paramtrico, esto puede ser expresado
formalmente como
b

H 0 :F X x = F x ;
` a

H1 : FX x F x;
` a

para algn 2
8 2
b

Ac, F X x es la funcin de distribucin acumulada y F x ; es la funcin de distribucin para


` a

algn miembro de la familia paramtrica elegida. Esta es una situacin en la que la hiptesis
clsica es menos que ideal. En la mayora de las situaciones el propsito de tomar muestras y
hacer tests para convencer a otros de que la hiptesis alternativa es verdadera. Para ser
convincente, controlamos la probabilidad de tipo I, esto es, seleccionar H 1 cuando H 0 es falsa.
Ac estamos esperando elegir la hiptesis nula y por lo tanto convencer a otros de que el modelo
es un buen modelo, pero no podemos controlar la probabilidad de que nuestra decisin fue
equivocada.
Ms an, estamos en serios problemas cuando el tamao de la muestra es grande. Nosotros
sabemos que de hecho la hiptesis nula es FALSA!! Es extremadamente improbable o poco posible
que un proceso tan complejo como lo es el que produce los montos de siniestros de la compaa de
seguros provenga de una poblacin que pueda describirse con tan pocos parmetros. Lo que s
esperamos es que seamos capaces de encontrar un modelo sencillo que sea til para los clculos que
subsecuentemente pretendemos efectuar. En la medida en que tengamos un gran tamao muestral,
nuestro test va a ser tan poderoso que la naturaleza falsa de la hiptesis nula se vuelve detectable.
Como resultado, hay una gran posibilidad de que TODOS LOS MODELOS SEAN
RECHAZADOS!
2.9.1.1 Tests Informales (pg. 118)
Lo expresado anteriormente (arriba) nos indica que en realidad podramos preferir un test
informal, uno que haga uso de juicios de valor ms que estadsticos. Existen dos procedimientos
que son de utilidad. Nuestro favorito es sobrescribir el histograma de los datos por sobre el de la
funcin de distribucin acumulada del modelo. Un buen modelo debera tener una funcin de
densidad que se parezca al histograma. Si los datos no estuvieran agrupados, deben agruparse a los
fines de construir el histograma.

24

It is certainly true that one could match the estimation and testing strategy to the model
Pgina 49 de 60

El otro grfico comnmente usado, es el Q.Q plot. Este REQUIERE DE DATOS


INDIVIDUALES. Las observaciones tienen que estar ordenadas de modo tal que x 1 x n . Los
n puntos a ser graficados son

jf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f

n+1

cg

, F x j ; . Si el modelo fuera bueno, los puntos estos

deberan yacer en las cercanas de la lnea que une al punto (0,0) con el punto (1,1).
El segundo enfoque informal consiste en anotar algunos nmeros relevantes de la muestra y
compararlos con los mismos nmeros del modelo. Estos nmeros pueden ser probabilidades
acumuladas, esperanzas limitadas, LAS (intensidades medias de tramo) o cualquier otra cosa que
pueda ser considera importante.
Ejemplo 2.6.1
En el ejemplo 2.36 se ajust una distribucin lognormal a los datos de la tabla 2.10. Los
estimadores MV resultaron ser

^ =9.29376 y

^ =1.62713. Evaluar la calidad del modelo

comparando el histograma con la funcin de densidad de probabilidad y anotando las intensidades


medias de tramo (LAS) para cada clase.
Debido a la asimetra en los datos, es mejor presentar el grfico en dos partes Fig.2.11 y Fig.2.12.
El primero abarca el rango 0-32500 mientras que el segundo cubre el rango 32500-300000. Vemos
que el ajuste es bastante bueno a lo largo. En particular, la funcin de densidad tiende a atravesar
a ambas porciones vertical y horizontal del histograma, en las cercanas de la mitad de cada
segmento.
(ver Fi. 2.11, pg 119) funcin de densidad de la lognormal e histograma para bajos siniestros
Las intensidades medias de tramo aparecen en la Tabla 2.14. Las intensidades medias de tramo
empricas se encuentran 1) tomando las entradas de la tercera columna de la tabla 2.10,
sustrayendo el lmite inferior del intervalo y luego multiplicando dicha diferencia por la entrada en
la segunda columna, luego 2) tomando el ancho de los intervalos tantas veces como la suma de las
entradas en la segunda columna para todas las filas subsecuentes, y luego 3) dividiendo la suma de
los dos primeros elementos por 217, el tamao de la muestra.
Las intensidades medias de tramo del modelo se encuentran utilizando la frmula de esperanza
limitada del Apndice A. Parece ser que se encuentran bastante cercanas entre s, de nuevo,
indicando el buen ajuste del modelo lognormal.
(Fig 2.12, ver pg. 120)
Funcin de densidad de probabilidad de la lognormal y el hisgtograma para grandes siniestros
Tabla 2.14
LAS de la distribucin Lognormal
Pgina 50 de 60

Pagos

LAS emprica

LAS lognormal

0-2500

2290

2275

2500-7500

3427

3450

7500-12500

2672

2615

12500-17500

2229

2114

17500-22500

1825

1773

22500-32500

2892

2858

32500-47500

3408

3198

47500-67500

3166

3084

67500-87500

2327

2285

87500-125000

3055

3056

125000-225000

4602

4550

225000-300000

1756

1909

7679

300000-

Ejemplo 2.62 En el ejemplo 2.56 el estimador Bayesiano de la distribucin de Pareto de un solo


parmetro para los datos del ejemplo 2.55, era 2.499416. Evaluar la calidad de este modelo
construyendo un QQ-plot
El diagrama se encuentra en la Figura 2.13 (pg 122) (Leyenda: qq plot para una distribucin
Pareto de un nico parmetro)
Del grfico, parecera que existe un alejamiento sistemtico respecto a la lnea recta, y por lo tanto
la eleccin de una distribucin de Pareto con un nico parmetro es cuestionable para este
conjunto de datos. Sin embargo, con tan pocos puntos de datos, es difcil estar seguros de esta
conclusin.
Debera notarse que las comparaciones entre el modelo y los datos, solo funciona, como lo hemos
descrito aqu, cuando los datos son completos, en el sentido de que ningn deducible, lmite o
modificaciones similares nos han impedido recuperar la totalidad de los siniestros. Los mtodos que
cubren o tratan con este problema se desarrollan en a seccin 2.10.
2.9.1.2 Tests Formales (pg. 119)
Si bien estos criterios son ciertamente tiles, un test formal puede ser ms persuasivo. Tambin es
verdad que para modelos especficos se han desarrollado tests especiales, pero a pesar de ello, el
test genrico ms comnmente utilizado es el test 2 de bondad de ajuste. Este test requiere de
datos agrupados, pero as como en la comparacin de histogramas, eso significa que los parmetros
hayan tenido que haber sido estimados a partir de esa versin agrupada de datos. Para el grupo j
el test se basa en n j , la cantidad de observaciones en ese grupo y
b

E j = n Pr X 2 grupo j ;
Pgina 51 de 60

donde n es el tamao de la muestra y la probabilidad es para una nica observacin cayendo en el


grupo j, dado que equivale a su valor estimado. El estadstico del test es
k

Q =X

j=1

y la hiptesis nula es rechazada si Q supera a

c2

n
@
E
jf
jf
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
Ej

2
donde d=k-r-1 es el nmero de grados de
d,

libertad (recordar que r es el nmero de parmetros estimados) y es el nivel de significacin.


b

2
Entonces el valor crtico es el nmero que hace que Pr 2 >d,
= , donde 2 tiene distribucin

chi cuadrado con d grados de libertad. El pvalue del test es


b

pvalue = Pr 2 >Q

Una convencin comn para la validez del test, es decir, que la probabilidad de cometer error tipo
I sea realmente , es que E j 5 para todos los grupos 25 . Si eso no ocurre, deben expandirse los
lmites y rehacer el test, o combinar grupos adyacentes. La teora en la que se basa el test insiste
en que los parmetros sean estimados con el mismo mtodo. De acuerdo con Moore [91], la
estimacin por el mtodo de Mxima Verosimilitud o el Mnimo 2 modificado son satisfactorias.
(pie de pgina, ref. 17, pg. 121)
Moore cita un cierto nmero de reglas. Entre ellas se encuentran:
(1) Todos los grupos con al menos una frecuencia esperada de al menos 1, y el 80% de los grupos
con una frecuencia esperada de al menos 5
(2) Un total promedio por grupo de por lo menos 4 cuando se hace el test al 1% de significacin,
y un total promedio de 2 cuando el test es al 5% de significacin
(3) En al menos 3 grupos, un tamao muestral de por lo menos 10, y el cociente entre el
2
cuadrado de la muestra ( n ) con el nmero de grupos (k) debe ser por lo menos de 10

Resumen de las condiciones de validez del test chi cuadrado


T

E j = nPr x 2 c j @ 1 ,c j ; 5 para el 80% de los grupos


b

8G j : E j 1 j=1,2,,k

(k:cantidad de grupos o intervalos)

= 0.01 [ n j 4
= 0.05 [ n j 2
9 3 grupos / n j 10
2
2
nf
nf
f
f
f
f
f
f
f
f
f
f
f
10 ; k
(relacin que limita la cantidad de intervalos o grupos a construir!!)
f
k
10
Ejemplo 2.63 (continuacin, ejemplo 2.61)
Realice el test

2 de bondad de ajuste para ver si el modelo lognormal es apropiado. Los

resultados del test aparecen en la tabla 2.15


Tabla 2.15
Intervalo

25

Observaciones

Esperados

cells
Pgina 52 de 60

ChiCuadrado

0-2500

41

39.75

0.04

2500-7500

48

49.17

0.03

7500-12500

24

27.00

0.33

12500-17500

18

17.55

0.01

17500-22500

15

12.48

0.51

22500-32500

14

16.70

0.44

32500-47500

16

14.77

0.10

47500-67500

12

11.18

0.06

67500-87500

6.71

0.07

87500-125000

11

7.22

1.98

125000-225000

7.68

0.94

225000-

6.79

0.01

Notar que los ltimos dos grupos se combinaron a los efectos de hacer que el valor esperado del
total supere 5. El tpico clculo es
X
Y
f
g]
\ flog17500 @ 9.29376 g
`
a
log12500
@
9.29376
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
E 4 = 217 Z
@
= 217 0.615109 @ 0.534216 = 17.55
[
1.62713
1.62713

El estadstico del test es 4.51. Hay 9 grados de libertad (12 grupos, menos 2 parmetros estimados,
menos 1) y el valor crtico para un nivel de significacin del 5% es 16.92 con lo que no se rechaza
la hiptesis nula. Es decir, no existe evidencia en esta muestra de tamao 217 para rechazar a la
distribucin lognormal como un modelo. El pvalue es 0.8748 y entonces tambin este modelo sera
aceptado para cualquier nivel de significacin comn. (Recordar que la hiptesis nula se acepta
para cualquiera cuyo nivel de significancia sea menor que el pvalue).
Los resultados del test de bondad de ajuste concuerdan con la evidencia visual presentada
anteriormente. La distribucin lognormal cumple y es til para estos datos.
La nica vez en la que el test es imprctico es cuando hay demasiadas pocas observaciones. En ese
caso no es posible tener grupos suficientes para captar la forma de los datos y el modelo, y en ese
extremo no ser posible tener un nmero positivo de grados de libertad. Por ejemplo, con 10
observaciones, un agrupamiento cuidadoso podra crear 2 grupos con nuestro mnimo total
esperado de 5. Pero incluso con un solo parmetro a estimar, habr 0 grados de libertad, y por lo
tanto ningn test 2 puede ser utilizado. Un test alternativo funciona especialmente con datos
individuales. Es el test Kolmogorov- Smirnov. El estadstico del test es fcil de calcular, es el
mximo valor absoluto de la diferencia entre la funcin de distribucin acumulada del modelo y la
funcin de distribucin acumulada emprica. Es decir,
L
b
cM
L ` a
^ M
L
D = supLF n x @ F x ; M
M
x

Debido a que la funcin de distribucin acumulada emprica es discontinua, necesitamos un


supremo (mnimo lmite superior). Esto tan solo significa que en uno de los puntos de los datos, la
funcin de distribucin del modelo debe ser comparada con la funcin de distribucin emprica
justo antes y justo despus del salto.
Pgina 53 de 60

Una propiedad agradable del test es que el mximo debe ocurrir en alguno de los puntos dato.
Si bien existen tablas detalladas para los valores aproximados de los valores crticos (buenos para
n 15 ) y expuestos en la tabla 2.16, es importante reconocer que los valores crticos en esta tabla

solo se aplican cuando los parmetros de la distribucin hipottica se especifican en la hiptesis


nula. Cuando los parmetros son estimados a partir de la muestra, los valores crticos pueden ser
disminuidos. No hay ninguna manera fcil de hacer el ajuste (como reducir los grados de libertad
como en el test 2 ). Stephens [116] provee tablas para testear un nmero de distribuciones en
particular. l tambin sugiere un enfoque general; usar solo la mitad de los datos para estimar los
parmetros, pero luego usar la totalidad de los datos para la realizacin del test. En este caso, los
valores crticos en la tabla 2.16 pueden ser aplicados, al menos, asintticamente. Para los ejemplos
y ejercicios en este texto vamos a utilizar los valores tabulados, pues no contamos con otra cosa a
mano.
Ejemplo 2.64 Haga un test de la adecuacidad del modelo Pareto de un solo parmetro del ejemplo
2.62 usando el test Kolmogorov- Smirnov.
Un grfica comparativo entre la funcin de distribucin emprica y del modelo aparecen en la
Figura 2.14. Debera ser fcil ver que la mayor diferencia ocurre justo antes del tercer salto. La
manera ms fcil de calcular el valor del estadstico del test es con una tabla como 2.17.

Tabla 2.16: valores crticos de Kolmogorov- Smirnov


Nivel de Significancia
0.20
0.10
0.05
0.01

Valor Crtico
1.07
f
f
f
f
f
f
f
f
f
f
f
f
f
w
w
w
w
w
w
w
pn
1.22
f
f
f
f
f
f
f
f
f
f
f
f
f
w
w
w
w
w
w
w
pn
1.36
f
f
f
f
f
f
f
f
f
f
f
f
f
w
w
w
w
w
w
w
pn
1.63
f
f
f
f
f
f
f
f
f
f
f
f
f
w
w
w
w
w
w
w
pn

Tabla 2.17 Estadstico del Test Kolmogorov- Smirnov


Observacin

fdd emprica-

fdd emprica+

fdd modelo

Mxima Diferencia

104

0.0

0.1

0.0934

0.0934

107

0.1

0.2

0.1556

0.0556

125

0.2

0.3

0.4275

0.2275

126

0.3

0.4

0.4388

0.1388

132

0.4

0.5

0.5004

0.1004

133

0.5

0.6

0.5097

0.0903

141

0.6

0.7

0.5763

0.1237

145

0.7

0.8

0.6049

0.1951

223

0.8

0.9

0.8653

0.0653

Pgina 54 de 60

319

0.9

1.0

0.9449

0.0551

1f
f
f
f
en cada punto de la muestra. Entonces la fdd del
n
modelo se calcula en cada punto dato. Por ejemplo, en la tercera fila el valor de la fdd del modelo
Ac la fdd emprica simplemente crece en

de 0.4275 se compara con el valor emprico antes (0.2) y luego (0.3) del salto. La mayor diferencia
ocurre antes del salto y es 0.2275. Este es el mximo entre todos y se convierte en el estadstico
1.22
f
f
f
f
f
f
f
f
f
f
f
f
f
f
f
w
w
w
w
w
w
w
w
w
w
w = 0.3858 . La hiptesis
del test. A un nivel de significacin del = 10% , el valor crtico es p
10
nula es aceptada y por lo tanto no hay evidencia para rechazarla a partir de los datos del modelo
de Pareto de un solo parmetro. Y a pesar de ello, el diagrama qq plot que construimos con
anterioridad nos haba hecho poner en duda el mismo modelo. Un mayor tamao muestral se
necesita para resolver este inconveniente.
El mayor problema con el test de Kolmogorov- Smirnov es su falta de poder. En consecuencia,
resulta que para muestras grandes, el test 2 de bondad de ajuste est disponible, y es preferible.
2.9.2 Ordenamiento y Seleccin de modelos
Recordar que nuestro objetivo es seleccionar UN solo modelo del que podamos decir que representa
adecuadamente a la poblacin. La forma ms fcil de hacer esto sera asignar un valor numrico a
cada uno de los modelos propuestos y seleccionar a aquel con el mejor puntaje. Ya nos hemos
encontrado con un nmero considerable de formas de asignar un puntaje.
Una lista parcial es la siguiente:
1. Valor de la funcin de verosimilitud en su mximo (mientras ms grande mejor)
2. Valor del estadstico Q del test 2 de bondad de ajuste (mientras menor sea mejor)
3. Valor del estadstico D del test Kolmogorov- Smirnov (mientras menor sea mejor)
4. pvalue del test 2 de bondad de ajuste (mientras ms grande mejor)
5. El valor proveniente de cualquiera de los mtodos de estimacin basados en optimizacin, como
ser el de mnima fdd (Crmer von Mises), mnimo MSE (error medio cuadrtico), mnimo LAS
(intensidad media de tramo) (mientras ms bajo sea mejor)
En general es razonable realizar un ordenamiento usando el mismo mtodo que fue utilizado para
la estimacin de los parmetros. Sin embargo, esto no es del todo necesario.
Todas a excepto de una de las recomendaciones, tienen un problema que debe ser resuelto. Cuando
un modelo es un caso especial de otro (por ejemplo, Pareto y Burr) y el criterio concuerda con el
mtodo de estimacin, el modelo ms complejo siempre resulta ser al menos tan bueno como el
ms simple. Esto sucede porque el caso especial est siempre disponible como el posible candidato
a mnimo (o mximo) del modelo ms complejo. Este es el mismo fenmeno que aparece en la
2

agregacin de variables adicionales en regresin mltiple. El coeficiente de determinacin ( R ) no


Pgina 55 de 60

puede decrecer, incluso si la nueva variable no est relacionada con la variable dependiente. En
regresin se requiere una mejora significativa antes de poder aceptar una nueva variable. Lo
mismo se aplica aqu. En lneas generales, existen dos maneras de resolver el problema.
Antes de discutir tal solucin, notaremos que la excepcin es el pvalue del test 2 de bondad de
ajuste. ste automticamente corrige el incremento en el nivel de complejidad reduciendo los
grados de libertad, y por lo tanto, un modelo ms complejo necesita una reduccin importante en
el valor del estadstico del test para que el pvalue se haga ms grande. Tambin debera notarse
que usando el estadstico en s (Q) causa problemas adicionales cuando los grupos se combinaron
de modo tal que se cumpla la condicin de un mnimo de cinco observaciones esperadas. Entonces,
an con el mismo nmero de parmetros, dos modelos pueden implicar la aplicacin de un nmero
distinto de grados de libertad. En base a esto es que nosotros preferimos la utilizacin de pvalues
por sobre los estadsticos de los tests a efectos de ordenar y elegir entre varios modelos.
Ejemplos 2.65 En la tabla 2.18 se encuentran los pagos generales por responsabilidad civil. Un
gran nmero de modelos han sido ajustados mediante el mtodo de Mxima Verosimilitud. Los
modelos, el NLL (Negative Loglikelihood: logaritmo de la verosimilitud negativo), el estadstico Q
del test 2 , los grados de libertad y el pvalue aparecen en la tabla 2.19. Usando esta informacin,
seleccionar el mejor moleo de acuerdo con el criterio del pvalue.
Debido a que el logaritmo de la funcin de verosimilitud negativo, suena extrao, preferiremos
escribir NLL.
Tabla 2.18 (Pagos Generales por Responsabilidad Civil) 26
Pago

Nmero

Promedio

0-2500

41

1389

2500-7500

48

4661

7500-12500

24

9991

12500-17500

18

15482

17500-22500

15

20232

22500-32500

14

26616

32500-47500

16

40278

47500-67500

12

56414

67500-87500

74985

87500-125000

11

106851

125000-225000

184735

225000-300000

264025

300000-

300000

Tabla 2.19 Valores MV ajustados a los datos de responsabilidad civil


Modelo
nro parmetros
NLL
grs de lib.
pvalue
2

26

General Liability Payments


Pgina 56 de 60

Exponencial

548.72

81.02

<0.0001

Exp. Inversa

520.27

49.06

<0.0001

Lognormal

498.29

4.51

0.8744

Gaussiana Inversa

502.26

12.95

0.1648

Pareto

499.31

6.37

0.7028

Pareto Inversa

500.09

7.52

0.5831

Loglogstica

499.93

7.51

0.5847

Gamma

507.84

16.38

0.0372

Gamma inversa

509.80

26.77

0.0008

Weibull

501.63

8.16

0.4183

Weibull inversa

506.72

20.27

0.0163

Paralogstica

499.79

7.30

0.6055

Paralogstica Inversa

500.01

7.58

0.5767

Burr

498.41

4.79

0.7793

Burr Inversa

499.01

5.33

0.7220

Pareto Generalizado

498.62

5.00

0.7580

En la construccin de la tabla 2.19 no hay convergencia en alguna de las distribuciones


pretendidas. Por ejemplo, al iterar con el fin de maximizar la funcin de verosimilitud de la
distribucin Gamma transformada, se volvi evidente que luego de 100 iteraciones del mtodo
simples, que se estaba acercando a 1 mientras que y se estaban aproximando a cero.
Esto nos indica que algunas distribuciones de dos parmetros, que son un caso especial, se
desempean de una manera similar que aquel de 3 parmetros. Si bien este caso lmite no est en
nuestro inventario, esto nos indica que 3 parmetros son ms que los que se estn necesitando.
De la tabla 2.19 queda claro que en base al pvalue, el modelo lognormal es el mejor. La segunda
mejor alternativa resulta ser la distribucin Burr, pero sera difcil justificar la utilizacin de tres
parmetros cuando como resultado tendramos un pvalue menor y un mayor valor del estadstico
del test (Q).
2.9.2.1 Test del Cociente de Verosimilitudes (pg. 126)
Cuando un modelo es un caso especial de otro, podemos utilizar el test de cociente de
verosimilitudes introducido en la seccin 2.6.4. La hiptesis nula es que el modelo ms simple es el
apropiado, contra la alternativa de que el modelo ms complejo es el apropiado. El estadstico del
test es dos veces la diferencia entre los logaritmos de las verosimilitudes. Este va a ser comparado
con el valor crtico de un 2 con grados de libertad equivalentes a la diferencia entre el nmeros
de parmetros.
En el ejemplo 2.51 se hizo nota que para un conjunto de datos particular, la distribucin Burr no
implicaba una mejora importante respecto a la Pareto.

Pgina 57 de 60

Una segunda posibilidad es que un modelo sea un caso lmite de otro. Por ejemplo, en la seccin
2.7.4 se mostr que la distribucin Gamma transformada de 3 parmetros es un caso lmite del de
la distribucin Beta transformada. Otro ejemplo aparece en el captulo 3, donde se observa que la
distribucin de Poisson es un caso lmite de la distribucin Binomial Negativa. En estos caso, el
test de cociente de verosimilitudes puede ser aplicado, pero el estadstico del test no
necesariamente tiene que tener una distribucin aproximada 2 . Self y Liang [10] muestran que la
distribucin aproximada correcta es una mezcla de distribuciones 2 .
En este libro usaremos la distribucin

2 con grados de libertad iguales a la diferencia en el

nmero de parmetros, incluso en los caso lmite. Reconocemos que esta es todava una mayor
aproximacin, pero simplifica el proceso de decisin.
Cuando dos modelos estn incorrelacionados, pero tienen un nmero diferente de parmetros (por
ejemplo, exponencial vs Pareto), el test de cociente de verosimilitudes puede seguir siendo
aplicado, pero debemos entender que ya no se trata de un test de hiptesis en el sentido formal,
sino simplemente de una regla de decisin razonable.
Una forma de ver que el test ya no es ms preciso, es que el estadstico del test podra ser negativo
(esto es, puede suceder que el modelo no relacionado con ms parmetros produzca un menor
valor de la funcin de verosimilitud en su mximo). Por lo tanto, el estadstico no puede tener una
distribucin de 2 .
Finalmente, hacemos notar que no existen mtodos similares para medir el efecto de la inclusin
de un parmetro extra cuando usamos otras variables de decisin tales como el mnimo fdd
(Cramer von Mises).
Ejemplo 2.66 Usar la informacin de la tabla 2.19 para determinar el mejor modelo usando el valor
de verosimilitud como criterio a un nivel del 5% de significacin para todos los tests
Dentro de un grupo con la misma cantidad de parmetros, la eleccin es el modelo con el menor
NLL. Para un parmetro el ganador es la exponencial inversa con 520.27, para dos parmetros es
la lognormal con 498.29 y para tres parmetros es la Burr con 498.41.
Primero vamos a comparar la exponencial inversa vs la lognormal. Este no es un test formal, en la
medida que la exponencial inversa no es un caso especial de la lognormal. El estadstico del test es
2(520.27-498.29)=43.96. Hay UN grado de libertad, con lo que el valor crtico es 3.84. La hiptesis
nula es rechazada y entonces se selecciona a la distribucin lognormal. Una vez ms, notar que NO

Pgina 58 de 60

ES UN TEST FORMAL, y por ello el 5% de significancia no es la probabilidad de cometer un


error de tipo I para el procedimiento recin utilizado.
Luego hacemos el test para la lognormal vs la Burr.
El estadstico del test es 2(498.29.498.41)=-0.24 que claramente favorece a la aceptacin de la
hiptesis nula (al ser negativo) y entonces elegimos otra vez a la lognormal
2.9.2.2 Valores de Verosimilitud Penalizados
Hay una alternativa a un test formal que elimine la distincin entre casos especiales y no casos
especiales. Existe una variedad de mtodos como tales, que han sido sugeridos.
Presentamos uno aqu, el llamado Schwartz Bayesian Criterion (SBC) introducido por
Schwartz[111] (Existen otros criterios de informacin como por ejemplo el Akaike Information
Criterion, AIC). Estos mtodos toman el valor de la verosimilitud y luego lo ajustan de modo tal
que refleje el tamao de la muestra y el nmero de parmetros. El SB le aplica logaritmo a la
d
e
nf
f
f
f
f
f
f
f
, donde r es el nmero de parmetros estimados y n
funcin de verosimilitud y le sustrae rlog
2
es el tamao de la muestra. Notar que a medida que se incrementa el tamao de la muestra, la
penalidad por la inclusin de un parmetro extra crece. Esta es una diferencia respecto al test de
cociente de verosimilitudes. No queda claro cul es el mejor.
Por un lado, con un tamao de muestra grande, deberamos poder estimar satisfactoriamente unos
pocos parmetros y podramos justificar un modelo ms complejo. Pero por otro lado, los tests de
hiptesis se vuelven ms potentes a medida que crece el tamao de la muestra y la hiptesis
alternativa tiende a ser seleccionada si los modelos estos no son ms que una descripcin apenas
un poco ms precisa de la poblacin.
Ejemplo 2.67 Usando la informacin de la tabla 2.19, seleccionar el mejor modelo de acuerdo con
el SBC.
Para modelos con el mismo nmero de parmetros el ganador sigue siendo aquel con el NLL ms
pequeo. Aplicando el trmino de penalidad, produce los siguientes tres puntajes, siendo la

217
f
f
f
f
f
f
f
f
f
f
f
= 3.542 r
penalidad r log
2
f

Modelo

NLL

Penalidad

Exponencial Inversa

520.27

3.54

523.81

Lognormal

498.29

7.08

505.37

Burr

498.41

10.63

509.04

Pgina 59 de 60

Puntaje

La penalidad se suma aqu porque estamos trabajando con los NLL. Una vez ms, la distribucin
lognormal es su eleccin. Recordamos que, antes, los chequeos visuales y tabulares de este modelo
tambin eran aceptable, y por ello sta debera ser su eleccin para la poblacin

Pgina 60 de 60

Potrebbero piacerti anche