Sei sulla pagina 1di 32

REPÚBLICA BOLIVARIANA DE VENEZUELA.

MINISTERIO DEL PODER POPULAR PARA LA DEFENSA.


UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA DE LA FUERZA
ARMADA BOLIVARIANA.
NUCLEO ZULIA. EXTENCIÓN SAN FRANCISCO
CARRERA: LICENCIATURA EN ECONOMÍA SOCIAL.

ECONOMETRIA II

ELABORADO POR:

- ANDRADE VINICIO V- 11201010


- TORRES YESENIA V- 17292551

Maracaibo, 12 de Abril de 2013.


REGRESIÓN BAYESIANA

Enfoque Bayesiano

El enfoque bayesiano permite incorporar al proceso de estimación de los


parámetros del modelo, información no está contenida en la muestra mediante la
fórmula de Bayes: Sea θ el vector parámetros del modelo (una variable aleatoria) y
X la muestra, entonces,

en esta expresión, se puede observar que la densidad a posteriori es combinación


de la densidad a priori y la información muestral expresada en la función de
verosimilitud.

Conocimiento previo:

En el enfoque frecuentista, el vector de parámetros θ se considera como una


constante desconocida, mientras que en el enfoque bayesiano, es una variable
aleatoria y con una densidad π (θ ) , y es justamente esta densidad a priori la que
incorpora la información previa que se posee sobre los parámetros e introduce el
factor incertidumbre en el modelo.
Estimación:

La densidad a posteriori π (θ | X ) , es una actualización del conocimiento del


vector de parámetros θ (información previa) luego de confrontar con los datos
(información muestral). El enfoque bayesiano consiste en pasar de un
conocimiento a priori sobre los parámetros π (θ ) a un conocimiento a posteriori π
(θ | X ) , mediante la muestra. De la densidad a posteriori π (θ | X ) se pueden
obtener estimadores puntuales a posteriori de los parámetros. En el caso que la
densidad a posteriori π (θ | X ) tenga una estructura conocida, se puede calcular
estimadores puntuales, el más utilizado es E[θ | X] (la esperanza condicional del
parámetro dada la muestra).

De lo contrario, si no es posible obtener una expresión para la densidad a


posteriori, o incluso si la densidad es conocida pero no es posible calcular sus
momentos, aún resulta posible construir estimadores puntuales de los parámetros
e incluso estimadores de su densidad, mediante los métodos MCMC (ver Robert,
2001), que permiten obtener simulaciones de la densidad a posteriori. Los
métodos MCMC mas difundidos son el algoritmo de Metropolis-Hastings y el
muestreador de Gibbs. Uno de los mayores atractivos del enfoque bayesiano, es
que no sólo permite obtener un estimador puntual de los parámetros del modelo,
sino también una densidad que caracteriza dichos parámetros, la densidad a
posteriori.

No obstante, uno de los aspectos más controversiales de los métodos bayesianos


es la selección de la información previa, es decir, la elección de la densidad a
priori y sus parámetros.

Modelos BVAR

En esta sección se presentan dos modelos de vectores autoregresivos (VAR)


estimados bajo el enfoque bayesiano (BVAR), el primero introducido por Litterman
(1985) y el segundo es una generalización introducida por Lesage (2005). Para
facilitar la comprensión de los BVAR, se recordará al lector algunos aspectos
básicos de los VAR frecuentistas.

Vectores Autoregresivos (VAR)

Los vectores autoregresivos fueron introducidos por Sims (1980), y se han


caracterizado por ser herramientas de gran utilidad en el modelaje de variables
macroeconómicas a fin de realizar pronósticos y son una referencia estándar para
el análisis de los shocks estructurales. Estos modelos son estimados a partir de la
información muestral.
En su formulación más básica, un VAR de orden p tiene la siguiente
representación
En los modelos VAR, la inclusión de la información previa resulta

particularmente atractiva, debido a la gran cantidad de parámetros a ser


estimados. Mientras más complejo es el modelo mayor es el número de
parámetros a estimar, tornándose estos en modelos sobreparametrizados. De tal
manera que, los VAR a pesar de tener las ventajas de los modelos multivariantes,
también tienen algunos inconvenientes, entre ellos el problema de la
sobreparametrización, ya que aún para modelos que pueden considerarse
pequeños, involucran una cantidad considerable de parámetros a ser estimados,
generalmente en macroeconomía se disponen de pocas observaciones para
estimar tales parámetros, en ese sentido, la inclusión de información previa en la
estimación del modelo se torna valiosa.

La estimación de los parámetros de los VAR bajo el enfoque bayesiano es lo que


se conoce como Vectores Autoregresivos Bayesianos (BVAR) y tiene entre sus
pioneros a Litterman (1985).

PRIOR DE MINNESOTA

Litterman (1985), investigador del Federal Reserve Bank of Minneapolis


(Minnesota), introduce el Modelo VAR Bayesiano. Para formular la densidad a
priori, conocida en la literatura como Prior de Minnesota, parte de tres supuestos
con respecto a las series macroeconómicas:

 Se supone que las series macroeconómicas contienen una raíz muy


cercana a uno en su representación autoregresiva. Acerca de lo cual se
tiene evidencia empírica.
 Los valores más recientes de una serie contienen más información de
relevancia para el valor actual de la serie que los valores pasados de la
misma, es decir, los coeficientes que acompañan a los valores rezagados
de una determinada variable explicativa tendrá mayor probabilidad de
acercarse a cero en la medida que aumenta el número de rezagos. Esta
convicción es lo que esta detrás de la practica convencional de cortar
abruptamente los rezagos.
 De cara al pronóstico de una determinada variable son de mayor utilidad
sus propios valores rezagados que otras variables explicativas rezagadas.
Algo bien conocido en la práctica de los pronósticos macroeconómicos.

En base a estos supuestos Litterman propone que una aproximación razonable


para el comportamiento de una variable económica es un paseo aleatorio
alrededor de un componente determinístico:
Análogamente a los VAR frecuentistas BVAR de Litterman se puede extender

considerando un modelo con variables determinísticas,

En este caso se tienen la misma Prior de Minnesota de (3.2.1), es decir, no se


considera información a priori para las variables determinísticas. Con respecto a la
Prior de Minnesota, es importante recalcar lo siguiente: sólo se supone
información previa para los coeficientes de las variables endógenas del modelo, es
decir, Litterman no propone una distribución a priori para los coeficientes de las
variables exógenas, para el componente determinístico o para la matriz de
covarianzas, la densidad a priori que propone en su trabajo no proviene de
ninguna teoría económica en particular, y las restricciones impuestas son más
bien de carácter instrumental e intuitivo. Sin embargo, vale la pena destacar, que
estos aspectos son susceptibles de ser modificados, introduciendo algunos
cambios en la Prior de Minnesota mediante la incorporación de nuevos
hiperparámetros.

ESTIMACIÓN A POSTERIORI

Una vez que se ha propuesto una densidad previa para los parámetros, y dada la
muestra observada, es posible obtener una densidad a posteriori de dichos
parámetros, actualizando la información previa a través de los datos.

Considerando que el modelo tiene un componente determinístico (del cual no se


supone información previa) y que eventualmente se pudiesen incluir variables
exógenas (para las cuales tampoco se tiene información previa), a fin de estimar
simultáneamente todos los parámetros (dada información previa o no), resulta
conveniente reescribir cada ecuación del VAR reducido como un modelo de
regresión lineal con restricción, de tal manera que para la i-ésima ecuación del
VAR se tiene:
Donde Y i es un vector con todas las observaciones hasta tiempo T de la iésima
variable endógena, X es una matriz cuyas columnas contiene las observaciones
hasta tiempo T de las variables endógenas rezagadas, las variables exógenas y el
componente determinístico, β i denota todos los coeficientes del modelo y ε i los
residuos. Recuerde que el estimador de β i para un modelo de regresión lineal es

Este estimador, combina tanto la información muestral como la información a

priori. i β )es el estimador de la media de la distribución a posteriori, se le


denomina media a posteriori.
ESTIMACIÓN A POSTERIORI CON MUESTREADOR DE GIBBS

Ahora se considera el VAR como un modelo de regresión más general, donde la


varianza no es constante en el tiempo,

Se denota mediante ( , , ) 1 T v = v K v , la diagonal de V . El conjunto de


parámetros de este modelo es θ = (β ,σ ,v) . La densidad a priori de θ la
denotaremos por π (θ ) = π (β ,σ ,v) . Para estos parámetros se tiene la siguiente
información previa (ver Geweke, 1993):

• Para β se tiene las mismas hipótesis de la ecuación (3.3.1),

r =Dβ +υ, con υ ~ N (0, Ω) .

La estimación a posteriori de los parámetros se realiza de la siguiente manera (ver


Geweke, 1993). Observe en primer lugar, que se conocen y se pueden simular,
cada una de las densidades a posteriori condicionales, π (β |ν ,σ ) , π (σ |ν ,β ) y π
(ν | β ,σ ):
• Para β se tiene nuevamente el estimador de mínimos cuadrados generalizados
sujeto a la restricción

Las simulaciones de la densidad a posteriori se obtiene con el Muestreador de


Gibbs, este algoritmo se utiliza cuando no es posible realizar simulaciones
directamente a partir de las distribuciones, sino a partir de las densidades
condicionales ver Lesage (2005), el algoritmo para la actualización de los
coeficientes del BVAR es el siguiente:
Observe que en el algoritmo finalmente la estimación sólo se realiza para β

(media a posteriori), ya que es el único parámetro de interés a fines predictivos, y


se realizan un número N de simulaciones, si se considera N un número
suficientemente grande, por la ley de los grandes números se tiene que β )
converge a la media a posteriori.

PLANTEAMIENTO DEL MODELO

En esta sección se plantea el modelo considerado, la selección de las variables y


la descripción de la data utilizada. La selección de las variables del modelo se
apoyó en la teoría cuantitativa del dinero, la cual especifica que las preferencias
por mantener saldos reales por parte de los agentes económicos está determinada
por una variable de escala que mide el volumen de transacciones o la renta
nacional, una variable que recoge el costo de oportunidad de mantener efectivo y,
un indicador que captura la evolución del nivel general de precios. De esta manera
y para efectos prácticos se ha considerado, el PIB como la variable de escala
representando el nivel de actividad económica del país, las

tasas pasivas de los depósitos a plazo de 90 días midiendo el costo de


oportunidad de mantener activos más líquido (dinero) en contraposición al
mantenimiento de algún activo menos líquido, y la tasa de inflación como un
indicador de las expectativas de evolución de los precios . Adicionalmente, se ha
ampliado el modelo con la incorporación del tipo de cambio, el cual intenta recoger
la intención del agente de sustituir un activo externo por uno interno. Observe que
en el modelo se consideran como variables endógenas, variables objetivos de la
política económica: PIB real, inflación, demanda real de dinero.

En la siguiente tabla se presentan las variables que conforman el modelo


Las series que conforman este modelo tienen una periodicidad trimestral, están
medidas en Bs. con base en el año 1997. La inflación se mide de la manera usual,
la variaciones trimestrales del índice de precios al consumidor. Se consideraron
observaciones desde el año 1992 a 2006. El modelo se estima con los datos
observados hasta 2004 y se realizan proyecciones fuera de muestra para los años
2005 y 2006, con el objeto de comparar las proyecciones con las series
observadas y así evaluar el desempeño predictivo de los modelos.
Adicionalmente, se incorporaron en la estimación las siguientes variables
dummies, que reflejan algunos valores anómalos en las series: 1er-2do de 1996 y
3er-4to de 1996 motivado a un Alto Índice inflacionario (acumulado de 103.2%),
1er de 2002 entra en vigencia el sistema de libre flotación del tipo de cambio y 4to
de 2002 – 1er de 2003 por una contracción de la actividad económica.

Se analizaron las series para evaluar la posible existencia de raíces unitarias y


posteriormente se realizaron las correspondientes transformaciones, a fin de
obtener series estacionarias. Se estimaron los siguientes modelos: VAR mínimos
cuadrados (var), BVAR con Prior de Minnesota (bvar) y un BVAR con
simulaciones realizadas mediante el muestreador de Gibbs (bvar-gibbs).
Siguiendo los criterios de información de Akaike y Hannan-Quinn, y el test LR, y
con el objeto de considerar la información histórica comprendida en el período de
un año, en cada uno de estos modelos se

PROYECCIONES Y COMPARACIÓN DE LOS MODELOS

A continuación se presentan las proyecciones de la inflación, el PIB y M1 real, y se


compara el rendimiento predictivo a diferentes horizontes, por parte de los
diversos modelos, haciendo uso de herramientas como el error cuadrático medio
(emc) y el coeficiente U de Theil.

En los siguientes gráficos y en los estadísticos emc y U de Theil se puede apreciar


que en efecto el desempeño predictivo de ambos modelos BVAR es superior que
el modelo VAR frecuentista, en todos los horizontes de pronóstico, al minimizar
tanto el emc como el U de Theil incluso hasta en dos ordenes de magnitud.
En cuanto a los dos modelos BVAR, si bien es cierto que el bvar obtuvo un mejor
desempeño en los pronósticos para la inflación al minimizar el emc y el U de Theil
en los diferentes horizontes, y por su parte el bvar-gibbs tuvo un mejor rendimiento
pronosticando el PIB, no se aprecia una diferencia estadísticamente significativa
en cuanto al rendimiento predictivo de ambos modelos bayesianos. Para M1 real,
se realizaron pronósticos bastante precisos hasta un periodo de un año. Los
resultados de las proyecciones confirman el aporte significativo que introdujo la
información extramuestral en la estimación de este modelo.
ANALISIS DE DISCRIMINANTE

DEFINICIÓN:

Cómo técnica de análisis de dependencia:Pone en marcha un modelo de


causalidad en el que la variable endógena es una variable NO MÉTRICA y las
independientes métricas.
CÓMO TÉCNICA DE ANÁLISIS DE CLASIFICACIÓN:

Ayuda a comprender las diferencias entre grupos. Explica, en función de


características métricas observadas, porqué los objetos/sujetos se encuentran
asociados a distintos niveles de un factor.

DIFERENCIAS

El análisis de regresión: En la regresión, la endógena es métrica

El análisis ANOVA: En el ANOVA, la endógena es métrica y las exógenas NO


MÉTRICAS (al contrario que en el discriminante)

El LOGIT - PROBIT: Idéntica al discriminante en el objetivo pero apoyada en


técnicas de estimación paramétrica idénticas a la regresión y no en análisis de
descomposición de la varianza:

(1) DV: Más adecuada para factores sólo binarios

(2) DV: Más compleja de cálculo - interpretación

(3) V: Se ve menos afectada por incumplimientos de supuestos teóricos


necesarios a priori (normalidad, por ejemplo)

(4) V: Permite incorporar explicativas no métricas en forma de ficticias

(5) Los resultados admiten explotación en términos de probabilidad

ANÁLISIS DISCRIMINANTE

QUÉ SIGNIFICA, EN ESTE CONTEXTO.

¨ ADP y ADD: Análisis Discriminante Descriptivo o Predictivo

¨ MDA: Análisis discriminante Múltiple (no binario)

DISCRIMINANTE DESCRIPTIVO (Un ejemplo):

(Objetivo) Se desea caracterizar el perfil de los compradores de un determinado


producto en un determinado establecimiento. (Diseño) Para ello, se diseña una
muestra con 100 compradores y 100 no compradores y se toman datos de renta,
edad y cercanía al establecimiento de venta.

(Resultado) El análisis discriminante establecerá la importancia relativa de cada


uno de estos atributos en la decisión de compra permitiendo orientar mejor la
política promocional o de distribución del producto.
DISCRIMINANTE DESCRIPTIVO (otro ejemplo):

(Objetivo) Se desea valorar de qué depende la fidelidad de un clientes a un


determinado proveedor comercial.

(Diseño) Para ello, se encuesta a 15 importantes clientes sobre la posibilidad de


cambiar de proveedor y sobre la percepción que estos tienen de su Competitividad
y Nivel de Servicio.

(Resultado) El análisis permitirá aproximar la importancia relativa de la


competitividad y el nivel de servicio a la hora de conseguir fidelidad en un cliente.

DISCRIMINANTE PREDICTIVO (un ejemplo):

(Objetivo) Se desea prever el riesgo de morosidad relativa a los préstamos


personales en una entidad bancaria.

(Diseño) Se explota el fichero histórico de clientes morosos - no morosos y se


observan variables cuantitativas potencialmente explicativas: renta total, edad,
créditos adicionales, años de estabilidad laboral.

ETAPAS PARA DE UN ANÁLISIS DISCRIMINANTE

A.- SELECCIÓN DE VARIABLES DEPENDIENTE E

INDEPENDIENTES

B.- SELECCIÓN DEL TAMAÑO MUESTRAL

C.- DIVISIÓN DE LA MUESTRA

D.- CHEQUEO DE LAS HIPÓTESIS DE PARTIDA

E.- ESTIMACIÓN DEL MODELO

F- VALIDACIÓN DE LAS FUNCIONES DISCRIMINANTES

G.- CONTRIBUCIÓN DE LAS VARIABLES A LA CAPACIDAD

DISCRIMINANTE DE LAS FUNCIONES

H.- VALORACIÓN DE LA CAPACIDAD PREDICTIVA

I.- UTILIZACIÓN FUNCIONES


A.- SELECCIÓN DE VARIABLES DEPENDIENTE E INDEPENDIENTES

La variable dependiente no tiene que ser, necesariamente, categórica en origen

Los grupos deben ser mutuamente excluyentes

La decisión sobre el número de categorías

(1) debe ajustarse al poder discriminante de los predictores

(2) puede observarse en etapas sucesivas (inicial con todas, y en el límite,


optando sólo por el enfoque de extremos polares)

Las variables explicativas:

(1) no deben ser excesivas

(2) deben atender siempre al objetivo conceptual

(3) pueden someterse a un test univariante de diferencia de medias o un test


ANOVA.

B.- SELECCIÓN DEL TAMAÑO MUESTRAL

Elevada sensibilidad al tamaño muestral Vs. Nº de predictoras. (Receta: mínimo 5


observaciones por variable..... recomendado 20 observaciones por variable).

También debe vigilarse el tamaño de los grupos:

(1) el equilibrio no es necesario pero es recomendable

(2) el más pequeño de los grupos no puede serlo mucho (Receta: como mínimo, el
tamaño del grupo más pequeño debe ser mayor al número de variables).

C.- DIVISIÓN DE LA MUESTRA

Utilidad del “enfoque de validación cruzada (muestra de análisis + muestra


ampliada)”

(1) garantizado un tamaño muestral total suficiente

(2) aplicando muestreo estratificado proporcional en ambas muestras.


D.- CHEQUEO DE LAS HIPÓTESIS DE PARTIDA

Ausencia de normalidad multivariante → problemas en la estimación →LOGIT


recomendado

Matrices de varianzas y covarianzas distintas →problemas en la clasificación Þ


uso de técnicas de clasificación cuadráticas Multicolinealidad Þ problemas en la
interpretación de parámetros → estimación secuencial.

E- ESTIMACIÓN DEL MODELO

SELECCIÓN DEL MÉTODO (I)

Método simultáneo o por etapas:

(1) estimación en una sola etapa (número reducido de variables, interés por el
conjunto)

(2) estimación polietápica: selección de menos a más, analizando las


interacciones de las variables discriminantes (amplio número de variables, dudas
sobre el modelo teórico)

Método cálculo : Método de Fisher, D de Mahalanobis.


Variable Y (Función Discriminante): combinación lineal de las

variables originales "X" que:

(1) Presente la mínima variación INTRA grupal

(2) Presente la máxima variación ENTRE grupal

La función discriminante no será única: si se parte de una clasificación en "g"


grupos, se obtendrán varios conjuntos de parámetros, es decir, varias funciones
discriminantes (Menor de “g-1” o “p”)

SELECCIÓN DEL MÉTODO (II) (Continuación)

(Obtención de la/s funciones discriminantes)

(Planteamiento para “g” grupos y “p” variables)

Partimos de: - “g“ grupos que representamos con el subíndice j=1,2……..g

- “p” variables

- “n” elementos para cada una de ellas que representamos con i= 1,2…….n

Cada observación de cada variable para cada sujeto la representaremos


como:

Así, el término X123 representaría la observación de la variable 2 para el elemento


1 del grupo 3.
SELECCIÓN DEL MÉTODO (II) (Continuación)

(Obtención de la/s funciones discriminantes) (Continuación)

Conforme a esta nomenclatura definimos las siguientes matrices:

MATRIZ DE OBSERVACIONES PARA EL ELEMENTO “i” DEL GRUPO “j”


SELECCIÓN DEL MÉTODO (II) (Continuación)

(Obtención de la/s funciones discriminantes) (Continuación)

Definidas estas matrices la variación Entre e Intra será:

Sin embargo nuestro objetivo es encontrar los parámetros "b" de la

combinación lineal:

Y = b’ X

que maximicen este ratio por lo que debemos expresar estas V.Intra y

V.Entre en función de los parámetros “b” de este modelo.

SELECCIÓN DEL MÉTODO (II) (Continuación)

(Obtención de la/s funciones discriminantes) (Continuación)

Dicho de otro modo, lo que queremos es maximizar la V. Entre y minimizar la


V.Intra para la variable discriminante “y”. Puede demostrarse que:
SCEy=b’Eb

SCIy=b’I b

Por lo que, lógicamente, el ratio a maximizar puede expresarse como:

Esta operación arroja varias soluciones del conjunto de parámetros “b” lo que
significa que para un determinado conjunto de datos siempre encontraremos más
de una solución. (El menor de “g-1” o “p”).

F- VALIDACIÓN DE LAS FUNCIONES DISCRIMINANTES

Autovalores: En el método de Fisher, la obtención de las distintas funciones se


deriva de un proceso de obtención de raíces y vectores propios de una forma
cuadrática. La suma de cuadrados entre grupos de cada función discriminante,
viene definida por un autovalor l(i).

Ratio Autovalor / Suma autovalores: capacidad discrimnante relativa, pero no


absoluta.

Test Bartlett: El test de Bartlett, distribuido como una 2 c con p(g-1)

grados de libertad, contrasta "secuencialmente" la hipótesis (H0 : 1 = 2 = ... = r = 0


l l l ) presenta la siguiente forma:
G.- CONTRIBUCIÓN DE LAS VARIABLES A LA CAPACIDAD DISCRIMINANTE
DE LAS FUNCIONES

ANOVA simple con cada variable y la agrupación previa

Parámetros estandarizados de la(s) función(es) discriminantes

“CARGAS” DISCRIMINANTES: correlaciones entre cada variable inicial “x” y las


funciones discriminantes “y”.

H.- VALORACIÓN DE LA CAPACIDAD PREDICTIVA

Los contrastes de significación no informan sobre la capacidad predictiva del


modelo

Cálculo de la Puntuación de Corte Óptima

Cálculo de la Puntuación de Corte Óptima modificada para el caso de grupos de


tamaño desigual representativos de la estructura de la población (muestreo
aleatorio).

Construcción de la “Matriz de Confusión”

Análisis de casos individuales (detección de nuevas variables a incluir en el


análisis).

I.- UTILIZACIÓN FUNCIONES

Cálculo de la puntuación discriminante (estandarizadas – útil para la interpretación


o no estandarizadas – útiles para el cálculo final)

Cálculo de las Funciones Discriminantes Lineales de Fisher o

Funciones de Clasificación (una por grupo, interesantes para simplificar la


clasificación de nuevos elementos: clasificación en el grupo de mayor valor para
su FDLF )

Cálculo de los Centroides y contraste de diferencias significativas aún en el caso


de que se las funciones sean plenamente significativas (D de Mahalanobis)

Dibujo de los Centriodes y distribuciones alrededor de los mismos para 2 ó 3


(max) funciones discriminantes.
MODELOS DE PREDICCION DE QUIEBRA

El interés de los profesionales de las finanzas por contar con modelos de


predicción de insolvencia en las empresas, ha llevado a varios expertos en la
materia en todo el mundo, a desarrollar modelos matemático-financieros que
permitan diagnosticar y predecir con cierta anticipación la insolvencia financiera
empresarial.

Para efectos de este estudio, se han seleccionado los modelos de predicción de


insolvencia considerados como los más conocidos y confiables.

MODELOS Z DE ALTMAN

Modelo Z-Altman

Creado por Edward Altman con base en un análisis estadístico iterativo de


discriminación múltiple en el que se ponderan y suman cinco razones de medición
para clasificar las empresas en solventes e insolventes.

Para el desarrollo de su modelo en 1966, Altman tomó una muestra de 66


empresas de las cuales 33 habían quebrado durante los 20 años anteriores y 33
seguían operando a esa fecha. A la muestra le calculó 22 razones financieras que
clasificó en 5 categorías estándar: liquidez, rentabilidad, apalancamiento,
solvencia y actividad. Después de numerosas corridas, se seleccionaron las 5
variables que juntas dieron el mejor resultado en la predicción de la insolvencia.
Esto se hizo mediante: 1. Observación estadística de varias funciones, incluyendo
la contribución relativa de cada variable independiente, 2. Evaluación de
intercorrelaciones entre las variables relevantes, 3. Observación de la precisión en
la predicción de los modelos y, 4. Criterio del analista.

La función discriminante final fue: Z = 1.2 X 1 + 1.4 X 2 + 3.3 X 3 + 0.6 X 4 + 0.99


X5

Donde: X 1 =Capital de trabajo / Activo total, X 2 =Utilidades retenidas / Activo


total, X 3 =Utilidades antes de intereses e impuestos / Activo total, X 4 =Valor de
mercado del capital / Pasivo total y, X 5 = Ventas / Activo total .

El resultado indica que, Si Z>=2.99, la empresa no tendrá problemas de


insolvencia en el futuro; si Z<=1.81, entonces es una empresa que de seguir así,
en el futuro tendrá altas posibilidades de caer en insolvencia. El modelo considera
que las empresas se encuentran en una "zona gris" o no bien definida si el
resultado de Z se encuentra entre 1.82 y 2.98.
Debido a que este modelo aplicaba sólo a empresas manufactureras que
cotizaban en bolsa, Altman hizo una revisión del mismo y obtuvo dos nuevas
versiones, el Z1 y el Z2.

Modelo Z1 de Altman

Este modelo es una variación del modelo Z original, en el que se sustituye, por un
lado, el numerador en X 4 por el valor del capital contable en lugar del valor de
mercado del capital y en el que la ponderación de cada índice también se
modifica. Las adaptaciones se hicieron con el fin de aplicarlo a todo tipo de
empresas y no solamente a las que cotizaran en bolsa.

Esta versión se desarrolló con empresas manufactureras y pondera de manera


importante el activo total de la empresa y su rotación.

La función queda de la siguiente manera: Z1 = 0.717 X 1 + 0.847 X 2 + 3.107 X 3


+ 0.420 X4 + 0.998X 5

Si Z1>=2.90, la empresa no tendrá problemas de insolvencia en el futuro; si


Z1<=1.23, entonces es una empresa que de seguir así, en el futuro tendrá altas
posibilidades de caer en insolvencia. Si el resultado de Z1 es de entre 1.24 y 2.89,
se considera que la empresa se encuentra en una "zona gris" o no bien definida.

Modelo Z2 de Altman

Esta versión es una ajuste del modelo anterior Z1 en la que se elimina la razón de
rotación de activos X 5, para aplicarlo a todo tipo de empresas y no sólo a
manufactureras. Este nuevo modelo pondera de manera importante la generación
de utilidades en relación al activo, así como su reinversión.

La función final es: Z2 = 6.56X 1 + 3.26X 2 + 6.72 X 3 + 1.05 X 4

Si Z2>=2.60, la empresa no tendrá problemas de insolvencia en el futuro; si


Z2<=1.10, entonces es una empresa que de seguir así, en el futuro tendrá altas
posibilidades de caer en insolvencia. Las empresas se ubicarán en una zona no
bien definida si el resultado de Z2 se encuentra entre 1.11 y 2.59.

MODELO FULMER

Desarrollado en 1984 por Fulmer, también utiliza el análisis iterativo de


discriminación múltiple. El autor evaluó 40 razones financieras aplicadas a una
muestra de 60 empresas, 30 solventes y 30 insolventes.
El modelo final toma 9 razones financieras ponderadas, de acuerdo a la siguiente
ecuación:

H = 5.528 X 1 + 0.212 X 2 + 0.073 X 3 + 1.270 X 4 – 0.120 X 5 + 2.335 X 6+ 0.575


X 7 + 1.083 X 8 + 0.894 X 9 – 6.075

Donde: X 1= Utilidades retenidas / Activo total, X 2= Ventas / Activo total, X 3=


Utilidades antes de impuestos / Capital contable, X 4= Flujo de caja / Pasivo total,
X 5= Deuda / Activo total, X 6= Pasivo circulante / Activo total, X 7= Activo total
tangible, X 8= Capital de trabajo / Pasivo total, X 9= log Utilidad operativa / Gastos
financieros.

Cuando H < 0, la empresa puede calificarse como "insolvente".

Fulmer obtuvo el 98 % de precisión aplicando su modelo con un año de


anticipación a la insolvencia y 81% con más de un año.

MODELO SPRINGATE

Este modelo fue desarrollado en 1978 por Gordon L.V. Springate de la


Universidad Simon Fraser de Canadá, siguiendo los procedimientos desarrollados
por Altman. Springate usó el análisis estadístico iterativo de discriminación múltiple
para seleccionar cuatro de 19 razones financieras de uso frecuente que mejor
distinguieron entre los buenos negocios y los candidatos a insolvencia. El modelo
Springate tiene la siguiente forma:

Z = 1.03A + 3.07B + 0.66C + 0.40D

Donde: A = Capital de trabajo / Activo total, B = Utilidad neta antes de intereses e


impuestos / Activo total, C = Utilidad neta antes de impuestos / Pasivo circulante,
D = Ventas / Activo total.

Cuando Z < 0.862, la firma podría considerarse como "insolvente".

Este modelo logró una precisión del 92.5% en 50 empresas que examinó
Springate. Botheras (1979) probó el modelo de Springate en 50 empresas con un
activo promedio de 2.5 millones de dólares canadienses y encontró el 88.0% de
exactitud. Sands (1980) tomó el modelo de Springate para 24 empresas con un
activo promedio de 63.4 millones de dólares canadienses y encontró una precisión
de 83.3%.
MODELO CA-SCORE

La Orden de Contadores Certificados de Quebec (Quebec CA’s) recomienda este


modelo y, según dice quien lo desarrolló, lo usan cerca de 1,000 analistas
financieros en Canadá.

Este modelo fue desarrollado por Jean Legault de la Universidad de Quebec en


Montreal, usando el análisis estadístico iterativo de discriminación múltiple. Fueron
analizadas 30 razones financieras de una muestra de 173 empresas
manufactureras con ventas anuales del rango de entre 1 a 20 millones de dólares
canadienses.

El modelo tiene la siguiente forma:

CA-SCORE = 4.5913 X 1 + 4.5080 X 2 + 0.3936 X 3 – 2.7616

Donde: X 1= Capital contable / Activo total, X 2= (Utilidades antes de impuestos y


Rubros extraordinarios + Gastos financieros) / Activo total, X 3 = Ventas / Activo
total.

Cuando CA-SCORE < -0.3, la empresa puede considerarse como "insolvente".

El autor del modelo informó (1987) que éste tiene un promedio de confianza del
83% y está restringido a evaluar empresas manufactureras.

PRUEBA

MUESTRA

Con el fin de probar la aplicabilidad de cada uno de los modelos, se obtuvo


información financiera de 124 empresas mexicanas y se seleccionaron 44 de ellas
para conformar la muestra, la cual se integra de la siguiente manera:

Sector Empresas

Manufactura 26

Comercio 9

Servicios 5

Construcción 3

Comunicación 1

Total 44
De esta muestra 22 han sido solventes y 22 insolventes.

Insolventes

Como empresas insolventes se tomaron aquellas que han incumplido en el pago


de sus créditos y cayeron en cartera vencida con instituciones financieras. La
muestra de estas empresas está integrada por 17 manufactureras, 1 de servicios,
1 comercial y 3 constructoras. Solventes

Se consideraron empresas que no han tenido problemas financieros graves, es


decir, que no han incumplido en el pago de sus obligaciones. La muestra se
compone de 9 manufactureras, 4 de servicios, 8 comerciales y 1 de comunicación.

METODOLOGIA

En el caso de las empresas insolventes, los modelos se aplicaron tomando


estados financieros con fecha de un año previo al incumplimiento.

Para las empresas solventes se tomaron estados financieros con por lo menos un
año de antigüedad, con el fin de tener la certeza que durante ese periodo no
habían sido insolventes.

Se aplicó cada uno de los modelos de predicción a cada una de las empresas y se
comparó el resultado obtenido por el modelo contra la realidad.

RESULTADOS

MODELO INSOLVENTES SOLVENTES TOTAL

El modelo Z1 de Altman tuvo sólo el 82% de certeza en el caso de empresas


insolventes, sin embargo, debe tomarse en cuenta que este modelo genera tres
resultados posibles: alta probabilidad de insolvencia, baja probabilidad de
insolvencia y un valor intermedio llamado "zona gris". Si el resultado es "zona
gris", se debe interpretar como una empresa con posibilidades de caer en
insolvencia aunque no necesariamente son altas.
Si los resultados de "zona gris" se hubieran tomado como posibles casos de
insolvencia, la precisión de este modelo sería del 95%. El modelo está diseñado
para aplicarse a empresas manufactureras.

El modelo Z2 de Altman al igual que el Z1 puede dar tres resultados diferentes y si


se consideran los "zona gris" como casos de insolvencia, la precisión del modelo
sería del 88%. Puede aplicarse a empresas de cualquier giro.

El modelo Springate resultó altamente confiable (95%) para pronosticar la


insolvencia de las empresas, aunque para el caso de empresas solventes no fue
tan preciso (73%).

El comportamiento del modelo CA-Score fue muy similar al Springate. Se debe


tomar en cuenta que fue diseñado para empresas manufactureras.

El modelo Fulmer no resultó confiable para predecir la insolvencia.

A excepción de los modelos Fulmer y Z2 de Altman, los modelos estudiados


tuvieron una alta precisión para predecir la insolvencia.

Todos los modelos financieros para la predicción de la insolvencia deben tomarse


sólo como un indicador y como una herramienta más de apoyo en el diagnóstico
empresarial.

BIO-ESTADÍSITCA

La bioestadística es la aplicación de las estadísticas a un amplio campo de tópicos


en biología.

Esta envuelve el desarrollo y aplicación de técnicas estadísticas a la investigación


en campos relacionados a la salud incluyendo medicina, epidemiología y salud
pública.

También envuelve trabajo estadístico en áreas de estudios ambientales,


investigación agrícola y biología.

APLICACIONES DE LA BIOESTADÍSTICA

Salud pública

Epidemiología

Investigación servicios de salud

Nutrición

Salud ambiental
Diseño y análisis de pruebas clínicas en medicina

Genética

Agricultura

Siembra

Ganado

Predisposición a enfermedades en humanos

Ecología

Pronósticos

Análisis de secuencias biológicas

TRABAJO DE UN BIOESTADÍSTICO

Juegan roles esenciales en el diseño de estudios y análisis de datos para


problemas de investigación.

Ayudan a formular las preguntas científicas a ser contestadas, determinar las


técnicas apropiadas de muestreo, coordinan los procedimientos de recolección de
datos y llevan a cabo análisis estadísticos para responder aquellas preguntas
científicas.

Pueden trabajar en temas de investigación tan diversos como:

El estudio de factores que afectan al corazón y pulmones

Probando nuevas drogas para combatir el SIDA

Evaluando la calidad del aire en las escuelas

Trabajando con varios estudios de cáncer

Evaluando la salud dental y procedimientos dentales

Evaluando síntomas siquiátricos y uso de alcohol y drogas

Trasplantes de órganos y medula ósea.

Ayudan a desarrollar técnicas estadísticas tales como:

Métodos Bayesianos

Computación y simulación a alta velocidad


Análisis de sobrevivencia

Análisis de patrones geográficos de enfermedades

Análisis de datos longitudinales

Métodos para analizar data de estudios epidemiológicos y pruebas clínicas.

Se comparó el salario promedio de tres ciudades de Puerto Rico (Mayagüez,


Ponce, San Juan) y todo Estados Unidos

OFERTA DE EMPLEO
Este trabajo algunos de nosotros no habíamos estado en contacto con información
sobre esta rama de la estadística. Pero al descubrirla, para el matemático se
abren nuevas oportunidades en cuanto a negocios o carreras.

La bioestadística lleva a cabo un trabajo retante y lleno de satisfacciones. Su


función como estadístico en la rama de la biología es desarrollar estudios que
eventualmente le llevarán al descubrimiento o confirmación de una tendencia, las
causas de una enfermedad o su cura.

Sus investigaciones pueden ser utilizadas como base para demostrar la


necesidad de destinar fondos o más atención a causas o nuevas investigaciones
que así lo ameriten, concienciando así a entidades o ramas del gobierno que
desconocían sobre ciertas necesidades.

El bioestadístico sentirá la satisfacción que deriva de haber contribuido con sus


investigaciones a mejorar la calidad de vida del ser humano.

La Bioestadística desempeña un rol crucial en la toma de decisiones de un


sinnúmero de tópicos dentro de la biología, por ende, su intervención es esencial e
indispensable.

Esta rama de la estadística recibe un salario acorde a la importancia social que


representa su trabajo y hoy despunta como una especialidad de gran demanda en
el campo de la investigación en salud, farmacéutica y agricultura, entre otras, por
lo que sus proyecciones en cuanto a oportunidades de trabajo son excelentes.

Potrebbero piacerti anche