Sei sulla pagina 1di 5

ASIGNATURA: Economía de la Empresa.

NOMBRE: Fiorella Patricia Chaparro Cox.

REGRESIÓN SIMPLE

La Regresión y la correlación son dos técnicas estadísticas que se pueden utilizar para
solucionar problemas comunes en los negocios.

Muchos estudios se basan en la creencia de que es posible identificar y cuantificar alguna


Relación Funcional entre dos o más variables, donde una variable depende de la otra variable.

Se puede decir que Y depende de X, en donde Y y X son dos variables cualquiera en


un modelo de Regresión Simple.

"Y es una función de X"

Y = f(X)

Como Y depende de X,

Y es la variable dependiente, y

X es la variable independiente.

En el Modelo de Regresión es muy importante identificar cuál es la variable dependiente y cuál


es la variable independiente.

En el Modelo de Regresión Simple se establece que Y es una función de sólo una variable
independiente, razón por la cual se le denomina también Regresión Divariada porque sólo hay
dos variables, una dependiente y otra independiente y se representa así:

Y = f (X)

"Y está regresando por X"

La variable dependiente es la variable que se desea explicar, predecir. También se le llama


regresando o variable de respuesta.

La variable independiente x se le denomina variable explicativa o regresar y se le utiliza para


explicar y.
ANÁLISIS ESTADÍSTICO: REGRESIÓN LINEAL SIMPLE

En el estudio de la relación funcional entre dos variables poblacionales, una variable X, llamada
independiente, explicativa o de predicción y una variable Y, llamada dependiente o variable
respuesta, presenta la siguiente notación:

Y=a+bX+e

Donde:

 a es el valor de la ordenada donde la línea de regresión se intercepta con el eje Y.


 b es el coeficiente de regresión poblacional (pendiente de la línea recta)
 e es el error

Sólo se maneja una variable independiente, por lo que sólo cuenta con dos parámetros. Son de
la forma.

Dado el modelo de regresión simple anterior, si se calcula la esperanza (valor esperado) del
valor Y, se obtiene.

Obteniendo dos ecuaciones denominadas ecuaciones normales que generan la


siguiente solución para ambos parámetros:
SUPOSICIONES DE LA REGRESIÓN LINEAL

1. Los valores de la variable independiente X son fijos, medidos sin error.


2. La variable Y es aleatoria
3. Para cada valor de X, existe una distribución normal de valores de Y (subpoblaciones Y)
4. Las variancias de las subpoblaciones Y son todas iguales.
5. Todas las medias de las subpoblaciones de Y están sobre la recta.
6. Los valores de Y están normalmente distribuidos y son estadísticamente independientes

REGRESION LINEAL MULTIPLE

El Análisis de Regresión Lineal Múltiple nos permite establecer la relación que se produce
entre una variable dependiente Y y un conjunto de variables independientes (X1, X2, ... XK).
El análisis de regresión lineal múltiple, a diferencia del simple, se aproxima más a situaciones
de análisis real puesto que los fenómenos, hechos y procesos sociales, por definición, son
complejos y, en consecuencia, deben ser explicados en la medida de lo posible por la serie de
variables que, directa e indirectamente, participan en su concreción.

Al aplicar el análisis de regresión múltiple lo más frecuente es que tanto la variable


dependiente como las independientes sean variables continuas medidas en escala de intervalo
o razón. No obstante, caben otras posibilidades: (1) también podremos aplicar este análisis
cuando relacionemos una variable dependiente continua con un conjunto de variables
categóricas; (2) o bien, también aplicaremos el análisis de regresión lineal múltiple en el caso
de que relacionemos una variable dependiente nominal con un conjunto de variables continuas.

La anotación matemática del modelo o ecuación de regresión lineal múltiple es la que


sigue:

Y = a + b1x1 + b2x2 + ... + bnxn + e


presente = a + b1pasado + b2futuro + e

En donde:

Y es la variable a predecir; a, b1x1, b2x2... bnxn, son parámetros desconocidos a


estimar; y e es el error que cometemos en la predicción de los parámetros.

Al ocuparnos del análisis lineal bivariado, análisis de regresión simple, vimos como el
modelo final resultante podía ser calificado de un “buen modelo”. Sin embargo, en muchas
ocasiones los modelos bivariados o simples pueden verse mejorados al introducir una segunda
(tercera, cuarta,...) variable independiente o explicativa. Consideramos que un modelo de
regresión lineal simple se ha “mejorado” cuando al introducir en el mismo más variables
independientes la proporción de variabilidad explicada se incrementa. Pero ¿qué variables son
las que mejor explican el hecho, proceso o fenómeno social objeto de estudio?; o, ¿qué
variables no son necesario incluir en el modelo dada su nula o escasa capacidad explicativa?
Esta es, sin lugar a dudas, la decisión más importante ligada al análisis de regresión múltiple y
la inclusión de este proceso es lo que diferencia, sustancialmente, al análisis de regresión
múltiple del de regresión simple.

La regresión lineal permite trabajar con una variable a nivel de intervalo o razón. De la misma
manera, es posible analizar la relación entre dos o más variables a través de ecuaciones, lo que
se denomina regresión múltiple o regresión lineal múltiple.

Constantemente en la práctica de la investigación estadística, se encuentran variables que de


alguna manera están relacionadas entre sí, por lo que es posible que una de las variables pueda
relacionarse matemáticamente en función de otra u otras variables. Maneja varias variables
independientes. Cuenta con varios parámetros. Se expresan de la forma
La exposición de este capítulo se estructura en torno a los siguientes puntos, a saber:

1. Determinación de la bondad de ajuste de los datos al modelo de regresión lineal múltiple.

2. Elección del modelo que con el menor número de variables explica más la variable
dependiente o criterio. Para ello exponemos el proceso de “paso a paso” o stepwise.

3. Estimación de los parámetros de la ecuación y del modelo o ecuación predictiva.

4. Exposición de los pasos y Cuadro de Diálogo del Análisis de Regresión Lineal


(Múltiple) que podemos seguir para la obtención de los estadísticos y las pruebas
necesarias citadas en cada uno de los puntos precedentes.

Bibliografía
Altman DA. Practical statistics for medical research. 1th ed., repr. 1997. London: Chapman & Hall;
1997

Canavos, George C.; Probabilidad y Estadística. Aplicaciones y Métodos. McGraw-Hill. México. ISBN
9684518560.

Díaz-Agero, Coral (1999): “Indicadores sintéticos”, (en línea) (consultado el 4 de abril de 2001)

Devore, Jay L.; Probabilidad y Estadística para Ingeniería y Ciencias. International Thomson Editores.
México. ISBN 9706864571.

Etxebarría Murgiondo, J. Regresión Múltiple. Madrid: La Muralla; 1999

Kleinbaum D.G., Kupper L.L. Applied Regression Analysis and other Multivariable Methods. 3rd. ed.
Massachusetts: Duxbury Press; 1997

Snedecor G.W., Cochran W.G. Statistical Methods. 8th ed. Iowa State University Press; 1989.

Seber GAF. Linear Regression Analysis. New York: John Wiley & Sons; 1977.

Walpole, Ronald E.; Raymond, H.; Myers, Sharon L.; Probabilidad y Estadística para Ingenieros.
Prentice-Hall Hispanoamericana, S.A. México

Potrebbero piacerti anche