0 valutazioniIl 0% ha trovato utile questo documento (0 voti)
38 visualizzazioni3 pagine
Este documento explica los supuestos de la regresión lineal y la prueba chi-cuadrada. Define los grados de libertad y cómo se usan para especificar distribuciones como t, F o chi-cuadrada. Luego describe los supuestos de linealidad, independencia de residuos, residuos constantes y normalidad de residuos para la regresión lineal. Finalmente, explica qué es una prueba chi-cuadrada y cómo se usa para probar el ajuste de datos a distribuciones teóricas y la asociación entre variables.
Este documento explica los supuestos de la regresión lineal y la prueba chi-cuadrada. Define los grados de libertad y cómo se usan para especificar distribuciones como t, F o chi-cuadrada. Luego describe los supuestos de linealidad, independencia de residuos, residuos constantes y normalidad de residuos para la regresión lineal. Finalmente, explica qué es una prueba chi-cuadrada y cómo se usa para probar el ajuste de datos a distribuciones teóricas y la asociación entre variables.
Este documento explica los supuestos de la regresión lineal y la prueba chi-cuadrada. Define los grados de libertad y cómo se usan para especificar distribuciones como t, F o chi-cuadrada. Luego describe los supuestos de linealidad, independencia de residuos, residuos constantes y normalidad de residuos para la regresión lineal. Finalmente, explica qué es una prueba chi-cuadrada y cómo se usa para probar el ajuste de datos a distribuciones teóricas y la asociación entre variables.
cantidad de información suministrada por los datos que usted puede "gastar" para estimar los valores de parámetros de población desconocidos y calcular la variabilidad de esas estimaciones. Este Distribuciones de chi-cuadrada con diferentes grados de libertad valor se determina según el número de observaciones de la muestra y el número La distribución de la línea de trazo continuo de parámetros del modelo. tiene 3 grados de libertad. La distribución de la línea de trazo interrumpido tiene 15 grados de Si incrementa el tamaño de la muestra, libertad.
obtendrá más información sobre la
población y, por consiguiente, los grados de libertad de los datos aumentarán. Si Supuestos en Regresión agrega parámetros al modelo (por Lineal ejemplo, aumentando el número de términos en una ecuación de regresión), Para validar si un modelo de regresión lineal es bueno, existen algunos "supuestos" estadísticos "gastará" información de los datos y (o assumption en ingles) que el modelo debe reducirá los grados de libertad disponibles cumplir. Estos son algunos: para estimar la variabilidad de las estimaciones de parámetros. SUPUESTO DE LINEALIDAD Existe linealidad si se presenta una relación significativa entre la variable que se quiere Los grados de libertad también se utilizan predecir y las otras variables. Puede usarse el para caracterizar una distribución coeficiente "R cuadrado ajustado", para saber si existe linealidad (mayor o igual a 0.7 suele ser específica. Muchas familias de "indicio" de linealidad) distribuciones, como t, F o chi-cuadrada, utilizan los grados de libertad para especificar cuál distribución t, F o chi- cuadrada específica es apropiada para diferentes tamaños de muestra y diferentes números de parámetros del modelo. Por ejemplo, la siguiente figura muestra las diferencias entre distribuciones de chi-cuadrada con diferentes grados de libertad. Este supuesto asume que los residuos deben presentar una distribución normal, y la ausencia de normalidad supone poca precisión en los intervalos de confianza creados por el modelo.
Otras pruebas para validar el supuesto de
SUPUESTO DE INDEPENDENCIA DE normalidad son: prueba de asimetría y kurtosis, LOS RESIDUOS prueba de chi-cuadrado, prueba de residuos Este supuesto asume que los residuos no están estandarizados, prueba de Kolmogorov- auto-correlacionados, por lo cual son Smirnov-Liliefors, etc.. independientes. La autocorrelacion es cuando el residuo en la predicción de un valor es afectado por el residuo en la predicción del valor más ¿Qué prueba chi-cuadrada? cercano. Esta autocorrelacion suele presentarse en series de tiempo. Una prueba de chi-cuadrada es una prueba de hipótesis que compara la distribución Para validar la independencia de los residuos observada de los datos con una distribución puede usarse el test durbin-watson, cuyo esperada de los datos. resultado estará cerca de 2 cuando los residuos son independientes. Si el valor está entre 1.5 y Existen varios tipos de pruebas de chi- 2.5 puede concluirse que no existe dependencia de los residuos. cuadrada: Prueba de bondad de ajuste de chi-cuadrada SUPUESTO DE RESIDUOS CONSTANTE Este supuesto asume que los residuos en las Utilice este análisis para probar qué tan predicciones son constantes en cada predicción (es decir, varianza constante). Este supuesto bien una muestra de datos categóricos se valida que los residuos no aumenta ni disminuye ajusta a una distribución teórica. cuando se predicen valores cada vez más altos o más pequeños. A esta constancia en los errores Por ejemplo, usted puede comprobar si un de predicción le dicen "homocedasticidad", y dado es justo, lanzando el dado muchas cuando los errores varían, le dicen veces y utilizando una prueba de bondad de "heterocedasticidad". ajuste de chi-cuadrada para determinar si los resultados siguen una distribución uniforme. En este caso, el estadístico de chi-cuadrada cuantifica qué tanto varía la distribución observada de los conteos con respecto a la distribución hipotética. Pruebas de chi-cuadrada de asociación e independencia Los cálculos para estas pruebas son iguales, pero la pregunta que se está tratando de SUPUESTO DE NORMALIDAD DE contestar puede ser diferente. RESIDUOS Prueba de asociación: Utilice una prueba de asociación para determinar si una variable está asociada a otra variable. Por ejemplo, determine si las ventas de diferentes colores de automóviles dependen de la ciudad donde se venden. Prueba de independencia: Utilice una prueba de independencia para determinar si el valor observado de una variable depende del valor observado de otra variable. Por ejemplo, determine si el hecho de que una persona vote por un candidato no depende del sexo del elector. Hipotesis de chi- cudrado NULA (H0): Es aquella en la que se asegura que los dos parámetros analizados son independientes uno del otro. ALTERNATIVA (H1): Es aquella en la que se asegura que los dos parámetros analizados sí son dependientes. Referencia http://www.ub.edu/aplica_infor/spss/cap5- 2.htm https://es.slideshare.net/armando310388/pr ueba-chicuadrado http://apuntes- r.blogspot.com.co/2015/04/supuestos-en- regresion-lineal.html