Sei sulla pagina 1di 19

TEMA: CONTRASTES ORTOGONALES Y COVARIANCIA.

INTRODUCCIÓN

El análisis de la varianza se convierte en la técnica más habitual cuando las variables explicativas son
categóricas y cuantitativas la variable explicada. Las variables independientes se denominan factores,
constan de dos o más niveles y pueden interactuar entre ellas. Esta técnica contrasta mediante el
análisis de la variabilidad si los valores medios de la variable dependiente difieren según las diferentes
combinaciones de factores e interacciones. Los experimentos factoriales pueden complicarse tanto
como se deseen e incorporar efectos aleatorios, multinivel, jerárquicos, anidados, fijos, etc. Existe
una amplia gama de situaciones que se presentan de forma habitual al realizar un experimento o
análisis.

Si bien el acercamiento básico al análisis de la varianza proviene de los contrastes de medias para dos
o más niveles, el enfoque más correcto nace desde el análisis de regresión. El análisis de la varianza
particulariza el modelo de regresión lineal cuando las variables independientes son cualitativas y la
independiente cuantitativa. Considerar esta situación desde los modelos de regresión permite al
investigador un estudio completo, detallado y sistematizado del experimento factorial.

Cuando en los modelos de regresión intervienen variables independientes cualitativas, el abordaje se


realiza mediante dos tipos de contrastes: los denominados a priori y los contrastes a posteriori. Si
bien a nivel matemático se establece un isomorfismo entre ambos enfoques por lo que son
equivalentes, a nivel práctico el investigador debe optar por uno de esos contrastes.

Los contrastes ortogonales, o a priori, se utilizan habitualmente en el ámbito de las Ciencias


Experimentales. Los factores intervienen en el modelo de forma controlada (por ejemplo, a un ratón
le inyectamos 100 gramos del compuesto I y a otro roedor 200 gramos) y se suele denominar Diseño
de Experimentos. Las principales ventajas de los contrastes ortogonales residen en que el orden de
los factores no influye en el modelo, éste adopta una única expresión (ortogonal) y resulta fácil
detectar qué factores o niveles influyen o no. El principal inconveniente consiste en que los
coeficientes del modelo han de interpretarse con precaución.

En el otro extremo aparecen los contrastes no ortogonales, o a posteriori, muy usuales en las Ciencias
Sociales. Estos estudios no disponen de condiciones controladas desde donde puedan observar las
reacciones de los sujetos entrevistados. En estos modelos el orden de los factores o variables
nominales que intervienen en el modelo sí importan, lo que conlleva a diferentes modelos
igualmente válidos. La principal ventaja en estos modelos surge que los coeficientes son muy fáciles
de interpretar.

OBJETIVOS:

 Determinar los parámetros de resolución del método Contrastes Ortogonales y Covariancia.


 Indagar sobre las restricciones, ventajas, desventajas, modelo matemático, cálculos de
análisis de varianza y ejemplos.

MARCO TEÓRICO

CONTRASTES ORTOGONALES

RESTRICCIONES

Los contrastes se utilizan mucho en métodos de comparación múltiple; el cual se estudiará a


continuación.

Supongamos que el factor que se está estudiando tiene cinco niveles (tratamientos) y al llevar a cabo
el Análisis de Varianza se rechaza Ho, con base a esta información es posible suponer que el
tratamiento uno y dos producen la misma diferencia.

Esto implica que es necesario probar las siguientes hipótesis:

Ho : μ1 = μ2

H1 : μ1 ≠ μ2

Estas hipótesis pueden ser probadas investigando una combinación lineal apropiada de los totales de
los tratamientos, por ejemplo:

y1. – y2. = 0

Por otro lado, si se suponen que el promedio de los tratamientos 1 y 3 no difieren del promedio de
los tratamientos 4 y 5, las hipótesis que deben probarse son:

Ho : μ1 + μ3 = μ4 + μ5

H1 : μ1 + μ3 ≠ μ4 + μ5

y esto implica la combinación lineal:

y1. + y3. – y4. – y5. = 0

La propiedad básica de las comparaciones ortogonales es que reflejan piezas de información


independientes y que el resultado de una comparación no tiene relación alguna con el resultado de
cualquier otra.

Bajo el supuesto de ortogonalidad, dos comparaciones son independientes cuando la suma de los
productos cruzados de los coeficientes es cero, es decir, la condición de ortogonalidad entre dos
comparaciones cumple la siguiente restricción:

(Σajak = 0)
VENTAJAS
 Es que con éstos se logra un control total al estimar los errores a y β.
 Mejor alternativa para sustituir las pruebas de comparaciones múltiples.
 Permite comparaciones entre medias individuales o entre grupos de medias, sobretodo, cua-
ndo se tiene algún criterio que permite separar los tratamientos en grupos lógicos.
 Reflejan piezas de información independientes y que el resultado de una comparación no
tiene relación alguna con el resultado de cualquier otra.
 Son independientes cuando la suma de los productos cruzados de los coeficientes es cero, es
decir, la condición de ortogonalidad entre dos comparaciones cumple la siguiente restricción.

DESVENTAJAS
 Se corre el riesgo de cometer más errores de Tipo I al asumir como verdadera la hipótesis de
nulidad; es decir, hay la posibilidad de realizar más rechazos falsos de la hipótesis de nulidad
o de no efectos. En línea con esa problemática, es conveniente distinguir dos tipos de errores:
Error de Tipo I por comparación (PC) y tasa de error por familia (PF). El error PC, simbolizado
por α, es la probabilidad de cometer un error de Tipo I por comparación.
 Si α es 0.05, la probabilidad es 0.05. Por el contrario, la tasa de error PF, αPF, es la
probabilidad de cometer uno o más errores de Tipo I en un conjunto de comparaciones. La
relación entre estos dos errores y la probabilidad de cometer al menos un error de Tipo I es:
αPF = 1 - (1 - α)c

CALCULO DE ANALISIS DE VARIANZA

Cinco hipótesis de nulidad para los contrastes ortogonales

1. H0 = μ2 - μ1 = 0

Dos lecturas de la lista (condición A2) no difieren de una sola lectura (condición A1).

3. H0 = 2μ3 – (μ1 + μ2) = 0

Se establece la igualdad entre tres lecturas y el promedio entre una y dos lecturas.

5. H0 = 3μ4 - (μ1 + μ2 + μ3)= 0

Se define la igualdad entre cuatro lecturas y el promedio de las restantes.

Coeficientes de los contrastes ortogonales


Supuesto de ortogonalidad entre dos contrastes

Ejemplo: entre el contraste uno y dos:

(-1)(-1) + (1)(-1) + (0)(2) + (0)(0) = 0

Suma de cuadrados del contraste

Sumas de cuadrados

5[(-1)2.4 + (1)5.0 + (0)6.6 + (0)8.2]²

SCC1 = ------------------------------------------------- = 16.90

5[(-1)2.4 + (-1)5.0 + (2)6.6 + (0)8.2]²

SCC2 = --------------------------------------------------- = 28.03

5[(-1)2.4 + (-1)5.0 + (-1)6.6 + (3)8.2]²

SCC3 = ------------------------------------------------------ = 46.82

12

=======

SCA: 91.75

Razones F

16.90

F1 = ------------ = 11.66

1.45

28.03
F2 = ------------ = 19.33

1.45

46.28

F3 = ----------- = 32.39

1.45

Valor teórico de F

Entrando en la tabla de la distribución F, el valor teórico del estadístico es F0.95(1/16) = 4.49

Características de los contrastes ortogonales

Una propiedad característica de las comparaciones ortogonales es la descomposición de la Suma de


Cuadrados de tratamientos del ANOVA en tantos componentes ortogonales (independientes) como
grados de libertad de esa fuente de variación (se dispone de un grado de libertad por componente).

Siguiendo con el ejemplo propuesto, la Suma de Cuadrados de tratamientos, SCA, tiene a - 1 grados
de libertad y, como consecuencia, tres componentes ortogonales (siendo a igual a cuatro).

Propiedades de los contrastes ortogonales

EJEMPLO:

Se supone que la cantidad de carbón usada en la producción de acero tiene un efecto en su


resistencia a la tensión. En la tabla se muestran los valores de la resistencia a la tensión del acero para
cada uno de los 4 diferentes porcentajes de carbón. Con estos datos efectúe el análisis apropiado e
interprete sus resultados.
Solución.
Variable Respuesta: Resistencia a la tensión.
Las hipótesis que se desean probar son:
Ho : μ1 = μ2 = μ3 = μ4 (Las medias son iguales)
H1 : μ1 ≠ μ2 ≠ μ3 ≠ μ4 (Las medias son diferentes)

El significado verbal es:


Ho : La cantidad de carbón usada en la producción de acero no tiene efecto significativo en la
resistencia a la tensión.
H1 : La cantidad de carbón usada en la producción de acero tiene efecto significativo en la resistencia
a la tensión.

Datos
a = 4 , n = 4 , N = 16 , i = 1,2,3,4 , j = 1,2,3,4

Cálculos Matemáticos
Totales

Medias de los Tratamientos

Sumas de Cuadrados
Medias de Cuadrados

Estadística

Utilizando un nivel de significancia del 5% ( = 0.05), para encontrar el FTablas (Tablas Fisher) con 3
grados de libertad (a-1) en el numerador y 12 grados de libertad (N-a) en el denominador.

F,a-1,N-a =F0.05,3,12 = 3.49


Comparando el F0 calculado en el análisis de varianza y el FTablas , se puede observar que:
F0 > FTablas
15.41 > 3.49

Por tanto, se Rechaza la hipótesis nula (H0) y se acepta la hipótesis alternativa (H1); es decir, que las
medias de los tratamientos difieren.

También se puede observar gráficamente, de la siguiente manera:

Se observa que el valor de F0 cae en la zona de rechazo de H0.

Conclusión
Se concluye que la cantidad de carbón usada en la producción de acero tiene efectos significativos en
la resistencia a la tensión.

Como se ha rechazado H0, existe diferencia entre las medias de los tratamientos, pero no se
especifica entre que medias de tratamientos existen las diferencias.

Se podría estar interesado en querer saber entre que medias de tratamientos existe diferencia, para
ello se utilizará el método de contrastes ortogonales para contestar esta inquietud.

1. Se definen las 4 – 1 = 3 hipótesis.

2. Un conjunto de comparaciones entre medias y los contrastes ortogonales son:


3. Cálculo de los contrastes.

4. Cálculo de la Suma de cuadrados de los contrastes.

5. Tabla de Análisis de Varianza con los contrastes

6. Análisis de los resultados de los contrastes.

Utilizando un nivel de significancia del 5% ( = 0.05), para encontrar el FTablas (Tablas Fisher) con 1
grado de libertad en el numerador y 12 grados de libertad (N-a) en el denominador.

F,1,N-a =F0.05,1,12 = 4.75

Al comparar el F0 obtenido en cada uno de los contrastes del análisis de varianza con el FTablas; se
llega a las siguientes conclusiones:
a) El valor del F0 del contraste 1 es mayor que el FTablas (5.81 >4.75) entonces se Rechaza
H0, y por lo tanto, hay diferencia significativa entre los porcentajes de carbón uno y dos.

b) Como el F0 del contraste tres es menor que FTablas (1.12 < 4.75) se acepta H0; y por lo tanto,
no hay diferencia significativa entre los porcentajes de carbón tres y cuatro.

c) Al comparar el valor de F0 del contraste dos con el FTablas se observa que el F0 es mayor
(39.31 > 4.75) entonces se Rechaza H0; y por lo tanto, se dice que el promedio de los
porcentajes de carbón uno y dos difieren significativamente del promedio de los porcentajes
de carbón tres y cuatro.

7. Método de Scheffé para comparar todos los contrastes.

Existen situaciones en que el investigador no sabe de antemano los contrastes que desea comparar, o
le interesa llevar a cabo más de a-1 posibles comparaciones. Estas comparaciones de interés en
muchos experimentos son descubiertas sólo hasta después de hacer un examen preliminar de los
datos.

Scheffé hizo una propuesta de un método para comparar cualquier contraste, o los posibles
contrastes entre medias de tratamientos. Con este método en cualquiera de las posibles
comparaciones el error tipo I es cuando mucho igual a α.
Supongamos que existe un conjunto de m contrastes de interés de las medias de tratamientos.

Wk = C1kμ1 + C2kμ2 + C3kμ3 +………..+Cakμa , con k = 1,2,….,m, estos contrastes usando los
promedios de tratamientos ӯi son:
Ck = C1k 1. y + C2k 2. y + C3k 3. y +………..+Cak a. y con k = 1,2,….,m

El error estándar de estos contrastse viene dado por:

El valor crítico con el que Ck debe ser comparado es:

Para llegar a probar la hipótesis de que el contraste Ck difiere significativamente de cero, es necesario
comparar Ck con el valor crítico. Si _Ck_ > S,k, la hipótesis nula de que el contraste Wk es igual a cero
debe rechazarse.
Este método de Scheffé se puede utilizar para construir intervalos de confianza para todos los
posibles contrastes de las medias de tratamientos; los cuales pueden ser construidos como Ck - S,k _
Wk _ Ck + S,k , estos son intervalos de confianza simultáneos; en el sentido de que la probabilidad de
que todos ellos sean simultáneamente verdaderos es al menos 1 - α.

El procedimiento para llevar a cabo la comparación de medias por medio del método de Scheffé es el
siguiente:
• Definir los contrastes de interés.
• Calcular los valores numéricos de los contrastes.
• Calcular el error estándar para cada contraste.
• Encontrar los valores críticos.
• Realizar las conclusiones.

COVARIANCIA

Entre las diferentes aplicaciones que puede tener el Análisis de Covariancia – ANCOVA – se destaca su
uso en el control del error, lo cual aumenta la precisión con que se mide un experimento; también,
permite ajustar las medidas de tratamientos, logrando así una mejor interpretación de los datos y del
efecto de los tratamientos. Lo anterior se consigue al eliminar, por progresión, ciertos efectos de los
tratamientos que no pueden ser o no han sido controlados en el experimento. Estos efectos
indirectos de los tratamientos, se miden con una variación adicional en X la cual contribuye a la
variación en Y. así la covariancia controla la varianza del error mediante el uso de la covariable (X).

Para ilustrar el aporte de una covariable en el efecto de los tratamientos, haremos relación a un
experimento de nutrición animal, en el cual se ensayan diferentes raciones. Si al momento de iniciar
este experimento, no contamos con animales experimentales del mismo peso inicial y éste está
correlacionado con la ganancia de peso (variable respuesta del tratamiento) esta falta provoca un
incremento de error en el verdadero efecto de los tratamientos. En estos casos, el ANCOVA permite
calcular y eliminar esta porción del error experimental, generada por la ganancia de peso atribuida al
peso inicial de los animales.
En experimentos de nutrición animal, las diferencias detectadas entre medias de tratamientos
pueden ser provocadas por sus diferencias en el valor nutritivo, a las diferencias en las cantidades
consumidas, o a ambas. Si por covariancia, las diferencias de rendimientos medios observados se
ajustan sobre el consumo de una ración común, entonces, las medias ajustadas indicarán el
verdadero efecto de los tratamientos.

VENTAJAS

 Indica el grado de variación conjunta de dos variables aleatorias.


 Determinar si existe una dependencia entre ambas variables y además es el dato necesario
para estimar otros parámetros básicos, como el coeficiente de correlación lineal o la recta de
regresión.
 Permite que las dos variables están variando conjuntamente, y en el mismo sentido, cuando al
crecer los valores de una de las variables también aumentan los de la otra.
 Devuelve la covariancia de la muestra, o promedio de los productos de las desviaciones para
cada pareja de puntos de datos en dos conjuntos de datos.
 Eliminar cualquier error sistemático fuera del control del investigador que puede sesgar los
resultados
 Tener en cuenta las diferencias en las respuestas debidas a las características propias de los
encuestados. Un sesgo sistemático puede ser eliminado por medio de la asignación aleatoria
de los encuestados a varios tratamientos.

DESVENTAJAS

 Covariancia es negativa, la covariación de ambas variables será en sentido inverso.


 Si la covariancia es cero no hay una covariación clara en ninguno de los dos sentidos.
 La medida de asociación es que su valor depende de las unidades en que se miden las
variables de interés.
 No permite ajustar medias de tratamientos de la variable dependiente a las diferencias en
conjuntos de valores de variables independientes correspondientes.

MODELO MATEMÁTICO

El modelo de la covariancia, representa el modelo lineal aditivo del análisis de varianza del diseño
experimental que se esté utilizando más un componente adicional para la variable concomitante o
independiente. Para un DBCR tendremos:

Yij= µ + τi + βj + b(xij - x….) + Ɛij

Dónde:
y= variable dependiente o de respuesta
x= covariable o variable independiente
b= pendiente de la regresión lineal

Este modelo igualmente, se resuelve por la suma de cuadrados tal como fue explicado en el
Análisis de Varianza.

Los supuestos de la covariancia son:


 Los X son fijos (se repiten), medidos sin error e independientes de los tratamientos.
 La regresión de Y respecto a X, después de eliminar diferencias de bloques y
tratamientos es lineal e independiente de estos factores.
 Los errores se distribuyen normal e independientemente con medida cero y varianza
común.

CALCULO DE ANALISIS DE VARIANZA


Esquema de análisis de covariancia en un diseño de bloques completos al azar
ANOVA SUMA DE PRODUCTOS Y CUADRADOS COVARIANZA – ANOVA AJUSTADO–

Fuentes g.l. SCY SPXY SCX g.l. SCY,ajustados CM ajustados

Total rt – 1 ∑(𝑦𝑖𝑡 − 𝑌̅. . )2 ∑(𝑥𝑖𝑡 − 𝑋̅. . )(𝑦𝑖𝑡 − 𝑌̅. . ) ∑(𝑥𝑖𝑗 − 𝑋̅. . )2

Bloques r -1 𝑡 ∑(𝑦𝑖 − 𝑌̅. . )2 ∑(𝑋.𝑡 − 𝑋̅. . )(𝑌.𝑡 − 𝑌̅. . ) 𝑡 ∑(𝑋𝑡 − 𝑋̅. . )2 r-1 𝐶−𝐴

Tratamientos t–1 𝑟 ∑(𝑦𝑡 − 𝑌̅. . )2 ∑(𝑋𝑡 − 𝑋̅. . )(𝑌𝑡 − 𝑌̅. . ) 𝑟 ∑(𝑋𝑖 − 𝑋̅. . )2 t-1 𝐵−𝐴
Diferencia Diferencia Diferencia 𝑎22 2 1
Error (r - 1)(t - 1) (r - 1)(t - 1) -1 𝐴 = 𝑎1 − 𝑆𝑌𝑋
(a1) (a2) (a3) 𝑎3
Covariable 1 𝑎1 − 𝐴
𝑆𝐶(𝑌.𝑇𝑟𝑎𝑡+𝐸𝑟𝑟𝑜𝑟) 𝑆𝑃(𝑋𝑌.𝑇𝑟𝑎𝑡+𝐸𝑟𝑟𝑜𝑟) 𝑆𝐶(𝑋.𝑇𝑟𝑎𝑡+𝐸𝑟𝑟𝑜𝑟) 𝑏22
Tratam + error r(t - 1) (b1) r(t - 1) - 1 𝐵 = 𝑏1 −
(b2) (b3) 𝑏3
𝑆𝐶(𝑌.𝐵𝑙𝑜𝑞+𝐸𝑟𝑟𝑜𝑟) 𝑆𝑃(𝑋𝑌.𝐵𝑙𝑜𝑞+𝐸𝑟𝑟𝑜𝑟) 𝑆𝐶(𝑋.𝐵𝑙𝑜𝑞+𝐸𝑟𝑟𝑜𝑟) 𝑐22
Bloques + error t(r - 1) (c1) t(r - 1) - 1 𝐶 = 𝑐1 −
(c2) (c1) 𝑐3
1 2
𝑆𝑌𝑋 = error estándar de la estima o variancia residual

FORMULAS DESARROLLADAS: Eq. (15.2 – 15.10)

2
(∑ 𝑦𝑖𝑗 )2 ∑ 𝑥𝑖𝑗 ∑ 𝑦𝑖𝑗
2
(∑ 𝑥𝑖𝑗 )2
𝑆𝐶𝑌.𝑇𝑜𝑡𝑎𝑙 = ∑ 𝑦𝑖𝑗 − 𝑆𝑃𝑋𝑌.𝑇𝑜𝑡𝑎𝑙 = ∑ 𝑥𝑖𝑗 𝑦𝑖𝑗 − 𝑆𝐶𝑋.𝑇𝑜𝑡𝑎𝑙 = ∑ 𝑥𝑖𝑗 −
𝑟𝑡 𝑟𝑡 𝑟𝑡

∑ 𝑦.𝑗2 (∑ 𝑦𝑖𝑗 )2 ∑ 𝑋𝑖 𝑌𝑗 ∑ 𝑥𝑖𝑗 ∑ 𝑦𝑖𝑗 ∑ 𝑋.𝑗2 (∑ 𝑥𝑖𝑗 )2


𝑆𝐶𝑌.𝐵𝑙𝑜𝑞𝑢𝑒𝑠 = − 𝑆𝑃𝑋𝑌.𝐵𝑙𝑜𝑞𝑢𝑒𝑠 = − 𝑆𝐶𝑋.𝐵𝑙𝑜𝑞𝑢𝑒𝑠 = −
𝑡 𝑟𝑡 𝑡 𝑟𝑡 𝑡 𝑟𝑡

∑ 𝑦𝑖.2 (∑ 𝑦𝑖𝑗 )2 ∑ 𝑋𝑖 𝑌𝑗 ∑ 𝑥𝑖𝑗 ∑ 𝑦𝑖𝑗 ∑ 𝑋𝑖.2 (∑ 𝑥𝑖𝑗 )2


𝑆𝐶𝑌.𝑇𝑟𝑎𝑡 = − 𝑆𝑃𝑋𝑌.𝑇𝑟𝑎𝑡 = − 𝑆𝐶𝑋.𝑇𝑟𝑎𝑡 = −
𝑟 𝑟𝑡 𝑟 𝑟𝑡 𝑟 𝑟𝑡
Ejemplo. En un experimento para probar la eficacia de 5 dietas en 4 bloques (lotes de animales) se midió,
además del efecto de las dietas (Y = ganancia de peso), el consumo de alimento (X = covariable). Realizar
el análisis de covariancia para los resultados siguientes:

Datos sobre ganancia de peso y consumo de alimento


BLOQUES Total
1 2 3 4 Tratamientos
TRAT. X Y X Y X Y X Y Xi. Yi.
4

1 307.3 20.5 393.3 38.4 355.2 30.4 345.1 25.1 1400.9 114.4
2 402.2 38.3 405.2 42.1 388.7 35.2 388.4 40.5 1584.5 156.1
3 342.4 24.6 350.4 25.1 323.2 24.1 302.3 20.1 1318.3 93.9
4 375.7 32.1 381.5 34.4 302.1 21.4 350.9 30.2 1410.2 118.1
5 305.2 27.6 353.1 29.6 377.3 32.1 382.5 32.8 1418.1 122.1
Total Bloq. 5 20 X.. Y..
X.j Y.j 1732.8 143.1 1883.5 169.6 1746.5 143.2 1769.2 148.7 7132 604.6

Cálculos básicos:

1. FCY = 604.62/20 = 18277.06


2. SCY.Tot = (20.52+38.42+……+32.82) – 18277.06 = 19115.5 – 18277.06 = 838.44
3. SCY.Bloq = (143.12+169.62+143.22+148.72)/5 – 18277.06 = 18371.94 – 18277.06 = 94.88
4. SCY.Trat= (114.42+156.12+…..+122.12)/4 – 18277.06 = 18781.95 – 18277.06 = 504.89
5. SCY.Error = 838.44 – 94.88 – 504.89 = 238.67

6. FCXY = (7132)(604.6)/20 = 215600.36


7. SPXY.Tot = [307.3(20.5)+…+382.5(32.8)] – 215600.36 = 219599.8 – 215600.36 = 3999.45
8. SPXY,Bloq = [1732.8(143.1)+…+1769.2(148.7)]/5 – 215600.36 = 216116.82 -215600.36 = 516.46
9. SPXY,trat = [1400.9(114.4)+…+1418.1(122.1)]/4 – 215600.36 = 217771.6 – 215600.36 = 2171.24
10. SPXY,Error = 3999.45 – 516.46 – 2171.24 = 1311.75

11. FCX = 71322/20 = 2543271.2


12. SCX.Tot = (307.32+402.22+……+382.52) – 2543271.2 = 2565710.96 – 2543271.2 = 22439.76
13. SCX.Bloq = (1732.82+1883.52+….+1769.22)/5 – 2543271.2 = 2546099.8 – 2543271.2 = 2828.6
14. SCX.Trat= (1400.92+1584.52+…..+1418.12)/4 – 2543271.2 = 2552686.9 – 2543271.2 = 9415.7
15. SCX.Error = 22439.76 – 2828.6 – 9415.7 = 10185.46

Resultados del análisis de covariancia – ANOVA –


Fuentes de
g.l. SCy SPXY SCX g.l. SCy,ajust. CMajust. F
variación
Total 19 838.44 3999.45 22439.76
Bloques 3 94.88 516.46 2828.60 3 7.02 c 2.34 0.37
Tratamientos 4 504.89 2171.24 9415.70 4 55.07 b 13.77 2.17 NS
Error 12 238.67 1311.75 10195.46 11 69.90 6.35
Covariable 1 168.77 a 168.77 26.58**
Tratam+Error 16 743.56 3482.99 19611.16 15 124.97
Bloques+Error 15 333.55 1828.21 13024.06 14 76.92
a b c
238.67-69.90 = 168.77 124.97-69.90 = 55.07 76.92-69.90 = 7.02
El Análisis de Covariancia, a través del ajuste del Cuadrado medio de tratamientos, en este caso, ha demostrado no
significación sobre la diferencia entre tratamientos, los cuales han sido evaluados con alta significación en el Análisis
de Variancia:

504.89⁄4
𝐹= = 6.35∗∗ (𝑝 = 0.0055)
238.67⁄12

La F no significativa para media ajustadas (F = 2.17NS) demuestra que no existen diferencias verdaderas entre las
medidas de tratamiento para Y cuando se ajustan por X. Esto prueba que las diferencias entra las medias no
ajustadas reflejan, en gran medida, diferencias en el consumo y no precisamente por efecto de las dietas solamente,
es decir, a un consumo de alimento común. Si se hubiera detectado significación para las medias ajustadas por
covariancia, entonces se habría concluido que las diferencias entre los tratamientos son reales.

Procedimiento de ajuste de medidas de tratamientos

Para este propósito se usa la siguiente fórmula:

𝑌̅̂𝑡. = 𝑌̅𝑡 − 𝑏𝑦𝑥 (𝑋̅𝑖 − 𝑋̅)

Donde:

𝑏𝑦𝑥 = 𝑏 = 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑑𝑒 𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 𝑑𝑒𝑙 𝑒𝑟𝑟𝑜𝑟

A continuación, el siguiente cuadro se observa el ajuste de las medias del ejemplo anterior:

Ajuste de medidas de tratamientos


TRAT. 𝑌̅𝑡 𝑋̅𝑡 𝑋̅𝑖 − 𝑋̅.. 𝑏𝑦𝑥 (𝑋̅𝑡 − 𝑋̅.. ) 𝑌̅̂𝑡. = 𝑌̅𝑡 − 𝑏𝑦𝑥 (𝑋̅𝑖 − 𝑋̅)
1 28.60 350.23 - 6.37 - 0.83 29.43
2 39.03 396.13 39.53 5.14 33.89
3 23.48 329.13 - 27.02 - 3.51 26.99
4 29.53 352.55 - 4.05 - 0.53 30.06
5 30.53 354.53 -2.07 - 0.27 30.80
𝑆𝑃𝑋𝑌.𝐸𝑟𝑟𝑜𝑟 1311.75
𝑋̅.. = 356.6 𝑏= = = 0.1287
𝑆𝑃𝑋.𝐸𝑟𝑟𝑜𝑟 10195.46

Los errores estándar de la diferencia entre dos medias de tratamiento ajustados, con igual tamaño y diferente
tamaño muestral, respectivamente se determinan por:

2 (𝑋̅𝑖 − 𝑋̅𝑡 )2
𝑆∧ = 𝑆𝑦𝑥 √ +
𝑑 𝑟 𝑆𝐶𝑥. 𝑒𝑟𝑟𝑜𝑟

1 1 (𝑋̅𝑖 − 𝑋̅𝑡 )2
𝑆 ∧ = 𝑆𝑦𝑥 √ + +
𝑑 𝑟1 𝑟1 𝑆𝐶𝑥. 𝑒𝑟𝑟𝑜𝑟

Donde: 𝑆𝑦𝑥 = √𝐶𝑀𝑒𝑟𝑟𝑜.𝑎𝑗𝑢𝑠𝑡𝑎𝑑𝑜


CONCLUSIONES:

Las comparaciones ortogonales son aquellas que reflejan piezas de información independientes y que el
resultado de una comparación no tiene relación alguna con el resultado de cualquier otra.

Destacamos su uso en el control del error, lo cual aumenta la precisión con que se mide un experimento;
también, permite ajustar las medidas de tratamientos, logrando así una mejor interpretación de los datos
y del efecto de los tratamientos.

BIBLIOGRAFÍA:

CONTRASTES ORTOGONALES. http://uce.uniovi.es/cursolineal/Informese5.html

CONTRASTES ORTOGONALES. http://es.scribd.com/doc/14590547/7/Contrastes-Ortogonales

SÁNCHEZ – OTERO, Julio. INTRODUCCIÓN AL DISEÑO EXPERIMENTAL. “Análisis de Covariancia” Quito –


Ecuador. Edición 2006. Páginas: 126 – 129.
CUESTIONARIO
GRUPO N° 5

TEMA: CONTRASTES ORTOGONALES Y COVARIANCIA

1. Ponga la fórmula de Suma de cuadrados del contraste:

2. Ponga una característica de los contrastes ortogonales

Una propiedad característica de las comparaciones ortogonales es la descomposición de la Suma


de Cuadrados de tratamientos del ANOVA en tantos componentes ortogonales (independientes).

3. ¿Cuál es el modelo matemático de la Covariancia?

Yij= µ + τi + βj + b(xij - x….) + Ɛij

Dónde:

y= variable dependiente o de respuesta


x= covariable o variable independiente
b= pendiente de la regresión lineal

4. ¿Cuáles son los supuestos de la covariancia?

 Los X son fijos (se repiten), medidos sin error e independientes de los tratamientos.
 La regresión de Y respecto a X, después de eliminar diferencias de bloques y tratamientos es
lineal e independiente de estos factores.
 Los errores se distribuyen normal e independientemente con medida cero y varianza común.

5. Subraye la respuesta correcta

Ventajas de los contrastes ortogonales:

a) Mejor alternativa para sustituir las pruebas de comparaciones múltiples


b) Devuelve la covarianza de la muestra, o promedio de los productos de las desviaciones
para cada pareja de puntos de datos en dos conjuntos de datos.
c) Son independientes cuando la suma de los productos cruzados de los coeficientes es cero,
es decir, la condición de ortogonalidad entre dos comparaciones cumple la siguiente
restricción.

6. Escriba verdadero o falso según corresponda

Desventajas de Covariancia

 Si la covarianza es cero no hay una covariación clara en ninguno de los dos sentidos. (V)
 Independientes cuando la suma de los productos cruzados de los coeficientes es cero, es decir, la
condición de ortogonalidad entre dos comparaciones cumple la siguiente restricción. (F)
 No permite ajustar medias de tratamientos de la variable dependiente a las diferencias en
conjuntos de valores de variables independientes correspondientes. (V)

7. Cuáles son las ventajas de Covarianza

 Indica el grado de variación conjunta de dos variables aleatorias.


 Determinar si existe una dependencia entre ambas variables y además es el dato necesario para
estimar otros parámetros básicos, como el coeficiente de correlación lineal o la recta de
regresión.
 Permite que las dos variables están variando conjuntamente, y en el mismo sentido, cuando al
crecer los valores de una de las variables también aumentan los de la otra.

Potrebbero piacerti anche