TEMA: CONTRASTES ORTOGONALES Y COVARIANCIA.
INTRODUCCIÓN
El análisis de la varianza se convierte en la técnica más habitual cuando las variables explicativas son
categóricas y cuantitativas la variable explicada. Las variables independientes se denominan factores,
constan de dos o más niveles y pueden interactuar entre ellas. Esta técnica contrasta mediante el
análisis de la variabilidad si los valores medios de la variable dependiente difieren según las diferentes
combinaciones de factores e interacciones. Los experimentos factoriales pueden complicarse tanto
como se deseen e incorporar efectos aleatorios, multinivel, jerárquicos, anidados, fijos, etc. Existe una
amplia gama de situaciones que se presentan de forma habitual al realizar un experimento o análisis.
Si bien el acercamiento básico al análisis de la varianza proviene de los contrastes de medias para dos
o más niveles, el enfoque más correcto nace desde el análisis de regresión. El análisis de la varianza
particulariza el modelo de regresión lineal cuando las variables independientes son cualitativas y la
independiente cuantitativa. Considerar esta situación desde los modelos de regresión permite al
investigador un estudio completo, detallado y sistematizado del experimento factorial.
Cuando en los modelos de regresión intervienen variables independientes cualitativas, el abordaje se
realiza mediante dos tipos de contrastes: los denominados a priori y los contrastes a posteriori. Si
bien a nivel matemático se establece un isomorfismo entre ambos enfoques por lo que son
equivalentes, a nivel práctico el investigador debe optar por uno de esos contrastes.
Los contrastes ortogonales, o a priori, se utilizan habitualmente en el ámbito de las Ciencias
Experimentales. Los factores intervienen en el modelo de forma controlada (por ejemplo, a un ratón
le inyectamos 100 gramos del compuesto I y a otro roedor 200 gramos) y se suele denominar Diseño
de Experimentos. Las principales ventajas de los contrastes ortogonales residen en que el orden de
los factores no influye en el modelo, éste adopta una única expresión (ortogonal) y resulta fácil
detectar qué factores o niveles influyen o no. El principal inconveniente consiste en que los
coeficientes del modelo han de interpretarse con precaución.
En el otro extremo aparecen los contrastes no ortogonales, o a posteriori, muy usuales en las Ciencias
Sociales. Estos estudios no disponen de condiciones controladas desde donde puedan observar las
reacciones de los sujetos entrevistados. En estos modelos el orden de los factores o variables
nominales que intervienen en el modelo sí importan, lo que conlleva a diferentes modelos
igualmente válidos. La principal ventaja en estos modelos surge que los coeficientes son muy fáciles
de interpretar.
OBJETIVOS:
Determinar los parámetros de resolución del método Contrastes Ortogonales y Covariancia.
Indagar sobre las restricciones, ventajas, desventajas, modelo matemático, cálculos de
análisis de varianza y ejemplos.
MARCO TEÓRICO
CONTRASTES ORTOGONALES
RESTRICCIONES
Los contrastes se utilizan mucho en métodos de comparación múltiple; el cual se estudiará a
continuación.
Supongamos que el factor que se está estudiando tiene cinco niveles (tratamientos) y al llevar a cabo
el Análisis de Varianza se rechaza Ho, con base a esta información es posible suponer que el
tratamiento uno y dos producen la misma diferencia.
Esto implica que es necesario probar las siguientes hipótesis:
Ho : μ1 = μ2
H1 : μ1 ≠ μ2
Estas hipótesis pueden ser probadas investigando una combinación lineal apropiada de los totales de
los tratamientos, por ejemplo:
y1. – y2. = 0
Por otro lado, si se suponen que el promedio de los tratamientos 1 y 3 no difieren del promedio de
los tratamientos 4 y 5, las hipótesis que deben probarse son:
Ho : μ1 + μ3 = μ4 + μ5
H1 : μ1 + μ3 ≠ μ4 + μ5
y esto implica la combinación lineal:
y1. + y3. – y4. – y5. = 0
La propiedad básica de las comparaciones ortogonales es que reflejan piezas de información
independientes y que el resultado de una comparación no tiene relación alguna con el resultado de
cualquier otra.
Bajo el supuesto de ortogonalidad, dos comparaciones son independientes cuando la suma de los
productos cruzados de los coeficientes es cero, es decir, la condición de ortogonalidad entre dos
comparaciones cumple la siguiente restricción:
(Σajak = 0)
VENTAJAS
Es que con éstos se logra un control total al estimar los errores a y β.
Mejor alternativa para sustituir las pruebas de comparaciones múltiples.
Permite comparaciones entre medias individuales o entre grupos de medias, sobretodo, cua-
ndo se tiene algún criterio que permite separar los tratamientos en grupos lógicos.
Reflejan piezas de información independientes y que el resultado de una comparación no
tiene relación alguna con el resultado de cualquier otra.
Son independientes cuando la suma de los productos cruzados de los coeficientes es cero, es
decir, la condición de ortogonalidad entre dos comparaciones cumple la siguiente restricción .
DESVENTAJAS
Se corre el riesgo de cometer más errores de Tipo I al asumir como verdadera la hipótesis de
nulidad; es decir, hay la posibilidad de realizar más rechazos falsos de la hipótesis de nulidad
o de no efectos. En línea con esa problemática, es conveniente distinguir dos tipos de errores:
Error de Tipo I por comparación (PC) y tasa de error por familia (PF). El error PC, simbolizado
por α, es la probabilidad de cometer un error de Tipo I por comparación.
Si α es 0.05, la probabilidad es 0.05. Por el contrario, la tasa de error PF, αPF, es la
probabilidad de cometer uno o más errores de Tipo I en un conjunto de comparaciones. La
relación entre estos dos errores y la probabilidad de cometer al menos un error de Tipo I es:
αPF = 1 - (1 - α)c
CALCULO DE ANALISIS DE VARIANZA
Cinco hipótesis de nulidad para los contrastes ortogonales
1. H0 = μ2 - μ1 = 0
Dos lecturas de la lista (condición A2) no difieren de una sola lectura (condición A 1).
3. H0 = 2μ3 – (μ1 + μ2) = 0
Se establece la igualdad entre tres lecturas y el promedio entre una y dos lecturas.
5. H0 = 3μ4 - (μ1 + μ2 + μ3)= 0
Se define la igualdad entre cuatro lecturas y el promedio de las restantes.
Coeficientes de los contrastes ortogonales
Supuesto de ortogonalidad entre dos contrastes
Ejemplo: entre el contraste uno y dos:
(-1)(-1) + (1)(-1) + (0)(2) + (0)(0) = 0
Suma de cuadrados del contraste
Sumas de cuadrados
5[(-1)2.4 + (1)5.0 + (0)6.6 + (0)8.2]²
SCC1 = ------------------------------------------------- = 16.90
5[(-1)2.4 + (-1)5.0 + (2)6.6 + (0)8.2]²
SCC2 = --------------------------------------------------- = 28.03
5[(-1)2.4 + (-1)5.0 + (-1)6.6 + (3)8.2]²
SCC3 = ------------------------------------------------------ = 46.82
12
=======
SCA: 91.75
Razones F
16.90
F1 = ------------ = 11.66
1.45
28.03
F2 = ------------ = 19.33
1.45
46.28
F3 = ----------- = 32.39
1.45
Valor teórico de F
Entrando en la tabla de la distribución F, el valor teórico del estadístico es F0.95(1/16) = 4.49
Características de los contrastes ortogonales
Una propiedad característica de las comparaciones ortogonales es la descomposición de la Suma de
Cuadrados de tratamientos del ANOVA en tantos componentes ortogonales (independientes) como
grados de libertad de esa fuente de variación (se dispone de un grado de libertad por componente).
Siguiendo con el ejemplo propuesto, la Suma de Cuadrados de tratamientos, SC A, tiene a - 1 grados de
libertad y, como consecuencia, tres componentes ortogonales (siendo a igual a cuatro).
Propiedades de los contrastes ortogonales
EJEMPLO:
Se supone que la cantidad de carbón usada en la producción de acero tiene un efecto en su
resistencia a la tensión. En la tabla se muestran los valores de la resistencia a la tensión del acero para
cada uno de los 4 diferentes porcentajes de carbón. Con estos datos efectúe el análisis apropiado e
interprete sus resultados.
Solución.
Variable Respuesta: Resistencia a la tensión.
Las hipótesis que se desean probar son:
Ho : μ1 = μ2 = μ3 = μ4 (Las medias son iguales)
H1 : μ1 ≠ μ2 ≠ μ3 ≠ μ4 (Las medias son diferentes)
El significado verbal es:
Ho : La cantidad de carbón usada en la producción de acero no tiene efecto significativo en la
resistencia a la tensión.
H1 : La cantidad de carbón usada en la producción de acero tiene efecto significativo en la resistencia
a la tensión.
Datos
a = 4 , n = 4 , N = 16 , i = 1,2,3,4 , j = 1,2,3,4
Cálculos Matemáticos
Totales
Medias de los Tratamientos
Sumas de Cuadrados
Medias de Cuadrados
Estadística
Utilizando un nivel de significancia del 5% ( = 0.05), para encontrar el FTablas (Tablas Fisher) con 3
grados de libertad (a-1) en el numerador y 12 grados de libertad (N-a) en el denominador.
F,a-1,N-a =F0.05,3,12 = 3.49
Comparando el F0 calculado en el análisis de varianza y el FTablas , se puede observar que:
F0 > FTablas
15.41 > 3.49
Por tanto, se Rechaza la hipótesis nula (H0) y se acepta la hipótesis alternativa (H1); es decir, que las
medias de los tratamientos difieren.
También se puede observar gráficamente, de la siguiente manera:
Se observa que el valor de F0 cae en la zona de rechazo de H0.
Conclusión
Se concluye que la cantidad de carbón usada en la producción de acero tiene efectos significativos en
la resistencia a la tensión.
Como se ha rechazado H0, existe diferencia entre las medias de los tratamientos, pero no se
especifica entre que medias de tratamientos existen las diferencias.
Se podría estar interesado en querer saber entre que medias de tratamientos existe diferencia, para
ello se utilizará el método de contrastes ortogonales para contestar esta inquietud.
1. Se definen las 4 – 1 = 3 hipótesis.
2. Un conjunto de comparaciones entre medias y los contrastes ortogonales son:
3. Cálculo de los contrastes.
4. Cálculo de la Suma de cuadrados de los contrastes.
5. Tabla de Análisis de Varianza con los contrastes
6. Análisis de los resultados de los contrastes.
Utilizando un nivel de significancia del 5% ( = 0.05), para encontrar el FTablas (Tablas Fisher) con 1
grado de libertad en el numerador y 12 grados de libertad (N-a) en el denominador.
F,1,N-a =F0.05,1,12 = 4.75
Al comparar el F0 obtenido en cada uno de los contrastes del análisis de varianza con el FTablas; se
llega a las siguientes conclusiones:
a) El valor del F0 del contraste 1 es mayor que el FTablas (5.81 >4.75) entonces se Rechaza
H0, y por lo tanto, hay diferencia significativa entre los porcentajes de carbón uno y dos.
b) Como el F0 del contraste tres es menor que FTablas (1.12 < 4.75) se acepta H0; y por lo tanto,
no hay diferencia significativa entre los porcentajes de carbón tres y cuatro.
c) Al comparar el valor de F0 del contraste dos con el FTablas se observa que el F0 es mayor
(39.31 > 4.75) entonces se Rechaza H0; y por lo tanto, se dice que el promedio de los
porcentajes de carbón uno y dos difieren significativamente del promedio de los porcentajes
de carbón tres y cuatro.
7. Método de Scheffé para comparar todos los contrastes.
Existen situaciones en que el investigador no sabe de antemano los contrastes que desea comparar, o
le interesa llevar a cabo más de a-1 posibles comparaciones. Estas comparaciones de interés en
muchos experimentos son descubiertas sólo hasta después de hacer un examen preliminar de los
datos.
Scheffé hizo una propuesta de un método para comparar cualquier contraste, o los posibles
contrastes entre medias de tratamientos. Con este método en cualquiera de las posibles
comparaciones el error tipo I es cuando mucho igual a α.
Supongamos que existe un conjunto de m contrastes de interés de las medias de tratamientos.
Wk = C1kμ1 + C2kμ2 + C3kμ3 +………..+Cakμa , con k = 1,2,….,m, estos contrastes usando los
promedios de tratamientos ӯi son:
Ck = C1k 1. y + C2k 2. y + C3k 3. y +………..+Cak a. y con k = 1,2,….,m
El error estándar de estos contrastse viene dado por:
El valor crítico con el que Ck debe ser comparado es:
Para llegar a probar la hipótesis de que el contraste Ck difiere significativamente de cero, es necesario
comparar Ck con el valor crítico. Si _Ck_ > S,k, la hipótesis nula de que el contraste Wk es igual a cero
debe rechazarse.
Este método de Scheffé se puede utilizar para construir intervalos de confianza para todos los
posibles contrastes de las medias de tratamientos; los cuales pueden ser construidos como Ck - S,k _
Wk _ Ck + S,k , estos son intervalos de confianza simultáneos; en el sentido de que la probabilidad de
que todos ellos sean simultáneamente verdaderos es al menos 1 - α.
El procedimiento para llevar a cabo la comparación de medias por medio del método de Scheffé es el
siguiente:
• Definir los contrastes de interés.
• Calcular los valores numéricos de los contrastes.
• Calcular el error estándar para cada contraste.
• Encontrar los valores críticos.
• Realizar las conclusiones.
COVARIANCIA
Entre las diferentes aplicaciones que puede tener el Análisis de Covariancia – ANCOVA – se destaca su
uso en el control del error, lo cual aumenta la precisión con que se mide un experimento; también,
permite ajustar las medidas de tratamientos, logrando así una mejor interpretación de los datos y del
efecto de los tratamientos. Lo anterior se consigue al eliminar, por progresión, ciertos efectos de los
tratamientos que no pueden ser o no han sido controlados en el experimento. Estos efectos
indirectos de los tratamientos, se miden con una variación adicional en X la cual contribuye a la
variación en Y. así la covariancia controla la varianza del error mediante el uso de la covariable (X).
Para ilustrar el aporte de una covariable en el efecto de los tratamientos, haremos relación a un
experimento de nutrición animal, en el cual se ensayan diferentes raciones. Si al momento de iniciar
este experimento, no contamos con animales experimentales del mismo peso inicial y éste está
correlacionado con la ganancia de peso (variable respuesta del tratamiento) esta falta provoca un
incremento de error en el verdadero efecto de los tratamientos. En estos casos, el ANCOVA permite
calcular y eliminar esta porción del error experimental, generada por la ganancia de peso atribuida al
peso inicial de los animales.
En experimentos de nutrición animal, las diferencias detectadas entre medias de tratamientos
pueden ser provocadas por sus diferencias en el valor nutritivo, a las diferencias en las cantidades
consumidas, o a ambas. Si por covariancia, las diferencias de rendimientos medios observados se
ajustan sobre el consumo de una ración común, entonces, las medias ajustadas indicarán el
verdadero efecto de los tratamientos.
VENTAJAS
Indica el grado de variación conjunta de dos variables aleatorias.
Determinar si existe una dependencia entre ambas variables y además es el dato necesario
para estimar otros parámetros básicos, como el coeficiente de correlación lineal o la recta de
regresión.
Permite que las dos variables están variando conjuntamente, y en el mismo sentido, cuando al
crecer los valores de una de las variables también aumentan los de la otra.
Devuelve la covariancia de la muestra, o promedio de los productos de las desviaciones para
cada pareja de puntos de datos en dos conjuntos de datos.
Eliminar cualquier error sistemático fuera del control del investigador que puede sesgar los
resultados
Tener en cuenta las diferencias en las respuestas debidas a las características propias de los
encuestados. Un sesgo sistemático puede ser eliminado por medio de la asignación aleatoria
de los encuestados a varios tratamientos.
DESVENTAJAS
Covariancia es negativa, la covariación de ambas variables será en sentido inverso.
Si la covariancia es cero no hay una covariación clara en ninguno de los dos sentidos.
La medida de asociación es que su valor depende de las unidades en que se miden las
variables de interés.
No permite ajustar medias de tratamientos de la variable dependiente a las diferencias en
conjuntos de valores de variables independientes correspondientes.
MODELO MATEMÁTICO
El modelo de la covariancia, representa el modelo lineal aditivo del análisis de varianza del diseño
experimental que se esté utilizando más un componente adicional para la variable concomitante o
independiente. Para un DBCR tendremos:
Yij= µ + τi + βj + b(xij - x….) + Ɛij
Dónde:
y= variable dependiente o de respuesta
x= covariable o variable independiente
b= pendiente de la regresión lineal
Este modelo igualmente, se resuelve por la suma de cuadrados tal como fue explicado en el
Análisis de Varianza.
Los supuestos de la covariancia son:
Los X son fijos (se repiten), medidos sin error e independientes de los tratamientos.
La regresión de Y respecto a X, después de eliminar diferencias de bloques y
tratamientos es lineal e independiente de estos factores.
Los errores se distribuyen normal e independientemente con medida cero y varianza
común.
CALCULO DE ANALISIS DE VARIANZA
Esquema de análisis de covariancia en un diseño de bloques completos al azar
SUMA DE PRODUCTOS Y CUADRADOS COVARIANZA – ANOVA AJUSTADO–
ANOVA
SPXY SCX g.l. SCY,ajustados CM ajustados
Fuentes g.l. SCY
Total rt – 1 ∑ ( y it−Ý ..)2 ∑ (x it− X́ ..)( y it−Ý .. ) ∑ (x ij− X́ ..)2
∑ (X . t− X́ ..) ( Y .t −Ý .. ) t ∑ ( X t − X́ ..)2 r-1 C− A
Bloques r -1 t ∑ ( y i−Ý ..)2
∑ (X t − X́ ..)( Y t−Ý .. ) r ∑ ( X i− X́ ..)2 B− A
Tratamientos t–1 r ∑ ( y t−Ý ..)2 t-1
Diferencia Diferencia a 22
Diferencia A=a1− S2YX 1
Error (r - 1)(t - 1) (a2) (a3) (r - 1)(t - 1) -1 a3
(a1)
1 a 1−A
Covariable
SC(Y .Trat +Error ) (b1) b22
SP( XY . Trat +Error ) SC( X .Trat+ Error ) (b3) B=b 1−
Tratam + error r(t - 1) (b2) r(t - 1) - 1 b3
SC(Y . Bloq +Error ) (c1) c 22
SP( XY . Bloq+Error ) SC( X . Bloq+ Error ) (c1) C=c 1−
Bloques + error t(r - 1) (c2) t(r - 1) - 1 c3
1
S2YX = error estándar de la estima o variancia residual
FORMULAS DESARROLLADAS: Eq. (15.2 – 15.10)
SCY .Total =∑ y 2ij −¿ ¿
SCY . Bloques=
∑ y 2. j −¿¿
t
SCY .Trat =
∑ y 2i . −¿ ¿
r
SP XY .Total =∑ x ij yij −
∑ x ij ∑ y ij
rt
SP XY . Bloques=
∑ X i Y j − ∑ x ij ∑ y ij
t rt
SP XY .Trat =
∑ X i Y j − ∑ x ij ∑ y ij
r rt
SC X .Total =∑ x 2ij −¿ ¿
∑ X 2. j
SC X .Bloques = −¿ ¿
t
∑ X 2i .
SC X .Trat = −¿ ¿
r
Ejemplo. En un experimento para probar la eficacia de 5 dietas en 4 bloques (lotes de animales) se midió,
además del efecto de las dietas (Y = ganancia de peso), el consumo de alimento (X = covariable). Realizar
el análisis de covariancia para los resultados siguientes:
Datos sobre ganancia de peso y consumo de alimento
Total
BLOQUES
Tratamientos
1 2 3 4
TRAT. X Y X Y X Y X Y Xi. Yi.
4
1 307.3 20.5 393.3 38.4 355.2 30.4 345.1 25.1 1400.9 114.4
2 402.2 38.3 405.2 42.1 388.7 35.2 388.4 40.5 1584.5 156.1
3 342.4 24.6 350.4 25.1 323.2 24.1 302.3 20.1 1318.3 93.9
4 375.7 32.1 381.5 34.4 302.1 21.4 350.9 30.2 1410.2 118.1
5 305.2 27.6 353.1 29.6 377.3 32.1 382.5 32.8 1418.1 122.1
5 20
Total Bloq. X.. Y..
X.j Y.j 1732.8 143.1 1883.5 169.6 1746.5 143.2 1769.2 148.7 7132 604.6
Cálculos básicos:
1. FCY = 604.62/20 = 18277.06
2. SCY.Tot = (20.52+38.42+……+32.82) – 18277.06 = 19115.5 – 18277.06 = 838.44
3. SCY.Bloq = (143.12+169.62+143.22+148.72)/5 – 18277.06 = 18371.94 – 18277.06 = 94.88
4. SCY.Trat= (114.42+156.12+…..+122.12)/4 – 18277.06 = 18781.95 – 18277.06 = 504.89
5. SCY.Error = 838.44 – 94.88 – 504.89 = 238.67
6. FCXY = (7132)(604.6)/20 = 215600.36
7. SPXY.Tot = [307.3(20.5)+…+382.5(32.8)] – 215600.36 = 219599.8 – 215600.36 = 3999.45
8. SPXY,Bloq = [1732.8(143.1)+…+1769.2(148.7)]/5 – 215600.36 = 216116.82 -215600.36 = 516.46
9. SPXY,trat = [1400.9(114.4)+…+1418.1(122.1)]/4 – 215600.36 = 217771.6 – 215600.36 = 2171.24
10. SPXY,Error = 3999.45 – 516.46 – 2171.24 = 1311.75
11. FCX = 71322/20 = 2543271.2
12. SCX.Tot = (307.32+402.22+……+382.52) – 2543271.2 = 2565710.96 – 2543271.2 = 22439.76
13. SCX.Bloq = (1732.82+1883.52+….+1769.22)/5 – 2543271.2 = 2546099.8 – 2543271.2 = 2828.6
14. SCX.Trat= (1400.92+1584.52+…..+1418.12)/4 – 2543271.2 = 2552686.9 – 2543271.2 = 9415.7
15. SCX.Error = 22439.76 – 2828.6 – 9415.7 = 10185.46
Resultados del análisis de covariancia – ANOVA –
Fuentes de
g.l. SCy SPXY SCX g.l. SCy,ajust. CMajust. F
variación
Total 19 838.44 3999.45 22439.76
Bloques 3 94.88 516.46 2828.60 3 7.02 c 2.34 0.37
Tratamientos 4 504.89 2171.24 9415.70 4 55.07 b 13.77 2.17 NS
Error 12 238.67 1311.75 10195.46 11 69.90 6.35
Covariable 1 168.77 a 168.77 26.58**
Tratam+Error 16 743.56 3482.99 19611.16 15 124.97
Bloques+Erro
15 333.55 1828.21 13024.06 14 76.92
r
a b c
238.67-69.90 = 168.77 124.97-69.90 = 55.07 76.92-69.90 = 7.02
El Análisis de Covariancia, a través del ajuste del Cuadrado medio de tratamientos, en este caso, ha demostrado no
significación sobre la diferencia entre tratamientos, los cuales han sido evaluados con alta significación en el Análisis
de Variancia:
504.89/ 4
F= =6.35¿∗¿ ( p=0.0055 ) ¿
238.67/12
La F no significativa para media ajustadas (F = 2.17 NS) demuestra que no existen diferencias verdaderas entre las
medidas de tratamiento para Y cuando se ajustan por X. Esto prueba que las diferencias entra las medias no
ajustadas reflejan, en gran medida, diferencias en el consumo y no precisamente por efecto de las dietas solamente,
es decir, a un consumo de alimento común. Si se hubiera detectado significación para las medias ajustadas por
covariancia, entonces se habría concluido que las diferencias entre los tratamientos son reales.
Procedimiento de ajuste de medidas de tratamientos
Para este propósito se usa la siguiente fórmula:
Ý^ t . =Ý t −b yx ( X́ i− X́ )
Donde:
b yx =b=coefi ciente de regresión del error
A continuación, el siguiente cuadro se observa el ajuste de las medias del ejemplo anterior:
Ajuste de medidas de tratamientos
TRAT. Ý t X́ t X́ i − X́ .. b yx ( X́ ¿¿ t− X́ ..) ¿Ý^ t . =Ý t −b yx ( X́ i− X́ )
1 28.60 350.23 - 6.37 - 0.83 29.43
2 39.03 396.13 39.53 5.14 33.89
3 23.48 329.13 - 27.02 - 3.51 26.99
4 29.53 352.55 - 4.05 - 0.53 30.06
5 30.53 354.53 -2.07 - 0.27 30.80
SP XY .Error 1311.75
X́ .. =356.6 b= = =0.1287
SP X .Error 10195.46
Los errores estándar de la diferencia entre dos medias de tratamiento ajustados, con igual tamaño y diferente
tamaño muestral, respectivamente se determinan por:
S ∧ =S yx
d √ 2 ( X́ i− X́ t )
+
r SC x. error
S ∧ =S yx
d √ 1 1 ( X́ i− X́ t )
+ +
r 1 r 1 SC x. error
Donde: S yx =√ CM erro. ajustado
CONCLUSIONES:
Las comparaciones ortogonales son aquellas que reflejan piezas de información independientes y que el
resultado de una comparación no tiene relación alguna con el resultado de cualquier otra.
Destacamos su uso en el control del error, lo cual aumenta la precisión con que se mide un experimento;
también, permite ajustar las medidas de tratamientos, logrando así una mejor interpretación de los datos
y del efecto de los tratamientos.
BIBLIOGRAFÍA:
CONTRASTES ORTOGONALES. http://uce.uniovi.es/cursolineal/Informese5.html
CONTRASTES ORTOGONALES. http://es.scribd.com/doc/14590547/7/Contrastes-Ortogonales
SÁNCHEZ – OTERO, Julio. INTRODUCCIÓN AL DISEÑO EXPERIMENTAL. “Análisis de Covariancia” Quito –
Ecuador. Edición 2006. Páginas: 126 – 129.
CUESTIONARIO
GRUPO N° 5
TEMA: CONTRASTES ORTOGONALES Y COVARIANCIA
1. Ponga la fórmula de Suma de cuadrados del contraste:
2. Ponga una característica de los contrastes ortogonales
Una propiedad característica de las comparaciones ortogonales es la descomposición de la Suma
de Cuadrados de tratamientos del ANOVA en tantos componentes ortogonales (independientes).
3. ¿Cuál es el modelo matemático de la Covariancia?
Yij= µ + τi + βj + b(xij - x….) + Ɛij
Dónde:
y= variable dependiente o de respuesta
x= covariable o variable independiente
b= pendiente de la regresión lineal
4. ¿Cuáles son los supuestos de la covariancia?
Los X son fijos (se repiten), medidos sin error e independientes de los tratamientos.
La regresión de Y respecto a X, después de eliminar diferencias de bloques y tratamientos es
lineal e independiente de estos factores.
Los errores se distribuyen normal e independientemente con medida cero y varianza común.
5. Subraye la respuesta correcta
Ventajas de los contrastes ortogonales:
a) Mejor alternativa para sustituir las pruebas de comparaciones múltiples
b) Devuelve la covarianza de la muestra, o promedio de los productos de las desviaciones
para cada pareja de puntos de datos en dos conjuntos de datos.
c) Son independientes cuando la suma de los productos cruzados de los coeficientes es cero,
es decir, la condición de ortogonalidad entre dos comparaciones cumple la siguiente
restricción.
6. Escriba verdadero o falso según corresponda
Desventajas de Covariancia
Si la covarianza es cero no hay una covariación clara en ninguno de los dos sentidos. (V)
Independientes cuando la suma de los productos cruzados de los coeficientes es cero, es decir, la
condición de ortogonalidad entre dos comparaciones cumple la siguiente restricción. (F)
No permite ajustar medias de tratamientos de la variable dependiente a las diferencias en
conjuntos de valores de variables independientes correspondientes. (V)
7. Cuáles son las ventajas de Covarianza
Indica el grado de variación conjunta de dos variables aleatorias.
Determinar si existe una dependencia entre ambas variables y además es el dato necesario para
estimar otros parámetros básicos, como el coeficiente de correlación lineal o la recta de
regresión.
Permite que las dos variables están variando conjuntamente, y en el mismo sentido, cuando al
crecer los valores de una de las variables también aumentan los de la otra.