0% encontró este documento útil (0 votos)
83 vistas23 páginas

Introducción a la Experimentación Agronómica

Este documento presenta una introducción a la experimentación científica y conceptos estadísticos fundamentales. Explica que el método científico involucra la formulación de hipótesis, obtención de datos y confrontación de los datos con las hipótesis. La estadística juega un papel clave en estos pasos mediante técnicas deductivas e inductivas. También define conceptos como población, parámetro, muestra, análisis de datos, incertidumbre y planteamiento de hipótesis nula y alternativa.

Cargado por

Lorenzo Canul
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
83 vistas23 páginas

Introducción a la Experimentación Agronómica

Este documento presenta una introducción a la experimentación científica y conceptos estadísticos fundamentales. Explica que el método científico involucra la formulación de hipótesis, obtención de datos y confrontación de los datos con las hipótesis. La estadística juega un papel clave en estos pasos mediante técnicas deductivas e inductivas. También define conceptos como población, parámetro, muestra, análisis de datos, incertidumbre y planteamiento de hipótesis nula y alternativa.

Cargado por

Lorenzo Canul
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

APUNTES DEL CURSO DISEÑOS EXPERIMENTALES DE LA CARRERA DE INGENIERÍA EN AGRONOMÍA DEL ITZM

GRUPO 5°AA.
Dra. Esmeralda Cázares Sánchez

UNIDAD 1
INTRODUCCIÓN A LA EXPERIMENTACIÓN

1.1 El método científico y la Estadística


El método científico es un proceso mediante el cual se obtienen conocimientos para acrecentar el acervo de una
disciplina científica. Los aspectos más importes son:
• Formulación de hipótesis.
• Obtención de datos pertinentes al problema.
• Confrontación de los datos con las consecuencias de nuestras hipótesis.

Las técnicas de la estadística juegan un papel muy destacado en estos tres aspectos del método científico.
Los dos tipos de razonamientos con los que se relaciona la Metodología estadística son:
o Deductivo: Por ejemplo, la caracterización de un conjunto de datos.
o Inductivo: Por ejemplo, la generalización de las conclusiones.

Ciencia: Cuerpo de doctrinas sistematizado que constituye un ramo particular del saber humano. Este concepto
“moderno”, surge en el siglo XVII con la revolución científica iniciada por:
Johannes Kepler (1571-1630), Galileo Galilei (1564-1642), Isaac Newton (1642-1727), Nicolás Copernicus (1473-
1543). Los fundadores de la ciencia moderna tenían dos méritos que difícilmente se encuentran juntos: una inmensa
paciencia para observar hechos y una gran audacia para formular hipótesis.

Como parte del método científico la estadística participa en:


a) Formulación de hipótesis. Existen varias definiciones:
a. Son explicaciones previas del fenómeno observado sujetas a comprobación.
b. Conjetura que sienta las bases de una posterior investigación.
c. Anticipación de una ley o explicación que debe verificarse o refutarse por la experimentación.
Por lo general, en el campo de la investigación, se requiere establecer una hipótesis preliminar para
la obtención de datos que sean relevantes al problema.
Nota: Las técnicas de estadística descriptiva, pueden sugerir hipótesis apropiadas.

b) Obtención de datos. Se trata de adquirir información.


d. Que sea relevante al problema.
e. Que las conclusiones que de ella se extraigan tengan cierto grado de confiabilidad.
➢ La cantidad de información necesaria, la forma de recolección de datos y las técnicas para adquirir
la información, competen al Diseño de experimentos y al Muestreo estadístico.

1
c) Confrontación de la información obtenida con las consecuencias de las hipótesis postuladas.
Estadística descriptiva Estadística inferencial o inductiva
Organización de los datos Generalizar aspectos característicos de la información
Presentación gráfica Examinar su compatibilidad con las consecuencias de las hipótesis que
se sustentan
Descripción Cuantificación de la incertidumbre mediante principios probabilísticos
Resaltar aspectos característicos

1.2 Conceptos generales

1.2.1 Población
Conjunto o colección de objetos que se caracterizan por poseer ciertas propiedades específicas. Estadísticamente,
es el conjunto de resultados potenciales de un experimento aleatorio, si este se repitiera en todas las unidades a las
que se quiere investigar.
✓ Tamaño de la población: Es el número total de unidades o elementos de que consta una población y se
denota con la letra mayúscula N.

1.2.2 Parámetro
Los parámetros son medidas que se utilizan para caracterizar a una población y su valor depende de la característica
de interés. // Son constantes desconocidas que se refieren a una población y se estiman a partir de una muestra.
Los más utilizados son los totales, promedios, cocientes y porcentajes (Cuadro 1).

Los estimadores, se calculan con los datos de una muestra y ayudan a estimar los parámetros poblacionales (Cuadro
1).
Cuadro 1. Parámetros y estimadores utilizados en muestreo.
Parámetro Estimador Con que se estima
 = Promedio de la población. ^
 y = Promedio de la muestra.
2 = Varianza de la población. ^2 s2= Varianza de la muestra.
 = Desviación estándar de la población. ^ s = Desviación estándar de la muestra.
 = Total de la población. ^
P = Proporción de la población. P^

1.2.3 Muestra
Subconjunto de elementos o unidades, seleccionados de alguna manera, de la población en estudio.
• Estadísticamente, es el conjunto de resultados que se colectan en una investigación, debe ser un
subconjunto de la población en estudio.
• Es una colección de variables aleatorias.

✓ Tamaño de muestra: Número de unidades que forman a una muestra. Se denota con la letra minúscula n.

2
[Link].1 Muestra aleatoria: Una vez realizadas las repeticiones del experimento, es una colección de variables
aleatorias. Las observaciones son una realización de la muestra. Las variables aleatorias que la integran deben ser
independientes.

a) Teorema central del límite.


_
Sea x1, x2,….xn una muestra aleatoria de una función de probabilidades fx(x), con media x y varianza 2. Sea x = 1/n
(x1 + x2+…..xn) la media aritmética de las variables aleatorias que integran la muestra. Para un tamaño de muestra
(n) grande, la distribución de la variable aleatoria x es aproximadamente normal con media x.
En resumen: el Teorema central del límite establece que para un tamaño de muestra (n) grande, la media de la
_
muestra ( x ), es aproximadamente normal con media poblacional (x) y varianza poblacional (2).

1.2.4 El análisis de datos


La estadística se relaciona con grandes conjuntos de números que se han colectado con un fin determinado.
Organización de datos
Primeras técnicas Presentación gráfica de datos
Cálculo de cantidades representativas del conjunto de datos

[Link] Objetivo: Aprender de manera rápida y fácil los aspectos sobresalientes del conjunto de datos. De aquí surge
el concepto de estadística descriptiva: Consiste en un conjunto de técnicas para la organización, presentación
gráfica y cálculo de “cantidades representativas” de un grupo de datos. Es la parte más antigua de la estadística.

[Link] La incertidumbre: Se define como inseguridad, duda o falta de certeza. Estadísticamente la incertidumbre
es inherente a cualquier proceso en que se extienden conclusiones hacia un conjunto mayor que aquel sobre el que
se tiene información.

Ejemplo A: La cantidad de insectos dañinos por hectárea en una milpa.


Si, se decide muestrear 20 plantas de maíz, 8 de frijol y 10 de calabaza, es posible que los resultados no sean
representativos de la realidad. Para ello, existen técnicas de la estadística que ayudan a determinar el tamaño de
muestra necesario para que las conclusiones que de ella se deriven, se puedan generalizar a la población, es decir,
al total de plantas de maíz, frijol y calabaza presentes en la milpa. Por lo tanto, en este proceso se utiliza el método
inductivo, ya que de manera lógica se va de lo particular a lo general.

Otra fuente de incertidumbre puede ser una misma actividad realizada repetidas veces.
Ejemplo B: Mediciones realizadas cada estudiante del largo y ancho del escritorio del profesor. En este caso por lo
general, se obtienen datos variables, ya que dependen de las habilidades de cada individuo para realizar las
mediciones. Por lo tanto, el papel de la estadística es cuantificar la incertidumbre, de aquí surge el concepto de
estadística inductiva o inferencia estadística como el conjunto de técnicas que nos permiten hacer inducciones en
las que el grado de incertidumbre es cuantificable.

3
1.2.5 Planteamiento de hipótesis
En estadística, las hipótesis se plantean de dos formas:
Hipótesis nula o Ho: Es aquella que el investigador está dispuesto a sostener como plausible, a menos que
la evidencia experimental en su contra sea sustancial.

Hipótesis alternativa o Ha: Es la negación de la hipótesis nula.

Ejemplo:
En un invernadero se tienen plántulas de tomate que van a trasplantarse posteriormente y están siendo atacadas
por una enfermedad. Se ha decidido aplicar un tratamiento a base de extractos vegetales, si más del 25 % de las
plántulas están afectadas. Establezca el juego de hipótesis pertinente al problema.

Planteamiento:
Ho: Las plántulas de tomate no están enfermas en más del 25 %.
Ha: Las plántulas de tomate si están enfermas en más del 25 %.

Otra forma de planteamiento:


Ho: Menos del 25 % de las plántulas de tomate están enfermas.
Ha: Más del 25 % de las plántulas de tomate están enfermas.

1.2.6 Error Tipo I, Error Tipo II y tamaño de muestra


En una prueba de hipótesis pueden cometerse dos tipos de error. El llamado Error Tipo I, que consiste en rechazar
una hipótesis nula que es cierta y el Error Tipo II, que consiste en no rechazar una hipótesis nula que es falsa. Las
probabilidades de los errores respectivos se denotan por α y β.
α = P (Error Tipo I) = P (Rechazar Ho, cuando es cierta)
β = P (Error Tipo II) = P (Rechazar Ho, cuando es falsa)

Ho es cierta Ho es falsa
Rechazar Ho Error Decisión correcta
Decisión tomada (Llamado Error Tipo I)
No rechazar Ho Decisión correcta Error
(Llamado Error Tipo II)

De acuerdo a la distribución de la variable aleatoria, se elige una regla de decisión, en la cual se establecen
los valores de la estadística de prueba que producirán la región de rechazo de la Hipótesis nula (Ho), cuando se
analice la muestra. A este conjunto de valores se les llama “región de rechazo de la prueba”.

En una prueba de hipótesis, el valor máximo de la probabilidad de error tipo I, es llamado el nivel de
significancia de la prueba. Ocasionalmente, también se le llama el tamaño de la prueba.

4
1.3 La sumatoria y sus propiedades

Sumatoria: Es una suma indicada.

Expresión afectada por la


sumatoria
3
Valor más grande
del subíndice i ∑ Xi = X1 + X2 + X3
i=1

Desarrollo de la sumatoria
Valor más pequeño
del subíndice i

Multiplicatoria: Es una multiplicación indicada.

Expresión afectada por la


multiplicatoria

Valor más grande 4

del subíndice i ∏ Xi = X1 * X2 * X3 * X4
i=1
Desarrollo de la
Valor más pequeño multiplicatoria
del subíndice i
Ejemplo de sumatoria:
7
∑ Xi = X4+ X5+ X6+ X7
i=4

El número de términos que puede tener la sumatoria es igual al número de valores que puede tomar el
subíndice: i = 4, 5, 6, 7. Debe ser lo más simple posible (no complicado).

Propiedades:
P1: Sumatoria de una constante.
n
∑ C = nC
i=1

P2: Sumatoria de una constante por una variable.


n n
∑ C Xi = C ∑ X i
i=1 i=1

P3: Sumatoria de una variable más otra variable.


n n n
∑ (Xi + Yi ) = ∑ Xi + ∑ Yi
i=1 i=1 i=1

5
UNIDAD 2

EJECUCIÓN DE LA EXPERIMENTACIÓN

En la investigación es común obtener grandes cantidades de información provenientes de datos de campo, colección
directa de medidas de alguna variable de interés observadas por el investigador tal y como se presentan en la
naturaleza o generadas mediante procesos experimentales para probar una o varias hipótesis de interés, cuyo
análisis conduce a resultados que se pretenden aplicar. Al respecto a continuación se presentan algunos aspectos
importantes (Herrera y Barreras, 2001):
• El análisis apropiado de la información, permite hacer inferencias válidas acerca de la población en estudio.
• De acuerdo al diseño experimental utilizado, debe ser el análisis de la información de tal manera que
permita determinar las relaciones causa efecto que existan entre las variables.
• El uso adecuado de la metodología estadística permite al investigador validar o replantear sus hipótesis.
• Los procedimientos estadísticos utilizados requieren el auxilio de computadoras que simplifiquen los
cálculos.
• El programa de análisis estadístico Statistical Analysis System “SAS”, es uno de los más completos y versátiles
ampliamente utilizado en universidades nacionales y del extranjero. Por su lenguaje lógico y rapidez en la
solución de problemas, permite manejar grandes bases de datos.

Diseño experimental: forma de asignar los tratamientos a las unidades experimentales.


Ejemplo:
• Completamente al azar
• Bloques al azar

Tratamiento: Cantidades de un material, métodos, elementos contaminantes, fungicidas, insecticidas, especies de


plantas, animales, anfibios, peces, cantidades de CO2, etc. De los cuales se desea estudiar el efecto que producen.
Ej: Efecto de diferentes dosis de N en el crecimiento de cierta especie de alga.

Unidades experimentales: Son aquellas a las cuales se aplican los tratamientos.


Ej: Recipientes con agua (Tinas).

Variable respuesta: Es aquella que se mide o se evalúa para detectar el efecto que producen los tratamientos.
Ej: Rendimiento.

Número de repeticiones: Se dice que un tratamiento tiene n repeticiones si se aplica a n unidades experimentales.
Ej:
T3 T1 T2 T1 = 4 repeticiones

T2 = 2 repeticiones
T3 T2 T1
T3 = 2 repeticiones

T4 = 1 repetición
T1 T1 T4

6
Error: Es la diferencia entre una observación y el valor verdadero del parámetro: εi = Yi – μ donde i = 1,2,….n

Error puro: Es la variabilidad que presentan los valores de la variable respuesta medidos en unidades experimentales
homogéneas que reciben el mismo tratamiento. Ayuda a explicar el error experimental.

Dosis de N: 50 mg/L 50 mg/L 50 mg/L

Biomasa: 3.08 Kg 2.94 kg 3.0 Kg

Causas: Factores no controlables por el investigador.

Bloque: Conjunto de unidades experimentales homogéneas que producen el mismo efecto cuando se aplica el
mismo tratamiento a dichas Unidades Experimentales. Son homogéneas con respecto al efecto que producen más
no a la igualdad física.

Ejemplo 1: Se tienen parcelas experimentales de una variedad comercial de maíz híbrido y se espera que el
rendimiento de grano sea similar al aplicar cierto tratamiento de fertilización o sea diferente si las dosis de
fertilización son distintas.

Ejemplo 2: Se tienen parcelas experimentales de maíz híbrido de diferentes variedades, por lo que se espera que el
rendimiento sea diferente al aplicar cierto tratamiento de fertilización por el efecto de la variedad (este sería el
bloque).

Testigo: Es un tratamiento especial, que permite comparar el efecto de los tratamientos sobre las unidades
experimentales. Puede tomarse como referencia de una investigación previa, publicada en un artículo científico o
derivada de un trabajo anterior en la línea de investigación.

7
UNIDAD 3

ANÁLISIS DE VARIANZA Y DISEÑOS EXPERIMENTALES BÁSICOS

Es un procedimiento para probar que K poblaciones tienen la misma varianza.


Para efectuar el análisis de varianza de una variable respuesta y poder realizar las subsecuentes comparaciones de
medias, es necesario cumplir con los siguientes requisitos:

1.- Normalidad: Que los datos tengan una distribución normal. Se hace una prueba de normalidad por cada
tratamiento (no con todos los datos).
Y ij
12 Evaluar si
T1 10 Provienen de una
11 Distribución
9 Normal
2
T2 1
3 “
4
100
T3 112
115 “
110

2.- Varianzas homogéneas: Los valores de la variable respuesta en cada tratamiento deben tener la misma
varianza.

3.- Independencia: Los valores de la variable respuesta deben ser independientes unos de otros. Sin
embargo, en diseños experimentales no existe una prueba para detectar si los valores de la variable
respuesta son independientes, esto debido al error experimental.

3.1 Prueba de normalidad: Mediante el procedimiento estadístico 𝑥 2 se prueba si un conjunto de datos proviene
de una distribución normal.

Ho: Los datos provienen de una distribución normal.


Ha: Los datos no provienen de una distribución normal.
2 k (Oi – Ei)2 2 2

ᵡc
= iΣ= 1=
Ei ᵡ ᵡ
t
=
k - g -1

Oi = Valores observados
Ei = Valores esperados
g = No. de parámetros estimados = 2 porque se estima μ y σ
2 2
Rechazar Ho si >
ᵡc ᵡ
donde K = Número de clases
t

8
3.2 Prueba de Homogeneidad de Varianzas de Barttlet: Es un procedimiento para probar que K poblaciones tienen
la misma varianza.

Ho: Las varianzas son iguales: σ21 = σ22 = ….σ2k


Ha: Al menos dos varianzas son diferentes.
2 k (Oi – Ei)2 2 2

ᵡ c
= iΣ= 1=
Ei t
=
k-1 ᵡ ᵡ
Oi = Valores observados
Ei = Valores esperados
g = No. de parámetros estimados = 2 porque se estima μ y σ
2 2
Rechazar Ho si
ᵡ>
c ᵡ
donde K = Número de tratamientos
t

3.3 Diseño Experimental Completamente al Azar

Llamado también diseño de un criterio de clasificación, completamente aleatorizado. Es aquel en el cual los
tratamientos se asignan al azar a las unidades experimentales.

Ejemplo: Se tiene un experimento con 3 tratamientos y 2 repeticiones de cada uno. En una urna se coloca el número
total de unidades experimentales = 6 y en otra los números de los tratamientos repetidos 2 veces. Se mezclan bien.
1 3 T3 T2 T1
2 4 5
6 T1 T3 T2

Se toman muestras de tamaño 1 sin remplazo, es decir, se toma un papel al azar de cada urna y ya no se regresan a
las urnas:
1.- T1 4.-
4 2 T1
2.- 5.-
1 T3 6 T3
3.- 6.-
5 T2 3 T2
Datos:
R1 R2 … Rr
T1 Y11 Y12 … Y1r Y11, Y12, ….Ytr = Valores de la variable respuesta

T2 Y21 Y22 … Y2r


. . . .
. . . .
. . . .
Tt Yt1 Yt2 … Ytr

T = Número de tratamientos

9
R = Número de repeticiones
Aplicación: Se utiliza en experimentos de laboratorios, invernaderos o en Condiciones Controladas.

MODELO ESTADÍSTICO: Yij = μ + τi + εij


Donde:
i = 1,2,….,t (tratamientos)
j = 1,2,….,r (repeticiones)
Yij = Valor de la variable respuesta correspondiente al tratamiento i en la repetición j
μ = media general
τi = Efecto del tratamiento i: T1, T2, ….Tt
εij =Error experimental = εij ~ N I I D (0, σe2)

PRUEBAS DE HIPÓTESIS:
Ho: Todos los tratamientos producen el mismo efecto.
Ha: No todos los tratamientos producen el mismo efecto.

Ho: Todos los tratamientos producen el mismo efecto.


Ha: Al menos un par de tratamientos producen diferentes efectos.

Ho: τ1 = τ2 = ….. τ3
Ha: ϶ i ≠ j tal es que τi ≠ τj

϶ = Existe
τ = Efecto del tratamiento
Nota: Los tratamientos no se miden, lo que se mide es el efecto de los tratamientos.

3.4 Cálculo estadístico para la prueba de hipótesis (prueba de F)

gl(T)
Fc = CM (T) Ftablas = Fgl(ε),α
CM (E)

Regla de decisión: Rechazar Ho si Fc > Ft

10
Cuadro resumen del Análisis de Varianza para el diseño Completamente al Azar
Fuente de Grados de Suma de Cuadrados Fc Ft Sig
Variación libertad Cuadrados Medios
𝑡
Tratamientos T-1 ∑ 𝒀𝒊2 . SC(T) CM(T) gl(T) *
____
𝑖=1
Y2…
_ ____ GL(T) CM(E) Fc = Fgl(ε),α **
r tr ns
Error Por diferencia SC(E)
GL(E)
Total Tr-1 𝑡 𝑟

∑ ∑ 𝒀2 𝒊𝒋 Y2…
_ ____
𝑖=1 𝑗=1

tr

FV = Fuente de variación T = Tratamientos Yij = Total del tratamiento i y la repetición j


GL = Grados de libertad E = Error experimental α = Probabilidad de error tipo I
SC = Suma de cuadrados Tot = Total * = Rechazar Ho con α=0.05 (Significativo)
CM = Cuadrados medios t = Número de tratamientos ** = Rechazar Ho con α=0.01 (Altamente significativo)
Fc = F calculada r = Número de repeticiones ns = No rechazar Ho (No significativo)
Ft = F de tablas Yi. = Total del tratamiento i ANAVA = Análisis de Varianza
Sig = Significancia Y.. = Gran total

Ejemplo de un diseño Completamente al Azar:

Ingenieros en Agronomía, desean conocer el efecto de un novedoso producto para reducir los días a germinación
de las semillas recalcitrantes. Para ello, en cuatro cajas Petri (repeticiones), se colocaron 10 semillas por cada una y
se agregaron 50 mL de agua a tres diferentes temperaturas (tratamientos térmicos: T1 = 20°C, T2 = 30°C y T3 =
40°C), registrándose el tiempo en días, que tardó en germinar la última semilla, con los siguientes resultados:

R1 R2 R3 R4 Total
T1 15 14 11 13 53
T2 16 13 15 10 54
T3 8 4 6 5 23
130

Hipótesis:
Ho: Los tres tratamientos térmicos tienen el mismo efecto en el tiempo de germinación de las semillas.
Ha: No todos los tratamientos térmicos, tienen el mismo efecto en el tiempo de germinación de las semillas.

Procedimiento de cálculo:
GL (Tra) = t-1 = 3-1 = 2
GL (Tot) = (t)(r) - 1 = 3(4) - 1= 12 -1 = 11
GL (E) = GL(TOT) – GL(T) = 11 – 2 = 9
𝑡 3
∑ 𝒀𝒊2 . 2 ∑ 𝒀𝒊2 . 2 2 2 2 2
SC(Tra) = 𝑖=1____ _Y ____
.. =𝑖=1____ _Y____
.. = Y___
1 + Y___
2 + Y___
3 – Y___
..
r tr 4 (3)(4) 4 4 4 12
11
(53)2 +____
= ____ (54)2 +____
(23)2 –_____
(130)2 = 155.1667
4 4 4 12
Nota: La suma de cuadrados siempre es positiva.

𝑡 𝑟
SC(Tot) = ∑ ∑ 𝒀2 𝒊𝒋
Y2.. = ∑
_ ____
3 4
Y2…=
_ ____ Y112 + Y122 … + Y342 – Y.2..
∑ 𝒀2 𝒊𝒋
𝑖=1 𝑗=1
tr 𝑖=1 𝑗=1
(3)(4) Y2… 12

= 152 + 142 + 112 + 132 + 162 + 132+ 152 + 102 + 82+ 42+ 62+52 - (130)2
_____
12
= 1602 – 1408.33 = 193.6667

SC(E) = SC(Tot) - SC(T)


= 193.6667 - 155.1667
= 38.5000

Nota: Trabajar los resultados con 4 decimales.

CM(T) = SC(Tra) = 155.1667 = 77.5833


GL(T) 2

CM(E) = SC(E) = 38.5 = 4.2778


GL(E) 9

Fc = CM(T) = 77.5833 = 18.14


CME 4.2778

Fgl(T) = F2 = 4.256
gl(ε), α 9, 0.05

Regla de desición: Como Fc > Ft se rechaza la Ho.

TABLA DEL ANAVA


Fuente de Grados de Suma de Cuadrados Fc Ft Sig
Variación libertad Cuadrados Medios
Tratamientos 2 155.1667 155.1667 77.5833 = 18.14 F2 = 4.256 *
2 4.2778 9,0.05

Error 9 38.5000 38.5000


9
Total 11 193.6667

12
Conclusión: Con un nivel de significancia del 5 % se concluye que:
No todos los tratamientos térmicos, tienen el mismo efecto en el tiempo de germinación de las semillas.

3.6 Comparación de medias con el método de TUKEY


Procedimiento:
1. Encontrar los promedios de los tratamientos y ordenarlos de forma descendiente:
R1 R2 R3 R4 Y
T1 15 14 11 13 13.25
T2 16 13 15 10 13.50
T3 8 4 6 5 5.75

2. Calcular DHS (Desviación honesta significativa).


DHS = q Sy Donde q = qgl(ε),t, α, = q9,2,0.05 = 3.2

Sy = √CM(E) = √4.2778 = 1.0341


r 4

DHS = (3.2) (1.0341) = 3.3091

3. Comparaciones y decisión
Si
│Yi. - Yj. │> DHS τi ≠ τj

T1 vs T2: │13.25 – 13.50│= 0.25 < 3.3091 por lo tanto τ1 = τ2


T1 vs T3: │13.25 – 5.75│= 7.50 > 3.3091 por lo tanto τ1 ≠ τ3
T2 vs T3: │13.50 – 5.75│= 7.75 > 3.3091 por lo tanto τ2 ≠ τ3

T2: 13.50 a
T1: 13.25 a
T3: 5.75 b
Conclusiones:
- El tratamiento térmico que presentó el menor número de días a germinación es el 3.
- Tanto el tratamiento 1 como el 2 son similares, con el mayor número de días a germinación.

13
3.7 Diseño Experimental Bloques al Azar

Llamado también: “Diseño de dos criterios de clasificación sin interacción, bloques aleatorizados, bloques completos
aleatorizados o bloques completos randomizados”. Es aquel en el cual:
1) Las unidades experimentales se clasifican en grupos (bloques) en función de un gradiente de variabilidad,
de tal manera que cada grupo o bloque contenga unidades experimentales homogéneas.
2) Los tratamientos se asignan al azar a las unidades experimentales dentro de cada bloque (aleatorización).
Ejemplo:
Bloque I Bloque II Bloque III

T3 T2 T1

% CO2
T1 T3 T3

T2 T1 T2

2 % de CO2 10 % de CO2 25 % de CO2

Nota: Este tipo de diseño sólo se utiliza si no existe interacción del Tratamiento con el Bloque, es decir, los
tratamientos siguen la misma tendencia en cada bloque.
Ejemplo:
20 20

15 15
BLO I BLO I
10 10
BLO II BLO II
BLO III BLO III
5 5
BLO IV BLO IV
0 0
T1 T2 T3 T1 T2 T3

No existe interacción Tratamiento por Bloque Si existe interacción Tratamiento por Bloque

Modelo estadístico: Yij = μ + τi + βj + εij


Donde:
i = 1,2,….,t (tratamientos)
j = 1,2,….,r (repeticiones)
Yij = Valor de la variable respuesta correspondiente al tratamiento i en la repetición j
μ = media general
τi = Efecto del tratamiento i: T1, T2, ….Tt
βj = Efecto del bloque j: B1, B2, ….Bt
εij =Error experimental = εij ~ N I I D (0, σe2)
14
Pruebas de Hipótesis:
Ho: Todos los tratamientos producen el mismo efecto. Ho: τ1 = τ2 = ….. τ3
Ha: No todos los tratamientos producen el mismo efecto. Ha: ϶ i ≠ j tal es que τi ≠ τj

Ho: Todos los bloques producen el mismo efecto. Ho: β1 = β2 = ….. β3


Ha: No todos los bloques producen el mismo efecto. Ha: ϶ i ≠ j tal es que βi ≠ βj

϶ = Existe
τ = Efecto del tratamiento
β = Efecto del bloque
Nota: Los tratamientos y los bloques no se miden, lo que se mide es su efecto.

Estadístico para la prueba de hipótesis:


gl(T)
Fc = CM (T) Fc = F
gl(ε),α
CM (E) Rechazar Ho si Fc > Ft

Fc = CM (BLO) Fgl(Blo)
Fc =gl(ε),α
CM (E) Rechazar Ho si Fc > Ft

Tabla del Análisis de Varianza para el diseño Bloques al Azar


Fuente de Grados de Suma de Cuadrados Fc Ft Sig
Variación libertad Cuadrados Medios
𝑡
Tratamientos t-1 ∑ 𝒀𝒊2 . SC(T) CM(T) gl(T) *
____
𝑖=1
Y2.
_ ____ GL(T) CM(E) Fc = Fgl(ε),α **
r .
tr ***
𝑟
Bloques r-1 ∑ 𝒀. 𝒋2
SC(BLO) CM(BLO) Fgl(Blo) ns
Y2. Fc = gl(ε),α
____
𝑗=1 _ ____ GL(BLO) CM(E)
t tr.
Error Por diferencia SC(E)
GL(E)
Total (tr)(rep)-1 𝑡 𝑟

∑ ∑ 𝒀𝒊𝒋2
𝑖=1 𝑗=1 _ ____Y2..
tr

GL (E) = GL(TOT) – GL(T) – GL (BLO)


SC (E) = SC (TOT) – SC(T) – SC (BLO)

Significado de algunas abreviaturas o siglas:


FV = Fuente de variación T = Tratamiento Y.. = Gran total
GL = Grados de libertad BLO = Bloque Yij = Total del tratamiento i y la repetición j
SC = Suma de cuadrados E = Error experimental α = Probabilidad de error tipo I
CM = Cuadrados medios Tot = Total * = Rechazar Ho con α=0.05 (Significativo)
Fc = F calculada t = Número de tratamientos ** = Rechazar Ho con α=0.01 (Altamente significativo)
Ft = F de tablas r = Número de bloques ns = No rechazar Ho (No significativo)
Sig = Significancia Yi. = Total del tratamiento i ANAVA = Análisis de Varianza

15
3.4 Diseño de Cuadro Latino
Para este tema y el anterior (Bloques al Azar) se realizarán ejercicios prácticos con software, que se anexarán al
portafolio de evidencias para su evaluación.

UNIDAD IV. EXPERIMENTOS FACTORIALES

4.1 Definiciones
4.1.1 Factor
Conjunto de tratamientos que tienen algo en común, por ejemplo:
a) Tiempos: t1=24 h, t2=48 h, t3=72 h.
b) Temperaturas: T1= 10°C, T2= 15°C, T3= 20°C.
c) Concentración de CO2: 150 ppm, 250 ppm, 350 ppm.
d) % de sombreado: S1=0 %, S2=25 %, S3=50 %, S4=75 %, S5=100 %.

4.1.2 Experimento simple


Estudia un solo factor.

[Link] Experimento factorial


Se estudian dos o más factores, por ejemplo, en maíz para grano:
• Dosis de N por planta: N1=100 g, N2=150 g, N3= 300 g.
• Dosis de P por planta: P1=200 g, P2=300 g.

Combinaciones posibles: Se combina cada uno de los niveles del primer factor con los del segundo factor, como a
continuación se presenta:
1. N1P1
2. N1P2
3. N2P1
4. N2P2
5. N3P1
6. N3P2

4.1.3 Factorial Completo


En este tipo de experimento, se estudian todas las combinaciones posibles.

4.1.4 Factorial Incompleto


No se estudian todas las combinaciones posibles.

4.1.5 Factorial Balanceado


Las combinaciones estudiadas tienen igual número de repeticiones.

16
4.1.6 Factorial Desbalanceado
Las combinaciones estudiadas no tienen igual número de repeticiones (r).
1. N1P1 - r = 30
2. N1P2 - r = 25
3. N2P1 - r = 12
4. N2P2 - r = 8

4.1.7 Recomendaciones
- No diseñar experimentos con una sola repetición, se debe utilizar la mayor cantidad posible (lo ideal
son más de 30).
- Estudiar pocos factores con muchos niveles.
- Llevar a cabo los experimentos bajo condiciones controladas, como los laboratorios e invernaderos.
Los experimentos a cielo abierto, pueden afectarse por la variación en el tipo de suelo, humedad,
microorganismos, etc.

17
UNIDAD V. ARREGLOS PARA EXPERIMENTOS FACTORIALES

5.1 Diseño de tratamientos para experimentos factoriales


Se refiere a la forma de seleccionar los factores y sus niveles, es decir, las combinaciones a estudiar, por ejemplo:
Cuadrado Doble, Central Compuesto Rotable, Matriz Plan Puebla I, II y III, Matriz Baconiana, Matriz San Cristóbal,
entre otras, cuyos procedimientos se pueden consultar a detalle en libros y artículos científicos.
Ejemplo: Diseño de tratamientos por Cuadrado Doble:

- Factor N: N1, N2, N3, N4, N5


- Factor P: P1, P2, P3, P4, P5
- Combinaciones posibles = 25
En este ejemplo no se cuenta con material para estudiar las 25 combinaciones, por lo que se usará el diseño de
tratamientos Cuadrado Doble para seleccionar (con un círculo) algunas combinaciones de las 25, como a
continuación se presenta:
N5
N4
N3
N2
N1

P1 P2 P3 P4 P 5

Finalmente, las combinaciones a evaluar serían las siguientes:


1.- N1P1 5.- N2P4 9.- N4P2
2.- N1P3 6.- N3P1 10.- N4P4
3.- N1P5 7.- N3P3 11.- N5P1
4.- N2P2 8.- N3P5 12.- N5P3
13.- N5P5

Nota: Para las unidades IV y V se resolverán ejercicios con software y se anexarán al portafolio de evidencias
para su evaluación.

18
UNIDAD VI. PRUEBAS DE COMPARACIONES DE MEDIAS

En El ANAVA, si no se rechaza Ho se concluye que todos los tratamientos producen el mismo efecto y el análisis
estadístico, llega a su fin y se puede recomendar cualquier tratamiento ya que todos producen efectos similares.
Si se rechaza la Ho, significa que no todos los tratamientos producen el mismo efecto, el análisis estadístico continúa,
con una prueba de comparaciones de medias para detectar el o los mejores tratamientos: DMS, TUKEY, DUNCAN,
DUNNETT, SCHEFFE, CONTRASTES ORTOGONALES.

6.1 Diferencia Mínima Significativa (DMS)


Procedimiento:
1. Calcular los promedios de los tratamientos y ordenarlos de forma descendente.
2. Calcular la DMS = tt Sj
Donde tt = tgl(ε), α/2
Sd = √2CM(E) Fórmula para el caso balanceado, cuando todos los tratamientos tienen igual
r número de repeticiones

d = Y i - Yj

Sd = √2CM 1 + 1 Fórmula para el caso desbalanceado, cuando algún tratamiento tiene


r r diferente número de repeticiones

3. Comparaciones y decisión
Si
│Yi. - Yj. │> DMS τi ≠ τj

4. Se ordenan los promedios de los tratamientos de mayor a menor y se asignan letras en orden alfabético de
acuerdo a la similitud estadística.

6.2 Prueba múltiple de significancia de TUKEY (DHS)


Procedimiento:
1. Encontrar los promedios de los tratamientos y ordenarlos de forma decreciente.
2. Calcular DHS (Desviación honesta significativa).
DHS = q Sy
Donde q = qgl(ε),t, α , valor que se toma de las tablas de Tukey (Tabla A8)

Sy = √CM(E) Fórmula para el caso balanceado.


r

Sy = √CM(E) 1 +1 Fórmula para el caso desbalanceado.


2 ri rj

3. Comparaciones y decisión
Si
│Yi. - Yj. │> DHS τi ≠ τj
19
6.3 Prueba de rango múltiple de significancia de DUNCAN (RMD)
Procedimiento:
1. Encontrar los Yi de los tratamientos y ordenarlos en forma descendente.
2. Calcular DMS (Desviación media significativa).

DMS (DUNCAN)s = qs Sy ; s = 2,3,…,t


Donde qs = qgl(ε),s, α ; s = 2,3,…,t de las tablas de Duncan.

Sy = √CM(E) Fórmula para el caso balanceado.


r

Sy = √CM(E) 1 +1 Fórmula para el caso desbalanceado.


2 ri rj

3. Comparaciones y decisión
Si │Yi. - Yj. │> DMS (DUNCAN)S τi ≠ τj

6.4 Comparación de medias por el método SNK


Procedimiento: Es similar a la prueba de DUNCAN con la diferencia de que los valores tabulares se encuentran en la
tabla de Tukey.

1. Encontrar los Yi de los tratamientos y ordenarlos en forma descendente.


2. Calcular DMS (Desviación media significativa).

DMS (SNK)s = qs Sy ; s = 2,3,…,t


Donde qs = qgl(ε),s, α ; s = 2,3,…,t de las tablas de Tukey.

Sy = √CM(E) Fórmula para el caso balanceado.


r

Sy = √CM(E) 1 +1 Fórmula para el caso desbalanceado.


3 ri rj

3. Comparaciones y decisión:
Si │Yi. - Yj. │> DMS (SNK)S τi ≠ τj

6.5 Comparación de medias por el método DUNNETT


Procedimiento: Se usa para comparar cada tratamiento con otro llamado testigo o control.
1. Encontrar los Yi de los tratamientos y del testigo.

2. Calcular DMS (DUNNETT) = tD Sd.


tD = tgl(ε), t-1,1-α de las tablas de Dunnett (A9, B).
20
3. Comparaciones y decisión:

Sd = √2CM(E) Fórmula para el caso balanceado.


r

Sd = √CM(E) 1 +1 Fórmula para el caso desbalanceado, se calcula para cada


ri rj comparación entre dos medias.
ri = No. de repeticiones de un tratamiento
rj = No. de repeticiones del testigo

Si │Yi. - Ytestigo│> DMS (DUNNETT) τi ≠ τtestigo

6.6 Comparaciones de clase o contraste ortogonales (SCHEFFE)


Se utiliza para comparar grupos de tratamientos (por contrastes).
Combinación lineal: a1X1 + a2X2 +….+anXn es una combinación lineal de las variables X1, X2,….Xn donde a1, a2, …an, son
constantes.
Ej: 6X1 + 3X2 + 4X3 es una combinación lineal de X1, X2 y X3.

• Si alguno de estos valores viene entre paréntesis para elevarlo al cuadrado, no es una combinación lineal
porque se está indicando una potencia es decir todavía no se resuelve: Ej: 6X1 + 3X2 + 4(X3)2.

• Si ya viene elevada a la potencia indicada entonces si es una combinación lineal: Ej: 6X1 + 3X2 + 4X32 es una
combinación lineal de X1, X2 y X32.

Contraste: Es una combinación lineal de parámetros donde las constantes suman cero (0).
Parámetros: T1, T2, T3, T4
T1 + T2 – T3 – T4 = es una combinación lineal porque se multiplican por +1, +1, -1, -1 y suman
cero, por lo tanto, es un contraste.

Para considerarse como un contraste se deben cumplir dos condiciones:


1.- Ser una combinación lineal
2.- Que los parámetros o coeficientes sumen cero.
Ejemplos:
a) T1 - T2 - T3 + T4 Si es un contraste
b) -3T1 + T2 + T3 + T4 Si es un contraste
c) 2T1 + T2 + 3T3 + 5T4 No es un contraste

Contrastes ortogonales: Dos contrastes C1 y C2 son ortogonales si la suma de productos de las constantes
respectivas suma cero (0):

Ejemplo A: C1 = (1) T1 +(1) T2 - (1) T3 - (1) T4


C2 = (1) T1 - (1) T2 + (0) T3 + (0) T4

21
• Se multiplican las constantes de los contrastes:
= (1)(1) + (1)(-1) + (-1)(0) + (-1)(0)
=1-1+0+0
=0
por lo tanto C1 y C2 son contrastes ortogonales

Ejemplo B: C1 = (3)T1 -(1)T2 -(1)T3 (-1)T4


C2 = (1)T1 + (1)T2 - (0)T3 - (0)T4

• Se multiplican las constantes de los contrastes:


= (3)(1) + (-1)(1) + (0)(-1) + (0)(-1)
=3-1+0+0
=2
por lo tanto, C1 y C2 no son contrastes ortogonales ya que 2 ≠ 0.

Otra forma de definir los contrastes ortogonales es mediante las siguientes fórmulas:
𝑡 𝑡 𝑡

C1 = ∑aiTi y C2 = ∑biTi son ortogonales si ∑ai bi =0


𝑖=1 𝑖=1 𝑖=1

En forma desarrollada:
𝑡 𝑡

C1 =∑ aiTi = a1T1 + a2T2 + a3T3 +…..+ atTt a1 + a2 + a3 …..+at = ai∑ = 0


𝑖=1 𝑖=1

𝑡
C2 = ∑biTi = b1T1 + b2T2 + b3T3 +…..+ btTt b1 + b2 + b3 …..+bt = bi = 0
𝑖=1

C1 y C2 son ortogonales si:


𝑡

∑aibi = aibi = a1b1 + a2b2 + a3b3 +…..+ atbt = 0


𝑖=1

Teorema: Con t parámetros se puede construir un grupo con un máximo de t-1 contrastes ortogonales.
• Ejemplo A: T = 4. Primero se construye un contraste, debajo de los positivos se pone otro contraste
1 y -1 y en los otros espacios se colocan ceros y en la tercera línea debajo de los negativos se pone
otro contraste 1 y -1 y los demás espacios se llenan con ceros.

T1 T2 T3 T4
C1 1 1 -1 -1
C2 1 -1 0 0
C3 0 0 1 -1
Se comprueba si son ortogonales:

C1 y C2 = (1)(1) + (1)(-1) + (-1)(0) + (-1)(0)


=1–1+0+0
=0
22
C1 y C3 = (1)(0) + (1)(0) + (-1)(1) + (-1)(-1)
= 0 + 0 -1 + 1
=0

C2 y C3 = (1)(0) + (-1)(0) + (0)(1) + (0)(-1)


=0–0+0+0
=0

Por lo tanto, C1 y C2, C1 y C3 y C2 y C3 si son contrastes ortogonales.


• Ejemplo B: T = 4.
T1 T2 T3 T4
C1 3 -1 -1 -1
C2 0 2 -1 -1
C3 0 0 1 -1

Se comprueba si son ortogonales:


C1 y C2 = (3)(0) + (-1)(2) + (-1)(-1) + (-1)(-1)
=0–2+1+1
=0

C1 y C3 = (3)(0) + (-1)(0) + (-1)(1) + (-1)(-1)


= 0 + 0 -1 + 1
=0

C2 y C3 = (0)(0) + (2)(0) + (-1)(1) + (-1)(-1)


=0+0-1+1
=0

Por lo tanto, C1 y C2, C1 y C3 y C2 y C3 si son contrastes ortogonales.

Procedimiento SCHEFFE:
1.- Plantear el contraste
2.- Plantear Ho y Ha 𝑡

3.- Encontrar el estimador del contraste: c^ = a1Y1 + a2Y2 + …+ atYt = ∑ 𝒂𝑖𝒀𝑖


𝑖=1
4.- Calcular la DMS de SCHEFFE:
𝑡
𝒂𝟐 𝒊
= √ (t-1)Fc = Fgl(T) CM(E) ∑
gl(ε),α 𝒓𝒊
𝑖=1

^
5.- Decisión: Si │c │> se rechaza Ho.

¿Qué prueba elegir?


1.- Si el número de tratamientos es igual a dos, utilizar cualquier prueba de comparación de medias.
2.- Si son muchos tratamientos, utilizar TUKEY.
3.- Si se desea comparar cada tratamiento con el testigo, utilizar DUNNETT.
4.- Si se desea comparar grupos de tratamientos, utilizar SCHEFFÉ.
23

También podría gustarte