Introducción a la Experimentación Agronómica
Introducción a la Experimentación Agronómica
GRUPO 5°AA.
Dra. Esmeralda Cázares Sánchez
UNIDAD 1
INTRODUCCIÓN A LA EXPERIMENTACIÓN
Las técnicas de la estadística juegan un papel muy destacado en estos tres aspectos del método científico.
Los dos tipos de razonamientos con los que se relaciona la Metodología estadística son:
o Deductivo: Por ejemplo, la caracterización de un conjunto de datos.
o Inductivo: Por ejemplo, la generalización de las conclusiones.
Ciencia: Cuerpo de doctrinas sistematizado que constituye un ramo particular del saber humano. Este concepto
“moderno”, surge en el siglo XVII con la revolución científica iniciada por:
Johannes Kepler (1571-1630), Galileo Galilei (1564-1642), Isaac Newton (1642-1727), Nicolás Copernicus (1473-
1543). Los fundadores de la ciencia moderna tenían dos méritos que difícilmente se encuentran juntos: una inmensa
paciencia para observar hechos y una gran audacia para formular hipótesis.
1
c) Confrontación de la información obtenida con las consecuencias de las hipótesis postuladas.
Estadística descriptiva Estadística inferencial o inductiva
Organización de los datos Generalizar aspectos característicos de la información
Presentación gráfica Examinar su compatibilidad con las consecuencias de las hipótesis que
se sustentan
Descripción Cuantificación de la incertidumbre mediante principios probabilísticos
Resaltar aspectos característicos
1.2.1 Población
Conjunto o colección de objetos que se caracterizan por poseer ciertas propiedades específicas. Estadísticamente,
es el conjunto de resultados potenciales de un experimento aleatorio, si este se repitiera en todas las unidades a las
que se quiere investigar.
✓ Tamaño de la población: Es el número total de unidades o elementos de que consta una población y se
denota con la letra mayúscula N.
1.2.2 Parámetro
Los parámetros son medidas que se utilizan para caracterizar a una población y su valor depende de la característica
de interés. // Son constantes desconocidas que se refieren a una población y se estiman a partir de una muestra.
Los más utilizados son los totales, promedios, cocientes y porcentajes (Cuadro 1).
Los estimadores, se calculan con los datos de una muestra y ayudan a estimar los parámetros poblacionales (Cuadro
1).
Cuadro 1. Parámetros y estimadores utilizados en muestreo.
Parámetro Estimador Con que se estima
= Promedio de la población. ^
y = Promedio de la muestra.
2 = Varianza de la población. ^2 s2= Varianza de la muestra.
= Desviación estándar de la población. ^ s = Desviación estándar de la muestra.
= Total de la población. ^
P = Proporción de la población. P^
1.2.3 Muestra
Subconjunto de elementos o unidades, seleccionados de alguna manera, de la población en estudio.
• Estadísticamente, es el conjunto de resultados que se colectan en una investigación, debe ser un
subconjunto de la población en estudio.
• Es una colección de variables aleatorias.
✓ Tamaño de muestra: Número de unidades que forman a una muestra. Se denota con la letra minúscula n.
2
[Link].1 Muestra aleatoria: Una vez realizadas las repeticiones del experimento, es una colección de variables
aleatorias. Las observaciones son una realización de la muestra. Las variables aleatorias que la integran deben ser
independientes.
[Link] Objetivo: Aprender de manera rápida y fácil los aspectos sobresalientes del conjunto de datos. De aquí surge
el concepto de estadística descriptiva: Consiste en un conjunto de técnicas para la organización, presentación
gráfica y cálculo de “cantidades representativas” de un grupo de datos. Es la parte más antigua de la estadística.
[Link] La incertidumbre: Se define como inseguridad, duda o falta de certeza. Estadísticamente la incertidumbre
es inherente a cualquier proceso en que se extienden conclusiones hacia un conjunto mayor que aquel sobre el que
se tiene información.
Otra fuente de incertidumbre puede ser una misma actividad realizada repetidas veces.
Ejemplo B: Mediciones realizadas cada estudiante del largo y ancho del escritorio del profesor. En este caso por lo
general, se obtienen datos variables, ya que dependen de las habilidades de cada individuo para realizar las
mediciones. Por lo tanto, el papel de la estadística es cuantificar la incertidumbre, de aquí surge el concepto de
estadística inductiva o inferencia estadística como el conjunto de técnicas que nos permiten hacer inducciones en
las que el grado de incertidumbre es cuantificable.
3
1.2.5 Planteamiento de hipótesis
En estadística, las hipótesis se plantean de dos formas:
Hipótesis nula o Ho: Es aquella que el investigador está dispuesto a sostener como plausible, a menos que
la evidencia experimental en su contra sea sustancial.
Ejemplo:
En un invernadero se tienen plántulas de tomate que van a trasplantarse posteriormente y están siendo atacadas
por una enfermedad. Se ha decidido aplicar un tratamiento a base de extractos vegetales, si más del 25 % de las
plántulas están afectadas. Establezca el juego de hipótesis pertinente al problema.
Planteamiento:
Ho: Las plántulas de tomate no están enfermas en más del 25 %.
Ha: Las plántulas de tomate si están enfermas en más del 25 %.
Ho es cierta Ho es falsa
Rechazar Ho Error Decisión correcta
Decisión tomada (Llamado Error Tipo I)
No rechazar Ho Decisión correcta Error
(Llamado Error Tipo II)
De acuerdo a la distribución de la variable aleatoria, se elige una regla de decisión, en la cual se establecen
los valores de la estadística de prueba que producirán la región de rechazo de la Hipótesis nula (Ho), cuando se
analice la muestra. A este conjunto de valores se les llama “región de rechazo de la prueba”.
En una prueba de hipótesis, el valor máximo de la probabilidad de error tipo I, es llamado el nivel de
significancia de la prueba. Ocasionalmente, también se le llama el tamaño de la prueba.
4
1.3 La sumatoria y sus propiedades
Desarrollo de la sumatoria
Valor más pequeño
del subíndice i
del subíndice i ∏ Xi = X1 * X2 * X3 * X4
i=1
Desarrollo de la
Valor más pequeño multiplicatoria
del subíndice i
Ejemplo de sumatoria:
7
∑ Xi = X4+ X5+ X6+ X7
i=4
El número de términos que puede tener la sumatoria es igual al número de valores que puede tomar el
subíndice: i = 4, 5, 6, 7. Debe ser lo más simple posible (no complicado).
Propiedades:
P1: Sumatoria de una constante.
n
∑ C = nC
i=1
5
UNIDAD 2
EJECUCIÓN DE LA EXPERIMENTACIÓN
En la investigación es común obtener grandes cantidades de información provenientes de datos de campo, colección
directa de medidas de alguna variable de interés observadas por el investigador tal y como se presentan en la
naturaleza o generadas mediante procesos experimentales para probar una o varias hipótesis de interés, cuyo
análisis conduce a resultados que se pretenden aplicar. Al respecto a continuación se presentan algunos aspectos
importantes (Herrera y Barreras, 2001):
• El análisis apropiado de la información, permite hacer inferencias válidas acerca de la población en estudio.
• De acuerdo al diseño experimental utilizado, debe ser el análisis de la información de tal manera que
permita determinar las relaciones causa efecto que existan entre las variables.
• El uso adecuado de la metodología estadística permite al investigador validar o replantear sus hipótesis.
• Los procedimientos estadísticos utilizados requieren el auxilio de computadoras que simplifiquen los
cálculos.
• El programa de análisis estadístico Statistical Analysis System “SAS”, es uno de los más completos y versátiles
ampliamente utilizado en universidades nacionales y del extranjero. Por su lenguaje lógico y rapidez en la
solución de problemas, permite manejar grandes bases de datos.
Variable respuesta: Es aquella que se mide o se evalúa para detectar el efecto que producen los tratamientos.
Ej: Rendimiento.
Número de repeticiones: Se dice que un tratamiento tiene n repeticiones si se aplica a n unidades experimentales.
Ej:
T3 T1 T2 T1 = 4 repeticiones
T2 = 2 repeticiones
T3 T2 T1
T3 = 2 repeticiones
T4 = 1 repetición
T1 T1 T4
6
Error: Es la diferencia entre una observación y el valor verdadero del parámetro: εi = Yi – μ donde i = 1,2,….n
Error puro: Es la variabilidad que presentan los valores de la variable respuesta medidos en unidades experimentales
homogéneas que reciben el mismo tratamiento. Ayuda a explicar el error experimental.
Bloque: Conjunto de unidades experimentales homogéneas que producen el mismo efecto cuando se aplica el
mismo tratamiento a dichas Unidades Experimentales. Son homogéneas con respecto al efecto que producen más
no a la igualdad física.
Ejemplo 1: Se tienen parcelas experimentales de una variedad comercial de maíz híbrido y se espera que el
rendimiento de grano sea similar al aplicar cierto tratamiento de fertilización o sea diferente si las dosis de
fertilización son distintas.
Ejemplo 2: Se tienen parcelas experimentales de maíz híbrido de diferentes variedades, por lo que se espera que el
rendimiento sea diferente al aplicar cierto tratamiento de fertilización por el efecto de la variedad (este sería el
bloque).
Testigo: Es un tratamiento especial, que permite comparar el efecto de los tratamientos sobre las unidades
experimentales. Puede tomarse como referencia de una investigación previa, publicada en un artículo científico o
derivada de un trabajo anterior en la línea de investigación.
7
UNIDAD 3
1.- Normalidad: Que los datos tengan una distribución normal. Se hace una prueba de normalidad por cada
tratamiento (no con todos los datos).
Y ij
12 Evaluar si
T1 10 Provienen de una
11 Distribución
9 Normal
2
T2 1
3 “
4
100
T3 112
115 “
110
2.- Varianzas homogéneas: Los valores de la variable respuesta en cada tratamiento deben tener la misma
varianza.
3.- Independencia: Los valores de la variable respuesta deben ser independientes unos de otros. Sin
embargo, en diseños experimentales no existe una prueba para detectar si los valores de la variable
respuesta son independientes, esto debido al error experimental.
3.1 Prueba de normalidad: Mediante el procedimiento estadístico 𝑥 2 se prueba si un conjunto de datos proviene
de una distribución normal.
ᵡc
= iΣ= 1=
Ei ᵡ ᵡ
t
=
k - g -1
Oi = Valores observados
Ei = Valores esperados
g = No. de parámetros estimados = 2 porque se estima μ y σ
2 2
Rechazar Ho si >
ᵡc ᵡ
donde K = Número de clases
t
8
3.2 Prueba de Homogeneidad de Varianzas de Barttlet: Es un procedimiento para probar que K poblaciones tienen
la misma varianza.
ᵡ c
= iΣ= 1=
Ei t
=
k-1 ᵡ ᵡ
Oi = Valores observados
Ei = Valores esperados
g = No. de parámetros estimados = 2 porque se estima μ y σ
2 2
Rechazar Ho si
ᵡ>
c ᵡ
donde K = Número de tratamientos
t
Llamado también diseño de un criterio de clasificación, completamente aleatorizado. Es aquel en el cual los
tratamientos se asignan al azar a las unidades experimentales.
Ejemplo: Se tiene un experimento con 3 tratamientos y 2 repeticiones de cada uno. En una urna se coloca el número
total de unidades experimentales = 6 y en otra los números de los tratamientos repetidos 2 veces. Se mezclan bien.
1 3 T3 T2 T1
2 4 5
6 T1 T3 T2
Se toman muestras de tamaño 1 sin remplazo, es decir, se toma un papel al azar de cada urna y ya no se regresan a
las urnas:
1.- T1 4.-
4 2 T1
2.- 5.-
1 T3 6 T3
3.- 6.-
5 T2 3 T2
Datos:
R1 R2 … Rr
T1 Y11 Y12 … Y1r Y11, Y12, ….Ytr = Valores de la variable respuesta
T = Número de tratamientos
9
R = Número de repeticiones
Aplicación: Se utiliza en experimentos de laboratorios, invernaderos o en Condiciones Controladas.
PRUEBAS DE HIPÓTESIS:
Ho: Todos los tratamientos producen el mismo efecto.
Ha: No todos los tratamientos producen el mismo efecto.
Ho: τ1 = τ2 = ….. τ3
Ha: ϶ i ≠ j tal es que τi ≠ τj
϶ = Existe
τ = Efecto del tratamiento
Nota: Los tratamientos no se miden, lo que se mide es el efecto de los tratamientos.
gl(T)
Fc = CM (T) Ftablas = Fgl(ε),α
CM (E)
10
Cuadro resumen del Análisis de Varianza para el diseño Completamente al Azar
Fuente de Grados de Suma de Cuadrados Fc Ft Sig
Variación libertad Cuadrados Medios
𝑡
Tratamientos T-1 ∑ 𝒀𝒊2 . SC(T) CM(T) gl(T) *
____
𝑖=1
Y2…
_ ____ GL(T) CM(E) Fc = Fgl(ε),α **
r tr ns
Error Por diferencia SC(E)
GL(E)
Total Tr-1 𝑡 𝑟
∑ ∑ 𝒀2 𝒊𝒋 Y2…
_ ____
𝑖=1 𝑗=1
tr
Ingenieros en Agronomía, desean conocer el efecto de un novedoso producto para reducir los días a germinación
de las semillas recalcitrantes. Para ello, en cuatro cajas Petri (repeticiones), se colocaron 10 semillas por cada una y
se agregaron 50 mL de agua a tres diferentes temperaturas (tratamientos térmicos: T1 = 20°C, T2 = 30°C y T3 =
40°C), registrándose el tiempo en días, que tardó en germinar la última semilla, con los siguientes resultados:
R1 R2 R3 R4 Total
T1 15 14 11 13 53
T2 16 13 15 10 54
T3 8 4 6 5 23
130
Hipótesis:
Ho: Los tres tratamientos térmicos tienen el mismo efecto en el tiempo de germinación de las semillas.
Ha: No todos los tratamientos térmicos, tienen el mismo efecto en el tiempo de germinación de las semillas.
Procedimiento de cálculo:
GL (Tra) = t-1 = 3-1 = 2
GL (Tot) = (t)(r) - 1 = 3(4) - 1= 12 -1 = 11
GL (E) = GL(TOT) – GL(T) = 11 – 2 = 9
𝑡 3
∑ 𝒀𝒊2 . 2 ∑ 𝒀𝒊2 . 2 2 2 2 2
SC(Tra) = 𝑖=1____ _Y ____
.. =𝑖=1____ _Y____
.. = Y___
1 + Y___
2 + Y___
3 – Y___
..
r tr 4 (3)(4) 4 4 4 12
11
(53)2 +____
= ____ (54)2 +____
(23)2 –_____
(130)2 = 155.1667
4 4 4 12
Nota: La suma de cuadrados siempre es positiva.
𝑡 𝑟
SC(Tot) = ∑ ∑ 𝒀2 𝒊𝒋
Y2.. = ∑
_ ____
3 4
Y2…=
_ ____ Y112 + Y122 … + Y342 – Y.2..
∑ 𝒀2 𝒊𝒋
𝑖=1 𝑗=1
tr 𝑖=1 𝑗=1
(3)(4) Y2… 12
= 152 + 142 + 112 + 132 + 162 + 132+ 152 + 102 + 82+ 42+ 62+52 - (130)2
_____
12
= 1602 – 1408.33 = 193.6667
Fgl(T) = F2 = 4.256
gl(ε), α 9, 0.05
12
Conclusión: Con un nivel de significancia del 5 % se concluye que:
No todos los tratamientos térmicos, tienen el mismo efecto en el tiempo de germinación de las semillas.
3. Comparaciones y decisión
Si
│Yi. - Yj. │> DHS τi ≠ τj
T2: 13.50 a
T1: 13.25 a
T3: 5.75 b
Conclusiones:
- El tratamiento térmico que presentó el menor número de días a germinación es el 3.
- Tanto el tratamiento 1 como el 2 son similares, con el mayor número de días a germinación.
13
3.7 Diseño Experimental Bloques al Azar
Llamado también: “Diseño de dos criterios de clasificación sin interacción, bloques aleatorizados, bloques completos
aleatorizados o bloques completos randomizados”. Es aquel en el cual:
1) Las unidades experimentales se clasifican en grupos (bloques) en función de un gradiente de variabilidad,
de tal manera que cada grupo o bloque contenga unidades experimentales homogéneas.
2) Los tratamientos se asignan al azar a las unidades experimentales dentro de cada bloque (aleatorización).
Ejemplo:
Bloque I Bloque II Bloque III
T3 T2 T1
% CO2
T1 T3 T3
T2 T1 T2
Nota: Este tipo de diseño sólo se utiliza si no existe interacción del Tratamiento con el Bloque, es decir, los
tratamientos siguen la misma tendencia en cada bloque.
Ejemplo:
20 20
15 15
BLO I BLO I
10 10
BLO II BLO II
BLO III BLO III
5 5
BLO IV BLO IV
0 0
T1 T2 T3 T1 T2 T3
No existe interacción Tratamiento por Bloque Si existe interacción Tratamiento por Bloque
϶ = Existe
τ = Efecto del tratamiento
β = Efecto del bloque
Nota: Los tratamientos y los bloques no se miden, lo que se mide es su efecto.
Fc = CM (BLO) Fgl(Blo)
Fc =gl(ε),α
CM (E) Rechazar Ho si Fc > Ft
∑ ∑ 𝒀𝒊𝒋2
𝑖=1 𝑗=1 _ ____Y2..
tr
15
3.4 Diseño de Cuadro Latino
Para este tema y el anterior (Bloques al Azar) se realizarán ejercicios prácticos con software, que se anexarán al
portafolio de evidencias para su evaluación.
4.1 Definiciones
4.1.1 Factor
Conjunto de tratamientos que tienen algo en común, por ejemplo:
a) Tiempos: t1=24 h, t2=48 h, t3=72 h.
b) Temperaturas: T1= 10°C, T2= 15°C, T3= 20°C.
c) Concentración de CO2: 150 ppm, 250 ppm, 350 ppm.
d) % de sombreado: S1=0 %, S2=25 %, S3=50 %, S4=75 %, S5=100 %.
Combinaciones posibles: Se combina cada uno de los niveles del primer factor con los del segundo factor, como a
continuación se presenta:
1. N1P1
2. N1P2
3. N2P1
4. N2P2
5. N3P1
6. N3P2
16
4.1.6 Factorial Desbalanceado
Las combinaciones estudiadas no tienen igual número de repeticiones (r).
1. N1P1 - r = 30
2. N1P2 - r = 25
3. N2P1 - r = 12
4. N2P2 - r = 8
4.1.7 Recomendaciones
- No diseñar experimentos con una sola repetición, se debe utilizar la mayor cantidad posible (lo ideal
son más de 30).
- Estudiar pocos factores con muchos niveles.
- Llevar a cabo los experimentos bajo condiciones controladas, como los laboratorios e invernaderos.
Los experimentos a cielo abierto, pueden afectarse por la variación en el tipo de suelo, humedad,
microorganismos, etc.
17
UNIDAD V. ARREGLOS PARA EXPERIMENTOS FACTORIALES
P1 P2 P3 P4 P 5
Nota: Para las unidades IV y V se resolverán ejercicios con software y se anexarán al portafolio de evidencias
para su evaluación.
18
UNIDAD VI. PRUEBAS DE COMPARACIONES DE MEDIAS
En El ANAVA, si no se rechaza Ho se concluye que todos los tratamientos producen el mismo efecto y el análisis
estadístico, llega a su fin y se puede recomendar cualquier tratamiento ya que todos producen efectos similares.
Si se rechaza la Ho, significa que no todos los tratamientos producen el mismo efecto, el análisis estadístico continúa,
con una prueba de comparaciones de medias para detectar el o los mejores tratamientos: DMS, TUKEY, DUNCAN,
DUNNETT, SCHEFFE, CONTRASTES ORTOGONALES.
d = Y i - Yj
3. Comparaciones y decisión
Si
│Yi. - Yj. │> DMS τi ≠ τj
4. Se ordenan los promedios de los tratamientos de mayor a menor y se asignan letras en orden alfabético de
acuerdo a la similitud estadística.
3. Comparaciones y decisión
Si
│Yi. - Yj. │> DHS τi ≠ τj
19
6.3 Prueba de rango múltiple de significancia de DUNCAN (RMD)
Procedimiento:
1. Encontrar los Yi de los tratamientos y ordenarlos en forma descendente.
2. Calcular DMS (Desviación media significativa).
3. Comparaciones y decisión
Si │Yi. - Yj. │> DMS (DUNCAN)S τi ≠ τj
3. Comparaciones y decisión:
Si │Yi. - Yj. │> DMS (SNK)S τi ≠ τj
• Si alguno de estos valores viene entre paréntesis para elevarlo al cuadrado, no es una combinación lineal
porque se está indicando una potencia es decir todavía no se resuelve: Ej: 6X1 + 3X2 + 4(X3)2.
• Si ya viene elevada a la potencia indicada entonces si es una combinación lineal: Ej: 6X1 + 3X2 + 4X32 es una
combinación lineal de X1, X2 y X32.
Contraste: Es una combinación lineal de parámetros donde las constantes suman cero (0).
Parámetros: T1, T2, T3, T4
T1 + T2 – T3 – T4 = es una combinación lineal porque se multiplican por +1, +1, -1, -1 y suman
cero, por lo tanto, es un contraste.
Contrastes ortogonales: Dos contrastes C1 y C2 son ortogonales si la suma de productos de las constantes
respectivas suma cero (0):
21
• Se multiplican las constantes de los contrastes:
= (1)(1) + (1)(-1) + (-1)(0) + (-1)(0)
=1-1+0+0
=0
por lo tanto C1 y C2 son contrastes ortogonales
Otra forma de definir los contrastes ortogonales es mediante las siguientes fórmulas:
𝑡 𝑡 𝑡
En forma desarrollada:
𝑡 𝑡
𝑡
C2 = ∑biTi = b1T1 + b2T2 + b3T3 +…..+ btTt b1 + b2 + b3 …..+bt = bi = 0
𝑖=1
Teorema: Con t parámetros se puede construir un grupo con un máximo de t-1 contrastes ortogonales.
• Ejemplo A: T = 4. Primero se construye un contraste, debajo de los positivos se pone otro contraste
1 y -1 y en los otros espacios se colocan ceros y en la tercera línea debajo de los negativos se pone
otro contraste 1 y -1 y los demás espacios se llenan con ceros.
T1 T2 T3 T4
C1 1 1 -1 -1
C2 1 -1 0 0
C3 0 0 1 -1
Se comprueba si son ortogonales:
Procedimiento SCHEFFE:
1.- Plantear el contraste
2.- Plantear Ho y Ha 𝑡
^
5.- Decisión: Si │c │> se rechaza Ho.