PRUEBAS DE SIGNIFICANCIA
Las pruebas de significación estadística sirven para comparar variables entre distintas
muestras. Si la distribución de la muestra es normal se aplican los llamados tests paramétricos.
Si la distribución no puede asumirse normal se aplican las pruebas no paramétricas. Hay que
tener siempre en cuenta que los tests paramétricos son más potentes y dan más información
que los no paramétricos, por lo que, si pueden usarse, se prefieren. El uso indiscriminado de
muestras de distribución fuera de la normalidad conlleva el peligro de obtener conclusiones
erróneas.
PRUEBA F
en este tipo de prueba utiliza la relación entre las desviaciones estándar para indicar si hay una
diferencia significativa entre dos métodos de análisis.
Ésta es una prueba diseñada para indicar si hay una diferencia significativa entre dos métodos
con base en sus desviaciones estándar. F se define en términos de las varianzas de los dos
métodos, donde la varianza es el cuadrado de la desviación estándar:
s 21
F= 2
s2
Ejemplo:
Se está desarrollando un nuevo procedimiento colorimétrico para determinar el contenido de
glucosa en suero de sangre. Se ha elegido el procedimiento estándar Folin-Wu para comparar
con éste sus resultados. De los dos siguientes conjuntos de análisis de réplica de la misma
muestra, determinar si la varianza de este método difiere significativamente de la del método
estándar
Método Método folin-
nuevo(mg/dL wu(mg/dL)
)
127 130
125 128
123 131
130 129
131 127
126 125
129
127 128
Solución:
❑
2 ∑ ( x ¿ ¿ i 1−x́ 1)2 50
s=
1 = =8.3 ¿
N 1−1 7−1
❑
2 ∑ ( x ¿ ¿ i 2−x́ 2)2 50
s=
2 = =4.8 ¿
N 2−1 6−1
8.3
F= =1.73
4.8
Las varianzas se ordenan de manera que el valor de F sea >1. El valor F tabulado para
V 1=6 y V 2=5 es 4.95. Como el valor calculado es menor que éste, se concluye que no hay
diferencia significativa en la precisión de los dos métodos; es decir, las desviaciones estándar
son sólo de error aleatorio y no dependen de la muestra.
PRUEBA T DE STUDENT
En este método se comparan dos conjuntos de mediciones de réplicas hechas con dos
métodos diferentes; uno de ellos será el método de prueba, y el otro es un método aceptado.
Se calcula un valor estadístico de t y se compara con el valor tabulado para el número dado de
pruebas al nivel de confianza deseado Si el valor calculado de t excede el valor tabulado de t,
entonces hay una diferencia significativa entre los resultados de los dos métodos a ese nivel de
confianza
Entre los usos más frecuentes de las pruebas t se encuentran:
El test de posición de muestra única por el cual se comprueba si la media de una
población que se conoce posee una distribución normal, tiene un valor especificado en
una hipótesis nula.
La prueba de posición para dos muestras, por el cual se comprueba si las medias de
dos poblaciones distribuidas en forma normal son iguales. Todos estos test son
usualmente llamados test t de Student, a pesar de que estrictamente hablando, tal
nombre sólo debería ser utilizado si las varianzas de las dos poblaciones estudiadas
pueden ser asumidas como iguales; la forma de los ensayos que se utilizan cuando esta
asunción se deja de lado suelen ser llamados a veces como Prueba t de Welch. Estas
pruebas suelen ser comúnmente nombradas pruebas t desapareadas o de muestras
independientes, debido a que tienen su aplicación más típica cuando las unidades
estadísticas que definen a ambas muestras que están siendo comparadas no se
superponen.5
La prueba de hipótesis nula por el cual se demuestra que la diferencia entre dos
respuestas medidas en las mismas unidades estadísticas es cero. Por ejemplo,
supóngase que se mide el tamaño del tumor de un paciente con cáncer. Si el
tratamiento resulta efectivo, lo esperable sería que el tumor de muchos pacientes
disminuyera de tamaño luego de seguir el tratamiento. Esto con frecuencia es referido
como prueba t de mediciones apareadas o repetidas.
La prueba para comprobar si la pendiente de una regresión lineal difiere
estadísticamente de cero.
PRUEBAS T PARA 2 MUESTRAS APAREADAS Y DESAPAREADAS
Las pruebas-t de dos muestras para probar la diferencia en las medias pueden ser
desapareadas o en parejas. Las pruebas t pareadas son una forma de bloqueo estadístico,
y poseen un mayor poder estadístico que las pruebas no apareadas cuando las unidades
apareadas son similares con respecto a los "factores de ruido" que son independientes de
la pertenencia a los dos grupos que se comparan. En un contexto diferente, las pruebas-
t apareadas pueden utilizarse para reducir los efectos de los factores de confusión en un
estudio observacional.
DESAPAREADA: Las pruebas t desapareadas o de muestras independientes, se utilizan
cuando se obtienen dos grupos de muestras aleatorias, independientes e idénticamente
distribuidas a partir de las dos poblaciones a ser comparadas. Por ejemplo, supóngase que
estamos evaluando el efecto de un tratamiento médico, y reclutamos a 100 sujetos para el
estudio. Luego elegimos aleatoriamente 50 sujetos para el grupo en tratamiento y 50
sujetos para el grupo de control. En este caso, obtenemos dos muestras independientes y
podríamos utilizar la forma desapareada de la prueba t. La elección aleatoria no es esencial
en este caso, si contactamos a 100 personas por teléfono y obtenemos la edad y género de
cada una, y luego se utiliza una prueba t bimuestral para ver en que forma la media de
edades difiere por género, esto también sería una prueba t de muestras independientes, a
pesar de que los datos son observacionales.
APAREADA: Las pruebas t de muestras dependientes o apareadas, consisten típicamente
en una muestra de pares de valores con similares unidades estadísticas, o un grupo de
unidades que han sido evaluadas en dos ocasiones diferentes (una prueba t de mediciones
repetitivas). Un ejemplo típico de prueba t para mediciones repetitivas sería por ejemplo
que los sujetos sean evaluados antes y después de un tratamiento.
PRUEBA PAREADA T
En el laboratorio de química clínica a menudo se prueba un nuevo método contra otro
aceptado analizando varias muestras diferentes de composición ligeramente variable (dentro
del intervalo fisiológico). En este caso, el valor t se calcula en una forma ligeramente diferente.
Se calcula la diferencia entre cada una de las mediciones pareadas de cada muestra. Se calcula
una diferencia promedio D , y las desviaciones individuales de cada una con respecto a D se
usan para calcular una desviación estándar, Sd . El valor t se calcula mediante
D́
t= √N
Sd
ANALISIS DE VARIANZA (ANOVA) DE UN FACTOR
La técnica de análisis de varianza (ANOVA) también conocida como análisis factorial y
desarrollada por Fisher en 1930, constituye la herramienta básica para el estudio del efecto de
uno o más factores (cada uno con dos o más niveles) sobre la media de una variable continua.
Es por lo tanto el test estadístico a emplear cuando se desea comparar las medias de dos o
más grupos. Esta técnica puede generalizarse también para estudiar los posibles efectos de los
factores sobre la varianza de una variable.
VALIDACIÓN DE PROCESOS ANALITICOS
La validación de métodos es el proceso de documentar o probar que un método analítico
proporciona datos analíticos aceptables para el uso que se propone. Los conceptos básicos del
proceso de validación cubren dos aspectos:
● El problema y los requisitos de datos
● El método y sus características de desempeño
La validación de un método o procedimiento de medición por un laboratorio se hace necesaria
cuando el enunciado del método o procedimiento permite libertades a quien lo aplique tales
que el resultado de la aplicación pueda variar significativamente como consecuencia.
PROCESO DE VALIDACIÓN
La necesidad de validar un método y el procedimiento que se ha de seguir son temas
de decisión profesional, aunque en la actualidad existen procedimientos y
lineamientos bastante bien prescritos que ayudan en la toma de decisiones
Las organizaciones gubernamentales e internacionales han establecido lineamientos
para la correcta validación de métodos, en especial para métodos de presentación
reglamentaria. Por lo general incluyen estudios sobre:
Selectividad
Intervalo
Linealidad
Límite de detección
Exactitud
Límite de cuantificación
Precisión
Consistencia
Sensibilidad