Contenido
¿QUÉ ES UN SISTEMA DE MEDICIÓN?................................................................................................1
PARTES DE UN SISTEMA DE MEDICIÓN:.............................................................................................4
CALCULOS DE REPETIBILIDAD Y REPRODUCIBILIDAD.........................................................................5
¿QUÉ ES LA INCERTIDUMBRE?...........................................................................................................9
IMPORTANCIA DE LA INCERTIDUMBRE EN LA CALIBRACIÓN DE LOS INSTRUMENTOS DE MEDICIÓN:
.........................................................................................................................................................10
¿QUÉ ES UN SISTEMA DE MEDICIÓN?
R= Conjunto de herramientas de medición, hardware, software, personal y supuestos utilizados
para asignar un numero a la característica que está siendo medida.
Esto quiere decir que los sistemas de medición contemplan todos los factores que rodean el
proceso de una medición.
Primero debemos definir que es la medición; esta puede ser definida como la comparación entre
dos objetos en los que uno de ellos es tomado como referencia para poder asignar una magnitud
cuantitativa a los otros; el objeto de medición tomado como referencia de comparación son los
instrumentos utilizados en las mediciones; cada uno ofrece diferentes métodos de medición y
niveles de precisión.
Para poder garantizar la correcta captura de las mediciones, debemos asegurarnos de que todas
las personas involucradas en estos procesos estén capacitadas y que las herramientas presenten el
funcionamiento y calibración adecuada, estos conceptos se encuentran dentro la iniciativa “control
de medición”, siendo a su vez un concepto de “control de calidad”.
Otro concepto que considerar son las mediciones directas y indirectas:
1. Las mediciones directas: son aquellas obtenidas por el uso de instrumentos de medición
como el vernier, micrómetro, comparador de alturas, etc; los valores obtenidos por medio
de estas mediciones son conocidos como valores absolutos.
2. Mediciones indirectas: se consiguen por medio del uso de bloque patrón, comparador de
cuadrante y anillos patrón, estas herramientas generan un plano de referencia a partir del
cual se realizan las mediciones; son llamadas indirectas ya que dependen de otras
magnitudes.
Historia de las unidas de longitud:
1. En un inicio se solían usar las partes del cuerpo humano para establecer estas longitudes,
por ejemplo, los egipcios utilizaban la distancia que hay del codo a los dedos de la mano, el
cual solía tomarse entre 450-500mm, algunos ejemplos de este tipo de unidades son los
pies, yarda y la pulgada.
2. Después se utilizo la tierra como referencia, considerando a un metro como 1/10,000,000
parte de la distancia entre el ecuador y el polo norte, después se utilizo un disco de plata y
iridio para unificar la medición del metro.
3. El uso de la velocidad de la luz como referencia; este sistema se adoptó debido a la
necesidad de sustituir a los prototipos de plata y iridio que presentaban desgaste; por lo en
la “Conferencia General sobre Pesos y Medidas” celebrada en 1960 se definió al metro
como la cantidad de distancia que recorre la luz en 1/299,792,458 de segundo, creando
una relación entre el metro y la velocidad de la luz.
4. Durante la misma conferencia en la que se definió un metro en relación con la velocidad
de la luz, también se creó el Sistema Internacional de Unidades o SI.
Errores en las mediciones:
Estos se clasifican de acuerdo con la causa que los genera y son 3:
1. Errores sistémicos: tienen una causa especifica la cual puede ser causada por diferencias
entre instrumentos de medición, diferencias en la temperatura, etc.
2. Errores aleatorios: causados por circunstancias aleatorias.
3. Errores por negligencia: generados por el uso incorrecto de los operadores al realizar las
mediciones.
TOLERANCIAS:
Todas las mediciones presentan una diferencia con respecto al valor teórico o medida perfecta; el
problema radica en definir el rango aceptado de valores sobre los cuales puede variar una medida
experimental; este rango es denominado tolerancia; definido como la diferencia entre valores
máximos y mínimos aceptados para las dimensiones de un objeto.
La importancia de las tolerancias es que nos ayudan a encontrar un equilibrio entre el costo de
fabricación y funcionamiento de una pieza.
Ajuste: es una aplicación de las tolerancias dimensionales; esta hace referencia al modo en que las
dimensiones de las piezas interactúan entre sí; por ejemplo, nos permitirá conocer si nuestra pieza
estará rígida o si se podrá deslizar dentro de una ranura.
Mediciones con instrumentos analógicos y digitales:
En la actualidad, el uso de instrumentos digitales reduce los errores causados por la interpretación
humana, además de que reduce el tiempo de lectura al presentar las mediciones en una pantalla
digital, pero no todas son ventajas; en algunos casos, las medidas mostradas pueden fluctuar de
acuerdo con la cantidad de fuerza aplicada por el operador, lo que podría causar un problema
acerca de que medición tomar.
En el caso de los instrumentos analógicos; presentan la ventaja de que las mediciones son estables
en todo momento, sin embargo, se aumentará la variación (error) de la medición generada por el
operador.
TRAZABILIDAD METROLOGICA:
Son estándares acerca de los procesos utilizados para tener una precisión alta en las mediciones,
estos estándares están dados tanto por los organismos nacionales de investigación de cada país
como los organismos internacionales como el Comité Internacional de Pesos y Medidas (CIPM).
FACTORES AMBIENTALES DE LOS SISTEMAS DE MEDICIÓN:
Temperatura: ISO ha definido una temperatura de 20°C.
Limpieza: Se refiere a la necesidad de mantener el espacio de trabajo libre de polvo o partículas
que pueden alterar el funcionamiento de los instrumentos de medición.
EVALUACIÓN DE LAS MEDIDAS:
En un principio la confiabilidad de una medida correspondía al sesgo del valor medido y las
variaciones con los valores reales, pero la poca repetibilidad de las mediciones generaba un bajo
criterio de confiabilidad, por esto se eligió generar la incertidumbre; para poder definir un nivel de
confiabilidad para todas las posibles mediciones.
Calibración:
Esta es una relación entre el valor indicado por la herramienta de medición y la dimensión real.
Para asegurar una correcta calibración a lo largo del tiempo , se debe realizar una revisión
periódica del estado de los instrumentos (calibración periódica).
INSTRUMENTOS DE UN SISTEMA DE MEDICIÓN:
Existen una gran variedad, cada una con características proyectadas a ciertas geometrías; estos son
algunos ejemplos:
Calibradores vernier.
Micrómetros.
Comparadores ópticos.
Máquinas de medición por coordenadas (MCC).
Máquinas de comparación óptica.
Medidores de rugosidad.
CRITERIOS PARA LA SELECCIÓN DE SISTEMAS DE MEDICIÓN:
1. Forma del objeto: seleccionar el instrumento que mejor se acople a la geometría del
objeto.
2. Precisión: De acuerdo con la precisión requerida en las mediciones.
3. Costo: de acuerdo con los precios de los instrumentos.
4. Por entorno de trabajo: ciertas herramientas presentan reacciones diferentes ante las
condiciones del entorno.
5. Por aplicación: ya sea una longitud, ángulo, diámetro, etc.
PARTES DE UN SISTEMA DE MEDICIÓN:
S: estándar.
W: pieza de trabajo.
I: instrumento de medición.
P: persona y procedimiento.
E: medio ambiente.
Análisis R y R:
Son análisis estadísticos de repetitividad y reproducibilidad para tener una referencia de
confiabilidad en el proceso o persona
Repetibilidad: es la variabilidad presentada en las mediciones causada por los instrumentos, esta
se obtiene por la medición repetida por el mismo operador de una pieza con una herramienta, las
condiciones deben ser las mismas para cada medición; ósea mismo operador, instrumento,
momento del día, etc.
Reproducibilidad: definido como la precisión de las medidas al realizarse bajo condiciones
diferentes; nos ayuda a calcular que tanto se modifican las mediciones al cambiar ciertos factores.
CALCULOS DE REPETIBILIDAD Y REPRODUCIBILIDAD
La siguiente tabla representa las 3 mediciones realizadas sobre 10 objetos con dimensiones
virtualmente iguales.
Operador 1 2 3 4 5 6 7 8 9 10 Promedios
1
Medición x1 x1 x1 x1 x1 x1 x1 x1 x1 x1 x1
1
Medición x2 x2 x2 x2 x2 x2 x2 x2 x2 x2 x2
2
Medición x3 x3 x3 x3 x3 x3 x3 x3 x3 x3 x3
3
Promedio X1 X2 X3 X4 X5 X6 X7 X8 X9 X 10 xa
Intervalos: R1 R2 R3 R4 R5 R6 R7 R8 R9 R10 Ra
1. Para su cálculo primero se comienza obteniendo el promedio de las 3 mediciones
realizadas en cada moneda de cada operador.
(x 1 + x 2+ … x n )
x=
n
2. Obtenemos el promedio de los promedios obtenidos en el paso 1 para cada operador:
X 1 + X 2+ X 3+ …+ X n
x a=
n
3. Ahora calculamos los intervalos entre las 3 medidas de una misma moneda.
R=¿ a−b∨¿
Donde:
a= Mayor valor de desviación superior.
b= mayor valor de desviación inferior.
4. Ahora obtenemos el promedio de los intervalos de las 10 monedas:
R1 + R2 +…+ R n
Ra =
n
5. Comparación de promedios para cada moneda.
Comparamos los promedios en una tabla.
Promedios 1 2 3 4 5 6 7 8 9 10 Promedios
Operador 1 x1 x2 x3 x4 x5 x6 x7 x8 x9 x 10 x1a
Operador 2 x1 x2 x3 x4 x5 x6 x7 x8 x9 x 10 x2a
Operador 3 x1 x2 x3 x4 x5 x6 x7 x8 x9 x 10 x3 a
Promedios x́ 1 x́ 2 x́ 3 x́ 4 x́ 5 x́ 6 x́ 7 x́ 8 x́ 9 x́ 10 X́
de
medicione
s
6. Calculamos el promedio de promedios:
x́ 1 + x́ 2+ x́ 3 +…+ x́n
X́ =
n
7. Calculamos el intervalo de los promedios:
R p =¿ a−b∨¿
En donde:
a: es la desviación superior máxima entre los valores de promedios de mediciones.
b: es la desviación inferior máxima entre los valores de los promedios de mediciones.
8. Calculamos la diferencia de los promedios de las mediciones:
X DIFF =x 1a −x 2 a
Donde:
x 1 a = Mayor valor entre promedios.
x 2 a = Menor valor entre promedios.
9. Colocamos los valores de los promedios de medición y de los intervalos para cada
operador:
Operador 1 : x 1 a , Operador 2: x 2 a ,Operador 3 x 3 a
Promedio de intervalos para el operador 1 :R 1 a ,
Promedio de intervalos para el operador 2 ; R2 a
Promedio de intervalos para el operador 3 : R3 a
10. Encontramos el promedio de los promedios de los intervalos obtenidos en el paso 4.
R1 a + R2 a + R3 a+ …+ Rna
Ŕ=
n
11. Obtenemos el promedio de los promedios obtenidos en el paso 2.
X 1 a+ X 2 a + X 3 a + … X na
X́ =
n
12. Para el primer calculo de error por instrumento de medición; utilizaremos la siguiente
tabla de valores, con datos de la MSA de la AIAG.
Número de intentos K1
2 0.8862
3 0.5908
13. Aplicamos la siguiente formula:
EV = Ŕ X K 1
14. Para el cálculo de la variación de operador utilizaremos la siguiente tabla de valores:
Número de operadores K2
1 0.7071
2 0.5231
15. Ahora aplicamos la siguiente formula:
√ ( )
2
(EV )2
AV = ¿( X DIFF ∙ K 2)∨¿ − ¿
nr
Donde:
X DIFF = Diferencia entre promedios.
EV = Variación debido al equipo.
r= número de mediciones por pieza.
n= número de piezas utilizadas.
AV=variación por operador.
16. Para el cálculo de la reproducibilidad y repetibilidad de la herramienta utilizaremos la
siguiente formula:
GRR=√ AV 2 + EV 2
Donde:
AV=Variación de operador.
EV=Error por instrumento.
17. Ahora calculamos la variación generada por el número de piezas; para esto
necesitamos los siguientes valores:
No. de partes
2 0.7071
3 0.5231
4 0.4467
5 0.4030
6 0.3742
7 0.3534
8 0.3375
9 .3294
10 0.3146
18. Ahora aplicamos la siguiente formula para obtener la variación en partes:
PV =R P ∙ K 3
19. Ahora para el calculo del valor total de la variación de repetitividad y reproducibilidad:
TV = √GR R + P V
2 2
Donde GRR: es el valor de repetividad y reproducibilidad de la herramienta.
PV: Variación por cantidad de partes.
TV: valor total de la variación de repetitividad y reproducibilidad.
OBTENCIÓN DE PORCENTAJES:
Porcentaje total de variación en el equipo:
%EV =100 ( EV
TV )
Porcentaje total de variación de los evaluadores:
%AV =100 ( AV
TV )
Para el porcentaje de repetitividad y reproducibilidad:
%GRR=100 ( GRR
TV )
0¿ GRR ≤ 10la pieza está en condiciones de funcionamiento.
10%<GRR≤ 30%, la pieza requiere calibración o el operador necesita entrenamiento.
GRR>30%, la pieza no está en condiciones de funcionamiento.
Para el porcentaje total de variación por partes:
%PV =100 ( PV
TV )
¿QUÉ ES LA INCERTIDUMBRE?
R= es una representación cualitativa de la “duda” que tenemos acerca de una medida; también
puede ser definido como un parámetro que caracteriza a la dispersión de un mensurando.
Entre mas pequeña sea la incertidumbre, mayor exactitud poseemos en nuestra medición.
¿Cómo se realiza la medición de incertidumbre?
R= debemos determinar el tipo de incertidumbre que obtendremos; a continuación, se citan
los tipos de incertidumbre:
1. Incertidumbre estándar: incertidumbre que surge de la desviación estándar de las
medidas realizadas sobre un mensurando.
2. Incertidumbre típica combinada: Es la incertidumbre de una medición secundaria; en
este tipo, la incertidumbre es generada por diversas magnitudes que afectan a la
medida del mensurando.
3. Incertidumbre expandida: asigna un intervalo de valores en los que se espera que se
encuentran la mayoría de las mediciones.
PROCESO PARA ENCONTRAR UNA INCERTIDUMBRE ESTÁNDAR
En este caso se explicarán los pasos para la estimación de la incertidumbre estándar.
El primero paso es determinar las causas que podrían generar la incertidumbre:
A continuación, se citan las causas de una incertidumbre:
1. Presencia de magnitudes influyentes: magnitudes que pueden cambiar; un ejemplo
son las interferencias endógenas (hemoglobina, bilirrubina, lípidos) que pueden
afectar la medición de magnitudes bioquímicas.
2. Imprecisión interdiaria del proceso de medición.
3. Redondeo de los resultados: Causada por la negligencia o error por parte del operador.
El siguiente paso es la estimación de la incertidumbre ordinaria por dos procesos diferente:
Estimación tipo A: la incertidumbre se obtiene por medio de la medición constante del
mensurando, obteniendo el error de desviación estándar o el coeficiente de variación, esta
variación se debe normalmente a las imprecisiones interdiarias en el proceso de medición.
Estimación de tipo B: esta depende de las especificaciones proporcionadas por el productor,
por ejemplo, la cantidad de volumen que puede medir una probeta; para obtener la medida de
incertidumbre tenemos que observar la frecuencia de desviación realizada en diversas
medidas de un mensurando.
Para realizar el calculo de la desviación estándar se cita a continuación:
1. Obtener tantas medidas como sea posible para aumentar la precisión de la incertidumbre.
2. Obtener el promedio de las medidas.
medida1+ medida2+ medida3+ … . medida n
proemdio de medidas=
n
Donde:
n= número de mediciones realizadas.
3. Obtener la diferencia entre las mediciones y el promedio obtenido en el paso 2.
4. Elevar al cuadrado los valores obtenidos en el paso 3 y dividirlo entre el número de veces
que se tomó una medición.
5. Este valor será la varianza.
6. Para obtener la desviación estándar solo tenemos que obtener la raíz de la varianza y
redondear el valor hasta la cifra significativa de nuestra medida experimental.
La representación de la incertidumbre es de la siguiente manera:
1. Se coloca el valor nominal (virtual) con un signo ± que indican los valores de
incertidumbre.
2. Los valores de la incertidumbre deben tener las mismas cifras significativas que la medida
teórica; por ejemplo: si tenemos una medida nominal de 50cm nuestra incertidumbre
deberá ser de ± 2cm, pero no ±.2cm.
Si nuestra incertidumbre al medir una sola vez un mensurando es de ± .1 cm generada por el
alcance nominal de nuestra herramienta, al realizar la medición de diez mensurados
virtualmente iguales, podremos dividir la incertidumbre entre 10; obteniendo un valor más
preciso de incertidumbre:
alcance nomina de la herramienta de medición
incerditumbre :
número de mediciones
Así obtendremos una incertidumbre de ± .01 cm.
IMPORTANCIA DE LA INCERTIDUMBRE EN LA CALIBRACIÓN DE LOS INSTRUMENTOS DE MEDICIÓN:
Es importante elegir el instrumento correcto para una medición, pero también debemos conocer
que tan confiable es; para lograr esto debemos revisar las influencias que pueden causarnos
variación; estas causas se dividen en 4:
1. Equipo: especificaciones del fabricante (alcance nominal y resolución).
2. Personal: que tan calificado se encuentran el operador para el uso de los instrumentos de
medición.
3. Ambiente: el efecto que puede tener la temperatura o la humedad del entorno en las
mediciones.
4. Método: confiabilidad del proceso.
5. Objeto: que tanto modificará el valor de la medición.
La calibración implica el uso de un estándar de medición, para determinar que tanta diferencia
existe entre la medición proyectada por un instrumento y el valor verdadero.
La confiabilidad de un instrumento de medición se puede garantizar al calibrarlo de acuerdo a
estos estándares; esta calibración es importante para las empresas ya que representan la imagen
que tienen ante los clientes.