En primer lugar hay que distinguir entre
precisión y exactitud.
Precisión es el detalle con el que un instrumento o procedimiento puede
medir una variable mientras que exactitud es lo que se acerca esta
medición al valor real, en SIG el concepto de precisión se relaciona con
el de resolución en formato raster. El error es la diferencia entre el valor
real y el medido, sin embargo puesto que el valor real nunca se conoce
realmente, el error siempre debe estimarse.
En ocasiones los errores proceden de la utilización de ordenadores
con precisión finita para manejar el espacio que es un continuo. Los
errores en las operaciones en coma flotante de los ordenadores pueden
afectar a los resultados, por ello es recomendable utilizar siempre
números enteros. Por ejemplo, las coordenadas X e Y deberían
expresarse siempre en metros nunca en kilómetros, los valores de las
variables regionalizadas deberían expresarse de forma que no incluyeran
decimales (altitud en centímetros, precipitación en décimas de
milímetro, etc.). De esta manera además de prevenir errores
conseguiríamos que los ficheros ocuparan menos en el disco duro.
Ambas son independientes la una de la otra. Así, los resultados en los valores
de una medición pueden ser precisos y no exactos (y viceversa). Si tomamos el
lanzamiento de dardos como ejemplo, si todos los dardos están concentrados
en un área pequeña del tablero, pero alejados del blanco, se dice que los tiros
tuvieron precisión, pero que faltó exactitud.
Mucha gente utiliza estos dos términos como iguales pues en el albor popular
son sinónimos, pero realmente son dos conceptos totalmente diferentes,
para lo que a mi concierne y lo que pude investigar es que los términos
exactitud y precisión, presentan diferencias técnicas puesto que la precisión
hace referencia a la cercanía que varias medidas tengan entre si, mientras que
la exactitud se refiere a que tan cerca está la medida del valor real, con ello se
puede inferir que la precisión es el grado de repetición de un valor y que la
exactitud es el grado de la veracidad o del valor real medido.
Por ejemplo, una escuadra de carpintero tiene una precisión milimétrica,
mientras que un metro del albañil tiene una precisión de centímetro. Sin
embargo será más exacto medir un muro con un metro que con una
escuadra ya que el instrumento es más apropiado.
En este sentido, exactitud y precisión adquieren significados diferentes
cuando se refiere a resultados de medición, sean ellas cuantitativas o
cualitativas.
Con lo anteriormente expuesto, considero que Stanley Wolf, es muy acertado
en su conclusión.
Una medición se expresa por medio de una cantidad numérica y la unidad de medida
correspondiente a la magnitud dada. A cada magnitud le corresponden una o varias
unidades
Todo acto de medición es esencialmente inexacto y los valores obtenidos, son números
aproximados. El valor verdadero de una medición (Xo) siempre será desconocido para el
observador. El propósito de una medición es, el de obtener una aproximación al valor
verdadero, que se denomina valor medido (X). Como resultado de la medición, sólo podrá
expresarse un mejor valor (X*) y la incertidumbre dentro de la cual es probable que se
encuentre el valor verdadero:
En la medida en que el error absoluto (∆X) sea más pequeño, la medición será más exacta y
en la medida en que el error relativo (δX= ∆X/ X*) sea más pequeño, lamedición será más
precisa. Al expresar el valor de una medición se hace necesario expresarla como un
intervalo de confianza; sólo así se sabrá cuán exacta y precisa es la medición realizada.
La interpretación y utilización adecuada de estos conceptos, permite a los profesionales
realizar mediciones más eficaces y eficientes, medir y obtener el valor real de las
magnitudes físicas y agilizar los procesos de diagnóstico del estado de funcionamiento de
dispositivos, equipos y sistemas
la exactitud de medida como la proximidad existente entre un valor medido y un valor
verdadero de un mensurando. Así pues, una medición es más exacta cuanto más pequeño es
el error de medida. Se suele decir también que una medida es más exacta cuando ofrece una
incertidumbre de medida más pequeña, aunque no siempre es así como se ha mencionado
anteriormente. El VIM, en su tercera edición (2007), define el concepto precisión de
medida como la proximidad existente entre las indicaciones o los valores medidos
obtenidos en mediciones repetidas de un mismo objeto, o de objetos similares, bajo
condiciones específicas
Una importante distinción entre exactitud y precisión es que la exactitud puede
determinarse con una sola medida, mientras que para evaluar la precisión se necesitan
varias medidas (repetibilidad), no pudiéndose hablar de precisión para una sola medida
“Se podría resumir que exactitud es el grado de veracidad, mientras que precisión
es el grado de reproductibilidad”.
Aunque son bastantes parecidas sus definiciones difieren en el hecho de que una
tiene que ver con la cercanía al valor real y la otra se refiere a dar el mismo
resultado en distintas mediciones; todo esto nos lleva a deducir que se puede ser
exacto mas no preciso y viceversa