POSIBLES ERRORES EN ESTUDIOS EPIDEMIOLÓGICOS
Las investigaciones epidemiológicas tienen como objetivo proporcionar medidas
precisas de la aparición de enfermedades (u otros resultados). Sin embargo, existen
muchas posibilidades de que se produzcan errores en la medición.
Los epidemiólogos dedican mucha atención a minimizar los errores y evaluar el
impacto de los errores que no pueden eliminarse. Las fuentes de error pueden ser
aleatorias o sistemáticas.
A. ERROR ALEATORIO
El error aleatorio se produce cuando un valor de la medida de la muestra diverge,
debido únicamente al azar, del valor real de la población. El error aleatorio provoca
medidas de asociación inexactas.
Hay tres fuentes principales de error aleatorio:
1. Variación biológica individual
2. Error de muestreo
3. Error de medición.
El error aleatorio nunca puede eliminarse por completo, ya que sólo podemos estudiar
una muestra de la población. El error de muestreo suele deberse a que una muestra
pequeña no es representativa de todas las variables de la población. La mejor manera
de reducir el error de muestreo es aumentar el tamaño del estudio. Siempre se produce
una variación individual y ninguna medición es perfectamente precisa. El error de
medición se puede reducir mediante protocolos estrictos y haciendo que las
mediciones individuales sean lo más precisas posible. Los investigadores deben
comprender los métodos de medición que se utilizan en el estudio y los errores que
estos métodos pueden causar. Idealmente, los laboratorios deberían poder documentar
la exactitud y precisión de sus mediciones mediante procedimientos sistemáticos de
control de calidad.
Tamaño de la muestra
El tamaño de la muestra debe ser lo suficientemente grande para que el estudio tenga
poder estadístico suficiente para detectar las diferencias consideradas importantes. Los
cálculos del tamaño de la muestra se pueden realizar con fórmulas estándar. Se
necesita la siguiente información antes de poder realizar el cálculo:
nivel requerido de significancia estadística de la capacidad de detectar una
diferencia
error aceptable o posibilidad de perder un efecto real
magnitud del efecto investigado
cantidad de enfermedades en la población
tamaños relativos de los grupos que se comparan.
En realidad, el tamaño de la muestra suele estar determinado por consideraciones
logísticas y financieras, y siempre hay que llegar a un compromiso entre el tamaño de
la muestra y los costos. La OMS ha publicado una guía práctica para determinar el
tamaño de la muestra en estudios de salud.
La precisión de un estudio también se puede mejorar asegurando que los grupos
tengan un tamaño relativo apropiado. Esto suele ser un tema de preocupación en los
estudios de casos y controles cuando se requiere una decisión sobre el número de
controles que se elegirán para cada caso.
B. ERROR SISTEMÁTICO
El error sistemático (o sesgo) ocurre en epidemiología cuando los resultados difieren
de manera sistemática de los valores verdaderos. Se dice que un estudio con un
pequeño error sistemático tiene una alta precisión. La precisión no se ve afectada por
el tamaño de la muestra. Las posibles fuentes de error sistemático en epidemiología
son muchas y variadas; Se han identificado más de 30 tipos específicos de sesgos. Los
principales sesgos son:
Sesgo de selección
Sesgo de medición (o clasificación).
Sesgo de selección
El sesgo de selección ocurre cuando existe una diferencia sistemática entre las
características de las personas seleccionadas para un estudio y las características de las
que no lo son. Una fuente obvia de sesgo de selección ocurre cuando los participantes
se seleccionan a sí mismos para un estudio, ya sea porque no se encuentran bien o
porque están particularmente preocupados por una exposición.
Es bien sabido, por ejemplo, que las personas que responden a una invitación para
participar en un estudio sobre los efectos del tabaquismo difieren en sus hábitos de
fumar de los que no responden; estos últimos suelen ser fumadores empedernidos.
En estudios sobre la salud infantil, donde se requiere la cooperación de los padres,
también puede ocurrir un sesgo de selección. En un estudio de cohorte de niños recién
nacidos, el seguimiento exitoso a los 12 meses varió según el nivel de ingresos de los
padres.
Si los individuos que ingresan o permanecen en un estudio tienen características
diferentes de aquellos que no son seleccionados inicialmente, o que abandonan antes
de completarlo, el resultado es una estimación sesgada de la asociación entre
exposición y resultado.
Se introduce un sesgo de selección importante cuando la enfermedad o el factor que se
investiga hace que las personas no estén disponibles para el estudio. Por ejemplo, en
una fábrica donde los trabajadores están expuestos al formaldehído, quienes más
sufren irritación ocular tienen más probabilidades de abandonar sus trabajos.
Los trabajadores restantes se ven menos afectados y un estudio de prevalencia sobre la
asociación entre la exposición al formaldehído y la irritación ocular realizado
únicamente en el lugar de trabajo puede ser muy engañoso. En estos estudios de
epidemiología ocupacional, este importante sesgo de selección se denomina efecto del
trabajador sano.
Los trabajadores deben estar lo suficientemente sanos para desempeñar sus funciones;
los enfermos graves y los discapacitados suelen estar excluidos del empleo. Del
mismo modo, si un estudio se basa en exámenes realizados en un centro de salud y no
se hace un seguimiento de los participantes que no acuden, se pueden producir
resultados sesgados: los pacientes enfermos pueden estar en cama en su casa o en el
hospital.
Todos los diseños de estudios epidemiológicos deben tener en cuenta el sesgo de
selección.
Sesgo de medición
El sesgo de medición ocurre cuando las mediciones o clasificaciones individuales de
enfermedad o exposición son inexactas, es decir, no miden correctamente lo que se
supone que deben medir. Hay muchas fuentes de sesgo de medición y sus efectos son
de diversa importancia.
Por ejemplo, las mediciones bioquímicas o fisiológicas nunca son completamente
precisas y diferentes laboratorios suelen producir resultados diferentes en la misma
muestra. Si las muestras de los grupos expuesto y de control se analizan
aleatoriamente en diferentes laboratorios, hay menos posibilidades de que se produzca
un sesgo sistemático en la medición que en la situación en la que todas las muestras
del grupo expuesto se analizan en un laboratorio y todas las del grupo de control se
analizan en otro. .
Una forma de sesgo de medición de particular importancia en los estudios
retrospectivos de casos y controles se conoce como sesgo de recuerdo. Esto ocurre
cuando hay una recuperación diferencial de información por casos y controles; por
ejemplo, es más probable que los casos recuerden exposiciones pasadas,
especialmente si se sabe ampliamente que está asociada con la enfermedad en estudio,
por ejemplo, falta de ejercicio y enfermedades cardíacas.
El sesgo de recuerdo puede exagerar el grado de efecto asociado con la exposición, ya
que las personas afectadas por enfermedades cardíacas tienen más probabilidades de
admitir una falta de ejercicio en el pasado, o subestimarlo si los casos tienen más
probabilidades que los controles de negar la exposición pasada.
Si el sesgo de medición ocurre por igual en los grupos que se comparan, casi siempre
resulta en una subestimación de la verdadera fuerza de la relación.
Este sesgo no diferencial puede explicar discrepancias aparentes en los resultados de
diferentes estudios epidemiológicos. Si el investigador, el técnico de laboratorio o el
participante conocen el estado de exposición, este conocimiento puede influir en las
mediciones y causar sesgo del observador.
Para evitar este sesgo, las mediciones se pueden realizar de forma ciega o doble ciego.
Un estudio ciego significa que los investigadores no saben cómo se clasifican los
participantes.
Un estudio doble ciego significa que ni los investigadores ni los participantes saben
cómo se clasifican estos últimos.
CONFUSIÓN
La confusión es otro problema importante en los estudios epidemiológicos. En un
estudio de la asociación entre la exposición a una causa (o factor de riesgo) y la
aparición de una enfermedad, puede producirse confusión cuando existe otra
exposición en la población del estudio y está asociada tanto con la enfermedad como
con la exposición que se está estudiando.
Surge un problema si este factor extraño en sí mismo, un factor determinante o de
riesgo para el resultado de salud, se distribuye de manera desigual entre los subgrupos
de exposición.
La confusión ocurre cuando los efectos de dos exposiciones (factores de riesgo) no se
han separado y el análisis concluye que el efecto se debe a una variable y no a la otra.
Para que sea un factor de confusión se deben cumplir dos condiciones:
La confusión surge porque la distribución no aleatoria de los factores de riesgo
en la población de origen también ocurre en la población de estudio, lo que
proporciona estimaciones engañosas del efecto. En este sentido, podría parecer
un sesgo, pero en realidad no es el resultado de un error sistemático en el
diseño de la investigación.
La edad y la clase social suelen ser factores de confusión en los estudios
epidemiológicos. En realidad, una asociación entre presión arterial alta y
enfermedad coronaria puede representar cambios concomitantes en las dos
variables que ocurren con la edad; Se debe considerar el posible efecto de
confusión de la edad, y cuando se hace esto se ve que la presión arterial alta de
hecho aumenta el riesgo de enfermedad coronaria.
El control de la confusión
Hay varios métodos disponibles para controlar la confusión, ya sea a través del diseño
del estudio o durante el análisis de los resultados. Los métodos comúnmente utilizados
para controlar la confusión en el diseño de un estudio epidemiológico son:
Aleatorización
Restricción
Pareo.
En la etapa de análisis, la confusión se puede controlar mediante:
Estratificación
Modelización estadística.
Aleatorización
En los estudios experimentales, la aleatorización es el método ideal para garantizar
que las posibles variables de confusión se distribuyan equitativamente entre los grupos
que se comparan. Los tamaños de muestra deben ser lo suficientemente grandes para
evitar una mala distribución aleatoria de dichas variables. La aleatorización evita la
asociación entre variables potencialmente confusas y la exposición que se está
considerando.
Restricción
Una forma de controlar la confusión es limitar el estudio a personas que tengan
características particulares. Por ejemplo, en un estudio sobre los efectos del café en las
enfermedades coronarias, la participación en el estudio podría restringirse a los no
fumadores, eliminando así cualquier efecto potencial de confusión causado por el
tabaquismo.
Pareo
El emparejamiento se utiliza para controlar la confusión seleccionando a los
participantes del estudio para garantizar que las posibles variables de confusión se
distribuyan uniformemente en los dos grupos que se comparan. Por ejemplo, en un
estudio de casos y controles sobre ejercicio y enfermedad coronaria, cada paciente con
enfermedad cardíaca puede ser emparejado con un control del mismo grupo de edad y
sexo para garantizar que no se produzca confusión por edad y sexo. El
emparejamiento se ha utilizado ampliamente en estudios de casos y controles, pero
puede generar problemas en la selección de controles si los criterios de
emparejamiento son demasiado estrictos o demasiado numerosos; esto se llama
sobreadaptación.
El emparejamiento puede ser costoso y llevar mucho tiempo, pero es particularmente
útil si existe el peligro de que no haya superposición entre casos y controles, como en
una situación en la que es probable que los casos sean más antiguos que los controles.
Estratificación
En estudios grandes suele ser preferible controlar la confusión en la fase analítica que
en la fase de diseño. Luego, la confusión puede controlarse mediante la estratificación,
que implica la medición de la fuerza de las asociaciones en categorías (estratos) bien
definidas y homogéneas de la variable de confusión. Si la edad es un factor de
confusión, la asociación puede medirse, por ejemplo, en grupos de edad de 10 años; si
el sexo o el origen étnico son un factor de confusión, la asociación se mide por
separado en hombres y mujeres o en los diferentes grupos étnicos.
Hay métodos disponibles para resumir la asociación general produciendo un promedio
ponderado de las estimaciones calculadas en cada estrato por separado. Aunque la
estratificación es conceptualmente simple y relativamente fácil de realizar, a menudo
está limitada por el tamaño del estudio y no puede ayudar a controlar muchos factores
simultáneamente, como suele ser necesario. En esta situación, se requiere un modelo
estadístico multivariado para estimar la fuerza de las asociaciones mientras se
controlan varias variables de confusión simultáneamente.
VALIDEZ
La validez es una expresión del grado en que una prueba es capaz de medir lo que
pretende medir. Un estudio es válido si sus resultados corresponden a la verdad; no
debe haber ningún error sistemático y el error aleatorio debe ser lo más pequeño
posible.
Hay dos tipos de validez: interna y externa.
Validez interna
La validez interna es el grado en que los resultados de una observación son correctos
para el grupo particular de personas que se estudia. Por ejemplo, las mediciones de
hemoglobina en sangre deben distinguir con precisión a los participantes con anemia
tal como se define en el estudio. El análisis de la sangre en un laboratorio diferente
puede producir resultados diferentes debido a un error sistemático, pero la evaluación
de las asociaciones con la anemia, medida por un laboratorio, aún puede ser válida
internamente. Para que un estudio sea de alguna utilidad debe ser válido
internamente, aunque incluso un estudio que sea perfectamente válido internamente
puede no tener consecuencias porque los resultados no se pueden comparar con otros
estudios. La validez interna puede verse amenazada por todas las fuentes de error
sistemático, pero puede mejorarse con un buen diseño y atención al detalle.
Validez externa
La validez externa o la generalización es el grado en que los resultados de un estudio
se aplican a personas que no participan en él (o, por ejemplo, a laboratorios que no
participan en él). La validez interna es necesaria para la validez externa, pero no la
garantiza, y es más fácil de lograr. La validez externa requiere un control de calidad
externo de las mediciones y juicios sobre el grado en que se pueden extrapolar los
resultados de un estudio. Esto no requiere que la muestra del estudio sea
representativa de una población de referencia. Por ejemplo, la evidencia de que el
efecto de reducir el colesterol en sangre en los hombres también es relevante para las
mujeres requiere un juicio sobre la validez externa de los estudios en hombres. La
validez externa se ve favorecida por diseños de estudios que examinan hipótesis
claramente establecidas en poblaciones bien definidas. La validez externa de un
estudio se respalda si se encuentran resultados similares en estudios realizados en
otras poblaciones.
CONSIDERANDO LA CAUSALIDAD
El Cirujano General de los Estados Unidos utilizó un enfoque sistemático para
determinar la naturaleza de una asociación para establecer que fumar cigarrillos
causaba cáncer de pulmón. Hill desarrolló más detalladamente este enfoque. Sobre la
base de estos conceptos, a continuación se muestra un conjunto de “consideraciones
de causalidad”, enumeradas en la secuencia de pruebas que el epidemiólogo debe
seguir para llegar a una conclusión sobre la causa de una enfermedad.
1. Relación temporal: ¿la causa precede al efecto? (básico)
2. Plausibilidad: ¿Es la asociación coherente con otros conocimientos? (mecanismo
de acción; evidencia de animales de experimentación)
3. Consistencia: ¿Se han mostrado resultados similares en otros estudios?
4. Fuerza: ¿Cuál es la fuerza de la asociación entre la causa y el efecto? (riesgo
relativo)
5. Relación dosis-respuesta: ¿una mayor exposición a la posible causa se asocia con
un mayor efecto?
6. Reversibilidad: ¿la eliminación de una posible causa conduce a una reducción del
riesgo de enfermedad?
7. Diseño del estudio: ¿La evidencia se basa en un diseño de estudio sólido?
8. Juzgando la evidencia: ¿Cuántas líneas de evidencia conducen a la conclusión?
1. Relación temporal
La relación temporal es crucial; la causa debe preceder al efecto. Esto suele ser
evidente, aunque pueden surgir dificultades en los estudios de casos y controles y
transversales cuando las mediciones de la posible causa y efecto se realizan al mismo
tiempo. En los casos en que la causa sea una exposición que puede ser a diferentes
niveles, es fundamental que se alcance un nivel suficientemente alto antes de que se
produzca la enfermedad para que exista la relación temporal correcta. La medición
repetida de la exposición en más de un momento y en diferentes lugares puede
reforzar la evidencia.
2. plausibilidad
Una asociación es plausible y, por tanto, más probable que sea causal, si es coherente
con otros conocimientos. Por ejemplo, los experimentos de laboratorio pueden haber
demostrado cómo la exposición a un factor particular podría provocar cambios
asociados con el efecto medido. Sin embargo, la plausibilidad biológica es un
concepto relativo, y es posible que con el tiempo se demuestre que asociaciones
aparentemente inverosímiles son causales. Por ejemplo, la opinión predominante
sobre la causa del cólera en la década de 1830 implicaba más "miasma" que contagio.
El contagio no estuvo respaldado por pruebas hasta que se publicó el trabajo de Snow;
mucho más tarde, Pasteur y sus colegas identificaron el agente causal. La falta de
plausibilidad puede reflejar simplemente una falta de conocimiento científico. Las
dudas sobre los efectos terapéuticos de la acupuntura y la homeopatía pueden
atribuirse en parte a la falta de información sobre un mecanismo biológico plausible.
3. Consistencia
La coherencia queda demostrada por varios estudios que dan el mismo resultado. Esto
es particularmente importante cuando se utilizan una variedad de diseños en diferentes
entornos, ya que de ese modo se minimiza la probabilidad de que todos los estudios
cometan el mismo error. Sin embargo, la falta de coherencia no excluye una
asociación causal, porque diferentes niveles de exposición y otras condiciones pueden
reducir el impacto del factor causal en ciertos estudios. Además, cuando se interpretan
los resultados de varios estudios, se debe dar mayor peso a los mejor diseñados.
Hay técnicas disponibles para agrupar los resultados de varios estudios que han
examinado el mismo tema, en particular ensayos controlados aleatorios. Esta técnica
se llama metanálisis y se utiliza para combinar los resultados de varios ensayos, cada
uno de los cuales puede tratar con una muestra relativamente pequeña, para obtener
una mejor estimación general del efecto.
La revisión sistemática utiliza métodos estandarizados para seleccionar y revisar todos
los estudios relevantes sobre un tema en particular con miras a eliminar sesgos en la
evaluación crítica y la síntesis.
Una razón importante de la aparente inconsistencia de los resultados es que varios de
los primeros estudios se basaron en muestras pequeñas.
4. Fuerza
Una asociación fuerte entre posible causa y efecto, medida por el tamaño del índice de
riesgo (riesgo relativo), tiene más probabilidades de ser causal que una asociación
débil, que podría verse influenciada por factores de confusión o sesgos. Los riesgos
relativos mayores que 2 pueden considerarse fuertes.
Por ejemplo, los fumadores de cigarrillos tienen un riesgo dos veces mayor de sufrir
un infarto agudo de miocardio en comparación con los no fumadores. En varios
estudios se ha demostrado que el riesgo de cáncer de pulmón en los fumadores, en
comparación con los no fumadores, aumenta entre cuatro y veinte veces. Sin embargo,
asociaciones de tal magnitud son raras en epidemiología.
El hecho de que una asociación sea débil no impide que sea causal; la fuerza de una
asociación depende de la prevalencia relativa de otras posibles causas. Por ejemplo, en
estudios observacionales se han encontrado asociaciones débiles entre la dieta y el
riesgo de enfermedad coronaria; y aunque se han realizado estudios experimentales en
poblaciones seleccionadas, no se han publicado resultados concluyentes. A pesar de
esta falta de evidencia, en general se piensa que la dieta es un factor causal importante
en la alta tasa de enfermedad coronaria en muchos países industrializados. La razón
probable de la dificultad para identificar la dieta como un factor de riesgo de
enfermedad coronaria es que las dietas en las poblaciones son bastante homogéneas y
la variación en el tiempo para un individuo es mayor que entre las personas. Si todo el
mundo sigue más o menos la misma dieta, no es posible identificar la dieta como un
factor de riesgo. En consecuencia, la evidencia ecológica gana importancia. Esta
situación se ha caracterizado como una de individuos enfermos y población enferma,
lo que significa que en muchos países de altos ingresos, poblaciones enteras están en
riesgo de sufrir un factor adverso.
5. Relación dosis-respuesta
Una relación dosis-respuesta ocurre cuando los cambios en el nivel de una posible
causa se asocian con cambios en la prevalencia o incidencia del efecto.
6. Reversibilidad
Cuando la eliminación de una posible causa da como resultado una reducción del
riesgo de enfermedad, existe una mayor probabilidad de que la asociación sea causal.
Por ejemplo, dejar de fumar cigarrillos se asocia con una reducción del riesgo de
cáncer de pulmón en comparación con el de las personas que continúan fumando. Este
hallazgo refuerza la probabilidad de que fumar cigarrillos cause cáncer de pulmón.
Si la causa conduce a cambios rápidos irreversibles que posteriormente producen
enfermedad, haya o no exposición continua, entonces la reversibilidad no puede ser
una condición de causalidad.
7. Diseño del estudio
La capacidad del diseño de un estudio para probar la causalidad es una consideración
importante.
Estudios experimentales . La mejor evidencia proviene de ensayos
controlados aleatorios bien diseñados. Sin embargo, rara vez se dispone de
evidencia de este tipo de estudios y, a menudo, solo se relacionan con los
efectos del tratamiento y las campañas de prevención.
Otros estudios experimentales, como los ensayos de campo y comunitarios,
rara vez se utilizan para estudiar la causalidad. La evidencia proviene con
mayor frecuencia de estudios observacionales; Casi toda la evidencia sobre las
consecuencias del tabaquismo para la salud proviene de estudios
observacionales.
Escuadrón de estudio . Los estudios de cohortes son el siguiente mejor diseño
porque, cuando se realizan bien, se minimiza el sesgo.
Nuevamente, no siempre están disponibles. Aunque los estudios de casos y
controles están sujetos a varias formas de sesgo, los resultados de
investigaciones de este tipo amplias y bien diseñadas proporcionan buena
evidencia de la naturaleza causal de una asociación; A menudo es necesario
emitir juicios en ausencia de datos de otras fuentes.
Estudios transversales . Los estudios transversales son menos capaces de
probar la causalidad ya que no proporcionan evidencia directa sobre la
secuencia temporal de los eventos.
Sin embargo, la secuencia temporal a menudo puede inferirse de la forma en
que se recopilan los datos sobre exposición y efectos. Por ejemplo, si está claro
que el efecto sobre la salud es reciente y la exposición a las causas potenciales
se registra en un cuestionario, las preguntas sobre el pasado pueden identificar
claramente las exposiciones antes de que ocurriera el efecto.
Estudios ecológicos . Los estudios ecológicos proporcionan la evidencia más
débil de causalidad debido al peligro de una extrapolación incorrecta a
individuos a partir de datos regionales o nacionales. Sin embargo, para ciertas
exposiciones que normalmente no pueden medirse individualmente (como la
contaminación del aire, los residuos de pesticidas en los alimentos, el fluoruro
en el agua potable), la evidencia de estudios ecológicos es muy importante.
Cuando ya se han establecido relaciones causales, los estudios ecológicos bien
diseñados pueden resultar muy útiles.
Sin embargo, hay raras ocasiones en que los estudios ecológicos proporcionan
buena evidencia para establecer la causalidad.
8. Juzgar la evidencia
Lamentablemente, no existen criterios completamente fiables para determinar si una
asociación es causal o no. La inferencia causal suele ser tentativa y los juicios deben
formularse sobre la base de la evidencia disponible: siempre persiste la incertidumbre.
La evidencia es a menudo contradictoria y se debe dar la debida importancia a los
diferentes tipos cuando se toman decisiones. Al juzgar los diferentes aspectos de la
causalidad antes mencionados, la relación temporal correcta es esencial; una vez que
esto haya sido establecido; Se puede dar mayor importancia a la plausibilidad, la
coherencia y la relación dosis-respuesta.
La probabilidad de una asociación causal aumenta cuando muchos tipos diferentes de
evidencia conducen a la misma conclusión. La evidencia proveniente de estudios bien
diseñados es particularmente importante, especialmente si se realizan en una variedad
de lugares.
El uso más importante de la información sobre las causas de enfermedades y lesiones
puede ser en el área de la prevención, que analizaremos en los siguientes capítulos.
Cuando las vías causales se establecen sobre la base de información cuantitativa
procedente de estudios epidemiológicos, las decisiones sobre prevención pueden no
ser controvertidas.
En situaciones en las que la causalidad no está tan bien establecida, pero los impactos
tienen una gran importancia potencial para la salud pública, se puede aplicar el
“principio de precaución” para tomar medidas preventivas como medida de seguridad;
esto se llama “prevención preventiva”.
CRITERIOS DE SELECCIÓN
A continuación se presentan las listas de los principales criterios para establecer un
programa de detección. Estos se relacionan con las características del trastorno o
enfermedad, su tratamiento y la prueba de detección.
Trastorno…bien definido
Prevalencia… conocida
Historia natural…Largo período entre los primeros signos y la enfermedad
manifiesta; trastorno médicamente importante para el cual existe un remedio eficaz
Elección de la prueba Sencillo y seguro
Rendimiento de la prueba... Distribuciones conocidas de los valores de la prueba
en individuos afectados y no afectados
Financiero… Rentable
Instalaciones…Disponibles o fácilmente proporcionadas
Aceptabilidad…..Los procedimientos posteriores a un resultado positivo
generalmente son acordados y aceptables tanto para las autoridades de detección
como para las personas examinadas.
Equidad…Equidad de acceso a los servicios de detección; Tratamiento eficaz,
aceptable y seguro disponible.
Por encima de todo, la enfermedad debería ser una enfermedad que resulte grave si no
se diagnostica a tiempo; Los defectos metabólicos congénitos como la fenilcetonuria
cumplen este criterio, al igual que algunos cánceres, como el cáncer de cuello uterino.
Además, es necesario abordar varias cuestiones antes de establecer un programa de
detección.
Costos : Los costos de un programa de detección deben equilibrarse con el número de
casos detectados y las consecuencias de no realizar la detección. Generalmente, la
prevalencia de la etapa preclínica de la enfermedad debe ser alta en la población
examinada, pero en ocasiones puede valer la pena realizar pruebas de detección
incluso para enfermedades de baja prevalencia que tienen consecuencias graves, como
la fenilcetonuria. Si se identifica a los niños con fenilcetonuria al nacer, se les puede
administrar una dieta especial que les permitirá desarrollarse con normalidad. Si no se
les da la dieta, sufren retraso mental y requieren cuidados especiales durante toda la
vida. A pesar de la baja incidencia de esta enfermedad metabólica (2 a 4 por 100.000
nacimientos), los programas de detección de prevención secundaria son muy
rentables.
Plazo de preparación -La enfermedad debe tener un plazo de antelación
razonablemente largo; es decir, el intervalo entre el momento en que la enfermedad
puede diagnosticarse por primera vez mediante detección y el momento en que
generalmente se diagnostica en pacientes que presentan síntomas. La pérdida de
audición inducida por ruido tiene un tiempo de evolución muy largo; El cáncer de
páncreas suele tener uno corto. Un plazo corto implica una enfermedad que progresa
rápidamente, y es poco probable que el tratamiento iniciado después de la detección
sea más eficaz que el iniciado después de los procedimientos de diagnóstico más
habituales.
Sesgo de duración : el tratamiento temprano debería ser más eficaz para reducir la
mortalidad o la morbilidad que el tratamiento iniciado después del desarrollo de la
enfermedad manifiesta, como, por ejemplo, en el tratamiento del cáncer de cuello
uterino in situ. Un tratamiento debe ser eficaz y aceptable para las personas
asintomáticas. Si el tratamiento es ineficaz, el diagnóstico precoz sólo aumenta el
período de tiempo durante el cual el participante es consciente de la enfermedad; este
efecto se conoce como sesgo de longitud o sesgo de longitud/tiempo.
Prueba de detección : la prueba de detección en sí debe ser barata, fácil de aplicar,
aceptable para el público, confiable y válida. Una prueba es confiable si proporciona
resultados consistentes y válida si clasifica correctamente a las personas en grupos con
y sin enfermedad, según lo medido por su sensibilidad y especificidad.
La sensibilidad es la proporción de personas con la enfermedad en la población
examinada que son identificadas como enfermas mediante la prueba de
detección. (Cuando la enfermedad está presente, ¿con qué frecuencia la detecta
la prueba?)
La especificidad es la proporción de personas libres de la enfermedad que son
identificadas mediante la prueba de detección. (Cuando la enfermedad está
ausente, ¿con qué frecuencia la prueba da un resultado negativo?)
Los métodos para calcular estas medidas y los valores predictivos positivos y
negativos se detallan a continuación. Aunque lo ideal es que una prueba de detección
sea altamente sensible y específica, debemos lograr un equilibrio entre estas
características, porque la mayoría de las pruebas no pueden hacer ambas cosas.
Determinamos este equilibrio mediante un punto de corte arbitrario entre lo normal y
lo anormal. Si queremos aumentar la sensibilidad e incluir todos los verdaderos
positivos, estamos obligados a aumentar el número de falsos positivos, lo que significa
disminuir la especificidad. Reducir el rigor de los criterios para una prueba positiva
puede aumentar la sensibilidad, pero al hacerlo se reduce la especificidad de la prueba.
Asimismo, aumentar el rigor de los criterios aumenta la especificidad pero disminuye
la sensibilidad. También debemos tener en cuenta el valor predictivo al interpretar los
resultados de las pruebas de detección.
Validez de una prueba de detección
Tres medidas clave de validez son:
1. Sensibilidad
2. Especificidad
3. Valor predictivo
Estado de la enfermedad
Presente Ausente Total
Positivo a b a+b
Prueba de Negativo C d c+d
pantalla Total a+c b+d (a+c)+(b+d)
NOTAS
a = No. de verdaderos positivos,
b = No. de falsos positivos,
c = No. de falsos negativos,
d = No. de verdaderos negativos
Sensibilidad = probabilidad de una prueba positiva en personas con la enfermedad
= a/(a+c)
Especificidad = probabilidad de una prueba negativa en personas sin la enfermedad
= d/(b+d)
Valor predictivo positivo (VPP) = probabilidad de que la persona tenga la
enfermedad cuando la prueba es positiva = a/(a+b)
Valor predictivo negativo (VPN) = probabilidad de que la persona no tenga la
enfermedad cuando la prueba es negativa = d/(c+d)
Las decisiones sobre los criterios apropiados para una prueba de detección dependen
de las consecuencias de identificar falsos negativos y falsos positivos. Para una
afección grave en niños recién nacidos, podría ser preferible tener una alta
sensibilidad y aceptar el mayor costo de un gran número de falsos positivos
(especificidad reducida). Entonces sería necesario un seguimiento adicional para
identificar los verdaderos aspectos positivos y negativos.
Historia Natural. Sobre todo, establecer criterios apropiados requiere un
conocimiento considerable de la historia natural de la enfermedad en cuestión y de los
beneficios y costos del tratamiento. Deben existir instalaciones adecuadas para el
diagnóstico, tratamiento y seguimiento formal de los casos recién diagnosticados, que
de otro modo podrían saturar los servicios de salud. Finalmente, la política y el
programa de detección deben ser aceptados por todas las personas involucradas:
administradores, profesionales de la salud y el público.
Impacto: el valor de un programa de detección está determinado en última instancia
por su efecto sobre la morbilidad, la mortalidad y la discapacidad. Idealmente, debería
haber información disponible sobre las tasas de enfermedad en las personas cuya
enfermedad se identificó mediante pruebas de detección y en aquellas cuya
enfermedad se diagnosticó sobre la base de los síntomas. Dado que es probable que
existan diferencias entre las personas que participan en programas de detección y las
que no, la mejor evidencia de la eficacia de la detección proviene de los resultados de
ensayos controlados aleatorios (Cuadro 6.6).
Esta reducción relativa de la mortalidad por cáncer de mama del 23% al 29% parece
menos impresionante cuando se considera en términos absolutos (la reducción
absoluta de la mortalidad fue del 0,05% de las mujeres examinadas). Se lograría un
beneficio mucho mayor en años de vida ganados si la mamografía de detección
retrasara la muerte por cáncer de mama en mujeres más jóvenes, pero
desafortunadamente este no es el caso. Por último, la mejor estrategia preventiva no
incluye necesariamente la detección sistemática.30 Cuando un factor de riesgo
importante (como el consumo de tabaco, la presión arterial elevada o la inactividad
física) puede reducirse sin seleccionar un grupo de alto riesgo para la acción
preventiva, es mejor concentrarse sobre los recursos disponibles y utilizar políticas
públicas y medidas ambientales para establecer enfoques masivos de prevención.