Diseños de Investigación en Salud: RCT y SCD
Diseños de Investigación en Salud: RCT y SCD
PARTE 1 TEMA 6
¿Por qué necesitamos Diseños de Caso Único? (Single Case Designs (SCDs))
El ensayo controlado aleatorizado (randomized controlled trial, RCT) es el diseño más riguroso para
realizar un ensayo, conocido como la metodología “patrón de oro”. Permite experimentar que un
tratamiento funciona en comparación con grupos controles o placebos. Requieren muchos recursos
que a veces no se tienen y tiempo.
En esta tabla aparecen los promedios de dolor establecidos por un grupo control y un grupo
experimental antes de iniciarse el tratamiento. (Imaginemos que es de 0 a 10 por la escala en la que
puntúan los pacientes). Antes de empezar el tto los pacientes en la condición placebo tienen una
puntuación de 7,8, mientras que en la condición activa/grupo experimental tienen una puntuación de
7,6. Se espera que antes del tratamiento ambos den una puntuación similar en la escala de dolor.
Tras el tto, se vuelve a evaluar y se comprobó que el placebo no tuvo reducción del dolor, mientras
que el grupo experimental/activo sí. Hay una diferencia significativa desde el punto de vista
estadístico.
Se argumenta que los diseños de grupo son superiores porque minimizan (pero no necesariamente
eliminan) las amenazas de la validez interna (es decir, sacar inferencias válidas de los resultados) y
utilizar relativamente grandes tamaños de muestra (es decir, buenos para generalizar resultados).
1
Cuando se sintetizan muchos RCT’s es a lo que llamamos revisión sistemática, y cuando ese análisis
se sintetiza detalladamente es un metaanálisis. Es decir, una revisión sistemática (RS) es un ejercicio
exhaustivo de búsqueda, evaluación y síntesis de la información. Intenta ser objetiva y cuantitativa
usando números para sintetizar toda la evidencia disponible. Y el proceso estadístico de combinar
cuantitativamente los resultados ponderados de los estudios individuales (2 o más) se le conoce
como metaanálisis.
Cuando aparecieron los análisis a finales de los 70 constituyó un avance metodológico, fue muy útil
para determinar que las intervenciones psicológicas eran efectivas.
Pero si tomamos de ejemplo del ensayo clínico de dolor, en la imagen se ve que sólamente mejoraron
6 sujetos. En el eje horizontal aparecen los valores antes de empezar, y en el eje vertical los valores
posteriores del tratamiento.
En ambas condiciones antes de empezar el tto, tenían un valor que oscilaba entre 7 y 7.50. Tras el
tto, solo se observa mejoría en 6 sujetos (los valores de los otros están por encima del promedio, o
son muy parecidos a los que tenían antes de iniciar el tto). Eysen: “la psicoterapia tiene los mismos
resultados que la remisión espontánea”.
Es a partir de este momento cuando proliferaron los metaanálisis, con el fin de revocar esta
concepción.
Hay muchas críticas que se le pueden hacer a los RCT. En la anterior imagen se presenta un ensayo
clínico al dolor, y se encuentra aquello que se ve típicamente en los resultados de un RCT, los datos
previos al tratamiento y al finalizar. En los RCT hay varios grupos experimentales y se aleatorizan los
pacientes, en este caso, a dos condiciones, 1) activa y 2) control placebo.
- En la condición pre tratamiento se observa que no hay diferencias significativas entre grupos
al iniciar el tratamiento. Es importante que ocurra esto.
- En la condición activa, después del tratamiento, encontramos que el dolor baja en el grupo
activo vs control.
Es decir, los estudios están basados en que haciendo grupos podemos ver las diferencias entre ellos,
podemos observar que se pueden dar inferencias.
Pero…
2
Viendo esta imagen, sólo 6 sujetos mejoraron.
Eje y: Pain post (después): solo 6 sujetos están por debajo de 6 puntos, el resto siguen entre 6 y 10
puntos.
Cuando retiramos estos sujetos que realmente mejoraron, la significación estadística disminuye.
Los RCT son buenos pero no nos dicen cómo mejoraron realmente los sujetos en particular, sino que
dan datos sobre grandes grupos de personas.
"Los investigadores pueden conformarse con que los tratamientos funcionen por término medio; los
pacientes esperan terapias que lo hagan mejor que eso". Los pacientes y los terapeutas esperan más
que promedios.
3
¿Qué concluiríamos ahora?
"Los investigadores pueden conformarse con que los tratamientos los pacientes esperan que los
terapeutas lo hagan mejor que eso".
Se observa una reducción muy importante de los síntomas, por lo que podemos concluir con que a
este sujeto le ha beneficiado este tratamiento.
Si solo se cogen dos puntos de la evolución (la del principio y la del final) se pierde toda la
trayectoria, cuando se ve el interior de la trayectoria del paciente vemos que el asunto es más
complejo.
4
Cuando observamos medidas repetidas, vemos que el cambio no es lineal. Por tanto, el campo de la
investigación psicológica, tiende a ir incorporando medidas repetidas.
Si se comparan solamente dos puntos de la evolución de un paciente, podemos afirmar que está
habiendo un cambio/mejora, pero cuando comparamos toda la trayectoria, nos damos cuenta de
que no es así.
- La agenda de la investigación clínica está dominada por los "grandes datos", los grandes ECA
y las síntesis metaanalíticas de datos.
- ... pero no puede determinar qué intervenciones tienen qué en qué pacientes, sobre qué
resultados y por qué por qué (mecanismo de cambio)
Hay una brecha entre lo que ocurre en la investigación y en la clínica. Hay muchos investigadores que
creen que los clínicos no consumen investigación, pero realmente la investigación que se produce es
muy poco relevante y poco aplicable a la clínica. Los investigadores se alejan de la clínica.
En los ensayos clínicos aleatorizados se evalúan cuestiones que se pueden manipular. La mayoría de
la evidencia sobre la comparación de modelos concluye con que no hay un modelo superior a otro.
El gran problema de los investigadores es creer que ellos producen el conocimiento, y que los clínicos
deben aplicarlo (y hacerles caso), lo que es un gran inconveniente. En esto consiste la brecha entre la
investigación y la práctica (lo que sucede en los laboratorios de investigación y lo que realmente
hacen los clínicos/terapeutas) hay un abismo.
Una de las razones por las que se cree que pasa esto es porque los psicoterapeutas no leen la
investigación, que por otro lado, la investigación que se produce tiene muy poca aplicabilidad. Otra
de las razones es la falta de contacto entre ambos profesionales (hay ruptura entre los requisitos de
ambos campos). Hay también, muchas investigaciones no redundantes para el avance. Hay que hacer
investigación relevante y aplicable para el terreno clínico.
5
Limitaciones en los Ensayos Controlados Aleatorizados
- Limitaciones epistemológicas.
Se refiere a que la causalidad no es lineal. En general, los diseños experimentales tienen la suposición
de que se establecen relaciones de A es igual a B, pero esto no es realmente así.
- Limitaciones conceptuales
Hay muchos libros donde explican los pasos para seguir una terapia concreta, pero la realidad clínica
es mucho más compleja, y se deben valorar otros muchos aspectos que no se pueden medir mediante
un libro teórico (como la alianza terapéutica).
- Limitaciones metodológicas
6
Tratamiento personalizado → ¿Qué es lo que hace que los tratamientos funcionen y para quién? →
Establecer moderadores y mecanismos de cambio en psicoterapia.
Esta cita de Gordon Paul se debería valorar en todos los tratamientos psicológicos: ¿Qué tratamiento,
realizado por quién, es más eficaz para este individuo con ese problema específico y bajo qué
conjunto de circunstancias?
¿Qué hace que los tratamientos funcionen y para qué? Estableciendo moderadores y mecanismos de
cambio de la psicoterapia. Aplicar los tratamientos a ciertos perfiles.
Necesitamos crear redes de investigación práctica, donde se pueda trabajar de manera conjunta
clínicos e investigadores, con el fin de crear un conocimiento riguroso y significativo desde el punto
de vista clínico.
¿Todos los psicólogos son igual de efectivos? No. (Wampold et al. 2021).
¿Qué distingue a los terapeutas efectivos? Dudar activamente de la práctica clínica, disposición activa
de cuestionarse a uno mismo y no sobrevalorarse. Monitorear de alguna manera nuestros
tratamientos.
No todos los psicoterapeutas son igual de efectivos. Lo que diferencia a los psciotereputas efectivos
es que estos deben:
- PCOMS
“Se puede afirmar que el uso de la retroalimentación del cliente y las herramientas de
monitorización representa la innovación más significativa en la práctica de la terapia en los últimos
20 años.” (McLeod, 2017)
7
¿Qué es lo que dicen los investigadores sobre ROM?
Tamaño del efecto: medida estandarizada para medir cuán potente es una intervención (este valor va
de 0 a 1, siendo 0,3 cambio pequeño, 0,6 cambio moderado y 1 muy potente).
El ROM es una valoración continua a través de múltiples formas de evaluación. La más usual es a
través de cuestionarios. Nos sirve para tener un juicio, que no sea a través de nuestra percepción,
sobre la evolución del paciente. Hay muchos trabajos al respecto:
- Even bigger effect sizes when feedback is provided + clinical support tools (d = 0.41)
Estos estudios, a grandes rasgos tienen un efecto pequeño, pero monitorean casos en los que,
evaluando sistemáticamente a los pacientes, logramos un cambio significativo.
Motivos que dependen de las características de: - Terapeutas - Organizaciones - Tipo de sistema ROM
- Supervisores - Pacientes - Otra parte interesada
• Terapeutas
Las barreras en la implementación se debe a las actitudes negativas por parte de los terapeutas
sobre la utilidad:
8
- Control sobre el trabajo de terapia (Solstad et al., 2020) → que evaluemos a los terapeutas.
Temor a ser los terapeutas poco efectivos. Sin embargo, pueden dar lugar a planes de acción
Falta de formación (los terapeutas no saben cómo utilizar el ROM y la retroalimentación) (Lutz et al.,
2022). Existen unas expectativas mal ajustadas.
- Autoeficacia (Bovendeerd et al., 2023; de Jong et al., 2012; Nissen-Lie et al., 2015)
• Organizaciones
- ROM reduce la brecha entre los terapeutas más y menos eficaces terapeutas (Delgadillo et
al., 2022)
- Los resultados positivos llegan tarde, no hay que esperar resultados inmediatos (Brattland et
al., 2018). Hasta 4 años.
- Si el ROM no se utiliza adecuadamente, puede causar daño (Errázuriz & Zilcha-Mano, 2015)
• ROM reduce las diferencias entre los terapeutas más eficaces y los menos eficaces (Delgadillo et al.,
2022)
• Los resultados positivos llegan tarde, no espere resultados inmediatos (Brattland et al., 2018)
• Si la ROM no se utiliza adecuadamente, puede causar daños (Errázuriz & Zilcha-Mano, 2015)
El ROM puede ser ideal pero es muy complicado de implementar. Articular la investigación y la
práctica no es fácil. Es más fácil trabajando en red.
9
SEGUIMIENTO RUTINARIO DE LOS RESULTADOS Y FEEDBACK
- Amplia aplicabilidad
No hay que confundir los SCD con los casos únicos. En el caso único solamente se describe el caso. En
el SCD se manipulan variables y se cogen algunos individuos (más de uno pero no llega a ser como el
RCT) y se miden en las distintas modalidades para ver cómo se comportan los individuos, no
solamente se evalúa en el pre y en el post.
- Amplia aplicabilidad
10
- Tiene gran relevancia clínica
- Metodología flexible
- La replicación del efecto puede realizarse dentro de los participantes o entre ellos
11
Elementos clave en SCD:
- Comportamiento objetivo
- Evaluación
- Línea base
- Intervención
• Comportamiento objetivo
- Specific and quantifiable (fear of pain vs steps taken) → Operacionalizar ciertas variables
- Stable without treatment (agoraphobia vs. premenstrual syndrome) → Tienen que tener
cierta estabilidad sin tratamiento, si hay mucha variabilidad tendremos problemas para ver el
impacto. La agorafobia se adaptaría bien pero el síndrome premenstrual o la depresión
estacional NO.
No tiene por qué ser una conducta, pero estos experimentos se ajustan mejor cuando la conducta es
observable.
• Evaluación
Continua y frecuente (mínimo 5 puntos por fase) - Ecológica y momentánea (EMA, EVALUACIÓN
ECOLÓGICA MOMENTÁNEA)
- Sensibilidad al contexto
- Validez ecológica
- Método idiográfico
Otros nombres: Ambulatory assessment; Experience sampling method; Daily diaries; Daily
reconstruction methods; Passive sensing; Digital phenotyping
12
- Fácil de cumplir
- Sensible a la variación dentro del sujeto
- Relacionada con el tratamiento y relativamente idiográfica
• Línea de base
Debe ser suficiente para determinar la estabilidad de la respuesta - Debe demostrar una tendencia,
una pendiente y un nivel suficientemente diferentes cuando se inicia el tratamiento - La estabilidad
puede darse en el nivel o en la tendencia. - Pero a veces las líneas de base son inestables... - Analizar
las fuentes de variabilidad - Bloquear o promediar los datos - Esperar hasta que se estabilice -
Comenzar el tratamiento de todos modos
Si no podemos medir la estabilidad no se puede llevar a cabo este tipo de evaluación. Tiene que ser
una conducta más o menos estable para atribuir al tratamiento una causalidad.
•Intervención
13
3. Tipos de SCDs
- Multiple baseline
AB puede funcionar como diseño descriptivo (es mejor que simplemente no hacer nada), pero no es
suficiente para demostrar el control experimental (no pueden descartarse otras sobre el
comportamiento). No cumple los criterios experimentales.
Ejemplo: Dar un refuerzo a un niño con sobre uso del teléfono móvil. Hay un evento exógeno que
mejora la evolución de la conducta, y que si se quita ese evento el niño vuelve a los niveles iniciales.
14
*Si se observa que con una intervención concreta no se obtienen efectos se puede volver al estadio A
y utilizar otro tipo de intervención.
- Simplicidad
15
● Línea de base múltiple
Es el método más utilizado en psicología clínica. Se necesitan al menos 3 medidas para completar
una fase. No se trata de un diseño intra sujetos, sino entre sujetos. Son grupos de sujetos o unidades
(colegios etc).
- Las duraciones de las líneas de base varían sistemáticamente para cada participante
- Al menos 6 fases (es decir, 3 de referencia y 3 de tratamiento) con al menos cinco puntos de
datos por fase
- Ajustes
Las bases múltiples empiezan todas el mismo día, solo que a unos grupos les evaluaremos durante
más días. Estrictamente, cuando se empiezan días diferentes se pierde información sobre la
disminución o aumento de la conducta. Ejemplo: uso del casco en colegios, si no se empieza el
mismo día puede haber cambios en su uso que se nos escapen, como variables de temperatura
(calor o frío) que hagan que aumente o disminuya su uso.
Las bases múltiples empiezan todas el mismo día, solo que a unos grupos les evaluaremos durante
más días. Estrictamente, cuando se empiezan días diferentes se pierde información sobre la
disminución o aumento de la conducta. Ejemplo: uso del casco en colegios, si no se empieza el
mismo día puede haber cambios en su uso que se nos escapen, como variables de temperatura
(calor o frío) que hagan que aumente o disminuya su uso.
EJEMPLO 1:
- Discuta todos los aspectos relevantes del diseño (comportamiento objetivo, el plan de
evaluación y las fases intervención)
16
Entorno
EJEMPLO 2:
- Diseñar un programa de tratamiento para aumentar el uso del casco de ciclista en tres
centros de enseñanza media
- Discutir todos los aspectos relevantes del diseño (comportamiento objetivo, plan de
evaluación y línea de base y fases de intervención)
• Cambio de criterio
- Discuta todos los aspectos relevantes del diseño (conducta objetivo, plan de evaluación y
línea de base y fases de intervención)
17
- Detecte los puntos fuertes y las limitaciones del diseño
Himadi, Osteen, Kaiser y Daniel (1991): La sesión de tratamiento consistía en formular al paciente
una pregunta que había suscitado una respuesta delirante e indicarle al paciente que respondiera a
la pregunta "para que otras personas estuvieran de acuerdo con sus respuestas".
Después de que el paciente diera la respuesta respuesta adecuada, se le daba un reforzador que
consistía en una taza de café
- Fase 1 criterio, el paciente tenía que proporcionar respuestas no delirantes a dos preguntas
- La menor desviación de las prácticas clínicas normales → fácil de incorporar por los clínicos.
- Estos casos se considerarían grandes éxitos clínicos, pero limitan lo que se puede decir sobre
la razón del cambio desde el punto de vista científico (es decir, similar a un diseño AB)
18
• Alternancia de tratamientos
Implica de forma aleatoria incorporar 2 intervenciones paralelas, las cuales se aleatorizan en las
sesiones. Como máximo se puede dar las intervenciones de tratamiento 2 veces seguidas.
Es la misma cantidad de tiempo para todos los sujetos y en cada sujetos se aleatoriza la intervención.
Uno de los inconvenientes es que la intervención anterior puede tener influencia en el sujeto que
luego queden reflejados en los tratamientos posteriores que apliquemos.
Características:
- Útil cuando los tratamientos actúan rápidamente y cuando no hay efecto de arrastre
Ejemplo 1:
- Discuta todos los aspectos relevantes del diseño (objetivo, plan de evaluación y fases de
intervención)
19
Ejemplo 2:
20
• Data analysis: Degree of overlap
- Porcentaje de datos no solapados (PND): % de puntos de datos de fase B que superan el dato
más alto de la fase A
- Porcentaje de todos los datos no solapados (PAND): % de todos los datos restantes tras
eliminar el número mínimo de puntos de datos que eliminaría todo solapamiento de datos
entre las fases A y B
No solapamiento de todos los pares (NAP): % de solapamiento de datos entre cada punto de datos
de la fase A y cada punto de datos de la fase B
El que vamos a aplicar es el NAP: en el trabajo, inventar un caso que sea plausible en función de la
problemática que elegimos y la presentación clínica. Según la modalidad tendremos que plantear
una cantidad de medidas adecuadas a la modalidad y en función de esas medidas concretas luego se
hace el NAP, sobre los datos que inventaremos nosotros.
Evaluamos los puntos por debajo de X variable y lo hacemos repetidamente con todos los puntos.
Penalizan los puntos que se encuentran igual que al principio. Total: si hay 4 puntos y 4 puntos se
multiplican saldrían 16 puntos (4x4=16).
- Requieren menos tiempo y menos recursos que los ECA para demostrar que una
intervención puede cambiar el comportamiento
SCDs: Disclaimers
21
- La implantación de los SCDs en la práctica clínica puede ser un reto
PARTE 2 TEMA 6
•En 1993, el presidente de la División 12 (Psicología Clínica) de la APA, el Dr. David Barlow, designó la
Dra. Dianne Chambless para presidir un Grupo de Trabajo sobre la Promoción y Difusión de
Procedimientos Psicológicos. Este grupo de trabajo se encarga de la elaboración de criterios para
evaluar empíricamente los tratamientos psicológicos.
- Fuentes primarias:
- Fuentes secundarias:
- Estudios primarios:
• ESTUDIOS TIPO 1: Los más rigurosos, suponen: un ensayo clínico con asignación al azar, evaluación
ciega, presentación clara de los criterios de inclusión y exclusión, métodos de diagnóstico adecuados
a los avances actuales, adecuados tamaños de la muestra para poder ofrecer poder estadístico y
métodos estadísticos claramente descritos.
• ESTUDIOS TIPO 2: Son estudios clínicos a los que les falta alguno de los requisitos señalados en los
estudios tipo 1. (no asignación al azar, o no evaluación ciega, etc.). No son tan excelentes como el
tipo 1, sin embargo, proporcionan información valiosa y no deberían descartarse.
22
• ESTUDIOS TIPO 3: Tienen claras limitaciones metodológicas. Generalmente, se trata de estudios de
tratamiento abiertos dirigidos a obtener datos piloto. Suelen estar sujetos a sesgos del observador y
pueden hacer poco más que indicar si un tratamiento funcionaría siguiendo un diseño más riguroso.
- Estudios secundarios
• ESTUDIOS TIPO 4: Las revisiones con análisis secundarios de datos pueden ser útiles, especialmente
si las técnicas de análisis de datos son sofisticadas (ej. métodos de meta-análisis).
• ESTUDIOS TIPO 5: Las revisiones sin estudios secundarios de datos resultan útiles para dar una
impresión de la literatura, pero, claramente, están sujetas a las opiniones del autor y, a veces, están
altamente sesgadas.
• ESTUDIOS TIPO 6: Abarcan una variedad de informes que tienen valor marginal (estudios de casos,
ensayos o artículos de opinión).
23
¿Cómo sé si es un buen estudio?
I. Al menos dos buenos estudios de diseños de grupo, realizados por diferentes investigadores, que
demuestren su eficacia de alguna de las siguientes formas: A. Su superioridad frente a una píldora,
un placebo psicológico u otro tratamiento. B. Su equivalencia respecto a un tratamiento ya
establecido en estudios que tengan un adecuado poder estadístico.
II. Una extensa o amplia serie estudios de diseños de caso único que demuestren eficacia. Estos
estudios deben haber: A. Utilizado buenos diseños experimentales. B. Haber comparado la
intervención frente a otro tratamiento Criterios adicionales, tanto para I como para II:
III. Los estudios se deben haber llevado a cabo con manuales de tratamiento (tratamientos
manualizados).
IV. Las características de las muestras de los pacientes deben estar claramente especificadas. (Qué es
eficaz y para quién!)
I. Dos estudios que demuestren que el tratamiento es más eficaz que un grupo control de lista de
espera
II. Dos estudios que cumplan los criterios I, III y IV de los tratamientos bien establecidos, pero que
hayan sido realizados por el mismo investigador. Ó un buen estudio que demuestre eficacia según
estos mismos criterios.
III. Al menos dos buenos estudios que demuestren eficacia, pero que tengan la debilidad
metodológica de heterogeneidad en las muestras de clientes.
IV. Una pequeña serie de estudios de diseño de caso único que cumplan los criterios II. III y IV de los
tratamientos bien establecidos.
24
Beneficios Comunes de las Guías:
• Definición: LOS ENSAYOS CLÍNICOS son investigaciones científicas diseñadas para evaluar la eficacia
y seguridad de intervenciones psicológicas
• Elementos Clave:
25
• Documentos clave:
• Checklist
• Diagrama de flujo
26
1.1.1. Ensayos clínicos: Guías CONSORT: checklist (III)
Se refleja intent-to-treat Este tipo de análisis ayuda a evitar sesgos. Si solo analizáramos a las
personas que completaron el estudio, podríamos obtener una imagen distorsionada de la efectividad
del tratamiento
27
1.2. Diseños de Caso y Guías SCRIBE
• Definición: Los DISEÑOS DE CASO se centran en el estudio detallado de uno o varios casos,
proporcionando una comprensión profunda de fenómenos individuales o raros.
• Elementos Clave:
• Documentos clave:
• Artículo (doi:10.1016/j.jsp.2016.04.001)
• Checklist
28
1.2. SCRIBE: checklist (II)
29
1.3. Estudios Observacionales y Guías STROBE
• Elementos Clave:
• Guía para realizar y publicar estudios de: • Cohorte (prospectivos) • Caso-control (retrospectivos y
observac.) • Transversales (observac. 1 punto tiempo)
• Documentos clave:
• Artículo (doi:10.1371/journal.pmed.0040296)
• Guías PRISMA: Preferred Reporting Items for Systematic Reviews and Meta-Analyses (PRISMA)
establece estándares para la presentación de revisiones sistemáticas.
• Elementos Clave:
• Documentos clave:
• Checklist
• Diagrama de flujo
30
1.5. Protocolos de Ensayos y Guías SPIRIT
• Definición: Los protocolos de ensayos describen el diseño y los métodos de un estudio antes de
que se lleve a cabo, proporcionando transparencia y rigurosidad.
• Guías SPIRIT: Standard Protocol Items: Recommendations for Interventional Trials (SPIRIT) ofrece
pautas para la elaboración de protocolos de ensayos.
• Elementos Clave:
• Bases de datos públicas: ¿Dónde? ¿Cómo garantizo que los datos sean confidenciales?
• Registrar mi ensayo antes de su inicio: ¿Dónde? ¿Cómo logro que mi investigación sea más fiable?
• Gold Access
• Centros públicos (p.ej. universidades) pagan suscripciones a editoriales o revistas para que sus
empleados accedan a estos artículos o los propios individuos pagan por acceder a un artículo
31
• El movimiento open access surgió a principios de los años 90 con el objetivo de dar respuesta a las
barreras económicas y de diseminación del modelo de publicación tradicional.
• Efectivamente, los artículos de acceso abierto se descargan y se citan más que los artículos por
suscripción
• Pero…. ¿Qué pasa si una revista, que sobrevive gracias al dinero de los autores, no tiene
suficientes artículos para sobrevivir y solo recibe artículos de discutible calidad?
• ¿Qué pasa si no se dispone de financiación para publicar en abierto (p. ej. países no desarrollados,
estudiantes de doctorado o máster, personas retiradas o pequeños grupos de investigación)?
• Empiezan a aparecer revistas tradicionales de calidad que ofrecen el pago de publicación en abierto
32
Data dryad: http://datadryad.org/ es un repositorio de datos que se centra en datos
asociados con artículos de investigación revisados por pares. Está destinado a la comunidad científica
en general.
• Surge en 2013 para dar respuesta a la opacidad en investigación y para facilitar la colaboración
entre investigadores.
• Compartir bases de datos para que otros puedan proponer análisis o replicar los publicados en un
estudio
Definición:
• Bases de Datos Bibliográficas: Son sistemas electrónicos que recopilan, almacenan y organizan
información bibliográfica, como citas, resúmenes y referencias bibliográficas de documentos
académicos y científicos.
• Amplitud de Cobertura: Incluyen una amplia gama de disciplinas y tipos de documentos, como
artículos de revistas, libros, conferencias y tesis. Ejemplos de Bases de Datos:
¿QUÉ SON? Palabras clave especiales (AND, OR, NOT) para combinar oexcluir términos en
búsquedas.
33
• Operador OR (O):
• Amplía la búsqueda para incluir artículos que contengan al menos uno de los términos.
• Paréntesis ( )
• Asterisco (*)
búsqueda.
OR depresión)".
1. Tipo de Documento: • Utilidad: Filtra por tipo de publicación (artículo, revisión, conferencia). •
Uso: Selecciona "Artículo" para obtener investigaciones académicas.
2. Año de Publicación: • Utilidad: Limita los resultados a un rango de años específico. • Uso:
Restringe la búsqueda a la información más actualizada.
3. Categorías de Investigación: • Utilidad: Refina por categorías temáticas (psicología, medicina, etc.).
• Uso: Focaliza la búsqueda en tu área de interés
34
4. Idioma: • Utilidad: Filtra por el idioma de la publicación (Ej: Inglés y español) • Uso: Selecciona tu
idioma preferido para acceder a información comprensible.
5. Área de Investigación: • Utilidad: Permite seleccionar áreas específicas dentro de una disciplina. •
Uso: Refina la búsqueda para alinearse con tus intereses académicos.
6. Institución: • Utilidad: Filtra por institución de afiliación de los autores. • Uso: Útil para buscar
trabajos de investigadores específicos o de tu propia institución.
Definición:
• Cuartiles: En el JCR, las revistas se clasifican en cuartiles según su factor de impacto. El factor de
impacto mide la frecuencia con la que los artículos de una revista son citados en un año
determinado.
Uso:
• Selección de Revistas: Los autores pueden utilizar esta clasificación para seleccionar las
revistas más adecuadas para la publicación de sus trabajos, considerando la visibilidad y el
impacto en la comunidad científica.
Concepto: El índice h (índice de Hirsch) es una métrica bibliométrica que evalúa la productividad y el
impacto de un investigador.
• Cálculo: Representa el número de artículos (h) que han sido citados al menos h veces,
proporcionando una medida equilibrada de la cantidad y la relevancia de las citas.
35
PARTE 3. TEMA 6.
• Revisión en la que hay una búsqueda exhaustiva de estudios relevantes sobre un tema
específico, y los identificados se evalúan y sintetizan de acuerdo con un método
predeterminado y explícito.
• Objetivo: Intenta recopilar toda la evidencia empírica que se ajuste a los criterios de
elegibilidad preespecificados para responder una pregunta de investigación específica.
Utiliza métodos explícitos y sistemáticos que se seleccionan con el fin de minimizar el sesgo,
proporcionando así resultados más confiables de los que se pueden sacar conclusiones y tomar
decisiones.
36
¿Por qué «sistemáticas»?
El resto de revisiones:
• Rara vez preespecifican o hace explícitos los métodos utilizados, por lo que suelen ser poco
transparentes o reproducibles
• Clínicos
• Estudiantes
• Guías PRISMA: creadas en 2009 y actualizadas en 2015, tienen como función identificar aquellos
aspectos mínimos que deben encontrarse y especificarse en una revisión sistemática o meta-análisis.
• Risk of Bias in Systematic Reviews (ROBIS): herramienta diseñada para evaluar el riesgo de sesgo en
las revisiones dentro de los entornos de salud en 4 categorías principales: intervenciones,
diagnóstico, pronóstico y etiología.
37
ROBIS. Dominio 1.1
• Una revisión sistemática debe comenzar con una pregunta u objetivo claramente especificado.
• Diseños de interés
• Población objetivo
Por ejemplo, para juzgar la idoneidad de una revisión el evaluador suele necesitar una descripción
clara de la población en términos de:
• Rango de edad
• Diagnóstico
• Es posible que se necesite cierto conocimiento sobre la cuestión de estudio para evaluar este
apartado.
• Se debe proporcionar información específica sobre las características de los estudios elegibles, en
la medida de lo posible, evitando cualquier ambigüedad sobre los tipos de estudio, población,
intervenciones, comparadores y resultados.
• Los criterios deben ser lo suficientemente detallados para que la revisión se pueda replicar
utilizando los criterios especificados. Por ejemplo:
38
• También deben proporcionar detalles específicos sobre intervenciones y comparadores,
incluidas características como la dosis o frecuencia de tratamiento.
• Cualquier restricción aplicada sobre la base de las características del estudio debe describirse
claramente y debe proporcionarse una justificación sólida. Estos detalles permitirán a los
evaluadores juzgar si tales restricciones fueron apropiadas. Los ejemplos pueden ser:
• Identificación de la muestra
• Esta pregunta es diferente de la anterior, que se refiere a si los criterios de elegibilidad son
apropiados para la pregunta de revisi
• Cualquier restricción aplicada sobre la base de las fuentes de información debe describirse
claramente y debe proporcionarse una justificación sólida.
• Estos detalles permitirán a los evaluadores juzgar si tales restricciones fueron apropiadas. Algunos
ejemplos pueden ser:
• Idioma
• Disponibilidad de datos
• El evaluador necesita juzgar qué constituye un rango apropiado de bases de datos Esto variará
según el tema de revisión.
• Las búsquedas de material publicado como informes de conferencias también deben considerarse
junto con una búsqueda de registros de investigación
39
ROBIS. Dominio 2.2
• Búsqueda en manuales
• Se requiere una estrategia de búsqueda completa que muestre todos los términos de búsqueda
utilizados, con suficiente detalle para replicar la búsqueda y para poder juzgar completamente esta
pregunta.
• Una lista de términos de búsqueda sin indicación de cómo se combinan, los evaluadores pueden
emitir un juicio de "Probablemente Sí" o "Probablemente No".
• Se requiere información sobre los tres componentes de esta pregunta (fecha, formato de
publicación e idioma) para poder juzgar este ítem.
• La restricción de trabajos basada en el idioma (p. ej. solo inglés) o el formato de publicación (p. ej.
solo texto completo) rara vez es apropiada, por lo que si se aplican dichas restricciones, esta
pregunta debería responderse como "No".
• Las restricciones en la fecha pueden ser apropiadas, pero deben estar respaldadas por una
justificación claramente descrita para que esta pregunta sea respondida como "Sí« (p.ej si un
medicamento o prueba no estaba disponible antes de una fecha determinada)
• Esta pregunta cubre tanto el proceso de selección de títulos y resúmenes como de evaluación de
estudios de texto completo para su inclusión. Se requiere información sobre ambos para poder
juzgar completamente este elemento.
• Para obtener una respuesta de "Sí", los títulos y resúmenes deben ser revisados de forma
independiente por al menos dos revisores y la evaluación de inclusión de texto completo debe
40
involucrar al menos a dos revisores (ya sea de forma independiente o con uno que realice la
evaluación y el segundo que verifique la decisión).
• Para minimizar el sesgo y los errores en el proceso de recopilación de datos, este proceso debe
involucrar al menos a dos revisores y se deben utilizar procedimientos de obtención de datos
estructurados que hayan pasado por un proceso piloto.
• Idealmente, esto debería hacerse de forma independiente, pero también es aceptable la extracción
por un revisor y la verificación detallada por un segundo revisor.
• La verificación debe implicar que el segundo revisor lea el documento en detalle no solo para
verificar la exactitud de los datos extraídos, sino también para garantizar que no se pierda ninguna
información relevante.
• La información sobre las características de los estudios revisados es esencial para interpretar los
resultados de la revisión, ya que esto permite una investigación adecuada de la heterogeneidad y la
aplicabilidad de los resultados.
• La sección de métodos
• Se deben extraer resultados suficientes de los estudios para permitir que se realice una síntesis
apropiada.
• Idealmente, los autores de la revisión deben informar qué datos fueron necesarios para la síntesis y
en qué formato (tipos de análisis y estadísticos imprescindibles).
• Una evaluación formal del riesgo de sesgo de los estudios incluidos es un componente esencial de
cualquier revisión. Si el riesgo de sesgo no se evaluó formalmente, esta pregunta debería
responderse como "No".
• Si se llevó a cabo una evaluación formal, los evaluadores necesitarán usar su juicio con
respecto a si los criterios utilizados fueron apropiados. Si se utilizó una herramienta
41
publicada aceptada para el diseño apropiado, como la herramienta Cochrane de riesgo de
sesgo para Ensayos clínicos aleatorizados o QUADAS-2 para estudios de diagnóstico será
bastante sencillo y esta pregunta puede responderse como Sí.
• Sin embargo, si la revisión simplemente enumera las preguntas evaluadas, utiliza una
herramienta no publicada o una herramienta que ya no se recomienda, entonces esto es más
complicado.
• Al igual que con la recopilación de datos, la evaluación del riesgo de sesgo debe involucrar al
menos a dos revisores.
• Esta pregunta aborda tres situaciones problemáticas relacionadas con los estudios que se han
identificado para su inclusión en la revisión:
• (i) los resultados específicos de un estudio incluido no están disponibles para los revisores
(los autores no los reportaron),
• (ii) los revisores no han podido recopilar o procesar los datos disponibles (falta de
conocimiento estadístico) o
• El propósito de esta pregunta es identificar los sesgos introducidos por los revisores a través de su
selección de análisis y métodos de análisis de tal manera que los resultados que no les gustaron sean
suprimidos o reemplazados.
• Para responder Sí, la revisión debería haber seguido un protocolo publicado o accesible (registrado
en PROSPERO o Cochrane).
• Si hay una indicación de que se siguieron análisis predefinidos, la sección de métodos parece
rigurosa y todos los análisis mencionados se abordan en los resultados, entonces el evaluador podría
responder "Probablemente sí".
42
• En ausencia explícita de un protocolo preespecificado, el evaluador debe responder esta pregunta
como "No". Sin embargo, si la revisión sistemática no hace referencia a la existencia o ausencia de un
protocolo, recomendamos que el evaluador responda esta pregunta como "sin información".
• Si se realiza una síntesis cuantitativa (un meta-análisis), esta pregunta aborda si era apropiado
hacer esto y aborda los métodos estadísticos utilizados.
• Si se utiliza un enfoque narrativo para la síntesis (systematic review), esta pregunta aborda tanto si
una síntesis cuantitativa habría sido más apropiada como si el enfoque narrativo particular era
apropiado.
• Esta pregunta se refiere a la variación en los resultados de los estudios y no a la variación en sus
características.
• Si se ignora la heterogeneidad entre los resultados de los estudios en un metaanálisis, esto puede
conducir a conclusiones engañosas.
• Si se realizó una síntesis narrativa debido a la heterogeneidad clínica de los estudios, esta pregunta
debería responderse "Sí", ya que la heterogeneidad se abordó al no combinar los distintos trabajos
cuantitativamente.
• Esta pregunta hace referencia a si se han utilizado métodos estadísticos para asegurar la robustez
de los hallazgos (no se deben al procedimiento estadístico de síntesis realizado, al método de gestión
de los datos perdidos o a los resultados de un solo trabajo).
• Si se realizó una síntesis narrativa, el evaluador debería considerar si distintos métodos para
resumir los estudios podrían haber llevado a conclusiones diferentes y si alguno de los estudios en
particular está guiando las conclusiones.
• Se alienta a los evaluadores a responder esta pregunta como "No" si juzgan que:
• existe un sesgo importante en los estudios incluidos que los revisores han ignorado,
43
• si el riesgo de sesgo no se ha evaluado en la revisión sistemática o
• Se respondería esta pregunta "Sí" cuando todos los estudios incluidos recibieron una calificación de
"riesgo bajo de sesgo" del revisor o se emplearon correctores cuando los estudios tenían un alto
riesgo de sesgo.
• Cada estudio se representa por un cuadrado cuya área suele ser proporcional a la contribución de
cada uno al resultado global.
44