0% encontró este documento útil (0 votos)
10 vistas18 páginas

Diseños Completo

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
10 vistas18 páginas

Diseños Completo

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

TEMA 1

Fases del Proceso de Investigación

El proceso de investigación se estructura en fases interconectadas:

●​ Teórico-Conceptual (Introducción y Discusión):

○​ Introducción: Se establece lo que se sabe, lo que se quiere investigar y los resultados esperados.
Incluye la formulación del problema y las hipótesis.

○​ Discusión: Se analizan los resultados obtenidos en relación con el conocimiento existente.

●​ Técnico-Metodológica (Método): Define cómo se llevará a cabo la investigación, incluyendo la selección de


participantes, instrumentos, variables, diseño y procedimiento.

●​ Estadístico-Analítica (Resultados): Se presentan los resultados obtenidos a través de análisis descriptivos e


inferenciales.

Pilares de la Investigación en Psicología

La investigación en psicología se asienta sobre tres pilares principales, cada uno asociado a un tipo de validez:

●​ Diseño: Se refiere al plan estructurado de la investigación, buscando resultados rigurosos, libres de sesgo y
generalizables. Incluye la selección de unidades experimentales (muestreo), aplicación de tratamientos (si
aplica), control de variables extrañas y minimización de la varianza de error. Se asocia con la validez interna y
externa.

○​ Muestreo: Puede ser aleatorio (simple, estratificado, por conglomerados) o no aleatorio (por
conveniencia/incidental, bola de nieve, por cuotas). El muestreo aleatorio es poco frecuente en
psicología, aunque garantiza que todos los miembros de la población tengan la misma probabilidad de
ser seleccionados, resultando en una muestra representativa.

●​ Medida: Implica identificar y definir variables (observables o latentes, cuantitativas o categóricas) y decidir los
indicadores. Se prioriza el uso de instrumentos validados con buenos niveles de fiabilidad y validez. La validez
asociada es la Validez de Constructo.

●​ Análisis: Consiste en la selección y aplicación de pruebas estadísticas adecuadas para los datos, abarcando
análisis descriptivos (centrados en la muestra) e inferenciales (para generalizar a la población). Puede ser
estadística frecuentista o bayesiana. La validez asociada es la Validez de la Conclusión Estadística.

○​ Inferencia Bayesiana: Se basa en el teorema de Bayes, que calcula la probabilidad a posteriori de un


suceso A dada una evidencia B. A diferencia del enfoque frecuentista (parámetros fijos, distribuciones
muestrales, intervalos de confianza, énfasis en contrastes de hipótesis), el bayesiano considera
parámetros aleatorios, distribuciones posteriores, intervalos de credibilidad y enfatiza la estimación de
parámetros. Aunque su uso es reducido en psicología, el enfoque frecuentista es mayoritario.

Estrategias de Investigación Empírica

La investigación empírica puede seguir diferentes estrategias:

●​ Manipulativa: Para hipótesis causales, donde la manipulación experimental garantiza que los cambios en la
variable dependiente (VD) se deben a la variable independiente (VI). La VI puede manipularse por
presencia/ausencia de tratamiento, diferentes tratamientos, o variación de intensidad. La condición
experimental depende del investigador.

●​ Asociativa: Para hipótesis de covariación.

●​ Descriptiva: Para una primera aproximación a un fenómeno.


Aleatorización

La aleatorización es un concepto crucial con dos aspectos:

●​ Selección Aleatoria: Proceso de elegir participantes de una población. Raramente usada en investigación
experimental, afecta la representatividad de la muestra.

●​ Asignación Aleatoria: Proceso de asignar participantes a diferentes condiciones de investigación. Es


fundamental para la equivalencia de los grupos, evitando sesgos de selección antes de la administración de
tratamientos.

Tipos de Validez y sus Amenazas

La validez es crucial para la credibilidad y utilidad de los hallazgos de la investigación.

●​ Validez Interna: Asegura que los cambios observados en la VD se deben realmente a la VI.

○​ Amenazas:

■​ Selección diferencial de sujetos (sesgos de selección).

■​ Historia (eventos externos durante la investigación).

■​ Maduración (cambios en los sujetos por el paso del tiempo).

■​ Regresión estadística (tendencia de puntuaciones extremas a valores menos extremos en


mediciones posteriores).

■​ Mortalidad experimental (pérdida de sujetos).

■​ Interacciones con selección (amenazas específicas en un grupo pero no en otros).

■​ Reacciones especiales de los grupos de control.

●​ Validez Externa: Determina si los resultados pueden generalizarse a otras personas, situaciones o
momentos.

○​ Amenazas:

■​ Características de la muestra (participantes muy particulares).

■​ Reactividad a la situación experimental (el saberse en un experimento influye).

■​ Reactividad a la evaluación (el saberse evaluado altera respuestas).

■​ El tiempo de la medida (si las conclusiones se mantienen en otro momento).

●​ Validez de Constructo: Evalúa si los indicadores utilizados representan adecuadamente los constructos
teóricos.

○​ Amenazas:

■​ Operacionalización inadecuada de un constructo.

■​ Uso de indicadores inadecuados.

■​ Errores potenciales de la medida.

■​ Expectativas del experimentador.

■​ Pistas derivadas de la situación experimental que influyen en el comportamiento de los


sujetos.

●​ Validez de la Conclusión Estadística: Asegura que los resultados obtenidos son adecuados.
○​ Amenazas:

■​ Violación de los supuestos de las pruebas estadísticas.

■​ Baja potencia estadística (especialmente con muestras pequeñas, puede llevar a un error tipo
II).

■​ Realización de múltiples comparaciones estadísticas (aumenta el riesgo de error tipo I,


requiere corrección como Bonferroni).

■​ Poca fiabilidad de las medidas o tratamientos (aumenta la varianza de error, posible error tipo
II).

■​ Muestras heterogéneas (aumenta la varianza de error, posible error tipo II).

■​ Efecto techo o suelo (posible error tipo II).

Ideas Finales sobre la Validez

Una amenaza adicional a la validez es el reporte incompleto o selectivo de los resultados. Una posible solución,
aunque poco frecuente, es el uso de protocolos de investigación. Se destaca la importancia de la replicación para el
conocimiento acumulativo en la investigación empírica.

TEMA 2

1. Diseños Experimentales: Introducción

La investigación experimental busca determinar la influencia causal de una Variable Independiente (VI) sobre una
Variable Dependiente (VD). Sus características clave son la manipulación de la VI, la aleatorización de los
participantes a las condiciones experimentales, y el control de variables extrañas.

●​ Terminología Básica:

○​ Variable de Respuesta (VD): Variable donde se registran los efectos del tratamiento.

○​ Unidad Experimental: Unidad mínima de la que se recogen datos (ej., persona, pareja).

○​ Tratamiento: Manipulación administrada por el investigador.

○​ Factor: Variable categórica (VI), cuyos valores son llamados niveles.

■​ Factor experimental: Niveles representan tratamientos.

■​ Factor de Bloqueo/Clasificación: Niveles representan características no manipuladas,


usadas para control.

○​ Covariable/Covariante: Variable cuantitativa, no manipulada, usada para control.

●​ Clasificación de Diseños Experimentales:

○​ Diseños Intersujetos (entre sujetos): Se asignan distintos grupos de sujetos a cada condición
experimental.

■​ Diseños Completamente Aleatorios (DCA): La asignación es aleatoria y el único factor es


experimental. Pueden ser simples (un factor) o factoriales (dos o más factores).

■​ Diseños Factoriales Parcialmente Aleatorios: Incluyen factores experimentales y no


experimentales.

■​ Diseños Jerárquicos (DJE): Factores anidados.

■​ Diseños de Bloques Aleatorios (DBA): Incluyen factores experimentales y de bloqueo.


■​ Diseños con Variables Concomitantes (DVC) o con Covariantes (ANCOVA): Incluyen
factores experimentales y covariantes.

○​ Diseños Intrasujetos (dentro de sujetos): Los mismos sujetos pasan por todas las condiciones
experimentales.

○​ Diseños Mixtos: Combinan elementos intersujetos e intrasujetos.

●​ Control del Error en Diseños Intersujetos:

○​ Aleatorización: Principal mecanismo para homogeneizar grupos y controlar variables extrañas.

○​ Estrategias específicas de control:

■​ Eliminación: Eliminar la variable extraña.

■​ Constancia: Mantener la variable extraña constante.

■​ Equilibración:

■​ Emparejamiento: Buscar sujetos con características similares y asignar uno a cada


grupo.

■​ Bloqueo: Agrupar sujetos con características similares (bloques) y luego asignar


aleatoriamente a las condiciones dentro de cada bloque.

■​ Control Estadístico: Utilizar técnicas estadísticas (como ANCOVA) para controlar la


variabilidad de variables extrañas.

●​ Análisis Estadístico para DCA:

○​ VD Cuantitativa:

■​ Normalidad en Residuales (Sí) y Homogeneidad de Varianzas (Sí): ANOVA simple (para 2


o más niveles del factor).

■​ Normalidad en Residuales (Sí) y Homogeneidad de Varianzas (No): Corrección de Welch.

■​ Normalidad en Residuales (No): Kruskal Wallis.

■​ Factor con solo 2 niveles: t de Student (si hay normalidad y homogeneidad) o U de Mann
Whitney (si no hay normalidad).

○​ VD Ordinal: Kruskal Wallis.

○​ VD Nominal: Regresión Logística. Para VD Nominal Dicotómica con 2 niveles en el factor, se pueden
usar contraste de proporciones o Chi-Cuadrado.

2. Diseños Factoriales (DCA Factoriales)

Los diseños factoriales permiten investigar la influencia de dos o más factores experimentales simultáneamente, así
como sus interacciones. Cada combinación de niveles de los factores define una condición experimental (célula).

●​ Tipos de Efectos:​

○​ Efectos Principales: Influencia de cada factor de forma independiente sobre la VD, promediando los
niveles de los otros factores.

○​ Efectos de Interacción: Ocurre cuando el efecto de un factor sobre la VD varía según los niveles de
otro factor. Una interacción significativa indica que los efectos principales deben interpretarse con
cautela, ya que el efecto de un factor no es el mismo en todos los niveles del otro.
○​ Efectos Simples: Análisis de la influencia de un factor en un nivel específico del otro factor, cuando la
interacción es significativa.

●​ Análisis Estadístico: Se utiliza ANOVA factorial para analizar estos diseños. La tabla ANOVA mostrará la
significancia de los efectos principales y de las interacciones. Si la interacción es significativa, se procede al
análisis de efectos simples.​

3. Diseños de Bloques Aleatorios (DBA)

Los DBA son diseños intersujetos que se utilizan para controlar una variable extraña conocida, de naturaleza
categórica, denominada factor de bloqueo. Su objetivo es reducir la varianza de error y aumentar la potencia
estadística.

●​ Procedimiento:

1.​ Se forman bloques de sujetos homogéneos con respecto a la variable de bloqueo (ej., bloques por
edad, por nivel socioeconómico).

2.​ Dentro de cada bloque, los sujetos son asignados aleatoriamente a las diferentes condiciones del
factor experimental.

●​ Ventajas: Permiten estudiar el efecto de la variable de bloqueo y su interacción con el factor experimental,
además de reducir el error.

●​ Análisis Estadístico: Se utiliza un ANOVA con el factor experimental y el factor de bloqueo como variables
independientes. Si la interacción entre el factor experimental y el factor de bloqueo es significativa, se analizan
los efectos simples. La variable de bloqueo puede actuar como una variable moderadora.

4. Diseños con Variables Concomitantes (DVC o ANCOVA)

Los DVC, o ANCOVA (Análisis de Covarianza), son diseños intersujetos que se utilizan para controlar una variable
extraña conocida de naturaleza cuantitativa, denominada covariante. Su objetivo es reducir la varianza de error y
aumentar la potencia estadística, además de ajustar las medias de los grupos en la VD por el efecto de la covariante.

●​ Uso Común: Frecuentemente se utiliza una medida pre-test como covariante para controlar las diferencias
iniciales entre los grupos antes de la intervención.

●​ Supuestos Clave:

1.​ Independencia de las observaciones.

2.​ Linealidad: Relación lineal entre la VD y la covariante.

3.​ Homogeneidad de las pendientes de regresión (paralelismo): La relación entre la VD y la


covariante debe ser la misma en todos los grupos del factor experimental. Si este supuesto no se
cumple, hay una interacción significativa entre el factor y la covariante, lo que implica que el efecto del
tratamiento varía en función de la covariante. En este caso, el ANCOVA no es apropiado y se podría
considerar un análisis de moderación o la utilización de grupos definidos por la covariante (diseño de
bloques).

4.​ Homogeneidad de varianzas residuales: Las varianzas de los errores deben ser iguales en todos
los grupos.

5.​ Normalidad de los residuos.

●​ Análisis Estadístico: El ANCOVA permite examinar la asociación entre un factor experimental y la VD,
eliminando el efecto de la covariante. Es una herramienta poderosa para estimar el efecto de una intervención
de manera más precisa.
TEMA 3

1. Diseños Intrasujetos (Diseños de Medidas Repetidas Puras)

Los diseños intrasujetos, también conocidos como diseños de medidas repetidas puras, son aquellos en los que cada
unidad experimental (sujeto) es expuesta a todos los niveles de uno o más factores intrasujetos. Esto significa
que los mismos sujetos actúan como su propio control, lo que aumenta la eficiencia del diseño y reduce la varianza de
error.

●​ Factor Intrasujetos: Es un factor cuyos niveles son administrados a las mismas unidades experimentales.

●​ Ventajas:

○​ Mayor potencia estadística: Al controlar las diferencias individuales entre sujetos, se reduce la
varianza de error, lo que hace más fácil detectar los efectos del tratamiento.

○​ Mayor eficiencia: Se necesitan menos sujetos para lograr la misma potencia estadística que en un
diseño intersujetos equivalente.

○​ Ideal para estudiar cambios a lo largo del tiempo: Permiten analizar la evolución de una variable
en los mismos individuos (ej., pre-post tratamiento, estudios longitudinales).

●​ Desventajas y Amenazas a la Validez Interna:

○​ Efectos de orden/secuencia: El orden en que se presentan los niveles del factor puede influir en la
respuesta de los sujetos.

■​ Efecto de Práctica o "Carry-over": La experiencia en un nivel afecta el rendimiento en


niveles posteriores (ej., fatiga, aprendizaje).

■​ Efecto de Período: Cambios sistémicos que ocurren a lo largo del tiempo durante el
experimento (ej., maduración, eventos externos).

○​ Soluciones a los Efectos de Orden:

■​ Aleatorización del orden: Asignar aleatoriamente el orden de los tratamientos para cada
sujeto.

■​ Contrabalanceo: Presentar los niveles del factor en diferentes órdenes para distintos
subgrupos de sujetos.

■​ Completo: Todas las posibles permutaciones de órdenes son utilizadas. Requiere


muchas combinaciones si el número de niveles es grande.

■​ Incompleto: Se utilizan solo un subconjunto de órdenes (ej., Cuadrado Latino,


Cuadrado Latino Balanceado). Se usa cuando el número de niveles es grande para
reducir la cantidad de sujetos necesarios, garantizando que cada tratamiento aparece
una vez en cada posición y que cada tratamiento precede y sigue a cada otro
tratamiento un número igual de veces.

●​ Análisis Estadístico para Diseños Intrasujetos con un factor (VD Cuantitativa):

○​ ANOVA de Medidas Repetidas: Cuando se cumplen los supuestos de normalidad y esfericidad.

■​ Esfericidad: Es el supuesto clave del ANOVA de medidas repetidas, que implica que las
varianzas de las diferencias entre todos los pares posibles de niveles del factor intrasujetos
son iguales.

■​ Prueba de Mauchly: Se utiliza para evaluar el supuesto de esfericidad.

■​ Si se cumple la esfericidad: Se interpreta el ANOVA estándar.


■​ Si NO se cumple la esfericidad: Se aplican correcciones a los grados de libertad
(ej., Greenhouse-Geisser, Huynh-Feldt, o el límite inferior). Greenhouse-Geisser es
más conservadora.

○​ Pruebas no paramétricas: Si no se cumplen los supuestos (ej., Normalidad), se pueden usar


pruebas como la F de Friedman (para más de dos niveles) o la W de Kendall (que mide la
concordancia). Para dos niveles, Wilcoxon.

●​ Análisis Post Hoc: Si el factor intrasujetos tiene más de dos niveles y el ANOVA es significativo, se realizan
comparaciones post hoc para identificar qué niveles difieren significativamente (ej., Bonferroni, Holm).

2. Diseños Mixtos (Diseños de Medidas Parcialmente Repetidas)

Los diseños mixtos combinan factores intersujetos y factores intrasujetos. Esto permite estudiar la interacción
entre ambos tipos de factores.

●​ Estructura: Un factor intersujetos (distintos grupos de sujetos para cada nivel) y al menos un factor
intrasujetos (los mismos sujetos pasan por todos los niveles).

●​ Análisis Estadístico: Se utiliza un ANOVA de Medidas Repetidas con factores intersujetos e intrasujetos.

○​ Se examinan los efectos principales de cada factor y la interacción entre ellos.

○​ La interpretación de los efectos de interacción es crucial, ya que un efecto de interacción significativo


entre un factor intersujetos y un factor intrasujetos indica que el patrón de cambio en el tiempo (o a
través de los niveles intrasujetos) es diferente para los distintos grupos.

Contenidos más Importantes a Destacar:

●​ Concepto Central: Los DMR se basan en tomar múltiples medidas de la misma variable dependiente en
los mismos sujetos, ya sea a lo largo del tiempo o bajo diferentes condiciones experimentales.

●​ Diferencia fundamental con diseños intersujetos: La eliminación de la variabilidad interindividual de la


varianza de error, lo que confiere a los DMR una mayor potencia estadística.

●​ Amenaza clave en diseños intrasujetos: Los efectos de orden/secuencia, y la necesidad de controlarlos


mediante aleatorización o contrabalanceo (completo o incompleto, como el Cuadrado Latino).

●​ Supuesto crítico para ANOVA de Medidas Repetidas: La esfericidad, evaluada por la Prueba de Mauchly,
y la necesidad de aplicar correcciones a los grados de libertad (Greenhouse-Geisser, Huynh-Feldt) si no se
cumple.

●​ Diseños Mixtos: La capacidad de investigar simultáneamente los efectos de factores entre sujetos y dentro
de sujetos, y especialmente la interpretación de la interacción entre ellos, que revela cómo los cambios
intrasujetos difieren entre los grupos.

●​ Aplicaciones: Ideales para estudios longitudinales, evaluaciones pre-post tratamiento, y experimentos donde
se comparan múltiples condiciones en los mismos individuos.

TEMA 4

1. Contexto de los Diseños Manipulativos

Dentro de las estrategias manipulativas (que buscan establecer relaciones causales), se distinguen:

●​ Diseños Experimentales: Caracterizados por la manipulación de la VI y la aleatorización de los


participantes a las condiciones, lo que permite un alto control de variables extrañas y una fuerte inferencia
causal (alta validez interna).
●​ Diseños Cuasi-Experimentales: Mantienen la manipulación de la VI pero carecen de aleatorización
completa de los participantes a las condiciones. Esto los hace más susceptibles a amenazas a la validez
interna.

●​ Diseños Pre-Experimentales: Son los que ofrecen el menor control y, por tanto, la menor validez interna.
Generalmente carecen de grupo de control o de una medida pre-tratamiento adecuada.

●​ Diseños de Caso Único: Se enfocan en un solo individuo o grupo pequeño, con medidas repetidas a lo largo
del tiempo.

2. Diseños Pre-Experimentales

Estos diseños son los de menor control y su capacidad para establecer relaciones causales es muy limitada. A
menudo se utilizan para exploraciones iniciales o en contextos donde no es posible ningún otro tipo de diseño.

●​ Diseño de un solo grupo con solo medida post-tratamiento (X O1​): Un grupo recibe el tratamiento y se
mide la VD. No hay grupo de control ni medida pre-tratamiento. La validez interna es mínima, ya que cualquier
cambio observado podría deberse a numerosos factores (historia, maduración, etc.).

●​ Diseño de un solo grupo con pre- y post-tratamiento (O1​X O2​): Un grupo es medido antes del
tratamiento, recibe el tratamiento y se mide de nuevo. Mejora ligeramente el anterior al tener una línea base,
pero aún es vulnerable a amenazas como la historia, maduración, instrumentación, regresión a la media, y
mortalidad experimental. Es un tipo de diseño de medidas repetidas.

●​ Diseño de grupo de control no equivalente con solo post-tratamiento (X O1​/−− O1​): Se compara un
grupo que recibe el tratamiento con otro que no, pero los grupos no son equivalentes al inicio. Las diferencias
post-tratamiento pueden deberse a diferencias iniciales entre los grupos (selección diferencial).

3. Diseños Cuasi-Experimentales

Los diseños cuasi-experimentales son una alternativa valiosa cuando la aleatorización no es factible o ética. Aunque
ofrecen un mayor control que los pre-experimentales, requieren una consideración cuidadosa de las posibles
amenazas a la validez interna.

●​ Características Clave:

○​ Manipulación de la VI: El investigador interviene.

○​ Ausencia de aleatorización completa: Los grupos existentes no se forman aleatoriamente.

○​ Control parcial: Se utilizan estrategias de control para mitigar amenazas a la validez interna.

●​ Tipos Comunes de Diseños Cuasi-Experimentales:

○​ Diseños con Grupo de Control No Equivalente (O1​X O2​/O1​−− O2​): Es el diseño


cuasi-experimental más común. Dos grupos (uno experimental y uno de control) son medidos antes y
después del tratamiento, pero los grupos no han sido formados por asignación aleatoria. Es
fundamental que las medidas pre-tratamiento sean similares para descartar diferencias iniciales,
aunque esto no elimina completamente el riesgo de selección diferencial o interacciones con
selección. La tendencia en la regresión (que los grupos extremos tiendan a la media) es una
amenaza particular.

○​ Diseños de Serie Temporal Interrumpida (O1​O2​O3​X O4​O5​O6​): Se toman múltiples medidas de


la VD antes y después de la intervención en un mismo grupo o unidad (ej., comunidad, país). Permite
detectar tendencias previas a la intervención y evaluar si el cambio post-intervención es un quiebre en
esa tendencia.

■​ Amenazas: Historia (un evento externo coincidente con la intervención).

■​ Variante: Serie temporal interrumpida con grupo de control no equivalente.


○​ Diseños de Cohortes: Se comparan grupos de individuos que han pasado por una experiencia
similar en diferentes momentos, o que han estado expuestos a diferentes condiciones de forma
natural. (ej., generaciones, graduados de diferentes planes de estudio).

4. Amenazas a la Validez en Diseños Pre- y Cuasi-Experimentales

Debido a la falta de aleatorización, estos diseños son particularmente vulnerables a las siguientes amenazas, que
deben ser cuidadosamente consideradas y, si es posible, controladas:

●​ Historia: Eventos externos ocurridos durante el estudio que pueden afectar la VD.

●​ Maduración: Cambios internos en los participantes a lo largo del tiempo (crecimiento, fatiga, etc.).

●​ Instrumentación: Cambios en los instrumentos de medida o en la forma de aplicación.

●​ Regresión estadística (a la media): Si los participantes son seleccionados por puntuaciones extremas, es
probable que sus puntuaciones se muevan hacia la media en mediciones posteriores, independientemente del
tratamiento.

●​ Mortalidad experimental (pérdida de sujetos): Abandono diferencial de participantes en los grupos, que
puede introducir sesgos.

●​ Selección diferencial: Diferencias preexistentes entre los grupos que pueden explicar los resultados, en lugar
del tratamiento.

●​ Interacción con la selección: Cuando una amenaza (ej., maduración, historia) afecta a los grupos de manera
diferente debido a las diferencias iniciales en la selección.

5. Evaluación de la Efectividad de Intervenciones Psicológicas

●​ Estos diseños son fundamentales para evaluar la efectividad de tratamientos psicológicos, especialmente
cuando los diseños experimentales puros no son viables (ej., por razones éticas o prácticas).

●​ Es crucial realizar una valoración crítica del riesgo de sesgo en estos estudios, ya que sus conclusiones
pueden tener un impacto considerable. Existen escalas y herramientas para evaluar la calidad metodológica.

●​ Análisis por Intención de Tratar (ITT): Es una estrategia de análisis crucial en estudios de intervención para
mitigar el sesgo introducido por la mortalidad experimental (abandonos). Consiste en analizar a todos los
participantes en el grupo al que fueron asignados originalmente, independientemente de si completaron el
tratamiento o no. Esto preserva el beneficio de la aleatorización inicial y proporciona una estimación más
conservadora y realista de la efectidad del tratamiento en la práctica clínica.

○​ Si los abandonos no son aleatorios (sesgo en la pérdida de datos, NMAR - Not Missing At Random),
el análisis "según protocolo" (solo con los que terminaron) puede llevar a conclusiones erróneas.

TEMA 5

1. Diseños No Experimentales: Estrategia Asociativa

Los diseños no experimentales, dentro de la estrategia asociativa, tienen como objetivo principal examinar la
asociación entre dos o más variables, a diferencia de los diseños experimentales que buscan establecer relaciones
causales.

●​ Características Clave:

○​ No existe manipulación experimental de la VI.

○​ No hay asignación aleatoria de los participantes a las condiciones.

○​ Baja validez interna (dificultad para establecer causalidad).

○​ Puede tener alta validez externa (resultados más generalizables a situaciones reales).
●​ Requisitos para la Inferencia Causal (y por qué son difíciles de cumplir en diseños no experimentales):

○​ Asociación (covariación): La causa y el efecto deben estar relacionados.

○​ Dirección (precedencia temporal): La causa debe ocurrir antes que el efecto. En diseños no
experimentales, especialmente transversales, esto es difícil de establecer (problema de la causalidad
inversa).

○​ Eliminación de explicaciones alternativas (ausencia de espuriedad): Es el más difícil de cumplir


sin manipulación y aleatorización, ya que las variables extrañas no controladas pueden confundir la
relación observada.

●​ Tipos de Diseños No Experimentales (dentro de la estrategia asociativa):

○​ Diseños Comparativos:

■​ Transversales: Se registran la VI y la VD simultáneamente. Útiles para prevalencia,


diferencias individuales o culturales. La inferencia causal es muy limitada.

■​ Prospectivos (Longitudinales): Implican medidas repetidas a lo largo del tiempo,


permitiendo examinar la incidencia y una mejor inferencia causal que los transversales, ya
que la VI precede a la VD. Pueden ser costosos.

■​ Retrospectivos (Ex Post Facto): Se parte de un evento o resultado (VD) y se investigan


causas pasadas (VI). Son muy susceptibles al sesgo de recuerdo.

○​ Diseños Predictivos: Utilizan varias medidas de un solo grupo para predecir una VD a partir de una o
más VIs (predictores). La Regresión Lineal es la técnica estadística principal.

○​ Diseños Explicativos: Pretenden probar o refutar modelos causales, a menudo utilizando análisis
avanzados como Modelos de Ecuaciones Estructurales.

2. Análisis de Regresión Lineal (Simple y Múltiple)

La regresión lineal es una técnica de modelado estadístico que permite examinar la relación entre una variable
dependiente (VD) cuantitativa y una o más variables independientes (VIs) o predictoras. Se basa en la técnica de
mínimos cuadrados ordinarios (MCO), que busca la línea (o plano) que minimiza la suma de los errores al cuadrado
(residuales).

Regresión Lineal Simple:

●​ Objetivo: Predecir una VD cuantitativa a partir de una única VI cuantitativa.

●​ Ecuación: Y^=b0​+b1​X

○​ Y^: Valor predicho de la VD.

○​ b0​: Intercepto (valor de Y cuando X es 0).

○​ b1​: Pendiente (cambio en Y por cada unidad de cambio en X).

●​ Conceptos Clave:

○​ Error o residual (e): Diferencia entre el valor observado (Y) y el valor predicho (Y^).

○​ Coeficiente de Correlación de Pearson (r): Mide la fuerza y dirección de la relación lineal entre X e
Y.

○​ Coeficiente de Determinación (R2): Proporción de la varianza total de la VD que es explicada por la


VI. Varía de 0 a 1.

○​ Bondad de ajuste del modelo: Se evalúa con la F de Fisher (ANOVA), que indica si el modelo en su
conjunto es significativo.
○​ Significación de los coeficientes (t-test): Evalúa si cada predictor individualmente contribuye
significativamente al modelo.

●​ Supuestos del Modelo (MCO):

○​ Normalidad de los residuos: Los errores deben seguir una distribución normal.

○​ Homocedasticidad: La varianza de los errores debe ser constante en todos los niveles de la VI.

○​ Independencia de los errores: Los errores no deben estar correlacionados entre sí.

○​ Linealidad: La relación entre la VI y la VD debe ser lineal.

○​ No multicolinealidad perfecta (para regresión múltiple): Los predictores no deben estar


perfectamente correlacionados entre sí.

●​ Outliers y Observaciones Influyentes: Datos atípicos que pueden distorsionar el modelo. Se pueden
identificar con el análisis de residuos y medidas como la distancia de Cook, apalancamiento o DFFits.

Regresión Lineal Múltiple:

●​ Objetivo: Predecir una VD cuantitativa a partir de dos o más VIs (predictores) cuantitativas y/o categóricas.

●​ Ecuación: Y^=b0​+b1​X1​+b2​X2​+...+bk​Xk​

○​ Los coeficientes bi​son coeficientes de regresión parcial, indicando el efecto de cada Xi​sobre Y,
manteniendo constantes las otras VIs.

●​ Conceptos Clave:

○​ R2 ajustado: Una estimación más conservadora de la varianza explicada en la población, ya que el


R2 de la muestra suele ser una sobreestimación.

○​ Multicolinealidad: Alta correlación entre los predictores. Puede inflar los errores estándar de los
coeficientes de regresión, haciendo difícil determinar el impacto único de cada predictor. Se detecta
con el Factor de Inflación de la Varianza (FIV) y la tolerancia.

○​ Variables categóricas como predictores: Se usan mediante variables dummy (o ficticias),


transformando cada nivel de la categórica en una variable binaria (0/1), tomando un nivel como
referencia.

○​ Modelos de regresión jerárquicos o por pasos: Estrategias para añadir predictores al modelo de
forma secuencial.

●​ Sumas de Cuadrados (SC) en Regresión Múltiple:

○​ SC Tipo I (Secuenciales): Explican la varianza de forma jerárquica; el orden de entrada de los


predictores importa. La varianza explicada por un predictor depende de los que ya están en el modelo.

○​ SC Tipo III (Parciales): Explican la porción única o específica de varianza de cada predictor,
descartando la varianza común o compartida entre ellos. Son los más utilizados en software
estadístico por defecto, ya que el orden de entrada no afecta.

Falsas Asociaciones y Recomendaciones:

●​ Variables Extrañas: Relación confundida por variables no controladas. Recomendación: Controlar el


mayor número posible de variables extrañas (en el diseño o en el análisis).

●​ Efectos Comunes de X e Y como VIs: Introducir una variable que es un efecto común de X e Y en el análisis
puede generar asociaciones espurias. Recomendación: Definir a priori el rol sustantivo de cada variable.

●​ Replicación: Un criterio clave para aumentar la confianza en que una asociación reportada es real.
TEMA 6

1. Diseños Explicativos

Los diseños explicativos se enmarcan dentro de la estrategia no experimental, específicamente la asociativa, y van
más allá de la mera descripción o predicción para poner a prueba modelos teóricos complejos sobre las relaciones
entre variables.

●​ Objetivo Principal: Su meta es ofrecer una comprensión más profunda de un fenómeno psicológico al
examinar las relaciones postuladas en un modelo teórico, más que simplemente establecer una asociación o
una predicción.

●​ Características:

○​ No hay manipulación de la Variable Independiente (VI) ni asignación aleatoria.

○​ Se utilizan para probar modelos causales, aunque la inferencia causal es más débil que en los
diseños experimentales debido a la falta de aleatorización y control de variables extrañas.

○​ Suelen emplear una única muestra, que no necesariamente es seleccionada aleatoriamente de la


población.

●​ Distinción entre Asociación y Modelo Teórico:

○​ Una asociación es una relación observada (ej., "el apoyo social está negativamente asociado con la
sintomatología depresiva").

○​ Un modelo teórico va más allá, postulando los mecanismos y procesos por los cuales se produce
esa asociación (ej., "el apoyo social fomenta la autoestima, reduce la indefensión y desesperanza, lo
que a su vez disminuye los síntomas depresivos").

●​ Técnicas de Análisis Asociadas:

○​ Análisis de Vías (Path Analysis): Permite modelar las relaciones causales propuestas entre un
conjunto de variables observadas. Se utiliza para probar si un modelo teórico con relaciones directas e
indirectas (mediación) se ajusta a los datos.

■​ Relaciones Directas: Un efecto directo de una variable sobre otra.

■​ Relaciones Indirectas (Mediación): El efecto de una variable sobre otra se produce a través
de una o más variables intermediarias (mediadores). La mediación explica por qué o cómo
ocurre una relación.

○​ Modelos de Ecuaciones Estructurales (SEM): Son una extensión del análisis de vías que permiten
incluir variables latentes (constructos no observables), que son muy comunes en psicología (ej.,
inteligencia, autoestima).

■​ Ventajas de los SEM:

■​ Permiten distinguir entre constructos y sus indicadores observables.

■​ Reducen el error de medida, lo que conduce a estimaciones más precisas de los


parámetros y aumenta la potencia estadística.

■​ Pueden manejar múltiples variables dependientes, errores correlacionados, y son más


robustos que los análisis de regresión separados.

2. Análisis de Moderación

La moderación se refiere a la situación en la que la magnitud o dirección de la relación entre dos variables (X e Y)
cambia en función de los valores de una tercera variable (Z), el moderador. El moderador responde a la pregunta
de cuándo o para quién una relación es más fuerte o se invierte.
●​ Concepto de Moderador (Z): Una variable que afecta la fuerza y/o el signo (dirección) de la relación entre
una variable predictora (X) y una variable resultado (Y).

●​ Modelo Estadístico de Moderación Simple:

○​ Se representa con una ecuación de regresión que incluye el predictor (X), el moderador (Z) y el
término de interacción (X*Z).

○​ Ecuación general: Y=B0​+B1​X+B2​Z+B3​XZ+e

■​ Un coeficiente B3​(del término de interacción) significativo indica un efecto de moderación.

●​ Interpretación de la Interacción:

○​ Si el término de interacción es significativo, significa que el efecto de X sobre Y no es constante, sino


que depende de los valores de Z.

○​ Se suelen realizar análisis de efectos simples (o "simple slopes analysis") para entender la
naturaleza de la interacción, es decir, cómo cambia el efecto de X sobre Y en diferentes niveles del
moderador (ej., un nivel bajo, medio y alto de Z).

○​ La interpretación gráfica es fundamental para visualizar el efecto de moderación.

●​ Diseños y Análisis: Los efectos de moderación pueden explorarse tanto en diseños manipulativos
(experimentales, cuasi-experimentales) como asociativos (no experimentales). No son específicos de un
diseño o técnica de análisis particular, aunque la regresión lineal (ANOVA factorial) es la herramienta principal
para su análisis.

●​ Diferencia entre Moderación y Mediación:

○​ Moderación: ¿Cuándo o para quién se da la relación? Una variable (Z) afecta la fuerza de la relación
entre X e Y. Implica un término de interacción.

○​ Mediación: ¿Por qué o cómo se da la relación? Una variable (M) explica el mecanismo por el cual X
influye en Y. Implica una secuencia causal.

Contenidos más Importantes a Destacar:

●​ Diseños Explicativos: Ponen a prueba modelos teóricos complejos sobre las relaciones entre variables,
yendo más allá de la mera asociación. Son clave para comprender el "porqué" de las relaciones.

●​ Análisis de Vías y SEM: Son las técnicas estadísticas principales para los diseños explicativos, permitiendo
modelar relaciones directas, indirectas (mediación) y, en el caso de SEM, incluir variables latentes
(constructos), lo cual es fundamental en Psicología.

●​ Ventaja de SEM: Permite reducir el error de medida y obtener estimaciones más precisas al trabajar con
variables latentes.

●​ Moderación: La variable moderadora (Z) responde a la pregunta de cuándo o bajo qué condiciones el
efecto de X sobre Y cambia. Es un concepto crucial para entender la condicionalidad de las relaciones.

●​ Término de Interacción: La presencia de un término de interacción significativo entre el predictor y el


moderador en un modelo de regresión es la señal estadística de un efecto de moderación.

●​ Análisis de Efectos Simples: Esencial para interpretar la naturaleza del efecto de moderación, examinando
la relación X-Y en diferentes niveles del moderador.

●​ Distinción Moderación vs. Mediación: Comprender que la moderación es sobre la fuerza/dirección de una
relación (cuándo) y la mediación es sobre el mecanismo/proceso (por qué). Ambos son conceptos
complementarios para construir modelos explicativos robustos.
TEMA 7

1. Variables Dicotómicas y Asociación

Las variables dicotómicas (con solo dos categorías, ej., sí/no, hombre/mujer, fumador/no fumador) son frecuentes en
psicología. El interés a menudo radica en examinar la asociación entre dos o más de estas variables categóricas.

●​ Tablas de Contingencia (Tablas Cruzadas): Son la herramienta fundamental para explorar la asociación
entre dos variables categóricas. Muestran la frecuencia de casos en cada combinación de categorías.

●​ Medidas de Asociación para Variables Dicotómicas:

○​ Diferencia de Riesgos (DR): La diferencia en la proporción de eventos entre dos grupos. Es un valor
absoluto.

○​ Razón de Riesgos (RR) o Riesgo Relativo: La razón entre la proporción de eventos en un grupo y la
proporción en otro. Indica cuántas veces más probable es el evento en un grupo respecto al otro.

○​ Odds Ratio (OR): La razón de las odds (probabilidades de un evento divididas por las probabilidades
de que no ocurra) entre dos grupos.

■​ Interpretación de la OR:

■​ OR = 1: No hay asociación.

■​ OR > 1: Mayor probabilidad del evento en el grupo de exposición.

■​ OR < 1: Menor probabilidad del evento en el grupo de exposición.

■​ Ventajas de la OR:

■​ Es el único índice de tamaño del efecto que se puede calcular en diseños de casos
y controles, donde no se conoce la prevalencia real de la exposición en la población.

■​ Posee la propiedad de invarianza, lo que permite examinar asociaciones entre dos


variables dicotómicas incluso cuando se desconoce el tamaño total de los grupos.

■​ Limitaciones:

■​ Puede sobreestimar la Razón de Riesgos si el evento de interés es frecuente


(superior al 10-20%).

■​ Un resultado de 0 en alguna celda de la tabla 2x2 puede impedir el cálculo de la OR o


producir resultados extremos. La corrección de Haldane-Anscombe (añadir 0.5 a
todas las celdas) se usa para evitar esto y normalizar la distribución muestral de la
OR.

●​ Prueba de Chi-Cuadrado (χ2): Se utiliza para probar la hipótesis nula de independencia entre las variables
categóricas. Indica si la asociación observada es estadísticamente significativa. No mide la fuerza de la
asociación.

2. Regresión Logística Binaria

La regresión logística es una técnica de modelado estadístico que se utiliza cuando la variable dependiente (VD) es
dicotómica (binaria), es decir, tiene solo dos categorías (ej., éxito/fracaso, sí/no, presencia/ausencia de un trastorno).
Supera las limitaciones de la regresión lineal tradicional cuando la VD es binaria (que podría producir predicciones
imposibles fuera del rango 0-1 y errores estándar incorrectos).

●​ Concepto Central: La regresión logística modela la probabilidad de que ocurra un evento (es decir, que la
VD tome el valor 1) en función de una o más variables independientes (predictoras).
●​ Función Logit: A diferencia de la regresión lineal que modela directamente la VD, la regresión logística
modela una transformación de la probabilidad, llamada logit (logaritmo natural de las odds). El logit puede
tomar cualquier valor real, lo que permite que la probabilidad predicha se mantenga entre 0 y 1.

○​ logit(P)=ln(1−PP​)=B0​+B1​X1​+B2​X2​+⋯+Bk​Xk​

○​ Donde P es la probabilidad de que Y=1.

●​ Estimación de Probabilidades: Una vez estimados los coeficientes (Bi​), se puede calcular la probabilidad de
que Y=1 para cualquier combinación de valores de los predictores:

○​ P=1+e−logit(P)1​

●​ Interpretación de los Coeficientes (Bi​):

○​ Los coeficientes Bi​se interpretan en la escala logit.

○​ Para una interpretación más intuitiva, se transforman en Odds Ratios (OR=eBi​). Una OR para un
predictor Xi​indica por cuánto se multiplican las odds de que ocurra el evento por cada unidad de
aumento en Xi​, manteniendo constantes las otras variables.

●​ Evaluación del Modelo:

○​ Bondad de ajuste global: Se utilizan pruebas como el test de Hosmer-Lemeshow o la prueba de


Chi-cuadrado de la verosimilitud (Likelihood Ratio Test), que comparan el modelo actual con un
modelo nulo (sin predictores).

○​ Pseudo R2: Índices como el Pseudo R2 de Nagelkerke o Cox & Snell estiman la proporción de
varianza explicada por el modelo, análogos al R2 en regresión lineal, pero no tienen la misma
interpretación directa.

○​ Clasificación: Se evalúa la capacidad del modelo para clasificar correctamente los casos en las
categorías de la VD. Se utilizan tablas de clasificación (sensibilidad, especificidad, valor predictivo
positivo/negativo).

●​ Supuestos (menos estrictos que en regresión lineal):

○​ La VD debe ser dicotómica.

○​ Independencia de las observaciones.

○​ Ausencia de multicolinealidad severa entre los predictores.

○​ Linealidad de la relación entre los predictores y el logit de la VD.

●​ Aplicaciones: Muy común en Psicología para predecir la presencia/ausencia de trastornos, éxito/fracaso en


tratamientos, decisiones, etc.

Contenidos Más Importantes a Destacar:

●​ Variables Dicotómicas: Entender que son variables categóricas con dos niveles y que su análisis requiere
técnicas específicas.

●​ Odds Ratio (OR): Es la medida de asociación clave para variables dicotómicas, especialmente útil en diseños
de casos y controles y por su propiedad de invarianza. Es fundamental su correcta interpretación.

●​ Limitaciones de la Regresión Lineal para VD Dicotómicas: La necesidad de usar la regresión logística


debido a que la lineal puede producir predicciones imposibles y violar supuestos.

●​ Regresión Logística Binaria: La técnica de elección cuando la VD es dicotómica. Modela la probabilidad de


que ocurra un evento.
●​ Función Logit y Predicción de Probabilidades: Comprender que la regresión logística transforma la
probabilidad a una escala logit para linearizar la relación, y cómo se vuelve a transformar para obtener
probabilidades interpretables.

●​ Interpretación de Coeficientes y Odds Ratios: La interpretación de los coeficientes Bi​y su transformación a


eBi​para obtener las ORs, que son más fácilmente interpretables.

TEMA 8

1. Psicología Basada en la Evidencia (PBE)

La Psicología Basada en la Evidencia (PBE) es un enfoque para la práctica profesional de la psicología que busca
integrar la mejor evidencia de investigación disponible con la pericia clínica y las preferencias y características del
paciente. Representa un cambio del modelo tradicional, que se basaba principalmente en la formación teórica y la
experiencia personal del profesional.

●​ Puntos Clave de la PBE:

1.​ Mejor Evidencia Disponible: Las decisiones deben fundamentarse en la investigación científica
rigurosa y relevante.

2.​ Juicio y Habilidades Profesionales (Pericia Clínica): La experiencia del profesional es crucial para
aplicar la evidencia a casos individuales, adaptando las intervenciones.

3.​ Preferencias y Características del Paciente/Usuario: Consideración de los valores, circunstancias,


cultura y expectativas del individuo.

4.​ Recursos Disponibles: Adaptación a los recursos económicos, sociales y contextuales.

●​ Importancia: La PBE garantiza una práctica ética y efectiva, actualizada con los últimos avances científicos,
superando las limitaciones del conocimiento obsoleto o la experiencia anecdotica.

●​ Beneficios: Mejora la calidad de la atención, aumenta la transparencia, reduce el riesgo de intervenciones


ineficaces o dañinas y fomenta la rendición de cuentas.

●​ Jerarquía de la Evidencia: En la PBE, no toda la evidencia tiene el mismo peso. Existe una jerarquía, donde
las revisiones sistemáticas y los meta-análisis (especialmente de ensayos clínicos aleatorizados) se sitúan en
la cima como la "mejor evidencia disponible" debido a su rigurosidad y capacidad para sintetizar grandes
volúmenes de investigación.

2. Revisiones Sistemáticas y Meta-análisis

Las revisiones sistemáticas y los meta-análisis son métodos de investigación secundaria que sintetizan los hallazgos
de múltiples estudios primarios sobre una pregunta de investigación específica, con el objetivo de proporcionar una
visión completa e imparcial del estado actual del conocimiento.

●​ Revisión Sistemática (RS):

○​ Proceso Riguroso y Replicable: Es un método científico que utiliza estrategias explícitas y


sistemáticas para identificar, seleccionar, evaluar críticamente y sintetizar la evidencia de estudios
relevantes sobre una pregunta bien definida.

○​ Objetivo: Resumir la evidencia disponible, identificar inconsistencias en los resultados y señalar


lagunas en la investigación.

○​ Etapas:

■​ Formulación de la pregunta de investigación: Debe ser clara, específica y utilizando un


formato estructurado (ej., PICO: Paciente/Problema, Intervención, Comparación,
Outcome/Resultado).
■​ Elaboración del protocolo: Documento que detalla la metodología de la revisión (criterios de
inclusión/exclusión, estrategia de búsqueda, extracción de datos, etc.). Su registro público
aumenta la transparencia (ej., PROSPERO para revisiones en salud).

■​ Búsqueda exhaustiva de la literatura: En bases de datos relevantes (PsycINFO, PubMed,


Scopus, Web of Science), literatura gris, actas de congresos, contacto con expertos, etc.

■​ Selección de estudios: Cribado de títulos, resúmenes y textos completos según los criterios
preestablecidos.

■​ Extracción de datos: Recopilación de información relevante de los estudios seleccionados


(características de los participantes, intervención, resultados, diseño, etc.).

■​ Evaluación de la calidad metodológica (riesgo de sesgo): Valorar la fiabilidad de los


hallazgos de cada estudio individual (ej., mediante escalas como RoB 2.0 para ensayos
clínicos).

■​ Síntesis de los resultados: Resumir los hallazgos. Puede ser narrativa (describiendo los
resultados), cualitativa (meta-síntesis) o cuantitativa (meta-análisis).

●​ Meta-análisis:

○​ Análisis Estadístico de RS: Es un método estadístico que se integra dentro de una revisión
sistemática para combinar cuantitativamente los resultados de múltiples estudios individuales
sobre el mismo efecto.

○​ Ventajas:

■​ Mayor potencia estadística: Al combinar muestras, se obtiene una estimación más precisa
del tamaño del efecto global.

■​ Reduce el error aleatorio y aumenta la precisión.

■​ Permite investigar la heterogeneidad entre los estudios (por qué los resultados varían).

■​ Puede detectar sesgos de publicación.

○​ Conceptos Clave:

■​ Tamaño del Efecto (TE): Una medida estandarizada de la magnitud y dirección del efecto de
una intervención o la fuerza de una asociación. Permite comparar resultados entre estudios
que utilizan diferentes escalas de medida (ej., d de Cohen para diferencias de medias, Odds
Ratio o Razón de Riesgos para variables dicotómicas, r de Pearson para correlaciones).

■​ Heterogeneidad: Variabilidad entre los tamaños del efecto de los estudios incluidos en un
meta-análisis. Puede ser clínica (diferencias en participantes, intervenciones), metodológica
(diseño, calidad), o estadística. Se evalúa con el estadístico I2 (que indica el porcentaje de
variabilidad debido a la heterogeneidad real, no al azar).

■​ Modelos de Efectos Fijos vs. Efectos Aleatorios:

■​ Modelo de Efectos Fijos: Asume que todos los estudios comparten un único tamaño
del efecto verdadero. Apropiado si la heterogeneidad es baja.

■​ Modelo de Efectos Aleatorios: Asume que los tamaños del efecto de los estudios
provienen de una distribución de efectos verdaderos, permitiendo que el efecto
verdadero varíe entre estudios. Más conservador y apropiado cuando hay
heterogeneidad.

■​ Sesgo de Publicación (Funnel Plot): Tendencia a publicar solo resultados significativos, lo


que puede distorsionar la estimación del efecto real. Se evalúa visualmente con el funnel plot
y pruebas estadísticas (ej., de Egger).
●​ Alternativas a la Síntesis Cuantitativa (cuando no es posible un meta-análisis):

○​ Combinar los valores p exactos.

○​ Técnica de vote counting (contar estudios favorables/desfavorables).

○​ Síntesis narrativa.

●​ Organizaciones Clave:

○​ Cochrane: Fundada en 1993, se centra en revisiones sistemáticas en Ciencias de la Salud


(especialmente ensayos clínicos).

○​ Campbell Collaboration: Fundada en 2000, se enfoca en revisiones sistemáticas en Ciencias


Sociales.

Contenidos Más Importantes a Destacar:

●​ Psicología Basada en la Evidencia (PBE): Es el enfoque moderno de la práctica psicológica que integra la
mejor evidencia científica, la pericia clínica del profesional y las preferencias del paciente.

●​ Revisión Sistemática (RS): Es un método científico y riguroso para sintetizar de forma imparcial la
evidencia disponible sobre una pregunta de investigación específica. Su proceso es clave: desde la
formulación de la pregunta hasta la evaluación de la calidad de los estudios.

●​ Meta-análisis: Es una técnica estadística dentro de una revisión sistemática que permite combinar
cuantitativamente los resultados de múltiples estudios para obtener una estimación global y más precisa del
tamaño del efecto.

●​ Tamaño del Efecto: Concepto fundamental en meta-análisis; una medida estandarizada que permite
comparar y combinar resultados de diferentes estudios.

●​ Heterogeneidad: La variabilidad de los resultados entre estudios en un meta-análisis, y la importancia de


entender si es real (y por qué) o debida al azar.

●​ Sesgo de Publicación: La amenaza de que los estudios no significativos no se publiquen, lo que puede
sesgar las conclusiones de las revisiones sistemáticas y meta-análisis.

●​ Jerarquía de la Evidencia: Reconocer que las RS y los meta-análisis están en la cima de la jerarquía de la
evidencia debido a su capacidad para sintetizar conocimiento de manera sistemática y rigurosa.

También podría gustarte