Diseños Completo
Diseños Completo
○ Introducción: Se establece lo que se sabe, lo que se quiere investigar y los resultados esperados.
Incluye la formulación del problema y las hipótesis.
La investigación en psicología se asienta sobre tres pilares principales, cada uno asociado a un tipo de validez:
● Diseño: Se refiere al plan estructurado de la investigación, buscando resultados rigurosos, libres de sesgo y
generalizables. Incluye la selección de unidades experimentales (muestreo), aplicación de tratamientos (si
aplica), control de variables extrañas y minimización de la varianza de error. Se asocia con la validez interna y
externa.
○ Muestreo: Puede ser aleatorio (simple, estratificado, por conglomerados) o no aleatorio (por
conveniencia/incidental, bola de nieve, por cuotas). El muestreo aleatorio es poco frecuente en
psicología, aunque garantiza que todos los miembros de la población tengan la misma probabilidad de
ser seleccionados, resultando en una muestra representativa.
● Medida: Implica identificar y definir variables (observables o latentes, cuantitativas o categóricas) y decidir los
indicadores. Se prioriza el uso de instrumentos validados con buenos niveles de fiabilidad y validez. La validez
asociada es la Validez de Constructo.
● Análisis: Consiste en la selección y aplicación de pruebas estadísticas adecuadas para los datos, abarcando
análisis descriptivos (centrados en la muestra) e inferenciales (para generalizar a la población). Puede ser
estadística frecuentista o bayesiana. La validez asociada es la Validez de la Conclusión Estadística.
● Manipulativa: Para hipótesis causales, donde la manipulación experimental garantiza que los cambios en la
variable dependiente (VD) se deben a la variable independiente (VI). La VI puede manipularse por
presencia/ausencia de tratamiento, diferentes tratamientos, o variación de intensidad. La condición
experimental depende del investigador.
● Selección Aleatoria: Proceso de elegir participantes de una población. Raramente usada en investigación
experimental, afecta la representatividad de la muestra.
● Validez Interna: Asegura que los cambios observados en la VD se deben realmente a la VI.
○ Amenazas:
● Validez Externa: Determina si los resultados pueden generalizarse a otras personas, situaciones o
momentos.
○ Amenazas:
● Validez de Constructo: Evalúa si los indicadores utilizados representan adecuadamente los constructos
teóricos.
○ Amenazas:
● Validez de la Conclusión Estadística: Asegura que los resultados obtenidos son adecuados.
○ Amenazas:
■ Baja potencia estadística (especialmente con muestras pequeñas, puede llevar a un error tipo
II).
■ Poca fiabilidad de las medidas o tratamientos (aumenta la varianza de error, posible error tipo
II).
Una amenaza adicional a la validez es el reporte incompleto o selectivo de los resultados. Una posible solución,
aunque poco frecuente, es el uso de protocolos de investigación. Se destaca la importancia de la replicación para el
conocimiento acumulativo en la investigación empírica.
TEMA 2
La investigación experimental busca determinar la influencia causal de una Variable Independiente (VI) sobre una
Variable Dependiente (VD). Sus características clave son la manipulación de la VI, la aleatorización de los
participantes a las condiciones experimentales, y el control de variables extrañas.
● Terminología Básica:
○ Variable de Respuesta (VD): Variable donde se registran los efectos del tratamiento.
○ Unidad Experimental: Unidad mínima de la que se recogen datos (ej., persona, pareja).
○ Diseños Intersujetos (entre sujetos): Se asignan distintos grupos de sujetos a cada condición
experimental.
○ Diseños Intrasujetos (dentro de sujetos): Los mismos sujetos pasan por todas las condiciones
experimentales.
■ Equilibración:
○ VD Cuantitativa:
■ Factor con solo 2 niveles: t de Student (si hay normalidad y homogeneidad) o U de Mann
Whitney (si no hay normalidad).
○ VD Nominal: Regresión Logística. Para VD Nominal Dicotómica con 2 niveles en el factor, se pueden
usar contraste de proporciones o Chi-Cuadrado.
Los diseños factoriales permiten investigar la influencia de dos o más factores experimentales simultáneamente, así
como sus interacciones. Cada combinación de niveles de los factores define una condición experimental (célula).
● Tipos de Efectos:
○ Efectos Principales: Influencia de cada factor de forma independiente sobre la VD, promediando los
niveles de los otros factores.
○ Efectos de Interacción: Ocurre cuando el efecto de un factor sobre la VD varía según los niveles de
otro factor. Una interacción significativa indica que los efectos principales deben interpretarse con
cautela, ya que el efecto de un factor no es el mismo en todos los niveles del otro.
○ Efectos Simples: Análisis de la influencia de un factor en un nivel específico del otro factor, cuando la
interacción es significativa.
● Análisis Estadístico: Se utiliza ANOVA factorial para analizar estos diseños. La tabla ANOVA mostrará la
significancia de los efectos principales y de las interacciones. Si la interacción es significativa, se procede al
análisis de efectos simples.
Los DBA son diseños intersujetos que se utilizan para controlar una variable extraña conocida, de naturaleza
categórica, denominada factor de bloqueo. Su objetivo es reducir la varianza de error y aumentar la potencia
estadística.
● Procedimiento:
1. Se forman bloques de sujetos homogéneos con respecto a la variable de bloqueo (ej., bloques por
edad, por nivel socioeconómico).
2. Dentro de cada bloque, los sujetos son asignados aleatoriamente a las diferentes condiciones del
factor experimental.
● Ventajas: Permiten estudiar el efecto de la variable de bloqueo y su interacción con el factor experimental,
además de reducir el error.
● Análisis Estadístico: Se utiliza un ANOVA con el factor experimental y el factor de bloqueo como variables
independientes. Si la interacción entre el factor experimental y el factor de bloqueo es significativa, se analizan
los efectos simples. La variable de bloqueo puede actuar como una variable moderadora.
Los DVC, o ANCOVA (Análisis de Covarianza), son diseños intersujetos que se utilizan para controlar una variable
extraña conocida de naturaleza cuantitativa, denominada covariante. Su objetivo es reducir la varianza de error y
aumentar la potencia estadística, además de ajustar las medias de los grupos en la VD por el efecto de la covariante.
● Uso Común: Frecuentemente se utiliza una medida pre-test como covariante para controlar las diferencias
iniciales entre los grupos antes de la intervención.
● Supuestos Clave:
4. Homogeneidad de varianzas residuales: Las varianzas de los errores deben ser iguales en todos
los grupos.
● Análisis Estadístico: El ANCOVA permite examinar la asociación entre un factor experimental y la VD,
eliminando el efecto de la covariante. Es una herramienta poderosa para estimar el efecto de una intervención
de manera más precisa.
TEMA 3
Los diseños intrasujetos, también conocidos como diseños de medidas repetidas puras, son aquellos en los que cada
unidad experimental (sujeto) es expuesta a todos los niveles de uno o más factores intrasujetos. Esto significa
que los mismos sujetos actúan como su propio control, lo que aumenta la eficiencia del diseño y reduce la varianza de
error.
● Factor Intrasujetos: Es un factor cuyos niveles son administrados a las mismas unidades experimentales.
● Ventajas:
○ Mayor potencia estadística: Al controlar las diferencias individuales entre sujetos, se reduce la
varianza de error, lo que hace más fácil detectar los efectos del tratamiento.
○ Mayor eficiencia: Se necesitan menos sujetos para lograr la misma potencia estadística que en un
diseño intersujetos equivalente.
○ Ideal para estudiar cambios a lo largo del tiempo: Permiten analizar la evolución de una variable
en los mismos individuos (ej., pre-post tratamiento, estudios longitudinales).
○ Efectos de orden/secuencia: El orden en que se presentan los niveles del factor puede influir en la
respuesta de los sujetos.
■ Efecto de Período: Cambios sistémicos que ocurren a lo largo del tiempo durante el
experimento (ej., maduración, eventos externos).
■ Aleatorización del orden: Asignar aleatoriamente el orden de los tratamientos para cada
sujeto.
■ Contrabalanceo: Presentar los niveles del factor en diferentes órdenes para distintos
subgrupos de sujetos.
■ Esfericidad: Es el supuesto clave del ANOVA de medidas repetidas, que implica que las
varianzas de las diferencias entre todos los pares posibles de niveles del factor intrasujetos
son iguales.
● Análisis Post Hoc: Si el factor intrasujetos tiene más de dos niveles y el ANOVA es significativo, se realizan
comparaciones post hoc para identificar qué niveles difieren significativamente (ej., Bonferroni, Holm).
Los diseños mixtos combinan factores intersujetos y factores intrasujetos. Esto permite estudiar la interacción
entre ambos tipos de factores.
● Estructura: Un factor intersujetos (distintos grupos de sujetos para cada nivel) y al menos un factor
intrasujetos (los mismos sujetos pasan por todos los niveles).
● Análisis Estadístico: Se utiliza un ANOVA de Medidas Repetidas con factores intersujetos e intrasujetos.
● Concepto Central: Los DMR se basan en tomar múltiples medidas de la misma variable dependiente en
los mismos sujetos, ya sea a lo largo del tiempo o bajo diferentes condiciones experimentales.
● Supuesto crítico para ANOVA de Medidas Repetidas: La esfericidad, evaluada por la Prueba de Mauchly,
y la necesidad de aplicar correcciones a los grados de libertad (Greenhouse-Geisser, Huynh-Feldt) si no se
cumple.
● Diseños Mixtos: La capacidad de investigar simultáneamente los efectos de factores entre sujetos y dentro
de sujetos, y especialmente la interpretación de la interacción entre ellos, que revela cómo los cambios
intrasujetos difieren entre los grupos.
● Aplicaciones: Ideales para estudios longitudinales, evaluaciones pre-post tratamiento, y experimentos donde
se comparan múltiples condiciones en los mismos individuos.
TEMA 4
Dentro de las estrategias manipulativas (que buscan establecer relaciones causales), se distinguen:
● Diseños Pre-Experimentales: Son los que ofrecen el menor control y, por tanto, la menor validez interna.
Generalmente carecen de grupo de control o de una medida pre-tratamiento adecuada.
● Diseños de Caso Único: Se enfocan en un solo individuo o grupo pequeño, con medidas repetidas a lo largo
del tiempo.
2. Diseños Pre-Experimentales
Estos diseños son los de menor control y su capacidad para establecer relaciones causales es muy limitada. A
menudo se utilizan para exploraciones iniciales o en contextos donde no es posible ningún otro tipo de diseño.
● Diseño de un solo grupo con solo medida post-tratamiento (X O1): Un grupo recibe el tratamiento y se
mide la VD. No hay grupo de control ni medida pre-tratamiento. La validez interna es mínima, ya que cualquier
cambio observado podría deberse a numerosos factores (historia, maduración, etc.).
● Diseño de un solo grupo con pre- y post-tratamiento (O1X O2): Un grupo es medido antes del
tratamiento, recibe el tratamiento y se mide de nuevo. Mejora ligeramente el anterior al tener una línea base,
pero aún es vulnerable a amenazas como la historia, maduración, instrumentación, regresión a la media, y
mortalidad experimental. Es un tipo de diseño de medidas repetidas.
● Diseño de grupo de control no equivalente con solo post-tratamiento (X O1/−− O1): Se compara un
grupo que recibe el tratamiento con otro que no, pero los grupos no son equivalentes al inicio. Las diferencias
post-tratamiento pueden deberse a diferencias iniciales entre los grupos (selección diferencial).
3. Diseños Cuasi-Experimentales
Los diseños cuasi-experimentales son una alternativa valiosa cuando la aleatorización no es factible o ética. Aunque
ofrecen un mayor control que los pre-experimentales, requieren una consideración cuidadosa de las posibles
amenazas a la validez interna.
● Características Clave:
○ Control parcial: Se utilizan estrategias de control para mitigar amenazas a la validez interna.
Debido a la falta de aleatorización, estos diseños son particularmente vulnerables a las siguientes amenazas, que
deben ser cuidadosamente consideradas y, si es posible, controladas:
● Historia: Eventos externos ocurridos durante el estudio que pueden afectar la VD.
● Maduración: Cambios internos en los participantes a lo largo del tiempo (crecimiento, fatiga, etc.).
● Regresión estadística (a la media): Si los participantes son seleccionados por puntuaciones extremas, es
probable que sus puntuaciones se muevan hacia la media en mediciones posteriores, independientemente del
tratamiento.
● Mortalidad experimental (pérdida de sujetos): Abandono diferencial de participantes en los grupos, que
puede introducir sesgos.
● Selección diferencial: Diferencias preexistentes entre los grupos que pueden explicar los resultados, en lugar
del tratamiento.
● Interacción con la selección: Cuando una amenaza (ej., maduración, historia) afecta a los grupos de manera
diferente debido a las diferencias iniciales en la selección.
● Estos diseños son fundamentales para evaluar la efectividad de tratamientos psicológicos, especialmente
cuando los diseños experimentales puros no son viables (ej., por razones éticas o prácticas).
● Es crucial realizar una valoración crítica del riesgo de sesgo en estos estudios, ya que sus conclusiones
pueden tener un impacto considerable. Existen escalas y herramientas para evaluar la calidad metodológica.
● Análisis por Intención de Tratar (ITT): Es una estrategia de análisis crucial en estudios de intervención para
mitigar el sesgo introducido por la mortalidad experimental (abandonos). Consiste en analizar a todos los
participantes en el grupo al que fueron asignados originalmente, independientemente de si completaron el
tratamiento o no. Esto preserva el beneficio de la aleatorización inicial y proporciona una estimación más
conservadora y realista de la efectidad del tratamiento en la práctica clínica.
○ Si los abandonos no son aleatorios (sesgo en la pérdida de datos, NMAR - Not Missing At Random),
el análisis "según protocolo" (solo con los que terminaron) puede llevar a conclusiones erróneas.
TEMA 5
Los diseños no experimentales, dentro de la estrategia asociativa, tienen como objetivo principal examinar la
asociación entre dos o más variables, a diferencia de los diseños experimentales que buscan establecer relaciones
causales.
● Características Clave:
○ Puede tener alta validez externa (resultados más generalizables a situaciones reales).
● Requisitos para la Inferencia Causal (y por qué son difíciles de cumplir en diseños no experimentales):
○ Dirección (precedencia temporal): La causa debe ocurrir antes que el efecto. En diseños no
experimentales, especialmente transversales, esto es difícil de establecer (problema de la causalidad
inversa).
○ Diseños Comparativos:
○ Diseños Predictivos: Utilizan varias medidas de un solo grupo para predecir una VD a partir de una o
más VIs (predictores). La Regresión Lineal es la técnica estadística principal.
○ Diseños Explicativos: Pretenden probar o refutar modelos causales, a menudo utilizando análisis
avanzados como Modelos de Ecuaciones Estructurales.
La regresión lineal es una técnica de modelado estadístico que permite examinar la relación entre una variable
dependiente (VD) cuantitativa y una o más variables independientes (VIs) o predictoras. Se basa en la técnica de
mínimos cuadrados ordinarios (MCO), que busca la línea (o plano) que minimiza la suma de los errores al cuadrado
(residuales).
● Ecuación: Y^=b0+b1X
● Conceptos Clave:
○ Error o residual (e): Diferencia entre el valor observado (Y) y el valor predicho (Y^).
○ Coeficiente de Correlación de Pearson (r): Mide la fuerza y dirección de la relación lineal entre X e
Y.
○ Bondad de ajuste del modelo: Se evalúa con la F de Fisher (ANOVA), que indica si el modelo en su
conjunto es significativo.
○ Significación de los coeficientes (t-test): Evalúa si cada predictor individualmente contribuye
significativamente al modelo.
○ Normalidad de los residuos: Los errores deben seguir una distribución normal.
○ Homocedasticidad: La varianza de los errores debe ser constante en todos los niveles de la VI.
○ Independencia de los errores: Los errores no deben estar correlacionados entre sí.
● Outliers y Observaciones Influyentes: Datos atípicos que pueden distorsionar el modelo. Se pueden
identificar con el análisis de residuos y medidas como la distancia de Cook, apalancamiento o DFFits.
● Objetivo: Predecir una VD cuantitativa a partir de dos o más VIs (predictores) cuantitativas y/o categóricas.
● Ecuación: Y^=b0+b1X1+b2X2+...+bkXk
○ Los coeficientes bison coeficientes de regresión parcial, indicando el efecto de cada Xisobre Y,
manteniendo constantes las otras VIs.
● Conceptos Clave:
○ Multicolinealidad: Alta correlación entre los predictores. Puede inflar los errores estándar de los
coeficientes de regresión, haciendo difícil determinar el impacto único de cada predictor. Se detecta
con el Factor de Inflación de la Varianza (FIV) y la tolerancia.
○ Modelos de regresión jerárquicos o por pasos: Estrategias para añadir predictores al modelo de
forma secuencial.
○ SC Tipo III (Parciales): Explican la porción única o específica de varianza de cada predictor,
descartando la varianza común o compartida entre ellos. Son los más utilizados en software
estadístico por defecto, ya que el orden de entrada no afecta.
● Efectos Comunes de X e Y como VIs: Introducir una variable que es un efecto común de X e Y en el análisis
puede generar asociaciones espurias. Recomendación: Definir a priori el rol sustantivo de cada variable.
● Replicación: Un criterio clave para aumentar la confianza en que una asociación reportada es real.
TEMA 6
1. Diseños Explicativos
Los diseños explicativos se enmarcan dentro de la estrategia no experimental, específicamente la asociativa, y van
más allá de la mera descripción o predicción para poner a prueba modelos teóricos complejos sobre las relaciones
entre variables.
● Objetivo Principal: Su meta es ofrecer una comprensión más profunda de un fenómeno psicológico al
examinar las relaciones postuladas en un modelo teórico, más que simplemente establecer una asociación o
una predicción.
● Características:
○ Se utilizan para probar modelos causales, aunque la inferencia causal es más débil que en los
diseños experimentales debido a la falta de aleatorización y control de variables extrañas.
○ Una asociación es una relación observada (ej., "el apoyo social está negativamente asociado con la
sintomatología depresiva").
○ Un modelo teórico va más allá, postulando los mecanismos y procesos por los cuales se produce
esa asociación (ej., "el apoyo social fomenta la autoestima, reduce la indefensión y desesperanza, lo
que a su vez disminuye los síntomas depresivos").
○ Análisis de Vías (Path Analysis): Permite modelar las relaciones causales propuestas entre un
conjunto de variables observadas. Se utiliza para probar si un modelo teórico con relaciones directas e
indirectas (mediación) se ajusta a los datos.
■ Relaciones Indirectas (Mediación): El efecto de una variable sobre otra se produce a través
de una o más variables intermediarias (mediadores). La mediación explica por qué o cómo
ocurre una relación.
○ Modelos de Ecuaciones Estructurales (SEM): Son una extensión del análisis de vías que permiten
incluir variables latentes (constructos no observables), que son muy comunes en psicología (ej.,
inteligencia, autoestima).
2. Análisis de Moderación
La moderación se refiere a la situación en la que la magnitud o dirección de la relación entre dos variables (X e Y)
cambia en función de los valores de una tercera variable (Z), el moderador. El moderador responde a la pregunta
de cuándo o para quién una relación es más fuerte o se invierte.
● Concepto de Moderador (Z): Una variable que afecta la fuerza y/o el signo (dirección) de la relación entre
una variable predictora (X) y una variable resultado (Y).
○ Se representa con una ecuación de regresión que incluye el predictor (X), el moderador (Z) y el
término de interacción (X*Z).
● Interpretación de la Interacción:
○ Se suelen realizar análisis de efectos simples (o "simple slopes analysis") para entender la
naturaleza de la interacción, es decir, cómo cambia el efecto de X sobre Y en diferentes niveles del
moderador (ej., un nivel bajo, medio y alto de Z).
● Diseños y Análisis: Los efectos de moderación pueden explorarse tanto en diseños manipulativos
(experimentales, cuasi-experimentales) como asociativos (no experimentales). No son específicos de un
diseño o técnica de análisis particular, aunque la regresión lineal (ANOVA factorial) es la herramienta principal
para su análisis.
○ Moderación: ¿Cuándo o para quién se da la relación? Una variable (Z) afecta la fuerza de la relación
entre X e Y. Implica un término de interacción.
○ Mediación: ¿Por qué o cómo se da la relación? Una variable (M) explica el mecanismo por el cual X
influye en Y. Implica una secuencia causal.
● Diseños Explicativos: Ponen a prueba modelos teóricos complejos sobre las relaciones entre variables,
yendo más allá de la mera asociación. Son clave para comprender el "porqué" de las relaciones.
● Análisis de Vías y SEM: Son las técnicas estadísticas principales para los diseños explicativos, permitiendo
modelar relaciones directas, indirectas (mediación) y, en el caso de SEM, incluir variables latentes
(constructos), lo cual es fundamental en Psicología.
● Ventaja de SEM: Permite reducir el error de medida y obtener estimaciones más precisas al trabajar con
variables latentes.
● Moderación: La variable moderadora (Z) responde a la pregunta de cuándo o bajo qué condiciones el
efecto de X sobre Y cambia. Es un concepto crucial para entender la condicionalidad de las relaciones.
● Análisis de Efectos Simples: Esencial para interpretar la naturaleza del efecto de moderación, examinando
la relación X-Y en diferentes niveles del moderador.
● Distinción Moderación vs. Mediación: Comprender que la moderación es sobre la fuerza/dirección de una
relación (cuándo) y la mediación es sobre el mecanismo/proceso (por qué). Ambos son conceptos
complementarios para construir modelos explicativos robustos.
TEMA 7
Las variables dicotómicas (con solo dos categorías, ej., sí/no, hombre/mujer, fumador/no fumador) son frecuentes en
psicología. El interés a menudo radica en examinar la asociación entre dos o más de estas variables categóricas.
● Tablas de Contingencia (Tablas Cruzadas): Son la herramienta fundamental para explorar la asociación
entre dos variables categóricas. Muestran la frecuencia de casos en cada combinación de categorías.
○ Diferencia de Riesgos (DR): La diferencia en la proporción de eventos entre dos grupos. Es un valor
absoluto.
○ Razón de Riesgos (RR) o Riesgo Relativo: La razón entre la proporción de eventos en un grupo y la
proporción en otro. Indica cuántas veces más probable es el evento en un grupo respecto al otro.
○ Odds Ratio (OR): La razón de las odds (probabilidades de un evento divididas por las probabilidades
de que no ocurra) entre dos grupos.
■ Interpretación de la OR:
■ OR = 1: No hay asociación.
■ Ventajas de la OR:
■ Es el único índice de tamaño del efecto que se puede calcular en diseños de casos
y controles, donde no se conoce la prevalencia real de la exposición en la población.
■ Limitaciones:
● Prueba de Chi-Cuadrado (χ2): Se utiliza para probar la hipótesis nula de independencia entre las variables
categóricas. Indica si la asociación observada es estadísticamente significativa. No mide la fuerza de la
asociación.
La regresión logística es una técnica de modelado estadístico que se utiliza cuando la variable dependiente (VD) es
dicotómica (binaria), es decir, tiene solo dos categorías (ej., éxito/fracaso, sí/no, presencia/ausencia de un trastorno).
Supera las limitaciones de la regresión lineal tradicional cuando la VD es binaria (que podría producir predicciones
imposibles fuera del rango 0-1 y errores estándar incorrectos).
● Concepto Central: La regresión logística modela la probabilidad de que ocurra un evento (es decir, que la
VD tome el valor 1) en función de una o más variables independientes (predictoras).
● Función Logit: A diferencia de la regresión lineal que modela directamente la VD, la regresión logística
modela una transformación de la probabilidad, llamada logit (logaritmo natural de las odds). El logit puede
tomar cualquier valor real, lo que permite que la probabilidad predicha se mantenga entre 0 y 1.
○ logit(P)=ln(1−PP)=B0+B1X1+B2X2+⋯+BkXk
● Estimación de Probabilidades: Una vez estimados los coeficientes (Bi), se puede calcular la probabilidad de
que Y=1 para cualquier combinación de valores de los predictores:
○ P=1+e−logit(P)1
○ Para una interpretación más intuitiva, se transforman en Odds Ratios (OR=eBi). Una OR para un
predictor Xiindica por cuánto se multiplican las odds de que ocurra el evento por cada unidad de
aumento en Xi, manteniendo constantes las otras variables.
○ Pseudo R2: Índices como el Pseudo R2 de Nagelkerke o Cox & Snell estiman la proporción de
varianza explicada por el modelo, análogos al R2 en regresión lineal, pero no tienen la misma
interpretación directa.
○ Clasificación: Se evalúa la capacidad del modelo para clasificar correctamente los casos en las
categorías de la VD. Se utilizan tablas de clasificación (sensibilidad, especificidad, valor predictivo
positivo/negativo).
● Variables Dicotómicas: Entender que son variables categóricas con dos niveles y que su análisis requiere
técnicas específicas.
● Odds Ratio (OR): Es la medida de asociación clave para variables dicotómicas, especialmente útil en diseños
de casos y controles y por su propiedad de invarianza. Es fundamental su correcta interpretación.
TEMA 8
La Psicología Basada en la Evidencia (PBE) es un enfoque para la práctica profesional de la psicología que busca
integrar la mejor evidencia de investigación disponible con la pericia clínica y las preferencias y características del
paciente. Representa un cambio del modelo tradicional, que se basaba principalmente en la formación teórica y la
experiencia personal del profesional.
1. Mejor Evidencia Disponible: Las decisiones deben fundamentarse en la investigación científica
rigurosa y relevante.
2. Juicio y Habilidades Profesionales (Pericia Clínica): La experiencia del profesional es crucial para
aplicar la evidencia a casos individuales, adaptando las intervenciones.
● Importancia: La PBE garantiza una práctica ética y efectiva, actualizada con los últimos avances científicos,
superando las limitaciones del conocimiento obsoleto o la experiencia anecdotica.
● Jerarquía de la Evidencia: En la PBE, no toda la evidencia tiene el mismo peso. Existe una jerarquía, donde
las revisiones sistemáticas y los meta-análisis (especialmente de ensayos clínicos aleatorizados) se sitúan en
la cima como la "mejor evidencia disponible" debido a su rigurosidad y capacidad para sintetizar grandes
volúmenes de investigación.
Las revisiones sistemáticas y los meta-análisis son métodos de investigación secundaria que sintetizan los hallazgos
de múltiples estudios primarios sobre una pregunta de investigación específica, con el objetivo de proporcionar una
visión completa e imparcial del estado actual del conocimiento.
○ Etapas:
■ Selección de estudios: Cribado de títulos, resúmenes y textos completos según los criterios
preestablecidos.
■ Síntesis de los resultados: Resumir los hallazgos. Puede ser narrativa (describiendo los
resultados), cualitativa (meta-síntesis) o cuantitativa (meta-análisis).
● Meta-análisis:
○ Análisis Estadístico de RS: Es un método estadístico que se integra dentro de una revisión
sistemática para combinar cuantitativamente los resultados de múltiples estudios individuales
sobre el mismo efecto.
○ Ventajas:
■ Mayor potencia estadística: Al combinar muestras, se obtiene una estimación más precisa
del tamaño del efecto global.
■ Permite investigar la heterogeneidad entre los estudios (por qué los resultados varían).
○ Conceptos Clave:
■ Tamaño del Efecto (TE): Una medida estandarizada de la magnitud y dirección del efecto de
una intervención o la fuerza de una asociación. Permite comparar resultados entre estudios
que utilizan diferentes escalas de medida (ej., d de Cohen para diferencias de medias, Odds
Ratio o Razón de Riesgos para variables dicotómicas, r de Pearson para correlaciones).
■ Heterogeneidad: Variabilidad entre los tamaños del efecto de los estudios incluidos en un
meta-análisis. Puede ser clínica (diferencias en participantes, intervenciones), metodológica
(diseño, calidad), o estadística. Se evalúa con el estadístico I2 (que indica el porcentaje de
variabilidad debido a la heterogeneidad real, no al azar).
■ Modelo de Efectos Fijos: Asume que todos los estudios comparten un único tamaño
del efecto verdadero. Apropiado si la heterogeneidad es baja.
■ Modelo de Efectos Aleatorios: Asume que los tamaños del efecto de los estudios
provienen de una distribución de efectos verdaderos, permitiendo que el efecto
verdadero varíe entre estudios. Más conservador y apropiado cuando hay
heterogeneidad.
○ Síntesis narrativa.
● Organizaciones Clave:
● Psicología Basada en la Evidencia (PBE): Es el enfoque moderno de la práctica psicológica que integra la
mejor evidencia científica, la pericia clínica del profesional y las preferencias del paciente.
● Revisión Sistemática (RS): Es un método científico y riguroso para sintetizar de forma imparcial la
evidencia disponible sobre una pregunta de investigación específica. Su proceso es clave: desde la
formulación de la pregunta hasta la evaluación de la calidad de los estudios.
● Meta-análisis: Es una técnica estadística dentro de una revisión sistemática que permite combinar
cuantitativamente los resultados de múltiples estudios para obtener una estimación global y más precisa del
tamaño del efecto.
● Tamaño del Efecto: Concepto fundamental en meta-análisis; una medida estandarizada que permite
comparar y combinar resultados de diferentes estudios.
● Sesgo de Publicación: La amenaza de que los estudios no significativos no se publiquen, lo que puede
sesgar las conclusiones de las revisiones sistemáticas y meta-análisis.
● Jerarquía de la Evidencia: Reconocer que las RS y los meta-análisis están en la cima de la jerarquía de la
evidencia debido a su capacidad para sintetizar conocimiento de manera sistemática y rigurosa.