Introducción a la Investigación Científica
Psicología 2do. 1ra.
Prof. Antonio Samaniego Pinho
Unidad II: “Un modelo científico de investigación: el método experimental”
La lógica del método experimental
Varianza Total Observada
La Varianza Total Observada mide la variabilidad de las puntuaciones de la variable
dependiente alrededor de la media global. Se calcula utilizando todas las puntuaciones de la
variable dependiente de ambos grupos que se están comparando en el experimento.
En el contexto de un análisis experimental, la varianza total observada es la suma de
todas las fuentes de variabilidad en los datos, e incluye la varianza sistemática (1ria. y 2ria) y
la varianza de error.
Varianza Varianza Varianza Varianza
= Sistemática 1ria. + de error + Sistemática 2ria.
Total
(entre grupos) (dentro de grupos) (por variables extrañas)
a) Varianza Sistemática Primaria (varianza experimental, “Entre” grupos, o debida a la
variable independiente):
• Representa la parte de la varianza total observada que se debe a las diferencias entre los
grupos.
• Es la parte de la varianza total que es causada por la manipulación deliberada de las
variables independientes.
• Es la variabilidad atribuible a las diferencias entre los grupos (efecto de las
manipulaciones).
• Es la varianza que los investigadores están interesados en maximizar porque representa
el efecto real de los tratamientos o condiciones experimentales.
b) Varianza de Error (o varianza “Dentro” de los grupos):
• Representa la parte de la varianza total que es causada por factores no controlados o
aleatorios.
• Es la variabilidad en la variable dependiente que se debe a factores aleatorios e
impredecibles (no sistemáticos). Es el "ruido" en los datos que no se puede controlar y
que surge de diferencias individuales no relacionadas con la variable independiente.
Ejemplo: Diferencias en los resultados debido a factores como la motivación, el
cansancio o la atención de los participantes.
• Esta varianza no es atribuible a la manipulación de las variables independientes y puede
incluir errores de medición, diferencias individuales entre los participantes, y otras
fuentes de ruido en el experimento.
• La varianza dentro de los grupos es un solo valor que representa la variabilidad
promedio de las puntuaciones dentro de todos los grupos en el estudio. Primero, se
calcula la varianza dentro de cada grupo, que mide la variabilidad de las puntuaciones
dentro de ese grupo en particular. Luego, se promedia esas varianzas ponderadas por el
número de participantes en cada grupo para obtener una única medida de la varianza de
error que representa la variabilidad combinada dentro de todos los grupos. En otras
palabras, aunque se calcula la varianza para cada grupo por separado, al final, se obtiene
un único valor que resume la variabilidad interna de todos los grupos combinados.
1
Introducción a la Investigación Científica
Psicología 2do. 1ra.
Prof. Antonio Samaniego Pinho
• Representa la variabilidad dentro de cada grupo y se debe a las diferencias individuales
entre los participantes dentro del mismo grupo. Esto ayuda a entender cuánta
variabilidad hay en los niveles de una variable dentro de cada grupo.
• Es la varianza que los investigadores buscan minimizar para obtener resultados más
claros y significativos.
c) Varianza Sistemática Secundaria (varianzas por variables extrañas):
• Es la variabilidad en la variable dependiente que se debe a la influencia de variables
extrañas no controladas. Estas son variables que pueden afectar los resultados de
manera sistemática (previsible) pero no están relacionadas con la variable
independiente manipulada por el investigador. Ejemplo: Diferencias en los resultados
de un test entre grupos debido a la temperatura del ambiente o el ruido en la sala, en
lugar del tipo de entrenamiento recibido.
Varianza de Error Varianza Sistemática Secundaria
Nivel de Cansancio Ruido Ambiental
Atención Fluctuante Iluminación
Motivación Temperatura del Ambiente
Errores de Medición Hora del Día
Salud Temporal Diferentes Instructores
Estado de Ánimo Método de Evaluación
Interrupciones Contexto Social
Familiaridad con la Tarea Preparación Previa
Interpretación de Instrucciones Tiempo Asignado
Sesgo de Respuesta Características del Experimentador
Aleatoria (no sistemática) Sistemática
Impredecible Previsible
No Controlable, se debe MINIMIZAR CONTROLABLE
Afecta de manera diferente a cada persona Afecta por igual a todos los del grupo
dentro de los mismos grupos
Interpretación:
o Si la Varianza ENTRE grupos (varianza Experimental) es MAYOR que la Varianza
DENTRO de los grupos (varianza de Error): Esto sugiere que las diferencias en los
niveles de una variable se deben principalmente a las diferencias entre los grupos (por
ejemplo: Entre terapias). Si la varianza entre grupos es mucho mayor que la varianza
dentro de los grupos, sugiere que la manipulación tiene un efecto considerable y la
diferencia observada entre los grupos no es solo producto del azar, es decir, las
diferencias observadas no son simplemente el resultado de variabilidad individual. Esto
es lo que se espera si la manipulación de la variable independiente tiene un impacto real
sobre la variable dependiente.
o Si la Varianza DENTRO de los grupos (varianza de Error) es MAYOR que la
Varianza ENTRE grupos (varianza Experimental): Si la variabilidad dentro de los
grupos es mayor que la variabilidad entre los grupos, esto indica que las diferencias en
2
Introducción a la Investigación Científica
Psicología 2do. 1ra.
Prof. Antonio Samaniego Pinho
los niveles de la variable son más grandes debido a las diferencias individuales dentro de
los grupos que a las diferencias entre las manipulaciones que reciben los grupos. En este
caso, el efecto de la manipulación de la variable independiente no es claro, ya que no se
puede atribuir la variabilidad observada a la manipulación (las diferencias entre los
grupos).
o Comparación de Medias: Para determinar cuál manipulación es mejor, se debe
comparar las medias de los grupos. Por ejemplo:
- Si la media de un grupo (Grupo A) es menor que la del otro grupo (Grupo B), y si
el objetivo es REDUCIR una variable (donde puntuaciones más bajas indican
menor nivel), entonces la manipulación que recibió el Grupo A sería considerada
más efectiva que la del Grupo B.
- Si la media de un grupo (Grupo A) es menor que la del otro grupo (Grupo B), y si
el objetivo es AUMENTAR una variable (donde puntuaciones más altas indican
mayor nivel), entonces la manipulación que recibió el Grupo B sería considerada
más efectiva que la del Grupo A.
Ejemplo: “Efecto de una terapia en la reducción de la ansiedad”
Supongamos que un investigador está estudiando el efecto de una nueva terapia en la
reducción de los niveles de ansiedad en los pacientes. Recluta a 30 participantes con ansiedad
generalizada y los divide en dos grupos: uno que recibe la nueva terapia y otro que recibe una
terapia estándar.
Después de un mes de tratamiento, se evalúan los niveles de ansiedad usando un
cuestionario estandarizado. Los resultados ficticios de los niveles de ansiedad (puntuaciones
más bajas indican menos ansiedad) son:
• Grupo de nueva terapia: 25, 20, 22, 24, 21, 19, 23, 20, 21, 22
• Grupo de terapia estándar: 28, 27, 26, 29, 30, 28, 27, 29, 28, 30
Se aplica la prueba de ANOVA para comparar los niveles de ansiedad entre los dos
grupos. En el análisis ANOVA, se obtienen los siguientes valores:
1. Varianza entre los grupos (Varianza Experimental): Mide la variabilidad en las
medias de los grupos respecto a la media global. Indica el efecto de la terapia.
2. Varianza dentro de los grupos (Varianza de Error): Mide la variabilidad de las
puntuaciones dentro de cada grupo. Refleja las diferencias individuales no explicadas
por el tratamiento.
3. Valor del Contraste F: Es el cociente entre la varianza entre grupos y la varianza
dentro de los grupos (Varianza Experimental / Varianza de Error). El valor F se utiliza
para determinar si las diferencias entre las medias de los grupos son estadísticamente
significativas. El valor del Contraste F ayuda a evaluar si la variabilidad entre los grupos
es suficientemente grande en comparación con la variabilidad dentro de los grupos para
concluir que las diferencias observadas son probablemente el resultado del efecto de la
terapia y no simplemente debidas al azar.
3
Introducción a la Investigación Científica
Psicología 2do. 1ra.
Prof. Antonio Samaniego Pinho
4. Valor de la significancia estadística (p): La hipótesis nula en ANOVA generalmente
es que “no hay diferencias significativas entre las medias de los grupos”.
• p ≤ 0.05: Si el valor de p es menor o igual que el nivel de significancia
predefinido (como 0.05), se rechaza la hipótesis nula. Esto indica que hay
diferencias significativas entre las medias de los grupos comparados.
• p > 0.05: Si el valor de p es mayor al nivel de significancia, no se rechaza la
hipótesis nula. Esto indica que no hay evidencia suficiente para afirmar que las
medias de los grupos son significativamente diferentes entre sí.
Control en diseños experimentales
El control en el diseño experimental se refiere a la práctica de gestionar todas las
variables que podrían afectar la validez y fiabilidad de los resultados del experimento. Esto
implica asegurar que las diferencias observadas en la variable dependiente se deban
exclusivamente a la manipulación de la variable independiente y no a factores externos o
errores.
El Principio MaxMinCon es una estrategia específica dentro de este concepto global
de control. Consiste en:
- Maximizar la varianza sistemática primaria
- Minimizar la varianza de error
- Controlar las variables extrañas
Maximización de la Varianza Sistemática Primaria
a) Objetivo: Asegurar que la variabilidad observada en la variable dependiente se deba
principalmente a la manipulación de la variable independiente, maximizando así el efecto
observable de la variable independiente sobre la variable dependiente.
b) Enfoque: Se busca ajustar los niveles de la variable independiente para que produzcan
diferencias claras y significativas en la variable dependiente. Esto puede implicar seleccionar
valores extremos, utilizar una amplia gama de niveles de la variable independiente, o diseñar
el experimento para que los efectos sean más pronunciados.
c) Estrategias: Esta técnica se fundamenta en la comprensión de la relación entre la variable
independiente y la dependiente, la cual puede ser lineal o curvilínea.
1. Relación Lineal: En una relación lineal, un aumento en los valores de la variable
independiente (X) provoca un aumento proporcional en los valores de la variable
dependiente (Y).
o Ejemplo: Supongamos un estudio que investiga la relación entre el número de
horas de estudio y la mejora en el rendimiento académico. Si esta relación es
lineal, a medida que aumentan las horas de estudio (X), las calificaciones (Y)
aumentan de manera proporcional. En este caso, elegir una amplia gama de
horas de estudio, desde pocas hasta muchas, maximiza la varianza en el
rendimiento académico.
2. Relación Curvilínea: En una relación curvilínea, los valores extremos de la variable
independiente pueden no producir los mayores cambios en la variable dependiente. En
cambio, los valores intermedios pueden ser los más efectivos.
o Ejemplo: Consideremos un estudio sobre el nivel de ansiedad y el rendimiento
en tareas complejas. Si la relación es curvilínea, un nivel de ansiedad moderado
4
Introducción a la Investigación Científica
Psicología 2do. 1ra.
Prof. Antonio Samaniego Pinho
podría resultar en el mejor rendimiento, mientras que niveles muy bajos o muy
altos de ansiedad podrían disminuir el rendimiento. En este caso, se deben elegir
niveles intermedios de ansiedad para maximizar la varianza en el rendimiento
de las tareas.
Minimización de la Varianza de Error
a) Objetivo: Reducir la variabilidad en las respuestas de los participantes que no está
relacionada con la variable independiente, asegurando que la medida de la variable dependiente
sea precisa y consistente.
b) Enfoque: Se busca minimizar la variabilidad en las mediciones que podría resultar de
factores aleatorios o errores en la administración del experimento, lo que permite obtener
estimaciones más precisas de los efectos de la variable independiente.
c) Estrategias:
1. Utilizar instrumentos válidos, sensibles y fiables:
• Validez: Asegurarse de que los instrumentos utilizados para medir la variable
dependiente efectivamente midan lo que se pretende medir. La validez se puede evaluar
a través de diferentes tipos, como la validez de contenido, la validez de criterio y la
validez de constructo.
• Sensibilidad: Los instrumentos deben ser capaces de discriminar entre diferentes
ejecuciones de los sujetos. Esto significa que deben ser lo suficientemente sensibles
para detectar diferencias sutiles en las respuestas.
• Fiabilidad: Los instrumentos deben producir mediciones consistentes y precisas con
poca variabilidad entre las puntuaciones del mismo participante en diferentes
ocasiones. La fiabilidad se puede evaluar mediante métodos como la consistencia
interna, la fiabilidad test-retest y la fiabilidad interjueces.
2. Aumentar el número de participantes:
• Tamaño de muestra: Incrementar el tamaño de la muestra ayuda a que los errores
aleatorios relacionados con las diferencias individuales se compensen entre sí,
reduciendo así la varianza de error. Un mayor número de participantes permite una
mejor estimación de los efectos reales y aumenta la potencia estadística del estudio.
• Estrategia intragrupo: Utilizar una estrategia intragrupo, donde todas las condiciones
se aplican a todos los participantes, puede disminuir la varianza intragrupo,
contribuyendo a una mayor consistencia en los resultados.
3. Evitar riesgos de variaciones aleatorias:
• Instrucciones claras: Proporcionar instrucciones claras y preferentemente por escrito
es fundamental para asegurar que todos los participantes comprendan y sigan las
mismas directrices. Esto ayuda a minimizar las variaciones en la forma en que los
participantes interpretan y responden a las preguntas o tareas, reduciendo así la varianza
de error.
5
Introducción a la Investigación Científica
Psicología 2do. 1ra.
Prof. Antonio Samaniego Pinho
Control de Variables Extrañas
a) Objetivo: Asegurarse de que las variables no relacionadas con la variable independiente
(como condiciones ambientales) no influyan en los resultados del experimento, manteniendo
la equivalencia entre grupos.
b) Enfoque: Se busca mantener las condiciones constantes para que las diferencias observadas
entre los grupos se deban principalmente a la intervención experimental y no a factores
externos.
c) Estrategias:
c.1) Técnicas comunes a las estrategias intergrupos e intragrupo
1. Eliminación: Consiste en eliminar las variables extrañas del estudio, es decir, utilizar
el valor cero de la variable extraña eliminando todos los demás valores.
o Ejemplo: En un experimento que investiga el impacto de la meditación en la
reducción del estrés, el ruido ambiental podría afectar los niveles de estrés de
los participantes. Para eliminar esta variable, los experimentos se realizan en
una sala insonorizada, asegurando que todos los participantes mediten en un
entorno silencioso y sin distracciones.
2. Constancia: Se aplica cuando no es posible eliminar la variable extraña. Implica elegir
un valor diferente de cero para esa variable y mantenerlo constante para todos los
participantes del estudio.
o Ejemplo: En un estudio sobre el efecto del sueño en la memoria, la temperatura
de la habitación podría influir en la calidad del sueño de los participantes. Para
mantener la constancia, se ajusta el termostato de la habitación a una
temperatura constante de 21°C durante todas las sesiones de sueño, asegurando
que todos los participantes duerman bajo las mismas condiciones térmicas.
3. Técnicas de ciego y doble ciego: Estas técnicas se utilizan para neutralizar los efectos
de factores relacionados con el procedimiento experimental que pueden sesgar las
respuestas de los participantes (reactividad).
o Ciego: Los participantes desconocen los objetivos y las condiciones de la
investigación, lo que minimiza el sesgo de sus respuestas.
o Doble ciego: Tanto los participantes como los experimentadores que
administran los tratamientos desconocen los objetivos y las condiciones de la
investigación. Esto reduce la posibilidad de que las expectativas del
experimentador influyan en los resultados.
o Ejemplo: En un estudio que examina los efectos de un nuevo antidepresivo, se
utiliza un diseño de doble ciego. Los participantes no saben si están recibiendo
el medicamento o un placebo, y los investigadores que administran el
tratamiento tampoco saben qué grupo recibe el medicamento. Esto ayuda a
prevenir el sesgo del placebo y las expectativas del investigador sobre la eficacia
del tratamiento.
4. Sistematización de las variables extrañas: El experimentador convierte una variable
potencialmente extraña en una variable independiente y la incorpora en el diseño de la
investigación.
6
Introducción a la Investigación Científica
Psicología 2do. 1ra.
Prof. Antonio Samaniego Pinho
o Ejemplo: En un estudio sobre la influencia del entorno de trabajo en la
productividad, la iluminación podría ser una variable extraña. En lugar de
ignorarla, el investigador convierte la iluminación en una variable
independiente con diferentes niveles (por ejemplo, luz tenue, luz moderada y
luz brillante). De esta manera, se puede analizar el efecto de diferentes niveles
de iluminación en la productividad de los participantes.
5. Técnicas estadísticas: Estas técnicas permiten separar el influjo que tiene la variable
independiente sobre la variable dependiente del influjo de alguna variable extraña.
o Ejemplo: En un estudio sobre el impacto de la terapia cognitivo-conductual
(TCC) en la reducción de la ansiedad, la edad de los participantes podría influir
en los resultados. Utilizando el análisis de covarianza (ANCOVA), los
investigadores pueden ajustar los resultados de la variable dependiente (niveles
de ansiedad) teniendo en cuenta las diferencias en la edad de los participantes.
Esto permite aislar el efecto puro de la TCC en la reducción de la ansiedad,
controlando por la variable edad.
c.2) Técnicas más características de las situaciones de comparación de grupos o
intergrupos: Técnicas de Equilibrado o Balanceo
Estas técnicas están diseñadas para asegurar que los grupos en un experimento sean
equivalentes, permitiendo que cualquier diferencia observada en los resultados se atribuya a la
variable independiente. Estas estrategias incluyen aleatorización, bloqueo y equiparación.
1. Aleatorización: La aleatorización es una técnica que implica dos pasos: primero,
asignar a los participantes de forma aleatoria a diferentes grupos (como experimental y
control); segundo, asignar de manera aleatoria las condiciones o tratamientos a esos
grupos. Esto garantiza que las diferencias entre los grupos sean mínimas, permitiendo
atribuir cualquier efecto observado en el experimento a la variable independiente, y no
a diferencias preexistentes entre los participantes o a sesgos en la asignación de
tratamientos.
o Ejemplo: En un estudio sobre el efecto de un nuevo método de enseñanza en el
rendimiento académico, los estudiantes se asignan aleatoriamente a dos grupos:
uno que utiliza el nuevo método y otro que sigue el método tradicional. La
aleatorización asegura que cualquier diferencia en el rendimiento académico
pueda atribuirse al método de enseñanza y no a otras variables como la
motivación o el nivel previo de conocimiento.
Primer momento - Asignación de participantes a grupos:
- Selección aleatoria de participantes: Reclutamos a 100 estudiantes
universitarios para participar en el estudio.
- Asignación aleatoria a grupos: Utilizamos un software de generación de
números aleatorios para asignar a los 100 estudiantes a dos grupos: el
grupo experimental (que usará la nueva técnica de estudio) y el grupo
de control (que seguirá con su método habitual de estudio). Esto
garantiza que cada grupo tenga una composición similar en términos de
variables como el nivel académico, la edad y el género.
Segundo momento - Asignación de condiciones a grupos:
- Asignación aleatoria de condiciones: Una vez que los grupos están
formados, asignamos aleatoriamente las condiciones del estudio. El
7
Introducción a la Investigación Científica
Psicología 2do. 1ra.
Prof. Antonio Samaniego Pinho
grupo experimental recibe instrucciones sobre la nueva técnica de
estudio y el grupo de control sigue utilizando sus métodos habituales.
- Implementación del tratamiento: Durante el semestre, ambos grupos
estudian sus asignaturas, con el grupo experimental aplicando la nueva
técnica y el grupo de control utilizando sus estrategias habituales. Al
final del semestre, comparamos los resultados académicos de ambos
grupos para evaluar el impacto de la técnica de estudio.
2. Técnica de bloques: Implica formar subgrupos de participantes, llamados bloques, que
son homogéneos en relación con una variable extraña relevante para la variable
dependiente. Los bloques se asignan aleatoriamente a condiciones experimentales o de
control.
o Ejemplo: En un estudio sobre la efectividad de diferentes tipos de terapia
cognitivo-conductual (TCC) para reducir la ansiedad, los participantes se
agrupan en bloques según su nivel inicial de ansiedad medido por un
cuestionario estándar. Los bloques se dividen aleatoriamente entre las diferentes
modalidades de TCC (por ejemplo, TCC en grupo, TCC individual, y terapia de
exposición). Esto asegura que cualquier diferencia en la reducción de la
ansiedad se deba a la modalidad de terapia y no a las diferencias iniciales en el
nivel de ansiedad de los participantes.
3. Técnica de equiparación o emparejamiento: Busca que los participantes en los
diferentes grupos sean lo más similares posible respecto a ciertas variables extrañas
importantes, asignando participantes con características similares a grupos diferentes.
o Ejemplo: En un experimento que evalúa el efecto de la meditación mindfulness
en la reducción del estrés percibido, los participantes se emparejan por género
y nivel de estrés inicial antes de ser asignados a grupos de intervención o
control. Esto garantiza que cualquier diferencia en los niveles de estrés al final
del estudio se deba a la intervención de mindfulness y no a diferencias iniciales
en el nivel de estrés o al género de los participantes.
c.3) Técnicas típicas de las situaciones intragrupo
1. Técnica del sujeto como control de sí mismo: En esta técnica, los mismos
participantes reciben todos los tratamientos o condiciones experimentales. Esto
significa que cada participante actúa como su propio grupo de control. Las variables
extrañas relacionadas con las diferencias individuales se mantienen constantes, ya que
el mismo individuo es medido en diferentes condiciones.
o Ejemplo: En un estudio que investiga los efectos del ruido ambiental en la
concentración, los mismos participantes realizan una tarea de atención en un
entorno silencioso y luego en un entorno ruidoso. Al comparar el rendimiento
en ambos entornos, se pueden atribuir las diferencias en la concentración al
nivel de ruido, ya que todas las demás variables individuales son constantes.
2. Técnica de contrabalanceo: Esta técnica se utiliza para controlar el efecto del orden
de aplicación de las diferentes condiciones experimentales, conocido como efecto de
orden o error progresivo. Consiste en variar el orden de presentación de las condiciones
para asegurarse de que el orden no influya en los resultados.
o Ejemplo: En un experimento que examina el efecto de diferentes tipos de
música en el estado de ánimo, cada participante escucha música clásica, rock y
jazz en diferentes sesiones. Para contrarrestar el efecto del orden de
8
Introducción a la Investigación Científica
Psicología 2do. 1ra.
Prof. Antonio Samaniego Pinho
presentación, el investigador utiliza un diseño de contrabalanceo, de modo que
algunos participantes comienzan con música clásica, otros con rock y otros con
jazz. Esto ayuda a garantizar que cualquier efecto sobre el estado de ánimo sea
debido al tipo de música y no al orden en que se escucharon los diferentes tipos
de música.
Fortalezas y debilidades de los diseños experimentales
a) Fortalezas
1. Control riguroso de variables:
o Fortaleza: Los diseños experimentales permiten un control preciso de las
variables independientes y dependientes, así como de las variables extrañas.
Esto facilita el establecimiento de relaciones causales claras.
o Ejemplo: En un estudio sobre la eficacia de un tratamiento para la depresión,
se puede controlar la duración y el tipo de intervención psicológica aplicada
mientras se mantienen constantes otras variables como el nivel de apoyo social,
para observar el efecto específico del tratamiento.
2. Capacidad para establecer causalidad:
o Fortaleza: La manipulación de la variable independiente y la observación de
sus efectos en la variable dependiente permiten inferir relaciones causales con
mayor certeza.
o Ejemplo: En una investigación sobre el impacto de la terapia cognitivo-
conductual en la reducción de síntomas de ansiedad, asignar aleatoriamente a
los participantes a recibir terapia o no permite establecer una relación causal
entre la terapia y la reducción de los síntomas.
3. Repetibilidad y replicabilidad:
o Fortaleza: Los experimentos bien diseñados pueden ser replicados por otros
investigadores, lo que fortalece la validez de los resultados y permite la
verificación de hallazgos.
o Ejemplo: Un experimento sobre los efectos de la meditación en el estrés,
realizado en un laboratorio, puede ser replicado en diferentes entornos para
confirmar la efectividad de la meditación en la reducción del estrés.
4. Manipulación directa:
o Fortaleza: La capacidad de manipular directamente la variable independiente
permite una exploración precisa de cómo los cambios en esta variable afectan a
la variable dependiente.
o Ejemplo: En un estudio sobre el efecto de la duración del sueño en el
rendimiento cognitivo, se puede manipular la cantidad de sueño y observar
cómo afecta el rendimiento en tareas cognitivas específicas.
5. Control de confusiones:
o Fortaleza: Los diseños experimentales, especialmente con grupos de control y
aleatorización, permiten controlar y minimizar los efectos de variables confusas
que podrían sesgar los resultados.
o Ejemplo: En un estudio sobre el impacto de una técnica de relajación en la
reducción de la ansiedad, el uso de un grupo de control que no recibe la técnica
ayuda a controlar el efecto de otras variables como el apoyo emocional o la
predisposición a la ansiedad.
9
Introducción a la Investigación Científica
Psicología 2do. 1ra.
Prof. Antonio Samaniego Pinho
Debilidades
1. Costo y tiempo:
o Debilidad: Los experimentos bien controlados pueden ser costosos y llevar
mucho tiempo para diseñar, ejecutar y analizar.
o Ejemplo: Un estudio longitudinal sobre los efectos de la intervención
psicológica en el bienestar a largo plazo puede requerir años de seguimiento y
una inversión significativa en recursos.
2. Generalización de resultados:
o Debilidad: Los resultados de un experimento pueden no ser generalizables a
otras poblaciones o situaciones si el diseño no refleja adecuadamente la realidad
externa.
o Ejemplo: Un experimento que evalúa la efectividad de un programa de terapia
en un entorno clínico controlado puede no reflejar cómo el programa funciona
en entornos más diversos o en la vida cotidiana.
3. Ética:
o Debilidad: Algunos experimentos pueden plantear dilemas éticos,
especialmente si implican manipulación de variables que podrían causar daño a
los participantes.
o Ejemplo: Un experimento que induce estrés en los participantes para estudiar
sus efectos en la salud mental puede plantear preocupaciones éticas sobre el
bienestar de los participantes.
4. Limitaciones en la manipulación de variables:
o Debilidad: Puede ser difícil o imposible manipular ciertas variables de manera
ética o práctica, limitando la aplicabilidad del diseño experimental.
o Ejemplo: En un estudio sobre el impacto de las experiencias traumáticas en la
salud mental, no es ético ni práctico inducir experiencias traumáticas para
estudiar sus efectos.
5. Efectos del experimentador:
o Debilidad: Los sesgos del experimentador o efectos no deseados pueden influir
en la conducta de los participantes y en los resultados, a pesar de los controles
establecidos.
o Ejemplo: Un investigador con expectativas específicas sobre los efectos de una
intervención psicológica puede inadvertidamente influir en las respuestas de los
participantes.
6. Complejidad en la interpretación:
o Debilidad: Los resultados de algunos diseños experimentales complejos
pueden ser difíciles de interpretar debido a la interacción de múltiples variables
y factores.
o Ejemplo: En un experimento que examina el impacto de varias técnicas
terapéuticas en la reducción de síntomas de ansiedad, la interacción entre
diferentes técnicas puede complicar la interpretación de cuál es más efectiva.
10