INTRODUCCIÓN AL DISEÑO DE INVESTIGACIÓN
1. Conceptos básicos
1.1. Metodología, métodos, diseños y técnicas
1.2. Los pilares de la investigación científica
1.2.1. Medida
1.2.2. Diseño
1.2.3. Análisis
1.4. Estrategias para la investigación empírica
1.4.1. Estrategia manipulativa
1.4.2. Estrategia asociativa
1.4.3. Estrategia descriptiva
1.5. Unidad experimental, unidad de observación y unidad de muestreo
1.6. Inferencia causal
2. El experimento como modelo de investigación
2.1. El problema del confundido
2.2. Técnicas de control de variables extrañas
2.2.1. Técnicas de control transversales
2.2.2. Técnicas de control longitudinales
3. Validez de la investigación
3.1. Validez de conclusión estadística
3.2. Validez interna
3.3. Validez constructo
3.4. Validez de externa
INTRODUCCIÓN AL DISEÑO DE INVESTIGACIÓN
1. Conceptos básicos
1.1. Metodología, métodos, diseños y técnicas:
Fontes et al. (2010) realizan una clarificación conceptual para diferenciar estos
términos que muchas veces son tomados como sinónimos. Para ellos los métodos o
estrategias hacen referencia a todo el proceso de investigación, adoptando una
determinada estrategia general que condiciona el desarrollo de cada una sus etapas, en la
necesidad implícita de coherencia interna. Sin embargo, las técnicas constituyen
procedimientos específicos que pueden usarse en etapas particulares, o sea, son
dispositivos auxiliares que posibilitan la aplicación de métodos. De esta forma, podemos
hablar de técnicas de muestreo, técnicas de control, técnicas de recogida de datos, etc.
Ahora bien, el diseño se encontraría en un punto intermedio, conceptualmente
hablando, entre los métodos y las técnicas. El concepto de diseño de investigación está
vinculado a la elección y especificación del procedimiento para la obtención de datos que
permitan contrastar una hipótesis. En otro sentido, el diseño hace referencia a una serie
de decisiones que se toman en la planificación de la investigación, y que se concretarán
en una serie de actividades específicas. Estas decisiones no tienen sentido de forma
aislada, sino consideradas en su conjunto y en función de unos objetivos investigación.
Finalmente, otro término encontrado en la bibliografía es la metodología.
Etimológicamente metodología (del griego) significa tratado o estudio del método. De
esta manera, cuando se utiliza la expresión metodología se hace referencia a la posible
presentación, análisis o estudio de procedimientos y tácticas de investigación.
1.2. Los tres pilares de la investigación en Psicología
La investigación en las Ciencias del Comportamiento, las Ciencias Sociales y las
Ciencias de la Salud se construye sobre tres pilares básicos: la medida, el diseño y el
análisis (Kline, 2011; Pedhazur y Smelkin, 1991). Cada uno de los pilares se asocia con
alguno/s de los cuatro tipos de validez de la investigación definidos por Campbell y
colaboradores (Shadish, Cook y Campbell, 2002), que trataremos más adelante.
1.2.1. Medida
Se refiere a la identificación y definición de las variables (observables o latentes)
objeto de investigación y la generación de datos empíricos (numéricos o categóricos) que
son la entrada de los procedimientos de análisis estadístico. Es crítico que los datos
empíricos tengan un alto grado de fiabilidad y de validez. El tipo de validez que se asocia
con la medida es la validez de constructo, que se refiere a la capacidad de definir y
operativizar apropiadamente las variables de una investigación.
1.2.2. Diseño
Es un plan estructurado para abordar un problema de investigación con el objeto de
obtener resultados rigurosos, libres de sesgo y generalizables, con el menor esfuerzo
posible. Aspectos del proceso de investigación tales como la selección y asignación de
las unidades experimentales, el control de potenciales variables extrañas y la reducción
de la varianza de error son elementos esenciales del diseño. Dos tipos de validez
determinan la calidad del diseño: la validez interna, que se refiere a la capacidad para
controlar el efecto de variables extrañas que podrían confundir el efecto de las variables
experimentales (o sea, variable/s independiente/s y variable/s dependiente/s), y la validez
externa, que se refiere a la capacidad para generalizar los resultados de la investigación
a otros participantes, a otros contextos y a otros momentos temporales.
1.2.3. Análisis
Concierne a la estimación de parámetros y la prueba de hipótesis estadísticas acerca
del objetivo de investigación planteado. Pero es importante tener en cuenta que en el
proceso de investigación la prueba de hipótesis no es lo primario. Actualmente se
demanda mayor énfasis en la exactitud de la estimación que en la prueba de hipótesis y
se valoran aspectos tales como la magnitud del efecto y la significación práctica y clínica
de los resultados (Thompson, 2002). El tipo de validez que se asocia con el análisis es la
validez de la conclusión estadística, que se refiere al empleo correcto de los recursos
estadísticos para obtener inferencias carentes de sesgo.
Una investigación bien ejecutada debe comenzar resolviendo la medida de las
variables, para concentrarse después en el diseño y terminar finalmente con el análisis
estadístico de los datos.
1.4. Estrategias para la investigación empírica
Pueden distinguirse tres estrategias para realizar investigación empírica en
Psicología, donde cada una de las estrategias se caracteriza por formular hipótesis
específicas, generar tipos de diseño determinados y por la consecución de cierto grado
de control (véase Ato, López y Benavente, 2013).
1.4.1. Estrategias manipulativas
Configura un conjunto de los diseños que son típicos de la investigación
experimental. Constituye la estrategia de investigación que más garantías ofrece para la
contrastación de hipótesis causales, que se formulan genéricamente con el argumento “X
es la causa de Y”. Las hipótesis causales requieren la definición de al menos dos variables
experimentales: una que se asume como causa (X) y otra, como efecto (Y). Claro está que
hay otras variables que pueden ser observables o no observables y tener cierto grado de
influencia sobre las dos variables básicas, pero el control de las terceras variables
constituye uno de los objetivos primarios del diseño de investigación.
1.4.2. Estrategias asociativas
No todos los problemas de estudio permiten su investigación a través de la
manipulación de variables. Determinados fenómenos no pueden provocarse de forma
manipulada, sea por su propia naturaleza o por razones éticas. Hay otros diseños de
investigación que se inspiran en la estrategia asociativa que utilizan alguna forma de
hipótesis de covariación, que se formulan con el argumento “X se relaciona
funcionalmente con Y”. Los objetivos de investigación se traducen en hipótesis que
persiguen las comparaciones entre grupos y la predicción o explicación de
comportamientos o procesos en términos relacionales. Aunque el análisis causal no suele
ser posible en los diseños de la estrategia asociativa, en ciertas ocasiones algunos diseños
comparativos y muchos diseños explicativos pueden facilitar el establecimiento de
relaciones causa-efecto.
1.4.2.1 Estrategias descriptivas
La estrategia descriptiva representa, junto a la estrategia asociativa, una de las dos
formas características de los estudios no experimentales porque no cumple ninguno de
los dos criterios básicos de la investigación experimental (manipulación de variables y
control mediante asignación aleatoria). Además no suelen requerir el uso de hipótesis
porque el objetivo de la investigación es la definición, clasificación y/o categorización de
eventos u objetos de interés.
1.5. Unidad experimental y unidad de observación y unidad de muestreo
a) Unidad experimental: es el elemento más pequeño al que puede asignarse un
tratamiento. Por ejemplo, en una investigación donde se evalúa la eficacia de un programa
social, la unidad experimental podría ser la comunidad y el tratamiento, el programa.
Además se requieren al menos dos grupos de unidades experimentales, un grupo que
recibe el tratamiento (también llamado grupo experimental o GE) y otro que no lo recibe
(llamado grupo control o GC), y que la respuesta debe ser alguna medida de la eficacia
del programa social.
b) Unidad de observación: Es aquella fracción de la unidad experimental sobre la
cual se mide el efecto del tratamiento. Por ejemplo, en un estudio sobre la eficacia del
tipo de universidad (pública o privada) sobre la participación política estudiantil, la
unidad experimental es la universidad, pero la unidad de observación sobre la que se
registra serían los estudiantes.
c) Unidad de muestreo: es simplemente un elemento seleccionado de una población
de origen.
1.6. Inferencia causal
En las investigaciones que utilizan diseños de la estrategia manipulativa y también
en algunos diseños de la estrategia asociativa, se realiza alguna forma de inferencia
causal, o sea, se somete a prueba una hipótesis que asume una relación causa-efecto entre
una variable independiente (la supuesta causa) y una variable dependiente (el supuesto
efecto).
Llanos (2009) señala que para saber que existe una relación de causa-efecto,
uniforme e invariante, entre dos hechos, basta descubrir y determinar exactamente cuáles
y cuántas son las condiciones necesarias y suficientes para que se produzca el efecto. En
concordancia con esto, Shadish et al. (2001) consideran necesario que se den tres
condiciones para que en un experimento se pueda inferir una relación de causalidad:
a) Dirección: la supuesta causa debe ocurrir antes que el supuesto efecto.
b) Asociación: hay una covariación observable entre la presunta causa y el presunto
efecto.
c) Aislamiento: no hay ninguna otra explicación posible (variables extrañas) sobre
la presunta relación entre la presunta causa y el presunto efecto (ausencia de espuriedad).
2. El experimento como modelo de investigación
Según Ato y Vallejo (2015) el diseño experimental típico posee dos propiedades
distintivas esenciales, a saber:
a) Manipulación activa de (al menos) una variable independiente por parte del
investigador. La manipulación se entiende como facultad del investigador para variar a
voluntad los niveles de tratamiento (programa o intervención) que representa la variable
independiente.
b) Aleatorización, o utilización de una regla de asignación aleatoria para distribuir
las unidades experimentales entre los niveles de tratamiento, evitando la presencia de
sesgos.
Para profundizar en las diferencias entre diseño experimental, cuasiexperimental y
no experimental, Judd y Kenny (1981) han distinguido entre tres diferentes reglas de
asignación de unidades experimentales a los tratamientos:
a) Regla de asignación aleatoria: las unidades experimentales se asignan al azar a
los grupos. En esta situación se asume que los diferentes grupos de unidades que reciben
los tratamientos son equivalentes antes de administrar el tratamiento.
b) Regla de asignación no aleatoria, pero sí conocida: las unidades experimentales
se asignan a los tratamientos en función de una puntuación de corte (p.e., la puntuación
obtenida en un pretest). En este caso, los grupos no se asumen iguales, pero la
probabilidad de asignación de unidades experimentales, y por ende las diferencias
iniciales entre los grupos, se conoce perfectamente.
c) Regla de asignación no aleatoria ni conocida: no se conoce, ni puede conocerse
con exactitud, cómo difieren entre sí los grupos de unidades antes de administrar el
tratamiento.
Estas reglas asumen la existencia de una variable de asignación, que representa una
probabilidad conocida e igual para todas las unidades experimentales (o sea, una
constante) en el caso (a), una puntuación de corte que representa la pertenencia a grupo
(o sea, una variable binaria) en el caso (b) y una variable extraña desconocida en el caso
(c).
La asignación aleatoria se aplica en una etapa que no debe confundirse con una
etapa previa, donde se aplica la selección aleatoria de unidades experimentales de una
población de referencia. Aunque se recomienda la aplicación de las dos etapas aleatorias
en la investigación experimental, la selección aleatoria se emplea solo para extraer al
azar un conjunto de unidades experimentales de una población, mientras que la
asignación aleatoria se utiliza para distribuir al azar las unidades entre los dos grupos.
Con la primera se persigue que las unidades experimentales sean representativas de su
población de origen, objetivo fundamental de los diseños selectivos, y afecta en lo
fundamental a la validez externa de la investigación. Con la segunda se persigue que las
unidades experimentales se distribuyan aleatoriamente entre los grupos para asegurar la
igualdad de los grupos ante de la administración del tratamiento, evitando así los sesgos
de selección, objetivo primario del diseño experimental, y afecta en lo fundamental a la
validez interna.
En el diseño experimental más simple, donde sólo hay un grupo de unidades
experimentales que recibe tratamiento (GE) y otro grupo que no lo recibe (GC), la
asignación aleatoria de unidades experimentales al GE y GC reparte de forma homogénea
las unidades experimentales entre los dos grupos antes de la administración del
tratamiento. Como consecuencia, es bastante probable (en particular si se dispone de un
tamaño muestral numeroso) equilibrar los grupos en todas las variables extrañas,
observables o no observables. Éste es un contexto óptimo para estimar efectos de
tratamiento libres de sesgo sistemático.
2.1. El problema del confundido
Según Ato y Vallejo (2015), el problema esencial que se plantea en investigaciones
donde los grupos presentan sesgo de selección es el problema del confundido, en otras
palabras, la intromisión del efecto de una variable extraña (p. ej., Z) en una relación
aparentemente estable entre una supuesta causa y un supuesto efecto, X →Y. El efecto
de Z puede sustituir al efecto de X para explicar Y, confundiendo la relación estudiada, o
puede incluso actuar conjuntamente con X, conduciendo a una interpretación errónea de
la relación original. Esta situación está provocada por la existencia de variables extrañas
no controladas relacionadas con X y/o con Y. Si el investigador no tiene conocimiento de
ellas, la interpretación del efecto puede resultar confundida.
2.2 Técnicas de control de variables extrañas
Como se ha visto, en ocasiones el efecto de una variable extraña puede distorsionar
sistemáticamente los resultados en un grupo/tratamiento respecto de otro, produciendo
entonces sesgo sistemático, y en otras ocasiones puede afectar a la variación de la variable
dependiente incrementando la varianza de error, o sea, la variación no atribuible al efecto
de la/s variable/s independiente/s. Sesgo sistemático y error aleatorio pueden incluso
actuar de forma combinada, generando el peor de los escenarios posibles para interpretar
un efecto de tratamiento. De ahí la importancia de que el investigador sepa reconocer la
presencia de confundidores e introduzca técnicas de control apropiadas para corregir sus
efectos.
Las técnicas de control de variables extrañas difieren en función de si los efectos de
tratamiento tienen naturaleza transversal (se estiman en una ocasión temporal
determinada), o longitudinal (se estiman a lo largo del tiempo).
2.2.1. Técnicas de control transversales
Hay tres técnicas básicas de control de naturaleza transversal: eliminación de una
variable extraña, que consiste simplemente en suprimirla de la situación experimental;
constancia, que implica emplear un único nivel de la variable extraña; y equilibración,
cuyo objeto es distribuir el efecto de las variables extrañas entre los grupos. El principal
inconveniente de las dos primeras es que pueden reducir la generalizabilidad de los
efectos de tratamiento.
La equilibración es la técnica de control más común para corregir o reducir el sesgo
de selección, o sea, la existencia de grupos no iguales antes de comenzar el tratamiento.
Hay dos formas básicas para intentar igualar el efecto de las variables extrañas entre los
grupos: mediante el control experimental, que son un amplio conjunto de técnicas que se
introducen durante la etapa de diseño de la investigación, o mediante el control
estadístico, que son técnicas de control que se introducen durante la etapa de análisis
estadístico de los datos.
La más importante técnica de control experimental es la a) aleatorización, que se
asume tanto más efectiva cuanto mayor es el tamaño muestral y más objetiva es la forma
concreta de aplicarla. En el caso ideal, su principal virtud es la distribución de todas las
variables extrañas (observadas y no observadas) entre los grupos de tratamiento, no
afectando diferencialmente a un grupo respecto de otro. Su principal desventaja es que la
composición de los grupos mediante aleatorización usualmente genera grupos de
participantes muy heterogéneos. Desgraciadamente, para muchos problemas de
investigación no es aplicable o no es ético aplicar la técnica de aleatorización.
Si el investigador conoce qué variables extrañas pueden estar interviniendo en tales casos,
hay dos técnicas de control por equilibración que pueden acaparar su atención para
intentar reducir el error aleatorio y minimizar el sesgo sistemático, a saber:
b) Bloqueo, que consiste en formar conjuntos homogéneos de participantes para
cada uno de los niveles de al menos una variable extraña y asignarlos después (de forma
aleatoria o no aleatoria) a las condiciones de tratamiento dentro de cada bloque. Esta
acción produce como resultado la introducción de la variable extraña (categorizada) como
un nuevo factor en el diseño de investigación. Si la asignación de participantes de un
conjunto homogéneo a los grupos es aleatoria el diseño será experimental; si no es
aleatoria, el diseño será cuasiexperimental (siempre que sea el experimentador quien
defina la naturaleza de los grupos) o comparativo (si los grupos ya se han definido y el
experimentador no tiene control alguno sobre su producción).
c) Emparejamiento, trata de conseguir, disponiendo de una muestra de participantes
para un grupo (p. ej., el GE), participantes con las mismas características en un conjunto
de variables extrañas para asignarlos a otro/s grupo/s (p. ej., un GC). El emparejamiento
es la técnica de control experimental más versátil, porque se puede practicar tanto de
forma individualizada (o sea, emparejando caso a caso para formar los grupos) como de
forma grupal o generalizada (o sea, emparejando los grupos en su conjunto).
Sin embargo, a veces el control experimental no es posible o no se ha podido
conseguir un control efectivo. Cuando se utilizan grupos naturales, la única forma de
emparejamiento posible es el emparejamiento post-hoc (o sea, la constitución de un grupo
de control una vez que el tratamiento ha tenido lugar).
Como alternativa al control experimental, el control estadístico persigue el mismo
objetivo que la equilibración, pero utilizando procedimientos estadísticos para ajustar la
desigualdad entre los grupos de tratamiento. Las técnicas de control estadístico más
relevantes son:
a) Residualización, que consiste en controlar la influencia de al menos una variable
extraña conocida eliminando de la variable de respuesta lo que explica la variable extraña.
Se practica comúnmente con los coeficientes de correlación (y determinación) parcial y
semiparcial. Por ejemplo, R2Y X.Z es el coeficiente de determinación parcial entre X e Y
una vez que se ha eliminado de X y de Y el efecto de Z, y R2Y (X.Z) es el coeficiente de
determinación semiparcial entre X e Y una vez eliminado de X, pero no de Y, el efecto
de Z. La idea se generaliza a más de una variable extraña.
b) Ajuste de regresión mediante ANCOVA es la técnica de control estadístico
más usada. Consiste en introducir una (o más) variable/s extraña/s de naturaleza numérica
(continua o discreta), con el objeto de controlar su efecto eliminando la varianza que
explica de la variable de respuesta. La selección de las variables extrañas y su relevancia
como variables de control son la cuestión crucial para que este procedimiento sea
efectivo.
2.2.1. Técnicas de control longitudinales
Cuando los efectos de tratamiento tienen naturaleza longitudinal, la preocupación
por la igualdad de los grupos no suele ser un problema, por tratarse de los mismos
participantes, y las técnicas de control persiguen controlar los efectos típicos de la
investigación longitudinal, a saber, los efectos de secuenciación. Hay dos tipos de efectos
de secuenciación, los efectos de orden o de error progresivo (order effects) y los efectos
de transferencia (carry-over effects). Los efectos de orden son extrínsecos al sujeto, se
presentan siempre que los tratamientos se administran en el mismo orden a las unidades
experimentales y pueden tener consecuencias positivas (p. ej., el efecto de práctica) o
negativas (p. ej., el efecto de fatiga). Los efectos de transferencia son intrínsecos al sujeto
y por ello son más difíciles de controlar. En todos estos casos, la técnica de control más
apropiada es una forma de equilibración adaptada a la naturaleza longitudinal de los
efectos de tratamiento. Se denomina contraequilibración, y puede adoptar tres formas
básicas:
a) Contraequilibración intrasujeto se propone controlar los efectos de
secuenciación empleando, para cada unidad experimental, una secuencia que incluya
todos los órdenes posibles (p. ej., asumiendo dos tratamientos A y B, la
contraequilibración intrasujeto asignaría a cada sujeto la secuencia A-B-B-A). El
inconveniente principal es su aplicación cuando hay que controlar una secuencia de 3 o
más tratamientos.
b) Contraequilibración intragrupo se propone por el contrario controlar los efectos
de secuenciación utilizando todos los órdenes posibles de la secuencia de tratamientos.
Por ejemplo, si hay 3 tratamientos (A, B y C), la contraequilibración intragrupo completa
consiste en asignar a diferentes unidades experimentales las 3! = 6 secuencias siguientes:
A−B−C, A−C−B, B−A−C, B−C−A, C−A−B y C−B−A, mientras que la
contraequilibración intragrupo incompleta asignaría solo tantas secuencias como
número de tratamientos existan en una disposición denominada cuadrado latino (p. ej.,
las secuencias A−C−B, B−A−C y C−B−A).
c) Contraequilibración aleatoria es la forma de control más recomendable para los
efectos de secuenciación y consiste en emplear, para cada unidad experimental, una de
las posibles secuencias seleccionada al azar.
3. Validez de la investigación
La ventaja de la investigación experimental es la creación de unas condiciones
óptimas para posibilitar la inferencia causal. Su debilidad fundamental es el grado en que
se puede generalizar tal inferencia. Otras alternativas a la investigación no experimentales
se proponen lograr el máximo acercamiento posible a las propiedades de la investigación
experimental. Para valorar la calidad de la inferencia y el grado de generalización de la
misma, (Shadish, Cook y Campbell, 2002), propusieron un esquema de la validez de la
investigación que distingue cuatro tipos de validez, los dos primeros relacionados con la
validez de la inferencia causal y los dos últimos con la generalización de la inferencia.
4.1. Validez de la conclusión estadística
Se refiere esencialmente a dos inferencias estadísticas relacionadas que pueden
afectar a la relación entre las supuestas variables causa y efecto, en concreto: 1) ¿covarían
las variables causa y efecto?, y 2) en caso de que covaríen, ¿cuál es la magnitud empírica
de su covariación? Para la primera de las inferencias, se puede concluir de forma
incorrecta que causa y efecto covarían cuando de hecho no covarían (error tipo I) o
concluir también incorrectamente que no covarían cuando de hecho sí lo hacen (error
tipo II). Para la segunda de las inferencias, al obtener una estimación de la covariación,
se puede subestimar o sobreestimar la magnitud de la covariación.
El medio más establecido de determinar si causa y efecto covarían es el contraste
de hipótesis, donde se compara una hipótesis nula contra una hipótesis alternativa y se
determina mediante una prueba estadística la probabilidad de rechazar la hipótesis nula
bajo el supuesto de que es verdadera. Por ejemplo, si se desea utilizar la prueba de t para
determinar si difieren las medias empíricas de dos grupos (GE y GC), la hipótesis nula
establece que la diferencia entre las medias es nula en la población de donde tales medias
empíricas se han extraído. La prueba produce un valor empírico del estadístico t (que se
asume distribuido según una distribución t de Student), y se acompaña de un argumento
de probabilidad (por ejemplo, p = .015), que es la probabilidad de que una diferencia
absoluta entre medias como la empíricamente obtenida haya ocurrido por azar en una
población donde se asume que la diferencia es nula. Es común describir este resultado de
forma dicotómica, es decir, como estadísticamente significativo si p ≤ .05, o
estadísticamente no significativo si p > .05, dado un criterio prefijado de α = .05. Del
mismo modo se decide con otros criterios comúnmente aceptados (por ejemplo, el criterio
α =.01).
Una larga controversia ha existido en torno a las pruebas de significación, y la
elección de los criterios del .05 y del .01 para aceptar o rechazar hipótesis nulas. Pero en
lugar de presentar un argumento de significación basado en criterios establecidos,
actualmente se prefiere presentar los resultados bajo la forma de tamaños de efecto e
intervalos de confianza en torno a los estimadores de los parámetros y los tamaños del
efecto. Cabe notar que la conclusión “estadísticamente significativo” es un argumento
que sólo hace referencia a la probabilidad de una hipótesis, pero no a la relevancia práctica
del resultado obtenido. Todas las pruebas estadísticas se construyen utilizando como
numerador la diferencia observada (en el caso más simple, una diferencia de medias) y
como denominador el error típico de la diferencia. En general, cuanto mayor sea la
diferencia observada mayor será la probabilidad de ser significativa, pero la conclusión
depende también del error típico, que a su vez depende del tamaño muestral. Si el tamaño
muestral es pequeño, el error típico tiende a ser grande y más grande habrá de ser la
diferencia entre medias para resultar significativa; si el tamaño muestral es grande, el
error típico tiende a ser pequeño y más pequeña será la diferencia entre medias para
resultar significativa.
No es aconsejable fundamentar la interpretación de los resultados de investigación
en su significación estadística, ya que pueden obtenerse resultados significativos con
diferencias de escasa importancia científica o práctica y resultados no significativos con
diferencias de alta relevancia científica y práctica. Por tanto, a la hora de valorar los
resultados de una investigación debe considerarse también si el tamaño de la diferencia
es científica o prácticamente relevante. La interpretación conjunta de la significación
estadística y la magnitud de la diferencia permite aproximar la significación práctica del
resultado. Esta es la razón por la que resulta más conveniente un informe de los resultados
a base de un intervalo de confianza (que incluye una estimación puntual de la diferencia
y su error típico) más que un argumento de probabilidad, que concluir si la prueba resultó
o no significativa.
4.2. Validez interna
Utilizamos el término validez interna para hacer referencia a inferencias acerca de
si la covariación observada en un efecto (Y) se ha producido debido a cambios en el nivel
o intensidad de una variable explicativa (X) y no por otras fuerzas causales alternativas.
La forma más común de inferir de causa a efecto consiste en eliminar esas otras causas
posibles (terceras variables, variables extrañas, confundidores o variables espurias) que
podrían haber ocurrido en presencia o en ausencia de la variable explicativa y ser
responsables el efecto observado.
La presencia de variables espurias o de confundido en una investigación reducirá
la validez interna de la investigación, mientras que su ausencia se asocia con alta validez
interna. La asignación aleatoria de unidades experimentales a tratamientos es por ello el
procedimiento metodológico más efectivo para lograr que un diseño tenga alta validez
interna, porque elimina los sesgos de selección y genera una situación donde es
improbable que existan efectos de confundido. Entre sus propiedades destacan (Anderson
et al., 1980) las siguientes:
a) La asignación aleatoria implica en general una distribución similar de las
características de los participantes en cada grupo, antes de administrar el tratamiento, y
por tanto facilita la inferencia causal en mayor medida cuanto mayor sea el tamaño
muestral.
b) La asignación aleatoria elimina el sesgo de selección. Si una muestra
seleccionada de una población se asigna a grupos mediante una regla de asignación
aleatoria, es bastante improbable que los sesgos de selección puedan intervenir. Aunque
es posible que ambos grupos no queden perfectamente equilibrados en alguna
característica antes de administrar el tratamiento, esta posibilidad es tanto menor cuanto
mayor es el tamaño de los grupos.
c) La asignación aleatoria proporciona un fundamento para la inferencia
estadística al equilibrar los grupos antes de la administración de los tratamientos.
Validez de la conclusión estadística y validez interna se relacionan estrechamente.
Ambas se ocupan de analizar las operaciones de causa y efecto respecto de los constructos
que se supone que representan. La validez de la conclusión estadística se interesa por los
errores que aparecen cuando se analiza la covariación estadística entre tratamiento y
respuesta, mientras la validez interna se interesa por los errores que se presentan cuando
se realizan inferencias causales.
4.3. Validez de constructo
Las teorías psicológicas se definen en términos de conceptos teóricos y
constructos hipotéticos que no pueden ser directamente observados o medidos. Con el fin
de ser sometidos a prueba empírica, los constructos abstractos tienen que ser traducidos
en indicadores tangibles susceptibles de observación y medida. Este proceso se denomina
operacionalización. La validez de constructo se refiere precisamente a la capacidad de
generalizar de indicadores tangibles a sus constructos de referencia, en otras palabras,
representa una forma de generalizabilidad de los resultados observados de un estudio
empírico al marco conceptual en que se inserta.
4.4. Validez externa
Se refiere a la cuestión de si un efecto observado en un contexto de investigación
puede ser observado en otros contextos, con diferentes participantes, con otros
tratamientos y respuestas distintas y con diferentes procedimientos de investigación.
Tiene que ver con la replicabilidad empírica del fenómeno, es decir, con la posibilidad de
que pueda ser reproducido en las mismas condiciones en que originalmente se produjo.
Se ocupa de aquellas situaciones donde suelen producirse interacciones
estadísticas que generan inferencias incorrectas de generalización de los resultados de un
estudio a diferentes personas, contextos, tratamientos y respuestas. En tales situaciones,
la investigación sólo es representativa de las personas, contextos, tratamientos y
respuestas empleados, lo que limita severamente su generalidad. Esta cuestión es
conceptualmente similar a la interacción estadística, porque básicamente consiste en
determinar si la relación causa-efecto es la misma en dos (o más) contextos diferentes, o
con dos (o más) tipos de participantes, etc.
a) Muestreo probabilístico o aleatorio: Proceso en el que se puede calcular de
antemano probabilidad que tiene cada elemento de integrar la muestra. Es el único tipo
de muestreo capaz de darnos el riesgo que cometemos en la inferencia, debido a que la
selección es aleatoria. Con él se obtiene una muestra representativa de la población.
-Muestreo al azar simple: procedimiento en el cual todos los elementos tienen la
misma probabilidad de ser seleccionados. Dicha probabilidad, conocida previamente, es
distinta de cero (0) y de uno (1). Ejemplo: Un docente, valiéndose de una lista, asigna un
número a cada uno de sus alumnos. Luego todos los números se introducen en una caja
para extraer, por sorteo, los integrantes de la muestra.
-Muestreo al azar sistemático: se basa en la selección de un elemento en función
de una constante K. De esta manera se escoge un elemento cada k veces. Ejemplo: Para
una población de 120 individuos, se define una muestra integrada por 30 sujetos. La
constante K obtenida al azar es igual a 4. Luego se asigna un número a cada uno de los
120 individuos y se calcula el valor de inicio con la siguiente fórmula: N/n, entonces
120/30= 4. Esto significa que comenzaremos seleccionando el número 4 al que se le
sumará la constante K=4, y así sucesivamente hasta obtener los treinta individuos que
conformarán la muestra definitiva: 4, 8, 12, 16,…
-Muestreo estratificado: consiste en dividir la población en subconjuntos cuyos
elementos posean características comunes, es decir, estratos homogéneos en su interior.
Posteriormente se escoge al azar en cada estrato. Ejemplo: En una institución de
educación superior, se divide la población por carreras o especialidades, las cuales
conformarán los estratos. Después se efectúa la selección aleatoria en cada una de ellas.
-Muestreo por conglomerados: parte de la división del universo en unidades
menores denominadas conglomerados. Más tarde se determinan los que serán objeto de
investigación o donde se realizará la selección.
b) Muestreo no probabilístico: Es un procedimiento de selección en el que se
desconoce la probabilidad que tienen los elementos de la población para integrar la
muestra. Está basado en criterios fijos, o por razones de accesibilidad. Éste se clasifica
en:
-Muestreo casual o accidental: es un procedimiento que permite elegir
arbitrariamente los elementos sin un juicio o criterio preestablecido. Ejemplo: Un
encuestador se ubica en un sector y aborda a los transeúntes que pasan por el lugar.
Lógicamente, las personas que no circulen por la zona, carecen de toda probabilidad para
integrar la muestra.
-Muestreo intencional u opinático: en este caso los elementos son escogidos con
base en criterios o juicios preestablecidos por el investigador. Ejemplo: Para un estudio
sobre estilos de crianza, previamente, se establecen como criterios de selección de la
muestra como: Padres casados con hijos de 2 a 5 años de edad.
-Muestreo por cuotas: se basa en la elección de los elementos en función de ciertas
características de la población, de modo tal que se conformen grupos o cuotas
correspondientes con cada característica, procurando respetar las proporciones en que se
encuentran en la población. Ejemplo: Se establecen como características importantes
para un sondeo de opinión, el sexo y la edad de la población. Luego se procederá a
seleccionar cuotas de hombres, mujeres, adolescentes y adultos.
INVESTIGACIÓN CIENTÍFICA
1. Conceptos básicos
1.1. Conocimiento científico
Se adquiere por la aplicación del método científico. El conocimiento científico es
un saber crítico (fundamentado), racional, metódico, verificable, provisional, sistemático,
objetivo, ordenado, comunicable (por medio del lenguaje científico), y que explica y
predice hechos por medio de leyes. La sistematización del conocimiento científico se
realiza a través de la elaboración de teorías.
1.2. Hipótesis científica
Es un enunciado teórico referido directa o indirectamente a acontecimientos no
sujetos hasta el momento a contrastación empírica y que es modificable a la luz de nuevos
datos. Las hipótesis son, por consiguiente, proposiciones tentativas acerca de la
naturaleza, que suelen formar parte de sistemas teóricos más amplios, es decir, de teorías.
Las hipótesis nacen del armazón teórico de una teoría, tienen el objetivo de enunciar
aspectos determinados relacionados con la teoría y de hacer que ésta sea contrastable
empíricamente.
1.3. Teoría científica
Podemos definir la teoría como una agrupación de esquemas conceptuales formados
por conjuntos de hipótesis con los que representamos el conocimiento científico de forma
sistematizada. En función de que las teorías sean adecuadas o no para explicar los
fenómenos de la naturaleza, se mantendrán vigentes o habrá que desecharlas o
transformarlas, originando nuevas formas de explicación de los acontecimientos, es decir,
nuevas teorías. Las teorías científicas también proporcionan las leyes que explican las
uniformidades que se observan en los hechos.
1.4. Ley científica
Es una hipótesis de amplio alcance explicativo que ha sido confirmada y que refleja
las regularidades de la naturaleza. Las leyes sintetizan nuestro conocimiento de los
fenómenos que son objeto de investigación y se funden en el esquema teórico de las
teorías, las cuales las engloban y tratan, a través de ellas, de entender y predecir dichos
fenómenos. No todas las hipótesis confirmadas pasan a ser leyes científicas. Para que esto
ocurra deben cumplirse tres características: 1) que expresen regularidades de
comportamiento bajo determinadas condiciones, 2) que sean universales (es decir,
aplicables a todos los elementos particulares que queden incluidos en el enunciado en el
enunciado de la ley) y 3) que establezcan una relación necesaria entre las condiciones
antecedentes y consecuentes de su enunciado.
Las teorías hacen uso de una serie de términos que son extraídos del lenguaje
común o de otras teorías científicas para describir los fenómenos observados en la
naturaleza. Son los llamados términos primitivos. Estos términos provienen de ámbitos
externos a la propia teoría y no es función de la misma definirlos, ya que pertenecen a
otras áreas de conocimiento en las que ya están definidos. Así, por ejemplo cuando en
Psicología hablamos de intensidad emocional estamos utilizando el término intensidad
importado de la física.
1.5. Constructos
Son conceptos son términos que pueden aparecer en las teorías, hipótesis o leyes y
que utilizamos para referirnos a variables que no son directamente observables. Adquirir
o generar un constructo consiste en extraer de todos los posibles ejemplos de la naturaleza,
las características que tienen en común, lo que redunda en la mejor organización de
nuestro conocimiento. La Psicología ha producido una gran cantidad de constructos que
intentan definir lo que hay bajo una serie de manifestaciones de la conducta. La utilización
de los constructos dentro de las teorías es más complicada que la de los términos
primitivos porque no están tan bien definidos al ser abstractos.
1.6. Modelo
Es una representación arbitraria de una parcela de la realidad que sirve para simular
su funcionamiento. Por ejemplo, si queremos investigar algo sobre el funcionamiento
cerebral podemos hablar en términos informáticos: si la mente fuese como un ordenador,
podríamos establecer la distinción entre las operaciones que hace la máquina, el
«software», y el soporte físico de tales operaciones, el «hardware». Este modelo o
metáfora, ha servido a la Psicología para adentrarse en la investigación de los procesos
internos. Conviene hacer hincapié en el hecho de que la representación que constituye el
modelo es metafórica.
Método científico
La mejor manera de definir al método científico es a través de sus características:
-Tiene una base empírica, es decir, es un proceso continuo de contrastación con los
hechos de la naturaleza al que deben someterse sus enunciados o hipótesis.
-Es perfectible según Delclaux (1987b), el modo de proceder del método científico
es gradual quedando sus conclusiones siempre sujetas a revisión, proporcionando
verdades parciales y no verdades completas y corrigiéndose a sí mismo, identificando sus
propios errores y buscando respuestas aún mejores.
- La sistematicidad: para que la investigación sea fiable y válida el proceso de
investigación debe ser sistemático y controlado.
- La fiabilidad o replicabilidad: un estudio debe ser fiable, es decir, debe ser
consistente y replicables sus métodos, condiciones y resultados; si se aplica el método de
forma correcta otro investigador debería llegar a los mismos resultados que nosotros
utilizando el mismo procedimiento.
- La validez: hace referencia tanto a la exactitud de la interpretabilidad de los
resultados (validez interna), como a la generalización de las conclusiones (validez
externa).
- La flexibilidad: el método se adapta al objeto de estudio de las diversas ciencias
En la evolución del método científico se han considerado diversas formas, que muy
esquemáticamente podemos caracterizar en:
- El método inductivo: considera que sólo se puede llegar al conocimiento a través
de la experiencia. Su punto de partida es la observación de la realidad para acumular
datos, ordenarlos y establecer a partir de ellos conclusiones o leyes generales aplicables
a todo el conjunto de observaciones.
- El método deductivo: se caracteriza por partir de un conjunto de axiomas o
principios indemostrables a los que se llega por procesos de razonamiento que no se
apoyan en observaciones empíricas y por establecer un conjunto de reglas de
procedimiento a partir de las cuales se realizan deducciones lógicas aplicables a los datos
reales.
- El método hipotético-deductivo: utiliza de forma combinada la inducción y la
deducción. La ciencia en su búsqueda de conocimiento necesita tanto de los datos
empíricos como de las teorías y el proceso de investigación científica puede comenzar
tanto desde una teoría como desde los datos. En la actualidad la mayor parte de las
disciplinas utiliza este método.
INVESTIGACIÓN CIENTÍFICA EN PSICOLOGÍA
1. Introducción
El carácter científico de la Psicología le lleva a asumir la estrategia general de la
ciencia: el método científico; que junto con la elaboración de teorías le permite avanzar
en su conocimiento. La psicología es una ciencia cuya finalidad es analizar y explicar la
conducta, ya sea entendida como el conjunto de acciones, cogniciones, intenciones y
procesos que llevan a cabo los organismos dotados de un sistema nervioso (Ardila, 2007)
o como la interacción organismo-ambiente propiamente dicha (Ribes y López, 1985).
Según Fontes et al. (2010) el proceso de investigación se inicia con hechos o ideas
que constituyen un problema u objeto de estudio y se pone en marcha con la intención de
dar explicación de ellos. Sin embargo, la Psicología, como ciencia particular, posee su
propio objeto de estudio y metodologías que, siguiendo los requisitos del método
científico, están adaptados a las peculiaridades de sus problemas estudio.
El método hipotético deductivo es la forma del método científico que
mayoritariamente se utiliza en Psicología. Este método se define por una serie ordenada
de fases o pasos que debe seguir el investigador. Estas etapas son:
a) Planteamiento del problema.
b) Formulación de hipótesis.
c) Diseño y plan de recolección de datos.
d) Análisis de datos.
e) Interpretación de los resultados.
f) Comunicación de resultados.
Estas etapas se corresponden con los tres niveles o fases descritos por Arnau (1990):
en el nivel teórico conceptual se incluyen las etapas del planteamiento del problema y de
la formulación de hipótesis, mientras que el segundo y tercer nivel –técnico metodológico
y estadístico-analítico- constituyen los aspectos propiamente metodológicos.
2. Fases del proceso de investigación
2.1. Nivel teórico-conceptual
En este nivel lo que más interesa es la selección del problema de investigación,
cómo se plantea un problema y cómo se hace la revisión bibliográfica sobre el mismo y
cómo se formulan las objetivos y/o hipótesis del problema de investigación (primarias y
secundarias) susceptibles de comprobación empírica en relación con el marco conceptual
donde se generó el problema.
2.2. Nivel técnico-metodológico
En este nivel se vinculan los planteamientos teóricos con la realidad empírica, ya
que en él se selecciona seleccionan los métodos o procedimientos para la recogida de
datos relevantes a las hipótesis (o estrategias y diseños de investigación), se describen la
definición de las variables experimentales (independiente/s y dependiente/s) y de las
variables extrañas o covariantes (observadas y no observadas), los procedimientos de
control de las variables extrañas, la selección y características de los sujetos participantes
junto con el tratamiento ético de los mismos, el proceso de asignación de participantes a
grupos, los instrumentos usados y el procedimiento específico seguido para la recogida
de los datos empíricos.
2.3. Nivel estadístico-analítico
Este nivel está constituido por el tratamiento estadístico de los datos obtenidos
mediante el diseño correspondiente. Se utilizan los procedimientos descriptivos e
inferenciales del análisis estadístico o se ajustan modelos estadísticos con el objeto de
realizar inferencias de tipo causal o asociativo sobre los datos empíricos recogidos. La
normativa APA recomienda que, además de los resultados de las pruebas estadísticas para
los efectos observados, se incluyan también medidas de magnitud del efecto, intervalos
de confianza y una descripción de los datos perdidos.
Existe de hecho una última fase, que retorna de nuevo a la primera (el nivel
conceptual), donde los resultados obtenidos se comparan con los objetivos planteados y
la/s hipótesis de investigación, articulándolos dentro de la teoría que generó el problema.
Es imprescindible que la interpretación de los resultados tenga en cuenta todas las
limitaciones detectadas en el estudio.
3. Etapas de la investigación científica en psicología
3.1. Planteamiento del problema
3.1.1. El problema
La fuente de los problemas, en general, radica en la existencia de una dificultad u
obstáculo que impide lograr algo. Por lo tanto, un problema es una situación que amerita
ser aclarada o resuelta. Toda investigación parte siempre de la identificación de un
problema que no se puede responder con los conocimientos existentes hasta el momento.
Llanos (2009) plantea que para que un problema sea científico es condición necesaria que
reúna las siguientes características esenciales:
a) Que tenga solución. Un problema es científico si tiene solución inmediata, a un
plazo corto, a un plazo mediano o a largo plazo; de lo contrario sería un pseudoproblema.
b) Que exista método científico para su solución. Y si no existiera, que sea posible
descubrir, inventar, diseñar o construir un método que permita su solución. Por método
se entienden ecuaciones, teorías, máquinas o instrumentos físicos.
c) Que tenga un referente ontológico que sea posible reconocer, identificar y ubicar
objetivamente. Es decir, si es un problema fáctico se deberá poder ubicar en algún punto
de alguna coordenada espacio-temporal, a través de indicadores claramente identificables
y reconocibles.
d) Que exista una necesidad real de solución. Una necesidad social o al menos de la
comunidad científica.
Cabe señalar que la resolución de un problema no significa que ahí acabe todo. Por
el contrario, la ciencia avanza en la medida en que un problema es capaz de generar
nuevos problemas.
3.1.2. El planteamiento y formulación del problema
El planteamiento del problema consiste en describir la situación objeto de estudio,
ubicándola en un contexto que permita comprender su naturaleza (Arias, 2012). Para esto,
es necesario la formulación del problema que vendría a ser la concreción del
planteamiento en una pregunta de investigación precisa y delimitada en cuanto a tiempo,
espacio, población y variables. Las preguntas de investigación son muy importantes
porque orientarán al investigador hacia las respuestas que se buscan con la investigación.
3.1.3. Variables
3.1.3.1. Definición
Una variable es una propiedad que puede asumir más de un valor y cuya variación
es susceptible de ser medida, observada o inferida. Por otro lado, las variables adquieren
valor para la investigación científica cuando llegan a relacionarse con otras variables, es
decir, si forman parte de una hipótesis o una teoría. En este caso, se les suele denominar
constructos (Hernández, Fernández y Baptista, 2014).
Ejemplos de variables psicológicas serían el cociente intelectual (Cl), la depresión,
estrés, etc. Según vimos, estos conceptos también son constructos, pero se les considera
variables cuando son definidas en términos explícitos y determinamos qué indicios son
los que nos permiten obtener una medida de ellos (Fonte et al, 2010).
3.1.3.2. Clasificación
Las variables pueden ser clasificadas de acuerdo con distintos criterios. Atendiendo
a la perspectiva metodológica, es decir, según el papel que las variables juegan en la
investigación, tendríamos tres tipos:
a) Variables Independientes: Son las variables que el experimentador decide
manipular, de acuerdo con su hipótesis, para estudiar sus efectos sobre otra.
b) Variables Dependientes: Este tipo de variable no se manipula, sino que se mide
para ver los efectos producidos por la manipulación de la variable independiente.
En definitiva, será variable independiente lo que se considere «causa» y variable
dependiente lo que se tome como «efecto» en la hipótesis de la que se parte.
c) Variables Extrañas: Son las variables ajenas a la relación buscada entre las dos
variables anteriores y que pueden influir en dicha relación; estas variables, procedentes
de los sujetos, del ambiente o de la situación experimental, que no siendo variables de
estudio (variables independientes) pueden incidir en la variable dependiente.
Otro criterio de clasificación y denominación de las variables está relacionado con
el nivel de medición que ha sido utilizado y de los valores categóricos o numéricos que
pueden proporcionar. Se describen y relacionan en el siguiente cuadro:
Nivel de medida Tipo de variable
Dicotómica (2 categorías)
Nominal Cualitativa
Politómica (>2 categorías)
Ordinal Cuasicuantitativa
Intervalo Discretas (Valores enteros)
Cuantitativa
Razón Continuas (Valores reales)
Cuadro 1. Equivalencia nivel de medida y tipo de variables
3.2. Formulación de la hipótesis
Luego del planteamiento del problema y la definición de variables, el investigador
deberá sugerir una respuesta, científicamente fundada, al problema. Aquí es donde toma
lugar la formulación de hipótesis que consiste en ofrecer a partir de los supuestos teóricos
una predicción tentativa del problema objeto de estudio, de forma que se pueda contrastar
con los datos obtenidos.
3.2.1. Hipótesis
En el ámbito de la investigación científica, las hipótesis son proposiciones tentativas
acerca de las relaciones entre variables y se apoyan en conocimientos organizados y
sistematizados; es natural que las hipótesis surjan del planteamiento del problema y la
teoría. Las hipótesis pueden ser más o menos generales o precisas, y abarcar dos o más
variables; pero en cualquier caso son sólo afirmaciones sujetas a comprobación empírica.
Asimismo, las variables o términos de la hipótesis deberán ser comprensibles, precisos y
lo más concretos que sea posible (Hernández, Fernández y Baptista, 2014). De este modo,
las hipótesis cumplen una doble función: epistemológica, ya que permiten relacionar las
teorías con los hechos de la naturaleza; y metodológica, porque orientan todo el proceso
de la investigación (Fontes et al., 2010).
3.2.2. Tipos de hipótesis
Como se dijo anteriormente, luego de definir el problema y proceder a su estudio
empírico es necesario crear lo que se suele denominar una hipótesis de trabajo. Esta
hipótesis es una forma muy concreta de expresar una relación que se espera entre las
variables, de manera que se pueda pasar inmediatamente a contrastarla, o sea, compararla
con los hechos.
En las investigaciones con una estrategia cuantitativa, la estadística juega un papel
crucial pues nos permite decidir si una hipótesis es o no compatible con los datos. Para la
contrastación estadística a partir de la hipótesis de trabajo se formulan las hipótesis
estadísticas:
a) Hipótesis nulas: constituyen proposiciones acerca de la relación entre variables,
sólo que estas niegan lo que afirma la hipótesis de investigación.
b) Hipótesis alternativa: son posibilidades alternas de las hipótesis de investigación
y nula: ofrecen una descripción o explicación distinta de las que proporcionan éstas.
3.2.2. Contrastación de hipótesis
Contrastar una hipótesis es oponer, contraponer, comparar o confrontar lo que dice
la hipótesis con los hechos a que se refiere la hipótesis, para ver si los hechos la verifican,
la confirman o la falsan (Llanos, 2009). Debemos tener en cuenta que una hipótesis nunca
se puede probar, sólo se puede contrastar. Esto quiere decir que si la hipótesis se ve
apoyada por los datos se acepta y, temporalmente, se sigue manteniendo como verdadera.
No obstante, si esto no es así, se rechaza y otra hipótesis se asume como cierta. La decisión
sobre aceptar o rechazar la hipótesis, se hace con un cierto margen de error o nivel de
confianza, que es una probabilidad (Fontes et al, 2010).
Así pues, los enunciados científicos siempre se plantean de forma provisional, hasta
que los datos demuestren lo contrario. Esto debido a que la naturaleza misma del método
científico impide la confirmación final de las hipótesis fácticas, ya que la verificación es
incompleta y por eso temporaria (Bunge, 1997).
3.3. Estrategia para la recogida de datos
Esta etapa supone tomar decisiones sobre el diseño de investigación y sobre las
técnicas de recogida de datos. En esta etapa el investigador deberá decidir qué clase de
datos necesita recoger (edad de los sujetos, respuestas a un cuestionario, medidas
psicofisiológicas, etc.) y con qué instrumentos o técnicas debe recogerlos, eligiendo
instrumentos existentes o elaborando instrumentos propios. Es decir, tendrá que tomar
decisiones sobre el procedimiento (grupos a formar, materiales a utilizar, tarea a realizar,
cómo se van a medir y controlar las variables extrañas, etc.) que mejor se ajuste a sus
objetivos dentro de la estrategia de investigación con la que se desarrolle el estudio
(véase Ato, López y Benavente, 2013).
3.3.1. Diseño de investigación
El diseño de investigación está vinculado con la elección y especificación del
procedimiento para la obtención de datos que permitan contrastar la hipótesis de
investigación. (Fontes et al, 2010). Estas decisiones toman sentido en su conjunto para
responder a un objetivo específico de la investigación.
El diseño de investigación se encarga de aspectos cruciales del proceso de
investigación tales como la selección y asignación de los participantes y el control de
las variables extrañas potenciales presentes en el contexto de investigación. (Ato, López
y Benavente, 2013).
La decisión sobre qué diseño específico hemos de seleccionar o desarrollar depende
del planteamiento del problema, el alcance del estudio y las hipótesis formuladas.
3.3.1.1. Selección y descripción de la muestra
Una característica del conocimiento científico es la generalidad, ya que la ciencia
busca extender sus resultados en pautas generales. El científico se ocupa del hecho
singular en la medida en que este es miembro de una clase o caso de una ley (Bunge,
1997). En este sentido, una investigación buscará estudiar un conjunto numeroso de
elementos, pero para esto es necesario especificar la población objetivo, la cual quedará
delimitada por el problema y por los objetivos del estudio.
La población, es un conjunto finito o infinito de elementos con características
comunes para los cuales serán extensivas las conclusiones de la investigación. Cuando
por diversas razones no se puede abarcar la totalidad de los elementos que conforman la
población, se recurre a la selección de una muestra, la cual es un subconjunto
representativo y finito que se extrae de la población (Arias, 2012).
El muestreo es el proceso mediante el cual se selecciona una muestra de una
población con el fin de obtener una muestra lo más semejante posible a la población y así
obtener estimaciones precisas (Garriga et al, 2009). Resulta importante determinar que la
muestra tenga representatividad en el tamaño y que refleje la misma estructura de la
población, esto permitirá generalizar los resultados al resto de la población.
Existen dos tipos básicos de muestreo: Probabilístico o aleatorio y no probabilístico.
a) Muestreo probabilístico o aleatorio: Proceso en el que se puede calcular de
antemano la probabilidad que tiene cada elemento de integrar la muestra. Es el único tipo
de muestreo capaz de darnos el riesgo que cometemos en la inferencia. Se clasifica en:
-Muestreo al azar simple: procedimiento en el cual todos los elementos tienen la
misma probabilidad de ser seleccionados. Dicha probabilidad, conocida previamente, es
distinta de cero (0) y de uno (1). Ejemplo: Valiéndonos de una lista estudiantes,
asignamos un número a cada uno de ellos. Luego todos los números se introducen en una
caja para extraer, por sorteo, los integrantes de la muestra.
-Muestreo al azar sistemático: se basa en la selección de un elemento en función
de una constante K. De esta manera se escoge un elemento cada k veces. Ejemplo: Para
una población de 100 individuos, se define una muestra integrada por 50 sujetos. La
constante K obtenida al azar es igual a 3. Luego se asigna un número a cada uno de los
250 individuos y se calcula el valor de inicio con la siguiente fórmula: N/n, entonces
250/50= 5. Esto significa que comenzaremos seleccionando el número 4 al que se le
sumará la constante K=3, y así sucesivamente hasta obtener los cincuenta individuos que
conformarán la muestra definitiva: 5, 8, 11, 13,…
Los muestreos señalados anteriormente deben utilizarse cuando existe
homogeneidad en la población. Por otro lado, cuando existen grupos o subpoblaciones
heterogéneas, disponemos de:
-Muestreo estratificado: consiste en dividir la población en subconjuntos cuyos
elementos posean características comunes, es decir, estratos homogéneos en su interior.
Posteriormente se escoge al azar en cada estrato.
-Muestreo por conglomerados: parte de la división del universo en unidades
menores denominadas conglomerados. Más tarde se determinan los que serán objeto de
investigación o donde se realizará la selección.
b) Muestreo no probabilístico: Es un procedimiento de selección en el que se
desconoce la probabilidad que tienen los elementos de la población para integrar la
muestra y se selecciona la muestra más representativa en base a criterios del investigador
o aquella a la que se tenga mayor accesibilidad. Esto no quiere decir que con un muestreo
no-probabilístico no podamos obtener, en determinados casos, muestras representativas
de la población pero no tendremos ninguna garantía de que eso sea así y no podremos
realizar inferencias a la población. Este se clasifica en:
-Muestreo casual o accidental: es un procedimiento que permite elegir
arbitrariamente los elementos sin un juicio o criterio preestablecido.
-Muestreo intencional u opinático: en este caso los elementos son escogidos con
base en criterios o juicios preestablecidos por el investigador.
-Muestreo por cuotas: se basa en la elección de los elementos en función de ciertas
características de la población, de modo tal que se conformen grupos o cuotas
correspondientes con cada característica, procurando respetar las proporciones en que se
encuentran en la población.
3.3.1.2. Control de variables extrañas
En ocasiones el efecto de variables extrañas pueden distorsionar sistemáticamente
los resultados. Un problema que se plantea en investigaciones es el problema del
confundido, en otras palabras, la intromisión del efecto de una variable extraña (p. ej., Z)
en una relación aparentemente estable entre dos variables. El efecto de Z puede confundir
la relación estudiada. Esta situación está provocada por la existencia de variables extrañas
no controladas relacionadas con X y/o con Y. Si el investigador no tiene conocimiento de
ellas, la interpretación del efecto puede resultar confundida. De ahí la importancia de que
el investigador sepa reconocer la presencia de confundidores e introduzca técnicas de
control apropiadas para corregir sus efectos (véase Ato y Vallejo, 2015).
3.3.2. Aparatos, instrumentos y materiales
Una vez que seleccionamos el diseño de investigación apropiado de acuerdo con
nuestro problema de estudio e hipótesis, la siguiente etapa consiste en recolectar los datos
pertinentes sobre los atributos, conceptos o variables de las unidades de muestreo. Con la
finalidad de recolectar datos disponemos de una gran variedad de instrumentos o técnicas.
La elección de los instrumentos y/o materiales de la investigación estará en función
de la naturaleza de las variables del estudio, los objetivos de la investigación, etc. En
cuanto a los aparatos a utilizar deben considerarse las distintas opciones disponibles, la
fiabilidad del aparato, así como sus prestaciones y su coste.
3.3.2.1. Medición de variables
Medir es asignar números, de forma congruente, a los fenómenos observados. Es
decir, que las relaciones que se dan en el mundo numérico preserven exactamente las
relaciones que se observan en el mundo empírico. Solo serán válidas aquellas relaciones
numéricas que puedan ser verificables empíricamente. En el caso de la Psicología, la
medición es la asignación de números a objetos o características, mediante una serie de
reglas, que permiten operacionalizar la conducta (Fonte et al, 2010).
La operacionalización se refiere al proceso mediante el cual se transforma la
variable de conceptos abstractos a términos concretos, observables y medibles, es decir,
dimensiones e indicadores (Arias, 2012). En este proceso, el instrumento de medición o
de recolección de datos tiene un papel central.
Existe una gran gama de posibilidades de instrumentos a utilizar, por lo que habrá
que considerar, por ejemplo si son test o cuestionarios estandarizados, su fiabilidad y
validez. Asimismo, cabe señalar la importancia de las condiciones en que se aplicarán
como el momento, lugar, quién lo hará, etc. (Fontes et al, 2010).
La fiabilidad de un instrumento de medición se refiere al grado en que su aplicación
repetida al mismo individuo u objeto produce resultados consistentes y coherentes,
mientras que la validez, en términos generales, se refiere al grado en que un instrumento
mide realmente la variable que pretende medir (Hernández, Fernández y Baptista, 2014).
Una cuestión básica respecto a las variables que deben considerarse al momento de
construir un instrumento es establecer el nivel o escala de medición. Atendiendo a las
relaciones que se pueden verificar empíricamente entre las modalidades de los objetos o
características pueden distinguirse cuatro escalas de medición, entendiendo estas como
un conjunto de reglas o modelos desarrollados para la asignación de números a los valores
de las variables (Garriga et al, 2009):
a) Escala nominal: Se caracteriza porque con ella sólo pueden representarse, y
aceptarse como válidas, las relaciones de igualdad-desigualdad. En otras palabras, lo
que se mide se coloca en una u otra categoría, por lo que tan sólo se indica diferencias
respecto de una o más características.
En este nivel de relaciones empíricas (igualdad-desigualdad), los números son
simples símbolos y no tiene sentido realizar con ellos operaciones matemáticas tales como
sumar, restar, multiplicar o dividir.
El tipo de transformación admisible que se puede aplicar en esta escala será
cualquiera que preserve las relaciones de igualdad-desigualdad de los objetos respecto a
una determinada característica (por ejemplo, respectos al sexo, a la mujer se le puede
asignar el 1 y al hombre el 2).
b) Escala ordinal: En este nivel hay varias categorías, pero además mantienen un
orden de mayor a menor. Las etiquetas o los símbolos de las categorías sí indican
jerarquía. Por ejemplo, las relaciones observadas en los minerales presentan, además de
la igualdad-desigualdad, una ordenación en función del grado de dureza.
Con los valores asignados a las categorías de una variable medida a nivel ordinal,
al igual que ocurría a nivel nominal, tampoco podemos realizar operaciones aritméticas
porque no tiene sentido el resultado de estas operaciones.
Formalmente, si la magnitud de la característica de un objeto es igual que la de otro,
se le asigna el mismo número. Si es mayor, se le asigna un número mayor y si es menor,
un número menor. Las transformaciones que admite la escala ordinal son las que
preserven el orden de magnitud, creciente o decreciente, en que los objetos presentan
determinada característica.
c) Escala de intervalo: Si además de la posibilidad de evaluar la igualdad-
desigualdad de los objetos y la mayor o menor magnitud que presenten, se puede contar
con alguna unidad de medida, aunque ésta sea arbitraria, se permitirá establecer
intervalos iguales en la medición. Esto quiere decir que las distancias entre categorías
serán las mismas a lo largo de toda la escala, por lo cual se puede medir la distancia
existente entre cada valor de la escala.
Sin embargo, en este nivel de medición el cero (0) es arbitrario, no es real, ya que
se asigna arbitrariamente a una categoría el valor de cero, la cual no significa carencia
absoluta de la característica medida. Debido a esto, este nivel de medición permite utilizar
solo operaciones de suma y resta.
Por ejemplo, para la escala Celsius se introduce en agua destilada una varilla de
cristal con mercurio en su interior y se enfría hasta el nivel de congelación. En ese punto
de la varilla se marca el 0. Esta unidad de medida y el origen de la escala son arbitrarios
(el cero no significa ausencia de temperatura, sino la temperatura de congelación del agua
destilada). Luego se procede a calentar el agua hasta la temperatura de ebullición y se
marca hasta donde ha ascendido el mercurio con un 100. El espacio entre el 0 y el 100 se
divide en 100 partes iguales y cada parte será 1 °C.
d) Escala de razón: En este nivel, además de tenerse todas las características del
nivel de intervalos, el cero es real y absoluto. Cero absoluto implica que hay un punto en
la escala donde está ausente o no existe la propiedad medida. Esto permite que se pueda
hacer cualquier operación aritmética.
Formalmente, si la razón entre las magnitudes entre dos objetos es igual a otra razón,
entonces también las razones entre los números asignados serán iguales, y mayores y
menores, respectivamente.
Por lo que se ha podido ver, el nivel de medida de una variable que se obtiene con
cada escala condiciona el tipo de operaciones matemáticas que se puedan llevar a cabo
con esas variables y, por añadidura, el cálculo de estadísticos. Por tanto, el nivel de
medida es uno de los criterios determinantes a la hora de seleccionar los contrastes de
hipótesis más apropiados para los datos de la investigación (Fontes et al, 2010).
3.1.4. Análisis de datos
Después de la recolección de los datos, procedemos a su análisis mediante técnicas
estadísticas. La Estadística se utiliza como tecnología al servicio de las ciencias donde la
variabilidad y la incertidumbre forman parte de su naturaleza. De este modo, la estadística
se ocupa de la recogida, sistematización y presentación de los datos referentes a un
fenómeno que presenta variabilidad o incertidumbre para su estudio metódico (Garriga
et al, 2009).
En general, cuando disponemos de un conjunto de datos debemos proceder a
resumirlos, buscar regularidades y considerar las posibilidades de generalización a la
población desde la muestra (proceso de inferencia). Los contenidos presentados, a nivel
introductorio en muchos casos, responden a las dos partes fundamentales que se
consideran en el análisis de datos: descriptiva e inferencia.
Es importante volver a recalcar que las diferentes decisiones del diseño y de
planificación de una investigación afecta a diversas etapas del proceso. El procedimiento
de recogida de datos utilizado determinará, en gran parte, las técnicas posibles para
analizar los datos. Los análisis de los datos dependen esencialmente de tres factores
(Hernández, Fernández y Baptista, 2014):
a) El nivel de medición de las variables.
b) La manera como se hayan formulado las hipótesis.
c) El interés analítico del investigador (que depende del planteamiento del
problema).
Distribución de frecuencias
Una distribución de frecuencias es una representación de un conjunto de
puntuaciones respecto de una variable ordenadas en sus respectivas categorías
(Hernández, Fernández y Baptista, 2014). Según Garriga et al (2009) los aspectos más
relevantes que se deben analizar en toda distribución de frecuencias teniendo en cuenta
sus propiedades básicas son:
a) Las medidas de tendencia central son puntos en una distribución obtenida que
se refiere al lugar donde se centra una distribución particular en la escala de valores. Esto
nos ayuda a tener un valor central que actúe como resumen numérico para representar al
conjunto de datos.
b) Las medidas de la variabilidad indican la dispersión de los datos en la escala de
medición de la variable considerada. La variabilidad hace referencia al grado en que las
puntuaciones se asemejan o diferencian entre sí, o se aproximan o alejan de una medida
de tendencia central. De este modo, cuanto menor es la variabilidad en una distribución,
más homogénea es la muestra de sujetos en la variable que estamos midiendo.
Las medidas de tendencia central son valores en una distribución y las medidas de
la variabilidad son intervalos que designan distancias o un número de unidades en la
escala de medición.
c) La asimetría nos indica el grado en el que las puntuaciones de los sujetos se
reparten por debajo y por encima de la medida de tendencia central. Una distribución será
simétrica cuando al dividirla en dos a la altura de la media, las dos mitades se superponen.
Esto permite conocer cuánto se parece una distribución a la distribución teórica llamada
curva normal o campana de Gauss y dónde se concentran las puntuaciones.
En general, cuando disponemos de un conjunto de datos debemos proceder a
resumirlos, buscar regularidades y considerar las posibilidades de generalización a la
población desde la muestra (proceso de inferencia).
Lo primero que debemos hacer con los datos es resumirlos para que resulten
manejables y sobre todo más informativos. Esta tarea le corresponde a la estadística
descriptiva.
La estadística inferencial va más allá de describir de forma organizada los datos
obtenidos en la muestra del estudio, nos permite considerar las posibilidades de
generalización a la población desde la muestra.
Para contrastar la hipótesis de que las medias de dos grupos son distintas, se calcula
un valor, denominado estadístico de contraste, y que se distribuye de acuerdo a algún
modelo de probabilidad. El estadístico de contraste, en general se plantea como una
medida estandarizada de la discrepancia que hay entre la hipótesis de partida (nula) que
se hace sobre la población (en este caso la hipótesis nula sería que las medias son iguales)
y el resultado de la diferencia de medias obtenido en la muestra. Como criterio de
decisión, si la probabilidad de obtener un estadístico de contraste con un valor tal (el
obtenido en el estudio) es menor que una cierta cantidad (generalmente 0,05 o 0,01), se
rechaza la hipótesis nula de ausencia de diferencias, por lo que se asume como resultado
(provisionalmente) que existen diferencias entre los grupos y, por tanto, que hay efecto
de la variable independiente. En el caso contrario, en el que la probabilidad resulta mayor
que el valor límite asumido, se mantiene la hipótesis nula de que en la población las
medias son iguales, y por tanto no podemos concluir que las diferencias encontradas entre
los grupos sean significativas y en consecuencia no se atribuyen efectos relevantes a la
variable independiente.
La elección del estadístico de contraste más adecuado para analizar nuestros datos
se basará en los objetivos del análisis y en la comprobación de que los datos cumplen un
conjunto de supuestos o características. Entre ellos se encuentran:
a) El nivel de medida y el tipo de variables. Por lo general, niveles de escala de
medida más altos permiten aplicar técnicas estadísticas más potentes. Por tanto, debemos
tender a medir en el nivel más alto posible para disponer de más información y más
posibilidades de trabajo con los datos, ya que los niveles de medida altos incluyen a los
bajos, pero no al revés;
b) La independencia/dependencia de las observaciones. Puntuaciones procedentes
de participantes por lo general proporcionan medidas independientes (puntuaciones de
un sujeto que no proporciona información sobre, ni condiciona la puntuación de otro
sujeto cualquiera; son observaciones independientes), mientras que dos medidas de
misma variable proporcionada por los mismos participantes, tomada en dos momentos o
condiciones distintas, son medidas que se consideran dependientes o relacionadas, ya que
la fuente de medidas es la misma, los mismos individuos.
c) Aspectos de la distribución: el ejemplo más conocido es la distribución de la
variable dependiente según la curva normal.
En función de que nuestros datos cumplan unos u otros podremos elegir entre los
llamados contrastes paramétricos y no paramétricos. Los contrastes paramétricos son los
más utilizados en la investigación empírica. Permiten contrastar hipótesis referidas a
algún parámetro (por ejemplo la media o varianza poblacional pero su aplicabilidad se ve
reducida, fundamentalmente por dos razones: 1) requieren del cumplimiento de algunos
supuestos (Generalmente normalidad y distribución homogénea de las varianzas u
homocedasticidad) que en ocasiones pueden resultar demasiado exigentes y 2) es
necesario trabajar con unos niveles de medida (escala de intervalo o de razón) que,
especialmente en disciplinas como la Psicología, no siempre resulta fácil de alcanzar. Por
otro lado tenemos los contrastes no paramétricos que son los que nos permiten poner a
prueba hipótesis no referidas a un parámetro poblacional, que no necesitan establecer
supuestos exigentes sobre las poblaciones originales de donde se muestrea, y por último,
que no necesitan trabajar con datos obtenidos con una escala de medida de intervalo o
razón.
Las pruebas estadísticas nos ayudan a aceptar o rechazar nuestras predicciones. Nos
sirven para detectar la probabilidad de que los resultados obtenidos reflejen un efecto
significativo y no sean producto del azar. De manera convencional se ha establecido el
95% de confianza como el umbral mínimo (no es un resultado al azar) para rechazar la
hipótesis nula cuando es falsa. El modo opuesto de mirar esto es decir que hay un 5% o
una probabilidad de 0,05 de riesgo de que un resultado que estamos asumiendo como
cierto (que supone un efecto relevante) ocurra por azar.
3.1.5. Interpretación de los resultados
Esta etapa supone interpretar los resultados obtenidos procediendo a su discusión y
extraer las conclusiones de la investigación. Después de analizar los datos, se interpretan
los resultados obtenidos de acuerdo a los supuestos teóricos bajo los cuales se ha
propuesto la investigación. Para ello, hay que vincular los resultados del análisis de los
datos con las hipótesis de la investigación, con las teorías y con los conocimientos ya
existentes y aceptados en el tema. En un primer momento, los resultados se deben
interpretar en cuanto a la magnitud del efecto obtenido y las tendencias o regularidades
observadas. En un segundo momento se deben comparar estos resultados con los
obtenidos por otros investigadores en trabajos semejantes.
Profundizando un poco en lo dicho en el párrafo anterior, el autor debe explicar qué
significado tienen los resultados respecto a las hipótesis planteadas. No se trata sólo de
describir los resultados en unas conclusiones, sino además se realizará una discusión en
la que se pondrán en relación los hallazgos con las hipótesis formuladas, los modelos
teóricos y las investigaciones afines. Debe evitarse incluir elementos diferentes y nuevos
que no se contemplaron en las hipótesis, extrapolando más allá de la población definida
en el estudio, ni realizar conclusiones no justificadas por los hallazgos. Es en el momento
de la discusión cuando además se deben señalar las implicaciones y la utilidad de los
descubrimientos, interpretando desde diversos puntos de vista, siempre desde el marco de
las hipótesis planteadas. También se debe hacer un análisis crítico de las limitaciones del
estudio. El autor deberá acabar la discusión sugiriendo nuevas vías de investigación,
reconociendo las limitaciones de su propio trabajo y evaluando el alcance los logros
conseguidos. Es definitiva, la interpretación debe terminar con unas conclusiones claras
sobre el trabajo realizado.
3.1.6. Comunicación de los resultados
Todos los trabajos deben acabar con la redacción de un informe escrito u oral que
comunique lo realizado y las conclusiones obtenidas. La redacción del informe es muy
importante en cualquier trabajo porque es donde el investigador transmite a la comunidad
científica lo que ha hecho y cómo lo ha hecho. Se debe exponer de forma sintética, clara
y comprensible tanto los métodos empleados como los resultados de la investigación, con
el fin de poder recibir una evaluación crítica de la misma y que con ello se enriquezca el
saber científico.
La comunicación de los resultados comprende tanto las ponencias a congresos o
reuniones científicas, nacionales o internacionales, como la redacción de un informe o
artículo sobre la investigación para publicar en una revista, libro o sencillamente para
rendir cuentas ante los promotores del estudio.
4. Estructura del informe de investigación
Los puntos prefijados para redactar un informe no son exactamente los mismos
siempre, ya que dependen del tipo de investigación y de la ciencia estudiada. Por ejemplo,
la redacción de un informe cualitativo tiene ciertas características propias como: la
ausencia de hipótesis específicas y cuantificables que someter a prueba, la precisión de la
definición de las variables, la inclusión de una sección sobre la reflexividad, etc.
A pesar de las individualidades de cada metodología, hay una estructura común a
todo informe de investigación:
4.1. Título, autor/es y filiación
Indica el objetivo de la investigación, es decir, responde a la pregunta «de qué trata
el estudio», por lo que debe contener las principales variables implicadas en la
investigación, ser breve (entre 10 y 12 palabras) y conciso (no proporcionar más
información de la necesaria).
Otro componente del manuscrito es la información relativa al autor/es y a la
filiación del mismo/s, es decir, su nombre/s y la/s institución/es a la/s que pertenece/n
(universidad, instituto o empresa). Respecto a los nombres, primero aparece el nombre
completo y luego el apellido (e. g. Andy Field, y no A. Field ni Field, A.), omitiendo su
título o grado (e. g. Dr., profesor, etc.). El orden de aparición de los autores es según su
grado de contribución.
4.2. Resumen o abstract
Es la síntesis de la investigación. Consta de un párrafo (en torno a 120 palabras)
que contiene información sobre: a) el problema que se investiga; b) el método empleado,
incluyendo las pruebas y aparatos utilizados, el procedimiento de recogida de datos y las
características de los participantes; c) los resultados, y d) las conclusiones.
Todos aquellos escritos presentados en habla no inglesa, necesitan incluir junto con
el resumen, un abstract, es decir, una traducción del resumen al inglés.
Muchas revistas requieren en su publicación que el autor designe explícitamente un
conjunto de cuatro a ocho palabras clave (keywords) o términos que describen el
contenido principal del documento. Estas palabras clave, junto con las que aparecen en el
título y en el resumen, van a ser de suma importancia para la utilización de motores de
búsqueda en Internet.
4.3. Introducción
En esta sección se responde a las cuestiones Qué se hizo y Por qué. En primer lugar
se describe, de manera general, el problema que se aborda en la investigación. Para poder
realizar este objetivo, se recurre a la revisión bibliográfica de investigaciones precedentes
sobre la misma temática, donde se seleccionarán aquellos estudios que están relacionados
de manera más directa con nuestra investigación, citando las contribuciones de otros
autores que nos han ayudado al entendimiento del problema a investigar. Lo que debe
proporcionar esta sección es la línea de ubicación del estudio, la relación entre la
investigación y los estudios previos relacionados. Esta manera de realizar la introducción
facilita la justificación de la investigación al reflejar la falta de solución existente al
problema estudiado. Pero en la justificación también es muy importante, aunque difícil,
poder aportar argumentos sobre la relevancia del estudio, es decir, cómo la investigación
ayudará, de forma notable, a la solución del problema investigado. Por ello, es
recomendable que en este apartado se anticipen las posibles consecuencias o aplicaciones
de lo que se espera encontrar tras el estudio.
Además de introducir el problema a estudiar y justificar la investigación, al final de
este apartado de Introducción se deben expresar formalmente las predicciones de la
investigación, o lo que es lo mismo, se deben presentar las hipótesis, aunque en muchas
ocasiones no se lleguen a explicitar, concluyendo el apartado en un último párrafo con
los objetivos de la investigación. Lo que se debe plasmar en la Introducción son las
hipótesis de trabajo, en las cuales se refleja la dirección o sentido del cambio que
esperamos encontrar.
Debemos tener en cuenta, cara a la citación de trabajos, que cuando estos tienen
doble autoría cada vez que se presente la referencia dentro del texto se deben citar a ambos
autores. Si el trabajo tiene tres, cuatro o cinco autores se deben citar todos la primera vez
que se presenta la referencia, pero en las citas subsecuentes deberá aparecer únicamente
el apellido del primer autor seguido de «et al .». Si el trabajo tiene seis autores o más,
desde la primera cita solo hay que poner el apellido del primer autor seguido de et al. y
del año de publicación.
4.4. Método
En este apartado se describe detalladamente cómo se ha desarrollado la
investigación, es decir, el investigador responde a la pregunta Cómo se hizo. Una buena
redacción del Método servirá para que otros investigadores puedan replicar el estudio,
además de facilitar el evaluar la calidad del mismo (su fiabilidad y validez). Es habitual,
aunque no necesario, dividir este apartado en:
4.4.1. Participantes
En este apartado se aporta la información necesaria sobre las personas o animales
que participaron en la investigación: quiénes; cuántos; a qué población pertenecen; en el
caso de personas, sus características sociodemográficas de interés para el estudio (edad,
sexo, nivel de estudios, etc.); cómo se seleccionaron, etc. También recibe el nombre de
muestra, ya que se explicita cómo está formada la misma (participantes, selección, etc.).
4.4.2. Materiales/aparatos/instrumentos
En este apartado se detalla el equipamiento utilizado, es decir, se describen los
aparatos (e. g., equipos mecánicos) o materiales (e. g., cuestionarios y test) utilizados, así
como su papel en la investigación (justificación de su utilización). Si los instrumentos
utilizados son nuevos (e. g., se ha diseñado un cuestionario para la investigación) se deben
describir de forma exhaustiva e independiente (se puede recurrir incluso a un anexo para
presentar la prueba).
4.4.3. Procedimiento
En este apartado se describe paso a paso cómo se realizó la investigación, desde el
principio hasta el final de forma cronológica. Debe facilitarse información sobre cómo
eran las condiciones experimentales, si todos los participantes se expusieron a ellas en el
mismo orden o el orden de presentación fue aleatorio, si las evaluaciones se llevaron a
cabo de forma individual o en grupo, cuál fue el intervalo entre dos experimentos, etc. Es
importante proporcionar las instrucciones dadas a los sujetos, incluso se puede considerar
la posibilidad de incluirlas en un anexo (aunque si son simples o familiares no será
necesario).
4.5. Resultados
Esta es la tercera sección más importante del informe de investigación y responde a
la pregunta Qué se encontró (donde además se incluyen los detalles de cómo se
analizaron los datos). En esta sección se muestran los datos obtenidos de forma resumida,
ya que los datos en bruto no se incluyen en el informe de investigación propiamente dicho
aunque, en caso de estar interesados en ellos, se pueden solicitar al autor por medio de
correspondencia privada. Por ello, y para presentar los resultados más relevantes del
estudio recurrimos: a) por un lado, a la estadística descriptiva (e. g., índices de tendencia
central y de dispersión, como son la media y la desviación típica) que nos sirven para
resumir los datos, y b) por otro, a la estadística inferencial que nos aporta información
sobre la falsación o no de nuestras hipótesis nulas tras la realización de los análisis
pertinentes. Cuando nos servimos de la estadística inferencial debemos aportar datos
relativos: al nombre de la prueba aplicada (sin que sea necesario justificar la elección de
la misma); a los grados de libertad; al valor que se obtuvo del estadístico de prueba; a la
significación estadística alcanzada y; además, también es conveniente, incluir
información sobre el tamaño del efecto y la potencia del contraste.
El Manual de estilo APA nos da una serie de indicaciones para plasmar los datos
estadísticos en el texto. Dada la limitación de tiempo y espacio a la que estamos
sometidos, solo veremos la forma de reflejar dichos datos para dos de las pruebas
estadísticas más empleadas, la prueba t y la X2. En concreto, para la prueba de t se pondría
de la siguiente forma: «t (grados de libertad) = valor del estadístico, nivel de significación
estadística», es decir, por ejemplo t (38) = 3,492, p < .05. Si queremos representar los
datos de una prueba X2 seguiríamos la siguiente expresión: «X2 (grados de libertad,
tamaño de la muestra) = valor del estadístico, nivel de significación estadística., por
ejemplo X2 (2, 2861) = 9,23, p < .01.
Es destacable el uso de tablas y figuras para mejorar la claridad expositiva de los
Resultados, pero éstas no son «autosuficientes » en el sentido de que es necesario resaltar
en el texto los datos más relevantes o significativos que aparecen en ellas, ya que son
recursos complementarios pero no sustitutivos de lo que expresamos con palabras. Por lo
tanto, hay que recordar que cuando se empleen estos recursos deben ser comentados
brevemente en el texto y no introducirlos en el escrito sin ninguna explicación.
4.6. Discusión y conclusiones
El último de los cuatro apartados esenciales del informe de investigación responde
a la cuestión Qué significado tienen los resultados obtenidos. Esto no significa que se
repita lo dicho en el apartado Resultados, sino que se deben conectar los resultados
obtenidos con los que se señaló en la Introducción que se esperaban encontrar, es decir,
con la expresión formal de las predicciones o hipótesis. Debe aportar una interpretación
a sus resultados o hallazgos.
Se puede comenzar explicando sus principales hallazgos, describiendo cómo estos
apoyan o no sus hipótesis originales. Si sus resultados no permiten rechazar la hipótesis
nula, también debe quedar reflejado en este apartado, es decir, no solo se habla de los
resultados esperados o favorables sino también de los datos que, por el momento,
permiten mantener la hipótesis (este puede ser el origen de otra investigación).
Es importante que comentemos las semejanzas y diferencias con otras
investigaciones previas sobre la misma temática, intentando dar una explicación
constructiva. No es conveniente añadir nuevos estudios en este apartado, sino que es
preferible basarnos en los citados en la Introducción, aunque se podría incluir, de forma
excepcional, alguna nueva referencia.
Es aconsejable terminar con un párrafo breve y rotundo donde se explique cómo ha
solucionado el problema planteado en la investigación y cuál ha sido la principal
aportación del trabajo, es decir, debemos realizar con una/s Conclusión/es sobre la
investigación. Pero antes de introducir dichas conclusiones a las que hemos llegado, es
bueno hacer una mención a las limitaciones del estudio, lo que nos llevará a proponer
futuras investigaciones sobre el problema.
4.7. Referencias bibliográficas
En esta sección se proporciona el listado de autores y sus publicaciones, en orden
alfabético, de los cuales se ha hecho mención en el informe. Se diferencia de la
bibliografía en que esta es un listado, lo más exhaustivo posible, de las publicaciones
existentes sobre un tema, independientemente de que se hayan o no citado a lo largo del
informe de investigación.
La utilidad de este apartado es que el lector interesado pueda localizar de forma
inequívoca la fuente documental y, además, también le ofrece la oportunidad de encontrar
otras investigaciones relacionadas con la temática. Las referencias se escriben en una
página aparte, después de la Discusión.
El formato que deben tener las referencias bibliográficas, según normas APA, está
en función del tipo de material al que se refiera: publicaciones periódicas, libros, capítulos
de libros, medios electrónicos, etc. En líneas generales, se pueden describir una serie de
pautas a seguir a la hora de redactar la lista de referencias bibliográficas:
Las referencias deben ser escritas en orden alfabético según el apellido del primer
autor o editor.
Las referencias de un mismo autor se ordenan por año de publicación, apareciendo
primero la más antigua. Si el año de la publicación también es el mismo, hay que
diferenciar las referencias añadiendo una letra anexa después del año (2000a, 2000b) y
ordenándolas cronológicamente en la sección de referencias.
Cuando un apellido es compuesto (e. g., de Gaullel, se ordena según la preposición
asegurándose de que esta esté incluida también en la cita. Si el autor es una razón social,
hay que ordenar la referencia de acuerdo a la primera palabra significativa de su nombre
(e. g., The British Psychological Society, va bajo la «B»).
Si la obra referenciada es de dos autores, estos se escriben con el mismo formato,
pero unidos por una «y griega» si la obra está en español, o bien por un «&» si la obra
consultada está en inglés.
Si la obra está escrita por tres o más autores, simplemente se meran separados por
comas -en el orden que se haya establecido la fuente-, salvo el último, quien se asocia a
sus colegas por la «y griega» o «&».
4.7. Anexos o apéndices
Esta sección es opcional. Aquí se deben incluir todos los materiales, instrumentos y
tablas extensas utilizados durante la investigación que son de interés, pero cuya aparición
en las otras secciones haría que el informe se vea desordenado.
Referencias
Anderson, S., Auquier, A., Hauck, W. W., Oakes, D., Vandaele, W. y Weisberg, H. I.
(1980). Statistical methods for comparative studies: Techniques for bias reduction.
New York: Wiley.
Ardila, R. (2007). The nature of psychology: The great dilemmas. American Psychologist,
62(8), 906-912
Arias, F. (2012). El proyecto de investigación: Introducción a la metodología científica
(6ta ed.). Caracas: Episteme.
Arnau, J. (1990). Metodología Experimental. En J. Arnau, M.T. Anguera y J. Gómez
(Eds.), Metodología de la investigación en Ciencias del Comportamiento (pp. 9-
122). Murcia: Servicio de Publicaciones de la Universidad de Murcia.
Ato, M., López, J. J. y Benavente, A. (2013). Un sistema de clasificación de los diseños
de investigación en psicología. Anales de Psicología, 29, 1038-1059.
Ato, M. y Vallejo, G. (2015). Diseños de investigación en Psicología. Madrid: Pirámide.
Bunge, (1997). La ciencia: su método y su filosofía. Buenos Aires: Sudamericana.
Fontes, S., García-Gallego, C., Quintanilla, L., Rodriguez, R., Rubio, P. y Sarriá, E.
(2010). Fundamentos de investigación en Psicología. Madrid: UNED.
Garriga-Trillo, A., Lubin, P., Merino, J., Padilla, M., Recio, P. y Suárez, J. (2009).
Introducción al análisis de datos. Madrid: UNED.
Hernández, R., Fernández, C. y Baptista, M. (2014). Metodología de investigación (6ta
ed.). México D.F: McGraw-Hill.
Judd, C. M. y Kenny, D. (1981). Estimating the effects of social interventions. Cambridge,
MA: Cambridge University Press.
Kline, R. B. (2011). Principles and practice of structural equation modelling (3rd ed.).
New York, NY: The Guilford Press.
Pedhazur, E. J. y Smelkin, L. P. (1991). Measurement, design and analysis: an integrated
approach. Hillsdale, NJ: LEA.
Ribes, E. y López, F. (1985). Teoría de la conducta: Un análisis de campo y paramétrico.
México, D. F: Trillas.
Thompson, B. (2002). ’Statistical’, ’Practical’, and ’Clinical’: how many kinds of
significance do counselors need to consider? Journal of Counseling and
Development, 80, 64-71.
Llanos, M. (2009). Epistemología de las ciencias sociales. Lima: UNMSM.
Investigación científica en psicología
1. Introducción
2. Fases de investigación
2.1. Nivel teórico conceptual
2.2. Nivel técnico metodológico
2.3. Nivel estadístico-analítico
3. Etapas de la investigación científica en psicología
3.1. Planteamiento del problema y definición de variables
3.1.1. El problema
3.1.2. Variables
3.1.2.1. Definición
3.1.2.2. Medición
3.1.2.3. Clasificación
3.2. Formulación de hipótesis
3.2.1. Hipótesis
3.2.2. Tipos de hipótesis
3.3. Establecimiento de un procedimiento
3.3.1. Diseño de investigación
3.3.1.1 Selección y descripción de la muestra
3.3.2. Aparatos e instrumentos
3.4. Análisis de datos
3.5. Interpretación de los resultados
3.6. Comunicación de resultados
Informe de investigación
4. Estructura del informe de investigación
4.1. Título, autor/es y filiación
4.2. Resumen o abstract
4.3. Introducción
4.4. Método
4.4.1. Participantes
4.4.2. Materiales/aparatos/instrumentos
4.4.3. Procedimiento
4.5. Resultados
4.6. Discusión y conclusiones
4.7. Referencias bibliográficas
4.8. Anexos y apéndices