0% encontró este documento útil (0 votos)
158 vistas82 páginas

Investigación en Psicología: Métodos y Diseño

El documento proporciona una introducción a la investigación en psicología. Explica que la psicología usa el método científico para sistematizar la recogida de información sobre el comportamiento humano de manera objetiva. Se describen tres tipos de diseños de investigación - experimentales, cuasi-experimentales y observacionales - y cómo cada uno aplica el método científico de manera diferente. También se definen conceptos clave como muestra, grupos y aleatorización que son fundamentales para el diseño de investigaciones en psicología.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
158 vistas82 páginas

Investigación en Psicología: Métodos y Diseño

El documento proporciona una introducción a la investigación en psicología. Explica que la psicología usa el método científico para sistematizar la recogida de información sobre el comportamiento humano de manera objetiva. Se describen tres tipos de diseños de investigación - experimentales, cuasi-experimentales y observacionales - y cómo cada uno aplica el método científico de manera diferente. También se definen conceptos clave como muestra, grupos y aleatorización que son fundamentales para el diseño de investigaciones en psicología.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Introducción a la Investigación en Psicología:

Fundamentos de Estadística y Bases


Epistemológicas
TEMA 1: INVESTIGACIÓN EN PSICOLOGÍA

1. PERSPECTIVAS DE LA INVESTIGACIÓN EN PSICOLOGÍA

La psicología se define como una disciplina científica que estudia y analiza las bases del
comportamiento humano, los procesos mentales y las experiencias y sensaciones de la
persona en relación con el medio ambiente, físico y social, que lo rodea. Como, por ejemplo,
observar la conducta de un niño en clase, las percepciones de un recluso en la cárcel o de una
persona con dificultades en el manejo del estado de ánimo y recoger la información obtenida
por escrito y darle sentido a posteriori a partir de la literatura previa existente.

Dado el carácter subjetivo de la información que se pretende recoger en esta disciplina, las
conductas y las emociones que para algunos de nosotros resultan aceptables, pueden no serlo
para otros dentro de nuestra misma comunidad o dentro de comunidades distintas. Y la
posibilidad de cometer errores en la interpretación del comportamiento, el contexto y otras
variables del individuo y su biología pueden explicar partes importantes del mismo que en
ocasiones pueden pasar desapercibidos ante el «filtro interpretativo» que pone el investigador.
Así que, la psicología ha tratado de sistematizar esta recogida de información.

Para ello, ha usado distintas técnicas que permitan el análisis matemático de lo observado y
faciliten la obtención de conclusiones lógicas que confirmen o desmientan las hipótesis de
partida. Estas técnicas se agrupan dentro del denominado método científico.

«Método científico: es el procedimiento que se utiliza para establecer las causas de los
fenómenos y las leyes que los determinan» (García-Granero, 2001).

Puesto que el comportamiento humano es muy amplio, la psicología, como campo de estudio,
también lo es. En consecuencia, las perspectivas de aproximación al estudio científico de la
psicología son muy diversas. Cada perspectiva aplicará el método científico con las
restricciones derivadas de la confección de sus objetivos, esto es, aplicando el diseño de
investigación acorde a los objetivos que pretenda evaluar.

Por ejemplo, el psicoanálisis se apoya fundamentalmente en diseños observacionales —


utilizan la observación rigurosa como herramienta clave para obtener datos— en el estudio
empírico de la conducta.

Mientras, las distintas ramas que se adscriben a la psicobiología se nutren de los diseños
experimentales y cuasi-experimentales, basados en experimentos científicos que replican el
comportamiento en una situación controlada en laboratorio.
En conclusión, se podrían enumerar las siguientes metas que se pueden alcanzar gracias a la
investigación en psicología:

→ Describir el comportamiento
→ Predecir el comportamiento
→ Explicar el comportamiento
→ Manejar el comportamiento

2. DISEÑO DE UNA INVESTIGACIÓN

Como hemos apuntado en el apartado anterior, el método científico se aplica a un conjunto


de diseños de investigación que pretenden adaptarse a las necesidades de la pregunta u
objetivo que se pretende resolver o abordar.

Diseño de investigación: conjunto de operaciones estructuradas y encaminadas a resolver los


problemas que se plantean en investigación.

En general, los diseños de investigación comparten el siguiente plan de acción


estructurado:
En función de la vía de acceso al conocimiento de la causa relativa al fenómeno observable
que queremos analizar podemos clasificar los diseños de investigación en tres grandes
grupos:

DISEÑOS EXPERIMENTALES:

→ Se manipulan variables independientes


→ Se establecen comparaciones entre grupos creados de manera aleatoria
→ Se pueden establecer relaciones de casualidad

Por ejemplo, experimentos con animales a los que a un grupo experimental —elegido al
azar— se le administra una sustancia en laboratorio, mientras que al grupo control —elegido
al azar— no se le aplica la sustancia. Se analizan y comparan sus comportamientos antes y
después del experimento.

DISEÑOS CUASI-EXPERIMENTALES:

→ Se manipulan variables independientes


→ Se establecen comparaciones entre grupos creados de manera no aleatoria
→ El establecimiento de las relaciones de causalidad no es posible
→ Pero sí se pueden establecer asociaciones/realizar operaciones de correlación

Por ejemplo, se compararán las puntuaciones de dos grupos de sujetos creados en base a una
variable conocida de antemano —el color de su pelo—. Al grupo de sujetos rubios se les
aplica un tratamiento de potenciación cognitiva —grupo experimental—, mientras que al
grupo de morenos se les aplica un placebo —grupo control—.

DISEÑOS OBSERVACIONALES:

→ No se manipulan variables independientes


→ El establecimiento de las relaciones de causalidad no es posible

Por ejemplo, la observación y el registro sistemático de la conducta de los alumnos con


TDAH en clase.

3. ¿CÓMO TENER UNA IDEA PARA INVESTIGAR?

Todos nosotros tenemos ideas preestablecidas o nos conformamos con ideas en base a los
acontecimientos o nuestra trayectoria personal para explicar el comportamiento y los
pensamientos de los otros seres humanos. Algunas ideas nos podrían parecer propias del
sentido común, como, por ejemplo, que las personas que se parecen o que comparten
características de personalidad o de carácter tienden a estar juntas. La investigación en
psicología trata de validar la veracidad de estas ideas que nos conformamos.

La investigación implica una actuación circular de pasos sucesivos que la mantiene en el


tiempo de manera que una explicación lleva a la otra y podemos estar continuamente
planteando y resolviendo las cuestiones que se nos plantean. Esto es, las conclusiones de
nuestra investigación nos proporcionan nuevas ideas que nos llevarán al diseño de nuevos
experimentos que complementarán los resultados obtenidos.

Entonces, si esto es así, ¿por dónde empezamos? Según el punto de partida, se pueden
distinguir tres métodos de análisis clasificados por la forma en que interpretemos los
resultados:
TEMA 2: PRINCIPIOS BÁSICOS DE INVESTIGACIÓN

1. CONCEPTOS BÁSICOS DE INVESTIGACIÓN

Cuando nos adentramos en el mundo de la investigación, debemos ser capaces de poder


identificar y conocer algunos conceptos básicos que definen y dan identidad a un estudio.
Igualmente, tendremos que conocer las repercusiones que tiene sobre el estudio el uso de unos
u otros métodos.

Muestra

El fin último del método científico es ser capaces de extrapolar los datos obtenidos en un
experimento a la población general. Dado que reclutar a todos los individuos del conjunto
poblacional sobre los que se quiere poner en marcha un estudio es una tarea ardua,
seleccionaremos tan solo una proporción de sujetos representativos de la población de
estudio. Una vez hayamos obtenido los resultados derivados del estudio de la muestra,
intentaremos generalizarlo —a través de fórmulas matemáticas contenidas en la rama de la
estadística inferencial— a la población.

Por ejemplo, si queremos saber si el consumo continuado de azúcar es el responsable de la


aparición de diabetes, no es necesario reclutar a todas las personas de nuestra comunidad
autónoma o ciudad e incluirlas en nuestro estudio, sino que escogemos una muestra que
cumpla ciertas normas o posea ciertas características que se consideran similares a las que
tendría la población general, de manera que desarrollamos el experimento con las primeras.

¿Cómo escoger representativamente a las personas de la población objeto de estudio?


Existen distintas formas de seleccionar muestras representativas de la población (muestreo
probabilístico o muestreo no probabilístico). Se diferencian en:

→ La asignación al azar de los sujetos (aleatoriedad).


→ La presencia o ausencia del criterio de conveniencia del investigador.
→ El uso de restricciones para mejorar la representatividad de la muestra

Grupos

Muchas veces, cuando queremos conocer los efectos de un determinado tratamiento o


compuesto, solemos aplicarlo a una muestra y ver sus efectos antes y después de su aplicación.
Sin embargo, con este método no siempre estaremos seguros de que los efectos observados
hayan sido causados por el compuesto o por otra variable que no estamos midiendo y que pueda
ser la verdadera causante de estos efectos.

Para evitar este problema, podemos comparar los resultados obtenidos en nuestro grupo
que recibe el tratamiento (grupo experimental) con los resultados obtenidos en otro grupo
que no ha recibido el tratamiento (grupo control).

De esta forma, podemos crear diferentes grupos experimentales que reciban mayor o
menor dosis del tratamiento. Esto nos permitirá establecer un gradiente de dosis-efecto. O
incluso podemos crear grupos controles diferentes para valorar los efectos que puede tener la
propia ausencia de tratamiento. Podremos incluir un tratamiento inocuo (placebo) para que
el sujeto esté «ciego» y desconozca si es miembro del grupo control o experimental.

Es importante que cuando hagamos comparaciones entre grupos, bien sean controles o
experimentales, intentemos controlar el resto de variables para que los grupos sean lo más
homogéneos posibles entre sí al inicio del estudio y asegurarnos que no hay alguna variable
que pueda producir efectos indeseados o inadvertidos sobre nuestra muestra. En caso de no
poder llegar a esta paridad entre grupos, deberemos intentar controlar estas diferencias
mediante análisis estadísticos más complejos.

Aleatorización de la muestra

Ahora que sabemos que podemos comparar grupos, cabe preguntarse: ¿cómo podemos crear
estos grupos?

Una estrategia válida, pero que puede implicar ciertos sesgos, puede ser dejar al investigador
o participante que elija libremente en qué grupo quiere participar. Esta metodología,
aunque muy sencilla, puede dar pie a sesgos de auto confirmación por parte del investigador o
a sesgos de resultados por parte del participante. Seguramente, esta estrategia genere grupos
muy heterogéneos que dificulten aún más la tarea de comparación.

Por ello, y para evitar estos problemas indeseados de sesgos y de grupos heterogéneos,
podemos hacer uso de un sistema de creación de grupos basado en la aleatoriedad. Su
principal ventaja es que seguramente (si los grupos son los suficientemente amplios), serán
inicialmente similares en las variables de estudio, tanto dependientes como independientes.
Por otro lado, evita que el investigador pueda crear los grupos a su criterio y con ello trasladar
sus posibles sesgos de confirmación.

Gracias a la aleatorización de la muestra podemos establecer inferencias causales y


estadísticas (asignando probabilidades a las diferencias encontradas entre los grupos).

Sin embargo, no siempre podemos hacer uso de esta gran herramienta:


→ En ocasiones puede ser poco ético decidir mediante técnicas aleatorias quién es
miembro del grupo control o del grupo experimental. Pensemos en tratamientos que
pueden curar una enfermedad mortal.
→ Es un proceso que encarece nuestro estudio. Se requiere cierta planificación extra,
mayor control sobre las condiciones y puede generar reticencia en el posible
participante de nuestro estudio.
→ Es un proceso poco natural o que no responde a la realidad clínica.

Visitas o mediciones

Pensemos en una foto de una persona saltando: ¿está subiendo o está cayendo? La mejor
forma de valorar un posible cambio en nuestra muestra es medirla varias veces. De esta forma
podremos comprar la evolución experimentada.

Existen varios tipos de mediciones:

→ Pretratamiento: llamada también visita basal o visita cero. Nos ayuda a determinar el
estado inicial de nuestra muestra antes de haber recibido una posible intervención. A
veces, es necesario establecer varias visitas basales para asegurarnos que no se estén
produciendo ya cambios.
→ Postratamiento: se recoge información tras haber aplicado el tratamiento.
→ Seguimiento: se recoge información un tiempo después de haber finalizado el
tratamiento para valorar sus efectos mantenidos en el tiempo. Otras veces puede que
esta medición se haga mientras el sujeto sigue recibiendo el tratamiento para valorar la
continuidad de los efectos.

Variables

Existen multitud de clasificaciones de las variables: por función, tipo, escala, etc. Sin embargo,
en este tema introductorio solo hablaremos de ellas en cuanto a su función:

→ Variables dependientes: también denominadas variables de resultado, de respuesta o


de efecto. Son las variables de interés sobre las que medimos los cambios producidos
por el principio activo. Por ejemplo, es un estudio con antipiréticos infantiles, donde
nuestra variable de resultados sería la fiebre del niño.
→ Variables independientes: también denominada variable explicativa. Son las variables
que pueden explicar los resultados obtenidos en la variable dependiente. Siguiendo con
el ejemplo del antipirético infantil, las variables independientes pudieran ser la dosis
del fármaco (manipulada por el investigador), el peso del niño o la masa corporal.
→ Variables de confusión: son aquellas variables que no podemos controlar, pero que en
la medida de nuestras posibilidades intentaremos al menos medirlas para valorar su
posible efecto en los cambios producidos. A veces incluso desconocemos de su
existencia.

2. DEFINICIÓN DE HIPÓTESIS I OBJETIVOS EN INVESTIIGACIÓN

Ante un supuesto teórico o una observación razonada, el investigador formula hipótesis


basadas en el conocimiento previo o evocación racional relacionada con el suceso que
pretende estudiar. De acuerdo con el método científico, las hipótesis pueden ser de dos tipos:

Cuando realicemos el contraste de hipótesis (comparación entre las dos teorías), el valor de
probabilidad indica si aceptamos o rechazamos la hipótesis nula:

→ Si p<0,05 (95% de seguridad), rechazamos la H0 (existen diferencias significativas).


→ Si p>0,05, aceptamos la H0 (no existen diferencias significativas).
Ejemplo.

Un investigador cree firmemente que el consumo de un vaso de leche por la noche aumenta el
nivel de endorfinas y, por tanto, el nivel de relajación.

Formula las siguientes hipótesis:

Ho: El consumo de leche por la noche no varía la relajación.

Ho: El consumo de leche por la noche sí varía la relajación.

Cuando lleva a cabo su experimento para aceptar o rechazar el Ho, descubre que el resultado
es p<0.05, por tanto, rechaza la hipótesis nula y acepta como buena la nueva hipótesis.

Los objetivos se definen como las tareas concretas en que se materializan los pasos
necesarios para comprobar las hipótesis formuladas. Consisten, por tanto, en la
operativización de las ideas teóricas o racionales expuestas por el investigador al comienzo del
estudio.

Los objetivos deben tener las siguientes características:

A la hora de enunciar los objetivos, estos se suelen clasificar en objetivos generales y objetivos
específicos.

→ Objetivos generales: hacen referencia a la globalidad o al marco de referencia del


proyecto de investigación que el psicólogo se plantea.

Por ejemplo, en un estudio sobre reacciones de ansiedad animal ante un estímulo que genera
miedo, cuya hipótesis principal es que, a más exposiciones ante el estímulo, más ansiedad
generará en el animal, el objetivo principal podría ser: «analizar las reacciones de pánico de
una rata sometida a estrés continuado ante la presencia de otro roedor tanto en al inicio del
estudio como a los seis meses de seguimiento».
→ Objetivos específicos: describen los detalles pormenorizados de los objetivos
generales (habitualmente dividen en pasos la globalidad formulada anteriormente) y
ayudan a identificar de manera más clara qué es lo queremos conseguir con nuestro
estudio.

Por ejemplo, siguiendo el modelo anterior, un objetivo específico sería: clasificar las reacciones
de pánico del animal según su duración en breves (menos de treinta segundos), moderadas (de
treinta a sesenta segundos) y severas (más de sesenta segundos) tras la presentación del
estímulo (otro roedor en la jaula).

3. CONCEPTO DE VALIDEZ

Como hemos visto, cuando realizamos un estudio científico aplicamos una determinada
metodología, la cual puede producir ciertos sesgos y errores que nos pueden llevar a
conclusiones erróneas. De ahí que utilicemos el término de validez para referirnos a una
investigación.

Existen principalmente dos tipos de validez.

→ Validez interna: es el grado de confianza con que se puede decir que existe una causa
efecto entre dos variables.
→ Validez externa: es el grado de confianza que podemos establecer a la hora de
generalizar una relación de causa-efecto a otras poblaciones a la población en general.

¿Qué aspectos pueden afectar a la validez interna?

Aspectos asociados al tiempo:

→ Historia: eventos externos al sujeto que están ocurriendo al mismo tiempo que el
tratamiento.
→ Maduración: procesos internos propios del sujeto.

Aspectos asociados a la medición:

→ Administración de pruebas: efectos de administrar una prueba varias veces.


→ Instrumentación: cambios en la calibración del instrumento.

Aspectos asociados a la selección:

→ Mortalidad diferencial: reducción en el tamaño de los grupos a comprar debido al


propio tratamiento o condición.
→ Regresión estadística: tendencia hacia la centralidad de puntuaciones.
→ Selección: grupos diferentes
→ Interacción con selección: combinación de diferentes aspectos que interactúan con el
sesgo de selección.
→ Ambigüedad de la dirección de cause-efecto: cuando desconocemos quien fue primero
o quien de los dos es la causa y cual el efecto.

¿Qué aspectos pueden afectar a la validez externa?

Cada estudio se lleva a cabo en unas determinadas condiciones que no siempre son replicables.
Así, nos podemos encontrar aspectos difíciles de replicar que podrán suponer una amenaza en
cuanto a la validez externa de nuestro estudio:

→ Interacción selección-tratamiento.
→ Interacción contexto-tratamiento.
→ Interacción historia-tratamiento.
→ Interacción administración de pruebas-tratamiento.
→ Interacción instrumentación-tratamiento.
→ Interacción tratamientos-intrasujeto

TEMA 3: BÚSQUEDA DE INFORMACIÓN CIENTÍFICA

1. ACESO A LA INFORMACIÓN Y DEFINICIÓN DE LA BÚSQUEDA

Vivimos una época dorada de la información. Nunca como hasta ahora hemos tenido acceso a
tanta y tan variada información. El desarrollo de las nuevas tecnologías, de internet y del trabajo
conjunto entre autores y editores nos ha posibilitado una ingente cantidad de información.

Sin embargo, este crecimiento también ha producido algunas consecuencias no tan deseables.
La gran cantidad de información puede resultar inabarcable. Cuando acudimos a buscar un dato
o una información concreta, nos encontramos con muchos de ellos, lo cual muchas veces hace
que perdamos la perspectiva y no seamos capaces de tomar una decisión. Cuando esta decisión
es referida a una pregunta clínica, el problema cobra aún más relevancia. Por ello, es importante
aprender a lanzar búsquedas que sean precisas y eficaces que nos posibiliten los resultados
más relevantes y adecuados para nuestras necesidades de información.

Igualmente, y relacionado con la heterogeneidad de información, debemos de aprender a


seleccionar aquella información fiable y de calidad que nos permita tomar buenas decisiones.
El campo de la ciencia no es inocuo a publicaciones con datos erróneos (a veces fortuitos y
otras veces intencionados).
Da igual si nos encontramos en la biblioteca de la Universidad o en internet, si no sabemos
dónde, cómo o qué buscar, nuestra labor de obtener información puede ser como
encontrase en un océano sin orillas.

Internet puede convertirse en un océano sin orillas.

Por lo tanto, tenemos que entender las búsquedas de información bibliográfica como un
procedimiento ordenado, secuencial y sistemático que nos permita encontrar información
válida, fiable y relevante para nuestra pregunta clínica.

¿Exagero? Busca en Google Scholar (https://scholar.google.es) cuál es la mejor intervención


para una depresión posparto en mujeres de 20-30 años.

A fecha de diciembre de 2019, y utilizando únicamente el castellano como lenguaje de


búsqueda, son 752 los resultados que ofrece la plataforma. Muchos de ellos no estarán
directamente relacionados con nuestra pregunta, otras tantos estarán basados en información
subjetiva y solo unos cuantos (que por supuesto no sabemos cuáles son) responderán a nuestra
pregunta de manera eficaz y precisa. Seguramente, si mañana volvemos a lanzar la misma
pregunta no nos acordaremos de cómo lo hicimos, qué palabras concretas utilizamos, si
pusimos algún tipo de límite… o si solo buscamos en Google. Tampoco hace falta ser adivino
para predecir que el número de resultados no pare de aumentar de un año a otro.

Como vemos, buscar información puede ser una tarea ciertamente compleja y que requiera de
esfuerzo y cierta metodología.

Un primer paso antes de lanzarnos a buscar información es clarificar y especificar muy bien
cuál es nuestra pregunta clínica que queremos resolver. La fundamentación teórica y la
actualización científica resultan primordiales en cualquier investigación. Bien si nos
encontramos haciendo labores asistenciales, o si estamos empezando a enfocar nuestra tesis
doctoral o nuestro trabajo de fin de estudios, es primordial parar y pensar qué es lo que quiero
encontrar.

Una buena estrategia para definir nuestra búsqueda es utilizar la metodología PICO que se
fundamenta en la formulación de cuatro preguntas que se centran en la búsqueda de una
intervención concreta para una población concreta y para un resultado concreto.
Las ventajas de la búsqueda PICO son tres: maximiza la recuperación de evidencias en las
bases de datos, aborda el propósito de la investigación y evita perder el tiempo en
búsquedas innecesarias.

En el caso que planteábamos anteriormente de las mujeres que sufrían depresión posparto,
podemos definir:

Si nos fijamos, una búsqueda incompleta nos puede dar muchos resultados, mientras que, si la
acotamos más, (definiendo todos los elementos PICO, intervención y comparador) los
resultados serán menores y más precisos, lo cual se traduce en menos esfuerzos de lectura, de
síntesis y una respuesta más rápida y eficiente.

Si tuviéramos que definir nuestra búsqueda con palabras clave podríamos decir:

«Mujeres», «20-30 años», «ejercicio físico», «grupos de apoyo»,


«depresión post parto».
Como ves, la estrategia no dista mucho de la que utilizamos cuando buscamos unas vacaciones:
«Hotel y vuelo», «Bilbao-Menorca», «septiembre», «barato».

Veamos algunos ejemplos más:

«¿La terapia de mindfulnes [INTERVENCIÓN] reduce la depresión [OUTCOME] en mayores


de 65 años [POBLACIÓN]?»

«¿Cuál es el riesgo de padecer anorexia nerviosa [OUTCOME] en mujeres [POBLACIÓN]


con baja autoestima [FACTOR DE RIESGO-EXPOSICIÓN INTERVENCIÓN]?»

Como vemos, no siempre es necesario que hagamos uso de todos los términos PICO. En
ocasiones, cuando la literatura sobre ese tema es escasa o lanzamos preguntas de carácter
exploratorio, no es conveniente acotar demasiado la búsqueda.

Es tu turno, piensa en una pregunta clínica relevante, escríbela con tus palabras:
____________________________________________________________________
_____________________________________

Y ahora intenta transformarla a la metodología


__________________________________________________

Población: _______________________

Intervención: _____________________

Comparador: _____________________

Outcome: ________________________

2. FUENTES DE INFORMACIÓN

Una vez que hemos tomado cierta conciencia de lo que puede suponer una búsqueda y de la
importancia de ir bien preparados para la búsqueda de la información, debemos de saber
igualmente donde se encuentra esas fuentes de información.

Esta parte también es muy importante en nuestra búsqueda ya que, dependiendo de dónde
busquemos, vamos a encontrar una u otra información. Estas fuentes varían en función de la
disciplina o ámbito de estudio. Hay algunas de carácter multidisciplinar, que recogen
información y documentos de todas las materias, y otras especializadas en una disciplina, o
conjunto de disciplinas muy próximas.

Revistas

Son publicaciones periódicas que incluyen textos de carácter científico (estudios, revisiones,
críticas, cartas al editor, resúmenes…) que principalmente tiene como autores a profesionales
que escriben para otros profesionales.
En el campo de la psicología habrá unas 3000 revistas que traten temas relacionados con la
psicología desde una perspectiva más o menos científica, de ellas, 700 tendrán lo que llamamos
«factor de impacto». Este concepto es una puntuación que se le asigna a una revista en función
de la calidad de su contenido. Estas revistas normalmente contienen artículos que han sido
revisados por distintos profesionales (Peer review). En España, apenas hay diez revistas de
psicología que tengan factor de impacto.

Puedes consultar el factor de impacto de una revista bien acudiendo a su página web, o
acudiendo a la Web of Science.

Dentro de la plataforma de la UNIR realiza el siguiente recorrido:

Biblioteca> recursos destacados> Web of Science (JCR)*.

Hay que decir que el factor de impacto de Web of Science no es el único. También existen el
Scimago Journal Rank (SJR) que pertenece a Scopus, el Emerging Sources Citation Index
(ESCI) que indica qué revistas son de calidad y con posibilidades de entrar a formar parte del
selecto grupo de JCR o el sello de calidad de FECYT.

Editoriales

Las editoriales que publican ciencia suelen publicar tanto revistas científicas, como libros o
posters y comunicaciones de congresos. Algunas de las más conocidas son Reed-Elsevier,
Taylor & Francis, Wiley-Blackwell, Springer y Sage, las cuales se calcula que controlan más
de la mitad de la difusión científica mundial. Una visita a sus páginas webs nos puede hacer
una idea de cuál es su modelo de negocio y su estrategia de difusión de contenidos científicos.

Bases de datos

Una base de datos científica es una plataforma de información que recopila publicaciones de
diferentes revistas y de otras bases de datos (meta-buscadores). Las más conocidas se publican
principalmente en inglés y son Pubmed, Embase, Web of Science, Scopus, PsycInfo,
PsycArticles o PubPsych.
→ Pubmed: es una base de datos de la Biblioteca Nacional de Medicina de los EEUU, de
libre acceso y que incluye citaciones y resúmenes pertenecientes a Medline (otra base
de datos de pago). Recoge información desde 1966 hasta la actualidad. Se calcula que
tiene más de 30 millones de referencias, de las cuales un 50 % podrían ser recuperadas
a texto completo de manera gratuita.
→ Web of Science: pertenece a Clarivate Analytics y está integrada en la Web of
Knowledge (WOK). Contiene más de 36 millones de referencias (más que Pubmed) y
es la que otroga el famoso factor de impacto JCR. Para acceder a ella has de estar
suscrito o tu entidad (instituciones o universidades) deben de tener acceso. Para nuestra
suerte, la UNIR tiene acceso a la Web of Science.
→ Embase: de acceso restringido, esta base de datos incluye más de 25 millones de
registros de más de 8.000 revistas internacionales. Recoge información desde 1947 y
está especializada en compuestos farmacológicos.
→ Pubpsych: es una base de datos especializada en temas de psicología de libre acceso
que incluye cerca de 2 millones de referencias de literatura científica en el campo de la
psicología.
→ PsycArticles: es la base de datos de la American Psychological Association (APA)
cuyo acceso es bajo registro previo. Apenas incluye 300.ooo referencias del campo de
las ciencias de la conducta y campos afines (enfermería, educación o neurociencias).

Bibliotecas y repositorios

Una biblioteca (sea una modesta como la de tu barrio o la de un país entero) es un tesoro al que
siempre podemos acudir para saciar nuestra curiosidad o adquirir nuevos conocimientos. Una
buena biblioteca que se precie debe de ofrecer a sus visitantes una variada y extensa colección
de artículos, revistas, y bases de datos. La UNIR actualmente nos ofrece referencias a texto
completo, artículos y acceso a bases de datos de relevancia en diferentes campos del
conocimiento. Te animo a que dediques veinte minutos a bucear en ella y curiosear las
diferentes opciones que nos ofrece.

Los repositorios, son estructuras que funcionan de manera similar a una biblioteca (almacena,
organiza, mantiene y difunde información digital) donde los propios académicos aprovechan
la red para compartir y difundir sus investigaciones con otros colegas, acelerando el ciclo de
publicación y revisiones de los resultados. En España contamos con repositorios como Acceda,
CSIC, Recyt o Recolecta que nos posibilitan acceder y colgar información.

Otra opción igualmente valiosa son los repositorios como Researchgate que funciona como
una red social donde ponerse en contacto con otros autores e investigadores o las polémicas
sci-hub o genlib. Estos últimos son repositorios que almacenan teras de información publicada
de manera restrictiva o de pago.

Lo mejor que se puede compartir es el conocimiento.


3. DISEÑO Y ELABORACIÓN DE ESTRATEGIAS DE BÚSQUEDA

Ya hemos visto dónde podemos buscar información (revistas, editoriales, bases de datos,
repositorios…). Ahora es momento de aprender a saber cómo debemos hacer estas
búsquedas.

Una buena búsqueda ha de ser eficaz. ¿Qué significa eso? Básicamente que, con el menor
esfuerzo posible, encontremos la mejor información disponible. Si tuviéramos que aplicar una
formulación matemática diríamos que:

𝑣𝑎𝑙𝑖𝑑𝑒𝑧 𝑥 𝑟𝑒𝑙𝑒𝑣𝑎𝑛𝑐𝑖𝑎
𝐵ú𝑠𝑞𝑢𝑒𝑑𝑎 𝑒𝑥𝑖𝑠𝑡𝑜𝑠𝑎
𝑒𝑠𝑓𝑢𝑒𝑟𝑧𝑜

Existen dos tipos de búsquedas: las búsquedas naturales y las búsquedas controladas.
Veamos unos ejemplos de búsquedas naturales:

«¿Es la clozapina efectiva para la psicosis?». «Clozapina eficaz psicosis».

«Clozapina psicosis».

Y unos ejemplos de búsquedas controladas:

Clozapina AND Psicosis.Clozapina[tiab] AND (psicosis[tiab] OR esquizofrenia[tiab]).

Las diferencias son bastante evidentes: las búsquedas controladas incluyen algunos operadores
booleanos (AND, NOT, OR…) y los términos de búsqueda vienen acompañados de una especie
de código entre corchetes que no queda claro a qué se refiere (tiab, ab, ti…).

Los operadores booleanos o también llamados operadores de búsqueda son nexos lógicos
entre los términos que explican la relación entre conceptos de búsqueda.

Veamos los operadores booleanos lógicos más sencillos:

Los operadores lógicos (AND, NOT, OR) son palabras o símbolos que se utilizan para darle a
la búsqueda un orden lógico, localizan los registros que contienen los términos coincidentes en
uno de los campos especificados o en todos los campos.

→ AND (Y): Indica que las palabras que anteceden y siguen al operador deben encontrarse
en el resultado de la búsqueda. Ejemplo: teenage AND depression arrojaran resultados
que contengan las palabras «joven» y «depresión». A mayor cantidad de términos
combinados con este operador, menor número de resultados.
→ NOT (NO): Indican que la palabra clave anterior al operador deberá aparecer pero no
la posterior. Ejemplo: depressionNOT teenage mostraran los resultados en que aparezca
«depresión» y que no aparezca «joven» en los mismos. Reduce la cantidad de
resultados al excluir términos.
→ OR (O): Indica que alcanza con que tan solo una de las palabras esté presente. En la
mayoría de las herramientas de búsqueda puede reemplazarse por un espacio en blanco.
Ejemplo: joven OR depresión darán resultados que contengan cualquiera de las
palabras. A mayor cantidad de términos combinados con este operador, mayor
número de resultados.

Veamos unos ejemplos menos científicos y más cotidianos. Si preguntásemos a un sujeto


elegido al azar cómo le gustaría que fuera su pareja ideal podemos encontrarnos muchas y
diversas respuestas.

Los habrá que los quieran veganos Y vegetarianos a la vez (lo cual tengo mis dudas de si es
posible, pero el amor es así de complejo).

Los habrá que les de igual mientras sean veganos O vegetarianos.


O los habrá que los quieran veganos, pero NO vegetarianos.

Como podrás comprobar, cuantas más condiciones pidamos, menos candidatos encontraremos,
pero el que encontremos será el o la elegida. Algo similar queremos hacer en nuestras
búsquedas, pocos resultados, pero que estos sean relevantes para nuestra pregunta.

Volviendo a nuestra pregunta PICO, podemos agrupar los términos de nuestra pregunta PICO
con sus respectivas conexiones lógicas (Operadores booleanos lógicos) para que cuando
interroguemos a la base de datos, esta haga un procesamiento prioritario.

Algunos ejemplos más:

Mindfulness AND depression AND Elder AND yoga. Anorexia AND women AND self esteem
AND exercise.Dementia AND training AND memory.

Una estrategia muy interesante es pensar en posibles sinónimos de cada término y combinarlos
con el operador OR y encapsulando ese concepto entre paréntesis para combinarlos con otros
conceptos mediante el operador AND, para que nuestra búsqueda también sea exhaustiva y
sensible.
Esta búsqueda podría traducirse en el siguiente algoritmo de búsqueda que lanzaremos a
nuestra base de datos:

(dementia OR alzheimer OR elder OR veteran) AND (psychoeducation OR support OR


information) AND (Day care OR care center OR staff) AND (cognition OR decline OR
impairment).

Siguiendo con la actividad que te proponía en el punto anterior, ¿Te atreverías a escribir los
términos de tu pregunta PICO combinándolos con los operadores booleanos?
____________________________________________________________________
________________________________________
____________________________________________________________________
________________________________________
____________________________________________________________________
________________________________________ Si lanzásemos este algoritmo a una base de
datos como Pubmed, nos daría muchos resultados. Nosotros quizás estemos interesados en
filtrarlos aún más. A veces será tan sencillo como usar los filtros que nos propone el buscador.
En el caso de Pubmed, podemos filtrar por año, disponibilidad del texto, tipo de documento,
región, sujetos de experimentación…etc.
Otras veces podremos hacer uso de los marcadores, también llamados etiquetas o tags.

Su uso es muy sencillo, y muy útil. Como bien sabemos, los artículos tienen una serie de
campos bien definidos: el título, los autores, la revista, el resumen o abstract…

Los marcadores nos permiten buscar en campos específicos de los artículos. Aunque cada base
de datos tiene sus propios marcadores, existen algunos que son muy habituales y generales:
Veamos algunos ejemplos:

→ Dementia [ti]: buscará artículos con este término en el título.


→ dementia [ab]: buscará artículos con este término en el abstract o resumen.
→ dementia [tiab]: buscará artículos con este término en el título y abstract.
→ Martín-Carrasco m [au]: buscará los artículos de este autor.
→ Spain [pl]: buscará los artículos publicados en este lugar.
→ European archives of psychiatry and clinical neuroscience [ta]: artículos de esta
revista.
→ 2006 [dp]: año de publicación
→ «Dementia» [Mesh]: buscará por ese término del tesauro

En resumen, una buena búsqueda controlada debería de tener en cuenta la estrategia PICO,
hacer uso de los operadores booleanos y los marcadores.

Igualmente, si tenemos la astucia de guardar nuestro algoritmo, podremos reproducir nuestras


búsquedas tantas veces como queramos con la fiabilidad y precisión de un cirujano experto.
TEMA 4: MÉTODOS DE INVESTIGACIÓN CUANTITATIVA,
DISEÑOS CUANTITATIVOS

1. DISEÑOS EXPERIMENTALES

Como ya hemos visto en el anterior capítulo los diseños experimentales se caracterizan por
tener el grado más elevado de manipulación —de la variable independiente—, control —de
las variables extrañas— y aleatorización —de los grupos— por parte del investigador de entre
todos los tipos de diseños de investigación.

Los diseños experimentales se clasifican en dos grupos:

Figura 1. Diseños experimentales.

Diseños de grupos independientes


Se caracterizan por un procedimiento de asignación experimental de los sujetos a cada uno
de los grupos y por la existencia de dos o más grupos de sujetos.

→ Diseño de grupos aleatorios

La característica común de estos diseños es que la técnica utilizada para asignar los sujetos a
los grupos es el azar.

→ Diseño de dos grupos aleatorios:

Con medidas postratamiento: se asignan los sujetos a dos grupos de manera aleatoria y se
aplica la variable independiente (tratamiento). Para comprobar si la variable independiente
ejerce efecto sobre los sujetos, se realiza una medición tras aplicar el tratamiento
(postratamiento) y se comparan ambos grupos de sujetos en esa medida.
Tabla 1. Medidas postratamiento.

Con medidas pre y postratamiento: este diseño es muy parecido al anterior, salvo que se toma
una medida en cada uno de los grupos antes de aplicar el tratamiento (pretratamiento) y otra
medida después del tratamiento (postratamiento).

La diferencia estriba fundamentalmente en que con este diseño se puede establecer una línea
de base en la que se pretende identificar si los sujetos conocen la tarea experimental antes de
aplicar nuestra variable independiente y comparar estos resultados con los obtenidos tras el
tratamiento.

Tabla 2. Medidas pre y postratamiento.

→ Diseño de Solomon:

Se caracteriza por tener cuatro grupos de sujetos iguales, asignados de manera aleatoria a los
grupos. A dos de ellos (elegidos de manera aleatoria) se le aplican medidas pre tratamiento y
post tratamiento y a los otros dos solo les aplican medidas post tratamiento.

Las ventajas de este diseño se encuentran en la posibilidad de comprobar la homogeneidad


de los grupos y la ausencia de interacciones entre la variable independiente y la medida
pretratamiento. Estas medidas se pueden obtener aplicando el estadístico de diferencia de
medias ANOVA.

Tabla 3. Diseño de Solomon.

Diseño de bloques
Es un diseño más riguroso que los anteriores. Se caracteriza por la formación de bloques
homogéneos de sujetos con respecto de un criterio previamente fijado (variable de bloqueo).
Esta técnica permite el control experimental de los sujetos porque elimina los casos extremos
y agrupa los sujetos en bloques homogéneos e iguales.

→ Diseños de bloques aleatorios:


Además de las características anteriormente señaladas, este tipo de diseños usan una única
variable de bloqueo y la aleatorización para maximizar el control de variables extrañas que se
puedan escapar al constituir los bloques.

Tabla 4. Diseños de bloques aleatorios.

2. DISEÑOS EXPERIMENTALES DE SUJETO ÚNICO

Los diseños experimentales de sujeto único se caracterizan porque su muestra se compone de


un único sujeto (N=1) al que aleatorizamos para determinar si forma parte del grupo
control o experimental. A base de repetir el estudio con nuevos sujetos (a los que
aleatorizaremos de manera individual), podremos crear un estudio experimental tradicional
(Nº total=n1+n1+n1+n1…). Se trata de un estudio de suma de casos individuales.

Esta metodología ha sido también denominada «diseños operantes», «diseños intensivos», o


«diseños de replicación intrasujeto». Su utilidad principal se encuentra en aquellas situaciones
en las que nos va a ser difícil reclutar un número suficiente de muestra —véase
enfermedades raras, fenómenos poco habituales, etc.—.

Este tipo de diseño tiene como principal ventaja la superación de ciertos problemas éticos
que pueden darse cuando queremos llevar a cabo estudios experimentales tradicionales en los
que se requiere de muestras mayores. Pensemos, por ejemplo, en la imposibilidad de hacer un
estudio experimental tradicional cuando la muestra reclutada apenas supera los cinco sujetos.
Nos podrían criticar nuestro estudio porque no requiere de las condiciones estadísticas o
muestrales necesarias para poder inferir causalidad o para poder incluso llegar a conclusiones
válidas.

En este tipo de estudios hay que prestar mucha atención a las condiciones en las que se
realizan, ya que se pretende que estas sean en la medida de lo posible replicables cuando
aparezca un nuevo sujeto de estudio. De lo contrario, sería muy difícil poder hacer esa
agregación de evidencia recolectada durante años. Deberemos seleccionar cuidadosamente
las variables de estudio, los métodos de recogida de información, la especificación de la
intervención, el sistema de registro o las conductas observadas.

Referido a estas conductas de estudio, y dado que estudiamos a sujetos únicos, debemos de
prestar especial atención a su posible evolución natural. Por ello, tomaremos varias
mediciones basales y posteriores al tratamiento de cara a poder evidenciar posibles cambios
naturales intrasujeto.
Así, mediremos la línea base de manera más prolongada hasta que aparezca algún tipo
de patrón específico de conducta estable. Posteriormente, aplicaremos el tratamiento o
intervención para comprobar si esta ha producido variaciones en la conducta observada.

En este tipo de estudios hay dos notaciones típicas:

O= observación.

I= Intervención.

Un ejemplo de diseño básico de sujeto único sería:

O1 O2 O3 I1 O4 O5 O6

A la primera fase de observación (O1 O2 O3) se la denomina «fase A».

A la segunda fase de intervención + observación (I1 O4 O5 O6) se la denomina «fase B».

Así:

O1 O2 O3 I1 O4 O5 O6 = A-B

Digamos que es una forma de resumir los pasos. Veamos otro ejemplo:

O1 O2 O3 I1 O4 O5 O6 O7 O8 O9 = A-B-A

Incluso podemos cambiar los tratamientos dándoles otras letras:

O1 O2 O3 I1 O4 O5 O6 I2 O7 O8 O9 O10 O11 O12= A-B-C-A

Como vemos, son estudios que requieren de un gran número de fases y observaciones, por
ello es muy importante que hagamos el esfuerzo de planificar todo el proceso y no empezar
hasta que veamos que la línea basal está estable.

Igualmente, deberemos estar atentos a las variables de confusión y estudiarlas en detalle


para evitar correlaciones con los efectos producidos. Porque en ese caso, no podríamos asegurar
la procedencia de los efectos encontrados venga de la intervención.

Dentro de los estudios de sujeto único existen tres grandes familias:

→ Diseños intraseries.
→ Diseños entreseries.
→ Diseños de series combinadas.

Estas, a su vez, se componen de diferentes diseños que veremos a continuación:


Figura 2. Diseños de sujeto único.

→ Diseños intraseries:
o Diseño A-B: es el diseño más simple. Tras realizar unas primeras observaciones
o registros (fase A), introducimos el tratamiento y valoramos los efectos
producidos (fase B).
o Diseño de cambio de criterio: es un diseño A-B con subfases, en las que el
criterio de evaluación o condiciones cambian. No hay retirada de tratamiento
hasta el final.
o Diseños de reversión o retirada de tratamiento (A-B-A-B-A): aplicamos y
retiramos el tratamiento para valorar los cambios que se producen bajo su
presencia y ausencia.
o Diseños de tratamiento múltiple: sirve para conocer el efecto de varios
tratamientos cuando se introducen de manera gradual.
o Diseños interactivos: son utilizados para conocer los efectos que pueden
producir varios componentes de un tratamiento cuando estos son aplicados de
manera aislada o en combinación con otros componentes.
→ Diseños entreseries:
o Diseño de tratamientos alternativos: aplicamos el mismo tratamiento, pero
cambiando algunas condiciones para evitar el posible confundido.
→ Diseños de series combinadas: es una combinación de los diseños intraseries y los
diseños entreseries. En este tipo de diseños se registran más de una conducta y se
aplican varios tratamientos de manera secuencial, de tal forma que podemos observar
qué tratamiento afecta a qué conducta.

3. DISEÑOS EXPERIMENTALES DE SUJETO ÚNICO


La característica principal de la metodología cuasi-experimental y, por ende, de los diseños
que se incluyen en la misma, es la ausencia de asignación aleatoria de los sujetos a los
distintos grupos o tratamientos, como ocurría en el caso de los diseños experimentales.

Los diseños cuasi-experimentales permiten inferir hipótesis explicativas, pero con sesgos
derivados de la falta de control de variables extrañas.

Los sujetos son asignados a los grupos de manera natural, atendiendo a sus características
propias.

Por ejemplo, queremos analizar si el sexo influye en el rendimiento cognitivo de los


participantes. El sexo no es una variable que podamos modificar al azar, sino que viene
impuesta por la naturaleza de los sujetos que conforman la muestra. De tal modo,
crearemos dos grupos, uno que contenga todos los hombres y otro grupo que incluya todas las
mujeres. El momento que determinará la decisión de aplicar un diseño experimental o
cuasiexperimental vendrá definido por la naturaleza del experimento.

Figura 3. Métodos.

Los diseños cuasiexperimentales se dividen en los siguientes tipos:

Figura 4. Diseños cuasiexperimentales.

→ Diseños de grupos no equivalentes:

Su característica principal es la ausencia de aleatorización de los sujetos a los grupos.

→ Diseños de grupo control no equivalente:

Se caracteriza porque se obtienen medidas de los sujetos que componen cada grupo (grupo
de casos y grupo control) antes y después del tratamiento. Dada la ausencia de aleatorización
de los sujetos, los grupos pueden diferir en la medida pretratamiento.
Es decir, puede ser que el grupo control no resulte equivalente al grupo de casos en variables
distintas a las variables dependientes a la hora de realizar las comparaciones entre ambos
grupos, lo que sería indicativo de ausencia de homogeneidad en la muestra y, por lo tanto, de
la presencia de sesgos a la hora de interpretar los datos.

El estadístico de análisis utilizado en estos diseños es el análisis de la covarianza (ANCOVA)


que permite el control de los posibles sesgos derivados de las variables de confusión.

Tabla 5. Diseños de grupo control no equivalente.

→ Diseños con doble pretest:

Su característica principal es la inclusión de dos variables previas a la aplicación del


tratamiento. Su objetivo consiste en explorar la presencia de relaciones causa-efecto entre
variables.

Es un diseño poco utilizado, dada la dificultad de encontrar variables pretest.

Tabla 6. Diseños con doble pretest.

→ Diseños pretest-postest con tratamiento invertido:

Este diseño tiene la particularidad de que se espera que el tratamiento que se aplica al grupo
experimental vaya en una dirección positiva, mientras que el tratamiento aplicado al grupo
control vaya en dirección opuesta.

Este diseño es de utilidad para comprobar la validez de constructo de las medidas


utilizadas.
Tabla 7. Diseños pretest-postest con tratamiento invertido.

→ Diseños de intercambio pretest-postest:

En este tipo de diseños, el grupo experimental y el control se invierten a la hora de aplicar la


variable de tratamiento. Se recoge una medida pretest de ambos grupos y se aplica el
tratamiento al grupo experimental.

A continuación, se recoge la medida post tratamiento de ambos y se invierten los roles,


pasando el grupo experimental a ser control, y viceversa. Se aplica de nuevo la medida pre en
el «nuevo» grupo experimental y se recogen las medidas post de ambos.

El diseño se representa de la siguiente manera:

Tabla 8. Diseños de intercambio pretest-postest.

→ Diseños de cohortes básico:

Este diseño representa la misma lógica que el diseño de grupo control no equivalente. El diseño
de cohortes aplica una medida pretratamiento en el grupo control y, a continuación, aplica
el tratamiento en ausencia de medidas postratamiento.

Por el contrario, al grupo experimental no se le aplica una medida pretratamiento, sino


que directamente se aplica la variable tratamiento seguida del registro de la medida
postratamiento.

Tabla 9. Diseño de cohortes básico.

→ Diseño de discontinuidad en la regresión:


Es una versión mejorada del diseño de grupo control no equivalente ya que, a pesar de no
poder aleatorizar los sujetos, sí conocemos el proceso de asignación de los sujetos a los
grupos.

Por ejemplo, queremos investigar el efecto de un programa en prevención de riesgos laborales


en el número de accidentes en el trabajo. A través de la aplicación de una medida pretratamiento
y el establecimiento de un punto de corte, agrupamos los sujetos en dos grupos (grupo 1: ≤5
accidentes, grupo 2 ≥ 6 accidentes). Uno de los grupos de convertirá en el grupo control y otro
en el grupo experimental.

→ Diseño de series temporales interrumpidas:

Este tipo de diseño permite tomar varias medidas del mismo sujeto a lo largo del tiempo.
A diferencia de los diseños factoriales intragrupo de medidas repetidas, los diseños de series
temporales interrumpidas no realizan la asignación aleatoria de los sujetos a los grupos.

Estos diseños son el prototipo de estudios longitudinales utilizados en psicología. El


procedimiento consiste en aplicar una variable pretratamiento, obtener una medida, aplicar
otra variable postratamiento, y obtener la segunda medida, así de manera repetida hasta
conseguir el número de medidas necesarias.

Por ejemplo, para medir los niveles de alcohol en un paciente en la visita basal (antes de iniciar
un tratamiento de desintoxicación), y, tras haber iniciado la terapia, medir de nuevo los niveles
de alcohol a las dos semanas, a las cuatro semanas, a los dos meses y a los cinco meses.

4. DISEÑOS OBSERVACIONALES

En esta ocasión, dentro de los diseños observacionales, vamos a centrarnos en los diseños ex
post facto.

Los fenómenos de comportamiento en psicología ocurren en muchas ocasiones antes del


planteamiento de las hipótesis causales. Por ejemplo, no nos planteamos el conocimiento
acerca de las causas que llevan a una persona a cometer un intento autolítico o de suicidio hasta
que no lo lleva a cabo. En casos como este, no sería ético diseñar experimentos que analizaran
las causas del suicidio en sujetos que no hayan cometido un intento.

Por lo tanto, la única opción posible de estudio sería analizar las causas y las consecuencias
una vez que el hecho haya ocurrido. Con este fin es con el que se utilizan los estudios ex post
facto.

En ese sentido, los estudios ex post facto se caracterizan por la ausencia de control de las
variables independientes por parte del investigador —ya que estas ya acontecieron o son
intrínsecamente no manipulables—.

Veremos dos tipos de diseños ex post facto, los descriptivos y los de desarrollo.
Estudios descriptivos
La actividad principal realizada en este tipo de estudios es la descripción de la realidad
observable una vez que ya han acontecido el o los fenómenos de interés.

Los estudios ex post facto descriptivos nos permiten determinar qué es lo acontecido y cómo
es la situación presente que ha persistido tras el curso del acontecimiento. Por ejemplo,
podemos describir el tipo y la frecuencia de actividades extraescolares de los alumnos de 6º de
primaria una vez que han salido del colegio.

Al ser de naturaleza descriptiva, este tipo de estudios han de utilizar técnicas de recogida de
datos estandarizadas que garanticen una representación de la realidad más amplia y fidedigna
(fiable y representativa).

La planificación de los estudios es la siguiente (de abajo hacia arriba):

Figura 5. Planificación de los estudios.

Durante el proceso de análisis de datos, los estudios ex post facto descriptivos utilizan
fundamentalmente estadísticos de tendencia central y medidas de la variabilidad. La
información se puede representar en gráficas que ayuden a una mejor visualización de los
resultados.

Estudios de desarrollo
Se centran en la descripción del cambio de los sujetos en determinadas variables a lo largo
del tiempo.

Los estudios de desarrollo se pueden dividir en los siguientes subtipos:


Figura 6. Estudios ex post facto de desarrollo.

Estudios longitudinales: estos estudios recogen información de una muestra de sujetos en


diferentes momentos temporales. El objetivo es el análisis de cambios en la muestra de
sujetos a lo largo del tiempo. Uno de los principales inconvenientes de estos estudios es la
alta tasa de pérdida de sujetos que se genera al contener varias medidas a lo largo del tiempo.

Un ejemplo de estudio longitudinal sería la selección de una muestra de adolescentes, sobre los
que queremos medir los cambios experimentados en planificación de tareas a lo largo de cuatro
años.

Estudios transversales: se analiza la influencia de un momento temporal en los sujetos.


Para ello, se selecciona una muestra de sujetos de diferentes edades para analizarlos
simultáneamente. Sobre estos sujetos no se realiza un seguimiento en el tiempo, pero tienen
como ventaja la obtención de resultados más rápidos acerca de sus características, es
decir, de una muestra concreta de sujetos con un amplio abanico de edad representativa de la
población.

Por ejemplo: análisis del comportamiento antisocial en una muestra de niños con TDAH
(Trastorno por Déficit de Atención e Hiperactividad) entre 7 y 18 años.

Estudios cohortes: los estudios de cohortes seleccionan una muestra de sujetos que tienen
una característica en común y se siguen a lo largo del tiempo. Normalmente, el criterio
utilizado es la fecha de nacimiento (edad), aunque puede ser la promoción del curso,
acontecimientos vitales ocurridos en una fecha concreta, etc.

En este estudio se seleccionan varias muestras de sujetos atendiendo a distintos momentos


temporales, con el objetivo de compararlas entre ellas. Por ejemplo, se pretende estudiar si
los bebés nacidos en Madrid en 2004, año en el que ocurrieron los atentados de Atocha, tienen
concentraciones de cortisol más elevadas (transmitidas de la madre al feto) que los bebés
nacidos un año antes.

Estudios de tendencia: es una variante del estudio de cohortes, pero en esta ocasión las
muestras no se obtienen de la misma población —la población no es estable—. Se considera
más representativo porque tiene en cuenta la heterogeneidad de las variables ambientales que
afectan a cada población.
Sí que se mantiene la extracción de las muestras en las distintas cohortes. Siguiendo el ejemplo
anterior, en este caso compararíamos tres muestras de bebés nacidos en 2003 y 2004 extraídas
de Madrid, Barcelona y Sevilla.

En general, podríamos resumir las ventajas e inconvenientes de los estudios ex post facto
frente a la metodología cuantitativa general en el siguiente cuadro:

Figura 7. Ventajas e inconvenientes.

TEMA 5: ÉTICA EN INVESTIGACIÓN

1. PRINCIPIOS ÉTICOS GENERALES DE LA PSICOLOGÍA

Durante todo el proceso de investigación surgen dilemas de solución que en ocasiones pueden
resultar controvertidos y en los que los derechos de los participantes como seres humanos
podrían verse afectados.

Por ejemplo, ¿se podría administrar el fármaco que estamos estudiando si vemos que, como
efecto secundario, el participante de nuestro estudio empieza a ganar peso y hay riesgo de
padecer diabetes en el futuro? Para solucionar estas situaciones, los investigadores se rigen por
el código deontológico específico de la disciplina en la que sean expertos. El código
deontológico es el conjunto de normas, valores y principios éticos por los que se rige la
práctica y la investigación de un campo determinado.

En Europa, dos códigos son importantes a la hora de realizar investigación en psicología:

→ El código de Nuremberg.
→ La declaración de Helsinki.

Como fruto de estos documentos, los principios éticos fundamentales de investigación en


humanos son los siguientes:
→ Los participantes en un estudio de investigación tienen que firmar un consentimiento
informado que demuestre su conformidad y comprensión de todas las fases de las que
conste el estudio, así como de los beneficios o posibles desventajas derivadas del
mismo. El consentimiento para participar en el estudio se obtiene sin presión externa y
el sujeto puede retirarse en cualquier momento del estudio.
→ Cuando el estudio implique la participación de sujetos menores de edad, será obligatoria
la obtención del consentimiento informado de los padres o, en su defecto, de los
tutores o persona jurídica encargada de la guardia del menor. En el caso de menores de
edad con doce años cumplidos, se tendrá en cuenta su consentimiento o declinación a
la participación.
→ En todo momento se debe cuidar la integridad física y psíquica de los participantes
derivada en lo que a su participación en el estudio se refiere. Los sujetos no pueden ser
expuestos a equipos o técnicas que infrinjan daño mental o físico para los participantes.
El investigador debe cuidar que todos los instrumentos utilizados en el estudio se
encuentren en perfecto estado.
→ La decisión sobre la completitud ética de un proyecto de investigación debe ser
señalada por un agente externo —en ningún caso puede ser el propio investigador u
otras personas con conflictos de intereses los que valoren si un estudio cumple o no con
las normas éticas—. Generalmente son los Comités de Ética e Investigación Animal
y Humana los que estudian cada caso y dictaminan si el estudio cumple los criterios
éticos. Una vez aprobado el estudio por el comité, este puede comenzar su
reclutamiento.

2. COMITÉS DE ÉTICA EN INVESTIGACIÓN CLÍNICA

Previo al inicio del estudio es necesario que un organismo independiente evalúe la idoneidad
y ética de un proyecto de investigación.

Los Comités de Ética en Investigación Científica (CEICs) son organismos encargados de


evaluar el correcto cumplimiento de los principales aspectos éticos de una investigación.
Existen CEIC locales, regionales o incluso estatales.

¿Porqué tenemos que pasar por un comité de ética en la investigación? Entre otras cosas, porque
tenemos intereses contrapuestos cuando investigamos con seres humanos.

Por un lado, tenemos a los participantes que, habitualmente, de manera altruista y voluntaria
se prestan a ser sujetos de investigación. Por otra parte, tenemos al investigador al cual le
interesa el avance de la ciencia pero que puede tener también otros intereses relacionados con
su propia investigación.

Finalmente, también está la financiación pública o privada que en ocasiones puede suponer una
fuente de conflictos.
Los criterios de evaluación
Vemos la forma en que un comité va a evaluar: normalmente se va a guiar, como ya hemos
dicho, por declaraciones internacionales, normativa interna, códigos de buenas prácticas., etc.,
pero van a seguir un método.

Figura 2. Criterios de evaluación.

El valor social o científico


¿Cuál es el primero? ¿El valor social o científico del proyecto que me presentan para evaluar?

El proyecto tiene que tener posibilidad de ofrecer mejoras en la salud, en el bienestar o en


el conocimiento general. Si es un proyecto que ya se ha realizado antes, que no va a aportar
nada nuevo, etc., este proyecto no debe salir adelante.

Se convierte en desproporcionado cualquier riesgo o molestia para los sujetos ya que colaboran
de manera altruista. Además, los recursos que voy a emplear en realizar este proyecto no tienen
ningún sentido que se malgasten en él, cuando hay otros proyectos que podrían ser financiados
y que podrían aportar conocimiento.

La validez científica
Una vez que decido que, efectivamente, el proyecto tiene al menos un valor social, paso al
siguiente punto que es la validez científica. Lo primero que tengo que mirar es que el diseño
sea correcto. Cualquier proyecto metodológicamente incorrecto es éticamente inaceptable.

Es decir, si el proyecto está mal diseñado no voy a poder aportar resultados validos por lo que
vuelvo a lo mismo, este proyecto no debe ser aceptado por el comité de ética. No debo evaluar
si el consentimiento informado está bien diseñado porque el proyecto en sí no tiene validez.
Figura 3. La validez científica.

El diseño

Los objetivos tienen que ser adecuados y el diseño debe estar conforme con esos objetivos. La
muestra tiene que ser representativa, los grupos de control tienen que estar bien seleccionados
y tiene que ser estadísticamente correcto.

La cualificación de los investigadores y la adecuación de las instalaciones

Una vez que tengo valorada la metodología tengo que mirar también la cualificación del equipo
investigador. Es decir, puede estar muy bien diseñado pero los investigadores que lo van a
llevar a cabo pueden no tener la formación necesaria o la experiencia suficiente y las
instalaciones donde se va a realizar pueden no ser las adecuadas.

Selección equitativa de los sujetos

Figura 4. Selección equitativa de los sujetos.

Poblaciones vulnerables

El tipo y tamaño de muestra. Hay que tener mucho cuidado en cuanto a los criterios de inclusión
y exclusión.

Los grupos vulnerables, por tradición histórica, están especialmente protegidos. Yo no puedo
utilizar grupos vulnerables como son los menores de edad, mujeres embarazadas, personas
privadas de libertad y otro tipo de poblaciones cuando puedo realizar este proyecto en
poblaciones no vulnerables. Esto se lo van a mirar con especial cuidado los comités de ética.
No quiere decir que yo no pueda investigar en este tipo de grupos, quiere decir que tengo que
justificarlo y pensarlo dos veces antes de plantearlo.

Reclutamiento

En cuanto al reclutamiento, es decir, la selección equitativa de la muestra (esto también está en


el informe Belmont y es el tercer criterio que hay que valorar) hay que tener mucho cuidado
con el tipo de información que se da a la hora de atraer voluntarios. La información no puede
ser engañosa, no se les puede dar falsas expectativas a los sujetos de investigación ni se pueden
minimizar los riesgos para atraer voluntarios al proyecto de investigación.

Incentivos
Por supuesto que la coerción y la influencia indebida están prohibidas. La participación ha de
ser voluntaria y altruista y tampoco se puede dar una compensación o incentivo. Es decir, nadie
que vaya a participar en una investigación con seres humanos debe acudir al proyecto porque
se le vaya a dar algún tipo de incentivo, como por ejemplo ofrecer dinero por la participación.

Sí se puede ofrecer una mínima compensación para que no resulte oneroso ya que la
participación es voluntaria y los gastos que se ocasionen o alguna molestia se pueden
compensar, pero nunca esa compensación debe ser suficientemente elevada como para que sea
el motivo principal por el que un sujeto de experimentación participa en un proyecto.

Razón riesgo / beneficio favorable


Punto muy importante que se encuentra también en todos los códigos de ética en la
investigación con seres humanos.

El riesgo es inherente a la investigación; el mayor o menor riesgo es aceptable dependiendo de


las condiciones. Aquí entra lo que llamábamos el «principio de precaución», muy importante
a la hora de diseñar esta investigación. Es primordial la protección del sujeto de investigación,
es decir, puedo admitir riesgo, pero tengo que poner los sistemas de protección suficientes para
que esta investigación sea éticamente aceptable.

Figura 5. Razón riesgo/beneficio favorable.

Técnica invasiva y riesgo superior al mínimo

Tengo que llegar a ese equilibrio entre el riesgo y el beneficio. ¿Cómo tengo que evaluar esto?
Fundamentalmente se habla de dos cosas cuando evaluamos

riesgo-beneficio en un comité de ética: se habla de técnicas invasivas y técnicas no invasivas.


¿Cuál es el problema? ¿Qué es una técnica invasiva? La técnica invasiva se considera de mayor
riesgo que la no invasiva. ¿Es un pinchazo una técnica invasiva? Parece que sí, pero, ¿un
pinchazo en el dedo, un pinchacito en la oreja es una técnica invasiva? ¿Estoy hablando de una
investigación de riesgo?

Se habla de riesgo mínimo y se habla de riesgo superior al mínimo. ¿Cuál es la diferencia? Es


difícil de establecer. Hablo de riesgo mínimo cuando las complicaciones esperables son leves
y temporales. Pero, ¿qué es leve y temporal? Esto puede ser subjetivo. También riesgo mínimo
es el equiparable al de la vida cotidiana. Pero la vida cotidiana de determinadas personas
conlleva un nivel de riesgo muy superior al de otras. Debido a este problema se habla de un
componente eminentemente subjetivo en esta valoración.

¿Qué se suele aplicar? Cuando estamos hablando de voluntarios sanos, el nivel de riesgo que
se admite, lo mismo que en poblaciones vulnerables, es solamente riesgo mínimo, que es
mucho más estricto. En el caso de personas enfermas, el tipo de riesgo que se admite puede ser
superior al mínimo. ¿Porqué hacemos esto si están enfermos? Lo hacemos porque cuando
hablamos de personas que se puedan beneficiar de manera directa de la investigación siempre
es admisible un poco más de riesgo, porque pueden obtener un beneficio personal, no solo un
beneficio general para la sociedad por la adquisición de conocimientos como en el caso que
estamos hablando de participantes sanos o poblaciones vulnerables que no vayan a beneficiarse
de forma directa.

Tipos de riesgo

Hay que tener en cuenta una cosa más a la hora de evaluar el riesgo. Es muy fácil pensar en un
riesgo físico, un riesgo de caer enfermo, un riesgo de caerse, etc., pero el riesgo no es solo
físico.

Hay que tener en cuenta el riesgo psicológico, el riesgo social, el riesgo de invasión de la
privacidad de una persona, el riesgo para su honor o su imagen, etc. Todo ello lo tiene que
valorar el comité de ética y valorarlo previamente el propio investigador antes de presentarlo
al comité.

Evaluación independiente

¿Porqué la evaluación por comités?

Porque tenemos distintos intereses a la hora de plantear un proyecto de investigación. Por un


lado, tenemos los participantes (sujetos voluntarios), por otro al investigador y también a los
organismos de financiación.

Figura 6. Evaluación independiente.

El participante

¿Porqué tenemos conflicto de interés? El participante es quizá es el que pueda tener menos
conflicto. En los casos en que sea un participante enfermo o que pueda obtener algún tipo de
beneficio directo en el proyecto, puede presionar para ser incluido o puede presionar para que
salga adelante el proyecto. Tanto el propio participante como grupos o asociaciones que
defienden determinados intereses.

El promotor

Mucho más importante es el conflicto que pueden presentar los promotores de la investigación,
es decir, los que van a financiarlo. Especialmente hablamos de las compañías farmacéuticas
que hacen grandes inversiones. También el investigador puede estar sujeto a presiones para
publicar, obtención de beneficios profesionales, etc. Todo ello hay que conjugarlo y tenerlo en
cuenta dentro de los comités.

Los promotores, los que financian, pueden tener interés en que salga adelante un proyecto «no
perfectamente diseñado». Los intereses económicos son legítimos y son importantes para
conseguir el avance de la ciencia, pero nunca pueden quedar por encima del interés de la ciencia
en sí misma ni, desde luego, de la protección de los sujetos participantes.

El investigador

La presión sobre el investigador. Conocemos ese dicho famoso de «publicar o perecer» que
puede hacer que el investigador esté sometido a presión por parte de su propia institución para
sacar adelante una investigación. El deseo de finalizar rápidamente, los plazos para presentar
los resultados de un proyecto, entre otros aspectos, pueden llevar a que los métodos científicos
puedan ser dudosos, que se tomen atajos o que se vaya a técnicas de reclutamiento de
conveniencia: sujetos muy fácilmente disponibles. Se puede llegar incluso a usar poblaciones
vulnerables porque son más sencillas de obtener.

Otro punto a tener en cuenta es el propio entusiasmo con el proyecto, ya que es su propio diseño
o creación pueden llevar al investigador a enfatizar los beneficios que se pueden obtener y a
minimizar los riesgos, no solo a la hora de exponerlos al comité sino a la hora de exponérselos
a los participantes.

El consentimiento informado
Evidentemente, el consentimiento informado ya figura en el código de Nuremberg, en el
informe Belmont y en todas las declaraciones internacionales, así como en las normativas
internas. Se considera absolutamente esencial en cualquier tipo de investigación con seres
humanos.

La información

Tiene que cumplir unos mínimos, no es la mera firma de un documento, supone que la
información que recibe el participante ha de ser suficiente: tiene que conocer los objetivos de
la investigación y cuál es el procedimiento concreto para el que se le está pidiendo colaboración
así́ como los riesgos.

La capacidad
La capacidad del participante es muy importante, es decir, tiene que ser suficientemente capaz
de comprender cuales son los riesgos que corre y para qué concretamente está dando
consentimiento. Esta capacidad tiene que ser tanto más exigible, es decir, el participante tiene
que tener un mayor nivel de comprensión de lo que está aceptando, cuando hay un riesgo
superior al mínimo en la investigación que estoy proponiendo.

La voluntariedad

La voluntariedad es un elemento esencial del consentimiento válido y supone que no debe


haber ningún tipo de presión sobre el sujeto ni puede haber incentivos excesivos. Tiene que ser
una participación no motivada por presiones externas. Tiene que haber, además, posibilidad de
cambiar de opinión en cualquier momento a lo largo del proyecto. Una vez que he obtenido el
consentimiento por parte del sujeto no he terminado mi labor informativa. El sujeto puede
cambiar de opinión y retirarse del estudio en cualquier momento.

El respeto por los sujetos de investigación

El respeto por los sujetos pasa por cuatro cuestiones fundamentales:

Figura 8. El respeto por los sujetos de investigación.

La seguridad del participante

Esta pasa no solo porque el protocolo que se ha presentado sea correcto, bien planteado, se
haya elaborado bien la minimización de riesgos, etc., sino que a lo largo de todo el desarrollo
del estudio hay que velar porque no haya incidencias.

Hay que vigilar si surgen efectos adversos y en el momento en que aparezcan hay que
notificarlo al participante y al organismo de control que puede ser el comité de ética y algún
otro organismo si fuera necesario.

Hay que tratar inmediatamente ese daño que se está produciendo, se retirará si es necesario al
participante del estudio y si es suficientemente grave, paralizar el estudio hasta ver qué es lo
que está fallando.
La voluntariedad

La participación es voluntaria, pero a lo largo del proceso hay que dejar siempre una salida
para el sujeto. Nos ha dado su consentimiento, pero puede cambiar de opinión en cualquier
momento sin dar ninguna explicación y sin que esto tenga ningún tipo de consecuencias
negativas, ni siquiera una mala mirada por parte del investigador.

Los datos se retirarán inmediatamente del estudio porque se ha retirado el consentimiento.

Por otra parte, cualquier modificación en el protocolo y, especialmente, si hay un cambio en el


nivel de riesgo, hay que volver a informar al participante y volver a solicitar su consentimiento
porque puede no querer aceptar un mayor nivel de riesgo.

Por otra parte, ya habíamos hablado de la voluntariedad en la participación y no usar incentivos


excesivos, ni coerción ni influencia indebida. No se debe presionar ni engañar al participante
ni se le puede incentivar de manera inadecuada.

El acceso a los resultados

Si la participación es altruista y voluntaria por el beneficio de la ciencia, lo mínimo que se le


puede ofrecer al sujeto es el acceso a esos resultados del estudio en que ha participado.

Si se obtienen datos relevantes para su salud, estamos obligados a informar, especialmente si


estamos hablando de pruebas genéticas. Si obtengo un resultado que indica que esta persona
está enferma o no, o tiene una predisposición a alguna enfermedad, tengo que informarle y,
además, en el caso de pruebas genéticas, hay que ofrecer consejo genético.

Cuando los resultados no son especialmente relevantes para su salud, aun así́ el participante
tiene derecho a saber los resultados que se hayan obtenido con sus datos. Si prefiere no recibir
esos resultados, también puede solicitarlo, existe el derecho a no saber, pero siempre que haga
pruebas y pueda volver a contactar con el participante debo darle sus resultados.

Si he anonimizado el estudio, es decir, tengo los resultados, pero no tengo forma de volver al
sujeto fuente, debo al menos ofrecer el acceso a los resultados generales del estudio mediante
las publicaciones o mediante la información sobre dónde encontrar estos resultados del estudio
en que ha participado.

La confidencialidad

Otro punto importante es la confidencialidad y la protección de datos, especialmente en


investigación biomédica, ya que los datos relacionados con la salud son altamente sensibles y
tienen que ser específicamente protegidos.

Hay mucha legislación a nivel europeo sobre protección de datos. Hay que abrir y declarar
ficheros, tomar precauciones, impedir el acceso a aquellas personas no autorizadas o que no
tengan un acceso justificado a los mismos.

Siempre que se pueda, se intentará disociar los datos personales para proteger la identidad y se
tomaran precauciones especiales en los casos de uso de imágenes. Es decir, en fotografías,
audios, etc., dónde se pueda identificar a la persona con relativa facilidad, deberán ir con
consentimiento expreso.

3. ÉTICA EN INVESTIGACIÓN CON ANIMALES

El código deontológico en psicología establece las pautas acerca de cómo investigar y cómo
velar por los derechos e integridad de los participantes humanos en los estudios de
investigación.

Los estudios que emplean animales como sujetos de estudio también han de cumplir una serie
de normas éticas relativas a las prácticas investigadoras. El estudio deberá especificar los datos
requeridos en cuanto a beneficios y costes derivados de la investigación para el animal y las
medidas que se tomaran para facilitar el bienestar del animal ante el comité de ética animal.

El objetivo de este comité es:

→ Velar por el bienestar de los animales que se emplean en investigación.


→ Reducir por tanto su uso al número mínimo de animales necesarios para llevar a cabo
el estudio.
→ Deliberar si las especies escogidas son las idóneas para llevar a cabo el estudio.
→ Velar por que los animales no sufran innecesariamente.
→ Asegurar que se utilizan los métodos eutanásicos adecuados y constatar que el personal
Investigador está capacitado para realizar la tarea.

Los investigadores deben tener en cuenta las siguientes consideraciones éticas:

→ Los animales no deben ser sometidos a procesos de estrés o daño innecesario.


→ Las condiciones de mantenimiento de salud de un animal deben ser controladas por un
veterinario.
→ Los estudios que necesiten una cantidad de animales elevada deben contribuir de
manera importante a la obtención de un beneficio humano.
→ Se evitará el uso de animales en peligro de extinción.

4. MALAS CONDUCTAS EN INVESTIGACIÓN

Como gente de ciencia que somos, también hemos establecido esquemas y registros sobre los
tipos de malas conductas más habituales, unas más que otras, pero todas reconocibles:
Figura 9. Malas conductas en investigación.

Fraude científico
En ocasiones, los investigadores inventan datos, los falsifican, los manipulan, copian de otros
sin citarlos, etc.

¿Son conductas habituales? No, pero ocurren. ¿Son fáciles de detectar? No es fácil, la
responsabilidad de cada persona sobre esto es fundamental.

Hemos dicho que hay que validarlo colectivamente, pero no es en el mundo científico habitual
pensar que las personas «van a engañar», pero a eso es a lo que se llama fraude científico.

Fraude en la publicación
Otro tipo de mala conducta científica es el fraude en la publicación. Aquí nos encontramos con
conductas algo más habituales: la presión por publicar, la del ámbito científico, la necesidad
de acceder a financiación, etc., hacen que pueda ocurrir por ejemplo la denominada autoría
ficticia. Esto quiere decir que personas que realmente no han participado en el equipo de
investigación o no han tenido una contribución sustancial, aparecen como autores por otros
motivos que antes hemos denominado «bienes secundarios».

Puede ocurrir, aunque es más extraño, que alguien que realmente ha sido autor con una
contribución importante no aparezca con la intención de que no se perciba que puede haber
una industria o alguien con intereses que no son estrictamente científicos que haya estado
colaborando o impulsando la investigación.

Otro tipo de fraude es la publicación reiterada, fragmentada o «publicación salami», para


las que se divide en partes un mismo proyecto que no debería aparecer dividido sino completo
o la publicación inflada, siguiendo con el símil alimenticio, como si le pusiésemos «algo para
que tenga más peso» aunque en realidad solo hayamos aportado pequeñas cuestiones que no lo
modifican, pero que permiten publicar en otro sitio.

Auto plagio
Otro fraude es el autoplagio. Podemos definirlo como una especie de «republicación», donde
se hacen modificaciones irrelevantes.
Por otra parte, el tema de las incorrecciones bibliográficas abarca muchos tipos; por ejemplo,
es bastante habitual que no se cite determinada bibliografía o que no se cite bien. Esto sería de
menor importancia, pero hay un aspecto muy importante y es que la bibliografía que se cita en
una publicación científica tiene que tener que ver con la bibliografía que se ha utilizado
realmente para llevarla a cabo. Existe una cierta tendencia a pensar que «mucha bibliografía
quiere decir mejor trabajo científico», cuando la bibliografía se ha de citar porque se ha
utilizado.

Sesgo
El sesgo de publicación es un verdadero problema, un «caballo de batalla» para los
investigadores.

Tiene relación con que en la mayoría de los casos no se publican aquellos resultados que
no son lo que hubiera deseado, bien el investigador, bien el patrocinador de la investigación.

Esto deja a la comunidad científica y a la ciudadanía sin un conocimiento imprescindible, por


ejemplo, para evitar que se volviese a repetir esa investigación (con su uso de seres humanos,
su coste, etc.).

Conflicto de intereses del revisor


Otra mala conducta científica que puede estar teniendo cierto peso en esta presión por publicar
y por publicar los primeros, es el denominado «conflicto de intereses del revisor».

Allá donde el revisor y la persona que presenta sus conclusiones para publicarlas estén en el
mismo territorio de investigación, pudiera darse un retraso, una copia por parte del revisor y
estaríamos ante una mala conducta con graves consecuencias.

Conflicto de intereses
Por último, tenemos el denominado conflicto de intereses. Habréis visto que en las
publicaciones se declara «no tener conflicto de interés».

Repasemos qué es esto: tiene que ver con los bienes secundarios, es decir, que se pueda obtener
un rendimiento económico o una financiación no es malo, lo que puede ser un conflicto es que
ese interés académico, institucional, etc. pueda estar influyendo en que no se sea
suficientemente responsable y riguroso en todos los pasos de la investigación científica.

Una mala conducta científica puede ser la consecuencia directa de un conflicto de interés.
Este es un aspecto muy importante y de ahí que muchas publicaciones obliguen a declarar los
«conflicto de interés».

TEMA 6: MÉTODOS DE INVESTIGACIÓN CUALITATIVAS.


RECOGIDA
1. MÉTODOS DE INVESTIGACIÓN CUALITATIVA

En gran número de fenómenos de estudio no parece una buena estrategia de estudio reducir la
realidad a cantidades y números. Igualmente, existen fenómenos que no pueden ser estudiados
en entornos controlados como los de un laboratorio. Por ello, muchas veces, la investigación
cuantitativa, a pesar de su rigor metodológico, ha sido fuertemente criticada. Estudiar gran
cantidad de sujetos para extraer valores numéricos que nos hablan de porcentajes, medias y
desviaciones, nos aleja de la verdadera comprensión del ser humano, de su individualidad y de
sus experiencias más propias y verdaderas.

Ante esta situación, los métodos de investigación cualitativos surgen como una estrategia de
investigación fundamentada en una depurada y rigurosa descripción del fenómeno,
contexto, conducta o situación de estudio.

La investigación cualitativa es aquella donde los datos se recogen no de manera cuantitativa


(números), sino mediante registros narrativos de los fenómenos de estudio ayudándonos de
diversas técnicas como la observación, la entrevista o los focus groups. Igualmente, la
investigación cualitativa trata de ir más allá de posibles asociaciones o relaciones cuantitativas
entre variables y busca analizar la naturaleza de las realidades, su sistema de relaciones, su
estructura dinámica.

Podríamos decir que la investigación cualitativa es una exploración abierta que va más allá
de lo puramente cuantificable. Tiene una necesidad de explorar los aspectos subjetivos del
sujeto y de la realidad. Utiliza el método inductivo, esto es, desarrolla una teoría a partir de
los datos. El proceso de investigación cualitativa nace, se desarrolla, cambia a medida que
avanza el conocimiento sobre el tema estudiado, o el simple contacto con los entrevistados.
Para adaptarse al continuo cambio de los fenómenos, esta metodología ha de ser flexible. El
objetivo nuevamente es conocer y comprender de manera holística toda la realidad.

No es de extrañar qué esta estrategia implique una mayor proximidad y contacto con el sujeto
de estudio.

Sus principales características son:

→ La fuente principal de los datos son las situaciones naturales. Esto se debe a que
estudian el fenómeno en su contexto natural.
→ El investigador es el recolector de datos que capta la realidad y se adapta a cómo viene
dada la información.
→ Incorpora información relativa a las intuiciones, percepciones y sentimientos de no se
expresan de manera verbal.
→ Aplicación de estrategias de recogida de datos abiertas que se adaptan mejor a la
situación.
→ Método inductivo (teoría a partir de los datos)
→ El diseño del estudio y su metodología es flexible y puede cambiar a medida que avanza
el estudio, se adapta a las nuevas circunstancias.
→ Tiene sus propios criterios de validez y evaluación de los resultados.
Sus principales diferencias frente a la investigación cualitativa pueden verse en el siguiente
cuadro:

Tabla 1. Diferencias entre investigación cualitativa y cuantitativa.

Igualmente, manifiesta unas claras ventajas frente a los métodos cuantitativos.

Tabla 2. Ventajas e inconvenientes de los métodos cualitativos vs. cuantitativos.

2. RECOGIDA DE DATOS CUALITATIVOS

La investigación cualitativa trata de explorar aquellos aspectos que van más allá de los
puramente cuantificables teniendo en cuenta aspectos como la intersubjetividad: cómo las
personas dan significado a la realidad desde un punto de vista personal y teñido de sus propias
experiencias y creencias subjetivas.

En psicología, gran parte de los comportamientos observables no responden a un patrón A o B


invariable, sino que cada uno de ellos incluye un matiz que lo diferencia del anterior.
Igualmente, no todos pueden traducirse en números. Para ello, se han ideado una serie de
técnicas que intentan «normalizar» las observaciones recogidas por los evaluadores para
poder comparar las conductas.

3. LA OBSERVACIÓN

La observación es un método de recogida de información de fenómenos naturales que permiten


describir el comportamiento, pero no establecer relaciones de causalidad entre lo observado.

La observación puede realizarse de tres maneras (procedimientos observacionales):

Figura 1. Observación de tres maneras.

Observación natural
La ventaja principal de la observación se encuentra en el realismo o veracidad de la
información facilitada. La observación es un método sistemático, es decir, sigue unas reglas
predispuestas y está dirigida hacia un objetivo concreto.

A pesar de eso, la observación como técnica apenas ejerce control sobre las variables
ambientales e introduce multitud de sesgos procedentes del observador: a veces es difícil
distinguir entre los hechos observados y la interpretación de los hechos.

En función del papel que tenga el observador, podemos distinguir dos tipos de observación
natural:

Observación participante

El observador participa activamente en el estudio: obtiene datos a partir del contacto directo
con los sujetos observados en situaciones específicas. Sus funciones son tanto la de diseñar las
pautas de observación como la recogida de los datos durante el proceso de observación. El
observador se comporta por tanto como un actor dentro del contexto de observación que ha
creado. Por ejemplo, un psicólogo en una clase registra el comportamiento de los niños con
sospecha de autismo.

Observación no participante
En este tipo de observación, el observador y el observado no mantienen ningún tipo de relación
directa. Podemos identificarlo como un simple espectador. Por ejemplo, los asistentes a un
congreso observan cómo un ponente se comporta durante una charla.

Las diferencias entre ambos tipos de observación se pueden observar en el siguiente cuadro:

Figura 2. Diferencias entre los tipos de observación.

La observación también se clasifica siguiendo otros criterios:

Figura 3. La observación no participante.

Autoinforme
Es el propio sujeto el que observa y registra sus conductas. El instrumento que sirve para el
registro se denomina autoinforme. Por ejemplo, un sujeto con tics debe anotar en una hoja los
pensamientos que preceden al tic, las conductas precedentes y el número de veces que observa
el tic al día.

Los instrumentos de registro de las observaciones suelen ser los siguientes:

→ El diario.
→ El cuaderno de notas.
→ Los cuadros de trabajo.
→ Mapas y planos.
→ Dispositivos mecánicos y electrónicos de registro (grabadora, cámara de vídeo, cámara
de fotos, ordenador, etc.).
4. LA ENTREVISTA

La entrevista se define como un encuentro interpersonal desarrollado dentro de un marco y


una situación social determinada e implica la presencia de un profesional y un sujeto
participante.

Esta definición apunta la presencia de un profesional puesto que, sin él, la entrevista se
convertiría en una mera charla. Este profesional está entrenado en recoger únicamente la
información objetiva, sin mostrar opiniones o creencias respecto a la información recogida
del sujeto.

Las entrevistas se pueden dividir en dos tipos, siguiendo el criterio de solicitud:

Figura 4. Dos tipos de entrevistas.

Tal como examinábamos en temas anteriores y siguiendo el criterio de libertad que se concede
al entrevistado, podemos clasificar las entrevistas en:

Figura 5. Tipos de entrevistas.

→ Entrevista estructurada: el entrevistador selecciona previamente las preguntas y


conforma un guion con el orden en que deben ser preguntadas. No se da posibilidad al
entrevistado de salirse del guion o permitirle una réplica distinta a la ofrecida. Las
preguntas son cerradas.

Por ejemplo: «¿Considera que es hablador con los demás?» (posibilidad de respuesta: sí/no).

→ Entrevista semiestructurada: se determina de antemano cuál es la información que


se pretende conseguir. Se realizan preguntas abiertas al entrevistado que el
entrevistador debe integrar en las respuestas objetivo.
Por ejemplo: queremos entrevistar a un niño con alto absentismo escolar. Se le realizan una
serie de preguntas como las siguientes:

→ ¿Sueles aprobar las asignaturas? ¿Cuáles?


→ ¿Haces las tareas que te piden para casa? En caso que tu respuesta sea no, ¿por qué?
→ Entrevista no estructurada: no existe un guion previo. El entrevistador solo tiene
como referente la información sobre el tema que se pretende evaluar en el participante.
La entrevista se va construyendo a medida que avanza el diálogo estructurado. Requiere
de una excelente preparación y conocimiento por parte del entrevistador sobre el tema
de estudio.

5. FOCUS GROUPS

El focus group es un tipo de entrevista que incluye un grupo de personas con conocimiento
en un tema concreto y que ofrecen sus opiniones o creencias sobre el mismo. Es un medio
para recopilar información desde distintos puntos de vista. Es muy utilizado en la evaluación
de programas.

Las funciones de los focus groups son las siguientes:

Figura 6. Funciones de Focus group.


Antes de aplicar los focus groups, el evaluador principal debe decidir cuál va a ser la
problemática a tratar. A continuación, se seleccionan las personas que van a formar parte
del grupo —dependiendo del grado de profundización que el entrevistador quiera promover,
se seleccionarán participantes más o menos expertos en la temática a tratar— y se elaborará la
guía sobre los temas a tratar y que determinará el curso de la sesión.

Por ejemplo, se quiere elaborar una prueba para evaluar el grado de consideración y
predominancia social que ocupan las personas mayores en las familias de etnia gitana. El
evaluador decide plantear un proceso de recogida de información mediante un focus group para
elaborar los ítems del cuestionario.

Para ello, selecciona a cuatro participantes: un trabajador social, una persona de 66 años que
viva en un núcleo familiar extenso, un adolescente y el representante de la asociación de la
etnia gitana de la zona. En este caso, todos los participantes son de etnia gitana.

A continuación, el entrevistador selecciona una serie de preguntas que representarán las


conductas objetivo que se quieren evaluar y responderán a los futuros ítems que se incluirán en
el test. Se proponen las preguntas al grupo (por ejemplo: «¿cómo definirían el trato de los
adolescentes gitanos hacia sus mayores?») Y el entrevistador va registrando las respuestas,
aplicando las funciones propias de estos grupos (profundización, confrontación, etc.).

Finalmente, se analizan las respuestas recogidas y a partir de estas, se redactan las


preguntas y respuestas que conformarán el test.

TEMA 7: MÉTODOS DE INVESTIGACIÓN CUALITATIVA:


TRATAMIENTO DE LOS DATOS

1. ANÁLISIS DE DATOS CUALITATIVOS

La investigación cualitativa permite el entendimiento de los fenómenos psicosociales


complejos y su medición o reducción de su intersubjetividad inherente a variables fácilmente
examinables por parte del investigador.

Además de las técnicas ya estudiadas de recogida de datos como la entrevista y los focus
groups, existen otros métodos que contribuyen al análisis de los datos cualitativos anotados por
parte del observador.

2. CODIFICACIÓN
El término codificación hace referencia al proceso a través del cual fragmentamos o
segmentamos los datos en función de su significación para con las preguntas y objetivos de
investigación1. Implica un trabajo inicial para preparar la materia prima que luego habrá de ser
abstraída e interpretada. La codificación nos permite condensar nuestros datos en unidades
analizables y, así, revisar minuciosamente lo que nuestros datos nos quieren decir. La
codificación nos ayuda a llegar, desde los datos, a las ideas.

Antes de comenzar con la codificación, debemos de familiarizarnos con nuestros datos. Esto,
en la mayoría de los casos, es algo adquirido después de haber recolectado los datos y haberlos
transcrito. Aún así, una lectura integral de todos nuestros datos nos facilitará una visión
completa e integradora del material que nos traemos entre manos.

Después de esta lectura en profundidad, empezaremos con el proceso de codificación,


propiamente dicho, mediante la identificación de palabras, frases o párrafos que consideremos
tienen una significación destacable en relación a nuestros objetivos de estudio. Al mismo
tiempo que vamos identificando estos elementos de significación, les vamos a ir asignando un
código, nombre o etiqueta que intente compilar el significado emergente.

Obviamente, toda la información la apuntaremos en un registro que será un fiel reflejo de ese
código. Cada evento de interés deberá ser asignado a un código específico.

En este tipo de análisis, es muy importante saber cuál es el objetivo de nuestro análisis, debido
a que es muy fácil perderse entre tanta información. Igualmente tendremos claro cuáles son las
unidades de conducta que nos interesan para nuestro estudio y porqué.

Existen diferentes tipos de registros:

→ Registro no sistemático:
o Se da en la primera fase del estudio.
o Se realiza cuando el conocimiento aún es escaso.
o Puede ser narrativo (se limita a contar lo que pasa) o descriptivo (tienen más
estructura).
→ Registro con Sistematización parcial:
o Mayor control externo.
o Poco utilizado.
o Controla el orden de aparición de los eventos y su duración.
→ Registros sistematizados:
o Genera datos netos susceptibles de ser analizados.
3. CATEGORIZACIÓN

Una vez que los datos ya han sido codificados por el investigador, el siguiente paso es
ordenarlos y clasificarlos en base a sistema de categorías. Lo cierto es, que en la investigación
cualitativa no existe un modelo de categorías prototípico. Veíamos en anteriores sesiones que
la metodología cualitativa tenía la capacidad y necesidad de adaptarse al contenido y fenómeno
de estudio. Por lo tanto, en este caso, las categorías que elijamos en nuestro estudio han de ser
específicas para el mismo, de tal manera que se ajusten lo mejor posible a su naturaleza.
Si nos fijamos, poco a poco estamos pasando de un nivel más general-inicial-impresionístico a
un nivel más formado (cuantitativo) y replicable.

Las categorías que elijamos para ordenar la información deberán de tener las siguientes
propiedades:

→ Complementarias: entre ellas deberán de ser capaces de atender a toda la información.


→ Pre-establecidas por el investigador: las creará el investigador, elemento con mayor
conocimiento sobre el área de estudio y por lo tanto con mayor criterio.
→ Equivalentes: todas las categorías tendrán el mismo peso en el estudio e incluso serán
equivalentes a otros sistemas.
→ Excluyentes: un mismo elemento no debería de aparecer en varias categorías de un
mismo sistema. Esto depende de lo rigurosos que seamos a la hora de definir cada
categoría.
→ Exhaustivas: cada elemento de categorización, deberá de tener una categoría en la que
pueda encajar. Por lo tanto, ningún elemento se quedará sin ser categorizado.

4. ANÁLISIS DE CONTENIDOS

También denominado análisis temático, el análisis de contenidos pretende cuantificar la


ocurrencia de conceptos o contenidos previamente definidos por el investigador. Es de
utilidad cuando el observador quiere resumir o categorizar temas de interés que se repiten a lo
largo de la recogida de datos.

Se puede incluir en esta categoría el análisis de los resúmenes de comentarios obtenidos a partir
de la aplicación de un cuestionario, análisis de diarios, vídeos, etc. La técnica se basa en el
análisis de resúmenes de frecuencia/ocurrencia de comportamientos, que el investigador
clasificará para dotarlos de un valor matemático. Este proceso es lo que se denomina análisis
de contenidos.

En este sentido, el análisis de contenidos puede utilizarse de acuerdo a tres enfoques:

→ Según el interés del observador por los contenidos:


o Descubrimiento de tendencias en el contenido de la comunicación: consiste en
la aplicación de las mismas preguntas a distintas poblaciones para comparar el
cambio en las tendencias de respuesta. Son de utilidad para evaluar las
aportaciones que los medios de comunicación realizan en la sociedad.
Por ejemplo, se puede preguntar a la población lo que opinan de un político
antes y después de la campaña para las elecciones, y así evaluar la tendencia de
voto de la población en función de la campaña difundida en los medios.
o Comparación de niveles de comunicación: se comparan los niveles en los que
se transmite la información entre el sujeto y el entrevistador, incluyendo
comunicación no verbal y verbal. Por ejemplo, qué dice en entrevistado de
manera verbal y qué dice su expresión corporal.
→ Según la naturaleza del contenido:
o Detección de técnicas de propaganda: revela estrategias para implementar
determinadas actitudes sobre los sujetos. Por ejemplo, una campaña publicitaria
que anima a los telespectadores a promover hábitos saludables mediante
imágenes agradables.
o Medida de la legibilidad de los materiales de la comunicación. Por ejemplo, la
capacidad que tienen esos materiales de calar en el receptor.
o Descubrimiento de estilos en comunicaciones escritas o visuales.
→ Según la interpretación del contenido:
o Identificación de las intenciones de los sujetos al informar al observador.
o Determinación del estado psicológico del individuo.
o Obtención de información estratégica.

Figura 1. Obtención de información estratégica.

La secuencia de trabajo que debe seguir el análisis de contenidos es la siguiente:

Figura 2. Secuencia de trabajo.

5. TEORÍA FUNDAMENTADA
El método de la teoría fundamentada es una aproximación rigurosa que provee al
investigador de estrategias sistemáticas para el análisis de la información cualitativa. Se
diseñaron como métodos de creación de teorías (bottom-up), infiriendo la teoría desde los
datos. Han sido ampliamente utilizados en la disciplina sociológica.

El objetivo principal de la metodología es generar teorías que expliquen el fenómeno


estudiado a través de la observación y análisis de fenómenos sociales en contextos
naturales. Por ejemplo, si observamos la existencia de una serie de síntomas gripales concretos
en un lugar determinado, distintos a los manifestados el año anterior, podríamos teorizar acerca
de la presencia de una nueva cepa del virus de la gripe originada en la zona donde se observaron
los primeros casos sintomáticos.

En la teoría fundamentada no se busca controlar variables, sino observar su ocurrencia y


entender por qué ocurren. Para ello, debemos escuchar los testimonios de las personas
implicadas. De esto y de la tarea de darle sentido es de lo que se encarga el investigador.

Una vez descritos los sucesos, la teoría fundamentada se divide en las siguientes fases:

Figura 3. Fases de los sucesos.

De este modo, la teoría fundamentada es un método inductivo que permite crear una
formulación teórica basada en la realidad tal y como se presenta, utilizando lo expresado por
los informantes y buscando el mantenimiento de la significación que las palabras tienen para
sus protagonistas.

6. ANÁLISIS DEL DISCURSO

El análisis del discurso hace referencia al examen de las reglas por las que se ordena el
enunciado personal del sujeto o la conversación entre dos personas. Igualmente, incluye
el análisis del vocabulario específico formado por convención para la comunicación entre
distintos grupos sociales o profesionales.

El análisis del discurso implica las siguientes fases o niveles de análisis:

→ Nivel positivo: identificación de los componentes que rodean el discurso y que


permiten la comprensión del mismo.
o El contexto.
o El asunto principal (puede estar implícito en el texto o puede ser explicitado por
el sujeto).
o Los agentes implicados (generador del mensaje, receptor, canal…).
o Los productos (los materiales que se generan a partir del discurso).
→ Nivel estructural: analizar el contenido del mensaje.
o Determinar la ideología, los recursos lingüísticos utilizados, el tipo de
argumentación utilizada y las técnicas de persuasión empleadas, las estrategias
de apoyo al discurso utilizadas (opinión de expertos, uso de la tradición…).
→ Nivel socio-hermenéutico: Diseñar un modelo completo sobre el discurso
estableciendo una relación entre los elementos analizados y determinar su génesis y
expresión. El procedimiento normalmente suele seguir los siguientes pasos:
o Uso de programas informáticos para analizar las palabras o sintagmas que más
se repiten y creación de un patrón de palabras dentro del discurso.
o Búsqueda de formas iterativas en la composición de las oraciones y configurar
las reglas seguidas por el sujeto para formar las estructuras de lenguaje que
utiliza.
o Identificación de la línea argumentativa a partir de la combinación de las
oraciones. Es el nivel más personal de análisis del discurso en los sujetos.
o Relacionar unas líneas argumentativas entre otras para configurar el discurso
completo.

Figura 4. Niveles.

7. ANÁLISIS NARRATIVO

El análisis narrativo trata de investigar las experiencias biográficas de los sujetos y sus
emociones a través del análisis de sus historias. Es una visión más amplia que el análisis de
contenidos, puesto que el primero lleva a cabo un análisis en profundidad de los aspectos más
elementales. Por el contrario, el análisis narrativo enfoca su interés en el significado del
mensaje transmitido por el sujeto y el análisis del desarrollo psicológico,
autoentendimiento y relación con el mundo que rodea al sujeto a través de su narración de los
hechos/eventos.

El método de análisis narrativo asume la existencia de un narrador (participante en el


estudio) y un receptor (investigador). La narrativa es una interacción entre ambos elementos
que expresa la forma en la que el sujeto de estudio ha interpretado las experiencias.

Las narraciones tienen las siguientes características:


Figura 5. Características de las narraciones.

Estas características señalan que la narración es una construcción social extraída a partir de
la interacción de la gente con el sujeto y que influye en la manera de contar sus historias. Las
fuentes de recogida de datos suelen ser las entrevistas, las cartas, las autobiografías y las
historias orales.

En el momento en el que contamos o escribimos un relato estamos describiendo algo


previamente existente (consciente o inconsciente). Las narraciones reflejan la realidad de
nuestras experiencias y pueden establecerse, por tanto, relaciones congruentes entre lo que se
cuenta (interpretación) y lo realmente vivido.

Los investigadores suelen adoptar dos posiciones básicas al trabajar sobre los análisis
narrativos:

→ Analista de datos: que realiza un análisis de la narración y piensa sobre los relatos.
Asumen que los relatos son hechos sociales que analizan de manera rigurosa a través
de técnicas y estrategias analíticas. Su propósito es el de explorar características de
contenido o estructura, llegando al nivel teórico.
→ Narrador de historias: que piensa con los relatos. En este tipo de análisis el producto
es el propio relato. Las historias por sí mismas realizan el trabajo de análisis y
teorización. El investigador participa en el momento en el que se está contando la
historia ya que interactúa con el narrador.

TEMA 8: MÉTODOS DE INVESTIGACIÓN CUALITATIVA:


EVALUACIÓN DE LAS INVESTIGACIONES CUALITATIVAS
1. EVALUACIÓN DE INVESTIGACIONES CUALITATIVAS

Tras la descripción detallada de los distintos tipos de diseño e instrumentos de recogida de


datos cualitativos, se examinan los criterios por los que se rige la evaluación de investigaciones
cualitativas.

Figura 1. Criterios por los que se rige la evaluación cualitativa.

→ Criterios convencionales. Son los criterios tradicionales: validez interna, externa,


fiabilidad y objetividad.
o La validez interna (Veracidad) se refiere al grado en que un experimento
excluye las explicaciones alternativas de los resultados, es decir, al grado en que
ciertamente la manipulación de la V.I. es responsable de los cambios en la V.D.
Podemos aumentar esta validez haciendo una inmersión profunda y prolongada
en el tema de estudio. Igualmente, contrastar la información mediante el uso de
diferentes fuentes de información (triangulación) es una técnica que nos ayudara
a mejorar los niveles de veracidad de nuestro estudio.
o La validez externa (aplicabilidad) se refiere a la extensión y forma en que los
resultados de un experimento pueden ser generalizados a diferentes sujetos,
poblaciones, lugares, experimentadores, etc. Para conseguir mayor validez
externa podremos describir el estudio y sus circunstancias de manera que otros
investigadores puedan replicar los resultados en posteriores estudios similares.
o Fiabilidad es el grado de consistencia en el que se manifiestan los resultados.
Tenemos que tener en cuenta que trabajamos con información proveniente de
creencias, subjetiva y por lo tanto susceptible de ser frágil y cambiante.
Nuevamente una exhaustiva descripción de las condiciones de nuestro estudio
será clave para la fiabilidad de nuestros resultados.
o Objetividad (neutralidad) no es fácil en este tipo de estudios dada la flexibilidad
de la información. Por ello es importante señalar el marco de referencia en el
que se encuadra nuestro estudio y contrastar la información usando diversas
fuentes.
→ Criterios paralelos o cuasi-funcionales. Son los criterios que surgen como resultado
de la elaboración de estándares propios dentro del paradigma cualitativo, ya que dentro
de las técnicas cualitativas se entiende que la realidad personal que se examina en un
individuo no es comparable con la del resto. Prácticamente serían similares a los
criterios convencionales pero adaptados a la metodología cualitativa.
o Credibilidad: hace referencia al grado de veracidad que podemos espera de
nuestros resultados.
o Transferibilidad: hace referencia a la probabilidad de generalizar nuestros
resultados a otras muestras o poblaciones con éxito.
o Dependencia: estabilidad y consistencia de nuestros resultados, que no
dependan de otras variables confusoras.
o Confirmabilidad: objetividad y neutralidad de nuestros resultados.
→ Criterios propios del investigador. Se denominan también criterios de autenticidad.
Los puede generar el propio investigador en base a sus criterios o intereses.
Pueden ser:
o Equidad: presentación de los puntos de vista de diversas personas. Autenticidad
ontológica: grado en que las construcciones personales son mejoradas en la
evaluación.
o Autenticidad educativa: contrastar las elaboraciones propias con otros sistemas
de valores alternativos.
o Autenticidad táctica: motivación de los participantes a la acción.
→ Criterios postmodernos. Se plantea que no pueden existir criterios tan específicos para
un análisis tan cargado de subjetividad y realidades múltiples. En consecuencia, están
emergiendo nuevos criterios de calidad para la evaluación en investigación cualitativa
que se rigen por los siguientes principios:

Figura 2. Criterios emergentes.

Algunos de los criterios post-modernos son:

→ Los que marcan como estándares la propia comunidad investigadora.


→ La perspectiva epistemológica que busca llegar a conocer los principios, fundamentos,
extensión y métodos del conocimiento humano.
→ La comunidad científica y no científica como árbitro que decide la pertinencia de un
estudio.
→ La capacidad de un estudio de proveer a cuantas más personas de voz y voto y diseminar
sus perspectivas reales.
→ La necesidad de plasmar de manera adecuada la propia subjetividad de un
investigador dentro de su estudio (contexto, grupo, cultura) y ser crítica con ella.
→ La reciprocidad que promueve un estudio de cara a generar confianza, acuerdo y
transmisión de sensibilidades entre participantes e investigadores.
→ Sacreedness o respeto hacia los participantes y la investigación preocupándose por las
consecuencias sociales que puede tener implícitas un estudio de investigación (por
ejemplo, medir el grado de satisfacción de los trabajadores de una empresa tendrá unas
consecuencias deseadas y no deseadas como la percepción de atención por parte del
trabajador, pero también la reflexión profunda acerca del grado de satisfacción que está
experimentando).
→ Distribución de beneficios. No olvidemos que una investigación ha de beneficiar
necesariamente a los participantes. Si el único beneficiado es el investigador, la
investigación no estará haciendo una buena distribución de esos beneficios.

Ante la diversidad de criterios, se ha llevado a cabo un consenso entre los autores relevantes
en el campo y se han elaborado las siguientes directrices de publicación específicas de la
investigación cualitativa:

→ Reconocimiento de la propia perspectiva.


→ Descripción de la muestra.
→ Construcción a partir de ejemplificaciones.
→ Proporción de pistas de credibilidad.
→ Coherencia.
→ Desarrollo de tareas generales vs. específicas de investigación.
→ Representación adecuada para los lectores.

2. EVALUACIÓN DEL IMPACTO DE UNA INVESTIGACIÓN

En el contexto actual de la gestión de proyectos de investigación desarrollo se hace necesario


disponer de herramientas para monitorear y evaluar el avance y el desempeño de los proyectos,
así́ como sus resultados y el impacto en la sociedad.

En el sistema de gestión de proyectos basado en resultados lo primordial no solo es el proceso


o producto en sí mismo, sino también el resultado o impacto del proyecto (si el
programa/proyecto produjo los efectos deseados en las personas, hogares e instituciones y si
esos efectos son atribuibles a la intervención del programa / proyecto).

Se denomina impacto de un proyecto a la contribución significativa de un proyecto al logro del


Fin/Propósito, que es un problema sectorial, y es un cambio o conjunto de cambios duraderos
en la sociedad, la economía, la ciencia, la tecnología y el medio ambiente que mejora o degrada
sus indicadores.

La evaluación del impacto del proyecto se realizará a partir de los siguientes parámetros
básicos:

→ Pertinencia: grado en el cual el objetivo del proyecto es consistente con las prioridades
de desarrollo de la población y las políticas de la entidad ejecutora y el organismo
financiador.
→ Eficacia: grado en el cual se logran las metas de un proyecto. En general, la eficacia es
la verificación del cumplimiento de los objetivos de una intervención.
→ Eficiencia: análisis de los resultados con relación a la utilización óptima y oportuna de
los recursos o análisis de costo-beneficio.
→ Impacto/Propósito: valoración socio-económica global, incluyendo los efectos
positivos y negativos, tanto aquellos que son deseados y estaban previstos, como los no
previstos y no deseados. La evaluación de impacto es una actividad compleja y requiere
el análisis de información, encuestas y análisis estadísticos en muchas ocasiones, sin
embargo, pudiera simplificarse utilizando óptimamente el análisis de información y el
criterio de expertos que como resultado pudieran aportarnos resultados validos en el
ejercicio de evaluación.
→ Sostenibilidad: apreciación de la capacidad para mantener los impactos positivos del
proyecto por un largo periodo de tiempo. Análisis sobre si el efecto global, en términos
de tiempo, por ejemplo, la mejora de la calidad del paciente, es positivo también en el
largo plazo.
3. ÉTICA DE LA INVESTIGACIÓN CUALITATIVA

Al igual que ocurre en la investigación cuantitativa, a lo largo de todo este tiempo de


investigación con humanos se han desarrollado una serie de códigos de buenas prácticas y
ética investigadora que delimitan los límites a los que la investigación puede llegar.

La investigación cualitativa también se rige por estos principios éticos (código de Núremberg,
Declaración de Helsinki, etc.) y añade una serie de valores específicos de la investigación
cualitativa.

La naturaleza de los dilemas planteados en la investigación cualitativa no es la misma que los


que ocurren en la investigación cuantitativa (por ejemplo, la manera de acceder a la población
o de ejercer influencia es más directa y personal en investigación cualitativa). Asimismo, los
sesgos introducidos por el investigador al observar e interpretar son más frecuentes en
investigación cualitativa.

La investigación cualitativa reconoce la individualidad de los sujetos como parte de un


contexto social, por lo que la identidad y los prejuicios condicionan el objeto de estudio y su
evaluación. El valor de la investigación descansa en la manera en que se abordan las
complejidades humanas y se construye significado a partir de estas.

Por ello, se deben tener en cuenta las dimensiones éticas en todos los momentos de la
investigación, desde la planificación estratégica hasta el pluralismo de los equipos de trabajo
implicados en el proceso investigador.

Existen una serie de requerimientos básicos en las investigaciones cualitativas:

→ Valor científico o social: la investigación debe promover una mejora para la sociedad.
→ Validez científica: planificación del estudio en base a una metodología rigurosa.
→ Selección equitativa de los sujetos: de acuerdo con criterios científicos relevantes y
por encima de estigmas sociales.
→ Proporción favorable en la ecuación riesgo-beneficio.
→ Revisores de estudios independientes de los evaluadores implicados.
→ Consentimiento por parte de los sujetos y mantenimiento de su integridad a lo largo
de todo el estudio.

TEMA 9: ELABORACIÓN DE INFORMES DE


INVESTIGACIÓN EN PSICOLOGÍA

1. EL INFORME DE INVESTIGACIÓN

El informe de investigación resume todas las etapas desarrolladas y los resultados


obtenidos durante la investigación científica y sirve como medio de comunicación entre
los profesionales. Aporta conocimiento para la sociedad y permite la replicación de estudios
y el avance científico y social.

Una de las partes más importantes del informe científico es aquella en la que se detallan la
metodología empleada, así como los resultados obtenidos y el tratamiento estadístico
aplicado. A continuación, se detallarán las claves para escribir estos apartados.

Análisis de resultados
En primer lugar, se deben exponer los principales hallazgos encontrados tras el análisis de los
datos. Se deben incluir todos los resultados relevantes, incluidos los que refutan la hipótesis
de partida. Los resultados significativos deben ir acompañados del valor del estadístico
utilizado (ejemplo: el valor de chi-cuadrado si hemos realizado una comparación de medias
entre dos variables categoriales) y del valor de probabilidad obtenido en ese contraste (ejemplo,
p=0,034). En general, se consideran significativas las probabilidades por debajo de 0,05.

Como complemento organizativo y visual, es muy recomendable la inclusión de tablas y


gráficos en el apartado de resultados. El número de tablas y diagramas vendrá definido por el
medio en el que se publiquen los resultados (artículo de revista, libro, editorial…).

Tablas

Las tablas proveen de valores exactos y pueden señalar eficientemente los principales efectos
significativos encontrados.

Tabla 1. Efectos significativos encontrados.

Gráficas
Por otra parte, las gráficas atraen la atención de los lectores e ilustran mejor los resultados y
comparaciones generales. El inconveniente es que son más costosas de reproducir.

Figura 1. Otra medicación de los pacientes en el momento basal.

La principal utilidad de usar tablas y gráficos es evitar la repetición de información y


simplificar el esfuerzo comunicador. Tanto las tablas como las gráficas deben ser las menos
posibles, deben estar incluidas en el texto al que hacen referencia y deben contener un breve
texto explicativo para que el lector las entienda de manera rápida y fácil.

Información estadística

La información estadística generalmente incluida en el manuscrito científico hace referencia al


valor de la prueba (por ejemplo, F=5,4), los grados de libertad de la prueba (por ejemplo,
gl=3), el nivel de significación (por ejemplo, p=0,02) y cuando el estudio de investigación lo
requiera, la magnitud de puntuación obtenida y la dirección del efecto. También es
recomendable incluir datos relativos a la estadística descriptiva completada (media, desviación
típica, porcentajes, etc.).

Al escribir manuscritos científicos debemos tener en cuenta que los lectores tienen
conocimientos en estadística, por lo que debemos eludir justificaciones básicas (por ejemplo,
describir por qué una prueba con una probabilidad mayor de 0,05 debe ser descartada de la lista
de resultados significativos).

2. REDACCIÓN DE LOS RESULTADOS DERIVADOS DE UNA


INVESTIGACIÓN

Los artículos o informes científicos se dividen en las siguientes partes:


→ Abstract o resumen: resumen del artículo.
→ Introducción: contexto teórico en el que se manifiesta el estado de la cuestión sobre la
variable que queremos medir y establecimiento de los objetivos e hipótesis del estudio
que realizamos.
→ Métodos: describe en detalle la forma en la que hemos realizado el estudio o
experimento, los instrumentos utilizados y el análisis estadístico aplicado.
→ Resultados: la información que proporciona el estudio realizado tras aplicar la
metodología correspondiente.
→ Discusión: aportación interpretativa de los resultados obtenidos y su relación con
aquellos, los obtenidos por otros investigadores en circunstancias similares.

Figura 2. Partes de los informes científicos.

Abstract

El resumen es un compendio del contenido del artículo, por lo que habitualmente lo redactamos
una vez están claros la metodología, la fundamentación y los resultados principales del estudio.

Es la parte más importante del artículo, puesto que, al realizar una búsqueda bibliográfica,
la parte visible para los lectores va a ser, en la mayoría de las ocasiones, solamente el abstract.
De este modo, ha de ser suficientemente informativo por sí mismo para mostrar la relevancia
de lo obtenido y captar la atención del lector.

Un buen resumen debe tener las siguientes características:


Figura 3. Características de un buen resumen.

Introducción

Se presenta al lector el problema de investigación a desarrollar, se describen los antecedentes


de estudio y la continuidad entre los estudios previos y el trabajo que queremos mostrar.

La literatura debe ser revisada y discutida sin llegar a ser una revisión histórica exhaustiva,
dado que el lector, habitualmente, seleccionará nuestro trabajo previsiblemente porque tiene
conocimientos previos en el área. Se deben citar las referencias directamente relacionadas
con la incógnita que investigamos en nuestro texto, y evitaremos artículos relacionados solo
tangencialmente. Se indican por tanto aquellos hallazgos pertinentes a la investigación que
estamos desarrollando.

Después de los trabajos previos publicados, al final de la introducción, se deberá especificar


la hipótesis principal de estudio acompañada de los objetivos que se quieren cubrir con la
investigación realizada.

Metodología

El apartado de metodología capacita al lector para evaluar la manera en que los


investigadores han llevado a cabo el estudio, así como la fiabilidad y validez de los
instrumentos y análisis empleados. Este apartado es asimismo fundamental, ya que no solo
permite comprobar el rigor y calidad de la investigación desarrollada, sino replicar el estudio
por parte de otros investigadores.

La sección de métodos se subdivide en tres apartados:

→ Participantes: se describen las características de la muestra seleccionada.


→ Instrumentos:se indican todos los instrumentos utilizados junto a una breve
descripción y la forma de uso de los mismos.
→ Análisis de datos: se indican las técnicas estadísticas utilizadas y el porqué de su
selección. Los resultados propios de la investigación, tal como hemos examinado en el
epígrafe anterior, se reservan para el apartado «Resultados».
Discusión

Esta sección debe examinar, interpretar y calificar los resultados para realizar inferencias
con respecto de la población objeto de estudio. Este proceso se realiza interrelacionando la
literatura descrita en la introducción con los resultados obtenidos.

En la discusión debemos verificar si se cumple nuestra hipótesis de partida (hipótesis nula)


o, por el contrario, los resultados la refutan y debemos quedarnos con la hipótesis alternativa.

La discusión se inicia con una descripción breve de los resultados obtenidos y su implicación
práctica, así como la afirmación clara en apoyo o no de la hipótesis nula. Tras el análisis
comparado con bibliografía previa, se deben señalar tanto las limitaciones del estudio realizado
como los puntos fuertes e innovaciones que se proponen con respecto de estudios anteriores.

A lo largo del texto, sobre todo en la sección de introducción y en la discusión, se citan los
autores de los artículos incluidos. Al final de todos los manuscritos científicos (después de la
discusión) se incluye una lista con todas las obras mencionadas (referencias bibliográficas).

El formato de las referencias varía según la revista a la que se envíe el artículo, aunque
generalmente se incluirán los autores principales del artículo, el año de publicación, el
título del artículo, el título de la revista, el número, el volumen y el número de páginas.

Por ejemplo:

Becchio, C. y Castiello, U. (2012). Visuomotor resonance in autism spectrum disorders.


Frontiers in integrative neurosciences, 22(6), 110-115.

En este sentido existen varias herramientas para la gestión de referencias bibliográficas


(Endnote, Refworks, etc.).

La forma de citación más frecuente en psicología es aquella que sigue las normas que
establece la APA (American Psychological Asociation).

3. PUBLICACIÓN DE LOS RESULTADOS DERIVADOS DE UNA


INVESTIGACIÓN

Una vez escrito el artículo éste se envía a una revista científica para su publicación. Existen
gran cantidad de ellos, agrupadas en disciplinas y áreas. Algunas son muy específicas y
publican sólo artículos relacionados con un área en concreto, mientras que otras son más
genéricas (Women and Therapy) y publican artículos más diversos (nature o Science). La
calidad de las revistas es valorada por una serie de valores numéricos, como el índice o factor
de impacto. Es más famoso es el calculado por ISI (Institute for Scientific Information). Estos
índices son calculados por organismos independientes y básicamente calculan una serie de
indicadores para, a través de una fórmula, establecer un valor que refleje la calidad de esa
publicación. Estos indicadores pueden variar, pero en general están relacionados con la
cantidad de artículos que tiene una revista, la cantidad de lectores y su relevancia teórica
(medida como la cantidad de veces que otros artículos citan a los artículos publicados en esa
revista).

Se ha escrito mucho sobre la idoneidad de estos índices. Por un lado, son muy útiles por su
sencillez a la hora de interpretarlos (un único valor numérico) peor por otro lado, se han
criticado que realmente no reflejan la calidad real, sino otros factores como el dinero invertido
en un área, la capacidad editorial de una revista, o incluso una cierta influencia de favores entre
colegas (autores que citan a sus compañeros más cercanos). En cualquier caso, nos guste o no,
estos sistemas de evaluación son los que se utilizan a la hora de evaluar la valía profesional de
un investigador, para concederle ayudas económicas o para medir su impacto.

Al haber una valoración, obviamente, también habrá una ordenación o ranking. La relevancia
de una revista se ve reflejada por el JCR (Journal Citation Report) que elabora listas de las
diferentes áreas del conocimiento y cuáles son las revistas más prestiogiosas en dicha área. Eso
quiere decir que habrá revistas como Nature con un factor de impacto cercano a los 32 puntos
y revistas como Psicología social con 0,866 puntos. En la siguiente tabla se pueden ver las
principales revistas dentro del área de psicología.

Figura 4. Journals by Rank.

Cuando escribimos un artículo nos gustaría que fuera publicado en una revista con un factor de
impacto elevado o relevancia alta, sin embargo, eso no suele ser fácil, ya que, a mayor
relevancia, mayor es el proceso de selección de los trabajos y menor la posibilidad de ser
publicado. Se debe elegir una revista acorde a la temática y calidad de nuestra investigación.
Una vez elegida la revista y enviado el artículo, ésta debe de pasar un primer filtro del editor o
editores de la revista. Éstos valoran la idoneidad del trabajo y su ajuste a la temática e interés
de los lectores. De ser así, se iniciará un proceso de revisión por pares el cual consiste en que
al menos dos copias de tu artículo serán enviadas a expertos investigadores en el campo que
evaluarán la calidad de tu artículo. Los revisores remitirán al editor un informe donde
expresarán sus impresiones acerca del artículo. Pueden pasar dos cosas: que critiquen
duramente tu trabajo y que el editor renuncie a publicarlo, o que señalen aspectos de mejora y
que el editor te pida hacer cambios (mayores o menores) de cara a publicarlo en la revista. Esto
último es lo que se llama “publicación condicionada a cambios”. El autor decidirá si asume
realizar esos cambios, si rebate algunas cuestiones en las que sus colegas los revisores no
coincidían, o si decide no asumir esos cambios y no publicar finalmente en esa revista. Si al
artículo fue rechazado en primera o segunda instancia (por el editor o por los revisores) el autor
puede decidir enviarlo a otra revista.

El tema de la revisión por pares suele ser polémico. Aunque el proceso habitualmente suele ser
anónimo (revisores ciegos), siempre puede haber ciertas suspicacias. En áreas muy específicas
del conocimiento es fácil reconocer a algunos autores. Por ejemplo, si hay dos expertos
mundiales en materia de expresión facial en personas con síndrome de Turner y uno es el
revisor, sabrá casi seguro quien es el otro autor.

Y cómo siempre, hecha la ley …, hecha la trampa. El caso de Hyung-in Moon que se creó
varias identidades académicas falsas para ser revisor de sus propios artículos.

Una vez aceptado el artículo por el editor, pueden pasar meses hasta que éste vea la luz y sea
publicado.

Otro aspecto importante es a modalidad de publicación: se puede publicar en acceso abierto


(Open Access) o en cerrado. El acceso abierto a la literatura científica supone que los usuarios
pueden leer, descargar, copiar, distribuir, imprimir, buscar o enlazar los textos completos de
los artículos científicos y usarlos con cualquier otro propósito legítimo. La única restricción
para su reproducción y distribución en el ámbito del Open Access (acceso abierto) tendría que
ser el otorgar a los autores el control sobre la integridad de su trabajo y el derecho a ser
adecuadamente reconocidos y citados.

El Acceso Abierto se justifica más si cabe, si tenemos en cuenta que la literatura científica se
genera en la mayor parte de las ocasiones en el seno de entidades públicas, costeada con
recursos públicos. En contraste con ello, esta literatura científica ha venido estando
monopolizada por los grandes grupos editoriales que cada vez han ido poniendo precios más
elevados a la distribución de la información generada gracias a las aportaciones públicas. Las
principales ventajas de publicar en abierto son:

→ El autor incrementa el impacto y visibilidad de sus trabajos.


→ La recuperación de los trabajos es más fácil y efectiva.
→ Se garantiza la preservación de los contenidos.
→ Todos los documentos se describen con metadatos normalizados. Los recolectores de
repositorios y los buscadores de Internet los difunden.
→ La comunicación de los trabajos por Internet agiliza el flujo de la información
científica.
→ La difusión de los documentos es rápida, barata, completa y transparente.

Normalmente, los costes de publicar en abierto corren a cargo de los autores (bien con ayudas
económicas de sus financiadores o de su bolsillo) y estos pueden ascender a los 2500 euros en
ciertas revistas internacionales.

TEMA 10: EVALUACIÓN CRÍTICA DE UNA PUBLICACIÓN


CIENTÍFICA

1. DIRECTRICES PARA LA EVALUACIÓN CRÍTICA DE LAS


PUBLICACIONES DE INVESTIGACIÓN

En el momento en que se publica el informe de una investigación en una revista con revisión
por pares, ha sido ya revisado con intención crítica por expertos. Habitualmente, el o los autores
han introducido cambios en el borrador inicial en respuesta a las observaciones de los revisores.
Aun así, ni siquiera un procedimiento minucioso de evaluación garantiza la validez del diseño
o resultados publicados en un artículo. Los profesionales sanitarios tienen la responsabilidad
de evaluar la validez y relevancia de un texto científico. La práctica vas a venir gracias se centra
en las formas en las que los profesionales pueden mejorar su práctica clínica.

Como profesionales, debemos de partir de un escepticismo inicial ante la nueva información.


Esta actitud se basa en el carácter incierto y provisional de los nuevos conocimientos científicos
y profesionales. Debemos asegurarnos que nuestro paciente recibe el mejor tratamiento
disponible para sus dolencias y ello se consiguen mediante una evaluación crítica de la
evidencia.

Existen multitud de referencias bibliográficas que nos ayudan a realizar una evaluación crítica
de la evidencia. Sobre todo, se han publicado guías para evaluar críticamente ensayos clínicos
aleatorizados, revisiones sistemáticas, estudios de casos y estudios de cohortes. Así tenemos la
guía CONSORT o el índice de calidad de Dows y Black que mediante una puntuación
cuantitativa [0-21] nos ayuda a conocer la calidad de una publicación.

El objetivo del análisis crítico no es desacreditar los trabajos publicados por sus autores, sino
garantizar que el lector comprende sus limitaciones y sus implicaciones.

2. EVALUACIÓN DE LA INTRODUCCIÓN

La introducción de un artículo refleja la planificación de la investigación. Las imprecisiones


en esta sección podrían ser indicios iniciales de una mala concepción y planificación deficiente.
En la introducción, los autores deben hacer una revisión breve de los conocimientos que
tenemos sobre la materia en cuestión. Hablarán del problema que pretenden tratar, sus
implicaciones y repercusiones, de los esfuerzos previos por solventarlo, los resultados
obtenidos en estos intentos (tanto positivos como negativos), y de su planteamiento.

Es importante que los autores hagan una correcta revisión de la bibliografía existente. De lo
contrario podría conducir a una innecesaria repetición de una investigación o a cometer errores
que podrían haberse evitado si se hubieran incorporado los hallazgos anteriores en la
formulación del diseño de la investigación. Omitir artículos clave con relevancia directa en el
tema, puede introducir sesgos importantes ante el planteamiento que pretenden mostrar los
autores.

En este mismo apartado de la introducción, los objetivos e hipótesis de la investigación deben


enunciarse con claridad. De lo contrario el resto del artículo puede ponerse en cuestión. Toda
investigación, tanto cualitativa como cuantitativa, deberá contar con una declaración clara de
sus propósitos.

Dependiendo de cómo estén formulados estos objetivos, los autores deberán elegir la mejor
estrategia y metodología. En esencia, la evaluación crítica pretende medir el grado de acierto
de los investigadores a la hora de seleccionar los métodos de investigación para su estudio.

3. EVALUACIÓN DE LA METODOLOGÍA

El apartado de métodos es el núcleo de un artículo. Gracias a él, los lectores serán capaces de
comprender, evaluar, y tal vez replicar el estudio. Por lo tanto, la valoración crítica de este
apartado es esencial para nuestro objetivo.

Participantes del estudio


Como sabemos, un aspecto muy importante en un estudio es la muestra utilizada y si ésta es
representativa del grupo o población objetivo. Si el modelo de muestreo es inapropiado,
entonces la muestra no será representativa, lo que suscitaría preguntas referentes a la validez
externa de los hallazgos de la investigación. En una investigación cualitativa, aunque el método
de muestreo pueda ser menos formal, la cuestión de la representatividad también ha de ser
tenida en cuenta.

El tamaño de la muestra también es un factor para tener en cuenta. El empleo de una muestra
pequeña no es necesariamente un problema grave, siempre y cuando sea representativa. Sin
embargo, cuando estudiamos una población muy diversa, una muestra pequeña no nos va a
permitir garantizar la representatividad.

Por otro lado, los autores deberán hacer una descripción clara de las características de la
muestra, el sexo, el tipo de dolencia, la gravedad, etc. Este aspecto es fundamental de cara
permitir la replicabilidad del estudio.

Instrumentos de medición
En el apartado de evaluación los autores deberán describir las pruebas e instrumentos utilizados
para medir las variables de interés de tal manera que los lectores también puedan conocer de
qué pruebas se tratan, sus propiedades, métodos de aplicación e interpretación de sus
resultados. En nuestra área, cobra especial relevancia la correcta descripción de estas
herramientas ya que podemos encontrarnos con cientos de ellas que pretenden medir el mismo
constructo psicológico.

Elegir la escala más adecuada para nuestros objetivo puede ser un aspecto determinante para
poder evaluar la validez del estudio. Una mala elección, puede echar por tierra todos los
resultados.

La escala deberá estar ajustada a la población de estudio (mayores, niños, adultos…), el


constructo que pretende medir, y su validez y fiabilidad psicométrica.

En ocasiones tenemos que hacer uso de escalas desarrolladas ad hoc, lo cual imposibilita
totalmente la comparación con otros estudios similares.

Procedimiento
Se requiere una descripción completa del modo en que se llevó a cabo la investigación, tanto
para su repetición, como para la evaluación de su validez interna y externa. El requisito de
aportar una argumentación clara y explícita se aplica tanto a los estudios cualitativos como
cuantitativos.

El diseño elegido en un estudio es cuestión fundamental de cara a reducir las interpretaciones


alternativas. Para una investigación que pretende estudiar relación de causa-efecto, un diseño
deficiente dará como resultado influencias no controladas de variables externas que pueden
distorsionar los resultados. En un estudio cualitativo, el enfoque teórico adoptado en el diseño
del estudio desde igualmente enunciarse con claridad.

Cuando el objetivo es identificar factores causales una forma de controlar el sesgo Y los efectos
de confusión consiste en emplear grupos de control. Si no se emplean grupos de control se
pondría en cuestión la validez interna de la investigación.

En el caso de haber incluido un grupo control la asignación de los participantes a cada grupo
debe ser igualmente explícitada. Elegir una asignación aleatoria O no aleatoria tiene
importantes consecuencias a la hora de asegurarnos la formación de grupos equivalentes. Si se
trata de un ensayo clínico, también llamado diseño experimental, los autores deberán explicar
cómo se hizo tal aleatorización.

Igualmente, siempre que sea posible, los estudios de intervención deben utilizar procedimientos
de cegamiento o doble cegamiento para que ni los participantes sin el evaluador conozcan a
qué grupos han sido asignados.

Intervención
Por último, el tratamiento o intervención aplicada es una cuestión fundamental en el apartado
de la metodología. Es importante describir todos los tratamientos tanto del grupo control como
el grupo experimental. En caso grupo control no reciba tratamiento, este también debe ser
definido. Por ejemplo, sigo grupo control está recibiendo tratamiento habitual deberemos de
describirlo. Si el tratamiento control consiste en un placebo, deberíamos de indicar en qué
consistía el placebo, su forma y método de aplicación. En nuestra área cobra especial relevancia
la descripción de nuestras intervenciones debido a que éstas suelen ser muy heterogéneas y
difícilmente replicables. Pensemos que, por normal general, son intervenciones individuales y
poco estandarizadas. Según los criterios TIDIER cuando describamos nuestra intervención
deberemos señalar los siguientes aspectos:

→ Nombre de la intervención.
→ Teoría en la que se sustenta u objetivos que persigue.
→ Materiales necesarios para ponerla en práctica.
→ Procedimiento de aplicación.
→ Quien la aplica.
→ Cómo se aplica o formato de aplicación (online, presencial, telefónico, individual…).
→ Donde se aplica (si hacen falta unas condiciones ambientales específicas).
→ Cuando y durante cuánto tiempo.
→ Individualización de la intervención o aplicación grupal.
→ Modificaciones posteriores.
→ Adherencia.

Análisis de datos
En el caso de estar ante un estudio cuantitativo es importante que los autores indiquen
claramente cómo han tratado los datos, los análisis efectuados y las estrategias estadísticas
empleadas. El lector debe de ser capaz de interpretar los resultados de manera clara, y esto no
es posible si se desconoce el análisis efectuado. Un valor p de probabilidad no tiene sentido si
no conocemos el resto de los resultados directos que nos informen de la media, la desviación o
las frecuencias y porcentajes. La selección de estadísticos inapropiados distorsiona los
hallazgos y conduce a conclusiones erróneas.

En ocasiones también se suele hacer referencia a los programas estadísticos empleados para
poder en caso necesario replicar esos resultados.

4. EVALUACIÓN DE LOS RESULTADOS

Los resultados de los estudios cuantitativos se analizan por medio de la estadística descriptiva
e inferencial. Las inexactitudes en el análisis estadístico dan lugar a errores de interpretación
de los hallazgos encontrados. En el caso de las tablas de gráficos éstos deben ser correctamente
tabulados y etiquetados para una correcta interpretación.

Obviamente, si necesitas calcular de modo correcto el valor de los estadísticos descriptivos y


de inferencia. En general, el empleo de ordenadores garantiza este cálculo, aunque ha de
prestarse cierta atención a los errores graves cuando se van evalúan los datos presentados.
Recordemos del tema de ética, que en raras ocasiones los datos pueden haber sido manipulados
de cara a beneficiar los intereses de los autores. Obviamente, esta práctica no es ética.

5. EVALUACIÓN DE LA DISCUSIÓN
En la sección de discusión, los investigadores interpretan las evidencias con referencia a los
objetivos, la pregunta de investigación y las hipótesis. Una interpretación incorrecta puede
conducir a distorsiones del conocimiento y a la propuesta de prácticas ineficaces.

En el apartado de la discusión deben aparecer las limitaciones del estudio y sus repercusiones
de cara a interpretar correctamente los resultados. Si nuestro estudio incluye una muestra
pequeña deberíamos de señalarlo Y avisaremos al lector de las consecuencias que esto puede
tener sobre los resultados. Igualmente, señalaremos el resto de limitaciones de nuestro estudio
tanto metodológicas como prácticas.

La interpretación de los hallazgos han de obtenerse de la información recopilada, sin introducir


evidencias externas. Por ejemplo, si la investigación utilizó un diseño con un solo participante,
las conclusiones no deberían proclamar que el procedimiento tiene una utilidad para toda la
población. En términos estrictos, los datos obtenidos de una muestra son generalizables sólo a
la población en la que se eligieron los participantes.

Por último, es importante destacar que la obtención de significación estadística no implica


necesariamente que los resultados de la investigación sean de utilidad clínica o asistencial. Para
decidir acerca la significación clínica ha de tenerse en cuenta factores como los efectos
secundarios, la rentabilidad económica, así como los juicios de valor de los participantes en
relación con el resultado.

TEMA 11: CAJA DE HERAMIENTAS DE UN


INVESTIGADOR

1. HERAMIENTAS DE ACCESO AL CONOCIMIENTO

La primera dificultad que nos vamos a encontrar en las fases iniciales de un proyecto

—cuando aún estamos definiendo nuestra pregunta— es el acceso al conocimiento. Muchas de


las fuentes de información —bases de datos, revistas, publicaciones, etc.— suelen publicarse
«en cerrado» y es necesario el previo pago para acceder a ellas. Este pago, por lo general, es
bastante elevado en términos económicos.

No obstante, en los últimos años se ha venido promoviendo una nueva forma de publicar
denominada open access («en abierto»), donde los autores abonan los costos derivados de la
gestión de su artículo —maquetación, publicación, acceso online, etc.—. Esta modalidad de
publicación facilita el acceso a los posibles lectores y conlleva el beneficio secundario para
el propio autor de un incremento en el posible número de citaciones.

Aun así, si el artículo al que queremos acceder no está en open access, existen otras vías de
acceso al contenido deseado:
→ Escribir un mail al autor o autores de la publicación indicándoles nuestro interés en
acceder a su contenido. Recordemos que todas las publicaciones cuentan con un autor
de correspondencia que se encarga de responder a posibles preguntas de los lectores.
Cada artículo cuenta con información de contacto de los autores. En este sentido, es
interesante hacerse una plantilla de solicitud de artículos para automatizar aún más la
tarea.
→ Consultar en la biblioteca de la universidad o en bibliotecas de otras universidades.
Es frecuente que las bibliotecas de las universidades contemplen la posibilidad de dar
acceso a personas no matriculadas a través de carnets especiales (por ejemplo, carnet
de antiguos alumnos). Igualmente, las bibliotecas de las universidades suelen tener un
servicio de «préstamo interbibliotecario» por el cual se prestan artículos y publicaciones
entre ellas. Tu bibliotecario puede ser una gran ayuda.
→ Unirse a redes sociales de investigación donde es más fácil contactar con los autores.
Un ejemplo muy bueno de red social de investigación es www.researchgate.com. En
esta web los autores cuelgan o comparten de manera desinteresada sus publicaciones.
El sistema está perfectamente automatizado para que pedir el artículo sea tan sencillo
como dar un click.
→ Rastrear la web en busca de otras vías de acceso. A veces el artículo puede estar
publicado en otras webs institucionales o en repositorios no oficiales. En los últimos
años está disponible una web muy polémica denominada «la Robin Hood de la ciencia»
(sci-hub.cc) que ha llegado a acuerdos con otros autores e instituciones para ofertar de
manera desinteresada acceso a las publicaciones. Es frecuente que para evitar
restricciones legales cambien de dominio.
2. GESTOR DE REFERENCIAS BIBLIOGRÁFICAS

Una vez que hemos acumulado suficiente conocimiento y evidencia acerca de un determinado
tema, es frecuente que nos encontremos con un montón de archivos en nuestros discos duros o
de papel impreso que desborda nuestra mesa. Este cúmulo de información debiera de poder
guardarse de manera informatizada y ordenada de tal forma que su acceso y utilización
sea una tarea sencilla y específica.

Para ello existen diversos programas denominados «gestores bibliográficos». Estos


programas nos permiten crear nuestro propio repositorio informatizado de documentos
perfectamente ordenados, de tal forma que cuando queramos citarlos en el texto con su
bibliografía correspondiente sea tan sencillo como pulsar varios clicks en nuestro ratón. Al
instalar estos programas se suele crear un vínculo con nuestro procesador de textos (Word,
OpenOffice, Pages, etc.) para que la tarea sea aún más sencilla.

Su principal funcionalidad a la hora de redactar un texto científico radica en que nos permiten
tener las citas y bibliografía en perfecto orden y modificarla a nuestro antojo sin apenas
esfuerzo. Piensa en la utilidad que puede tener esto cuando tienes un texto con más de cuarenta
citas e insertas una nueva a la mitad del texto.

Los gestores bibliográficos más conocidos son Refman y Endnote. Ambos están disponibles
para Windows y OSX. La mayor pega es su coste, que ronda los cien/doscientos euros. Aunque
en el caso de Endnote cuenta con descuentos para estudiantes.
La Universidad Internacional de la Rioja dota a sus alumnos con la posibilidad de crearse
una cuenta en el gestor de referencias Refworks. Para ello tienes disponible un manual dentro
de la Biblioteca Virtual de UNIR.

Figura 1. RefWorks.

Igualmente, existen opciones sin costo económico como son Mendeley o Zotero.

¿Qué diferencia a los diferentes programas? En esencia son similares, pero con la interfaz
diferente y con algunas variaciones en cuanto a las opciones avanzadas. ¿Cuál es mejor? «El
que mejor te funcione a ti».

En el último caso en el que decidas no utilizar estos programas, puedes gestionar tus referencias
bibliográficas de manera manual —«artesanalmente»—. Para ello es conveniente que cuentes
con un sistema propio que te ayude a tener todas tus referencias y textos ordenados —
bien sea por año, autor, contenido, etc.— y conozcas las normas de citación y referenciación
que se requieran.

Dado que estamos en el campo de la psicología, sería altamente recomendable que utilizaras el
manual APA, disponible en la Biblioteca Virtual de la UNIR.

3. CUADERNOS DE RECOGIDA DE DATOS

Una vez hemos decidido qué variables vamos a recoger debemos diseñar nuestro cuaderno
de recogida de datos (CRD). Para ello, elaboraremos un protocolo de evaluación donde
incluyamos todas las cuestiones o escalas/cuestionarios/observaciones que son necesarias en
cada medición.

Es frecuente que en la primera medición o visita basal incluyamos información


sociodemográfica que posteriormente no necesitaremos volver a recoger.

Si nuestro protocolo de evaluación incluye información clínica —casi seguro que se va a incluir
si tu estudio es clínico— deberás anonimizarlo o disociar los datos siguiendo la normativa de
la ley de protección de datos personales (LOPD). Para ello puedes asociar un número o
referencia a cada sujeto para que, si ese cuestionario se extraviara, nadie supiera a quién
pertenece. Solo el investigador encargado de monitorizar el estudio contará con esa relación
de códigos y nombres.

Los cuestionarios de recogida de datos pueden ser impresos o informatizados.

En el caso de que decidas hacer la recogida de datos con cuestionarios impresos, un simple
editor de textos tipo Word te servirá para tu propósito. Como puntos favorables están la
sencillez en su creación, no hace falta más material para rellenarlos que un bolígrafo y tienes
la tranquilidad de tenerlo en soporte físico para consultarlo cuando quieras. Como puntos
negativos están el coste de impresión, de almacenamiento de todos los protocolos de tu estudio,
la necesidad de informatizarlo en caso de que quieras analizarlo con algún programa
estadístico, el coste de generar nuevas copias impresas o la necesidad de hacerlos llegar a los
centros y su posterior recogida.

Otra opción más técnica es hacer tu cuestionario de recogida de datos manera


informatizada (e-CRD). Puedes hacer uso de herramientas de tipo encuesta que hay
disponibles en la Red a un precio muy reducido (Excel 365, Monkeysurvey, etc.) u optar
por medidas más completas, diseñadas de manera profesional.

Como ventajas de este método están el volcado de los datos de manera directa a los programas
de análisis de datos, el análisis en tiempo real, la ausencia de stockage y la posibilidad de hacer
tantas copias como desees, el ahorro en envíos de material, etc.

La parte negativa es nuevamente el coste y las medidas de seguridad que debes de tomar para
que esos datos no caigan en manos ajenas. Imagínate que pierdes el pendrive donde has
guardado esos datos, que tu ordenador se extravía en el control de un aeropuerto, que tu
ordenador sufre un ataque informático, etc.

Figura 2. Recogida de datos.

4. PROGRAMAS DE ANÁLISIS DE DATOS

Cuando ya tenemos nuestros datos recogidos e informatizados, da paso el momento de


analizarlos. En esta ocasión no vamos a hablar de cómo analizarlos, sino de las herramientas
que puedes utilizar para analizar los datos.

En el caso de que tus datos sean cuantitativos puedes utilizar el programa Excel —incluido
en el paquete de ofimática de Microsoft— para hacer los primeros análisis exploratorios.
Aunque la herramienta no ha sido diseñada específicamente para analizar datos, incluye buena
parte de las funciones necesarias para dar los primeros pasos.

Su uso es muy sencillo. La interfaz se compone de celdas distribuidas en filas y columnas.


Puedes presentar tus datos como desees, lo habitual es poner las variables en columnas y los
casos en las filas.
Puedes utilizar algunas fórmulas sencillas como:

para obtener la media estadística de los datos contenidos en las filas A2 a a10.

para obtener la desviación estándar.

contar casos que cumplen una determinada condición, como ser «5».

Excel también permite hacer gráficos y tablas dinámicas muy útiles.

Como ventajas de este software podremos indicar su uso extendido, la posibilidad de modificar
la base de datos a nuestro antojo y poder hacer análisis básicos sin demasiada complicación.

Un paso por encima estaría el software libre R Commander. Este programa se basa en su
homónimo R statistics —de hecho, tienen que estar instalados ambos para que funcione el
primero—. Como puntos positivos contaría la enorme versatilidad que ofrece gracias a su
sistema de librerías. Una librería es como una app dentro del programa que cuenta con
funciones específicas. Por el contrario, es un programa que requiere de cierto aprendizaje
y que no cuenta con un editor de datos sencillo.

Finalmente, la opción más específica —para nuestros propósitos—, más sencilla de utilizar y
a su vez, más costosa —en términos económicos—, sería SPSS. El software SPSS ha sido
desarrollado por IBM y es una completa suite de análisis estadístico. Permite crear bases
de datos, hacer análisis de datos avanzados, gráficos e informes.

5. FUENTES DE FINANCIACIÓN

Nadie dijo que investigar fuera fácil, y mucho menos barato. Ya hemos visto cómo varias de
las herramientas deseables para nuestra «caja de herramientas» tienen un coste
económico. Por suerte, no estamos solos y contamos con diversas ayudas de diferentes
organismos que nos pueden ayudar a llevar a cabo nuestro estudio.

Solicitar financiación económica requiere que al menos tengas desarrollado el planning o


protocolo de tu estudio. Es comprensible que, si vas a solicitar una ayuda económica, de
recursos humanos, para una estancia investigadora, etc. al menos seas capaz de presentar tu
idea en unas condiciones favorables.
Es conveniente que en este punto cuentes con un calendario con las fechas de las posibles
ayudas que se adapten a tu proyecto de investigación. El proceso de presentación no suele ser
sencillo. Muchas veces te piden información del estudio y del equipo investigador. Pero otras
tantas veces solicitan datos de tu entidad con el objetivo de comprobar vuestra viabilidad futura.

Como posibles entidades financiadoras podemos señalar los diferentes ministerios y


organismos estatales, entidades bancarias, entidades aseguradoras, empresas
tecnológicas y farmacéuticas, universidades, fundaciones o entidades sin ánimo de lucro.

Es conveniente que la financiación y ayudas que solicites sean ajustadas a tus verdaderas
necesidades. Una solicitud cuyo presupuesto sea muy elevado generará sospechas en el
evaluador, quien no hará un informe favorable. Indicar tus recursos disponibles también puede
ser una estrategia positiva de tal forma que el evaluador reconozca tu esfuerzo e interés.

Igualmente, y en caso de que se te concedan las ayudas, deberás de administrarlas tal y como
reflejaste en la solicitud. En este sentido son frecuentes las auditorías externas como medida
de control del uso de recursos.

6. HABILIDADES DE COMUNICIÓN

Recuerda que el fin último de una investigación es generar conocimiento. Este conocimiento
carecerá de valor real si no es presentado al resto de comunidad científica y sociedad general.
¿De qué sirve una idea nueva si está encerrada en un cajón sin que nadie la presente al resto
del mundo?

Por ello has de ser capaz de poder hacer una presentación en público de tu proyecto de
investigación, tesis, trabajo de fin de máster o trabajo de fin de carrera.

Para hacer tus presentaciones de manera más didáctica y entretenida (y porqué no decirlo,
para que te sea más sencillo presentarlas), puedes apoyarte en una presentación tipo
PowerPoint, Prezi, o Canvas donde a través de las diapositivas presentes tus ideas de
manera ordenada y precisa.

Sin embargo, tendrás que ser capaz de poder subirte al escenario y explicar correctamente
los contenidos de las diapositivas. Las diapositivas no saben hablar. Eres tú el que las
presentas. Por ello elige bien:

→ El discurso de tu presentación. ¿Cómo vas a presentar tus ideas para que se entiendan
mejor? Una buena estrategia es empezar con el problema que pretendes resolver o
estudiar, seguidamente indicar las dificultades que entraña y sus consecuencias, tu
opción de solución y las consecuencias a las que podemos llegar.
→ El contenido de las diapositivas. La norma dice que no más de una diapositiva por
cada dos minutos de presentación, no más de seis líneas de texto por diapositiva, tablas
como mucho de 3x3 con datos grandes, mejor si puedes presentar los datos en formato
gráfico, acuérdate de hacer una breve interrupción de cinco segundos cada quince
minutos para mantener la atención de tus oyentes.
→ Tu estilo. Ha de ser un estilo en el que tú te sientas cómodo y no desentones demasiado
con el público. Si tu presentación se va a desarrollar en un entorno muy técnico y
profesional, deberás de actuar de manera profesional y viceversa en el caso de entornos
menos formales. No es recomendable que simules otro estilo al tuyo o te presentes como
otra persona totalmente diferente a la que eres habitualmente.

Como ves, una presentación no deja de ser una puesta en escena donde presentas un
contenido determinado. Como toda escenificación, el secreto no es otro que ensayar,
practicar, confundirte, ver los errores, posibles cambios y volver a practicar, hasta que
seas capaz de hacerlo como te gustaría oírlo.

Figura 3. Contenido determinado.

También podría gustarte