Investigación en Psicología: Métodos y Diseño
Investigación en Psicología: Métodos y Diseño
La psicología se define como una disciplina científica que estudia y analiza las bases del
comportamiento humano, los procesos mentales y las experiencias y sensaciones de la
persona en relación con el medio ambiente, físico y social, que lo rodea. Como, por ejemplo,
observar la conducta de un niño en clase, las percepciones de un recluso en la cárcel o de una
persona con dificultades en el manejo del estado de ánimo y recoger la información obtenida
por escrito y darle sentido a posteriori a partir de la literatura previa existente.
Dado el carácter subjetivo de la información que se pretende recoger en esta disciplina, las
conductas y las emociones que para algunos de nosotros resultan aceptables, pueden no serlo
para otros dentro de nuestra misma comunidad o dentro de comunidades distintas. Y la
posibilidad de cometer errores en la interpretación del comportamiento, el contexto y otras
variables del individuo y su biología pueden explicar partes importantes del mismo que en
ocasiones pueden pasar desapercibidos ante el «filtro interpretativo» que pone el investigador.
Así que, la psicología ha tratado de sistematizar esta recogida de información.
Para ello, ha usado distintas técnicas que permitan el análisis matemático de lo observado y
faciliten la obtención de conclusiones lógicas que confirmen o desmientan las hipótesis de
partida. Estas técnicas se agrupan dentro del denominado método científico.
«Método científico: es el procedimiento que se utiliza para establecer las causas de los
fenómenos y las leyes que los determinan» (García-Granero, 2001).
Puesto que el comportamiento humano es muy amplio, la psicología, como campo de estudio,
también lo es. En consecuencia, las perspectivas de aproximación al estudio científico de la
psicología son muy diversas. Cada perspectiva aplicará el método científico con las
restricciones derivadas de la confección de sus objetivos, esto es, aplicando el diseño de
investigación acorde a los objetivos que pretenda evaluar.
Mientras, las distintas ramas que se adscriben a la psicobiología se nutren de los diseños
experimentales y cuasi-experimentales, basados en experimentos científicos que replican el
comportamiento en una situación controlada en laboratorio.
En conclusión, se podrían enumerar las siguientes metas que se pueden alcanzar gracias a la
investigación en psicología:
→ Describir el comportamiento
→ Predecir el comportamiento
→ Explicar el comportamiento
→ Manejar el comportamiento
DISEÑOS EXPERIMENTALES:
Por ejemplo, experimentos con animales a los que a un grupo experimental —elegido al
azar— se le administra una sustancia en laboratorio, mientras que al grupo control —elegido
al azar— no se le aplica la sustancia. Se analizan y comparan sus comportamientos antes y
después del experimento.
DISEÑOS CUASI-EXPERIMENTALES:
Por ejemplo, se compararán las puntuaciones de dos grupos de sujetos creados en base a una
variable conocida de antemano —el color de su pelo—. Al grupo de sujetos rubios se les
aplica un tratamiento de potenciación cognitiva —grupo experimental—, mientras que al
grupo de morenos se les aplica un placebo —grupo control—.
DISEÑOS OBSERVACIONALES:
Todos nosotros tenemos ideas preestablecidas o nos conformamos con ideas en base a los
acontecimientos o nuestra trayectoria personal para explicar el comportamiento y los
pensamientos de los otros seres humanos. Algunas ideas nos podrían parecer propias del
sentido común, como, por ejemplo, que las personas que se parecen o que comparten
características de personalidad o de carácter tienden a estar juntas. La investigación en
psicología trata de validar la veracidad de estas ideas que nos conformamos.
Entonces, si esto es así, ¿por dónde empezamos? Según el punto de partida, se pueden
distinguir tres métodos de análisis clasificados por la forma en que interpretemos los
resultados:
TEMA 2: PRINCIPIOS BÁSICOS DE INVESTIGACIÓN
Muestra
El fin último del método científico es ser capaces de extrapolar los datos obtenidos en un
experimento a la población general. Dado que reclutar a todos los individuos del conjunto
poblacional sobre los que se quiere poner en marcha un estudio es una tarea ardua,
seleccionaremos tan solo una proporción de sujetos representativos de la población de
estudio. Una vez hayamos obtenido los resultados derivados del estudio de la muestra,
intentaremos generalizarlo —a través de fórmulas matemáticas contenidas en la rama de la
estadística inferencial— a la población.
Grupos
Para evitar este problema, podemos comparar los resultados obtenidos en nuestro grupo
que recibe el tratamiento (grupo experimental) con los resultados obtenidos en otro grupo
que no ha recibido el tratamiento (grupo control).
De esta forma, podemos crear diferentes grupos experimentales que reciban mayor o
menor dosis del tratamiento. Esto nos permitirá establecer un gradiente de dosis-efecto. O
incluso podemos crear grupos controles diferentes para valorar los efectos que puede tener la
propia ausencia de tratamiento. Podremos incluir un tratamiento inocuo (placebo) para que
el sujeto esté «ciego» y desconozca si es miembro del grupo control o experimental.
Es importante que cuando hagamos comparaciones entre grupos, bien sean controles o
experimentales, intentemos controlar el resto de variables para que los grupos sean lo más
homogéneos posibles entre sí al inicio del estudio y asegurarnos que no hay alguna variable
que pueda producir efectos indeseados o inadvertidos sobre nuestra muestra. En caso de no
poder llegar a esta paridad entre grupos, deberemos intentar controlar estas diferencias
mediante análisis estadísticos más complejos.
Aleatorización de la muestra
Ahora que sabemos que podemos comparar grupos, cabe preguntarse: ¿cómo podemos crear
estos grupos?
Una estrategia válida, pero que puede implicar ciertos sesgos, puede ser dejar al investigador
o participante que elija libremente en qué grupo quiere participar. Esta metodología,
aunque muy sencilla, puede dar pie a sesgos de auto confirmación por parte del investigador o
a sesgos de resultados por parte del participante. Seguramente, esta estrategia genere grupos
muy heterogéneos que dificulten aún más la tarea de comparación.
Por ello, y para evitar estos problemas indeseados de sesgos y de grupos heterogéneos,
podemos hacer uso de un sistema de creación de grupos basado en la aleatoriedad. Su
principal ventaja es que seguramente (si los grupos son los suficientemente amplios), serán
inicialmente similares en las variables de estudio, tanto dependientes como independientes.
Por otro lado, evita que el investigador pueda crear los grupos a su criterio y con ello trasladar
sus posibles sesgos de confirmación.
Visitas o mediciones
Pensemos en una foto de una persona saltando: ¿está subiendo o está cayendo? La mejor
forma de valorar un posible cambio en nuestra muestra es medirla varias veces. De esta forma
podremos comprar la evolución experimentada.
→ Pretratamiento: llamada también visita basal o visita cero. Nos ayuda a determinar el
estado inicial de nuestra muestra antes de haber recibido una posible intervención. A
veces, es necesario establecer varias visitas basales para asegurarnos que no se estén
produciendo ya cambios.
→ Postratamiento: se recoge información tras haber aplicado el tratamiento.
→ Seguimiento: se recoge información un tiempo después de haber finalizado el
tratamiento para valorar sus efectos mantenidos en el tiempo. Otras veces puede que
esta medición se haga mientras el sujeto sigue recibiendo el tratamiento para valorar la
continuidad de los efectos.
Variables
Existen multitud de clasificaciones de las variables: por función, tipo, escala, etc. Sin embargo,
en este tema introductorio solo hablaremos de ellas en cuanto a su función:
Cuando realicemos el contraste de hipótesis (comparación entre las dos teorías), el valor de
probabilidad indica si aceptamos o rechazamos la hipótesis nula:
Un investigador cree firmemente que el consumo de un vaso de leche por la noche aumenta el
nivel de endorfinas y, por tanto, el nivel de relajación.
Cuando lleva a cabo su experimento para aceptar o rechazar el Ho, descubre que el resultado
es p<0.05, por tanto, rechaza la hipótesis nula y acepta como buena la nueva hipótesis.
Los objetivos se definen como las tareas concretas en que se materializan los pasos
necesarios para comprobar las hipótesis formuladas. Consisten, por tanto, en la
operativización de las ideas teóricas o racionales expuestas por el investigador al comienzo del
estudio.
A la hora de enunciar los objetivos, estos se suelen clasificar en objetivos generales y objetivos
específicos.
Por ejemplo, en un estudio sobre reacciones de ansiedad animal ante un estímulo que genera
miedo, cuya hipótesis principal es que, a más exposiciones ante el estímulo, más ansiedad
generará en el animal, el objetivo principal podría ser: «analizar las reacciones de pánico de
una rata sometida a estrés continuado ante la presencia de otro roedor tanto en al inicio del
estudio como a los seis meses de seguimiento».
→ Objetivos específicos: describen los detalles pormenorizados de los objetivos
generales (habitualmente dividen en pasos la globalidad formulada anteriormente) y
ayudan a identificar de manera más clara qué es lo queremos conseguir con nuestro
estudio.
Por ejemplo, siguiendo el modelo anterior, un objetivo específico sería: clasificar las reacciones
de pánico del animal según su duración en breves (menos de treinta segundos), moderadas (de
treinta a sesenta segundos) y severas (más de sesenta segundos) tras la presentación del
estímulo (otro roedor en la jaula).
3. CONCEPTO DE VALIDEZ
Como hemos visto, cuando realizamos un estudio científico aplicamos una determinada
metodología, la cual puede producir ciertos sesgos y errores que nos pueden llevar a
conclusiones erróneas. De ahí que utilicemos el término de validez para referirnos a una
investigación.
→ Validez interna: es el grado de confianza con que se puede decir que existe una causa
efecto entre dos variables.
→ Validez externa: es el grado de confianza que podemos establecer a la hora de
generalizar una relación de causa-efecto a otras poblaciones a la población en general.
→ Historia: eventos externos al sujeto que están ocurriendo al mismo tiempo que el
tratamiento.
→ Maduración: procesos internos propios del sujeto.
Cada estudio se lleva a cabo en unas determinadas condiciones que no siempre son replicables.
Así, nos podemos encontrar aspectos difíciles de replicar que podrán suponer una amenaza en
cuanto a la validez externa de nuestro estudio:
→ Interacción selección-tratamiento.
→ Interacción contexto-tratamiento.
→ Interacción historia-tratamiento.
→ Interacción administración de pruebas-tratamiento.
→ Interacción instrumentación-tratamiento.
→ Interacción tratamientos-intrasujeto
Vivimos una época dorada de la información. Nunca como hasta ahora hemos tenido acceso a
tanta y tan variada información. El desarrollo de las nuevas tecnologías, de internet y del trabajo
conjunto entre autores y editores nos ha posibilitado una ingente cantidad de información.
Sin embargo, este crecimiento también ha producido algunas consecuencias no tan deseables.
La gran cantidad de información puede resultar inabarcable. Cuando acudimos a buscar un dato
o una información concreta, nos encontramos con muchos de ellos, lo cual muchas veces hace
que perdamos la perspectiva y no seamos capaces de tomar una decisión. Cuando esta decisión
es referida a una pregunta clínica, el problema cobra aún más relevancia. Por ello, es importante
aprender a lanzar búsquedas que sean precisas y eficaces que nos posibiliten los resultados
más relevantes y adecuados para nuestras necesidades de información.
Por lo tanto, tenemos que entender las búsquedas de información bibliográfica como un
procedimiento ordenado, secuencial y sistemático que nos permita encontrar información
válida, fiable y relevante para nuestra pregunta clínica.
Como vemos, buscar información puede ser una tarea ciertamente compleja y que requiera de
esfuerzo y cierta metodología.
Un primer paso antes de lanzarnos a buscar información es clarificar y especificar muy bien
cuál es nuestra pregunta clínica que queremos resolver. La fundamentación teórica y la
actualización científica resultan primordiales en cualquier investigación. Bien si nos
encontramos haciendo labores asistenciales, o si estamos empezando a enfocar nuestra tesis
doctoral o nuestro trabajo de fin de estudios, es primordial parar y pensar qué es lo que quiero
encontrar.
Una buena estrategia para definir nuestra búsqueda es utilizar la metodología PICO que se
fundamenta en la formulación de cuatro preguntas que se centran en la búsqueda de una
intervención concreta para una población concreta y para un resultado concreto.
Las ventajas de la búsqueda PICO son tres: maximiza la recuperación de evidencias en las
bases de datos, aborda el propósito de la investigación y evita perder el tiempo en
búsquedas innecesarias.
En el caso que planteábamos anteriormente de las mujeres que sufrían depresión posparto,
podemos definir:
Si nos fijamos, una búsqueda incompleta nos puede dar muchos resultados, mientras que, si la
acotamos más, (definiendo todos los elementos PICO, intervención y comparador) los
resultados serán menores y más precisos, lo cual se traduce en menos esfuerzos de lectura, de
síntesis y una respuesta más rápida y eficiente.
Si tuviéramos que definir nuestra búsqueda con palabras clave podríamos decir:
Como vemos, no siempre es necesario que hagamos uso de todos los términos PICO. En
ocasiones, cuando la literatura sobre ese tema es escasa o lanzamos preguntas de carácter
exploratorio, no es conveniente acotar demasiado la búsqueda.
Es tu turno, piensa en una pregunta clínica relevante, escríbela con tus palabras:
____________________________________________________________________
_____________________________________
Población: _______________________
Intervención: _____________________
Comparador: _____________________
Outcome: ________________________
2. FUENTES DE INFORMACIÓN
Una vez que hemos tomado cierta conciencia de lo que puede suponer una búsqueda y de la
importancia de ir bien preparados para la búsqueda de la información, debemos de saber
igualmente donde se encuentra esas fuentes de información.
Esta parte también es muy importante en nuestra búsqueda ya que, dependiendo de dónde
busquemos, vamos a encontrar una u otra información. Estas fuentes varían en función de la
disciplina o ámbito de estudio. Hay algunas de carácter multidisciplinar, que recogen
información y documentos de todas las materias, y otras especializadas en una disciplina, o
conjunto de disciplinas muy próximas.
Revistas
Son publicaciones periódicas que incluyen textos de carácter científico (estudios, revisiones,
críticas, cartas al editor, resúmenes…) que principalmente tiene como autores a profesionales
que escriben para otros profesionales.
En el campo de la psicología habrá unas 3000 revistas que traten temas relacionados con la
psicología desde una perspectiva más o menos científica, de ellas, 700 tendrán lo que llamamos
«factor de impacto». Este concepto es una puntuación que se le asigna a una revista en función
de la calidad de su contenido. Estas revistas normalmente contienen artículos que han sido
revisados por distintos profesionales (Peer review). En España, apenas hay diez revistas de
psicología que tengan factor de impacto.
Puedes consultar el factor de impacto de una revista bien acudiendo a su página web, o
acudiendo a la Web of Science.
Hay que decir que el factor de impacto de Web of Science no es el único. También existen el
Scimago Journal Rank (SJR) que pertenece a Scopus, el Emerging Sources Citation Index
(ESCI) que indica qué revistas son de calidad y con posibilidades de entrar a formar parte del
selecto grupo de JCR o el sello de calidad de FECYT.
Editoriales
Las editoriales que publican ciencia suelen publicar tanto revistas científicas, como libros o
posters y comunicaciones de congresos. Algunas de las más conocidas son Reed-Elsevier,
Taylor & Francis, Wiley-Blackwell, Springer y Sage, las cuales se calcula que controlan más
de la mitad de la difusión científica mundial. Una visita a sus páginas webs nos puede hacer
una idea de cuál es su modelo de negocio y su estrategia de difusión de contenidos científicos.
Bases de datos
Una base de datos científica es una plataforma de información que recopila publicaciones de
diferentes revistas y de otras bases de datos (meta-buscadores). Las más conocidas se publican
principalmente en inglés y son Pubmed, Embase, Web of Science, Scopus, PsycInfo,
PsycArticles o PubPsych.
→ Pubmed: es una base de datos de la Biblioteca Nacional de Medicina de los EEUU, de
libre acceso y que incluye citaciones y resúmenes pertenecientes a Medline (otra base
de datos de pago). Recoge información desde 1966 hasta la actualidad. Se calcula que
tiene más de 30 millones de referencias, de las cuales un 50 % podrían ser recuperadas
a texto completo de manera gratuita.
→ Web of Science: pertenece a Clarivate Analytics y está integrada en la Web of
Knowledge (WOK). Contiene más de 36 millones de referencias (más que Pubmed) y
es la que otroga el famoso factor de impacto JCR. Para acceder a ella has de estar
suscrito o tu entidad (instituciones o universidades) deben de tener acceso. Para nuestra
suerte, la UNIR tiene acceso a la Web of Science.
→ Embase: de acceso restringido, esta base de datos incluye más de 25 millones de
registros de más de 8.000 revistas internacionales. Recoge información desde 1947 y
está especializada en compuestos farmacológicos.
→ Pubpsych: es una base de datos especializada en temas de psicología de libre acceso
que incluye cerca de 2 millones de referencias de literatura científica en el campo de la
psicología.
→ PsycArticles: es la base de datos de la American Psychological Association (APA)
cuyo acceso es bajo registro previo. Apenas incluye 300.ooo referencias del campo de
las ciencias de la conducta y campos afines (enfermería, educación o neurociencias).
Bibliotecas y repositorios
Una biblioteca (sea una modesta como la de tu barrio o la de un país entero) es un tesoro al que
siempre podemos acudir para saciar nuestra curiosidad o adquirir nuevos conocimientos. Una
buena biblioteca que se precie debe de ofrecer a sus visitantes una variada y extensa colección
de artículos, revistas, y bases de datos. La UNIR actualmente nos ofrece referencias a texto
completo, artículos y acceso a bases de datos de relevancia en diferentes campos del
conocimiento. Te animo a que dediques veinte minutos a bucear en ella y curiosear las
diferentes opciones que nos ofrece.
Los repositorios, son estructuras que funcionan de manera similar a una biblioteca (almacena,
organiza, mantiene y difunde información digital) donde los propios académicos aprovechan
la red para compartir y difundir sus investigaciones con otros colegas, acelerando el ciclo de
publicación y revisiones de los resultados. En España contamos con repositorios como Acceda,
CSIC, Recyt o Recolecta que nos posibilitan acceder y colgar información.
Otra opción igualmente valiosa son los repositorios como Researchgate que funciona como
una red social donde ponerse en contacto con otros autores e investigadores o las polémicas
sci-hub o genlib. Estos últimos son repositorios que almacenan teras de información publicada
de manera restrictiva o de pago.
Ya hemos visto dónde podemos buscar información (revistas, editoriales, bases de datos,
repositorios…). Ahora es momento de aprender a saber cómo debemos hacer estas
búsquedas.
Una buena búsqueda ha de ser eficaz. ¿Qué significa eso? Básicamente que, con el menor
esfuerzo posible, encontremos la mejor información disponible. Si tuviéramos que aplicar una
formulación matemática diríamos que:
𝑣𝑎𝑙𝑖𝑑𝑒𝑧 𝑥 𝑟𝑒𝑙𝑒𝑣𝑎𝑛𝑐𝑖𝑎
𝐵ú𝑠𝑞𝑢𝑒𝑑𝑎 𝑒𝑥𝑖𝑠𝑡𝑜𝑠𝑎
𝑒𝑠𝑓𝑢𝑒𝑟𝑧𝑜
Existen dos tipos de búsquedas: las búsquedas naturales y las búsquedas controladas.
Veamos unos ejemplos de búsquedas naturales:
«Clozapina psicosis».
Las diferencias son bastante evidentes: las búsquedas controladas incluyen algunos operadores
booleanos (AND, NOT, OR…) y los términos de búsqueda vienen acompañados de una especie
de código entre corchetes que no queda claro a qué se refiere (tiab, ab, ti…).
Los operadores booleanos o también llamados operadores de búsqueda son nexos lógicos
entre los términos que explican la relación entre conceptos de búsqueda.
Los operadores lógicos (AND, NOT, OR) son palabras o símbolos que se utilizan para darle a
la búsqueda un orden lógico, localizan los registros que contienen los términos coincidentes en
uno de los campos especificados o en todos los campos.
→ AND (Y): Indica que las palabras que anteceden y siguen al operador deben encontrarse
en el resultado de la búsqueda. Ejemplo: teenage AND depression arrojaran resultados
que contengan las palabras «joven» y «depresión». A mayor cantidad de términos
combinados con este operador, menor número de resultados.
→ NOT (NO): Indican que la palabra clave anterior al operador deberá aparecer pero no
la posterior. Ejemplo: depressionNOT teenage mostraran los resultados en que aparezca
«depresión» y que no aparezca «joven» en los mismos. Reduce la cantidad de
resultados al excluir términos.
→ OR (O): Indica que alcanza con que tan solo una de las palabras esté presente. En la
mayoría de las herramientas de búsqueda puede reemplazarse por un espacio en blanco.
Ejemplo: joven OR depresión darán resultados que contengan cualquiera de las
palabras. A mayor cantidad de términos combinados con este operador, mayor
número de resultados.
Los habrá que los quieran veganos Y vegetarianos a la vez (lo cual tengo mis dudas de si es
posible, pero el amor es así de complejo).
Como podrás comprobar, cuantas más condiciones pidamos, menos candidatos encontraremos,
pero el que encontremos será el o la elegida. Algo similar queremos hacer en nuestras
búsquedas, pocos resultados, pero que estos sean relevantes para nuestra pregunta.
Volviendo a nuestra pregunta PICO, podemos agrupar los términos de nuestra pregunta PICO
con sus respectivas conexiones lógicas (Operadores booleanos lógicos) para que cuando
interroguemos a la base de datos, esta haga un procesamiento prioritario.
Mindfulness AND depression AND Elder AND yoga. Anorexia AND women AND self esteem
AND exercise.Dementia AND training AND memory.
Una estrategia muy interesante es pensar en posibles sinónimos de cada término y combinarlos
con el operador OR y encapsulando ese concepto entre paréntesis para combinarlos con otros
conceptos mediante el operador AND, para que nuestra búsqueda también sea exhaustiva y
sensible.
Esta búsqueda podría traducirse en el siguiente algoritmo de búsqueda que lanzaremos a
nuestra base de datos:
Siguiendo con la actividad que te proponía en el punto anterior, ¿Te atreverías a escribir los
términos de tu pregunta PICO combinándolos con los operadores booleanos?
____________________________________________________________________
________________________________________
____________________________________________________________________
________________________________________
____________________________________________________________________
________________________________________ Si lanzásemos este algoritmo a una base de
datos como Pubmed, nos daría muchos resultados. Nosotros quizás estemos interesados en
filtrarlos aún más. A veces será tan sencillo como usar los filtros que nos propone el buscador.
En el caso de Pubmed, podemos filtrar por año, disponibilidad del texto, tipo de documento,
región, sujetos de experimentación…etc.
Otras veces podremos hacer uso de los marcadores, también llamados etiquetas o tags.
Su uso es muy sencillo, y muy útil. Como bien sabemos, los artículos tienen una serie de
campos bien definidos: el título, los autores, la revista, el resumen o abstract…
Los marcadores nos permiten buscar en campos específicos de los artículos. Aunque cada base
de datos tiene sus propios marcadores, existen algunos que son muy habituales y generales:
Veamos algunos ejemplos:
En resumen, una buena búsqueda controlada debería de tener en cuenta la estrategia PICO,
hacer uso de los operadores booleanos y los marcadores.
1. DISEÑOS EXPERIMENTALES
Como ya hemos visto en el anterior capítulo los diseños experimentales se caracterizan por
tener el grado más elevado de manipulación —de la variable independiente—, control —de
las variables extrañas— y aleatorización —de los grupos— por parte del investigador de entre
todos los tipos de diseños de investigación.
La característica común de estos diseños es que la técnica utilizada para asignar los sujetos a
los grupos es el azar.
Con medidas postratamiento: se asignan los sujetos a dos grupos de manera aleatoria y se
aplica la variable independiente (tratamiento). Para comprobar si la variable independiente
ejerce efecto sobre los sujetos, se realiza una medición tras aplicar el tratamiento
(postratamiento) y se comparan ambos grupos de sujetos en esa medida.
Tabla 1. Medidas postratamiento.
Con medidas pre y postratamiento: este diseño es muy parecido al anterior, salvo que se toma
una medida en cada uno de los grupos antes de aplicar el tratamiento (pretratamiento) y otra
medida después del tratamiento (postratamiento).
La diferencia estriba fundamentalmente en que con este diseño se puede establecer una línea
de base en la que se pretende identificar si los sujetos conocen la tarea experimental antes de
aplicar nuestra variable independiente y comparar estos resultados con los obtenidos tras el
tratamiento.
→ Diseño de Solomon:
Se caracteriza por tener cuatro grupos de sujetos iguales, asignados de manera aleatoria a los
grupos. A dos de ellos (elegidos de manera aleatoria) se le aplican medidas pre tratamiento y
post tratamiento y a los otros dos solo les aplican medidas post tratamiento.
Diseño de bloques
Es un diseño más riguroso que los anteriores. Se caracteriza por la formación de bloques
homogéneos de sujetos con respecto de un criterio previamente fijado (variable de bloqueo).
Esta técnica permite el control experimental de los sujetos porque elimina los casos extremos
y agrupa los sujetos en bloques homogéneos e iguales.
Este tipo de diseño tiene como principal ventaja la superación de ciertos problemas éticos
que pueden darse cuando queremos llevar a cabo estudios experimentales tradicionales en los
que se requiere de muestras mayores. Pensemos, por ejemplo, en la imposibilidad de hacer un
estudio experimental tradicional cuando la muestra reclutada apenas supera los cinco sujetos.
Nos podrían criticar nuestro estudio porque no requiere de las condiciones estadísticas o
muestrales necesarias para poder inferir causalidad o para poder incluso llegar a conclusiones
válidas.
En este tipo de estudios hay que prestar mucha atención a las condiciones en las que se
realizan, ya que se pretende que estas sean en la medida de lo posible replicables cuando
aparezca un nuevo sujeto de estudio. De lo contrario, sería muy difícil poder hacer esa
agregación de evidencia recolectada durante años. Deberemos seleccionar cuidadosamente
las variables de estudio, los métodos de recogida de información, la especificación de la
intervención, el sistema de registro o las conductas observadas.
Referido a estas conductas de estudio, y dado que estudiamos a sujetos únicos, debemos de
prestar especial atención a su posible evolución natural. Por ello, tomaremos varias
mediciones basales y posteriores al tratamiento de cara a poder evidenciar posibles cambios
naturales intrasujeto.
Así, mediremos la línea base de manera más prolongada hasta que aparezca algún tipo
de patrón específico de conducta estable. Posteriormente, aplicaremos el tratamiento o
intervención para comprobar si esta ha producido variaciones en la conducta observada.
O= observación.
I= Intervención.
O1 O2 O3 I1 O4 O5 O6
Así:
O1 O2 O3 I1 O4 O5 O6 = A-B
Digamos que es una forma de resumir los pasos. Veamos otro ejemplo:
O1 O2 O3 I1 O4 O5 O6 O7 O8 O9 = A-B-A
Como vemos, son estudios que requieren de un gran número de fases y observaciones, por
ello es muy importante que hagamos el esfuerzo de planificar todo el proceso y no empezar
hasta que veamos que la línea basal está estable.
→ Diseños intraseries.
→ Diseños entreseries.
→ Diseños de series combinadas.
→ Diseños intraseries:
o Diseño A-B: es el diseño más simple. Tras realizar unas primeras observaciones
o registros (fase A), introducimos el tratamiento y valoramos los efectos
producidos (fase B).
o Diseño de cambio de criterio: es un diseño A-B con subfases, en las que el
criterio de evaluación o condiciones cambian. No hay retirada de tratamiento
hasta el final.
o Diseños de reversión o retirada de tratamiento (A-B-A-B-A): aplicamos y
retiramos el tratamiento para valorar los cambios que se producen bajo su
presencia y ausencia.
o Diseños de tratamiento múltiple: sirve para conocer el efecto de varios
tratamientos cuando se introducen de manera gradual.
o Diseños interactivos: son utilizados para conocer los efectos que pueden
producir varios componentes de un tratamiento cuando estos son aplicados de
manera aislada o en combinación con otros componentes.
→ Diseños entreseries:
o Diseño de tratamientos alternativos: aplicamos el mismo tratamiento, pero
cambiando algunas condiciones para evitar el posible confundido.
→ Diseños de series combinadas: es una combinación de los diseños intraseries y los
diseños entreseries. En este tipo de diseños se registran más de una conducta y se
aplican varios tratamientos de manera secuencial, de tal forma que podemos observar
qué tratamiento afecta a qué conducta.
Los diseños cuasi-experimentales permiten inferir hipótesis explicativas, pero con sesgos
derivados de la falta de control de variables extrañas.
Los sujetos son asignados a los grupos de manera natural, atendiendo a sus características
propias.
Figura 3. Métodos.
Se caracteriza porque se obtienen medidas de los sujetos que componen cada grupo (grupo
de casos y grupo control) antes y después del tratamiento. Dada la ausencia de aleatorización
de los sujetos, los grupos pueden diferir en la medida pretratamiento.
Es decir, puede ser que el grupo control no resulte equivalente al grupo de casos en variables
distintas a las variables dependientes a la hora de realizar las comparaciones entre ambos
grupos, lo que sería indicativo de ausencia de homogeneidad en la muestra y, por lo tanto, de
la presencia de sesgos a la hora de interpretar los datos.
Este diseño tiene la particularidad de que se espera que el tratamiento que se aplica al grupo
experimental vaya en una dirección positiva, mientras que el tratamiento aplicado al grupo
control vaya en dirección opuesta.
Este diseño representa la misma lógica que el diseño de grupo control no equivalente. El diseño
de cohortes aplica una medida pretratamiento en el grupo control y, a continuación, aplica
el tratamiento en ausencia de medidas postratamiento.
Este tipo de diseño permite tomar varias medidas del mismo sujeto a lo largo del tiempo.
A diferencia de los diseños factoriales intragrupo de medidas repetidas, los diseños de series
temporales interrumpidas no realizan la asignación aleatoria de los sujetos a los grupos.
Por ejemplo, para medir los niveles de alcohol en un paciente en la visita basal (antes de iniciar
un tratamiento de desintoxicación), y, tras haber iniciado la terapia, medir de nuevo los niveles
de alcohol a las dos semanas, a las cuatro semanas, a los dos meses y a los cinco meses.
4. DISEÑOS OBSERVACIONALES
En esta ocasión, dentro de los diseños observacionales, vamos a centrarnos en los diseños ex
post facto.
Por lo tanto, la única opción posible de estudio sería analizar las causas y las consecuencias
una vez que el hecho haya ocurrido. Con este fin es con el que se utilizan los estudios ex post
facto.
En ese sentido, los estudios ex post facto se caracterizan por la ausencia de control de las
variables independientes por parte del investigador —ya que estas ya acontecieron o son
intrínsecamente no manipulables—.
Veremos dos tipos de diseños ex post facto, los descriptivos y los de desarrollo.
Estudios descriptivos
La actividad principal realizada en este tipo de estudios es la descripción de la realidad
observable una vez que ya han acontecido el o los fenómenos de interés.
Los estudios ex post facto descriptivos nos permiten determinar qué es lo acontecido y cómo
es la situación presente que ha persistido tras el curso del acontecimiento. Por ejemplo,
podemos describir el tipo y la frecuencia de actividades extraescolares de los alumnos de 6º de
primaria una vez que han salido del colegio.
Al ser de naturaleza descriptiva, este tipo de estudios han de utilizar técnicas de recogida de
datos estandarizadas que garanticen una representación de la realidad más amplia y fidedigna
(fiable y representativa).
Durante el proceso de análisis de datos, los estudios ex post facto descriptivos utilizan
fundamentalmente estadísticos de tendencia central y medidas de la variabilidad. La
información se puede representar en gráficas que ayuden a una mejor visualización de los
resultados.
Estudios de desarrollo
Se centran en la descripción del cambio de los sujetos en determinadas variables a lo largo
del tiempo.
Un ejemplo de estudio longitudinal sería la selección de una muestra de adolescentes, sobre los
que queremos medir los cambios experimentados en planificación de tareas a lo largo de cuatro
años.
Por ejemplo: análisis del comportamiento antisocial en una muestra de niños con TDAH
(Trastorno por Déficit de Atención e Hiperactividad) entre 7 y 18 años.
Estudios cohortes: los estudios de cohortes seleccionan una muestra de sujetos que tienen
una característica en común y se siguen a lo largo del tiempo. Normalmente, el criterio
utilizado es la fecha de nacimiento (edad), aunque puede ser la promoción del curso,
acontecimientos vitales ocurridos en una fecha concreta, etc.
Estudios de tendencia: es una variante del estudio de cohortes, pero en esta ocasión las
muestras no se obtienen de la misma población —la población no es estable—. Se considera
más representativo porque tiene en cuenta la heterogeneidad de las variables ambientales que
afectan a cada población.
Sí que se mantiene la extracción de las muestras en las distintas cohortes. Siguiendo el ejemplo
anterior, en este caso compararíamos tres muestras de bebés nacidos en 2003 y 2004 extraídas
de Madrid, Barcelona y Sevilla.
En general, podríamos resumir las ventajas e inconvenientes de los estudios ex post facto
frente a la metodología cuantitativa general en el siguiente cuadro:
Durante todo el proceso de investigación surgen dilemas de solución que en ocasiones pueden
resultar controvertidos y en los que los derechos de los participantes como seres humanos
podrían verse afectados.
Por ejemplo, ¿se podría administrar el fármaco que estamos estudiando si vemos que, como
efecto secundario, el participante de nuestro estudio empieza a ganar peso y hay riesgo de
padecer diabetes en el futuro? Para solucionar estas situaciones, los investigadores se rigen por
el código deontológico específico de la disciplina en la que sean expertos. El código
deontológico es el conjunto de normas, valores y principios éticos por los que se rige la
práctica y la investigación de un campo determinado.
→ El código de Nuremberg.
→ La declaración de Helsinki.
Previo al inicio del estudio es necesario que un organismo independiente evalúe la idoneidad
y ética de un proyecto de investigación.
¿Porqué tenemos que pasar por un comité de ética en la investigación? Entre otras cosas, porque
tenemos intereses contrapuestos cuando investigamos con seres humanos.
Por un lado, tenemos a los participantes que, habitualmente, de manera altruista y voluntaria
se prestan a ser sujetos de investigación. Por otra parte, tenemos al investigador al cual le
interesa el avance de la ciencia pero que puede tener también otros intereses relacionados con
su propia investigación.
Finalmente, también está la financiación pública o privada que en ocasiones puede suponer una
fuente de conflictos.
Los criterios de evaluación
Vemos la forma en que un comité va a evaluar: normalmente se va a guiar, como ya hemos
dicho, por declaraciones internacionales, normativa interna, códigos de buenas prácticas., etc.,
pero van a seguir un método.
Se convierte en desproporcionado cualquier riesgo o molestia para los sujetos ya que colaboran
de manera altruista. Además, los recursos que voy a emplear en realizar este proyecto no tienen
ningún sentido que se malgasten en él, cuando hay otros proyectos que podrían ser financiados
y que podrían aportar conocimiento.
La validez científica
Una vez que decido que, efectivamente, el proyecto tiene al menos un valor social, paso al
siguiente punto que es la validez científica. Lo primero que tengo que mirar es que el diseño
sea correcto. Cualquier proyecto metodológicamente incorrecto es éticamente inaceptable.
Es decir, si el proyecto está mal diseñado no voy a poder aportar resultados validos por lo que
vuelvo a lo mismo, este proyecto no debe ser aceptado por el comité de ética. No debo evaluar
si el consentimiento informado está bien diseñado porque el proyecto en sí no tiene validez.
Figura 3. La validez científica.
El diseño
Los objetivos tienen que ser adecuados y el diseño debe estar conforme con esos objetivos. La
muestra tiene que ser representativa, los grupos de control tienen que estar bien seleccionados
y tiene que ser estadísticamente correcto.
Una vez que tengo valorada la metodología tengo que mirar también la cualificación del equipo
investigador. Es decir, puede estar muy bien diseñado pero los investigadores que lo van a
llevar a cabo pueden no tener la formación necesaria o la experiencia suficiente y las
instalaciones donde se va a realizar pueden no ser las adecuadas.
Poblaciones vulnerables
El tipo y tamaño de muestra. Hay que tener mucho cuidado en cuanto a los criterios de inclusión
y exclusión.
Los grupos vulnerables, por tradición histórica, están especialmente protegidos. Yo no puedo
utilizar grupos vulnerables como son los menores de edad, mujeres embarazadas, personas
privadas de libertad y otro tipo de poblaciones cuando puedo realizar este proyecto en
poblaciones no vulnerables. Esto se lo van a mirar con especial cuidado los comités de ética.
No quiere decir que yo no pueda investigar en este tipo de grupos, quiere decir que tengo que
justificarlo y pensarlo dos veces antes de plantearlo.
Reclutamiento
Incentivos
Por supuesto que la coerción y la influencia indebida están prohibidas. La participación ha de
ser voluntaria y altruista y tampoco se puede dar una compensación o incentivo. Es decir, nadie
que vaya a participar en una investigación con seres humanos debe acudir al proyecto porque
se le vaya a dar algún tipo de incentivo, como por ejemplo ofrecer dinero por la participación.
Sí se puede ofrecer una mínima compensación para que no resulte oneroso ya que la
participación es voluntaria y los gastos que se ocasionen o alguna molestia se pueden
compensar, pero nunca esa compensación debe ser suficientemente elevada como para que sea
el motivo principal por el que un sujeto de experimentación participa en un proyecto.
Tengo que llegar a ese equilibrio entre el riesgo y el beneficio. ¿Cómo tengo que evaluar esto?
Fundamentalmente se habla de dos cosas cuando evaluamos
¿Qué se suele aplicar? Cuando estamos hablando de voluntarios sanos, el nivel de riesgo que
se admite, lo mismo que en poblaciones vulnerables, es solamente riesgo mínimo, que es
mucho más estricto. En el caso de personas enfermas, el tipo de riesgo que se admite puede ser
superior al mínimo. ¿Porqué hacemos esto si están enfermos? Lo hacemos porque cuando
hablamos de personas que se puedan beneficiar de manera directa de la investigación siempre
es admisible un poco más de riesgo, porque pueden obtener un beneficio personal, no solo un
beneficio general para la sociedad por la adquisición de conocimientos como en el caso que
estamos hablando de participantes sanos o poblaciones vulnerables que no vayan a beneficiarse
de forma directa.
Tipos de riesgo
Hay que tener en cuenta una cosa más a la hora de evaluar el riesgo. Es muy fácil pensar en un
riesgo físico, un riesgo de caer enfermo, un riesgo de caerse, etc., pero el riesgo no es solo
físico.
Hay que tener en cuenta el riesgo psicológico, el riesgo social, el riesgo de invasión de la
privacidad de una persona, el riesgo para su honor o su imagen, etc. Todo ello lo tiene que
valorar el comité de ética y valorarlo previamente el propio investigador antes de presentarlo
al comité.
Evaluación independiente
El participante
¿Porqué tenemos conflicto de interés? El participante es quizá es el que pueda tener menos
conflicto. En los casos en que sea un participante enfermo o que pueda obtener algún tipo de
beneficio directo en el proyecto, puede presionar para ser incluido o puede presionar para que
salga adelante el proyecto. Tanto el propio participante como grupos o asociaciones que
defienden determinados intereses.
El promotor
Mucho más importante es el conflicto que pueden presentar los promotores de la investigación,
es decir, los que van a financiarlo. Especialmente hablamos de las compañías farmacéuticas
que hacen grandes inversiones. También el investigador puede estar sujeto a presiones para
publicar, obtención de beneficios profesionales, etc. Todo ello hay que conjugarlo y tenerlo en
cuenta dentro de los comités.
Los promotores, los que financian, pueden tener interés en que salga adelante un proyecto «no
perfectamente diseñado». Los intereses económicos son legítimos y son importantes para
conseguir el avance de la ciencia, pero nunca pueden quedar por encima del interés de la ciencia
en sí misma ni, desde luego, de la protección de los sujetos participantes.
El investigador
La presión sobre el investigador. Conocemos ese dicho famoso de «publicar o perecer» que
puede hacer que el investigador esté sometido a presión por parte de su propia institución para
sacar adelante una investigación. El deseo de finalizar rápidamente, los plazos para presentar
los resultados de un proyecto, entre otros aspectos, pueden llevar a que los métodos científicos
puedan ser dudosos, que se tomen atajos o que se vaya a técnicas de reclutamiento de
conveniencia: sujetos muy fácilmente disponibles. Se puede llegar incluso a usar poblaciones
vulnerables porque son más sencillas de obtener.
Otro punto a tener en cuenta es el propio entusiasmo con el proyecto, ya que es su propio diseño
o creación pueden llevar al investigador a enfatizar los beneficios que se pueden obtener y a
minimizar los riesgos, no solo a la hora de exponerlos al comité sino a la hora de exponérselos
a los participantes.
El consentimiento informado
Evidentemente, el consentimiento informado ya figura en el código de Nuremberg, en el
informe Belmont y en todas las declaraciones internacionales, así como en las normativas
internas. Se considera absolutamente esencial en cualquier tipo de investigación con seres
humanos.
La información
Tiene que cumplir unos mínimos, no es la mera firma de un documento, supone que la
información que recibe el participante ha de ser suficiente: tiene que conocer los objetivos de
la investigación y cuál es el procedimiento concreto para el que se le está pidiendo colaboración
así́ como los riesgos.
La capacidad
La capacidad del participante es muy importante, es decir, tiene que ser suficientemente capaz
de comprender cuales son los riesgos que corre y para qué concretamente está dando
consentimiento. Esta capacidad tiene que ser tanto más exigible, es decir, el participante tiene
que tener un mayor nivel de comprensión de lo que está aceptando, cuando hay un riesgo
superior al mínimo en la investigación que estoy proponiendo.
La voluntariedad
Esta pasa no solo porque el protocolo que se ha presentado sea correcto, bien planteado, se
haya elaborado bien la minimización de riesgos, etc., sino que a lo largo de todo el desarrollo
del estudio hay que velar porque no haya incidencias.
Hay que vigilar si surgen efectos adversos y en el momento en que aparezcan hay que
notificarlo al participante y al organismo de control que puede ser el comité de ética y algún
otro organismo si fuera necesario.
Hay que tratar inmediatamente ese daño que se está produciendo, se retirará si es necesario al
participante del estudio y si es suficientemente grave, paralizar el estudio hasta ver qué es lo
que está fallando.
La voluntariedad
La participación es voluntaria, pero a lo largo del proceso hay que dejar siempre una salida
para el sujeto. Nos ha dado su consentimiento, pero puede cambiar de opinión en cualquier
momento sin dar ninguna explicación y sin que esto tenga ningún tipo de consecuencias
negativas, ni siquiera una mala mirada por parte del investigador.
Cuando los resultados no son especialmente relevantes para su salud, aun así́ el participante
tiene derecho a saber los resultados que se hayan obtenido con sus datos. Si prefiere no recibir
esos resultados, también puede solicitarlo, existe el derecho a no saber, pero siempre que haga
pruebas y pueda volver a contactar con el participante debo darle sus resultados.
Si he anonimizado el estudio, es decir, tengo los resultados, pero no tengo forma de volver al
sujeto fuente, debo al menos ofrecer el acceso a los resultados generales del estudio mediante
las publicaciones o mediante la información sobre dónde encontrar estos resultados del estudio
en que ha participado.
La confidencialidad
Hay mucha legislación a nivel europeo sobre protección de datos. Hay que abrir y declarar
ficheros, tomar precauciones, impedir el acceso a aquellas personas no autorizadas o que no
tengan un acceso justificado a los mismos.
Siempre que se pueda, se intentará disociar los datos personales para proteger la identidad y se
tomaran precauciones especiales en los casos de uso de imágenes. Es decir, en fotografías,
audios, etc., dónde se pueda identificar a la persona con relativa facilidad, deberán ir con
consentimiento expreso.
El código deontológico en psicología establece las pautas acerca de cómo investigar y cómo
velar por los derechos e integridad de los participantes humanos en los estudios de
investigación.
Los estudios que emplean animales como sujetos de estudio también han de cumplir una serie
de normas éticas relativas a las prácticas investigadoras. El estudio deberá especificar los datos
requeridos en cuanto a beneficios y costes derivados de la investigación para el animal y las
medidas que se tomaran para facilitar el bienestar del animal ante el comité de ética animal.
Como gente de ciencia que somos, también hemos establecido esquemas y registros sobre los
tipos de malas conductas más habituales, unas más que otras, pero todas reconocibles:
Figura 9. Malas conductas en investigación.
Fraude científico
En ocasiones, los investigadores inventan datos, los falsifican, los manipulan, copian de otros
sin citarlos, etc.
¿Son conductas habituales? No, pero ocurren. ¿Son fáciles de detectar? No es fácil, la
responsabilidad de cada persona sobre esto es fundamental.
Hemos dicho que hay que validarlo colectivamente, pero no es en el mundo científico habitual
pensar que las personas «van a engañar», pero a eso es a lo que se llama fraude científico.
Fraude en la publicación
Otro tipo de mala conducta científica es el fraude en la publicación. Aquí nos encontramos con
conductas algo más habituales: la presión por publicar, la del ámbito científico, la necesidad
de acceder a financiación, etc., hacen que pueda ocurrir por ejemplo la denominada autoría
ficticia. Esto quiere decir que personas que realmente no han participado en el equipo de
investigación o no han tenido una contribución sustancial, aparecen como autores por otros
motivos que antes hemos denominado «bienes secundarios».
Puede ocurrir, aunque es más extraño, que alguien que realmente ha sido autor con una
contribución importante no aparezca con la intención de que no se perciba que puede haber
una industria o alguien con intereses que no son estrictamente científicos que haya estado
colaborando o impulsando la investigación.
Auto plagio
Otro fraude es el autoplagio. Podemos definirlo como una especie de «republicación», donde
se hacen modificaciones irrelevantes.
Por otra parte, el tema de las incorrecciones bibliográficas abarca muchos tipos; por ejemplo,
es bastante habitual que no se cite determinada bibliografía o que no se cite bien. Esto sería de
menor importancia, pero hay un aspecto muy importante y es que la bibliografía que se cita en
una publicación científica tiene que tener que ver con la bibliografía que se ha utilizado
realmente para llevarla a cabo. Existe una cierta tendencia a pensar que «mucha bibliografía
quiere decir mejor trabajo científico», cuando la bibliografía se ha de citar porque se ha
utilizado.
Sesgo
El sesgo de publicación es un verdadero problema, un «caballo de batalla» para los
investigadores.
Tiene relación con que en la mayoría de los casos no se publican aquellos resultados que
no son lo que hubiera deseado, bien el investigador, bien el patrocinador de la investigación.
Allá donde el revisor y la persona que presenta sus conclusiones para publicarlas estén en el
mismo territorio de investigación, pudiera darse un retraso, una copia por parte del revisor y
estaríamos ante una mala conducta con graves consecuencias.
Conflicto de intereses
Por último, tenemos el denominado conflicto de intereses. Habréis visto que en las
publicaciones se declara «no tener conflicto de interés».
Repasemos qué es esto: tiene que ver con los bienes secundarios, es decir, que se pueda obtener
un rendimiento económico o una financiación no es malo, lo que puede ser un conflicto es que
ese interés académico, institucional, etc. pueda estar influyendo en que no se sea
suficientemente responsable y riguroso en todos los pasos de la investigación científica.
Una mala conducta científica puede ser la consecuencia directa de un conflicto de interés.
Este es un aspecto muy importante y de ahí que muchas publicaciones obliguen a declarar los
«conflicto de interés».
En gran número de fenómenos de estudio no parece una buena estrategia de estudio reducir la
realidad a cantidades y números. Igualmente, existen fenómenos que no pueden ser estudiados
en entornos controlados como los de un laboratorio. Por ello, muchas veces, la investigación
cuantitativa, a pesar de su rigor metodológico, ha sido fuertemente criticada. Estudiar gran
cantidad de sujetos para extraer valores numéricos que nos hablan de porcentajes, medias y
desviaciones, nos aleja de la verdadera comprensión del ser humano, de su individualidad y de
sus experiencias más propias y verdaderas.
Ante esta situación, los métodos de investigación cualitativos surgen como una estrategia de
investigación fundamentada en una depurada y rigurosa descripción del fenómeno,
contexto, conducta o situación de estudio.
Podríamos decir que la investigación cualitativa es una exploración abierta que va más allá
de lo puramente cuantificable. Tiene una necesidad de explorar los aspectos subjetivos del
sujeto y de la realidad. Utiliza el método inductivo, esto es, desarrolla una teoría a partir de
los datos. El proceso de investigación cualitativa nace, se desarrolla, cambia a medida que
avanza el conocimiento sobre el tema estudiado, o el simple contacto con los entrevistados.
Para adaptarse al continuo cambio de los fenómenos, esta metodología ha de ser flexible. El
objetivo nuevamente es conocer y comprender de manera holística toda la realidad.
No es de extrañar qué esta estrategia implique una mayor proximidad y contacto con el sujeto
de estudio.
→ La fuente principal de los datos son las situaciones naturales. Esto se debe a que
estudian el fenómeno en su contexto natural.
→ El investigador es el recolector de datos que capta la realidad y se adapta a cómo viene
dada la información.
→ Incorpora información relativa a las intuiciones, percepciones y sentimientos de no se
expresan de manera verbal.
→ Aplicación de estrategias de recogida de datos abiertas que se adaptan mejor a la
situación.
→ Método inductivo (teoría a partir de los datos)
→ El diseño del estudio y su metodología es flexible y puede cambiar a medida que avanza
el estudio, se adapta a las nuevas circunstancias.
→ Tiene sus propios criterios de validez y evaluación de los resultados.
Sus principales diferencias frente a la investigación cualitativa pueden verse en el siguiente
cuadro:
La investigación cualitativa trata de explorar aquellos aspectos que van más allá de los
puramente cuantificables teniendo en cuenta aspectos como la intersubjetividad: cómo las
personas dan significado a la realidad desde un punto de vista personal y teñido de sus propias
experiencias y creencias subjetivas.
3. LA OBSERVACIÓN
Observación natural
La ventaja principal de la observación se encuentra en el realismo o veracidad de la
información facilitada. La observación es un método sistemático, es decir, sigue unas reglas
predispuestas y está dirigida hacia un objetivo concreto.
A pesar de eso, la observación como técnica apenas ejerce control sobre las variables
ambientales e introduce multitud de sesgos procedentes del observador: a veces es difícil
distinguir entre los hechos observados y la interpretación de los hechos.
En función del papel que tenga el observador, podemos distinguir dos tipos de observación
natural:
Observación participante
El observador participa activamente en el estudio: obtiene datos a partir del contacto directo
con los sujetos observados en situaciones específicas. Sus funciones son tanto la de diseñar las
pautas de observación como la recogida de los datos durante el proceso de observación. El
observador se comporta por tanto como un actor dentro del contexto de observación que ha
creado. Por ejemplo, un psicólogo en una clase registra el comportamiento de los niños con
sospecha de autismo.
Observación no participante
En este tipo de observación, el observador y el observado no mantienen ningún tipo de relación
directa. Podemos identificarlo como un simple espectador. Por ejemplo, los asistentes a un
congreso observan cómo un ponente se comporta durante una charla.
Las diferencias entre ambos tipos de observación se pueden observar en el siguiente cuadro:
Autoinforme
Es el propio sujeto el que observa y registra sus conductas. El instrumento que sirve para el
registro se denomina autoinforme. Por ejemplo, un sujeto con tics debe anotar en una hoja los
pensamientos que preceden al tic, las conductas precedentes y el número de veces que observa
el tic al día.
→ El diario.
→ El cuaderno de notas.
→ Los cuadros de trabajo.
→ Mapas y planos.
→ Dispositivos mecánicos y electrónicos de registro (grabadora, cámara de vídeo, cámara
de fotos, ordenador, etc.).
4. LA ENTREVISTA
Esta definición apunta la presencia de un profesional puesto que, sin él, la entrevista se
convertiría en una mera charla. Este profesional está entrenado en recoger únicamente la
información objetiva, sin mostrar opiniones o creencias respecto a la información recogida
del sujeto.
Tal como examinábamos en temas anteriores y siguiendo el criterio de libertad que se concede
al entrevistado, podemos clasificar las entrevistas en:
Por ejemplo: «¿Considera que es hablador con los demás?» (posibilidad de respuesta: sí/no).
5. FOCUS GROUPS
El focus group es un tipo de entrevista que incluye un grupo de personas con conocimiento
en un tema concreto y que ofrecen sus opiniones o creencias sobre el mismo. Es un medio
para recopilar información desde distintos puntos de vista. Es muy utilizado en la evaluación
de programas.
Por ejemplo, se quiere elaborar una prueba para evaluar el grado de consideración y
predominancia social que ocupan las personas mayores en las familias de etnia gitana. El
evaluador decide plantear un proceso de recogida de información mediante un focus group para
elaborar los ítems del cuestionario.
Para ello, selecciona a cuatro participantes: un trabajador social, una persona de 66 años que
viva en un núcleo familiar extenso, un adolescente y el representante de la asociación de la
etnia gitana de la zona. En este caso, todos los participantes son de etnia gitana.
Además de las técnicas ya estudiadas de recogida de datos como la entrevista y los focus
groups, existen otros métodos que contribuyen al análisis de los datos cualitativos anotados por
parte del observador.
2. CODIFICACIÓN
El término codificación hace referencia al proceso a través del cual fragmentamos o
segmentamos los datos en función de su significación para con las preguntas y objetivos de
investigación1. Implica un trabajo inicial para preparar la materia prima que luego habrá de ser
abstraída e interpretada. La codificación nos permite condensar nuestros datos en unidades
analizables y, así, revisar minuciosamente lo que nuestros datos nos quieren decir. La
codificación nos ayuda a llegar, desde los datos, a las ideas.
Antes de comenzar con la codificación, debemos de familiarizarnos con nuestros datos. Esto,
en la mayoría de los casos, es algo adquirido después de haber recolectado los datos y haberlos
transcrito. Aún así, una lectura integral de todos nuestros datos nos facilitará una visión
completa e integradora del material que nos traemos entre manos.
Obviamente, toda la información la apuntaremos en un registro que será un fiel reflejo de ese
código. Cada evento de interés deberá ser asignado a un código específico.
En este tipo de análisis, es muy importante saber cuál es el objetivo de nuestro análisis, debido
a que es muy fácil perderse entre tanta información. Igualmente tendremos claro cuáles son las
unidades de conducta que nos interesan para nuestro estudio y porqué.
→ Registro no sistemático:
o Se da en la primera fase del estudio.
o Se realiza cuando el conocimiento aún es escaso.
o Puede ser narrativo (se limita a contar lo que pasa) o descriptivo (tienen más
estructura).
→ Registro con Sistematización parcial:
o Mayor control externo.
o Poco utilizado.
o Controla el orden de aparición de los eventos y su duración.
→ Registros sistematizados:
o Genera datos netos susceptibles de ser analizados.
3. CATEGORIZACIÓN
Una vez que los datos ya han sido codificados por el investigador, el siguiente paso es
ordenarlos y clasificarlos en base a sistema de categorías. Lo cierto es, que en la investigación
cualitativa no existe un modelo de categorías prototípico. Veíamos en anteriores sesiones que
la metodología cualitativa tenía la capacidad y necesidad de adaptarse al contenido y fenómeno
de estudio. Por lo tanto, en este caso, las categorías que elijamos en nuestro estudio han de ser
específicas para el mismo, de tal manera que se ajusten lo mejor posible a su naturaleza.
Si nos fijamos, poco a poco estamos pasando de un nivel más general-inicial-impresionístico a
un nivel más formado (cuantitativo) y replicable.
Las categorías que elijamos para ordenar la información deberán de tener las siguientes
propiedades:
4. ANÁLISIS DE CONTENIDOS
Se puede incluir en esta categoría el análisis de los resúmenes de comentarios obtenidos a partir
de la aplicación de un cuestionario, análisis de diarios, vídeos, etc. La técnica se basa en el
análisis de resúmenes de frecuencia/ocurrencia de comportamientos, que el investigador
clasificará para dotarlos de un valor matemático. Este proceso es lo que se denomina análisis
de contenidos.
5. TEORÍA FUNDAMENTADA
El método de la teoría fundamentada es una aproximación rigurosa que provee al
investigador de estrategias sistemáticas para el análisis de la información cualitativa. Se
diseñaron como métodos de creación de teorías (bottom-up), infiriendo la teoría desde los
datos. Han sido ampliamente utilizados en la disciplina sociológica.
Una vez descritos los sucesos, la teoría fundamentada se divide en las siguientes fases:
De este modo, la teoría fundamentada es un método inductivo que permite crear una
formulación teórica basada en la realidad tal y como se presenta, utilizando lo expresado por
los informantes y buscando el mantenimiento de la significación que las palabras tienen para
sus protagonistas.
El análisis del discurso hace referencia al examen de las reglas por las que se ordena el
enunciado personal del sujeto o la conversación entre dos personas. Igualmente, incluye
el análisis del vocabulario específico formado por convención para la comunicación entre
distintos grupos sociales o profesionales.
Figura 4. Niveles.
7. ANÁLISIS NARRATIVO
El análisis narrativo trata de investigar las experiencias biográficas de los sujetos y sus
emociones a través del análisis de sus historias. Es una visión más amplia que el análisis de
contenidos, puesto que el primero lleva a cabo un análisis en profundidad de los aspectos más
elementales. Por el contrario, el análisis narrativo enfoca su interés en el significado del
mensaje transmitido por el sujeto y el análisis del desarrollo psicológico,
autoentendimiento y relación con el mundo que rodea al sujeto a través de su narración de los
hechos/eventos.
Estas características señalan que la narración es una construcción social extraída a partir de
la interacción de la gente con el sujeto y que influye en la manera de contar sus historias. Las
fuentes de recogida de datos suelen ser las entrevistas, las cartas, las autobiografías y las
historias orales.
Los investigadores suelen adoptar dos posiciones básicas al trabajar sobre los análisis
narrativos:
→ Analista de datos: que realiza un análisis de la narración y piensa sobre los relatos.
Asumen que los relatos son hechos sociales que analizan de manera rigurosa a través
de técnicas y estrategias analíticas. Su propósito es el de explorar características de
contenido o estructura, llegando al nivel teórico.
→ Narrador de historias: que piensa con los relatos. En este tipo de análisis el producto
es el propio relato. Las historias por sí mismas realizan el trabajo de análisis y
teorización. El investigador participa en el momento en el que se está contando la
historia ya que interactúa con el narrador.
Ante la diversidad de criterios, se ha llevado a cabo un consenso entre los autores relevantes
en el campo y se han elaborado las siguientes directrices de publicación específicas de la
investigación cualitativa:
La evaluación del impacto del proyecto se realizará a partir de los siguientes parámetros
básicos:
→ Pertinencia: grado en el cual el objetivo del proyecto es consistente con las prioridades
de desarrollo de la población y las políticas de la entidad ejecutora y el organismo
financiador.
→ Eficacia: grado en el cual se logran las metas de un proyecto. En general, la eficacia es
la verificación del cumplimiento de los objetivos de una intervención.
→ Eficiencia: análisis de los resultados con relación a la utilización óptima y oportuna de
los recursos o análisis de costo-beneficio.
→ Impacto/Propósito: valoración socio-económica global, incluyendo los efectos
positivos y negativos, tanto aquellos que son deseados y estaban previstos, como los no
previstos y no deseados. La evaluación de impacto es una actividad compleja y requiere
el análisis de información, encuestas y análisis estadísticos en muchas ocasiones, sin
embargo, pudiera simplificarse utilizando óptimamente el análisis de información y el
criterio de expertos que como resultado pudieran aportarnos resultados validos en el
ejercicio de evaluación.
→ Sostenibilidad: apreciación de la capacidad para mantener los impactos positivos del
proyecto por un largo periodo de tiempo. Análisis sobre si el efecto global, en términos
de tiempo, por ejemplo, la mejora de la calidad del paciente, es positivo también en el
largo plazo.
3. ÉTICA DE LA INVESTIGACIÓN CUALITATIVA
La investigación cualitativa también se rige por estos principios éticos (código de Núremberg,
Declaración de Helsinki, etc.) y añade una serie de valores específicos de la investigación
cualitativa.
Por ello, se deben tener en cuenta las dimensiones éticas en todos los momentos de la
investigación, desde la planificación estratégica hasta el pluralismo de los equipos de trabajo
implicados en el proceso investigador.
→ Valor científico o social: la investigación debe promover una mejora para la sociedad.
→ Validez científica: planificación del estudio en base a una metodología rigurosa.
→ Selección equitativa de los sujetos: de acuerdo con criterios científicos relevantes y
por encima de estigmas sociales.
→ Proporción favorable en la ecuación riesgo-beneficio.
→ Revisores de estudios independientes de los evaluadores implicados.
→ Consentimiento por parte de los sujetos y mantenimiento de su integridad a lo largo
de todo el estudio.
1. EL INFORME DE INVESTIGACIÓN
Una de las partes más importantes del informe científico es aquella en la que se detallan la
metodología empleada, así como los resultados obtenidos y el tratamiento estadístico
aplicado. A continuación, se detallarán las claves para escribir estos apartados.
Análisis de resultados
En primer lugar, se deben exponer los principales hallazgos encontrados tras el análisis de los
datos. Se deben incluir todos los resultados relevantes, incluidos los que refutan la hipótesis
de partida. Los resultados significativos deben ir acompañados del valor del estadístico
utilizado (ejemplo: el valor de chi-cuadrado si hemos realizado una comparación de medias
entre dos variables categoriales) y del valor de probabilidad obtenido en ese contraste (ejemplo,
p=0,034). En general, se consideran significativas las probabilidades por debajo de 0,05.
Tablas
Las tablas proveen de valores exactos y pueden señalar eficientemente los principales efectos
significativos encontrados.
Gráficas
Por otra parte, las gráficas atraen la atención de los lectores e ilustran mejor los resultados y
comparaciones generales. El inconveniente es que son más costosas de reproducir.
Información estadística
Al escribir manuscritos científicos debemos tener en cuenta que los lectores tienen
conocimientos en estadística, por lo que debemos eludir justificaciones básicas (por ejemplo,
describir por qué una prueba con una probabilidad mayor de 0,05 debe ser descartada de la lista
de resultados significativos).
Abstract
El resumen es un compendio del contenido del artículo, por lo que habitualmente lo redactamos
una vez están claros la metodología, la fundamentación y los resultados principales del estudio.
Es la parte más importante del artículo, puesto que, al realizar una búsqueda bibliográfica,
la parte visible para los lectores va a ser, en la mayoría de las ocasiones, solamente el abstract.
De este modo, ha de ser suficientemente informativo por sí mismo para mostrar la relevancia
de lo obtenido y captar la atención del lector.
Introducción
La literatura debe ser revisada y discutida sin llegar a ser una revisión histórica exhaustiva,
dado que el lector, habitualmente, seleccionará nuestro trabajo previsiblemente porque tiene
conocimientos previos en el área. Se deben citar las referencias directamente relacionadas
con la incógnita que investigamos en nuestro texto, y evitaremos artículos relacionados solo
tangencialmente. Se indican por tanto aquellos hallazgos pertinentes a la investigación que
estamos desarrollando.
Metodología
Esta sección debe examinar, interpretar y calificar los resultados para realizar inferencias
con respecto de la población objeto de estudio. Este proceso se realiza interrelacionando la
literatura descrita en la introducción con los resultados obtenidos.
La discusión se inicia con una descripción breve de los resultados obtenidos y su implicación
práctica, así como la afirmación clara en apoyo o no de la hipótesis nula. Tras el análisis
comparado con bibliografía previa, se deben señalar tanto las limitaciones del estudio realizado
como los puntos fuertes e innovaciones que se proponen con respecto de estudios anteriores.
A lo largo del texto, sobre todo en la sección de introducción y en la discusión, se citan los
autores de los artículos incluidos. Al final de todos los manuscritos científicos (después de la
discusión) se incluye una lista con todas las obras mencionadas (referencias bibliográficas).
El formato de las referencias varía según la revista a la que se envíe el artículo, aunque
generalmente se incluirán los autores principales del artículo, el año de publicación, el
título del artículo, el título de la revista, el número, el volumen y el número de páginas.
Por ejemplo:
La forma de citación más frecuente en psicología es aquella que sigue las normas que
establece la APA (American Psychological Asociation).
Una vez escrito el artículo éste se envía a una revista científica para su publicación. Existen
gran cantidad de ellos, agrupadas en disciplinas y áreas. Algunas son muy específicas y
publican sólo artículos relacionados con un área en concreto, mientras que otras son más
genéricas (Women and Therapy) y publican artículos más diversos (nature o Science). La
calidad de las revistas es valorada por una serie de valores numéricos, como el índice o factor
de impacto. Es más famoso es el calculado por ISI (Institute for Scientific Information). Estos
índices son calculados por organismos independientes y básicamente calculan una serie de
indicadores para, a través de una fórmula, establecer un valor que refleje la calidad de esa
publicación. Estos indicadores pueden variar, pero en general están relacionados con la
cantidad de artículos que tiene una revista, la cantidad de lectores y su relevancia teórica
(medida como la cantidad de veces que otros artículos citan a los artículos publicados en esa
revista).
Se ha escrito mucho sobre la idoneidad de estos índices. Por un lado, son muy útiles por su
sencillez a la hora de interpretarlos (un único valor numérico) peor por otro lado, se han
criticado que realmente no reflejan la calidad real, sino otros factores como el dinero invertido
en un área, la capacidad editorial de una revista, o incluso una cierta influencia de favores entre
colegas (autores que citan a sus compañeros más cercanos). En cualquier caso, nos guste o no,
estos sistemas de evaluación son los que se utilizan a la hora de evaluar la valía profesional de
un investigador, para concederle ayudas económicas o para medir su impacto.
Al haber una valoración, obviamente, también habrá una ordenación o ranking. La relevancia
de una revista se ve reflejada por el JCR (Journal Citation Report) que elabora listas de las
diferentes áreas del conocimiento y cuáles son las revistas más prestiogiosas en dicha área. Eso
quiere decir que habrá revistas como Nature con un factor de impacto cercano a los 32 puntos
y revistas como Psicología social con 0,866 puntos. En la siguiente tabla se pueden ver las
principales revistas dentro del área de psicología.
Cuando escribimos un artículo nos gustaría que fuera publicado en una revista con un factor de
impacto elevado o relevancia alta, sin embargo, eso no suele ser fácil, ya que, a mayor
relevancia, mayor es el proceso de selección de los trabajos y menor la posibilidad de ser
publicado. Se debe elegir una revista acorde a la temática y calidad de nuestra investigación.
Una vez elegida la revista y enviado el artículo, ésta debe de pasar un primer filtro del editor o
editores de la revista. Éstos valoran la idoneidad del trabajo y su ajuste a la temática e interés
de los lectores. De ser así, se iniciará un proceso de revisión por pares el cual consiste en que
al menos dos copias de tu artículo serán enviadas a expertos investigadores en el campo que
evaluarán la calidad de tu artículo. Los revisores remitirán al editor un informe donde
expresarán sus impresiones acerca del artículo. Pueden pasar dos cosas: que critiquen
duramente tu trabajo y que el editor renuncie a publicarlo, o que señalen aspectos de mejora y
que el editor te pida hacer cambios (mayores o menores) de cara a publicarlo en la revista. Esto
último es lo que se llama “publicación condicionada a cambios”. El autor decidirá si asume
realizar esos cambios, si rebate algunas cuestiones en las que sus colegas los revisores no
coincidían, o si decide no asumir esos cambios y no publicar finalmente en esa revista. Si al
artículo fue rechazado en primera o segunda instancia (por el editor o por los revisores) el autor
puede decidir enviarlo a otra revista.
El tema de la revisión por pares suele ser polémico. Aunque el proceso habitualmente suele ser
anónimo (revisores ciegos), siempre puede haber ciertas suspicacias. En áreas muy específicas
del conocimiento es fácil reconocer a algunos autores. Por ejemplo, si hay dos expertos
mundiales en materia de expresión facial en personas con síndrome de Turner y uno es el
revisor, sabrá casi seguro quien es el otro autor.
Y cómo siempre, hecha la ley …, hecha la trampa. El caso de Hyung-in Moon que se creó
varias identidades académicas falsas para ser revisor de sus propios artículos.
Una vez aceptado el artículo por el editor, pueden pasar meses hasta que éste vea la luz y sea
publicado.
El Acceso Abierto se justifica más si cabe, si tenemos en cuenta que la literatura científica se
genera en la mayor parte de las ocasiones en el seno de entidades públicas, costeada con
recursos públicos. En contraste con ello, esta literatura científica ha venido estando
monopolizada por los grandes grupos editoriales que cada vez han ido poniendo precios más
elevados a la distribución de la información generada gracias a las aportaciones públicas. Las
principales ventajas de publicar en abierto son:
Normalmente, los costes de publicar en abierto corren a cargo de los autores (bien con ayudas
económicas de sus financiadores o de su bolsillo) y estos pueden ascender a los 2500 euros en
ciertas revistas internacionales.
En el momento en que se publica el informe de una investigación en una revista con revisión
por pares, ha sido ya revisado con intención crítica por expertos. Habitualmente, el o los autores
han introducido cambios en el borrador inicial en respuesta a las observaciones de los revisores.
Aun así, ni siquiera un procedimiento minucioso de evaluación garantiza la validez del diseño
o resultados publicados en un artículo. Los profesionales sanitarios tienen la responsabilidad
de evaluar la validez y relevancia de un texto científico. La práctica vas a venir gracias se centra
en las formas en las que los profesionales pueden mejorar su práctica clínica.
Existen multitud de referencias bibliográficas que nos ayudan a realizar una evaluación crítica
de la evidencia. Sobre todo, se han publicado guías para evaluar críticamente ensayos clínicos
aleatorizados, revisiones sistemáticas, estudios de casos y estudios de cohortes. Así tenemos la
guía CONSORT o el índice de calidad de Dows y Black que mediante una puntuación
cuantitativa [0-21] nos ayuda a conocer la calidad de una publicación.
El objetivo del análisis crítico no es desacreditar los trabajos publicados por sus autores, sino
garantizar que el lector comprende sus limitaciones y sus implicaciones.
2. EVALUACIÓN DE LA INTRODUCCIÓN
Es importante que los autores hagan una correcta revisión de la bibliografía existente. De lo
contrario podría conducir a una innecesaria repetición de una investigación o a cometer errores
que podrían haberse evitado si se hubieran incorporado los hallazgos anteriores en la
formulación del diseño de la investigación. Omitir artículos clave con relevancia directa en el
tema, puede introducir sesgos importantes ante el planteamiento que pretenden mostrar los
autores.
Dependiendo de cómo estén formulados estos objetivos, los autores deberán elegir la mejor
estrategia y metodología. En esencia, la evaluación crítica pretende medir el grado de acierto
de los investigadores a la hora de seleccionar los métodos de investigación para su estudio.
3. EVALUACIÓN DE LA METODOLOGÍA
El apartado de métodos es el núcleo de un artículo. Gracias a él, los lectores serán capaces de
comprender, evaluar, y tal vez replicar el estudio. Por lo tanto, la valoración crítica de este
apartado es esencial para nuestro objetivo.
El tamaño de la muestra también es un factor para tener en cuenta. El empleo de una muestra
pequeña no es necesariamente un problema grave, siempre y cuando sea representativa. Sin
embargo, cuando estudiamos una población muy diversa, una muestra pequeña no nos va a
permitir garantizar la representatividad.
Por otro lado, los autores deberán hacer una descripción clara de las características de la
muestra, el sexo, el tipo de dolencia, la gravedad, etc. Este aspecto es fundamental de cara
permitir la replicabilidad del estudio.
Instrumentos de medición
En el apartado de evaluación los autores deberán describir las pruebas e instrumentos utilizados
para medir las variables de interés de tal manera que los lectores también puedan conocer de
qué pruebas se tratan, sus propiedades, métodos de aplicación e interpretación de sus
resultados. En nuestra área, cobra especial relevancia la correcta descripción de estas
herramientas ya que podemos encontrarnos con cientos de ellas que pretenden medir el mismo
constructo psicológico.
Elegir la escala más adecuada para nuestros objetivo puede ser un aspecto determinante para
poder evaluar la validez del estudio. Una mala elección, puede echar por tierra todos los
resultados.
En ocasiones tenemos que hacer uso de escalas desarrolladas ad hoc, lo cual imposibilita
totalmente la comparación con otros estudios similares.
Procedimiento
Se requiere una descripción completa del modo en que se llevó a cabo la investigación, tanto
para su repetición, como para la evaluación de su validez interna y externa. El requisito de
aportar una argumentación clara y explícita se aplica tanto a los estudios cualitativos como
cuantitativos.
Cuando el objetivo es identificar factores causales una forma de controlar el sesgo Y los efectos
de confusión consiste en emplear grupos de control. Si no se emplean grupos de control se
pondría en cuestión la validez interna de la investigación.
En el caso de haber incluido un grupo control la asignación de los participantes a cada grupo
debe ser igualmente explícitada. Elegir una asignación aleatoria O no aleatoria tiene
importantes consecuencias a la hora de asegurarnos la formación de grupos equivalentes. Si se
trata de un ensayo clínico, también llamado diseño experimental, los autores deberán explicar
cómo se hizo tal aleatorización.
Igualmente, siempre que sea posible, los estudios de intervención deben utilizar procedimientos
de cegamiento o doble cegamiento para que ni los participantes sin el evaluador conozcan a
qué grupos han sido asignados.
Intervención
Por último, el tratamiento o intervención aplicada es una cuestión fundamental en el apartado
de la metodología. Es importante describir todos los tratamientos tanto del grupo control como
el grupo experimental. En caso grupo control no reciba tratamiento, este también debe ser
definido. Por ejemplo, sigo grupo control está recibiendo tratamiento habitual deberemos de
describirlo. Si el tratamiento control consiste en un placebo, deberíamos de indicar en qué
consistía el placebo, su forma y método de aplicación. En nuestra área cobra especial relevancia
la descripción de nuestras intervenciones debido a que éstas suelen ser muy heterogéneas y
difícilmente replicables. Pensemos que, por normal general, son intervenciones individuales y
poco estandarizadas. Según los criterios TIDIER cuando describamos nuestra intervención
deberemos señalar los siguientes aspectos:
→ Nombre de la intervención.
→ Teoría en la que se sustenta u objetivos que persigue.
→ Materiales necesarios para ponerla en práctica.
→ Procedimiento de aplicación.
→ Quien la aplica.
→ Cómo se aplica o formato de aplicación (online, presencial, telefónico, individual…).
→ Donde se aplica (si hacen falta unas condiciones ambientales específicas).
→ Cuando y durante cuánto tiempo.
→ Individualización de la intervención o aplicación grupal.
→ Modificaciones posteriores.
→ Adherencia.
Análisis de datos
En el caso de estar ante un estudio cuantitativo es importante que los autores indiquen
claramente cómo han tratado los datos, los análisis efectuados y las estrategias estadísticas
empleadas. El lector debe de ser capaz de interpretar los resultados de manera clara, y esto no
es posible si se desconoce el análisis efectuado. Un valor p de probabilidad no tiene sentido si
no conocemos el resto de los resultados directos que nos informen de la media, la desviación o
las frecuencias y porcentajes. La selección de estadísticos inapropiados distorsiona los
hallazgos y conduce a conclusiones erróneas.
En ocasiones también se suele hacer referencia a los programas estadísticos empleados para
poder en caso necesario replicar esos resultados.
Los resultados de los estudios cuantitativos se analizan por medio de la estadística descriptiva
e inferencial. Las inexactitudes en el análisis estadístico dan lugar a errores de interpretación
de los hallazgos encontrados. En el caso de las tablas de gráficos éstos deben ser correctamente
tabulados y etiquetados para una correcta interpretación.
5. EVALUACIÓN DE LA DISCUSIÓN
En la sección de discusión, los investigadores interpretan las evidencias con referencia a los
objetivos, la pregunta de investigación y las hipótesis. Una interpretación incorrecta puede
conducir a distorsiones del conocimiento y a la propuesta de prácticas ineficaces.
En el apartado de la discusión deben aparecer las limitaciones del estudio y sus repercusiones
de cara a interpretar correctamente los resultados. Si nuestro estudio incluye una muestra
pequeña deberíamos de señalarlo Y avisaremos al lector de las consecuencias que esto puede
tener sobre los resultados. Igualmente, señalaremos el resto de limitaciones de nuestro estudio
tanto metodológicas como prácticas.
La primera dificultad que nos vamos a encontrar en las fases iniciales de un proyecto
No obstante, en los últimos años se ha venido promoviendo una nueva forma de publicar
denominada open access («en abierto»), donde los autores abonan los costos derivados de la
gestión de su artículo —maquetación, publicación, acceso online, etc.—. Esta modalidad de
publicación facilita el acceso a los posibles lectores y conlleva el beneficio secundario para
el propio autor de un incremento en el posible número de citaciones.
Aun así, si el artículo al que queremos acceder no está en open access, existen otras vías de
acceso al contenido deseado:
→ Escribir un mail al autor o autores de la publicación indicándoles nuestro interés en
acceder a su contenido. Recordemos que todas las publicaciones cuentan con un autor
de correspondencia que se encarga de responder a posibles preguntas de los lectores.
Cada artículo cuenta con información de contacto de los autores. En este sentido, es
interesante hacerse una plantilla de solicitud de artículos para automatizar aún más la
tarea.
→ Consultar en la biblioteca de la universidad o en bibliotecas de otras universidades.
Es frecuente que las bibliotecas de las universidades contemplen la posibilidad de dar
acceso a personas no matriculadas a través de carnets especiales (por ejemplo, carnet
de antiguos alumnos). Igualmente, las bibliotecas de las universidades suelen tener un
servicio de «préstamo interbibliotecario» por el cual se prestan artículos y publicaciones
entre ellas. Tu bibliotecario puede ser una gran ayuda.
→ Unirse a redes sociales de investigación donde es más fácil contactar con los autores.
Un ejemplo muy bueno de red social de investigación es www.researchgate.com. En
esta web los autores cuelgan o comparten de manera desinteresada sus publicaciones.
El sistema está perfectamente automatizado para que pedir el artículo sea tan sencillo
como dar un click.
→ Rastrear la web en busca de otras vías de acceso. A veces el artículo puede estar
publicado en otras webs institucionales o en repositorios no oficiales. En los últimos
años está disponible una web muy polémica denominada «la Robin Hood de la ciencia»
(sci-hub.cc) que ha llegado a acuerdos con otros autores e instituciones para ofertar de
manera desinteresada acceso a las publicaciones. Es frecuente que para evitar
restricciones legales cambien de dominio.
2. GESTOR DE REFERENCIAS BIBLIOGRÁFICAS
Una vez que hemos acumulado suficiente conocimiento y evidencia acerca de un determinado
tema, es frecuente que nos encontremos con un montón de archivos en nuestros discos duros o
de papel impreso que desborda nuestra mesa. Este cúmulo de información debiera de poder
guardarse de manera informatizada y ordenada de tal forma que su acceso y utilización
sea una tarea sencilla y específica.
Su principal funcionalidad a la hora de redactar un texto científico radica en que nos permiten
tener las citas y bibliografía en perfecto orden y modificarla a nuestro antojo sin apenas
esfuerzo. Piensa en la utilidad que puede tener esto cuando tienes un texto con más de cuarenta
citas e insertas una nueva a la mitad del texto.
Los gestores bibliográficos más conocidos son Refman y Endnote. Ambos están disponibles
para Windows y OSX. La mayor pega es su coste, que ronda los cien/doscientos euros. Aunque
en el caso de Endnote cuenta con descuentos para estudiantes.
La Universidad Internacional de la Rioja dota a sus alumnos con la posibilidad de crearse
una cuenta en el gestor de referencias Refworks. Para ello tienes disponible un manual dentro
de la Biblioteca Virtual de UNIR.
Figura 1. RefWorks.
Igualmente, existen opciones sin costo económico como son Mendeley o Zotero.
¿Qué diferencia a los diferentes programas? En esencia son similares, pero con la interfaz
diferente y con algunas variaciones en cuanto a las opciones avanzadas. ¿Cuál es mejor? «El
que mejor te funcione a ti».
En el último caso en el que decidas no utilizar estos programas, puedes gestionar tus referencias
bibliográficas de manera manual —«artesanalmente»—. Para ello es conveniente que cuentes
con un sistema propio que te ayude a tener todas tus referencias y textos ordenados —
bien sea por año, autor, contenido, etc.— y conozcas las normas de citación y referenciación
que se requieran.
Dado que estamos en el campo de la psicología, sería altamente recomendable que utilizaras el
manual APA, disponible en la Biblioteca Virtual de la UNIR.
Una vez hemos decidido qué variables vamos a recoger debemos diseñar nuestro cuaderno
de recogida de datos (CRD). Para ello, elaboraremos un protocolo de evaluación donde
incluyamos todas las cuestiones o escalas/cuestionarios/observaciones que son necesarias en
cada medición.
Si nuestro protocolo de evaluación incluye información clínica —casi seguro que se va a incluir
si tu estudio es clínico— deberás anonimizarlo o disociar los datos siguiendo la normativa de
la ley de protección de datos personales (LOPD). Para ello puedes asociar un número o
referencia a cada sujeto para que, si ese cuestionario se extraviara, nadie supiera a quién
pertenece. Solo el investigador encargado de monitorizar el estudio contará con esa relación
de códigos y nombres.
En el caso de que decidas hacer la recogida de datos con cuestionarios impresos, un simple
editor de textos tipo Word te servirá para tu propósito. Como puntos favorables están la
sencillez en su creación, no hace falta más material para rellenarlos que un bolígrafo y tienes
la tranquilidad de tenerlo en soporte físico para consultarlo cuando quieras. Como puntos
negativos están el coste de impresión, de almacenamiento de todos los protocolos de tu estudio,
la necesidad de informatizarlo en caso de que quieras analizarlo con algún programa
estadístico, el coste de generar nuevas copias impresas o la necesidad de hacerlos llegar a los
centros y su posterior recogida.
Como ventajas de este método están el volcado de los datos de manera directa a los programas
de análisis de datos, el análisis en tiempo real, la ausencia de stockage y la posibilidad de hacer
tantas copias como desees, el ahorro en envíos de material, etc.
La parte negativa es nuevamente el coste y las medidas de seguridad que debes de tomar para
que esos datos no caigan en manos ajenas. Imagínate que pierdes el pendrive donde has
guardado esos datos, que tu ordenador se extravía en el control de un aeropuerto, que tu
ordenador sufre un ataque informático, etc.
En el caso de que tus datos sean cuantitativos puedes utilizar el programa Excel —incluido
en el paquete de ofimática de Microsoft— para hacer los primeros análisis exploratorios.
Aunque la herramienta no ha sido diseñada específicamente para analizar datos, incluye buena
parte de las funciones necesarias para dar los primeros pasos.
para obtener la media estadística de los datos contenidos en las filas A2 a a10.
contar casos que cumplen una determinada condición, como ser «5».
Como ventajas de este software podremos indicar su uso extendido, la posibilidad de modificar
la base de datos a nuestro antojo y poder hacer análisis básicos sin demasiada complicación.
Un paso por encima estaría el software libre R Commander. Este programa se basa en su
homónimo R statistics —de hecho, tienen que estar instalados ambos para que funcione el
primero—. Como puntos positivos contaría la enorme versatilidad que ofrece gracias a su
sistema de librerías. Una librería es como una app dentro del programa que cuenta con
funciones específicas. Por el contrario, es un programa que requiere de cierto aprendizaje
y que no cuenta con un editor de datos sencillo.
Finalmente, la opción más específica —para nuestros propósitos—, más sencilla de utilizar y
a su vez, más costosa —en términos económicos—, sería SPSS. El software SPSS ha sido
desarrollado por IBM y es una completa suite de análisis estadístico. Permite crear bases
de datos, hacer análisis de datos avanzados, gráficos e informes.
5. FUENTES DE FINANCIACIÓN
Nadie dijo que investigar fuera fácil, y mucho menos barato. Ya hemos visto cómo varias de
las herramientas deseables para nuestra «caja de herramientas» tienen un coste
económico. Por suerte, no estamos solos y contamos con diversas ayudas de diferentes
organismos que nos pueden ayudar a llevar a cabo nuestro estudio.
Es conveniente que la financiación y ayudas que solicites sean ajustadas a tus verdaderas
necesidades. Una solicitud cuyo presupuesto sea muy elevado generará sospechas en el
evaluador, quien no hará un informe favorable. Indicar tus recursos disponibles también puede
ser una estrategia positiva de tal forma que el evaluador reconozca tu esfuerzo e interés.
Igualmente, y en caso de que se te concedan las ayudas, deberás de administrarlas tal y como
reflejaste en la solicitud. En este sentido son frecuentes las auditorías externas como medida
de control del uso de recursos.
6. HABILIDADES DE COMUNICIÓN
Recuerda que el fin último de una investigación es generar conocimiento. Este conocimiento
carecerá de valor real si no es presentado al resto de comunidad científica y sociedad general.
¿De qué sirve una idea nueva si está encerrada en un cajón sin que nadie la presente al resto
del mundo?
Por ello has de ser capaz de poder hacer una presentación en público de tu proyecto de
investigación, tesis, trabajo de fin de máster o trabajo de fin de carrera.
Para hacer tus presentaciones de manera más didáctica y entretenida (y porqué no decirlo,
para que te sea más sencillo presentarlas), puedes apoyarte en una presentación tipo
PowerPoint, Prezi, o Canvas donde a través de las diapositivas presentes tus ideas de
manera ordenada y precisa.
Sin embargo, tendrás que ser capaz de poder subirte al escenario y explicar correctamente
los contenidos de las diapositivas. Las diapositivas no saben hablar. Eres tú el que las
presentas. Por ello elige bien:
→ El discurso de tu presentación. ¿Cómo vas a presentar tus ideas para que se entiendan
mejor? Una buena estrategia es empezar con el problema que pretendes resolver o
estudiar, seguidamente indicar las dificultades que entraña y sus consecuencias, tu
opción de solución y las consecuencias a las que podemos llegar.
→ El contenido de las diapositivas. La norma dice que no más de una diapositiva por
cada dos minutos de presentación, no más de seis líneas de texto por diapositiva, tablas
como mucho de 3x3 con datos grandes, mejor si puedes presentar los datos en formato
gráfico, acuérdate de hacer una breve interrupción de cinco segundos cada quince
minutos para mantener la atención de tus oyentes.
→ Tu estilo. Ha de ser un estilo en el que tú te sientas cómodo y no desentones demasiado
con el público. Si tu presentación se va a desarrollar en un entorno muy técnico y
profesional, deberás de actuar de manera profesional y viceversa en el caso de entornos
menos formales. No es recomendable que simules otro estilo al tuyo o te presentes como
otra persona totalmente diferente a la que eres habitualmente.
Como ves, una presentación no deja de ser una puesta en escena donde presentas un
contenido determinado. Como toda escenificación, el secreto no es otro que ensayar,
practicar, confundirte, ver los errores, posibles cambios y volver a practicar, hasta que
seas capaz de hacerlo como te gustaría oírlo.