Análisis e Interpretación de Datos
Análisis e Interpretación de Datos
1
Carli: La ciencia como herramienta. Cap. 8 La recolección y el ordenamiento de
los datos en una investigación
El ordenamiento:
Esta tarea consiste en descomponer un conjunto o clase en subconjuntos o subclases,
según lo que se haya establecido previamente, y en ordenar los valores de las variables de
manera que cumplan con los criterios de utilidad y significación.
Decimos que son útiles cuando tienen potencialidades para descubrir nuevos
elementos que hagan evidentes otras cualidades de las variables que pueden permanecer
ocultas, en ordenamientos más inclusivos.
Decimos que son significativos cunado son relevantes en el contexto en el que se está
trabajando.
En el momento en que se están ordenando los datos es convenientes, sobre todo
cuando se utilizan estrategias cualitativas, tener una clara definición conceptual de la variable
correspondiente, a la vez que tener bien clara la manera en que se va a codificar la
información. En razón de esto surge la necesidad de hacer un trabajo de supervisión en el
momento de llenar las planillas.
Es muy importante, además, que los investigadores tengan clara la diferencia entre
análisis e interpretación de los datos. El análisis consiste en ordenar las observaciones
realizadas de manera que respondan a las preguntas de la investigación. La interpretación
consiste en buscar significaciones a las respuestas encontradas. Ambas actividades deberán
tener un fuerte anclaje en la teoría.
Las investigaciones correlaciónales y explicativas y sus hipótesis señalan con claridad
de qué manera se ordenarán los datos, cómo se cruzarán las variables y qué resultados se
esperan encontrar. Las exploratorias y las descriptivas exigen una mayor agudeza e
imaginación para poder establecer esas relaciones.
El ordenamiento de los datos puede realizarse en tablas en las que las unidades de
análisis están ubicadas en las líneas y las variables, en las columnas.
También es común el uso de gráficos de barra (histograma) en los cuales se ubican en
el eje vertical (Y) los valores y en el horizontal (X) las frecuencias encontradas.
Una tercera forma de uso habitual es el uso de representaciones circulares (las
“tortas”) en las cuales, para calcular la superficie correspondiente a cada categoría
encontrada, se multiplica el valor de la misma (expresada en porcentaje) por 360 y se divide
por 100.
Concepto de prueba estadística: su sentido y justificación.
Las principales pruebas:
Cuando un investigador recoge información y la estructura como datos científicos
suele entrar dentro del método estadístico. Presenta dificultades entender la relación que se
establece entre magnitudes imprecisas del mundo de las ciencias humanas, y las rígidas
matemáticas.
2
Frente a esto intentaremos clarificar la manera en que un investigador utilizará estas
herramientas.
Todo investigador deberá planear un proyecto, que plasmará un protocolo escrito en el
que definirá objetivos, hipótesis, diseño, datos y, si correspondiera, el tratamiento estadístico a
utilizar. Antes de empezar a trabajar deberá realizarse una planificación lo más completa
posible, decidido de qué estrategias estadísticas se hará uso para darle mayor fuerza de
verdad a nuestros hallazgos.
Es evidente que si el diseño es exploratorio no habrá tal tratamiento.
Cuando el objetivo sea describir, atribuir valores a una dimensión de la variable, el
interés será conocer el valor de los atributos (variable) de las unidades de análisis del objeto
de nuestros interés. Lo ideal sería conocer todas las unidades de análisis, lo que se conoce
como población, pero diversas razones lo hacen dificultoso: razones económicas, temporales
(de tiempo) o la misma naturaleza del estudio (por ejemplo, muerte súbita) pueden hacer que
se necesiten subconjuntos. Estas son las muestras, subconjuntos representativos de la
población.
Cuando se describe es importante considerar:
1) El diseño de la muerta
2) La media aritmética
3) La desviación estándar
La muestra deberá ser representativa: esto es, estará constituida por las unidades de
análisis que caracterizan adecuadamente el problema de investigación. Pero aquí es donde
vendrán en su ayuda la media aritmética y la desviación estándar. La primera será el resultado
de sumar todos los valores de la variable considerada y dividirla por el número de unidades
estudiadas. Si a esta información se le agrega el desvío estándar tendremos la noción de la
dispersión presente en la muestra. También tendremos que recordar que para que estemos
seguros e la adecuada homogeneidad de la muestra, de que sea lo suficientemente
representativa, esto es que presente lo que se conoce como variabilidad del azar.
Este abordaje exige un tipo de distribución especial, normal. Cuando esto no es así la
medida de posición a considerar será la mediana.
Otra información que el investigador deberá tener es el rango, la diferencia existente
entre el valor mayor y el menor.
Cuando esta regularidad esté presenta se usaran las técnicas paramétricas. Cuando
no estén aseguradas, el investigador estará obligado a usar técnicas menos precisas, más
groseras, las no paramétricas.
Conocer el desvío estándar servirá para conocer la forma de la curva. Cuanto más
pequeña, existirá una menor dispersión de los valores logrados y cuanto mayor sea, deberá
considerarse una mayor dispersión de éstos. De manera que se considera que entre 2
desvíos a cada lado de la media encontraremos al 95% de los individuos de la muestra y que
prácticamente todos (99%) entre los valores comprendidos entre 3 desvíos a cada lado de la
media aritmética.
Pero el interés de todo investigador es conocer lo que ocurrirá en la población en
general a partir de lo que ha logrado saber en una muestra. Un investigador sabe de la
variabilidad de sus resultados pero también que a medida que repita sus mediciones se irá
3
acercando a una mejor representación del fenómeno en estudio pero siempre con un margen
de error.
Aquí es donde la estadística viene en auxilio del investigador mediante la medición del
error estándar. Como asimismo hay una falta de precisión en los resultados obtenidos,
entonces se establece cuál será la tolerancia para esa falta de precisión, mediante el
establecimiento de un intervalo de confianza. Como todo esto no es suficiente, se establece
una probabilidad de que, a pesar de todo el esfuerzo realizado, los valores encontrados
escapen de los que se hallarán en la población, esto es, que estén equivocados.
El gran problema de todo investigador es la imprecisión de sus resultados en cada una
de las pruebas o mediciones que haya realizado. Este error se reducirá a medida que se
aumente el tamaño de la muestra.
Otra forma de abordaje estadístico se planteará en aquella circunstancia en que se
trate de comparar la misma variable en distintas muestras. Se suele considerar que las
respuestas diferentes son estadísticamente significativas y que, conocida como la medida de
la probabilidad de error, ésta es aceptada como menor a 5%.
Para que esa diferencia sea aceptada se deberá estar seguro de que las muestras son
iguales en todas las condiciones menos en aquella que se está midiendo, investigando. Se
dice que las muestras son homogéneas. Pero, como ya se mencionó, la ciencia necesita no
ser subjetiva, por lo que utiliza el azar, la aleatoriedad, para armar sus muestras, con lo que
intenta reproducir el azar presente en la vida misma. No obstante, conviene recordar que una
muestra aleatoria no siempre es garantía de rigor científico y puede también presentar sesgos
producidos por el azar, por lo que el investigador deberá en todo momento mantener vigilancia
epistemológica, esto es, que sus resultados no se contradigan con la teoría que los sustenta,
en cuyo caso deberá realizar una prolija revisión de sus supuestos.
Una vez que se asegura la homogeneidad de las muestras el investigador, que tiene
alguna hipótesis de trabajo, las negará (hipótesis nula), y dirá que las muestras que ha
estudiado no se comportan de manera diferente entre sí, que lo que encuentra es atribuible al
azar. Decir que no son diferente no es lo mismo que decir que son iguales, y aquí deberemos
recordar la variabilidad que la vida tiene. La igualdad no se puede probar. Si la experiencia se
repitiera muchas veces, existiría una diferencia entre cada uno de los resultados. Una prueba
de uso habitual, destinada a conocer si las medias aritméticas obtenidas en 2 muestras
difieren significativamente, es la prueba “t” de student. Esta prueba será diferente según se
trate de muestras apareadas (sujetos sometidos a un tratamiento, a los que se les realizó
mediciones antes y después) o para muestras independientes (unos sujetos sometidos a
tratamiento y otros con placebo).
En el caso de que las muestras a comparar no tengan distribución normal se recurrirá
a tests no paramétricos, en los que se comparan medianas.
Otro problema se presenta cuando se trata de estudiar la relación entre variables. Este
tipo de relación podía ser del tipo “A provoca B” (explicativo) o del tipo “A en tanto B”
(correlacional). Al margen, lo importante es recordar que será diferente el tratamiento según
se traten de variables cualitativas o cuantitativas. En el primero, por ejemplo, presencia de
dislipemia e infarto de miocardio como variables categóricas, la prueba utilizada (no
paramétrica) es chi cuadrado en la cual lo que se trata es ver si la asociación que se piensa es
4
significativa, en cuyo caso los no dislipémicos deberían tener una incidencia menor de infarto
de miocardio.
En el caso de que la investigación se maneje con variables cuantitativas el indicador
matemático de que la relación entre las variables está presente es el coeficiente de
correlación, a partir del cual se obtienen fórmulas con las cuales lograr las ecuaciones de
regresión que permitan estudiar el comportamiento entre variables. En el primero de los casos
se utiliza el coeficiente de correlación de Pearson y el segundo consiste en un artificio
matemático mediante el cual se da a conocer la influencia de una variable (independiente)
sobre otra (dependiente).
En el caso en que de lo que se trate es de valorar estadísticamente la influencia
existente entre 2 o más variables categóricas (de clase o categoría: sexo, profesión, etc.) que
consideramos independiente sobre una que consideramos dependiente (medida en niveles de
razón: peso, estatura; o de intervalos: mayor, menor, etc.) se utilizará el análisis factorial de
varianza (ANOVA).
5
Para probar si esa relación se mantiene en otras circunstancias se puede hacer una
prueba que da mayor especificación y que consiste en examinarla en otro grupo en
condiciones diferentes, observar si subsiste o no y en qué grado se mantiene.
En el caso particular de las técnicas cualitativas podría ocurrir que el investigador se
encuentre con casos que se salen de lo esperado, con categorías no pensadas; en esa
circunstancia no debe apartarlos sin tratar de entender su significado. Una vez realizado el
análisis y la categorización correspondientes se procederá de la misma manera que con los
datos estructurados.
Una vez ordenados los datos es importante avanzar y tratar de interpretarlos, lo cual
consiste en “leerlos” a la luz de la teoría y extraer conclusiones que serán la base para la
elaboración de nuevas teorías o para refutar o reforzar las existentes. Se tratará de establecer
alguna inferencia y, mediante una adecuada articulación lógica, generar una estructura que
satisfaga las preguntas de investigación originales. Debe recordarse que una investigación
trata de responder solo a las preguntas-problemas que la originaron.
En principio, podemos afirmar que las computadoras pueden ser programadas para
realizar tareas mecánicas de análisis, tales como identificar similitudes, diferencias y
relaciones entre distintos fragmentos de texto, pero de ninguna manera se las puede preparar
para la actividad de creación conceptual. Y aunque se hable del software para el análisis de
datos cualitativos, no puede reemplazar al investigador en su actividad analítica; el software
no puede analizar los datos en lugar del investigador . Si bien por un lado las técnicas de
manejo y almacenamiento de datos se han desarrollado y vuelto cada vez más complejas y
matemáticamente muy sofisticadas, por el otro nuestros esquemas de interpretación, que son
los que dan el verdadero sentido a nuestros datos, no han sido estructurados eficazmente.
7
3. Tipiar, corregir y editar transcripciones de observaciones, grabaciones de
entrevistas, gráficos, vídeos y otros documentos para su utilización como material de análisis.
4. Almacenar los materiales del análisis cualitativo en una base de datos organizada.
5. Marcar fragmentos del material considerados relevantes por el investigador.
6. Codificar, es decir, registrar los temas y las interpretaciones emergentes durante la
lectura y reflexión sobre los datos, adjuntando una o múltiples categorías de análisis (códigos,
etiquetas, palabras clave o breves frases) a cada uno de los fragmentos de material juzgados
como relevantes.
7. Buscar y recuperar los fragmentos de material identificados como relevantes y/o
categorizados analíticamente.
8. Refinar progresivamente la categorización analítica a través de la modificación, la
agrupación y/o la eliminación de códigos.
9. Tipiar, corregir, ampliar y editar memos o apuntes analíticos del investigador
(comentarios reflexivos acerca de temas emergentes, ideas, conceptos y proposiciones
teóricas elaboradas a partir de los datos y/o la lectura y relectura de material bibliográfico,
referidas a aspectos focalizados de los datos y que sirven de base para análisis más
detallados).
10. Buscar y recuperar palabras o frases para su análisis.
11. Vincular datos, es decir conectar unos fragmentos relevantes de datos con otros,
formando agrupamientos o redes de información.
12. Separar datos correspondientes a los diversos casos estudiados para su análisis
comparado.
13. Organizar aspectos de los datos en matrices y/o cuadros-resúmenes para su
visualización e interpretación.
14. Vincular categorías, es decir conectar categorías de análisis con otras, formando
redes semánticas que especifiquen relaciones jerárquicas o no jerárquicas entre conceptos
vinculados a fragmentos de datos.
15. Probar hipótesis de trabajo mediante búsquedas complejas que recuperen
fragmentos de datos pertenecientes a redes semánticas, para la construcción de teoría
fundamentada en los datos.
16. Mapear, es decir elaborar diagramas que muestren redes semánticas y desarrollos
teóricos.
17. Analizar contenidos mediante el conteo de frases.
18. Tipiar informes de resultados de la investigación.
Los puntos 11, 14, 15 y 16 claramente no pueden, hoy en día, realizarse con un
procesador de textos.
8
a) las características del proceso de la preparación de los datos y las formas de su
transcripción;
b) los pasos del análisis, interpretación y/o codificación;
c) el proceso de escritura durante el análisis;
d) la escritura del reporte final.
9
1) utilizar una lista de códigos que le permita incluir distintos niveles de codificación o
agrupamiento en subcódigos, es decir, una codificación jerárquica;
2) utilizar una lista de códigos que no le permita incluir distintos niveles de codificación
o agrupamiento en subcódigos, o sea, codificación no jerárquica;
3) ambas posibilidades a la vez.
10
profundizar o desarrollar una teoría. Estos programas asisten en el acceso, la manipulación y
el análisis de datos textuales y/o multimediales eliminando la tarea manual de clasificar,
ordenar y preparar la información. Además, están constituidos por una serie de herramientas
que ayudan a clarificar el significado de los datos. Los programas que utilizan los
investigadores cualitativos hoy en día se dividen en dos tipos: 1) genéricos o «multipropósito»,
y 2) específicos.
Cabe aclarar, sin embargo, que algunas aproximaciones cualitativas podrían ser
asistidas mejor por un software no específicamente desarrollado como CAQDAS; si el
investigador requiere solamente algunas funciones específicas podría utilizar programas de
índole más [Link] hecho, Microsoft Word ha sido sugerido en varios casos como una
alternativa de los CAQDAS.
11
ser transportadas de una computadora a otra fácilmente; la virtud de las bases externas
consiste en que permiten manejar un mayor número de datos, particularmente si se trata de
datos multimediales, y el tamaño del archivo del proyecto generado por el software será
mucho menor que si incluyera «físicamente» los archivos de datos. Esto posibilita tener un
gran número de datos (material textual o de otros tipos)
Incorporación de documentos
La entrada de datos puede realizarse directamente en el sistema y/o a través de la
importación de datos vía procesadores de textos. En general, los documentos textuales
pueden ser asignados al sistema de manera directa desde un procesador de textos; algunos
programas requieren algún tipo de conversión previa, como transformar archivos con formato
al tipo «solo texto» o «rtf» [rich text format]. Los archivos multimedia, en los programas que los
aceptan, son asignados directamente. Los tipos de archivo más utilizados
son .jpg, .jpeg, .gif, .bmp, .wav, .avi y .mp3, entre otros. Independientemente del software a
utilizar, es conveniente seguir algunas reglas básicas previas a la transcripción del material
12
textual compuesto por distintas unidades de texto fácilmente identificables, tales como el
párrafo, la oración, la frase o la palabra. Estas reglas constituyen un elemento útil,
particularmente en el momento de efectuar tareas como la búsqueda de texto.
Codificación
La codificación consiste en adosar códigos a segmentos de textos, identificando y
diferenciando así unidades de significado. Los criterios para identificar estas unidades pueden
ser diversos: espaciales, temporales, temáticos, conversacionales y hasta gramaticales
(párrafos, oraciones, líneas y palabras). Esos criterios están profundamente ligados a la
pregunta de investigación. Todos los programas poseen la función de codificar. Los códigos
llamados índices o categorías conceptuales consisten generalmente en palabras o frases que
indican un concepto abstracto. En algunos casos, el segmento de texto se limita a una
palabra, a líneas o a párrafos; en otros no existen limitaciones. Los códigos se muestran en el
margen del texto o dentro del texto mismo.
La longitud de los códigos es variable según el programa. Estos pueden ser adosados
a fragmentos de textos superpuestos o incluidos entre ellos según el nivel de codificación
permitido. Más de un código puede ser asignado a un mismo fragmento, quedando en manos
del investigador la estrategia de codificación a utilizar. Algunos programas incluyen la
codificación in vivo y la codificación rápida, la cual permite asignar un código activo a distintos
segmentos de textos [quick coding]. El proceso de codificación también comprende la
recodificación y la agrupación de los códigos. Asimismo, el esquema de codificación puede
ser jerárquico, no jerárquico o ambos.
Ejemplo: Entre las diversas técnicas utilizadas para captar cómo eran y cómo eran
percibidas las condiciones de trabajo de los operadores telefónicos, se muestra a continuación
el material extraído de los talleres de reflexión que se iniciaban con los interrogantes: «¿cómo
siento mi cuerpo trabajando?» y «¿cómo veo mi puesto de trabajo?». Los participantes
expresaron mediante representaciones gráficas sus vivencias sobre las condiciones de trabajo
durante el desarrollo de sus actividades. Puede observarse en la siguiente imagen cómo
perciben la carga global de trabajo y su influencia en la salud.(Cuadro donde se cruzan
variables)
13
Autocodificación
Los CAQDAS permiten la codificación automática controlada por el investigador. Esta
tarea consiste en realizar una búsqueda en los documentos, seleccionar una determinada
extensión de texto cuando se cumpla la condición de búsqueda y relacionar ese texto con un
código existente. La facilidad con que esta tarea es ejecutada por el software suele provocar
una excesiva fragmentación de los datos, que contribuirá a dificultar luego un análisis más
profundo. El investigador se ve involucrado en un esquema de codificación tan extenso, dada
la magnitud de veces que se repite ese código a lo largo de su material, que «entra en
pánico» y no sabe cómo obtener una explicación coherente de todo su análisis. Sin embargo,
se supone que para un investigador formado y experimentado esta función no debería
presentar tales problemas.
Búsqueda de texto
La recuperación de segmentos de textos constituye la principal función de los
CAQDAS, ya sea a través de la búsqueda de texto o de códigos. En este sentido, es posible
explorar los datos con una herramienta de búsqueda que permita encontrar un conjunto de
caracteres (palabras o frases) en todos los documentos de texto. Equivaldría a la función de
búsqueda de un procesador de textos, pero en algunos casos permite búsquedas más
complejas como la booleana (and, or, not), la de múltiples palabras, la de palabras con raíces
comunes, etc., además de búsquedas autodefinidas como las Globally look for Regular
Expression and Print [GREP]. Este tipo de búsqueda se utiliza cuando es necesaria una mayor
flexibilidad o amplitud de criterios que la proporcionada por la búsqueda estándar.
Por otra parte, algunos programas permiten obtener un listado indexado de frecuencia
de palabras mediante una herramienta de conteo.
Búsqueda de códigos
Una vez codificados los datos, es posible recuperar todos los segmentos de texto de
un conjunto de documentos que fueron codificados con el mismo código, para poder buscar
relaciones entre fragmentos de textos y explorar las preguntas de la investigación mediante
comparaciones e identificación de temas. Esta función básica de recuperación
está presente en la mayoría de los software. Muchos programas complementan la
búsqueda utilizando combinaciones de códigos. Se pueden combinar dos o más términos en
una expresión, utilizando operadores de búsqueda que indiquen la relación que se desea
14
imponer entre ellos. Generalmente incluyen la búsqueda booleana (and, or, not) y la de
proximidad (precede a, superpuesta a, cerca de).
Variables/atributos y agrupaciones
La función de agrupación facilitada por los CAQDAS permite crear familias de
unidades de análisis que comparten el mismo valor del atributo y/o variable. Por ejemplo, en
una investigación referida a la situación de extrema pobreza urbana cuya unidad de análisis
es la familia, dichas unidades se pueden agrupar según sea que el jefe del hogar esté a cargo
de hombres o mujeres, según que el jefe del hogar esté ocupado o desocupado, según que el
tiempo de desocupación del jefe del hogar y/o cónyuge sea más o menos de un año, según
sea el número de hijos por hogar, etc. Tanto variables socio-demográficas como cualquier tipo
de variable, sea numérica, categórica, lingüística, lógica o de fechas pueden ser usadas para
categorizar casos.
Sistemas de hipertextos
El hipertexto es un vínculo entre diferentes partes de la base de datos –códigos,
memos, documentos– que permite mostrar una conexión significativa y lógica entre
segmentos de textos sin recurrir a los códigos. Se trata de una forma de organizar y vincular
información de manera no secuencial, que permite al investigador moverse rápidamente entre
distintas fuentes de información. Los CAQDAS también hacen posible definir el vínculo
(explicación, justificación o contradicción) entre distintos elementos. El carácter dinámico,
asociativo y no secuencial del hipertexto se asimila a los procesos heurísticos e iterativos
propios de la investigación cualitativa. El ejemplo más popular de un hipertexto es la red
Internet (World Wide Web)
Confección de mapas conceptuales o redes semánticas
15
Los mapas conceptuales o redes semánticas son herramientas para organizar y
representar conocimiento de manera intuitiva mediante representaciones gráficas, que
incluyen conceptos y relaciones entre ellos en forma de proposiciones. Se entiende por
concepto a «la regularidad percibida en hechos u objetos, o registros de hechos u objetos,
designada con un nombre». Las proposiciones son sentencias acerca de un objeto o hecho en
el universo, ya sea natural o construido que contienen dos o más conceptos conectados que
forman una sentencia significativa.
Los programas permiten vincular entre sí distintos elementos tales como fragmentos
de textos, códigos, memos y documentos de datos, en forma gráfica mediante símbolos
(líneas y flechas), atribuyéndoles diferentes significados, lo cual posibilita usar las redes para
construir modelos de los datos. En general, los CAQDAS agilizan la construcción de un listado
de códigos que puede ser organizado de manera jerárquica o de otras formas y la
visualización de la red de vínculos mediante un diagrama.
Construcción de teoría
El término «construcción de teoría» usado por la concepción metodológica de la
«teoría fundamentada» (Grounded Theory) está relacionado con funciones avanzadas de
codificación y recuperación. Se basa en el supuesto de que los códigos usados para organizar
los datos representan las categorías teóricas que los investigadores desarrollan durante el
proceso continuo de análisis. Puesto que una teoría puede ser considerada como una red de
categorías, la herramienta que permite conectar códigos entre sí puede ser muy útil para
mostrar la estructura de la teoría emergente, y por lo tanto el software que facilita esta función
contribuirá favorablemente a su construcción. En este sentido, la herramienta para la
confección de diagramas conceptuales ofrece una forma visual de representar las ideas y
teorías que emergen de los datos que representan.
Reportes
16
La mayoría de los programas brindan la posibilidad de imprimir los resultados
obtenidos durante el proceso de análisis, tales como listados de documentos de datos, de
fragmentos de textos seleccionados, de códigos, memos, resultados de búsquedas y otros
ítems. Estas listas se originan dentro del mismo programa, permitiendo de este modo obtener
una vista previa de los resultados obtenidos antes de imprimirlos. También es factible exportar
los listados para ser leídos por otras aplicaciones, como por ejemplo el procesador de textos
Word.
Publicación en Internet
Esta función permite publicar resultados intermedios y/o finales en la red Internet
gracias a una estructura prediseñada o template, lo cual permite a otros investigadores tener
acceso a los archivos originales en el servidor vía la página web creada.
Conclusiones
Los CAQDAS son útiles para una amplia variedad de aproximaciones metodológicas,
aunque probablemente no tan dilatada como los entusiastas de estos programas pregonan. Lo
importante en cualquier tipo de análisis es ser consciente de que los CAQDAS son una
herramienta más que un método en sí mismos. Para poder sacar provecho de este tipo de
software, es esencial adaptar su uso a la propia metodología y no al revés.
Teniendo en cuenta las facilidades que ofrecen los CAQDAS para el almacenamiento,
codificación y recuperación de grandes masas de datos textuales o de otros tipos, y en virtud
de las funciones específicas detalladas, queda en manos del investigador utilizarlos de
acuerdo con su propia estrategia metodológica sin someter por esto su trabajo a las
particularidades de cada tecnología.
17
Capítulo 14 – Hernández Sampieri – Recolección y Análisis de los datos
cualitativos
Esta clase de datos es muy útil para capturar de manera completa (lo más que sea
posible) y sobre todo, entender los motivos subyacentes, los significados y las razones
internas del comportamiento humano. Asimismo, no se reducen a números para ser
analizados estadísticamente (aunque en algunos casos si se pueden efectuar ciertos análisis
cuantitativos, pero no es el fin de los estudios cualitativos).
19
- Significados: Son los referentes lingüísticos que utilizan los actores
humanos para aludir a la vida social como definiciones, ideologías o estereotipos, Los
Significados van más allá de la conducta y se describen, interpretan y justifican. Los
significados compartidos por un grupo son reglas y normas. Sin embargo, otros
significados pueden ser confusos o poco articulados para serio. Pero ello, en sí mismo,
es información relevante para el analista cualitativo.
20
lo que sus fronteras no siempre quedan completamente definidas. Los verdaderos
seguidores o "hinchas" de Boca, etc.
Las anteriores son unidades de análisis, acerca de las cuales el investigador se hace
preguntas como: ¿de qué tipo se trata (de qué clase de organizaciones, papeles, prácticas,
estilos de vida y demás unidades)?, ¿cuál es la estructura de esta unidad?, ¿con qué
frecuencia se presentan las episodios, los eventos, las interacciones, etc.?, ¿cuáles son las
coyunturas y consecuencias de que ocurran? El investigador analiza las unidades y los
vínculos con otro tipo de unidades.
Pero el investigador nunca debe olvidar quién es y por qué está en el contexto.
2. Lograr que los participantes narren sus experiencias y puntos de vista, sin
enjuiciarlos o criticarlos.
4. Recordar que cada cultura, grupo e individuo representa una realidad única. Por
ejemplo, los hombres y las mujeres experimentan “el mundo" de manera distinta,
los jóvenes urbanos y los campesinos construyen realidades diferentes, etc. Cada
21
quien percibe el entorno social desde la perspectiva generada por sus creencias y
tradiciones. Por ello, para los estudios cualitativos, loa testimonios de todos los
individuos son importantes y el trato siempre es el mismo, respetuoso, sincero y
genuino.
10. Leer y obtener la mayor información posible del ambiente, lugar o contexto antes
de adentrarnos en él
12. Participar en alguna actividad para acercarnos a las personas y lograr empatía por
ejemplo ayudar a un club deportivo
Son múltiples las herramientas de las que puede disponer el investigador cultivo.
OBSERVACIÓN
22
b) describir comunidades, contextos o ambientes; asimismo las actividades que se
desarrollan en éstos, las personas que participan en tales actividades y los significados, de las
mismas
d) identificar problemas
23
El observador cualitativo a veces, incluso, vive o juega un papel en el ambiente
(profesor, trabajador social, médico, voluntario, etc.), El papel del investigador debe ser el
apropiado para situaciones humanas que no pueden ser "capturadas" a distancia. Jorgensen
(1989) recomienda usar un papel más participante cuando:
Entrevistas
Se define como una reunión para intercambiar información entre una persona (el
entrevistador) y otra (el entrevistado) u otras (entrevistados), En el último caso podría ser tal
vez una pareja o un grupo pequeño como una familia (claro está, que se puede entrevistar a
cada miembro del grupo individualmente o en conjunto; esto sin intentar llevar a cabo una
dinámica grupal, lo que sería un grupo de enfoque). En la entrevista, a través de las preguntas
y respuestas, se logra una comunicación y la construcción conjunta de significados respecto a
una tema
24
conceptos u obtener mayor información sobre los temas deseados (es decir, no todas las
preguntas están predeterminadas).
Tipología de Grinnell
Mertens (2005) clasifica las preguntas en seis tipos, los cuales se ejemplifican a
continuación:
26
importante que el entrevistado se relaje y mantenga un comportamiento natural. Nunca
hay que interrumpirlo, sino guiarlo con discreción.
Un orden que podemos sugerir particularmente para quien se inicia en las entrevistas
cualitativas es:
Preg. Generales y fáciles -> Preg. complejas -> Preg. sensibles -> Preg. de cierre
27
Siempre es necesario demostrarle al entrevistado la legitimidad,
seriedad e importancia del estudio y la entrevista.
Creswell (2005) sugiere que el tamaño de los grupos varía dependiendo del tema: tres
a chico personas cuando se expresan emociones profundas o temas complejos y de seis a 10
participantes si las cuestiones a tratar versan sobre asuntos más cotidianos, aunque en las
sesiones no debe excederse de un n6rhero manejable de individuos. El formato y naturaleza
de la sesión o sesiones depende del objetivo y las características de los participantes y el
planteamiento del problema.
En un estudio de esta naturaleza es posible tener un grupo con una sesión única,
varios grupos que participen en una sesión cada uno, un grupo que participe en dos, tres o
más sesiones o varios grupos que participen en múltiples sesiones. A diferencia de los
experimentos, el número de grupos y sesiones es difícil de predeterminar, normalmente se
piensa en una aproximación, pero la evolución del trabajo con el grupo o los grupos es lo que
nos va indicando cuándo es suficiente.
Se reúne a un grupo de personas y se trabaja con éste en relación con los conceptos,
las experiencias, emociones, creencias, categorías, sucesos o temas que interesan en el
planteamiento de la investigación
Ejemplos:
Naturaleza del estudio: Comprender las razones por las cuales las mujeres que de
manera constante son agredidas físicamente por sus esposos mantienen la relación marital a
pesar del abuso.
28
Grupos que podrían integrar el estudio: Un grupo de médicos, otro de enfermeras,
uno de residentes, uno de auxiliares, dos grupos mixtos y los de pacientes. 6 o 7 participantes
por grupo. De estos, a su vez, una sesión por cada uno, pero si es necesario puede trabajarse
más de una.
En ocasiones los grupos de enfoque son útiles cuando el tiempo apremia y se requiere
información rápida sobre un tema puntual (por ejemplo: opinión sobre un comercial televisivo),
pero ciertamente pierde la esencia del proceso cualitativo.
Ejemplos de perfiles:
29
- Mujeres limeñas de 45 a 60 años divorciadas recientemente —hace un año o menos
— de nivel económico alto (A).
6. Se lleva a cabo cada sesión. El conductor debe ser una persona entrenada en
el manejo o la conducción de grupos, y tiene que crear un clima de confianza (rapport) entre
los participantes. También, debe ser un individuo que no sea percibido como "distante" por los
participantes de la sesión y que propicie la intervención ordenada de todos. La paciencia es
una característica que también requiere. Durante la sesión se pueden solicitar opiniones,
hacer preguntas, administrar cuestionarios, discutir casos, intercambiar puntos de vista y
valorar diversos aspectos. Es muy importante que cada sesión se grabe en audio o video (es
mucho más recomendable esta segunda opción, porque así se dispone de mayor evidencia no
verbal en las interacciones, como gestos, posturas corporales o expresiones por medio de las
manos) y después realizar análisis de contenido y observación. El conductor debe tener muy
en claro la información o los datos que habrán de recolectarse, así como evitar desviaciones
del objetivo planteado, aunque tendrá que ser flexible (por ejemplo, si el grupo desvía la
conversación hacia un tema que no es de interés para el estudio, deja que fluya la
comunicación, aunque sutilmente retorna los temas importantes para la investigación).
- Datos sobre los participantes (edad, género, nivel educativo y todo aquello que sea relevante
para el estudio).
Individuales
Grupales
31
institución. En una escuela tenemos como ejemplos: registros de asistencia y reportes de
disciplina, archivos de los estudiantes, actas de calificaciones, actas académicas, minutas de
reuniones, planes educativos, entre otros documentos.
32
profundo y se vincule con el planteamiento del problema (porque se corre el riesgo de que el
objeto sea algo trivial o que no sea útil para la investigación). Desde luego, los elementos
deben ser elegidos por los participantes, no por el investigador; incluso, a veces algunas
personas piden la opinión del investigador para elegir, entre más de una opción y esto debe
evitarse, ya que la simple elección de una foto o artículo, constituye en sí mismo un dato
cualitativo.
Algunos ejemplos:
- Elemento solicitado: Una fotografía de las heridas o hematomas provocadas por las
agresiones
- Elemento solicitado: Una prenda de vestir que evoque sus mejores recuerdos durante
el embarazo y otra que traiga recuerdos negativos
En ocasiones se les puede pedir a los participantes que elaboren escritos (una auto
descripción, cómo se ven dentro de determinado número de años, un recuerdo muy
agradable, las cuestiones que más les molestan en momentos depresivos; que tomen
fotografías (de los familiares que les ayudan más en su depresión, del compañero o
compañera de trabajo con quien mejor trabajan, de un sitio que les agrada y los relaja) o que
desarrollen videos, dibujen, etc.
Una vez que generen el material deben explicar los motivos por los cuales elaboraron
ese material en particular {esto aplica también a la categoría de proporcionar alguna muestra
de un elemento).
En estos casos se les debe pedir que los escritos sean legibles y los materiales
audiovisuales nítidos. También, el investigador tiene que evitar influir o sesgar a los
participantes.
Estos elementos dependen en gran medida del planteamiento del problema. A veces
son las unidades de análisis y en otras, material suplementario.
33
La respuesta es que esto depende en gran medida de cada estudio en particular. Pero
hay cuestiones que son ineludibles. Lo primero por realizar es registrar la información de cada
documento, artefacto, registro, material u objeto (fecha y lugar de obtención, tipo de elemento,
uso aparente que le dará en el estudio, quién o quiénes lo produjeron. También integrarlo al
material que se analizará -si es esto posible- o bien, fotografiarlo o escanearlo, además de
tomar notas sobre éste. Por otro lado es necesario cuestionar: ¿cómo se vincula el material o
elemento con el planteamiento del problema?
• ¿Qué tan directa es su vinculación con los hechos? (actor clave, actor
secundario, testigo, hijo de un superviviente o el papel que haya tenido).
En materiales u objetos:
• ¿Quién o quiénes los guardaron?, ¿por qué los preservaron?, ¿cómo fueron
clasificados?
La biografía o historia de vida es una forma de recolectar datos que es muy utilizada
en la. investigación cualitativa. Puede ser individual (un participante o un personaje histórico) o
colectiva (una familia, un grupo de personas que vivieron durante un periodo y que
compartieron rasgos y experiencias).
34
Algunas cuestiones que son importantes sobre esta forma de recolección de datos
son las siguientes:
Ejemplos:
Individuales:
- Una investigación para determinar los factores que llevaron al poder a un líder como
Alejandro Magno.
- Un estudio para documentar las experiencias vividas por varias personas a raíz de la
pérdida de un hijo o hija en un terremoto (una historia de vida después del suceso por
cada participante).
Colectivos:
Este método requiere que el entrevistador sea un hábil conversador y que sepa llegar
a los aspectos más profundos de las personas. Los conceptos vertidos sobre la
entrevista se aplican a este método.
35
Asimismo, se considera lo que permanece del pasado (secuelas y alcance actual de la
historia).
Es importante describir los hechos que ocurrieron y entender a las personas que los
vivieron, así como los contextos en los cuales estuvieron inmersos.
Si la historia está vinculada con un hecho específico (una guerra, una catástrofe, un
triunfo), y entre más cerca haya estado, el participante de los eventos, entonces más
información aportará sobre éstos.
Debemos tratar de establecer (en relación con el punto anterior) cuánto tiempo pasó
entre el evento o suceso descrito y el momento de rememoración o recreación, o bien,
cuándo lo escribió.
El investigador debe tener cuidado con algo que suele suceder en las historias: los
participantes tienden a magnificar sus papeles en ciertos sucesos, así como a tratar de
distinguir lo que es ficción de lo que fue real.
- Las historias son contadas por el participante, pero la estructuración y narración final
corresponden al investigador.
- En las biografías y las historias de vida, el investigador debe obtener datos completos
y profundos sobre cómo ven los individuos los acontecimientos de sus vidas y a sí
36
De razones ¿Por qué ocurrió tal hecho?, ¿por qué se involucró en...?, ¿qué lo
motivó a...?
De evaluación¿Por qué fue? ¿Es importante?, ¿cuál es su opinión del hecho?, ¿cómo
calificaría al suceso?
38
8) No es un análisis “paso a paso” sino que involucra estudiar cada “pieza” de los datos en
sí misma y en relación con las demás.
9) Es un camino con rumbo, pero no en “línea recta”, continuamente nos movemos de “aquí
para allá”, vamos y regresamos entre los primeros datos recolectados y los últimos.
10) Más que seguir una serie de reglas y procedimientos concretos sobre cómo analizar los
datos, el investigador construye su propio análisis. La interacción entre la recolección y el
análisis nos permite mayor flexibilidad en la interpretación de los datos y adaptabilidad
cuando elaboramos las conclusiones. Se comienza a efectuar un plan general, pero su
desarrollo va sufriendo modificaciones de acuerdo con los resultados. Dicho de otra
forma, el análisis se ve moldeado por los datos.
11) El investigador analiza cada dato, deduce similitudes y diferencias con otros datos.
12) Los segmentos de datos son organizados en un sistema de categorías.
13) Los resultados del análisis son síntesis de “alto orden” que emergen en la forma de
descripciones, expresiones, temas, patrones, hipótesis y teoría.
39
emergen categorías iniciales, significados, patrones, relaciones, hipótesis iniciales y principios
de teoría.
Organización de los datos y la información, así como revisión del material y preparación de los
datos para el análisis detallado: dado el amplio volumen de datos, éstos deben estar muy bien
organizados. Asimismo, debemos planear qué herramientas vamos a utilizar (hoy en día la
gran mayoría de los análisis se efectúa mediante la computadora). Ambos aspectos dependen
del tipo de datos que hayamos generado.
Cuando tenemos grabaciones de audio y video producto de entrevistas y sesiones, debemos
transcribirlas para hacer un análisis exhaustivo del lenguaje. La mayoría de los autores
sugieren transcribir y analizar las transcripciones. Todo depende de los recursos de que
dispongamos y del equipo de investigadores con el que contemos.
La primera actividad es volver a revisar todo el material (explorar el sentido general de los
datos) en su forma original. En esta revisión comenzamos a escribir una segunda bitácora, la
cual suele denominársele bitácora de análisis y cuya función es documentar paso a paso el
proceso analítico.
La segunda actividad es transcribir los materiales de entrevistas y sesiones (anotaciones y lo
que haga falta). Ciertamente ésta es una tarea compleja que requiere de paciencia.
A continuación se hacen recomendaciones sobre las transcripciones:
- Se sugiere por ética observar el principio de confidencialidad. Esto puede hacerse al
sustituir el nombre verdadero de los participantes por códigos, números, iniciales,
apodos, etc.
- Utilizar un formato con márgenes amplios (por si queremos hacer anotaciones).
- Separar las intervenciones (con doble espacio), además señalar quién realiza la
participación con la palabra “entrevistador” y “entrevistado”.
- Transcribir todas las palabras, sonidos y elementos paralingüísticos: muecas,
interjecciones, etc.
- Indicar pausas, silencios, expresiones significativas (llanto, risas), sonidos ambientales
(se azotó la puerta), hechos que se deduzcan (entró alguien), cuando no se escucha
(inaudible), etc. Se trata de incluir el máximo de información posible.
Una vez transcritos los materiales (mediante el debido equipo), lo ideal es volver a explorar el
sentido general de los datos, revisar todos, ahora reprocesados (incluso anotaciones), en
40
particular si varios investigadores los recolectaron. En esta etapa no se codifican todavía los
datos (no se clasifican contenidos), porque sería imponer categorías a los datos y comenzar el
análisis selectivamente, y tal vez dejar de lado cuestiones importantes. El significado de los
datos emerge de éstos.
La tercera actividad es organizar los datos, mediante algún criterio o varios criterios que
creamos más convenientes. Algunos de estos criterios son:
1) Cronológico (por ejemplo, orden en que fueron recolectados).
2) Por sucesión de eventos.
3) Por tipo de datos: entrevistas, observaciones, documentos, fotos.
4) Por grupo o participante (por ejemplo, mujeres y hombres, médicos, enfermeras,
paramédicos, pacientes).
5) Por ubicación del ambiente (en el caso de explosiones ocurridas en una localidad,
cercanía, periferia, lejanía)
6) Por tema (por ejemplo, sesiones en un hospital donde la discusión se haya centrado
en la seguridad, en otras sesiones sobre la calidad de la atención, etc.)
7) Importancia del participante (testimonios de actores clave y actores secundarios)
La bitácora de análisis:
La bitácora tiene la función de documentar el procedimiento de análisis y las propias
reacciones del investigar al proceso y contiene fundamentalmente:
- Anotaciones sobre el método utilizado (se describe el proceso y cada actividad
realizada, por ejemplo: ajustes a la codificación, problemas y la forma como se
resolvieron).
- Anotaciones respecto a las ideas, conceptos, significados, categorías e hipótesis.
- Anotaciones en relación con la credibilidad y verificación del estudio, para que
cualquier otro investigador pueda evaluar su trabajo (información contradictoria,
razones por las cuales se procede de una u otra forma).
Resulta ser un instrumento invaluable para la validez y confiabilidad del análisis.
Cuando realizamos la codificación o categorización de los datos, pueden surgir interrogantes,
ideas, hipótesis y conceptos que nos comiencen a ilustrar en torno al planteamiento del
problema, por lo que resulta indispensable el escribirlos para que no olvidemos cuestiones
importantes. Las notas nos ayudan a identificar unidades y categorías de significado. Para las
anotaciones se sugiere:
- Registrar la fecha de la anotación o “memo” (por memorándum).
- Incluir cualquier referente o fuente importante (por ejemplo, si se consulta con un
colega saber quién es él y su afiliación institucional)
- Marcar los memos con encabezados que sinteticen la idea, categoría o concepto
señalado.
- No restringir el contenido de los memos o anotaciones, permitirnos el libre flujo de
ideas.
- Identificar el código en particular al cual pertenece el memo.
- Usar diagramas, esquemas y matrices para explicar conceptos, ideas, hipótesis.
- Cuando uno piense que una categoría o concepto haya sido lo suficientemente
definida, crear un memo (y distinguirlo con la palabra “saturación”).
41
- Registrar las reflexiones en memos que ayuden a pasar de un nivel descriptivo a otro
interpretativo.
- Guardar una copia de todos lo memos.
Los memos analíticos se elaboran con fines de triangulación o auditoría entre investigadores,
para que otras personas puedan ver lo que hicimos y cómo lo hicimos. Estos memos
documentan decisiones o definiciones hechas al momento de analizar los datos. Desde cómo
surge una categoría hasta el código que se le asigna o el establecimiento de una regla de
codificación.
La bitácora se escribe diariamente y cada investigador sigue su propio sistema para llenarla.
Así como la bitácora de campo, reflejaba lo que “transpiramos” durante la recolección de los
datos y nos ayuda a establecer la credibilidad de los participantes, la bitácora analítica refleja
lo que “transpiramos” al analizar los datos y nos apoya al establecer la credibilidad del método
de análisis.
42
Conforme el investigador revisa nuevos segmentos de datos y vuelve a revisar los anteriores
segmentos, continúa “conectando conceptualmente” unidades y genera más categorías o
consolida las anteriores.
En la literatura sobre investigación cualitativa podemos identificar 2 maneras para definir las
unidades de análisis que serán codificadas.
La primera es la elección de una “unidad constante”
La segunda es la de “libre flujo”, que implica que las unidades no poseen un tamaño
equivalente. Se selecciona el inicio del segmento y hasta que se encuentra un
significado, se determina el final del segmento. Por ejemplo, algunos segmentos
pueden tener 5 líneas, 10, 50.
En ambas formas, para decidir cuál es la unidad de análisis, es posible cambiar de unidad en
cualquier momento. Incluso quizás decidamos utilizar en un mismo estudio las 2 posibilidades
para diferentes clases de datos (entrevistas y fotos, por ejemplo).
En este primer nivel de análisis, las categorías (y códigos) identificadas deben relacionarse
lógicamente con los datos que representan. Las categorías pueden emerger de preguntas y
reflexiones del investigador o reflejar los eventos críticos de las narraciones de los
participantes.
La esencia del proceso reside en que a segmentos que comparten naturaleza, significado y
características, se les asigna la misma categoría y código, los que son distintos se ubican en
diferentes categorías y se les dan otros códigos.
Los segmentos se convierten en unidades cuando poseen un significado y en categorías del
esquema final de codificación en el primer nivel, si su esencia se repite más adelante en los
datos. Las unidades son segmentos de los datos que constituyen los “tabiques” para construir
el esquema de clasificación y el investigador considera que tienen un significado por sí
mismas.
Coffey y Atkinson señalan que son 3 las actividades de la codificación en primer plano: 1)
Advertir cuestiones relevantes en los datos; 2) Analizar esas cuestiones para descubrir
similitudes y diferencias, así como estructuras; 3) Recuperar ejemplos de tales cuestiones.
La codificación en el primer nivel es predominantemente concreta e involucra identificar
propiedades de los datos, las categorías se construyen comparando datos, pero en este nivel
no combinamos o relacionamos datos. Todavía no interpretamos el significado subyacente en
los datos.
En teoría fundamentada, a este primer nivel de codificación se le denomina “codificación
abierta”. En ésta, se trata intensivamente unidad por unidad, con la identificación de
categorías que pudieran ser interesantes, sin limitarnos; así como, con la inclusión de
cuestiones que aparentemente no son relevantes para el planteamiento del problema.
Es importante, para reforzar lo expuesto, remarcar la diferencia entre la codificación
cuantitativa y la codificación cualitativa:
Codificación cuantitativa: unidades y categorías preestablecidas antes de la
codificación. Cada unidad es asignada a la categoría y subcategoría pertinentes. Las
unidades se consideran de manera independiente unas de otras y se asignan dentro
del sistema de categorías.
43
Codificación cualitativa: las unidades y categorías van emergiendo de los datos. Las
unidades se consideran en relación con las demás (conjunto de los datos), pudiendo
caer en una categoría previa o generar una nueva.
Cabe señalar que las unidades o segmentos de significado se analizan tal como se recolectan
en el campo (en el lenguaje de los participantes, aunque la estructura sea incoherente).
Como ya se comentó, al ir codificando van emergiendo las categorías, a las cuales les
asignamos un código. En la codificación cuantitativa, las categorías son como “cajones”
conceptuales; en la codificación cualitativa son conceptos, experiencias, ideas, hechos
relevantes y con significado.
Resumiendo hasta ahora, desde el comienzo (a través de la comparación constante) cada
segmento o unidad es clasificada como similar o diferente de otras. Si las primeras 2 unidades
poseen cualidades similares, generan (tentativamente) una categoría, y a ambas se les asigna
un mismo código. En el momento de asignar los códigos, elaboramos una nota sobre las
características de las unidades por las que se consideran similares, la cual se incluye en la
bitácora de análisis. Si las 2 unidades no son similares, la segunda produce una nueva
categoría y se le asigna otro código. Y de nuevo, la información que defina a esta segunda
categoría se registra en la bitácora.
El número de categorías se expande cada vez que el investigador identifica unidades
diferentes (en cuanto a significado) del resto de los datos (unidades previas categorizadas).
En la codificación cuantitativa todas las unidades eran “encajonadas” en categorías, en la
codificación cualitativa, las unidades van produciendo categorías nuevas o van
“encasillándose” en las que surgieron previamente.
El número de categorías crece conforme revisamos más unidades de análisis. Desde luego, al
principio de la comparación entre unidades se crean varias categorías, pero conforme
avanzamos hacia el final, el ritmo de generación de nuevas categorías desciende.
En algunas ocasiones, las unidades de análisis o significado no generan con claridad
categorías. Entonces se acostumbra crear la categoría “otras” (o varios). Estas unidades son
colocadas en dicha categoría, junto con otras difíciles de clasificar. La categoría miscelánea
cumple la función preventiva de desechar lo que “aparentemente” son unidades irrelevantes,
pero que más adelante pueden mostrarnos su significado. Cuando encontramos que la
44
categoría “otras” incluye demasiadas unidades de significado, resulta recomendable volver a
revisar el proceso, y asegurarnos de que nuestro esquema de categorías y las reglas
establecidas para clasificar sean claras y nos permitan discernir entre categorías.
El número de categorías que encontremos o generemos depende del volumen de datos, el
planteamiento del problema, el tipo de material revisado y la amplitud y profundidad del
análisis. Por ejemplo, no es lo mismo analizar percepciones de un grupo de niños sobre sus
madres; que las percepciones de los infantes sobre sus madres, padres, hermanos y
hermanas.
La complejidad de la categorización también debe considerarse, una unidad puede generar
más de una categoría o colocarse en 2, 3 o más categorías.
Algunas categorías pueden ser tan complejas que es necesario fragmentarlas en varias, pero
si esto resulta muy difícil, es mejor dejarlas como “un todo” y continuar la codificación y al
refinar el análisis, la fragmentación puede ser más sencilla.
Para entender cómo es la codificación cualitativa en comparación con la cuantitativa:
En la codificación cuantitativa podríamos clasificar a las mujeres (unidades de
análisis) en varias dimensiones (categorías y subcategorías preestablecidas): “color de
pelo” (albino, rubio, castaño), “estatura” (muy alta, alta, media, baja), “por complexión”
(obesa, delgada) y “edad (anciana, joven, adulta). Así, tenemos una mujer llamada
María que será ubicada como de pelo negro, bajita, delgada y joven; otra llamada
Laura que será de pelo rubio, estatura media, complexión media, joven… etc.
En la codificación cualitativa tomaríamos una unidad: María (¿qué significa?), mujer.
¿Cómo es?, ¿qué características posee? Es de pelo negro (se genera la categoría
“pelo negro”), es bajita, se genera esta categoría y otras. La segunda unidad, otra
mujer, se compara con la primera: ¿qué tienen en común? Son mujeres (misma
categoría), ¿y su estatura? No es igual, es más alta que la primera, mide 1,89 m
(emerge la categoría “muy alta”), etc.
La creación de categorías, a partir del análisis de unidades de contenido, es una muestra clara
de por qué el enfoque cualitativo es esencialmente inductivo. Los nombres de las categorías y
las reglas de clasificación deben ser lo suficientemente claras para evitar re-procesos
excesivos en la codificación. Debemos recordar que en el análisis cualitativo hay que reflejar
lo que nos dicen las personas estudiadas en sus “propias palabras”.
Regresando a los códigos, hay que recordar que éstos se asignan a las categorías (se
etiquetan), con la finalidad de que el análisis sea más manejable y sencillo de realizar,
además son una forma de distinguir a una categoría de otras. Pueden ser números, letras,
símbolos, palabras, abreviaturas, imágenes o cualquier tipo de identificador. Como se muestra
en el siguiente ejemplo:
TVF: Violencia física
TVV: Violencia verbal
TVP: Violencia psicológica
Donde T señala la dimensión “tipo de violencia” y VF, VV y VP las diferentes categorías.
Una vez categorizadas todas las unidades, se hace “un barrido” o revisión de los datos para:
45
1) Darnos cuenta de si captamos o no el significado que buscan transmitir los
participantes o el que pretendemos encontrar en los documentos o materiales.
2) Reflexionar si incluimos todas las categorías posibles relevantes.
3) Revisar las reglas para establecer las categorías emergentes.
4) Evaluar el trabajo realizado.
En este punto puede suceder que validemos el proceso, o bien, que estemos confundidos
acerca de las razones por las cuales generamos ciertas categorías o poseamos inseguridad
respecto a las reglas. Es el momento de evaluar a cada unidad para que sea incluida en una
determinada categoría. El propósito es eliminar vaguedad e incertidumbre en la generación de
categorías.
Asimismo, podemos descubrir que algunas categorías no se han desarrollado por completo o
se definieron parcialmente. Además, detectar que no emergieron las categorías esperadas.
Ante problemas e inconsistencias, habrá que revisar dónde fallamos: si en la definición de las
unidades de análisis, en las reglas de categorización, en la detección de categorías que
emergieron por comparación de unidades, etc.
Algunas decisiones que podemos tomar ante esta clase de contingencias negativas son: a)
regresar al campo en búsqueda de datos adicionales (más entrevistas, observaciones,
sesiones, artefactos u otros datos); b) solicitar a otro investigador que “pruebe” nuestro
sistema de categorías y reglas, mediante su propio análisis con al menos algunos casos (por
ejemplo, entrevistas).
Por otro lado, cuando estamos analizando datos y “todo va bien”, a veces nos cuestionamos:
¿cuándo parar? ¿tenemos suficientes datos? Regularmente nos “detenemos” en lo referente a
recolectar datos o agregar casos, cuando al revisar nuevos datos ya no encontramos
categorías nuevas (significados diferentes). A este hecho se le denomina saturación de
categorías, que significa que los datos se convierten en algo “repetitivo” o redundante y los
nuevos análisis conforman lo que hemos fundamentado.
Durante el proceso de codificación inicial es aconsejable ir eligiendo segmentos altamente
representativos de las categorías (ejemplos) o que posean un significado muy vinculado con el
planteamiento, porque más adelante habremos de necesitarlos en lo que suele conocerse
como recuperación de unidades.
Si el proceso se completó, los voluminosos datos se reducirán a categorías y se
transformarán, sin perder su significado (lo cual es imprescindible en la investigación
cualitativa), además de encontrarse ahora codificados.
Describir las categorías codificadas que emergieron y codificar los datos en un segundo nivel
o central:
El segundo plano es más abstracto y conceptual que el primero e involucra describir e
interpretar el significado de las categorías (en el primer plano interpretamos el significado de
las unidades). Para tal propósito Berg recomienda recuperar al menos 3 ejemplos de
unidades para soportar cada categoría. Esta actividad nos conduce a examinar las unidades
dentro de las categorías, las cuales se disocian de los participantes que las expresaron o de
los materiales de donde surgieron. Cada categoría es descrita en términos de su significado
(¿a qué se refiere la categoría? ¿cuál es su naturaleza y esencia? ¿qué nos dice la categoría?
¿cuál es su significado?) y ejemplificada con segmentos.
46
Asimismo, comenzamos a comparar categorías (tal como lo hicimos con las unidades),
identificamos similitudes y diferencias entre ellas y consideramos vínculos posibles entre
categorías. La recuperación de unidades, además de ayudar en la comprensión del significado
de la categoría, nos sirve para los contrastes entre categorías. El centro del análisis se mueve
del contexto del dato al contexto de la categoría. Dejamos en claro cómo es la cuestión de la
recuperación de unidades o segmentos del material analizado.
Recuperar las unidades quiere decir que recobramos el texto o imagen original (en el primer
caso, la transcripción del segmento). Las unidades recuperadas se colocan de nuevo en la
categoría que les corresponde (por tal motivo, insistimos en ir seleccionando ejemplos
representativos de cada categoría). Recordemos que todos los segmentos provienen de
entrevistas, sesiones grupales u otros medios; por lo que al recuperarlos los colocamos fuera
del contexto de la expresión de cada participante. Esto representa el riesgo de malinterpretar
la unidad una vez que es separada de su contexto original.
En este punto del análisis, la meta es integrar las categorías en temas y subtemas más
generales (categorías con mayor “amplitud conceptual” que agrupen a las categorías
emergidas en el primer plano de codificación), con base en sus propiedades. Descubrir temas
implica localizar los patrones que aparecen de manera repetida entre las categorías. Cada
tema que se identifica recibe un código (como lo hacíamos con las categorías). Los temas son
la base de las conclusiones que emergerán del análisis.
Grinnell ejemplifica la construcción de temas con las siguientes categorías: “asuntos
relacionados con la custodia de los hijos”, “procedimientos legales de separación o divorcio” y
“obtención de órdenes restrictivas”, las cuales pueden constituir un tema (categoría más
general): “asuntos relacionados con el sistema legal”.
Los códigos de los temas pueden ser números, siglas, iconos y en general palabras o frases
cortas. Por ejemplo “autoestima alta”, “abundancia”, “violencia”, “experimentar impotencia,
falta de apoyo y control”.
Por medio de la codificación en un primer y segundo planos (inicial y central), los datos
continúan reduciéndose hasta llegar a los elementos centrales del análisis. En cada paso el
número de códigos va siendo menor.
Hemos codificado el material en un primer plano (al encontrar categorías, evaluar las unidades
de análisis mediante reglas, además de asignarle un código a cada categoría) y en un
segundo plano (al encontrar temas o categorías más generales). Estamos listos para la
interpretación.
47
en sus propias palabras y de acuerdo con el contexto). ¿Qué significado tiene cada
palabra soez que escuchan de los labios de su cónyuge? (una vez más se usan los
ejemplos).
3) La presencia de cada categoría: la frecuencia con la cual aparece en los materiales
analizados (cierto sentido cuantitativo). ¿Qué tanto emergió de cada categoría? Por
ejemplo, es interesante conocer cuál es la palabra con la que nombran al esposo más
frecuentemente o se refieren a él.
4) Las relaciones entre categorías: encontrar vinculaciones, nexos y asociaciones entre
categorías. Algunas de las relaciones comunes entre categorías son:
Temporales: cuando una categoría siempre o casi siempre precede a otra,
aunque no necesariamente la primera es causa de la segunda. Por ejemplo,
cuando hay “Violencia Física” del esposo hacia su pareja existe generalmente
consumo excesivo y previo de “Estupefacientes” o “Alcohol”.
Causales: cuando una categoría es la causa de otra. Por ejemplo: las “Mujeres
que No Contactan a sus Esposos” después de que se han separado como
consecuencia de violencia física generalmente se “Autoevalúan Mejor”. Pero
debe tenerse precaución con la atribución de la causalidad, ya que no
disponemos de pruebas estadísticas que la apoyen, tenemos que
documentarla con diversos ejemplos.
De conjunto-subconjunto: cuando una categoría está contenida dentro de esta.
Por ejemplo: CHE: Chantaje del Esposo a la mujer para que regrese a vivir con
él/NAE: Negativa de Apoyo Económico del esposo para que la mujer regrese a
vivir con él.
48
conflictos entre individuos y grupos que luchan por el poder en un partido
político.
Cada elemento del mapa o diagrama (con el nombre del tema o categoría) se coloca
en relación con los demás temas. Debemos expresar cómo son los vínculos entre
temas, algunos se trasladarán, otros estarán aislados y algunos más serán asociados.
2) Matrices: las matrices son útiles para establecer vinculaciones entre categorías o
temas. Las categorías y/o temas se colocan como columnas (verticales) o como
renglones o filas (horizontales). En cada celda el investigador documenta si las
categorías o temas se vinculan o no, y puede hacer una versión donde explique cómo
y por qué se vinculan, o al contrario, por qué no se asocian.
3) Metáforas: utilizar metáforas es una herramienta muy valiosa para extraer significados
o captar la esencia de relaciones entre categorías. Muchas veces estas metáforas
surgen de los mismos sujetos estudiados o del investigador. Son los casos de “con
ése no juego ni a las canicas” (desconfianza) o “todos los caminos llevan a Roma”
(diversas alternativas conducen a lo mismo).
4) Establecimiento de jerarquías: de problemas, causas, efectos, conceptos.
5) Calendarios: fechas clave, días críticos
6) Otros elementos de apoyo: fotografías, videos, etc. Es posible agregar a nuestro
análisis el material adicional que recolectamos en el campo como fotografías, dibujos,
artefactos (si estudiamos a un grupo de pandillas, podemos incluir piezas de su
vestuario, armas, accesorios, etc.; es muy común en la investigación policiaca cuando
se analiza la escena del crimen) y otros materiales.
Cuando 2 categorías o temas parecen estar relacionados, pero no directamente, es posible
que haya otra categoría o tema que los vincule, debemos reflexionar sobre cuál puede ser y
tratar de encontrarla. Coleman y Unrau denominan a esta actividad buscar lazos perdidos;
incluso, a veces se necesita regresar a los segmentos. Un caso de “vínculos perdidos” es que
la relación a veces se presenta y en otras ocasiones no, entonces tenemos que dilucidar el
por qué.
Cerramos el ciclo del análisis cualitativo por medio de la generación de hipótesis y teoría,
desarrollando así un sentido de entendimiento del problema estudiado. Un ejemplo simple es
en un estudio donde el tema esencial es que las visitas a los hijos por el padre generan
riesgos para la mujer respecto a nuevos abusos por parte del marido. Esto puede formularse
como una hipótesis: Después de la separación, las mujeres que se reúnen con sus esposos
abusivos durante la visita a los hijos, son más propensas a experimentar nuevos abusos en
relación con las mujeres que no tienen contacto con sus maridos durante las visitas.
Los conceptos, hipótesis y teorías en los estudios cualitativos son explicaciones de lo que
hemos vivido, observado, analizado y evaluado en profundidad. La teoría emana de las
experiencias de los participantes y se fundamenta en los datos.
Tiempo de estancia en el campo: ¿cuándo salir del campo o ambiente?, ¿cuándo concluir el
estudio? Una vez completado y evaluado el análisis, nos encontraremos con que éste ha
cumplido con los objetivos y, en general, con nuestras expectativas sobre el estudio. Es decir,
las conclusiones responden al planteamiento del problema inicial o nos ayudaron a
modificarlo, pero en aras del avance del conocimiento.
49
Desde luego, también llega a ocurrir que durante el análisis nos demos cuenta de que no
estamos alcanzando nuestros objetivos ni respondiendo a nuestras inquietudes. Entonces, en
esos momentos debemos hacer “un alto en el camino” (metáfora), pausar y evaluar qué nos
hace falta, dónde hemos procedido inadecuadamente.
Como resultado de la evaluación, podemos detectar deficiencias, errores, falta de datos ,etc.,
ello implica desde realizar más entrevistas, sesiones, estudios de caso u observaciones hasta
la necesidad de agregar nuevos esquemas o elaborar otros análisis. Tal vez el fenómeno sea
tan complejo que requiere de nuestro regreso al campo por lo menos una vez. De hecho, la
obtención de retroalimentación y reflexión tiene que hacerse durante todo el análisis.
Entonces, el primer elemento para decidir cuándo salir del campo tiene que ver con que
hayamos respondido al planteamiento (que fue evolucionando) y generado un entendimiento
sobre el fenómeno investigado; además de que estemos “satisfechos” con las explicaciones
desarrolladas (ese sentimiento intangible que en nuestro interior nos dice: “Sí, ya comprendí
de qué se trata esto”). El segundo elemento, más objetivo, es la saturación de categorías.
Una cuestión siempre importante: siempre que salgamos del campo debemos dejar “la puerta
abierta” para volver a recolectar más datos.
50
- Evitar que nuestras creencias y opiniones afecten la coherencia y sistematización de
las interpretaciones de los datos.
- No establecer conclusiones antes de que los datos sean analizados.
- Considerar todos los datos.
La confiabilidad cualitativa se demuestra cuando el investigador: a) proporciona detalles
específicos sobre la perspectiva teórica y el diseño utilizado; b) explica con claridad los
criterios de selección de los participantes y las herramientas para recabar datos; c) ofrece
descripciones de los papeles que desempeñaron los investigadores en el campo y los
métodos de análisis empleados; d) especifica el contexto de recolección y cómo se incorporó
en el análisis (por ejemplo, en entrevistas, cuándo, dónde, cómo se efectuaron); e) documenta
lo que hizo para minimizar la influencia de sus concepciones y sesgos y f) prueba que la
recolección fue llevada a cabo con cuidado y coherencia.
Ciertamente, aunque la investigación cualitativa es flexible e influida por eventos únicos,
nuestro proceder debe cubrir un mínimo de estándares.
Algunas medidas que el investigador puede adoptar para incrementar la dependencia son:
1) Examinar las respuestas de los participantes a través de preguntas “paralelas” o
similares (preguntar lo mismo de dos formas distintas). Esta medida solo sería válida
para entrevistas o sesiones de enfoque.
2) Establecer procedimientos para registrar sistemáticamente las notas de campo y
mantener separadas las distintas clases de notas, además de que las anotaciones de
la observación directa deben elaborarse en 2 formatos: condensadas (registros
inmediatos de los sucesos) y ampliadas (con detalles de los hechos, en cuanto sea
posible redactarlas). Cada decisión en el campo y su justificación deben quedar
registradas en la bitácora.
3) Incluir chequeos cruzados (codificaciones del mismo material por 2 investigadores)
para comparar las unidades, categorías y temas producidos por ambos de manera
independiente.
4) Introducir auditoría externa, la revisión del proceso completo a cargo de un par o
colega calificado: bitácora y notas de campo, datos recolectados (métodos y calidad
de la información), bitácora de análisis (para evaluar el procedimiento de codificación),
así como procedimientos para generar teoría.
5) Demostrar coincidencia de los datos entre distintas fuentes (por ejemplo, si se
mencionó que determinada persona fue un líder de la Iglesia Cristera en la comunidad,
demostrarlo por medio de varias fuentes: entrevistas a varias personas, artículos de
prensa, revisión de archivos públicos y privados).
6) Chequeo con participantes: verificar con ellos el proceso de recolección de los datos y
la codificación (unidades, categorías, temas, hipótesis y teoría emergentes).
7) Establecer cadenas de evidencia (conectar los sucesos mediante diferentes fuentes de
datos). Por ejemplo, en criminología se cuestiona: tal testigo dijo que vio a esta
persona en un determinado lugar a cierta hora, otro testigo mencionó que presenció
que dicha persona cometió un crimen (en un lugar distinto a la misma hora). Un
individuo no puede estar en dos lugares a la vez en un mismo momento así que debe
averiguarse quién tiene razón de los testigos.
51
8) Duplicar muestras, es decir, realizar el mismo estudio en 2 o más ambientes o
muestras homogéneos y comparar resultados de la codificación y el estudio.
9) Aplicar coherentemente un método (por ejemplo, teoría fundamentada).
10) Utilizar un programa computacional de análisis que:
Permita construir una base de datos que pueda ser analizada por otros
investigadores.
Nos auxilie de codificar y establecer reglas.
Proporcione conteo de códigos.
Nos ayude en la generación de hipótesis
Provea de representaciones gráficas con programas de computadora.
11) Elaborar un listado de prejuicios, creencias y concepciones del investigador respecto
al problema de estudio.
53
Con la finalidad de que el lector pueda contar con más elementos para evaluar la posibilidad
de transferencia, el investigador debe describir con toda amplitud y precisión el ambiente, los
participantes, materiales, momento del estudio, etc. La transferencia nunca será total, pues no
hay 2 contextos iguales.
Confirmabilidad
Es el paralelo cualitativo de la objetividad en la investigación cuantitativa. Este criterio está
vinculado a la credibilidad y se refiere a demostrar que hemos minimizado los sesgos y
tendencias del investigador. Implica rastrear los datos en su fuente y la explicitación de la
lógica utilizada para interpretarlos.
Las estancias prolongadas en el campo, la triangulación, la auditoría, el chequeo con
participantes y el listado de los prejuicios, creencias y concepciones del investigador, nos
ayudan a proveer información sobre la confirmabilidad.
Atlas-ti: desarrollado en la Universidad Técnica de Berlín por Thomas Muhr, para segmentar
datos en unidades de significado; codificar datos (en ambos planos) y construir teoría
(relacionar conceptos y categorías y temas). El investigador agrega los datos o documentos
primarios (que pueden ser textos, fotografías, segmentos de audio o video, diagramas, mapas
y matrices) y con el apoyo del programa los codifica de acuerdo con el esquema que se haya
diseñado. Las reglas de codificación las establece el investigador y el programa las aplica.
Realiza conteos y visualiza la relación que el investigador establezca entre las unidades,
categorías, temas, memos y documentos primarios.
QSR, QSR Nvivo: un excelente programa de análisis útil para construir grandes bases de
datos estructuradas jerárquicamente, que puede agregar documentos para ser analizados.
Localiza los textos por carácter, palabra, frase, tema o patrón de palabras; incluso, por hojas
de cálculo de variables. Uno de sus fuertes es crear matices.
Decision Explorer: este programa inglés resulta una excelente herramienta de mapeo de
categorías. El investigador puede visualizar relaciones entre conceptos o categorías en
diagramas. Como en todo programa, es el investigador quien introduce las categorías y define
las vinculaciones, Decision Explorer las muestra gráficamente. Asimismo, realiza un conteo de
la categoría con mayor número de relaciones con otras categorías. Cualquier idea la
convertimos en concepto y la analizamos. Muy útil para visualizar hipótesis y la asociación
54
entre los componentes más importante de una teoría. Recomendable para análisis cualitativo
de relaciones entre categorías (causal, temporal u otro).
4 procesos cognitivos se presentan de manera integral para todos los métodos cualitativos:
comprender, sintetizar, teorizar y recontextualizar. Aunque la naturaleza del tema de
investigación, su propósito, el tipo de preguntas, las limitaciones derivadas del lugar y de los
participantes, y los antecedentes disciplinarios del investigador tienen algo de importancia, en
un nivel más amplio los métodos cualitativos escogidos son los que proporcionan la base
epistemológica del método. El método de investigación es el que da la lente, se enfocan y se
secuencian los 4 procesos cognitivos. También restringe la intensidad con la cual se usan y el
nivel de abstracción logrado, y en últimas dicta como se presentan los hallazgos.
Comprehender
Debe buscar y aprender todo lo que hay que aprender sobre un lugar, la cultura y el tema de
estudio, leer tanto la investigaciones clásicas como las menos conocidas, así como las más
recientes, y criticar los conceptos importantes identificados para entender las perspectivas
subyacentes, las creencias y los valores de otros investigadores, y luego usar tal información
para justificar la investigación en la propuesta y proporcionar un contexto teórico para el
estudio.
55
El propósito es conseguir la máxima conciencia y reconocer los caminos sin que tenga que ser
llevado.
Lograr una buena comprehension (aprender todo sobre un lugar o sobre la experiencia de los
participantes) es agotador y demorado. La segunda condición para obtener una
comprehension óptima es que el investigador sea capaz de aprender de manera pasiva, todo
lo que sea remotamente relevante para el tema de interés.
La 2° técnica es tomar notas con frecuencia y hacerlas lo más completas posible. Estas notas
deben ser descriptivas y cualquier reflexión o conjetura debe anotarse en otra parte, separada
de los ejemplos. Cuando comienza el proceso de codificación, es preciso hacerles preguntas
bien pensadas a esos datos. Hay que agrupar y clasificar acontecimientos similares, pero
moverse entre ellos de manera libre y en diferentes combinaciones.
Los signos (icono, índice y símbolo) distinguen las relaciones entre el signo y los que significa,
de la siguiente manera: un índice es un signo que apunta a algo distinto, que indica
causalidad; y un símbolo representa una relación arbitraria entre el signo y su representación.
Sintetizar
Capacidad del investigador para fundar varios casos o historias o experiencias, con el fin de
describir los patrones o comportamientos o respuestas típicas del grupo. Sintetizar es la parte
de donde se “cuela” el análisis y comienza cuando el investigador está empezando a “darse
cuenta” de lo que sucede en el lugar.
Los investigadores han llegado a este nivel en la recolección de datos cuando son capaces de
escribir “cúmulos de historias” sobre “cómo estas personas hacen tal cosa”
56
actúa la gente, se relaciona o responde cuando sufre, y b- la capacidad de mostrar historias
específicas como ejemplos para ilustrar una generalización.
Teorizar
Reconocer que la teoría es solo una herramienta para guiar la investigación es lo más
importante en todos los métodos de investigación, incluyendo la cualitativa. La teoría se
desarrolla a partir de la comprehension y síntesis de datos, y no como una estructura o marco
con el cual clasificar los datos. La teoría les da estructura a los datos cualitativos y les da
aplicación a los hallazgos.
La teoría se puede considerar como la fase de organización del análisis. En síntesis, es hacer
una selección sistemática y “medirles” los modelos alternativos a los datos. Teorizar es el
proceso de construir explicaciones alternativas y cotejarlas con los datos hasta que haya una
que los explique de una manera mejor y más simple.
El 1° paso al teorizar es formular preguntas a los datos que creen vínculos con la teoría
establecida. Se pueden usar varias estrategias. El 1° método es identificar las creencias y los
valores que hay en los datos.
Recontextualizar
Cap. 6
57
Las relaciones entre texto, documento y dialogo son fundamentales para entender la
especificidad de lo cualitativo. La disposición dialéctica y transversal entre diseñar, preparar,
indagar, analizar, rediseñar e interpretar sólo es viable como mediación para la creación del
documento aludido, y ello es posible porque existen instrumentos para realizarlo.
Fases iniciales del análisis como los ejes estandarizados por donde pasan las diferencias y
continuidades de los diversos abordajes del análisis, (Ratcliff, 2002).
Este enfoque también conocido como estrategias de comparación constante, implico una
fuente de inspiración para la programación de los paquetes informáticos de análisis de datos
cualitativos.
58
El puesto del análisis no se ubica al final del proceso de investigación, por el contrario, las
interpretaciones se realizan en tanto “monitoreo reflexivo de la práctica”.
Desde una perspectiva clásica, los datos son la manifestación verbal o escrita de la
observación que se refiere simbólicamente a una unidad determinada del fenómeno
observado. Su composición es una conexión explicita entre afirmación, observación y
fenómeno que no se puede reducir a ninguno de estos tres momentos del conocimiento social.
En la investigación cualitativa aparece el hecho particular de que los datos no se cuentan sino
que se “re-cuentan”, emergiendo de este modo el problema de afrontar una teoría del texto
sociológico, en tanto documento construido por la “acción sociológica”. Los datos producidos
por la investigación cualitativa tienen una mayor dependencia de la narración y con ello nace
la objetivación de la interpretación como documento sociológico.
59
Para poder ingresar a la ejecución de un diseño cualitativo se deben tener en cuenta los
siguientes supuestos:
Juegos de interpretaciones que proporcionan los sujetos de la investigación más acá del
análisis que pretende nuestra teoría. Se deben tener siempre presente que tanto investigador
como investigado son considerados sujetos “portantes” de dicha interpretaciones.
Cap. 7
60
Los problemas de validez y confiabilidad se presentan en diversos momentos de la
investigación. Entre los más relevantes podemos mencionar: diseño, selección de técnica de
observación y los procesos de análisis e interpretación. De una forma u otra estos momentos
son procesos. Lo cual nos coloca siempre ante la importancia de contar con la relacionalidad y
reciprocidad entre sujeto y objeto, en tanto punto de partida para la comprensión de cómo
conocemos en ciencias sociales.
Un proceso es válido cuando garantiza la obtención de aquello para lo que ha sido creado y
confiable cuando permite saber que lo obtenido, como consecuencia del aludido proceso, no
es objeto de “distorsiones no intencionadas”.
Una visión externa se refiere a los “respaldos” que existen para nuestras interpretaciones
fuera del proceso mismo de indagación. Una visión interna alude a los “resguardos”
procesales que se han tomado para la construcción de nuestras interpretaciones.
Mirada externa
Dentro de las estrategias externalistas se puede contar la vía procesualista. Estos criterios
tienen como unidad analítica los tipos del habla a los que les corresponde un tipo diverso de
validez, en el marco de una cadena argumentativa sostenida como el “espacio” intersubjetivo
de “validación” de las interpretaciones.
Mirada interna
A modo de síntesis
3 indicaciones, también globales que se pueden seguir para “destrabar” las disputas sobre
validez son:
1- es muy pertinente acordar que la validez de una interpretación tiene que ser analizada
desde su inscripción en una tradición científica y en el contexto de una comunidad científica
determinada.
61
2- otro aporte es la indicación sobre la “correspondencia” de una interpretación con un set de
condiciones sociales determinadas.
El análisis de datos
El análisis surge más del marco teórico trazado que de los datos concretos obtenidos y todo
investigador que domine su tema y trabaje con rigurosidad deberá tener una idea precisa de
cuáles serán los lineamientos principales del análisis que habrá de efectuar antes de
comenzar a recolectar datos. Se podrá definir qué datos serán capaces de rechazar o afirmar
una hipótesis, que resultados indicaran una u otra conclusión. Esta actividad, llamada por
algunos autores análisis anticipado es fundamental para evitar sorpresas lamentables.
Análisis cuantitativo
Este tipo de operación se efectúa, naturalmente, con toda la información numérica resultante
de la investigación. Esta, luego del procesamiento que ya se habrá hecho, se nos presentara
como un conjunto de cuadros, tablas y medidas, a las cuales se les han calculado sus
porcentajes y presentado convenientemente.
62
Análisis cualitativo
Se refiere al que procedemos a hacer con la información de tipo verbal que, de un modo
general, se ha recogido mediante fichas de uno u otro tipo. Una vez clasificadas éstas, es
preciso tomar cado uno de los grupos que hemos así formado para proceder a analizarlos. El
análisis se efectúa cotejando los datos que se refieren a un mismo aspecto y tratando de
evaluar la fiabilidad de cada información.
La síntesis
Con la síntesis e interpretación final de todos los datos ya analizados puede decirse que
concluye la investigación, aunque teniendo en cuenta que la misma, considerada como intento
de obtención de conocimientos, es siempre una tarea inacabada, que debe comunicar por
fuerza en otras investigaciones concretas.
El informe de investigación
El informe debe poseer su propia lógica interior, presentando clara y ordenadamente los
resultados del trabajo, y debe tener una estructura tal que permita su comprensión sin mayor
dificultad. Es corriente al respecto que se hable de la diferencia entre un método de
investigación y un método de exposición, aunque este último caso el uso de la palabra método
no parece totalmente adecuado porque no se trata en realidad de un camino o forma para
realizar algo sino de un modelo que permite estructurar lógicamente la información a
transmitir.
La información que habrá de presentarse debe organizarse de tal manera que dé al lector la
sensación de estar ante una ordenada secuencia lógica, haciendo que los hechos se
encadenen entre si y tratando de presentarlos de un modo coherente, sin fracturas.
El contenido del informe de investigación no puede ser fijado de modo esquemático para
todos los casos, aunque hay algunos elementos que se deben necesariamente estar
presentes para no afectar la seriedad del trabajo. Ellos son las secciones de trabajo que
permiten precisar los objetivos y el sentido de la investigación, el método utilizado, las
matrices teóricas en que se inscribe el trabajo y las fuentes y los hechos que nos permitan
arribar a determinadas conclusiones.
1- una sección preliminar donde aparecen los propósitos de la obra, donde se pasa
revista a los conocimientos actuales sobre la materia y se definen las principales
63
líneas del tema a desarrollar. La introducción del trabajo es, por lo general, el sitio más
apropiado para exponer los puntos que se acaban de mencionar. La misma se redacta
teniendo en cuenta lo que y se ha escrito en el proyecto de investigación.
2- El cuerpo central del informe donde se desarrolla propiamente el tema, se expone en
detalle las consideraciones teóricas que guían la investigación y se exponen los
hallazgos que se han hecho, con su correspondiente análisis e interpretación. Por eso
este cuerpo principal del trabajo deben aparecer los cuadros estadísticos que resumen
los resultados de investigación. Lo importante, en cada caso, es que se alcance la
mínima y necesaria coherencia que permita integrar a la obra como un todo orgánico y
a partir de la cual se pueda reconstruir la realidad en su unidad y multiplicidad.
3- Una sección final donde se incluyen la síntesis o conclusiones generales de trabajo y,
si las hubiere, las recomendaciones del mismo. A esta sección final le sigue una
parte complementaria integrada por la bibliografía, anexos o apéndices y el índice o
índices de la obra. El índice general, sin embargo, también se puede colocar al
comienzo.
Los informes cortos tienen esquemas más simples y a veces no se dividen en capítulos sino
en 3 o 4 partes: 1-introducción; 2-análisis de datos; 3-síntesis; 4- anexos. Los trabajos
mayores presentan siempre una estructura articulada de capítulos, que admiten a su vez
divisiones menores en puntos y subpuntos.
64