ACTIVIDAD DE ANÁLISIS DE CASOS – SEMANA 2
Tema:
Procesamiento de Datos Cuantitativos: Validez, Codificación y Análisis Inferencial
Objetivo:
Analizar críticamente situaciones problemáticas relacionadas con el diseño, aplicación y
análisis de instrumentos cuantitativos, valorando la importancia de la validez, la
codificación adecuada y los criterios para la inferencia estadística.
Orientaciones metodológicas:
Leer atentamente cada caso propuesto.
Redactar una respuesta argumentada de entre 200 a 300 palabras por caso.
Utilizar mínimo tres referentes teóricos reconocidos en metodología cuantitativa.
Presentar las respuestas con redacción académica, siguiendo normas APA 7ma
edición.
La entrega se realiza de forma individual, en formato digital.
Caso 1: Validez y confiabilidad del instrumento
En este caso, la investigadora incurre en errores metodológicos fundamentales
relacionados con la validez de contenido y la confiabilidad del instrumento de medición.
La ambigüedad en las preguntas y la falta de alineación con los objetivos de investigación
comprometen la validez de contenido, entendida como el grado en que un instrumento
representa adecuadamente el universo del contenido que se desea medir (Hernández
Sampieri, Fernández Collado & Baptista, 2022). Cuando las preguntas no están
claramente formuladas o no corresponden al constructo a evaluar —en este caso, la
satisfacción estudiantil en clases virtuales— se introduce un sesgo en la recolección de
datos que impide interpretar con precisión los resultados.
Por su parte, la confiabilidad, que según Kerlinger y Lee (2002) se refiere a la
consistencia del instrumento para producir resultados estables y replicables, también se
ve afectada por la ambigüedad. Si las preguntas se prestan a múltiples interpretaciones,
los participantes pueden responder de forma inconsistente, reduciendo así la precisión del
instrumento. En este sentido, es fundamental realizar una validación previa del
cuestionario mediante pruebas piloto, análisis de expertos y técnicas estadísticas, como el
coeficiente alfa de Cronbach para evaluar la consistencia interna (Ary, Jacobs &
Razavieh, 2010).
En resumen, los errores señalados comprometen tanto la validez como la confiabilidad, lo
que limita la calidad del análisis cuantitativo y las conclusiones derivadas del estudio.
Caso 2: Errores en la codificación de datos
La codificación es una etapa esencial en el procesamiento de datos cuantitativos, ya que
permite convertir las respuestas en información sistematizada para su análisis estadístico
(Guffante, 2020). En este caso, el uso inconsistente de códigos para una misma categoría
y la omisión en la codificación de respuestas abiertas afectan gravemente la integridad de
la base de datos. Este tipo de errores introduce sesgos que distorsionan la interpretación
de los resultados y reducen la validez de las conclusiones.
Creswell (2014) destaca que una codificación adecuada debe ser sistemática, uniforme y
verificable. Si una misma categoría de respuesta —por ejemplo, "satisfecho"— se
representa con códigos distintos (1 en unas ocasiones y 3 en otras), el análisis estadístico
no podrá agrupar ni comparar correctamente los datos, afectando medidas como
promedios, frecuencias o correlaciones. Por otro lado, la omisión en la codificación de
respuestas abiertas provoca pérdida de información valiosa, lo que puede limitar la
comprensión del fenómeno estudiado.
Además, Guffante (2020) subraya que los errores en esta etapa repercuten en todas las
fases subsiguientes, desde los análisis descriptivos hasta los inferenciales, poniendo en
duda la fiabilidad y la validez de los resultados. Por tanto, se recomienda elaborar
previamente un manual de codificación, realizar pruebas piloto y verificar la consistencia
interna de los datos antes del análisis.
Caso 3: Inferencia estadística y tipo de muestreo
El uso de análisis inferencial con una muestra no probabilística y pequeña (n=15)
constituye un error metodológico que compromete seriamente la validez de las
generalizaciones realizadas. Para que los resultados inferenciales sean extrapolables a una
población más amplia, es indispensable que la muestra sea representativa y aleatoria, tal
como lo establecen Hernández Sampieri et al. (2022).
La inferencia estadística se basa en supuestos fundamentales, como la aleatoriedad y el
tamaño adecuado de la muestra. Kerlinger y Lee (2002) afirman que una muestra
probabilística permite estimar parámetros poblacionales con un margen de error
conocido, mientras que una muestra no probabilística no garantiza representatividad, lo
que invalida cualquier generalización. Además, un tamaño muestral tan reducido dificulta
el cumplimiento de los supuestos estadísticos requeridos por pruebas como la t de
Student o ANOVA, que requieren normalidad y homogeneidad de varianzas (Ary et al.,
2010).
En consecuencia, el análisis inferencial realizado con una muestra sesgada y pequeña
solo podría considerarse exploratorio o indicativo, pero no concluyente. Para aplicar
análisis inferencial válidos, se debe asegurar una muestra suficientemente grande,
aleatoria y representativa, de acuerdo con el diseño muestral adecuado al estudio.
Referencias para consultar:
- Hernández Sampieri, R., Fernández Collado, C., & Baptista Lucio, P. (2022).
*Metodología de la investigación* (7ma ed.). McGraw-Hill.
- Guffante, F. (2020). *Técnicas de análisis de datos en ciencias sociales*. Editorial
Brujas.
- Creswell, J. W. (2014). *Research design: Qualitative, quantitative, and mixed
methods approaches*. Sage.
- Kerlinger, F. N., & Lee, H. B. (2002). *Investigación del comportamiento*. McGraw-
Hill.
- Ary, D., Jacobs, L. C., & Razavieh, A. (2010). *Introduction to research in education*.
Cengage Learning.