0% encontró este documento útil (0 votos)
78 vistas53 páginas

Métodos de Estadística Inferencial

Este documento describe los conceptos básicos de la estadística inferencial, incluyendo la hipótesis nula y alternativa, las pruebas de contraste de hipótesis, y la significación estadística. Explica las diferencias entre las pruebas paramétricas y no paramétricas, y algunos ejemplos como la prueba t de Student y la prueba de la mediana de Mood. El objetivo final es asociar o comparar variables para establecer relaciones entre elementos de datos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
78 vistas53 páginas

Métodos de Estadística Inferencial

Este documento describe los conceptos básicos de la estadística inferencial, incluyendo la hipótesis nula y alternativa, las pruebas de contraste de hipótesis, y la significación estadística. Explica las diferencias entre las pruebas paramétricas y no paramétricas, y algunos ejemplos como la prueba t de Student y la prueba de la mediana de Mood. El objetivo final es asociar o comparar variables para establecer relaciones entre elementos de datos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

ESTADISTICA INFERENCIAL

Dr. Roberto Flores Torrejón, Ph. D.


• La estadística inferencial es una parte de
la estadística que comprende los métodos y
procedimientos que por medio de la
inducción/inferencia se determinan propiedades de
una población estadística (N), a partir de una parte de
ésta llamada muestra (n).
Conceptos básicos de Estadística Inferencial

• Hipótesis nula y alternativa.


• Pruebas de contraste de hipótesis.
• Tipos de contraste de hipótesis.
• El concepto de significación estadística.
Contexto de la investigación
“Toma de decisiones bajo
Teorías y/o incertidumbre sobre lo adecuadas
investigaciones previas que son las explicaciones teóricas y
la hipótesis que se deducen de ellas”

Hipótesis de
Hipótesis alternativa (H1)
investigación

Diferencia-igualdad entre 2 ó más


grupos
Hipótesis estadística

Asociación entre 2 ó más


variables
Contexto de las pruebas de contraste de hipótesis
Escepticismo (azar,
casualidad)

Pruebas de contraste Hipótesis nula (H0) versus


de hipótesis alternativa (H1)

Reglas de inferencia negativa Se da por supuesto que la hipótesis


nula es verdadera

Comprobar la validez de la Comparar H0 con H1


hipótesis estadística

Estadístico de contraste Significación estadística (p)


Reglas de inferencia negativa
“Las pruebas de contraste de hipótesis
tienen una presunción a favor de la
hipótesis nula (…), de forma similar a
como ocurre en los tribunales de
justicia, donde hay una presunción de
inocencia. Dado que uno es inocente
hasta que se demuestre lo contrario, la
evidencia aportada debe ser muy
consistente para admitir la culpabilidad”
(Baxter y Babbie, 2004, p. 278).
Significación estadística (p)
• ¿El azar explica los resultados?
• Probabilidad de equivocarse al rechazar la hipótesis
nula.
• Credibilidad de la H0.
• Probabilidad de error (error tipo I) al rechazar H0.
• Probabilidad de obtener un estadístico de contraste tan
grande como el obtenido si H0 fuera cierta.
• La probabilidad de que las diferencias (o asociación
entre las variables) pueda explicarse simplemente por el
azar o la casualidad.
PRUEBAS PARAMÉTRICAS Y NO
PARAMÉTRICAS
• Las pruebas paramétricas son una herramienta estadística que se utiliza
para el análisis de los factores de la población. Esta muestra debe cumplir
ciertos requisitos como el tamaño, ya que mientras más grande sea, más
exacto será el cálculo.
• Este método requiere que se especifique la forma de distribución de la
población materna estudiada. Puede tratarse, por ejemplo, de una
distribución normal, como ocurre en general cuando se trata de muestras
de gran tamaño. En general, estas pruebas sólo pueden aplicarse a
variables numéricas.
• Las pruebas paramétricas están basadas en la ley de distribución de la
variable que se estudia. A pesar de que existen muchos tipos de leyes de
distribución, éstas se basan en las normales, que tiene dos parámetros: la
media y la desviación estándar. Lo suficiente para conocer la probabilidad.
Condiciones que deben cumplir las pruebas
paramétricas
• Normalidad: El análisis y observaciones que se obtienen de las
muestras deben considerarse normales. Para esto se deben realizar
pruebas de bondad de ajuste donde se describe que tan adaptadas se
encuentran las observaciones y cómo discrepan de los valores
esperados.
• Homocedasticidad: Los grupos deben presentar variables uniformes,
es decir, que sean homogéneas.
• Independencia/Errores: Los errores que se presenten deben de ser
independientes. Esto solo sucede cuando los sujetos son asignados de
forma aleatoria y se distribuyen de forma normal dentro del grupo.
Tipos de pruebas paramétricas:
• Prueba del valor Z de la distribución normal
• Prueba T de Student para datos relacionados (muestras
dependientes)
• Prueba T de Student para datos no relacionados (muestras
independientes)
• Prueba T de Student-Welch para dos muestras independientes con
varianzas no homogéneas
• Prueba de Ji Cuadrada de Bartlett para demostrar la homogeneidad
de varianzas
• Prueba F (análisis de varianza o ANOVA).
Ventajas y desventajas de las pruebas
paramétricas
• Algunas de las ventajas de las pruebas paramétricas son:
• Son más eficientes.
• Son perceptibles a las características de la información obtenida.
• Los errores son muy poco probables
• Los cálculos probabilísticos son muy exactos
• Las desventajas de las pruebas paramétricas son:
• Los cálculos son difíciles de realizar
• Los datos que se pueden observar son limitados
• Las pruebas paramétricas son una herramienta útil para múltiples situaciones, cálculo e
interpretaciones.
• Gracias a que se utilizan comúnmente, es posible observar los resultados obtenidos a través de un
análisis. Son un método muy poderoso si se cumplen las condiciones de su aplicación. Sin
embargo, los investigadores deben tener en cuenta que si las variables que están estudiando no
siguen una ley normal, no pueden elegirse.
¿Qué son las pruebas no paramétricas?
• Las pruebas no paramétricas, también conocidas como pruebas de
distribución libre, son las que se basan en determinadas hipótesis,
pero lo datos observados no tienen un organización normal.
Generalmente, las pruebas no paramétricas contienen resultados
estadísticos que provienen de su ordenación, lo que las vuelve más
fáciles de comprender.
• Las pruebas no paramétricas tienen algunas limitaciones, entre ellas
se encuentra que no son lo suficientemente fuertes cuando se
cumple una hipótesis normal. Esto puede provocar que no sea
rechazada aunque sea falsa. Otra de sus limitaciones es que necesitan
que la hipótesis se cambie cuando la prueba no corresponde a la
pregunta del procedimiento si la muestra no es proporcional.
Algunas de las características de las pruebas
no paramétricas son:
• Es un método de medición difícil de aplicar.
• Es necesario realizar pruebas de hipótesis.
• Las hipótesis son estrictas.
• Las observaciones deben de ser independientes.
Tipos de pruebas no paramétricas y su
aplicación
• Prueba de signos de una muestra
• Prueba de los rangos con signo de Wilcoxon
• Prueba U de Mann-Whitney
• Prueba de Kruskal-Wallis
• Prueba de la mediana de Mood
• Prueba de Friedman
Ventajas de las pruebas no paramétricas
• Las ventajas de las pruebas no paramétricas son:
• Pueden utilizarse en diferentes situaciones, ya que no deben de
cumplir con parámetros estrictos.
• Generalmente, sus métodos son más sencillos, lo que las hace más
fácil de entender.
• Se pueden aplicar en datos no numéricos.
• Facilita la obtención de información particular más importante y
adecuada para el proceso de investigación.
Desventajas de las pruebas no paramétricas
• Las desventajas de las pruebas no paramétricas son:
• No son pruebas sistemáticas.
• La distribución varía, lo que complica seleccionar la elección correcta.
• Los formatos de aplicación son diferentes y provoca confusión.
• Es posible que se pierda información porque los datos recolectados se
convierten en información cualitativa.
• Es posible que se necesite tener fuentes y un respaldo con más peso.
• Este tipo de estadísticas se pueden utilizar sin el tamaño de la muestra o la
estimación de cualquier parámetro relacionado del que no se tenga
información. Dado que las suposiciones son menores, pueden aplicarse de
múltiples formas.
DIFERENCIAS
PRUEBAS NO PARAMETRICAS PRUEBAS PARAMETRICAS
Menor potencia estadística. Mayor potencia estadística.
Se aplican en variables categóricas. Se aplican en variables normales o de intervalo.
Se utilizan para muestras pequeñas. Se utilizan para muestras grandes.
No se conoce la forma de distribución de datos. Su distribución de datos es normal.
No hacen muchas suposiciones. Hacen muchas suposiciones.
Exigen una menor condición de validez. Exigen mayor condición de validez.
Mayor probabilidad de errores. Menor probabilidad de errores.
El cálculo es menos complicado de hacer. El cálculo es complicado de hacer.
Las hipótesis se basan en rangos, mediana y
frecuencia de datos. Las hipótesis se basa en datos numéricos.
Los cálculos no son exactos. Los cálculos son demasiado exactos.
Considera los valores perdidos para obtener No toma en cuenta los valores perdidos para
información. obtener información.
Asociar o comparar
• Podemos distinguir entre dos objetivos principales para las técnicas
explicativas: ASOCIAR O COMPARAR.
• Ambos buscan establecer relaciones (semejanzas o diferencias) entre
elementos pero, a diferencia de las pruebas de asociación, las
pruebas de comparación evalúan estas relaciones entre uno o varios
grupos.
• ASOCIACIÓN. ¿Existe algún tipo de relación significativa entre las
variables?, ¿cómo es esta relación (positiva o negativa)?, ¿qué tan fuerte es
la relación (magnitud)?, ¿la relación se mantiene si controlamos la
influencia de terceras variables?.
• COMPARACIÓN. ¿Cuál es el promedio/variabilidad de la variable de
estudio en la población?, dado un conjunto de poblaciones ¿son similares?,
¿entre cuáles de ellas hay diferencias significativas?, ¿qué variables
explican esas diferencias? y ¿existe interacción entre las variables
explicativas?.
• Si quieres profundizar aún más en la selección de las técnicas explicativas
debes considerar cómo son tus muestras (independientes o relacionadas).
¿Qué tipo de muestras tienes?
• También debes saber distinguir cómo son tus muestras:
• Muestras independientes: cada observación corresponde a un sujeto
o caso distinto.
• Muestras relacionadas (o pareadas): tenemos varias observaciones
del mismo sujeto o caso. Las muestras relacionadas aparecen en
experimentos del tipo antes-depués, como por ejemplo el estudio de
pacientes donde se comparan los resultados antes y después de la
aplicación de un tratamiento.
¿Qué tipo de datos tienes?
• ¿Cómo son tus variables?
• Seguro que tienes claro cuáles son los tipos de variables, así
comienzan el 99% de los cursos de estadística de grado, pero
hagamos un pequeño repaso para desempolvar estos conceptos.
• Tenemos variables categóricas, que son de dos tipos: las
llamadasvariables nominales (que son categorías sin orden) como el
sexo; ylas variables ordinales (que sí representan un orden), como el
nivelde estudios.
• Recuerda que las variables nominales pueden ser binarias o
dicotómicas (e.g. fumador/no fumador, enfermo/sano).
• Por otra parte tenemos las variables numéricas, que pueden
ser discretas si vienen dadas por números enteros, como el número
de hijos, o continuas como el peso que se representa por números
reales.
¿Se cumplen los supuestos clásicos?
• En segundo lugar debes corroborar si tus datos cumplen o no con los
supuestos de las pruebas estadísticas clásicas (normalidad,
homogeneidad, independencia).
• Esto te permitirá elegir entre pruebas PARAMÉTRICAS, pruebas NO
PARAMÉTRICASy pruebas ROBUSTAS.
• Para ello tienes que responder a las siguientes preguntas: ¿las
variables se distribuyen según la curva normal (gaussiana)?, ¿los son
grupos tienen dispersión similar (son homogéneos)?,
• Cuando trabajas con datos reales en la mayoría de las ocasiones no
se cumplen los supuestos de la estadística clásica.
• En estos casos las técnicas paramétricas no nos demasiado útiles;
pero como mencionamos en la entrada anterior (ver
AQUÍ) tenemos 3 posibles soluciones:
• la transformación de los datos, cuando los datos no siguen una
distribución normal o queremos disminuir su variabilidad.
• utilizar las pruebas no paramétricas cuando los datos no siguen una
distribución normal
• utilizar las pruebas robustas cuando tienes datos atípicos.
Razones para utilizar pruebas paramétricas
• Si la distribución se aparta poco de la normalidad, y las muestras no
son muy pequeñas (n>30), pueden ser válidas teniendo ciertos
cuidados.
• Si la falta de homogeneidad de varianza en cada grupo no es muy
grande, existen maneras en la prueba t o en el ANOVA de incluir esta
condición. Sin embargo las no paramétricas no permiten solucionar
este inconveniente.
• Generalmente tienen mayor poder estadístico que laspruebas no
paramétricas. Es decir, con ellas tenemos más probabilidad de
detectar un efecto significativo cuando realmente existe.
Razones para utilizar pruebas no paramétricas
• Si puedes utilizar contrastes que solo necesiten establecer supuestos
poco exigentes (como simetría o continuidad) o quieres analizar las
propiedades nominales u ordinales de losdatos.
• Ten en cuenta que muchas de estas pruebas utilizan la mediana en
lugar de la media para sus cálculos.
• Cuando la distribución de frecuencias de los datos es muy
asimétrica, la media se ve muy afectadamientras que la mediana
refleja mejor la centralidad de la distribución.
• Cuando tienes un tamaño muestral pequeño.
• Cuando tenemos pocos datos las pruebas de normalidad pierden
poder estadístico y no estamos seguros del tipo de distribución de
losdatos. Sin embargo, para realizar pruebas no paramétricas el
tamaño muestral tampoco debe ser muy pequeño.
• Cuando analizamos datos ordinales o de rango.
• Las pruebas paramétricas sirven para analizar datos de escala y sus
resultados se ven muy afectados por la presencia de outliers. Aunque
a veces la interpretación de los rangos medios puede ser difícil.
Razones para utilizar pruebas robustas
• Son estables respecto a pequeñas desviaciones delmodelo
paramétrico asumido (normalidad yhomocedasticidad).
• A diferencia de los procedimientos no paramétricos, los procedimientos
estadísticos robustos no tratan de comportarse necesariamente bien para
una amplia clase de modelos, pero son de alguna manera óptimos en un
entorno de cierta distribución de probabilidad, por ejemplo, normal.
• Solucionan los problemas de influencia de los outliers.
• Son más potentes que las pruebas paramétricas y noparamétricas cuando
los datos no son normales y/o no sonhomocedásticos.
• Los métodos robustos modernos son diseñados para obtener un buen
desempeño cuando los supuestos clásicos se cumplen y también cuando
se incumplen. Por lo tanto, haypoco que perder y mucho que ganar a la
hora de utilizar estastécnicas en lugar de las clásicas.
Potencia estadística
• No te quedes solo con el resultado de la prueba estadística (p-valor),
analiza si realmente puedes confiar en los resultados. Cuando mis
resultados no son significativos, ¿realmente no existe un efecto o es
que el estudio no fue capaz de detectarlo? O, por el contrario, cuando
tengo resultados significativos ¿son realmente tan positivos o es que
el experimento sobreestima los efectos del tratamiento?
Qué es?
• Describe la probabilidad de que una prueba identifique
correctamente un efecto genuino, real. Dicho de una manera más
sencilla, es la capacidad de distinguir la señal del ruido. La señal que
buscamos es el impacto de un tratamiento sobre algún resultado que
nos interesa.
Imagina que se quiere estudiar la efectividad de un nuevo fármaco
para la gripe. Buscamos probar su efectividad (señal). El ruido que nos
preocupa proviene de la complejidad de los datos (qué tan variables
son). Por ejemplo, habrá ruido en los resultados si la eficacia del
fármaco depende fuertemente de la edad del individuo o de su sexo.
¿Para qué necesitamos conocer la potencia?
• Realmente no hay efecto o es que el estudio no fue capaz de
detectarlo? ¿los resultados son realmente tan positivos o es que el
experimento sobreestima los efectos del tratamiento? si tu análisis
tiene una baja potencia estadística los resultados suelen ser difíciles
de interpretar.
¿Cuál sería un valor aceptable de potencia?
• Generalmente un valor de potencia de 0.80 es aceptable y se puede
usar como punto de referencia. Los investigadores suelen diseñar sus
experimentos de tal manera de que sus resultados sean
significativos el 80% de las veces.
¿Cómo mejorar la potencia?
• Los ruidos de tratamiento (problemas experimentales o de
instrumento) y de fondo (respuestas con alta variabilidad) no se
pueden controlar, pero sí podemos diseñar adecuadamente nuestro
experimento de tal manera que obtengamos una potencia alta.
• La potencia de una prueba estadística está relacionada con:
• El tamaño de la muestra «n»: el número de casos o sujetos que participan del
estudio.
• El nivel de significación «alfa»: la probabilidad de rechazar la hipótesis nula
cuando ésta es verdadera (error tipo I o falso positivo). Se suele asumir un 5% o,
lo que es lo mismo, un nivel de confianza del 95% (1-alfa).
• El tamaño del efecto «d» o «r»: es una medida del cambio en una respuesta.
Simplificando un poco podemos calcular medidas que reflejen las diferencias de
medias entre grupos (la diferencia de medias dividido la desviación estándar) o
medidas que indiquen la relación entre variables (coeficiente de correlación),
según nuestro objetivo.
• Una baja potencia podría indicar un tamaño de muestra pequeño, un alfa menor
o un tamaño del efecto pequeño, y lo contrario para una potencia alta.
Tamaño del efecto
• Explica el significado real (práctico) de los resultados de tu
investigación. Es esencial que interpretemos no sólo la significación
estadística de los resultados (el ya archiconocido p-valor), sino
también su significación práctica o real.
• El significado práctico de los resultados de una investigación se
describe según el tamaño del efecto observado. Un efecto es el
resultado de algo, un desenlace, una reacción o cambio. El tamaño
del efecto es la magnitud del resultado. Mediante el tamaño del
efecto podemos dar una estimación del alcance de nuestros
hallazgos.
• Muchas de nuestras decisiones diarias se basan en un análisis del
tamaño del efecto. Tomamos un paraguas si percibimos una alta
probabilidad de lluvia, por ejemplo.
• Los investigadores debemos generar estimaciones precisas del
tamaño del efecto. Pasamos una gran parte de nuestro tiempo
buscando formas de reducir los errores de muestreo y medición,
entre otras cosas, pero en última instancia, nuestro objetivo es una
mejor comprensión de los efectos del mundo real.

3 razones para informar sobre el tamaño del
efecto:
• El p-valor le puede decir la dirección de un efecto, pero sólo la
estimación del tamaño del efecto le dirá lo grande que es.
• Sin una estimación del tamaño del efecto, ninguna interpretación
significativa puede tener lugar.
• Permite comparar cuantitativamente los resultados de estudios
realizados en diferentes situaciones.
• Se trata de un paso esencial para interpretar los resultados de nuestro
estudio y su ausencia en los artículos científicos se ha identificado
como uno de los 7 fallos más comunes en investigación (según la
APA).
¿Cómo se calcula el tamaño del efecto?
• Familia «d»: diferencias entre grupos.
• Podemos querer comparar variables dicotómicas o variables
continuas entre grupos.
• I) Cuando comparamos grupos según cierta variable numérica (e.g.
edad, altura, coeficiente intelectual, recuento celular, etc.) la manera
más sencilla es informar de la diferencia en las medias de cada grupo,
pero debemos considerar cómo es la dispersión de los datos (la
desviación típica) para evaluar qué tan grande es la diferencia (es una
forma de estandarizarlo).
• II) Cuando comparamos grupos según cierta variable
dicotómica (e.g. tratamiento vs. control, éxito vs. fracaso, sí vs no,
etc), las comparaciones se basan en la probablidad de que los
miembros del grupo estén clasificados en una de las dos categorías.
• Familia «r»: medir la fuerza de una relación.
• Para evaluar el tamaño del efecto de una medida de asociación entre 2 o
más variables utilizaremos el coeficiente de correlación «r».
• El coeficiente de correlación «r» lineal de Pearson cuantifica la fuerza y
dirección de la relación entre dos variables X e Y. Toma valores entre -1
(relación negativa) y 1 (relación positiva), donde el 0 indica que no existe
relación lineal. Se trata de una métrica estandarizada por lo que nos
permite compararla con otros estudios.
• Existen otras medidas de tamaño del efecto para estos casos, por ejemplo:
la correlación de Spearman (para variables numéricas, relaciones
monotónicas o datos no normales; [-1,1]), la V de Cramer (para variables
categóricas, tablas de contingencia; [0,1]), etc.
• Cuando tenemos un análisis de regresión e identificamos la variable
dependiente y la variable independiente podemos calcular el coeficiente
de determinación «R2» como medida del tamaño del efecto. Este valor va
de 0 a 100 y se expresa como % por lo cual también es una medida
estandarizada que nos permite comparar los resultados con otros estudios.
• Cuando tenemos un ANOVA e identificamos VD y VI podemos utilizar
el valor de «eta2» que refleja la proporción de variación en la VD que
viene explicada por la VI. También es una medida estandarizada.
• Finalmente, en estos dos últimos casos existe una alternativa que es utilizar
la «f» de Cohenque mide la dispersión de las medias entre los grupos de
estudio en el ANOVA o el efecto de cada VI en el análisis de regresión.
¿Qué tan grande es grande?
• Tenemos que contextualizar el tamaño del efecto según alguna
referencia pero estos valores no deben ser arbitrarios sino que deben
venir de la propia escala de medida con la que estemos trabajando.
• Existen 3 métodos para la correcta interpretación del tamaño del
efecto, llamadas las tres Cs:
• el contexto,
• la contribución
• el criterio de Cohen
1. El contexto.
• En el contexto correcto un efecto pequeño puede ser significativo:
• si desencadena grandes consecuencias o respuestas (e.g. devaluar la moneda puede
desencadenar una crisis financiera, o cuando el aspecto físico influye en los votantes),
• si cambia la idea de que grandes resultados pueden ocurrir (e.g. un caso de enfermedad
por sika puede interpretarse como una señal de que está por ocurri una brote/epidemia)
• si pequeños efectos pueden acumularse y producir grandes efectos (e.g. inflar
correctamente las llantas de un coche mejora el consumo de gasolina en un 3%, pero si
todos realizamos esta operación el ahorro energético del país será enorme).
• si conduce a un cambio de paradigma (a nuevas formas de entender el mundo) o a un
quiebre tecnológico (e.g. el descubrimiento de la penicilina por Fleming).
• Esto ocurre, por ejemplo, cuando estamos probando un medicamento novedoso con
implicaciones sociales importantes como en la cura del cáncer.
2. La contribución.
• Una forma de interpretar los resultados de nuestra investigación es
evaluar su contribución al conocimiento.
En este caso nos preguntamos si el efecto observado difiere de lo que
otros investigadores han encontrado y si es así, en cuánto.
Comparamos la bibliografía existente con nuestros resultados y
damos explicaciones alternativas para nuestros hallazgos.
La importancia de un efecto depende de cuando ocurre, dónde
ocurre y para quienes ocurre.
3. El criterio de Cohen.
• Este criterio establece 3 puntos de corte para interpretar el tamaño
del efecto según los valores del estadístico «d» de Cohen. Sin
embargo, estos cortes han sido elaborados para el mundo de la
psicología y no están libres de controversia.

¿Cómo informar del tamaño del efecto?
• Cuestiones como el tamaño muestral necesario para realizar un estudio, la intepretación
de los resultados, la significación estadística y práctica de nuestros resultados, dependen
del tamaño del efecto. Por ello siempre debemos evaluar e informar del tamaño y
dirección de los efectos estimados aún si los resultados no son significativos y si su
efecto es pequeño.
• Puedes informar del tamaño muestral en formato estándar (valores de correlación «r»
o la «d» de Cohen, indicando claramente el tipo de medición que utiliza) o, si la variable
que mides es importante en términos prácticos (e.g. número de vidas salvadas por el
tratamiento), también menciona su efecto en términos no estandarizados. Esto permitirá
que tus resultados sean «meta-analytically friendly«, es decir, que quién lea tu
investigación sea capaz de entender el alcance de tus resultados.
• En definitiva, es importante realizar investigaciones rigurosas con estimaciones precisas
del tamaño del efecto para transmitir adecuadamente nuestros resultados al resto de la
población. Debemos ser claros en el significado práctico de nuestras investigaciones.
Resumiendo, que es gerundio
• Estos son los principales pasos a seguir en la selección de la técnica
explicativa correcta:
• 1. Escribir claramente el objetivo de análisis (asociación o
comparación)
• 2. ¿Qué tipo de variables tengo?
• 3. ¿Son muestras independientes o relacionadas?
• 4. ¿Se pueden aplicar técnicas paramétricas? Analizar los supuestos:
• Normalidad.
• Homogeneidaddevarianza.
• Linealidad (en caso de que sea necesario)
• 5. ¿Qué prueba debo realizar? Seleccionar la prueba adecuada según
el mapa que te he enseñado.
• 6. ¿La asociación/comparación es estadísticamente significativa?
Realizar la prueba de hipótesis.
• 7. Interpretar y graficar los resultados.
• Si estamos asociando nos preguntaremos ¿cómo es esta relación? ¿qué tan
fuerte es?
• Si estamos comparando nos preguntaremos ¿entre qué grupos/muestras?
• Si son 2 grupos/muestras realizar estadísticos descriptivos y/o gráficos para decidir.
• Si son más de 2 grupos/muestras realizar comparaciones múltiples pareadas post hoc y
en aquellos pares de variables significativamente distintos realizar estadísticos
descriptivos y/o gráficos para decidir.

También podría gustarte