0% encontró este documento útil (0 votos)
126 vistas10 páginas

Control de Calidad

1) El documento describe diferentes distribuciones de probabilidad como la distribución normal y la distribución hipergeométrica, y explica cómo se aplican a diferentes situaciones. 2) Luego discute pruebas estadísticas paramétricas y no paramétricas, incluidas pruebas para múltiples muestras independientes y relacionadas. 3) Finalmente, explica una prueba para múltiples muestras relacionadas cuando no todos los tratamientos están presentes en cada bloque.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
126 vistas10 páginas

Control de Calidad

1) El documento describe diferentes distribuciones de probabilidad como la distribución normal y la distribución hipergeométrica, y explica cómo se aplican a diferentes situaciones. 2) Luego discute pruebas estadísticas paramétricas y no paramétricas, incluidas pruebas para múltiples muestras independientes y relacionadas. 3) Finalmente, explica una prueba para múltiples muestras relacionadas cuando no todos los tratamientos están presentes en cada bloque.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

TAREA N°1 – CONTROL DE CALIDAD

1. Distribuciones más comunes

A. Distribución Normal

En la aplicación del cálculo de probabilidades a temas diversos cobran una gran


importancia los modelos de distribuciones que permiten resolver una multitud de
problemas, sin tener que deducir en cada ocasión las expresiones algebraicas de las
funciones de densidad (en el caso de variables continuas) o de las distribuciones de
probabilidad (para variables discretas) correspondientes (Batanero y Borovcnik, 2016).
Uno de estos modelos es la distribución normal, de gran relevancia en estadística debido a que
permite describir variables aleatorias continuas que aparecen muchos fenómenos físicos,
biológicos, psicológicos o sociológicos, como, por ejemplo, tiempo de reacción, temperatura,
peso y altura o cociente de inteligencia. La función de densidad de una variable aleatoria normal
está definida por su función de densidad, que depende de dos parámetros  y , que son su
media y su desviación típica y tiene la siguiente expresión, donde x varía desde -  a  :

Figura 1. Distribuciones normales con la misma desviación típica y diferente media.


APLICACIÓN:

B. Distribución Hipergeométrica

Es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo.


La distribución Hipergeométrica de parámetros k, n y N (HG (k, n, N)) surge en situaciones en
donde el modelo aproximado de probabilidad se corresponde con muestreo sin reemplazamiento
de una población dicotómica (Exito y Fracaso) finita (Pérez, 2006). Concretamente, las
suposiciones que llevan a considerar esta distribución son:
• La población o conjunto donde deba hacerse el muestreo consta de N individuos o elementos a
seleccionar.
• Cada individuo puede ser caracterizado como un éxito (E) o fracaso (F).
• Se selecciona una muestra de n individuos de entre los k individuos marcados como éxito y los
N − k restantes marcados como fracaso.
• Hay selección equiprobable en cada paso.
Una v.a. X tiene una distribución Hipergeométrica si (para algunos enteros positivos k, n y N)
X = "no de individuos de un total de n con cierta característica (éxito) si en N hay un total de k"

APLICACIÓN:

2. Pruebas Estadísticas

A. PARAMÉTRICAS

Diseños experimentales
- Diseño Completamente al Azar
- Diseño de Bloques Completamente al Azar
- Diseño Cuadrado Latino
- Experimentos Factoriales
Pruebas de comparación de promedios
- Prueba “t” de Student
- Prueba de Duncan
- Prueba de Tukey B.
B. NO PARAMÉTRICAS
Estos contrastes reciben el nombre de no paramétricos porque las hipótesis contrastadas no
hacen referencia a ningún parámetro poblacional. Son comparables con los métodos
paramétricos correspondientes a la diferencia de medias de dos o más distribuciones normales.

Para aplicar estos contrastes no es necesario especificar la distribución de probabilidad de la


población analizada ni que las observaciones estén medidas en escala de intervalo. éstas pueden
presentarse en una escala ordinal y en algunas ocasiones en una escala nominal.

En general, los contrastes no paramétricos son menos potentes que los paramétricos y, en
consecuencia, ante la posibilidad de aplicar cualquiera de ellos siempre es preferible el
paramétrico.

 PRUEBA PARA K MUESTRAS INDEPENDIENTES

Determinan si las muestras proceden de una misma población o si al menos una muestra
procede de una población diferente de las otras.

En este apartado se presentan dos pruebas que permiten contrastar si k >2 muestras aleatorias e
independientes proceden de una misma población, es decir, si un factor que subdivide la
población de origen incide de forma significativa sobre el valor central de la población. Estos
contrastes son alternativas no paramétricas al análisis de la varianza cuando se incumple alguno
de los supuestos básicos de dicho análisis. El único requisito para aplicar estos contrastes es que
la variable esté medida al menos en una escala ordinal.

Ejemplo:

Si los alumnos que utilizan habitualmente los transportes públicos (metro, bus, tren) valoran de
forma significativamente distinta la característica independencia (Inde) y rapidez (Rapi).

Se trata de contrastar la hipótesis nula de que la valoración asignada a la independencia y a la


rapidez difieren significativamente en función del tipo de transporte público utilizado. Dado que
las valoraciones de ambas características se miden en una escala ordinal y las muestras son
independientes, el contraste más adecuado es la prueba H de Kruskal-Wallis.

Para realizar este contraste la secuencia es:

Estadística > Pruebas no paramétricas > K muestras independientes.

En el cuadro de diálogo se selecciona en Contrastar variables Independencia y Rapidez; en


Variable de agrupación se indica el factor, es decir, la variable que induce los diferentes grupos,
que en este caso es la variable Trans. Como únicamente interesa comparar la opinión de los
usuarios del transporte público en el cuadro de diálogo que se abre con el botón Definir rango
se indica como rango Mínimo 1 y como rango Máximo 3, ya que 1, 2 y 3 son las codificaciones
asignadas a las modalidades metro, bus y tren respectivamente. Al aceptar se obtienen los
siguientes resultados:

Figura 2. Cuadro de diálogo- pruebas para varias muestras independientes

Tabla 1. Rangos

. Rangos
Por lo que se refiere a la variable Rapidez, el estadístico de prueba es 6,449 y por tanto se
rechaza la hipótesis nula según la cual los tres grupos valoran igualmente esta característica.
En el caso de la variable Independencia el valor del estadístico Chi-cuadro es 0,891 y no se
rechaza la hipótesis nula. [1]
 PRUEBA PARA K MUESTRAS RELACIONADAS
Cuando las k muestras están relacionadas de forma que las características de los i-ésimos
elementos de cada muestra son idénticas o lo más parecidas posible, las diferencias observadas
entre las muestras serán atribuidas únicamente al efecto del factor diferenciador de los grupos.
El contraste de la hipótesis de que las k muestras proceden de una misma población o de
poblaciones con la misma tendencia central no puede realizarse mediante el análisis de la
varianza, al incumplirse el supuesto, por lo menos, de independencia de las muestras. En este
caso puede utilizarse alguna de las alternativas no paramétricas que se presentan a continuación.

Figura 3. Cuadro de diálogo-pruebas para varias muestras relacionadas

Ejemplo:

Con los datos de la encuesta [Link] probar si hay discrepancia entre la valoración que
hacen los alumnos al mantenimiento (Manten), acceso a las aulas de informática (Aulas) y la
valoración que hacen a los monitores que supervisan las aulas (Monitor).

Como se trata de contrastar la hipótesis nula de que las valoraciones asignadas por los alumnos
a las características mantenimiento, acceso y monitores de las aulas no difiere
significativamente a partir de las puntuaciones asignadas por los mismos individuos, las
muestras resultantes no son independientes. Por otra parte, las variables se miden en una escala
ordinal, y por tanto el contraste más adecuado es la prueba de Friedman.

Para realizar este contraste la secuencia es:

Analizar > Pruebas no paramétricas > k muestras relacionadas.


En el cuadro de diálogo se seleccionan las variables Manten, Aulas y Monitor y se mantiene el
tipo de prueba activado por defecto, Friedman.

Tabla 2. Estadísticos de contraste

Los resultados que se obtienen son los siguientes:

Tabla 3. Rangos

Tabla 4. Estadísticos de contraste

El estadístico de prueba es igual a 8,040, por lo que no se puede rechazar la hipótesis nula para
niveles de significación superiores a 0,018. Al 5% de nivel de significación se acepta la
hipótesis de que no existen diferencias significativas entre las valoraciones asignadas por los
alumnos a estas características. [1]
 PRUEBA PARA K MUESTRAS RELACIONADAS TAL QUE EN CADA BLOQUE
NO ESTÉN PRESENTES TODOS LOS TRATAMIENTOS

Prueba de Friedman La diferencia más notable de esta prueba con la de Cochran, es que esta se
basa en los rangos y por lo tanto requiere que las muestras igualadas estén, por lo menos en
escala ordinal. Esto sugiere que esta prueba se debe utilizar preferentemente a la de Cochran. Es
por esta razón que a esta prueba se le considera como un análisis de varianza no parámetrico
para un diseño experimental en bloques. Por lo tanto hay que cumplir con dos suposiciones:

1) Se tiene k muestras relacionadas.

2) La escala de medición de la variable a probar está al menos en escala ordinal.

Los datos se colocan en una tabla de 2 clasificaciones con N hileras y K columnas; donde las
hileras representan cada observación y las columnas los tratamientos, luego a los datos de cada
hilera se les asigna un rango que va desde 1-k. Ho: Las k poblaciones (Tratamientos) son
iguales, es decir, no difieren significativamente. HA: Al menos un par de poblaciones es
diferente. La prueba de Friedman determina la probabilidad de que las diferentes columnas de
rangos (muestras) proceden de la misma población. El estadístico a probar es T.

Rj = Suma de rangos por tratamiento o columna

k = número de tratamientos o columnas

N = r = número de hileras

La To se puede distribuir de acuerdo a 3 casos:

1) Cuando k = 3 y r 9: su distribución se busca en una tabla de T para k = 3

2) Cuando k = 4 y r 4: su distribución se busca en una tabla de T para k = 4

3) Cuando k o r son grandes: su distribución se busca en una tabla de 2 con gl = k-1

Ejemplo:

Se desea conocer si existe diferencia significativa en el tiempo de coagulación de la sangre,


entre cuatro venenos diferentes de serpiente. Para llevar a cabo el experimento se eligieron
cuatro camadas (k = 4 = 4 bloques) de cuatro ratones (r = 4) cada una, obteniéndose los
siguientes resultados.

Ho: No hay diferencias significativas en tiempo de coagulación entre 4 venenos.

HA: Sí existen diferencias al menos en dos venenos.


Tabla 5. Resultados de la coagulación de sangre bajo 4 tratamientos

Procedimiento:

1) Dentro de cada bloque se ordenan las observaciones de menor a mayor y se asignan rangos.
Lo que entonces se obtiene, es una tabla donde se sustituyen las observaciones por sus rangos.

Tabla 6. Arreglo de las observaciones por el rango

Tenemos que el estadístico de prueba To es:

El valor crítico de T se busca en tablas con k = 4, r = 4 y  = 0.05, (se utiliza el valor más
cercano a éste) donde T4, 4,0.05 = 7.5. Como To= 9.37 fue mayor que T4, 4.052=7.5
rechazamos Ho y concluimos que existen diferencias significativas en el tiempo de coagulación
de la sangre entre los cuatro venenos, es decir tienen efectos diferentes. [2]
BIBLIOGRAFIA:
[1] No Paramétricas – Muestras independientes - Muestras relacionadas (2019). Universidad de
Barcelona. Capítulo 6.
Disponible: [Link]
[2] Métodos No-Paramétricos de Uso Común (abril 2012 México). Badii, M.H., A. Guillen,
L.A. Araiza, E. Cerna, J. Valenzuela & J. Landeros. UANL, San Nicolás, N.L.
Disponible: [Link]
Batanero, C. y Borovcnik, M. (2016). Statistics and probability in high school. Rotterdam:
Sense Publishers.
Pérez González, A.; Vilar Fernández, J.M. y González Manteiga, W. (2006). Estimador
polinómico local en un modelo de regresión con errores correlacionados y datos faltantes.

También podría gustarte