0% encontró este documento útil (0 votos)
79 vistas12 páginas

Pruebas de Hipótesis Estadísticas

Este informe trata sobre las pruebas paramétricas para muestras independientes y dependientes. Explica conceptos como las pruebas t, z, F y ANOVA. También describe las ventajas y desventajas de las pruebas paramétricas.

Cargado por

jbautistare
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
79 vistas12 páginas

Pruebas de Hipótesis Estadísticas

Este informe trata sobre las pruebas paramétricas para muestras independientes y dependientes. Explica conceptos como las pruebas t, z, F y ANOVA. También describe las ventajas y desventajas de las pruebas paramétricas.

Cargado por

jbautistare
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

FACULTAD DE CIENCIAS EMPRESARIALES

ESCUELA PROFESIONAL DE ADMINISTRACIÓN

INFORME PRUEBA DE HIPÓTESIS PARAMÉTRICA PARA

MUESTRAS INDEPENDIENTES Y DEPENDIENTES

AUTOR(ES):
Bautista Reyes, Jeriff Stiben (orcid/ 0000-0002-8747-0894)

Gallardo Izquierdo, Brandon Eduardo (orcid/ 0000-0003-2246-5784)

Huarac Caballero, Jhoselin Dayanna (orcid/ 0000-0003-7335-3122)

Pajuelo Leyva, Leonel Jordi (orcid/ 0000-0002-7397-5058)

Rojo Figuero, Myorenji Nicol (orcid/ 0000-0002-6632-5145)

ASESOR:
Lic. Lázaro Días, Juan Renee (ORCID:0000-0002-0604-785X)

LÍNEA DE INVESTIGACIÓN:
Desarrollo sostenible, emprendimiento, responsabilidad social

HUARAZ - PERÚ
2024
ÍNDICE

I. INTRODUCCIÓN..........................................................................................1

II. DESARROLLO............................................................................................. 3

2.1. MARCO CONCEPTUAL........................................................................3

ESTADISTICA PARAMETRICA.......................................................................3

2.1.1. PRUEBA “T”:...................................................................................3

2.1.2. PRUEBA “Z”....................................................................................3

2.1.3. PRUEBA F – Distribución Fisher - Snedecor...................................5

2.1.5. PRUEBA “ANOVA”..........................................................................6

VENTAJAS...................................................................................................... 7

DESVENTAJAS...............................................................................................7

III. CONCLUSIONES......................................................................................8

IV. REFERENCIAS.........................................................................................9
I. INTRODUCCIÓN

Este informe se refiere al tema de la estadística paramétrica para muestras


dependientes e independientes, esto se puede definir como una rama de la
estadística inferencial que incluye procedimientos estadísticos que utilizan
parámetros, el tema de la estadística paramétrica es muy importante para
realizar trabajos de investigación a nivel inferencial.
Las pruebas paramétricas son una herramienta estadística utilizada para el
análisis factorial general. La muestra debe cumplir ciertos requisitos, como el
tamaño, porque cuanto mayor sea la muestra, más preciso será el cálculo. Es
importante conocer qué es la estadística, es un pilar importante tanto en la
psicología como en otras disciplinas científicas, ya que nos permite tomar
decisiones, construir teorías y adquirir conocimientos de forma objetiva.
Según Molina (2020), define que de manera general, en el contraste de
hipótesis se parte de un supuesto de igualdad de los dos parámetros que se
quiere comparar, supuesto al que denominamos hipótesis nula, la diferencia
que observemos entre ellos sea debida a error aleatorio o de muestreo. Si esta
probabilidad es inferior a un determinado valor que, por convenio, suele
situarse en 0,05, asumiremos que la probabilidad de que la diferencia se deba
al azar es lo suficientemente baja como para rechazar la hipótesis nula y
considerar como cierta la hipótesis alternativa de desigualdad (contraste
bilateral) o de superioridad o inferioridad de uno de los parámetros (contraste
unilateral). Una vez obtenidos los parámetros, calcularemos la probabilidad de
que, bajo el supuesto de la hipótesis nula, la diferencia que observemos entre
ellos sea debida a error aleatorio o de muestreo. Si se quiere comparar dos
parámetros para dos grupos diferentes, normalmente utilizamos una estadística
asociada al parámetro y cuyos valores siguen una distribución de probabilidad
conocida. El problema más sencillo consiste en comparar el valor medio de un
parámetro obtenido en una muestra con un valor de referencia de una
población conocida. Esto permitirá, por un lado, determinar si la conclusión de
que la muestra pertenece a un conjunto está justificada y, por otro lado, probar
la hipótesis sobre la media poblacional a partir de la media muestral. Aunque
es

1
posible comparar dos medias utilizando la distribución normal, para hacerlo
necesitamos conocer la desviación estándar poblacional del parámetro, que
generalmente se desconoce.
JA Gonzalez Ramirez (2018) dice que al tomar decisiones en cuanto a una
hipótesis estadística evaluamos la probabilidad de cometer errores en la
aceptación o rechazo de una hipótesis planteada. Para ello el primer paso es
plantear un sistema de hipótesis; donde la hipótesis del investigador es llamada
hipótesis alterna, y aquella que niega esta afirmación es la hipótesis nula.
Posteriormente se selecciona la prueba de hipótesis a usar teniendo en cuenta
la naturaleza y escala de las variables; así como el objetivo estadístico que se
persigue. En cuanto se conoce la prueba de hipótesis a usar se elige el nivel de
significancia con el que se quiere trabajar; es decir, la probabilidad de cometer
error rechazando la hipótesis nula dado que esta sea cierta. En la mayoría de
los casos este valor se establece en 0,05 por convención. El siguiente paso es
establecer el punto crítico de la distribución teórica que estamos usando en la
prueba de hipótesis. Esto se logra conociendo el nivel de significancia y los
valores de dispersión (llamados muchas veces grados de libertad) de la prueba
a utilizar. Posteriormente se calcula el valor estadístico que corresponde a los
datos obtenidos y se compara con el punto crítico. Si este valor es mayor al
punto crítico que hemos establecido diremos que el mismo ha caído en la zona
de rechazo de la hipótesis nula. Cuantificar el valor de la probabilidad de haber
obtenido tal resultado o más extremo dado que la hipótesis nula sea verdadera,
es calcular el valor de p, el cual corresponde al complemento del área bajo la
curva de la distribución teórica utilizada hasta el punto calculado por la prueba
de hipótesis. Al día de hoy este complejo algoritmo se ha reducido debido a las
bondades de los procesadores y ordenadores que disponemos; siendo
necesario básicamente que el investigador seleccione de manera adecuada la
prueba estadística a usar. El ordenador se encargará de los cálculos
necesarios correspondientes a los grados de libertad, puntos críticos y el valor
de p.

2
3
II. DESARROLLO
II.1. MARCO CONCEPTUAL
Las pruebas paramétricas son un conjunto de pruebas estadísticas
utilizadas para analizar datos que se supone que siguen una distribución
paramétrica específica, como la distribución normal. Estas pruebas se
basan en suposiciones acerca de la población subyacente y, por lo
tanto, es importante que los datos cumplan con ciertas condiciones para
que las pruebas paramétricas sean apropiadas y confiables.
Algunas de las condiciones que deben cumplirse para realizar pruebas
paramétricas son:
Normalidad de los datos: Los datos deben seguir una distribución normal
o aproximarse a ella. Esto significa que la distribución de los datos debe
ser simétrica y en forma de campana. Puedes verificar la normalidad
utilizando pruebas estadísticas como la prueba de normalidad de
Kolmogorov-Smirnov o gráficos de probabilidad normal.
Homogeneidad de las varianzas: La varianza de las poblaciones que se
están comparando debe ser aproximadamente igual. Esto se conoce
como homogeneidad de varianza. Puedes verificar esto mediante
pruebas como la prueba de Levene o la prueba de Bartlett.
Independencia de las observaciones: Las observaciones deben ser
independientes entre sí. Esto significa que el valor de una observación
no debe depender de los valores de otras observaciones en el mismo
grupo. En el caso de datos emparejados o relacionados, es importante
que la relación sea tenida en cuenta en el análisis.
Escala de medición: Las pruebas paramétricas son más adecuadas para
datos de escala, es decir, datos que se pueden medir en una escala
continua. Esto incluye datos de intervalo y datos de razón. No son
apropiados para datos categóricos o nominales.
Si los datos no cumplen con estas condiciones, es posible que sea más
apropiado utilizar pruebas no paramétricas, que son menos restrictivas
en términos de suposiciones. Las pruebas no paramétricas no dependen
de la normalidad o la homogeneidad de varianza y son más robustas en
presencia de datos que no cumplen con las condiciones paramétricas.

4
Sin embargo, las pruebas paramétricas tienden a ser más poderosas
cuando las condiciones se cumplen, lo que significa que pueden detectar
diferencias más pequeñas si se aplican correctamente.
Tipos de pruebas paramétricas: -
Prueba del valor Z de la distribución normal
Una prueba Z es una prueba de hipótesis basada en el estadístico Z,
que sigue la distribución normal estándar bajo la hipótesis nula. La
prueba Z más simple es la prueba Z de 1 muestra, la cual evalúa la
media de una población normalmente distribuida con varianza conocida.

Prueba T de Student para datos relacionados (muestras dependientes)
La prueba t de Student para muestras relacionadas permite comparar
las medias de dos series de mediciones realizadas sobre las mismas
unidades estadísticas.
Por ejemplo: la tasa fotosintética de 30 plantas es medida en dos
momentos durante el día: mañana y tarde. –
Prueba T de Student para datos no relacionados (muestras
independientes)
La prueba t de dos muestras (también llamada prueba t de muestras
independientes) es un método utilizado para probar si las medias de
población desconocidas de dos grupos son iguales o no. –
Prueba T de Student-Welch para dos muestras independientes con
varianzas no homogéneas
La prueba t de dos muestras (también llamada prueba t de muestras
independientes) es un método utilizado para probar si las medias de
población desconocidas de dos grupos son iguales o no. –
Prueba de Ji Cuadrada de Bartlett para demostrar la homogeneidad de
varianzas
El estadístico ji-cuadrado (o chi cuadrado), que tiene distribución de
probabilidad del mismo nombre, sirve para someter a prueba hipótesis
referidas a distribuciones de frecuencias. En términos generales, esta
prueba contrasta frecuencias observadas con las frecuencias esperadas
de acuerdo con la hipótesis nula. –
Prueba F (análisis de varianza o ANOVA).

5
La prueba ANOVA o análisis de varianza es un método estadístico que
permite descubrir si los resultados de una prueba son significativos, es
decir, permiten determinar si es necesario rechazar la hipótesis nula o
aceptar la hipótesis alternativa.
Algunas de las ventajas de las pruebas paramétricas son:
• Son más eficientes.
• Son perceptibles a las características de la información obtenida.
• Los errores son muy poco probables
• Los cálculos probabilísticos son muy exactos
Las desventajas de las pruebas paramétricas son:
• Los cálculos son difíciles de realizar
• Los datos que se pueden observar son limitados

6
7
III. CONCLUSIONES

 La Estadística paramétrica en conclusión sirven para una prueba de


hipótesis en donde se acepta si en el rango de aceptación en caso
contrario se rechaza, es decir, estadística paramétrica a las pruebas que
se basan en el muestreo de una población con parámetros específicos.
Las pruebas paramétricas tienen supuestos (requisitos) con respecto a
la naturaleza o forma de las poblaciones implicadas.

 Si se rechaza la hipótesis nula, puedes concluir que hay una diferencia


significativa entre los grupos o poblaciones bajo estudio. Si no se
rechaza la hipótesis nula, debemos concluir que no hay suficiente
evidencia para afirmar que exista una diferencia significativa entre los
grupos.

 Finalmente se deduce que la hipótesis de la estadística paramétrica


tiene como finalidad comprender diversos procesos estadísticos que se
basan en la obtención de datos reales, determinados bajo un número
infinito de parámetros, el cual se utiliza para resumir la cantidad de datos
provenientes de variables estadísticas.

8
IV. REFERENCIAS

 El dilema, R. o. no H. he A. (s/f). PRUEBA DE HIPÓTESIS.


[Link]. Recuperado el 10 de mayo de 2023, de
[Link]
ACAD

 EMICO/Unidad-2/complementarias/prueba_hipotesis_2012.pdfG
arcía, S. (s.f.). Ejercicios resueltos, toma de decisiones en
estadística:[Link]. [Link]:
[Link]

 Fisher, A. (2006). Statistical Methods For Research Workers.


[Link]
_Researc h_Workers.html?id=4bTttAJR5kEC&redi

 Guillen O.(2019) / estadísticas paramé[Link]


[Link]
primera-parte/

 Bronce, M. (2023). ¿Qué es una prueba Z? [Link].


[Link]
cs/basic-statistics/supporting-topics/tests-of-means/what-is-a-z-
test/

 Taylor, P. (2023). La prueba t. [Link].


[Link]

También podría gustarte