0% encontró este documento útil (0 votos)
58 vistas9 páginas

Introducción a la Estadística Descriptiva

La estadística descriptiva se encarga de recoger, almacenar y analizar datos de manera cuantitativa, proporcionando medidas de tendencia central, dispersión y posición. Se distingue entre variables cualitativas y cuantitativas, y se utilizan diversas fórmulas para resumir la información. La prueba de Kolmogorov-Smirnov se utiliza para determinar si una muestra sigue una distribución teórica, y se basa en la comparación de la distribución empírica con una distribución normal.

Cargado por

Maria José
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
58 vistas9 páginas

Introducción a la Estadística Descriptiva

La estadística descriptiva se encarga de recoger, almacenar y analizar datos de manera cuantitativa, proporcionando medidas de tendencia central, dispersión y posición. Se distingue entre variables cualitativas y cuantitativas, y se utilizan diversas fórmulas para resumir la información. La prueba de Kolmogorov-Smirnov se utiliza para determinar si una muestra sigue una distribución teórica, y se basa en la comparación de la distribución empírica con una distribución normal.

Cargado por

Maria José
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

ESTADÍSTICA DESCRIPTIVA

La estadística descriptiva es una disciplina que se encarga de recoger, almacenar,


ordenar, realizar tablas o gráficos y calcular parámetros básicos sobre el conjunto
de datos.

La estadística descriptiva es, junto con la inferencia estadística o estadística


inferencial, una de las dos grandes ramas de la estadística. Su propio nombre lo
indica, trata de describir algo. Pero no describirlo de cualquiera forma, sino de
manera cuantitativa. Pensemos en el peso de una caja de verduras, en la altura de
una persona o en la cantidad de dinero que gana una empresa. De estas variables
podríamos decir muchas cosas. Por ejemplo, podríamos indicar que esta o aquella
caja de tomates pesan mucho o pesan menos que otras. Siguiendo con otro
ejemplo, podríamos decir que el ingreso de una empresa varía mucho a lo largo
del tiempo o que una persona tiene una altura promedio.

Para dictar las afirmaciones anteriores, sobre mucho, poco, alto, bajo, muy
variable o poco variable necesitamos variables de medidas. Esto es, necesitamos
cuantificarlas, ofrecer un número. Con esto en mente, podríamos utilizar los
gramos o los kilogramos como unidad de medida para saber el peso de tantas
cajas de tomates como consideremos. Una vez pesemos treinta cajas, sabremos
cuales pesan más, cuales pesan menos, que cuantía es la que más se repite o si
existe mucha disparidad entre los pesos de las diferentes cajas.

Con esta idea nace la estadística descriptiva, con la de recoger datos,


almacenarlos, realizar tablas o incluso gráficos que nos ofrezcan información
sobre un determinado asunto. Adicionalmente, nos ofrecen medidas que resumen
la información de una gran cantidad de datos.

TIPOS DE VARIABLES ESTADÍSTICAS

Dentro de la estadística descriptiva, podemos describir los datos de manera


cualitativa o cuantitativa.
 Variable cualitativa: Hace referencia a una cualidad. Ejemplos: el color de
ojos de una persona o el color de pelo.
 Variable cuantitativa: Hace referencia a una medida cuantitativa. Ejemplos:
la altura de una persona en centímetros o el peso de una persona en
kilogramos.

Parámetros estadísticos básicos:

Con el objetivo de resumir la información, se idearon diversas fórmulas que


ofrecían medidas de un determinado tipo. Así, están aquellas que nos ofrecen
información sobre el centro, otras sobre la dispersión o variabilidad y otras sobre la
posición de un valor.

 Medidas de tendencia central: Denominadas así porque ofrecen


información sobre el centro de conjunto de datos. Por ejemplo, la media es
una medida de tendencia o posición central ya que el promedio nos ofrece
un valor centrado del conjunto de datos. ¿Dónde podríamos decir que se
encuentra el punto medio? En el centro, en la mitad aproximadamente. Otro
ejemplo de medida de tendencia central es la mediana.
 Medidas de dispersión: También son conocidas como medidas de
variabilidad. Por ejemplo, la desviación típica es una medida de variabilidad
ya que nos dice si los valores de un conjunto de datos son muy dispares o
no. Dos ejemplos más sobre medidas de dispersión podrían ser la varianza
y el rango estadístico.
 Medidas de posición: No son las más conocidas, pero se utilizan
frecuentemente. Un ejemplo de ello, se encuentra en los percentiles o los
deciles. Cuando un dato en concreto se encuentra en el percentil 90, quiere
decir que por debajo de ese dato se encuentran el 90% de datos. Existen
otras medidas de posición como los cuartiles o algunas variantes como el
primer cuartil.
PRUEBA DE KOLMOGÓROV-SMIRNOV PARA AJUSTE DE UNA
DISTRIBUCIÓN DE PROBABILIDADES CONTINUA HIPOTÉTICA

Es una prueba de bondad de ajuste.

Se emplea en una muestra independiente. El tipo de variable es cuantitativa


continua (debe ser medida en escala al menos ordinal). Esta prueba responde a la
pregunta: ¿Ajusta la distribución empírica de datos muestrales de una variable
ordinal o cuantitativa a una distribución teórica conocida? Esta prueba no requiere
que los datos sean agrupados, lo que permite que ésta haga uso de toda la
información del conjunto de datos. Puede utilizarse con muestras de cualquier
tamaño (mientras que la X2 requiere que las muestras tengan un tamaño mínimo).

Hipótesis:

H0: F(x) = FT(x) para toda x desde - ∞ hasta + ∞

H1: F(x) ≠ FT(x) para al menos una x

Como es una prueba de bondad de ajuste aquí interesa no rechazar la hipótesis


nula, es decir, interesa que el valor de p sea mayor de 0,05 para no rechazar la
hipótesis nula (queremos que p > 0,05).

EJEMPLO:

Se efectuaron mediciones del nivel de glucemia de 36 hombres adultos en ayuno,


no obesos y aparentemente sanos. Estas mediciones se muestran en la tabla que
se presenta. Se pretende saber si es posible concluir que tales datos no
pertenecen a una población que sigue una distribución normal, con una media de
80 y una desviación típica de 6. Emplee un α = 0,05.
Respuesta:

Supuestos: La muestra disponible es una muestra aleatoria simple que se extrajo


de una población que sigue una distribución continua.

Hipótesis:

H0: F(x) = FT(x) para toda x desde - ∞ hasta + ∞

H1: F(x) ≠ FT(x) para al menos una x

Ahora abrimos el programa SPSS y vamos a la Vista de datos para introducir los
datos del ejemplo. Debe quedarles así:

Ahora en la Vista de variables introducimos el nombre de


la variable, su etiqueta (que es el nombre real de nuestra
variable) y ponemos en Medida la Escala pues se trata
de una variable cuantitativa continua. Debe quedarles
así:
Ahora vamos al menú Analizar y damos un clic ahí, luego saldrá un menú
desplegable y nos desplazamos hacia debajo de ese menú con el mouse y donde
dice Pruebas no paramétricas nos paramos y saldrá otro menú desplegable ahora
hacia la derecha y con el mouse vamos hacia donde dice Cuadros de diálogo
antiguos y nos paramos ahí y entonces saldrá otro menú desplegable que dice K-
S de 1 muestra y ahí damos un clic. Debe quedarles así:
Ahora saldrá una ventana como la siguiente:

Ahora activaremos la variable nuestra (Valores de glucemi…) dándole un clic


sobre ella y la pondremos en el cuadro de la derecha debajo donde dice Lista
Contrastar variables: Deben dejar activada la opción Normal, es decir, no
desmarcarla. Debe quedarles así:
Ahora en el botón Opciones… pueden darle un clic y marcar con otro clic donde
dice Descriptivos:

Luego dan clic en el botón Continuar. Ahora dan clic en Aceptar y saldrán los
siguientes resultados:
Interpretación: en la tabla titulada Estadísticos descriptivos vemos que la media
de los valores de glucemia de los pacientes estudiados fue de 80,08 (no se les
olvide poner aquí la unidad de medida de la variable), con una desviación estándar
de 6,199 ((no se les olvide poner la unidad de medida de la variable). En la tabla
titulada Prueba de Kolmogorov-Smirnov para una muestra puede verse el valor del
estadígrafo que es Z de Kolmogorov-Smirnov (cuyo valor fue de 0,981). Ahora
vemos el valor de p (Sig. asintót. (bilateral)) fue de 0,291. Como el valor de p fue
mayor que 0,05 no s e rechaza la hipótesis nula y se concluye que hay evidencias
suficientes para pensar que la muestra proviene de la distribución especificada,
con un nivel de significación del 5%.
REFERENCIAS:

Lopez, J. F. (s.f.). Economipedia. Obtenido de Estadística descriptiva:


[Link]

Prueba Kolmogorov-Smirnov para una muestra. (s.f.). Obtenido de


[Link]
muestra.-[Link]

También podría gustarte