Notas de Clases 3
Notas de Clases 3
CHILECITO
ESTADISTICA
Año: 2024
CAPITULO Nº 3
Las medidas de resumen descriptivas son útiles para analizar e interpretar datos cuantitativos,
ya sean recolectados en serie simple (sin ordenarlos) o en datos agrupados (distribución de
frecuencia).
Las medidas de resumen descriptivas más importantes son:
Medidas de posición
Medidas de dispersión
Medidas de forma
Medidas de Posición
Son medidas que nos indican la posición que ocupa la distribución (histograma), sobre el eje
de las abscisas. Estas medidas permiten conocer diversas características de los datos.
Las medidas de posición son de dos tipos:
Medidas de posición central: informan sobre los valores medios de los datos.
Medidas de posición no centrales: informan de cómo se distribuye el resto de los valores.
n n
1 1
X Xi X X i
i 1 n i 1 N
n n
Xi X
X = ni X i ni
i 1 n i 1 N
1
Propiedades:
Z n
i 1
i i 0
Zi Xi X
b) La suma de los cuadrados de los desvíos con respecto a la media, debidamente ponderados,
da un MINIMO.
Z
i 1
i
2
* ni Minimo
c i
X (c ) i 1
c
n
d) La media de una constante por una variable es igual a la constante por la media de la
variable.
c Xi * n i i
X (c * Xi ) i 1
c* X
n
e) La media de una variable más una constante es igual a la media de la variable más la
constante.
c Xi * n i i
X (c Xi ) i 1
c X
n
f) La media de una muestra es igual a la media de las medias de las sub muestras calculada
con ponderaciones iguales a los tamaños de las sub muestras.
g) La media aritmética de una suma de variables, que están expresadas en la misma unidad
de medida, es igual a la suma de las medias aritméticas de cada una de las variables.
2
Mediana: es el valor de los datos que se sitúa justamente en el centro de la muestra (un 50%
de valores son inferiores y otro 50% son superiores). Simbólicamente se la representa como
Me.
Una alternativa para su cálculo es seguir los siguientes pasos (para serie simple):
n 1
UbMe
2
x( n /2) x( n /2) 1
ubme
2
Ejemplo: Se una muestra de 10 observaciones en relación a los ingresos con que cuenta un
estudiante de Economía para administrar en el transcurso de un mes.
n
1
X Xi
i 1 n
x = 2940 = 294
10
La mediana seria:
a) 250 260 280 290 300 300 300 310 320 330
3
n 1 10 1 300 300
b) UbMe 5.5 ; Me 300
2 2 2
La moda seria:
Mo 300
Medidas de Dispersión
Son aquellas medidas que nos indican cuan concentrada o cuan dispersa esta la distribución
de la variable (histograma).
Rango (recorrido): Es la sencilla, pero también suele no ser la más correcta de las medidas
para reflejar la dispersión. Es la diferencia entre el mayor y el menor de los valores de la
variable.
RI= Q3 – Q1
Varianza: es la medida más utilizada de las medidas de dispersión. Se define como “la media
aritmética del cuadrado de los desvíos respecto de la media aritmética de la variable.
Simbólicamente se la expresa como Var (x), sX2 o X2 .
4
n
(X i X )2
sX2 i 1
n 1
(X i X )2 * ni
sX2 i 1
n 1
Varianza muestral para datos agrupados
(X i X )2
X2 i 1
N
Varianza poblacional para serie simple
(X i X ) 2 * ni
X2 i 1
Observación:
Propiedades:
a) La varianza de una variable es siempre No negativa.
Var ( Xi) 0
Var(c) 0
c) La varianza de una constante por una variable es igual al cuadrado de la constante por la
varianza de la variable.
5
d) La varianza de una variable más o menos una constante es igual a la varianza de la variable.
e) La varianza de una suma o diferencia de variables, que son independientes entre sí, es igual
a la suma de sus varianzas.
s Var ( Xi )
s
CV ( x) *100
X
0 ≤ CV(x) < + ∞
Ejemplo: Se una muestra de 10 observaciones en relación a los gastos que tiene un estudiante
de Economía en el transcurso de un mes en concepto de fotocopias.
El Rango seria:
R = valor máximo – valor mínimo = 35 – 20 = 15
6
Para el cálculo de la varianza hacemos lo siguiente:
La varianza seria:
(X i X )2
159.60
sX2 i 1
17.33333
n 1 9
s 17.3333 4.21109
4.21109
CV ( x) *100 14.93%
28.2
7
Medidas de Asimetría
M(x) = Me = Mo Simetría
M(x) >Me > Mo Asimetría a la derecha
M(x) < Me < Mo Asimetría a la izquierda
El coeficiente de Pearson es una expresión matemática (no la única) que nos da una idea de
la simetría de una distribución. El mismo se define de la siguiente manera:
X Mo
Ap
s
Este coeficiente se encuentra entre - 3 < A(p) < + 3 . Un valor del coeficiente cercano a cero
nos indicaría presencia de simetría en la distribución. Un valor del coeficiente cercano a 3
nos indicaría asimetría positiva y viceversa si el coeficiente es cercano a -3.
8
CAPITULO Nº 4
Uno de los objetivos del análisis estadístico es encontrar las relaciones que existen entre un
grupo de variables (análisis multivariado). Supondremos inicialmente, para simplificar, que
el conjunto de datos contiene los valores de dos variables (x,y), o sea un distribución
bidimensional.
Para pasar a una distribución de frecuencias Absoluta tendríamos que fijarnos en los pares
de valores repetidos que tiene la serie simple y colocarlos en una tabla. La suma de todas las
frecuencias absolutas debe dar el total de las observaciones.
Distribución conjunta
Llamaremos distribución conjunta de frecuencia de dos variables (x,y) a una tabla que
representa los valores observados de ambas variables y las frecuencias relativas de aparición
de cada par de valores. Simbólicamente la expresaremos como:
fr ( xi, yj )
La suma de todas las frecuencias relativas del interior de la tabla debe ser igual a uno.
n n
i 1 j 1
fr ( xi. yj ) 1
Ejemplo: sea una muestra de 282 observaciones obtenida de una eph (encuesta permanente
de hogar). De dicha muestra se analizará la relación que existe entre el estado civil de una
persona y su nivel de estudio.
Frecuencias relativas
Estado civil
Nivel educación 1 2 3 4 5 Total
1 0,06 0,2 0,04 0,12 0,03 0,45
2 0,03 0,16 0,06 0,01 0,02 0,28
3 0,02 0,14 0,03 0,01 0,07 0,27
Total 0,11 0,49 0,13 0,15 0,12 1
9
Distribuciones marginales
Se denomina distribución marginal de una variable a la obtenida al estudiar la variable
aisladamente, con independencia del resto. Se obtiene a partir de la distribución conjunta
acumulando en los márgenes de la tabla la suma de las frecuencias relativas de las filas o
columnas. Simbólicamente la expresaremos como:
n
fr ( xi) fr ( xi, yi)
j 1
Por ejemplo, la distribución marginal del estado civil toma cinco posibles valores, 1, 2, 3, 4
y 5 con frecuencias relativas 0.11, 0.49, 0.13, 0.15, 0.12
Distribuciones Condicionadas
La distribución condicionada de y para x=xi (es decir para un valor particular de x), es la
distribución univariante de la variable y que se obtiene considerando solo los elementos que
tienen para la variable x el valor xi. Puede obtenerse de la distribución conjunta dividiendo
las frecuencias relativas de la línea definida por x=xi por su suma. Simbólicamente la
expresaremos como:
fr ( xi, yi )
fr ( yi / xi )
fr ( xi )
Para el ejemplo que venimos siguiendo la distribución condicionada del nivel de educación
(y), dada un valor particular de la variable estado civil (x=1), es el siguiente.
Estado civil
Nivel educación 1
1 0.06/0.11= 0,55
2 0.03/0.11= 0,27
3 0.02/0.11= 0,18
Total 1
Frecuencias absolutas
Estado civil (x)
Nivel educación (y) 1 2 3 4 5 Total
1 17 55 11 35 8 126
2 9 44 16 3 7 79
3 6 39 9 4 19 77
Total 32 138 36 42 34 282
Cuando trabajamos con variables numéricas en una distribución conjunta podemos obtener
medidas descriptivas.
10
Media Aritmética:
Medias Marginales:
n n
y1i * n3i y1 * ni
i
M ( y1/ x3) i 1
M ( y1) i 1
n3. n
o sea, son las que se obtienen sobre las distribuciones marginales de cada variable.
Medias Condicionadas:
y1 * n3ii
M ( y1/ x3) i 1
n3.
Media general:
CAPITULO Nº 5
INTRODUCCION A LA PROBABILIDAD
11
Concepto de fenómenos aleatorios: son aquellos de resultados incierto, que pueden
presentarse de una forma u otra, sin que podamos saber anticipadamente que forma final
tendrán, por ejemplo, el nacimiento de un bebe, puede ser hombre o mujer, es decir no
sabemos anticipadamente el resultado del sexo del bebe.
Experimento aleatorio
Definimos experimento: como un proceso que genera resultados bien definidos. Ejemplos.
Por ejemplo: el sexo de un bebe recién nacido, sería un fenómeno aleatorio y su espacio
muestral seria:
S= (varón, mujer)
Dicho espacio muestral dos puntos muéstrales o eventos, es decir el evento que se varón o el
evento que sea mujer.
S= (cara, cruz)
S= (1, 2, 3, 4, 5, 6)
Reglas de conteo
Así vemos que son posibles cuatros resultados experimentales, en este caso no es difícil listar
a todos.
b) Combinaciones: una segunda regla de conteo que con frecuencia es de utilidad, permite
contar la cantidad de resultados experimentales cuando en un experimento se deben
seleccionar n objetos entre un conjunto de N objetos (por lo común más grande). Se llama
regla de conteo para combinaciones.
Regla de conteo para combinaciones
N!
CnN
n !( N n)!
13
5!
C25
2!(5 2)!
1 2 3 4 5
(1 2) (1 2 3)
120
12
10
c) Permutaciones: esta regla de conteo permite que uno pueda calcular el número de
resultado experiméntale al seleccionar n objetos de un conjunto de N objetos, donde es
importante el orden de selección. Si los mismos n objetos se seleccionan en otro orden se
considera que se trata de un resultado experimental distinto.
N!
PnN
( N n)!
d) Variaciones: esta regla de conteo permite que uno pueda calcular el número de formas en
los cuales se puede arreglar en orden un conjunto de objetos. Por ejemplo, si se va arreglar
un conjunto de seis libros en una estantería, ¿Cómo se puede determinar el número de formas
en que se puede arreglar los seis libros?
14
n! = n(n-1)…… (1)
n! = (6)(5)(4)(3)(2)(1)
n! = 720
Asignación de probabilidades
Los dos métodos más comunes son el clásico el de frecuencia relativa. Las probabilidades
asignadas deben satisfacer dos requerimientos básicos de probabilidad:
2. La suma de las probabilidades para los resultados experimentales debe ser igual a
uno.
El método de frecuencia relativa: es apropiado cuando se cuenta con datos para estimar la
proporción del tiempo en que ocurra el resultado experimental si el experimento se repite un
número de veces. Es un método de asignación a posteriori.
Ejemplo, considere un estudio de tiempo de espera en el departamento de rayos X de un
hospital local, el número de paciente que espera ser atendidos a la 9:00 hs.
Se registró durante 20 días sucesivos
15
Numero de paciente Número de días que ocurrió
0 2
1 5
2 6
3 4
4 3
Total=20
2
Con el método de frecuencia relativa, asignaremos un probabilidad de 0.10 al resultado
20
5
experimental de cero paciente en espera del servicio, 0.25 para el resultado de un
20
6 4 3
paciente en espera, 0.30 para dos, 0.20 para tres y 0.15 para cuatro
20 20 20
pacientes en espera.
Siempre que podamos identificar a todos los puntos muéstrales de un experimento y asignar
las probabilidades a cada uno, podemos calcular la probabilidad de un evento por medio de
la definición.
Dado un evento A, el complemento de A se define como el evento formado por todos los
puntos muéstrales que no están en A, se representa con A´
16
En consecuencia, tenemos:
P (A)+ P (A´) = 1
P (A) = 1- P (A´)
Ejemplo: un gerente de ventas que, después de revisar los informes de ventas, dice que 80%
de los contactos con nuevos clientes no resultan en venta alguna. Si se define a A como el
evento de una venta y A´ el de no venta, lo que el gerente dice es que P (A´) = 0.80 al aplicar
la relación de probabilidad tenemos:
Podemos concluir que la probabilidad de que se haga una venta al entrar en contacto con un
nuevo cliente es 0.20
Ley aditiva
La ley aditiva es útil cuando se tienen dos eventos y se desea conocer la probabilidad de que
ocurra al menos uno de ellos o ambos.
Antes de presentar la ley aditiva, necesitamos analizar dos conceptos relacionados con la
combinación de eventos: dados dos eventos A y B, la unión de A y B se define como sigue:
Unión de eventos: la unión de A y B es el evento que contiene todos los puntos muéstrales
que pertenece a A o B o a ambos, la unión de A y B se representa A B
La ley aditiva es útil para calcular la probabilidad de la unión de dos eventos A U B, esta
ley se enuncia como sigue:
P( A B) P( A) P(B) P( A B)
Ejemplo: Se espera que cada trabajador termine a tiempo sus labores de trabajo, además de
que el producto armado pase una inspección final, a veces, algunos de los trabajadores no
pueden cumplir con los estándares de desempeño porque terminan sus trabajos tarde y / o
arman productos defectuosos. Al terminar un periodo de evolución de desempeño, el gerente
de producción vio que 5 de los 50 trabajadores habían terminado tarde su trabajo, que 6 de
los 50 habían armado productos defectuosos y que 2 habían terminado el trabajo tarde y
también habían armado productos defectuosos.
17
Sean:
5
P( A) 0.10
50
6
P( A) 0.12
50
2
P( A B) 0.04
50
El gerente de producción optó por asignar una mala calificación de desempeño al empleado
cuyo trabajo se representa tarde o fuera defectuoso, el evento de interés es A B . ¿Qué
probabilidad hay de que asigne una mala clasificación un empleado? Podemos escribir:
P( A B) P( A) P(B) P( A B)
Este cálculo indica una probabilidad de 0.18 de que un empleado elegido al azar reciba
una mala calificación de desempeño
Antes de terminar nuestra descripción de la ley aditiva, veamos un caso especial que surge
con los eventos mutuamente excluyentes.
Eventos mutuamente excluyentes: se dice que dos eventos son mutuamente excluyentes si
no tiene puntos muéstrales en común (no tienen intersección).
Esto es, los eventos A y B son mutuamente excluyentes si, cuando ocurre uno, el otro no
puede ocurrir es decir P( A B) 0 y la ley aditiva se puede expresar como sigue:
P( A B) P( A) P(B)
18
Probabilidad condicional
Sean
Dividiendo los valores de los datos de la tabla entre el total de 1200 oficiales podemos
resumir la información disponible en los siguientes valores de probabilidad
288
P( M A) 0.24 la probabilidad de que un oficial
1200
seleccionado al azar sea hombre y también que sea ascendido.
19
672
P( M A) 0.56 la probabilidad de que un oficial
1200
seleccionado al azar sea hombre y también que no sea ascendido.
36
P(W A) 0.03 la probabilidad de que un oficial
1200
seleccionado al azar sea mujer y también que sea ascendido
204
P(W A) 0.17 la probabilidad de que un oficial
1200
seleccionado al azar sea mujer y también que no sea ascendido
Como cada uno de esos valores expresa la probabilidad de la intersección de dos eventos, las
probabilidades se llaman probabilidades conjuntas. La tabla se llama tabla de
probabilidad conjunta. Los valores en los márgenes de la tabla de probabilidad conjunta
muestra por separado las probabilidades de cada evento. Esto es, P (M)= 0.80, P (W)= 0.20,
P (A)=0.27 y P (A´) =0.73, esas probabilidades se llaman probabilidades marginales, se
determina sumando las probabilidades conjuntas de un mismo renglón o columna de esta
tabla. Por ejemplo, la probabilidad marginal de ser ascendido es P (A)= P (M ∩ A) + P (W
∩ A) = 0.24 + 0.03= 0.27.
Vemos, en las probabilidades marginales, que el 80% de la policía son hombres, que 20%
son mujeres, que el 27% de todos los oficiales recibieron ascenso y que el 73% no lo
recibieron.
20
288
P( A / B)
960
288
P ( A / B ) 1200
960
1200
0.24
P( A / B)
0.80
P ( A / B ) 0.30
P(A/M) se pude calcular como 0.24/0.80, que 0.24 es la probabilidad conjunta de A y M esto
288
es, P( M A) 0.24 y que 0.80 es la probabilidad marginal de que un oficial
1200
seleccionado al azar, esto es P (M)= 0.80. Así la probabilidad condicional P(A/M) se puede
calcular como la relación de la probabilidad conjunta, P( A M ) entre la probabilidad
marginal P (M).
P ( A M ) 0.24
P( A / M ) 0.30
P( M ) 0.80
El hecho de que se pueda calcular las probabilidades condicionales como la relación de una
probabilidad conjunta entre una probabilidad marginal justifica la siguiente ecuación general
de los cálculos de probabilidad condicional para dos eventos, A y B.
P( A M )
P( A / B)
P( B)
o sea
P ( B A)
P ( B / A)
P ( A)
P( A W ) 0.03
P( A / W ) 0.15
P(W ) 0.20
21
¿A qué conclusiones llega usted? la probabilidad de una promoción, dado que el oficial es
hombre es de 0.30, el doble de la probabilidad de 0.15 de una promoción, dado que el oficial
es mujer. El empleo de la probabilidad condicional no demuestra por sí mismo que exista
discriminación en este caso, los valores de la probabilidad si respalda la demanda presentada
por las oficiales mujeres.
Eventos independientes
En especial, cuando la P (A/M) ≠ P (A), diríamos que los eventos A y M son dependientes.
Esto es, la probabilidad de evento A (ascenso) se altera o cambia por conocer que ocurrió en
el evento M (el oficial es hombre). Igualmente, con P (A/W) ≠ P (A), diríamos que los
eventos A Y W son dependientes. Sin embargo, si no cambia la probabilidad del evento A
por la ocurrencia del evento M, esto es, la P (A/M) = P (A) diríamos que A y M son eventos
independientes. Esta situación de lugar a la siguiente definición de la independencia entre
dos eventos.
Eventos independientes
P (A/B) = P(A)
o sea
P (B/A) = P (B)
Ley multiplicativa
Ley multiplicativa
P( A B) P(B)* P( A / B)
O también
P( A B) P( A)* P( B / A)
Suponga que en el departamento de circulación de un diario se sabe que el 84% de las familias
de una determinada colonia tiene una suscripción para recibir el periódico de lunes a sábados,
22
D represente el evento de una familia tiene tal tipo de suscripción, P(D)= 0.84. Se sabe que
a la probabilidad de que una familia, también se suscriba a la edición dominical (evento S)
es de 0.75, esto es, P(S/D) = 0.75 ¿cuál es la probabilidad de que la suscripción de una familia
incluya tanto a la edición dominical como a la de lunes a sábados? Con la ley multiplicativa
calculamos P (S ∩ D) =como sigue:
Antes de termina esta sección, estudiaremos el caso de la ley multiplicativa cuando los
eventos implicados en ella son independientes
P( A B) P( A)* P(B)
Como una aplicación de la ley multiplicativa para eventos independientes, veamos el caso de
un gerente de una gasolinera que sabe, por su experiencia, que el 80% de sus clientes usan
tarjeta de créditos al comprar gasolina. ¿Cuál es la probabilidad de que los dos clientes
siguientes que compre gasolina usen tarjeta de créditos? Si hacemos que
23