ESTADÍSTICA II
José Zambrano
Distr. Variables Aleatorias
Discretas
Tema IV: Distribución de Bernoulli. Distribución binomial.
Distribución geométrica. Distribución hipergeométrica.
Distribución multinomial. Distribución de Poisson.
2
Llamaremos distribución de Bernoulli aquella que resulta de un
experimento donde se observa elementos de una población, con las
siguientes características:
1. Los resultados solo admite dos posibles resultados, que
llamaremos E (Éxito) y F (fracaso).
2. La proporción de elementos de E y F en la población es constante
y no se modifica cualquiera sea la cantidad observada. Esto
implica que la población es finita, los elementos se reemplazan
una vez observados. Llamaremos “p” a la probabilidad de éxito, y
“q=1-p” a la probabilidad de fracaso.
3. Las observaciones son independientes, es decir, la probabilidad de
éxito es siempre la misma y no se modifica por cualquier
combinación de elementos observados.
Distribución Bernoulli. 3
Función de Probabilidad:
Distribución de Bernoulli
𝑃 𝑋 = 𝑝 𝑥 ∗ (1 − 𝑝)1−𝑥 , con x=0,1.
Definamos la variable aleatoria de Bernoulli por:
1 𝑠𝑖 𝑒𝑠 é𝑥𝑖𝑡𝑜
X=
0 𝑠𝑖 𝑒𝑠 𝑓𝑟𝑎𝑐𝑎𝑠𝑜
𝑝 𝑠𝑖 𝑥 = 1
Se dice que la v.a X se distribuye como una Bernoulli de
𝑃(𝑋 = 𝑥; 𝑝) 𝑞 𝑠𝑖 𝑥 = 0
parámetro “p”. Es decir, 𝑋~𝐵𝑒(𝑝).
0 𝑒𝑛 𝑐𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜 (𝑐. 𝑜. 𝑐)
Su función de probabilidad viene definida por: Su media es:
Tarea: Calcular la media y varianza de esa distribución.
𝜇=𝐸 𝑋 =𝑝
Su Varianza es: 𝜎 2 = 𝑉𝐴𝑅 𝑋 = 𝑝 ∗ 𝑞
Ejemplos: Observar el sexo de un recién nacido, si
un cliente está satisfecho o no con un servicio, la
4
aparición de un elemento defectuoso en una
fabricación, etc.
Función de Probabilidad:
Distribución Binomial
𝑛
La variable aleatoria Binomial se 𝑃 𝑌=𝑘 = 𝑘
𝑝𝑘 ∗ (1 − 𝑝)𝑛−𝑘 , con k=0,1,…..n.
define como n-veces un proceso de
Bernoulli:
Su media es:
y= número de éxitos en n-intentos.
Se dice que la v.a “Y” se distribuye 𝜇 =𝐸 𝑌 =𝑛∗𝑝
como una Binomial de parámetro “n
Su Varianza es: 𝜎 2 = 𝑉𝐴𝑅 𝑌 = 𝑛 ∗ 𝑝 ∗ 𝑞
y p”. Es decir, Y~𝐵(𝑛, 𝑝).
Nota: Cuando p=q=0.5 decimos es completamente
Su función de probabilidad viene
definida por: simétrica
Tarea: Calcular la media y varianza
de esa distribución.
5
𝑷 𝒀 ≥ 𝟔 =?
9 9
EJEMPLO Binomial 𝑃 𝑌≥6 = 𝑘=6 𝑘 0.95𝑘 ∗ 0.059−𝑘 ,con k=6,…..9.
Supongamos que un sistemna de fabricación con 9
componentes que require para su funcionamiento que 9 9 9
al menos 6 estén disponibles. Si la probabilidad de = 6
0.956 ∗ 0.053 + 7
0.957 ∗ 0.052 + 8
0.958 ∗
funcionamiento de un componente es de 0.95, calcular
la fiabilidad del sistema (probabilidad de que funcione).
9
Sea y: que funcione un componente de los
componentes.
9
0.051 + 9
0.959 ∗ 0.050 = 0.9917
La probabilidad que estén disponibles 6 o más
componentes será: Su media es:
𝑷 𝒀 ≥ 𝟔 =?
𝜇 = 𝐸 𝑋 = 9 ∗ 0.95 =8.55
Su Varianza:
𝜎 2 = 𝑉𝐴𝑅 𝑋 = 9 ∗ 0.95 ∗ 0.05 =0.4275
6
BernuOLLI y Binomial
7
Resolución de Problema
Binomial
8
Resolución de Problema
Binomial
9
Resolución de Problema
Binomial
10
Función de Probabilidad:
Distribución GEOMÉTRICA
𝑃 𝑋 = 𝑘 = 𝑝 ∗ (1 − 𝑝)𝑘−1 , con k=,1,2…..
La distribución geométrica es un
modelo adecuado para aquellos
procesos en los que se repiten
pruebas hasta la consecución del un Observemos que a diferencia de la variable
éxito a resultado deseado y tiene binomial, el conjunto de valores posibles de la
interesantes aplicaciones en los
muestreos.
variable geométrica es ilimitado.
Consideremos el mismo mecanismo ∞ ∞
de generación de sucesos que en el
modelo binomial, pero en lugar de
𝑃 𝑋=𝑘 =𝑝∗ (1 − 𝑝)𝑘−1 = 1
contar el número de éxito en una 1 𝑖
muestra de n, consideremos:
1
x= Número de elementos hasta el 𝜇=𝐸 𝑋 =
primer éxito. 𝑝
Para calcular su función de 𝑞
probabilidades, observemos que x Su Varianza es: 𝜎 2 = 𝑉𝐴𝑅 𝑋 =
11
𝑝2
tomará el valor “k” únicamete en el
suceso: F…..F(n-1).E
𝑷 𝑿 > 𝟒 = 𝟏 − 𝑷 𝑿 ≤ 𝟒 =?
EJEMPLO geométrico
4
Una pareja decide tener hijos hasta el Nacimiento de la
1-𝑃 𝑋 ≤ 4 = 1 − 𝑘=1 0.5 ∗ 0.5𝑘−1
primera niña. Calcular la probabilidad de que tenga más
de 4 hijos.[Tomar la P(niño)=P(niña)=1/¨2].
Sea X número de hijos antes de la primera niña.
=1-0.9375=0.0625
Entonces X es una variable geométrica; por tanto:
𝑷 𝑿 > 𝟒 = 𝟏 − 𝑷 𝑿 ≤ 𝟒 =?
Su media es:
1
𝜇=𝐸 𝑋 = =2
0.5
Su Varianza:
0.5
𝜎2 = 𝑉𝐴𝑅 𝑋 = 2 =2
0.5
12
𝑑
∗ 𝑁−𝑑
Distribución Hipergeométrica Función de Probabilidad: 𝑃 𝑋 = 𝑘 =
𝑘 𝑛−𝑘
𝑁
La distribución binomial es 𝑛
apropiada sólo si la probabilidad de
un éxito permanece constante para N: Tamaños de la población
cada intento. Esto ocurre cuando el
d: Número de éxitos en la población
muestreo se realiza con reemplazo o
de una población finita (o muy (Característica deseada).
grande). Sin embargo, si la n: Tamaño de la muestra.
población es pequeña y ocurre sin k: Número de éxito en la muestra (Característica
reemplazo, la probabilidad de éxito deseada).
variará. Si la probabilidad de un
éxito no es constante, la
distribución hipergeométrica es de 𝑛𝑑
𝜇=𝐸 𝑋 =
gran utilidad. 𝑁
x= Número de éxitos en una muestra
𝑁−𝑛 𝑛𝑑 𝑑
de tamaño “n” sin reemplazo. Varianza es: 𝜎 2 = 𝑉𝐴𝑅 𝑋 = * * 1−
𝑁−1 𝑁 𝑁
13
4
2 ∗ 10−4
3−2 6∗6
EJEMPLO Hipergeométrica 𝑷 𝑿=𝟐 = 10 =
Supongamos que en un establo de caballos hay 10 3 120
=0.30
caballos, y 4 de ellos tienen COVID19. ¿Cuál es la
probabilidad de seleccionar una muestra de 3
ejemplares en la cual 2 de ellos esten enfermos¨?
Sea X número de caballos enfermos en la muestra:
𝑷 𝑿 = 𝟐 =?
Su media es:
3∗4
𝜇=𝐸 𝑋 = =1.2
10
Su Varianza:
2 7 12 4
𝜎 = 𝑉𝐴𝑅 𝑋 = ∗ *(1- ) = 0.56
9 10 10
14
EJEMPLO 2 Hipergeométrica
TAREA
15
𝜆𝑘 −𝜆
Distribución Poisson Función de Probabilidad: 𝑃 𝑋=𝑘 = ℮
𝑘!
La distribución Poisson aparece
como límite de la distribución para k=0,1,2,….
binomial si suponemos que el
número de elementos observados es
muy grande pero que la probabilidad
de observar la característica
estudiada de cada elemento es muy
𝜆: 𝐶𝑜𝑚𝑜 𝑒𝑙 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑒𝑥𝑖𝑡𝑜𝑠 𝑚𝑒𝑑𝑖𝑜
pequeña. 𝑝𝑜𝑟 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜 𝑑𝑒 𝑡𝑖𝑒𝑚𝑝𝑜.
x= número de sucesos en un interval 𝜇=𝐸 𝑋 =𝜆
de longitud fija.
Varianza es: 𝜎 2 = 𝑉𝐴𝑅 𝑋 = λ
16
20 −2 𝜇=𝐸 𝑋 =2
EJEMPLO Poisson 1. 𝑷 𝑿 = 𝟎 = 0!
℮
𝜎 2 = 𝑉𝐴𝑅 𝑋 = 2
=0.14
Las llamadas por averias en un puesto de servicio
siguen una distribución de Poisson de media dos
averías/semana. Calcular la probabilidad de:
1. Ninguna avería en una semana.
2.
3.
Menos de 5 averías por semana.
Menos de seis en un mes (cuatro semanas).
2.
Sea X número de averías reportadas en una semana : 𝑷 𝑿≤𝟒 =
22 23 24
℮−2 * 1 + 2 + 2!
+
3!
+
4!
=0.947
3.
𝑷 𝑿≤𝟓 𝝀=𝟖 =
−8 82 83 84 85
℮ * 1+8+ 2!
+
3!
+
4!
+
5!
=0.191
17
EJEMPLO Poisson
TAREA
18
Función de Probabilidad:
Distribución Multinomial
En teoría de probabilidad, la 𝑛!
distribución multinomial es una 𝑃1 𝑥1 …𝑃𝑘 𝑥𝑘
𝑃 𝑋1 = 𝑥1 ∩ 𝑋2 = 𝑥2 ∩ …𝑋𝑘 = 𝑥𝑘 𝑥1 ! 𝑥2 ! … … 𝑥𝑘 !
generalización de la distribución
binomial. 0 𝑐. 𝑜. 𝑐
La distribución binomial es la
probabilidad de un número de éxitos Su media es:
en N sucesos de Bernoulli
independientes, con la misma
probabilidad de éxito en cada 𝜇𝑖 = 𝐸 𝑋𝑖 = 𝑛 ∗ 𝑝𝑖
suceso. En una distribución
multinomial, el análogo a la Su Varianza es: 𝜎𝑖 2 = 𝑉𝐴𝑅 𝑋𝑖 = 𝑛 ∗ 𝑝𝑖 ∗ 𝑞𝑖
distribución de Bernoulli es la
distribución categórica, donde cada
suceso concluye en únicamente un
resultado de un número finito k de
los posibles, con probabilidades
𝑃1 ……… 𝑃𝑘 y con sucesos 19
independientes.
EJEMPLO Multinomial
En unas elecciones se
presentaron 4 partidos X1 = x1: indica que el suceso X1 aparezca x1 veces (en
el ejemplo, que el partido PIEDRA lo hayan votado 3
políticos: el PIEDRA personas)
n: indica el número de veces que se ha repetido el
obtuvo un 40% de los suceso (en el ejemplo, 5 veces)
votos, el SACA el 30%, el n!: es factorial de n (en el ejemplo: 5 * 4 * 3 * 2 * 1)
p1: es la probabilidad del suceso X1 (en el ejemplo, el
MENTE el 20% y el 40%)
TODOS el 10% restante.
¿Cuál es la probabilidad P = 0,0256
de que al elegir 5 Es decir, que la probabilidad de que las 5 personas elegidas
ciudadanos al azar, 3 hayan votado de esta manera es tan sólo del 2,56%
hayan votado al PIEDRA,
1 al MENTE y 1 al 20
TODOS?
Distr. Variables Aleatorias Continuas
Tema V: Variables aleatorias continuas. Distribución uniforme.
Distribución exponencial. Distribución Gamma (𝛾). Distribución
Beta. Distribución normal. Distribución normal estandarizada.
Distribución 𝜒 2 . Distribución "t-Student". Distribución "F-
isher". Relación entre la Binomial, Poisson y normal.
21
Distribución Uniforme
La distribución Uniforme es el modelo
(absolutamente) continuo más simple. Corresponde
al caso de una variable aleatoria que sólo puede
tomar valores comprendidos entre dos
extremos a y b, de manera que todos los intervalos
de una misma longitud (dentro de (a, b)) tienen la
misma probabilidad. También puede expresarse
como el modelo probabilístico correspondiente a
tomar un número al azar dentro de un intervalo
22
(a, b).
Distribución Uniforme
› De la anterior definición se desprende que la función de densidad debe
tomar el mismo valor para todos los puntos dentro del intervalo (a, b)
(y cero fuera del intervalo). Es decir:
1
𝑠𝑖 𝑥𝜖(𝑎, 𝑏)
𝑓 𝑥 = 𝑏−𝑎
0 𝑠𝑖 𝑥∄(𝑎, 𝑏)
Gráficamente:
23
Distribución Uniforme Ejemplo:
24
Distribución Exponencial
Se utiliza como modelo para representar el tiempo de
funcionamiento o de espera. Tiene como función expresar
también el tiempo transcurrido entre eventos que se
contabilizan por medio de la distribución de Poisson.
Elementos importantes:
› Propiedad de Amnesia
Poseer información de que el elemento que consideramos ha sobrevivido un tiempo s no
modifica la probabilidad de que sobreviva t unidades de tiempo mas.
25
Distribución Exponencial
› Función de Densidad
Dada una variable aleatoria que tome valores reales no
negativos {x ≥ 0} diremos que tiene una distribución
exponencial de parámetros λ con λ ≥ 0, si y solo si su función
de densidad tiene la expresión:
Función de densidad de probabilidad
• Función de distribución
• Esperanza y Varianza
• Función de supervivencia
Función de distribución de probabilidad
26
Distribución Exponencial Ejemplo:
› La Plancha
La vida media de una plancha, es de 18 meses, es DATOS: De la media (μ) se
una variable aleatoria distribuida μ 18 meses obtiene el parámetro λ
exponencialmente. P (x<12) = ?
1. ¿Cuál es la probabilidad de que la plancha falle P (x>20) = ? λ =1/18
antes de los 12 meses? P (16<x<19) = ?
2. ¿Cuál es la probabilidad de que la plancha falle
después de los 20 meses?
3. ¿Cuál es la probabilidad de que la plancha falle Utilizamos la función de distribución
entre los 16 meses y los 19 meses?
1. P (x<12) =1- e-(1/18)(12) = 0.4866
2. P (x>20) = 1- P (x<20) = 1- (1- e-(1/18)(20)) = 0,3292
3. P (16<x<19) = P (x<19) - P (x<16) = (1- e-(1/18)(19))-(1-
27
e-(1/18)(16))=0,0631
Distribución Normal:
La distribución de probabilidad normal, que es la distribución de probabilidad de variables
aleatorias continuas que se utiliza más a menudo en todas las áreas de la ciencia. En la figura
siguiente se muestra un ejemplo de la función de densidad de probabilidad normal.
28
Distribución Normal:
1. La distribución normal es una aproximación muy buena de las distribuciones
de probabilidad de una amplia variedad de variables aleatorias. Por ejemplo,
las dimensiones de las piezas y el peso de los paquetes de alimentos a
menudo siguen una distribución normal, por lo que tiene muchas aplicaciones
en el control de calidad. Las ventas o la producción a menudo siguen una
distribución normal, por lo que ésta tiene una gran cantidad de aplicaciones
en el marketing y en la gestión de la producción. Las pautas de los precios de
las acciones y de los bonos a menudo se analizan utilizando la distribución
normal en grandes modelos informáticos de contratación financiera. Los
modelos económicos utilizan la distribución normal para algunas medidas
económicas.
2. Las distribuciones de las medias muestrales siguen una distribución normal, si
el tamaño de la muestra es «grande».
3. El cálculo de probabilidades es directo e ingenioso.
29
4. La razón más importante es que la distribución de probabilidad normal ha
llevado a tomar buenas decisiones empresariales en algunas aplicaciones.
Distribución Normal:
30
Distribución Normal:
31
Distribución Normal:
32
Distribución Normal:
33
Distribución Normal estándar:
› Es posible hallar cualquier probabilidad a partir de la función de distribución acumulada. Sin
embargo, no disponemos de un método cómodo para calcular directamente la probabilidad de
cualquier distribución normal que tenga una media y una varianza específicas.
› Podríamos utilizar métodos numéricos de integración por computador, pero ese método sería
tedioso y pesado. Afortunadamente, podemos convertir cualquier distribución normal en
› una distribución normal estándar de media 0 y varianza 1.
34
Distribución Normal estándar:
35
Distribución Normal estándar:
36
Distribución Normal estándar:
37
Distribución Normal estándar:
38
Distribución Normal estándar:
39
Distribución Normal estándar:
-z
40
Relación entre la distribución binomial, Poisson y normal
En este apartado mostramos cómo puede utilizarse la distribución normal como aproximación de
las variables aleatorias discretas binomiales, proporcionales y poisson que se emplean
frecuentemente. Esta aproximación puede utilizarse para calcular las probabilidades de muestras
de mayor tamaño cuando no es fácil disponer de tablas. La distribución normal como aproximación
de la distribución binomial también es útil para resolver problemas aplicados.
Relación entre la distribución binomial, Poisson y normal
Relación entre la distribución La relación existente entre estas distribuciones
binomial, Poisson y normal es:
Distribución Binomial: indica el Si en una distribución binomial, "n" es muy
número de éxitos al realizar n grande, se puede aproximar a una curva normal
experimentos independientes entre sí. de media x = n · p y desviación típica σ = √n · p ·
( Variable discreta) q. Hay que tomar en cuenta que como la
distribución binomial se refiere a variables
discretas y la normal a variables continuas, hay
que añadir un factor de corrección por
Distribución de Poisson: indica el continuidad de 0,5.
número de sucesos ocurridos de cierto Cuando la media de una distribución de Poisson es
tipo durante un intervalo de tiempo. muy grande, se puede hacer una aproximación
(Variable discreta) a una dsitribución normal donde
Distribución Normal: aproxima el valor Cuando en una distribución binomial "n" es muy
de una variable aleatoria continua a una grande y su probabilidad tiende a 0, se puede
situación ideal dependiente de la media aproximar a una distribución de Poisson de esta
y la desviación estándar manera: λ=n•p
Si la administración de un
bodegón descubre que el
75% de sus clientes nuevos
regresan a comprar allí
otra vez. Para una semana,
en la que 14 clientes
nuevos compraron en su
bodegón ¿Cuál es la
probabilidad de que 11 o
más clientes regresen a
comprar nuevamente?
A)Calcule la probabilidad
usando la distribución
binomal
B)calcule la probabilidad
usando la distribución
normal
Distribución chi-cuadrado de Pearson:
45
Distribución chi-cuadrado de Pearson:
46
Distribución chi-cuadrado de Pearson:
47
Distribución chi-cuadrado de Pearson:
48
Distribución t-student:
49
Distribución t-student:
50
Distribución t-student:
51
Distribución F-fisher:
52
Distribución F-fisher:
53
Distribución F-fisher:
54
Distribución F-Fisher:
55
Desigualdad de Chevichev
Tema VI: Desigualdad de Chebychev. Ley de los Grandes
Números. Teorema del Límite Central.
56
Desigualdad de Chebychev
La desigualdad de Chebyshev es un teorema
utilizado en estadística que proporciona una
estimación conservadora (intervalo de confianza)
de la probabilidad de que una variable aleatoria
con varianza finita, se sitúe a una cierta distancia
de su esperanza matemática o de su media.
57
Desigualdad de Chebychev
Conocer la media y la desviación típica de una
variable aleatoria discreta o continua permite calcular
la proporción de la distribución que está situada entre
𝜇 ± 𝑘 ∗ 𝜎, siendo k una constante positiva. Se verifica
que:
1
𝑃 𝜇 − 𝑘𝜎 ≤ 𝑥 ≤ 𝜇 + 𝑘𝜎 ≥ 1 − 2
𝑘
Para cualquier valor de k. Esta propiedad se demostró
para las distribuciones de frecuencias del tema inicial
y su generalización para variables aleatorias discretas
58
y continuas es inmediata.
Desigualdad de Chebychev
Para una Distribución
Normal Ideal o Teórica
59
Desigualdad de Chebychev
Para una Distribución
Normal Ideal o Teórica
60
Desigualdad de Chebychev
La ecuación siguiente indica que, para cualquier
variable aleatoria, el intervalo 𝜇 ± 3𝜎 𝑘 = 3 contiene,
al menos, el 89% de la distribución y 𝜇 ± 4𝜎(𝑘 = 4) el
94%.
1
𝑃 𝜇 − 𝑘𝜎 ≤ 𝑥 ≤ 𝜇 + 𝑘𝜎 ≥ 1 − 2
𝑘
Para una Distribución
Normal Ideal o Teórica
61
Desigualdad de Chebychev
1
Para una Distribución
Normal Ideal o Teórica
62
Ley de los grandes números
La ley de los grandes números es un teorema fundamental
de la teoría de la probabilidad que indica que si repetimos
muchas veces (tendiendo al infinito) un mismo
experimento, la frecuencia de que suceda un cierto
evento tiende a ser una constante.
Es decir, la ley de los grandes números señala que si se
lleva a cabo repetidas veces una misma prueba (por
ejemplo, lanzar una moneda, tirar una ruleta, etc), la
frecuencia con la que se repetirá un determinado suceso
(que salga cara o sello, que salga el número 3 negro, etc)
63
se acercará a una constante.
Ley de los grandes números
64
Ley de los grandes números
65
Teorema del Límite Central.
Este teorema establece que si 𝑥1 , 𝑥2 ,……, 𝑥𝑛 son variables
aleatorias independientes con media µ y varianza 𝜎 2 y
distribución cualquiera-no necesariamente la misma- y
formamos la variable suma: 𝑌 = 𝑥1 + 𝑥2 +,……, +𝑥𝑛 .
𝜎𝑖2
Entonces, si n ∞ la 𝜎𝑗2
→ 0,que implica que el efecto de
una variable es pequeño al efecto total. Por lo tanto, la
variable Z tiende hacia una distribución N(0,1):
𝑌− 𝜇𝑖
Z= 66
𝜎𝑖2
Teorema del Límite Central.
El resultado anterior implica que si n es grande, podemos aproximar
las probabilidades de Y utilizando que:
𝑌~𝑁( 𝜇𝑖 ; 𝜎𝑖2 )
En este teorema aparecen tres resultados distintos. El primero, que si
tenemos una variable que es suma de otras, la media de la suma es la
sumas de las medias. El segundo, que cuando sumamos variable son
independientes, la varianza de la variable es la suma de las varianzas
de los sumandos. El tercer resultado es la clave del teorema, la
variable suma se distribuye normalmente.(Ejemplo de Galton)
(https://phet.colorado.edu/sims/html/plinko- 67
probability/latest/plinko-probability_es.html)
Teorema del Límite Central.
68
69
70
Referencias
Bibliográficas
BERENSON, Mark y LEVINE, David. Estadística Básica en Administración. Edición Prentice
Hall Hispanoamericana, 4ta. Edición, México, 1992.
WEBSTER, Allen. Estadística aplicada a los negocios y la economía. Mc. Graw Hill.
Serie Irwin. 3ra. Edición, Colombia, 2000.
MASON, Lind y MARCHAL. Estadística para Administración y Economía. AlfaOmega.
10ma. Edición, México, 2001.
LEVIN, Richard y RUBIN, David. Estadística para administradores. Prentice Hall. 6ta.
Edición, México, 1996.
CASUSO, Rafael L. Cálculo de Probabilidades e Inferencia Estadística con Tópicos de
Econometría. Universidad Católica Andrés Bello. Venezuela, 2006.
PEÑA, Daniel. Fundamentos de Estadística. Editorial Alianza. Madrid, 2001,2005 y 2008.
Bacchini et al (2018). Introducción a la Probabilidad y a la estadística. Universidad de
Buenos Aires. Facultad de Ciencias Económicas. Libro Digital. ISBN 978-950-29-1734-4.
71
Anexos: Otras Medidas de Dispersión.
72
Regresar