Estadistica GrEI Tema3y4
Estadistica GrEI Tema3y4
Variables aleatorias
Estadística
Grado en Ingeniería Informática
Índice
I
Temas 3 y 4. Variables aleatorias discretas y continuas
II
Temas 3 y 4. Variables aleatorias discretas y continuas
En este tema se presentan los conceptos fundamentales para el estudio de variables aleatorias, tanto
discretas como continuas. Si bien en el programa de la materia se incluyen dos temas diferenciados
(uno para variables aleatorias discretas y otro para continuas), los contenidos teóricos de ambos se
recogen en este documento para facilitar la comprensión y la construcción de relaciones entre los
distintos tipos de variables y, de manera específica, de algunas distribuciones notables.
Dado un experimento aleatorio, una variable aleatoria es una aplicación que asocia a cada elemento
del espacio muestral de un experimento aleatorio un número. De manera informal, una variable aleato-
ria nos permite traducir a números los resultados de un experimento aleatorio. Así, en el lanzamiento
de un dado, nos podría interesar el valor que se obtiene, o simplemente analizar si es par o impar;
de manera análoga, en el lanzamiento de dos monedas, podríamos contar el número de caras que se
obtienen. Estos serían ejemplos de variables aleatorias: valor al lanzar un dado, indicadora de si es
par o impar y número de caras al lanzar dos monedas.
Dependiendo de las posibles asignaciones numéricas a la variable, distinguiremos entre variables alea-
torias discretas y continuas. Formalmente, si denotamos por (Ω, A, P) el espacio de probabilidad de
un experimento aleatorio (Ω es el espacio muestral, A es la σ−álgebra de sucesos y P la probabilidad
asociada), una variable aleatoria X es una aplicación que asocia a cada suceso elemental un número
real, de manera que para cualquier real r, el conjunto:
es también un suceso. El espacio de probabilidad (Ω, A, P) contiene todos los elementos que nece-
sitamos para caracterizar el experimento aleatorio en estudio. Así, en Ω se tienen todos los sucesos
elementales; en la σ -álgebra de sucesos están todos los sucesos posibles, incluyendo aquellos que
se obtienen a partir de las operaciones usuales con sucesos que se han visto en el capítulo anterior y
con P se conocería la probabilidad de ocurrencia de cada suceso.
Definición 1. Dado un experimento aleatorio con espacio de probabilidad (Ω, A, P), una variable alea-
toria X es una función
X : (Ω, A, P) −→ (R, B, PX ),
tal que si B ∈ B ( B es el conjunto de todos los intervalos de R), entonces X −1 (B) ∈ A y por tanto
PX (B) = P(X −1 (B)).
Dependiendo del tipo de valores que tomen, distinguiremos entre variables aleatorias discretas y con-
tinuas. En el siguiente ejemplo se presenta una variable aleatoria discreta muy sencilla.
1
Temas 3 y 4. Variables aleatorias discretas y continuas
Ejemplo. Consideremos el experimento aleatorio que consiste en lanzar dos monedas y como variable
aleatoria tomemos el numero de caras. Los posibles valores de la variable son Sop(X) = {0, 1, 2} y la
probabilidad de cada uno de ellos es:
PX (0) = P((+, +)) = 1/4, PX (1) = P((c, +) ∪ (+, c)) = 1/2, PX (2) = P((c, c)) = 1/4
B = (−1, 1/2) ⇒ X −1 (B) = X −1 (0) = (+, +) porque de los posibles valores que puede tomar
X (es decir, los valores de Sop(X)), el intervalo solo contiene al cero.
Ejercicio. Consideremos un experimento que consiste en lanzar dos dados y registrar el menor valor.
Es decir, la variable X será el menor valor en el lanzamiento de dos dados. £Cuál es su soporte?
Calcula X −1 (B) con los intervalos del ejemplo anterior.
En muchas ocasiones, los resultados de un experimento aleatorio no solo se presentan a través de los
valores de una variable aleatoria, si no que a estos se les aplica alguna función, o bien se combinan
varias variables. En este sentido, algunas propiedades de las variables aleatorias son las siguientes:
1. Si X es una variable aleatoria sobre (Ω, A, P) y c es una constante, entonces cX también es una
variable aleatoria. Por ejemplo, imaginemos que en el ejemplo del lanzamiento de dos monedas,
recibimos 3 euros según el valor que obtenga X . Es decir, la variable de interés ahora es 3X ,
que tomará valores {0, 3, 6}, con probabilidades {1/4, 1/2, 1/4} respectivamente.
2. Si X e Y son variables aleatorias sobre (Ω, A, P), entonces X + Y y XY son también variables
aleatorias. Supongamos que lanzamos un dado y registramos el número que sale (variable X ) y
si es par o impar (variable Y , con valor 1 si es par y 0 si es impar). La suma de las dos variables
es una variable aleatora con valores {1, 3, 5, 7}, al igual que lo es el producto, que toma valores
{0, 2, 4, 6}.
Si X es una variable aleatoria (v.a.) sobre (Ω, A, P), y solo toma valores en un conjunto finito (o infinito
numerable) entonces diremos que X es una variable aleatoria discreta. Las variables aleatorias dis-
2
Temas 3 y 4. Variables aleatorias discretas y continuas
cretas se caracterizan conociendo el conjunto de sus posibles valores y las probabilidades asociadas.
Al conjunto de posibles valores se le denomina soporte, y se denota por Sop(X).
Si x1 , . . . , xK son los posibles valores que toma una v.a. discreta, Sop(X) = {x1 , . . . , xK }, se le
denomina función de masa de probabilidad al conjunto de probabilidades p1 , . . . , pK tales que:
K
X
P(X = xi ) = pi , i = 1, . . . , K donde, pi ≥ 0, pi = 1.
i=1
Ejercicio. Los ejemplos que se han comentado anteriormente (número de caras en el lanzamiento de
dos monedas, resultado del lanzamiento de un dado, menor valor al lanzar dos dados,...) son ejemplos
de variables aleatorias discretas. Para todas ellas, el soporte (conjunto de posibles valores) es finito.
Escribe los valores del soporte en cada caso y la masa de probabilidad asociada.
Se trata por tanto de una función de probabilidad acumulada. Algunas propiedades de la función de
distribución son las siguientes:
1. 0 ≤ F (x) ≤ 1.
2. F es no decreciente.
La función de distribución de una v.a. X en un punto x nos da la probabilidad acumulada hasta este
valor. Esta función toma valores entre 0 y 1, y es no decreciente.
3
Temas 3 y 4. Variables aleatorias discretas y continuas
Nota. Para definir la función de distribución no se tiene en cuenta el carácter discreto o continuo de la
variable aleatoria de interés. Por tanto, la definición será la misma para el caso de variables continuas.
Al igual que en estadística descriptiva se utilizan medidas características para sintentizar la información
contenida en una muestra, en el estudio de variables aleatorias también se pueden construir medidas
que ayuden a resumir y caracterizar su comportamiento. Tal y como ocurre a nivel muestral al anali-
zar medidas descriptivas, se puede diferenciar entre medidas de localización o posición, dispersión y
forma. En el contexto de variables aleatorias se prestará especial atención a la media poblacional o
esperanza matemática, como medida de posición de tendencia central y a la varianza, como medida
de dispersión.
Sea X es una v.a. discreta, con valores x1 , . . . , xK y con masa de probabilidad p1 , . . . , pK . Como
medida de posición de tendencia central, se define la media o esperanza matemática:
K
X
E(X) = µ = xi pi .
i=1
La esperanza matemática tiene propiedades similares a la media aritmética, como por ejemplo, la
linealidad:
1. E(aX + b) = aE(X) + b, a, b ∈ R.
Otras medidas características son la mediana y la moda. La mediana es el valor M e que divide la
4
Temas 3 y 4. Variables aleatorias discretas y continuas
1
distribución en dos partes iguales: F (M e) = . La moda es el valor del soporte donde la función de
2
masa de probabilidad es máximo.
1. Var(aX + b) = a2 Var(X).
K K
!2
X X
Var(X) = x2i pi − xi p i
i=1 i=1
Nota. Las propiedades de la esperanza y de la varianza se mantienen para variables aleatorias conti-
nuas, aunque la fórmula de cálculo veremos que es diferente. La definición de mediana también es la
misma, ya que está dada en términos de la función de distribución.
Si tenemos una v.a. X con media µ y desviación típica σ , podemos transformarla en una variable que
tenga media 0 y varianza 1 (variable estandarizada). Para estandarizarla, debemos restar la media y
dividir por la desviación típica:
X −µ
Y = .
σ
Por las propiedades descritas anteriormente es fácil comprobar que E(Y ) = 0 y Var(Y ) = 1.
5
Temas 3 y 4. Variables aleatorias discretas y continuas
Una v.a. continua es aquella que toma valores en un intervalo (o varios intervalos) de la recta real,
y por tanto, Sop(X) ⊂ R. Para caracterizar su comportamiento se puede considerar la función de
distribución o la función de densidad.
La función de distribución de una v.a. continua se define de igual manera a la de una v.a. discreta,
es decir, la función de distribución de una v.a. X es una función que a cada valor real x le asocia la
probabilidad de que la variable tome valores menores o iguales a dicho número: F (x) = P(X ≤ x).
Ejemplo. Supongamos que X es la altura (en cm) de una persona en una cierta población y suponga-
mos que F es su función de distribución. £Cómo interpretamos F (160) o F (170)? Si F (160) = 1/4 y
F (170) = 1/2, £puedes calcular la probabilidad de que una person mida entre 160 y 170 cm?
El valor de F (160) = P(X ≤ 160), por definición. Por tanto, nos daría la probabilidad de que una
persona mida como mucho 160 cm. De manera análoga podemos interpretar F (170). Por otro lado, la
probabilidad de que una persona mida entre 160 y 170 la podemos escribir como: P(160 ≤ X ≤ 170),
que en términos de distribución es igual que P(X ≤ 170) − P(X ≤ 160) = F (170) − F (160) = 1/4.
Nótese que, en el caso de variables continuas, la igualdad en las probabilidades no resulta relevante,
ya que la probabilidad puntual es nula, como se expondrá más adelante.
Para ver de manera intuitiva la dualidad entre función de densidad y función de distribución, consi-
deremos una variable aleatoria X que en un intervalo (a, b) tiene una densidad constante, es decir,
cualquier subintervalo dentro de (a, b) de longitud l tiene la misma probabilidad. Más adelante, vere-
mos que si una variable tiene esta función de densidad, se dice que tiene una distribución Uniforme
6
Temas 3 y 4. Variables aleatorias discretas y continuas
continua en (a, b). Para ser más concretos, fijemos a = 0 y b = 1. La función de densidad y la función
de distribución se pueden ver en la Figura 1:
Densidad Distribución
1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0.0
−1.0 −0.5 0.0 0.5 1.0 1.5 2.0 −1.0 −0.5 0.0 0.5 1.0 1.5 2.0
La función de distribución en un punto, al darnos la probabilidad acumulada hasta ese valor, se calcula
como el área bajo la curva de densidad entre el extremo inferior del soporte de la variable (el valor
más pequeño que puede tomar) y ese punto. Entonces, en el ejemplo anterior, el área bajo la densidad
hasta x0 se calcula simplemente como el área de un rectángulo.
Podemos ver en la Figura 2 una representación gráfica de las áreas bajo la densidad para x0 = 0.25,
x0 = 0.5 y x0 = 0.75. El valor de estas áreas nos da la altura de la función de distribución en esos
puntos, como se puede comprobar en la Figura 2.
4. La probabilidad de un intervalo (a, b) es el área bajo la curva f (x) entre las rectas x = a y x = b,
Rb
es decir, P(a < X < b) = f (x)dx = F (b) − F (a). Por tanto, la probabilidad de (a, b) es la
a
misma que la de [a, b], [a, b) o (a, b].
7
Temas 3 y 4. Variables aleatorias discretas y continuas
1.0
1.0
0.8
0.8
0.8
0.6
0.6
0.6
0.4
0.4
0.4
0.2
0.2
0.2
0.0
0.0
0.0
−1.0 0.0 0.5 1.0 1.5 2.0 −1.0 0.0 0.5 1.0 1.5 2.0 −1.0 0.0 0.5 1.0 1.5 2.0
Figura 2. Función de distribución para x0 = 0.25, x0 = 0.5 y x0 = 0.75 representada como área bajo
la función de densidad.
Si X es una v.a. continua, con función de densidad f se pueden definir la esperanza matemática, la
varianza y la desviación típica de modo análogo al caso discreto. En las definiciones que se darán a
continuación, se puede observar que la masa de probabilidad es reemplazada por la densidad y los
8
Temas 3 y 4. Variables aleatorias discretas y continuas
Otras medidas de posición de tendencia central son la mediana y la moda. La mediana viene dada en
términos de la función de distribución, por lo que su definición es la misma que en el caso discreto:
F (M e) = 1/2. La moda es el punto o puntos donde se maximiza la densidad (se alcanza un máximo
00
relativo). Es decir: M o = x0 si se verifica que f 0 (x0 ) = 0, f (x0 ) < 0.
Las propiedades de la media y la varianza son las mismas que en el caso de variables discretas. La
tipificación de variables continuas, que será de gran utilidad en el caso de las variables con distribución
Normal como veremos más adelante, se realiza del mismo modo que para variables discretas (restando
la media y dividiendo por la desviación típica).
para todo x, y ∈ R.
En el caso de v.a. discretas, equivale a obtener la masa de probabilidad como producto de las margi-
nales, mientras que en el caso de v.a. continuas, la condición es la misma pero para las funciones de
9
Temas 3 y 4. Variables aleatorias discretas y continuas
y en el caso continuo:
fX,Y (x, y) = fX (x) · fY (y).
En el caso de que las v.a. X e Y sean independientes, entonces se verifican las siguientes propiedades
para la media y la varianza:
1. E(XY ) = E(X)E(Y ).
En las siguientes secciones veremos casos particulares de variables aleatorias discretas cuya masa
de probabilidad y función de distribución resultan sencillas de obtener y son de utilidad en nume-
rosos problemas aplicados. El primer grupo de variables discretas que estudiaremos serán aquellas
relacionadas con el Experimento de Bernoulli. También veremos el modelo de Poisson y la distribu-
ción Hipergeométrica. Finalizaremos con la distribución Uniforme discreta, que extenderemos en la
siguiente sección al caso continuo.
Un experimento de Bernoulli es aquel que solo presenta dos posibles resultados (por ejemplo, éxito o
fracaso, válido o defectuoso, 0 o 1, sano o enfermo, etc). En general, llamaremos éxito (E) a la ocurren-
cia del suceso que nos interesa estudiar, y fracaso (F) a la no ocurrencia. Además, la probabilidad de
obtener un éxito se mantiene constante, y la denotaremos por p. La v.a. X que registra el resultado de
una prueba de este tipo se dice que tienen una distribución de Bernoulli de parámetro p, X ∈ Ber(p):
( (
1 si ocurre E, 1 con probabilidad p,
X= o también X =
0 si ocurre F, 0 con probabilidad q = 1 − p.
xi 1 0
.
pi p q =1−p
10
Temas 3 y 4. Variables aleatorias discretas y continuas
Esta variable, puede tomar valores Sop(X) = {0, 1, 2, . . . , n − 1, n}. La función de masa de probabili-
dad es: ! !
n n n!
P(X = x) = px q n−x , donde = , x ∈ Sop(X)
x x x!(n − x)!
La masa de probabilidad y la función de distribución de una variable aleatoria Bi(8, 0.4) se representan
en la Figura 3.
0.8
0.20
0.6
0.15
0.4
0.10
0.2
0.05
0.00
0.0
0 2 4 6 8 0 2 4 6 8
x x
Figura 3. Masa de probabilidad y función de distribución de una variable aleatoria Bi(8, 0.4).
11
Temas 3 y 4. Variables aleatorias discretas y continuas
1. La distribución de Bernoulli es una Binomial con n = 1, esto es, Ber(p) = Bi(1, p).
> dbinom(0:5,size=5,prob=0.5)
[1] 0.03125 0.15625 0.31250 0.31250 0.15625 0.03125
Del mismo modo, los valores de la función de distribución en cada punto del soporte serán las proba-
bilidades acumuladas hasta dicho punto, es decir:
> pbinom(0:5,size=5,prob=0.5)
[1] 0.03125 0.18750 0.50000 0.81250 0.96875 1.00000
También podemos calcular, por ejemplo, cuál es la probabilidad de que la variable valga 6 (que será 0)
o el valor de la función de distribución en 3.5.
> dbinom(6,size=5,prob=0.5);pbinom(3.5,size=5,prob=0.5)
[1] 0
[1] 0.8125
Además de las funciones para calcular la masa de probabilidad y la función de distribución, también
nos permite generar de manera aleatoria muestras de una distribución. Por ejemplo, generemos dos
muestras, de tamaño 6 y 4, de la variable X :
> rbinom(6,size=5,prob=0.5)
[1] 3 2 1 2 3 4
> rbinom(4,size=5,prob=0.5)
[1] 2 3 2 3
12
Temas 3 y 4. Variables aleatorias discretas y continuas
Supongamos que tenemos un experimento de Bernoulli y consideremos la v.a. X que cuenta el número
de fracasos hasta que se obtiene el primer éxito:
Esta variable toma valores Sop(X) = {0, 1, 2, . . .}. La función de masa de probabilidad es:
Distribución
Masa de probabilidad
0.30
1.0
0.25
0.8
0.20
0.6
0.15
0.4
0.10
0.2
0.05
0.0
0.00
0 2 4 6 8 10 12 0 2 4 6 8
x x
Ejemplo. Al igual que para variables binomiales, también dispone de comandos para el cálculo
de masa de probabilidad, distribución y generación de muestras de variables geométricas: dgeom(x,
prob), pgeom(q,prob) y rgeom(n,prob), respectivamente.
13
Temas 3 y 4. Variables aleatorias discretas y continuas
n-ésimo:
X = nž de fracasos hasta obtener el éxito n ⇒ X ∈ BN (n, p).
La media y la varianza:
nq nq
E(X) = , Var(X) = .
p p2
La masa de probabilidad y la función de distribución de una BN (5, 0.6) pueden verse en la Figura 5.
La distribución G(p) es un caso particular de la Binomial Negativa. Si X ∈ G(p) esto es equivalente a
X ∈ BN (1, p).
Distribución
Masa de probabilidad
1.0
0.15
0.8
0.6
0.10
0.4
0.05
0.2
0.0
0.00
0 2 4 6 8 10 12 0 2 4 6 8
x x
14
Temas 3 y 4. Variables aleatorias discretas y continuas
Esta variable toma valores en Sop(X) = {0, 1, 2, . . .}. La masa de probabilidad es:
e−λ λx
P(X = x) = , x ∈ Sop(X).
x!
La media y la varianza son:
E(X) = Var(X) = λ.
Pn
∈ P ois( ni=1 λi ),
P
Sean Xi ∈ P ois(λi ), con i = 1, . . . , n variables independientes, entonces X = i=1 Xi
si los λi están referidos a la misma unidad temporal.
1.0
0.20
0.8
0.15
0.6
0.10
0.4
0.05
0.2
0.00
0.0
0 2 4 6 8 0 2 4 6 8
x x
15
Temas 3 y 4. Variables aleatorias discretas y continuas
Ejemplo. Las funciones en para calcular probabilidades sobre variables de Poisson, con número
medio de sucesos lambda, son ppois(x,lambda), ppois(x,lambda) y rpois(n,lambda).
Supongamos que hay una población finita con N elementos, de los cuales k son de la clase D y N − k
son de la clase D. Tomando una muestra aleatoria sin reemplazamiento de tamaño n, la variable:
N (población)
D D
k individuos N−k individuos
n (muestra)
n n−x
nk N −n
E(X) = = np, Var(X) = npq .
N N −1
16
Temas 3 y 4. Variables aleatorias discretas y continuas
A efectos prácticos, la Hipergeométrica puede aproximarse por una distribución Binomial, cuando el
tamaño de la población N es suficientemente grande. Si denotamos por p = k/N (la probabilidad
de pertenecer a la clase D), podemos observar que el valor esperado de una variable H(N, n, k)
coincide con el de una Bi(n, p). La varianza no es la misma, pero se diferencian tan solo en un factor
(N − n)/(N − 1) que cuando N es grande y n relativamente pequeño con respecto a N , se aproxima
a 1.
Si X toma valores {x1 , . . . , xK } y todos ellos tienen la misma probabilidad, entonces se dice que X
tiene una distribución Uniforme:
X ∈ U {x1 , . . . , xK }.
1
P(X = x) = .
K
La media y la varianza son:
K K
1 X 1 X
E(X) = xi , Var(X) = (xi − µ)2 .
K K
i=1 i=1
17
Temas 3 y 4. Variables aleatorias discretas y continuas
0.4
0.4
1.4
1.2
0.3
0.3
1.0
0.8
0.2
0.2
f(x)
f(x)
f(x)
0.6
0.4
0.1
0.1
0.2
0.0
0.0
0.0
−3 −2 −1 0 1 2 3 −4 −2 0 2 4 −5 −4 −3 −2 −1 0 1
x x x
Si X toma valores en un intervalo (a, b), diremos que X tiene una distribución uniforme continua,
X ∈ U (a, b), si su función de densidad es:
(
1
b−a x ∈ (a, b),
f (x) =
0 en otro caso.
a+b (b − a)2
E(X) = µ = y Var(X) = σ 2 = .
2 12
18
Temas 3 y 4. Variables aleatorias discretas y continuas
densidad nos da información sobre los rangos de valores más probables (o menos probables).
Una variable aleatoria X tiene distribución Normal con media µ y varianza σ 2 , X ∈ N (µ, σ 2 ), si su
función de densidad es:
1 (x−µ)2
f (x) = √ e− 2σ 2 , −∞ < x < ∞.
2πσ 2
Si tenemos µ = 0 y σ 2 = 1, entonces X ∈ N (0, 1) y su densidad será:
1 x2
f (x) = √ e− 2 .
2π
Cambiar los valores de los parámetros de localización (media) y escala (desviación típica), tiene dis-
tinto efecto sobre la forma de la función de densidad y por tanto, de la función de distribución, como
podemos ver en la Figura 9. Tomando como referencia la distribución Normal de media µ = 0 y varian-
za σ 2 = 1, si cambiamos la media, lo que hacemos es trasladar la gráfica, hacia la derecha si la media
es positiva, y hacia la izquierda si es negativa. Cuando modificamos la varianza, si la aumentamos
lo que estamos haciendo es incrementar la dispersión, con lo que la curva se achata, incrementando
la probabilidad de valores más altos y más bajos con respecto al modelo estándar. Si reducimos la
varianza, lo que veríamos es que se concentra más alrededor de la media. Al incremetar la varianza,
la densidad se vuelve mesocúrtica (curtosis negativa, más achatada), mientras que al disminuir la va-
rianza, lo que se obtiene es una curva leptocúrtica (curtosis positiva, más apuntada). La densidad de
una N (0, 1) tiene curtosis nula (platocúrtica).
0.4
0.3
0.2
0.1
0.0
−4 −2 0 2 4
Figura 9. Funciones de densidad y funciones de distribución para diferentes variables que siguen una
distribución Normal. N (0, 1) (negro), N (−2, 1) (verde) y N (0, 4) (azul).
19
Temas 3 y 4. Variables aleatorias discretas y continuas
Ejemplo. Para dibujar las densidades de la Figura 9 podemos utilizar los siguientes comandos de :
> curve(dnorm,xlim=c(-5,5),lwd=2)
> curve(dnorm(x,mean=-2),add=TRUE,col=3,lwd=2)
> curve(dnorm(x,sd=2),add=TRUE,col=4,lwd=2)
La función dnorm permite calcular la función de densidad de una Normal. Los parámetros (de media y
desviación típica) por defecto son los de la Normal estándar. Para modificarlos, se deben incluir como
argumentos mean y sd (desviación típica, no varianza aunque esta sea la notación habitual en esta
asignatura).
La función de distribución de la Normal estándar se denota por Φ(z), aunque no existe una expresión
explícita (fórmula) para ella. En la distribución N (0, 1) será de utilidad identificar en qué intervalos
se encuentran el 90 %, 95 % y 99 % de los valores. En la Figura 10 se muestran los tres intervalos
más usuales para los posibles valores de una N (0, 1). Estos intervalos serán de utilidad tanto en la
estimación por intervalos de confianza como para los contrastes de hipótesis.
0.4
0.4
0.4
0.3
0.3
0.3
0.2
0.2
0.2
0.1
0.1
0.1
0.0
0.0
0.0
Figura 10. Intervalos de probabilidad en una N (0, 1). El 90 % de los valores están en (−1.64, 1.64). El
95 % de los valores están en (−1.96, 1.96). El 99 % de los valores están en (−2.58, 2.58).
Todas las variables Normales se pueden transformar, mediante tipificación o estandarización, a una
Normal estándar. Esto es:
X −µ
X ∈ N (µ, σ 2 ) ⇔ Z = ∈ N (0, 1).
σ
20
Temas 3 y 4. Variables aleatorias discretas y continuas
En algunos casos lo que nos interesa es, dada una probabilidad, ver cuál es el punto de corte que
deja esa proporción de valores de la variable por encima o por debajo. Para ello, se define la función
de distribución inversa o la función cuantil del siguiente modo. Dada una probabilidad p0 , la función
cuantil q nos devuelve el punto x0 tal que:
3
0.4
1.0
2
0.8
0.3
1
0.6
0.6
0.2
0
0.4
−1
0.1
0.2
−2
0.25
0.0
0.0
−3
Figura 11. Función de densidad, función de distribución y función cuantil (distribución inversa) de una
N (0, 1). Ejemplo para el sexto decil (cuantil 0.6). P(Z ≤ z0 ) = 0.6 ⇒ z0 = 0.2533.
Por otra parte, la distribución Normal también satisface la siguiente propiedad de aditividad; si X ∈
N (µ1 , σ12 ) e Y ∈ N (µ2 , σ22 ) son independientes, entonces:
En general, la suma de variables Normales también sigue distribución Normal, donde la media es la
suma de las medias, pero en la varianza se debe tener en cuenta la posible dependencia entre las
variables (covarianza), que vale cero cuando son independientes.
21
Temas 3 y 4. Variables aleatorias discretas y continuas
En la sección anterior definíamos el proceso de Poisson como aquel en que los sucesos aparecen
de manera independiente y con una frecuencia de aparición constante, que llamábamos λ. Habitual-
mente, estudiaremos los procesos de Poisson en el tiempo; una variable que contabiliza el número
de sucesos en un intervalo de tiempo fijado tiene distribución de Poisson. En este tipo de procesos,
además de la aparición de los sucesos, nos puede interesar el tiempo entre ellos.
F (x) = 1 − e−λx .
Densidad Distribución
1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0.0
0 2 4 6 8 0 2 4 6 8
Figura 12. Funciones de densidad y funciones de distribución para variables que siguen una distribu-
ción exponencial. Negro: λ = 1. Verde: λ = 2. Azul: λ = 0.5.
22
Temas 3 y 4. Variables aleatorias discretas y continuas
En las funciones de distibución (Figura 12, gráfico derecho) observamos que cuando la frecuencia
media de aparición aumenta, la curva de distribución crece más rápidamente, mientras que si la fre-
cuencia disminuye, el crecimiento es menor.
Ejemplo. La Figura 12 con las densidades y distribuciones exponenciales se puede reproducir con el
siguiente código de :
> par(mfrow=c(1,2))
> curve(dexp,lwd=2,ylim=c(0,1),from=0,to=6)
> curve(dexp(x,rate=2),col=3,lwd=2,add=TRUE)
> curve(dexp(x,rate=0.5),col=4,lwd=2,add=TRUE)
> curve(pexp,lwd=2,ylim=c(0,1),from=0,to=6)
> curve(pexp(x,rate=2),col=3,lwd=2,add=TRUE)
> curve(pexp(x,rate=0.5),col=4,lwd=2,add=TRUE)
La esperanza de esta variable, el tiempo de espera medio entre sucesos, es la inversa de la frecuencia
media de aparición. La esperanza y la varianza, que también se calculan utilizando integrales por
partes, son:
1 1
E(X) = y Var(X) = .
λ λ2
λn −λx n−1
(
Γ(n) e x x > 0,
f (x) =
0 en otro caso.
23
Temas 3 y 4. Variables aleatorias discretas y continuas
n n
E(X) = y Var(X) = .
λ λ2
Densidad Distribución
1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0.0
0 2 4 6 8 0 2 4 6 8
Figura 13. Funciones de densidad y funciones para diferentes variables que siguen una distribución
Gamma. Γ(1, 1) = Exp(1) (negro), Γ(2, 1) (verde) y Γ(4, 1) (azul).
La distribución Gamma también verifica una propiedad de aditividad: si tenemos dos variables X ∈
Γ(λ, n1 ), Y ∈ Γ(λ, n2 ) independientes, entonces X + Y ∈ Γ(λ, n1 + n2 ). En la Figura 13 tenemos las
funciones de densidad y las funciones de distribución para tres variables Gamma, consideradas sobre
un proceso de Poisson con frecuencia media de aparición λ = 1, pero con distinto número de sucesos.
Ejemplo. Las funciones en para el cálculo de densidad y distribución son dgamma y pgamma.
Uno de los resultados fundamentales de la Estadística es el Teorema Central del Límite. Este teorema
establece que el promedio de variables independientes e idénticamente distribuídas (sea cual sea esa
distribución), con varianza finita, sigue una distribución Normal.
24
Temas 3 y 4. Variables aleatorias discretas y continuas
Teorema. Sea {Xi }i∈N una sucesión de variables aleatorias independientes e idénticamente distribui-
das con E(Xi ) = µ, Var(Xi ) = σ 2 , para todo i ∈ N. Entonces, para n suficientemente grande:
n Pn
X
2 i=1 X− nµ
i
Xi ∼ N (nµ, nσ ) ⇐⇒ √ ∼ N (0, 1),
σ n
i=1
n
X
X= Xi , donde cada variable Xi ∈ Ber(p).
i=1
Por tanto, E(Xi ) = p, Var(Xi ) = p(1 − p) = pq . Así, aplicando el Teorema Central del Límite, para n
suficientemente grande y 0.1 < p < 0.9 se tiene:
n
X
X= Xi ∼ N (np, npq).
i=1
Otro ejemplo lo tenemos con la distribución Gamma que se puede expresar como suma de Exponen-
ciales. Así, X ∈ Γ(n, λ) se tiene que:
n
X
X= Xi donde cada Xi ∈ Exp(λ).
i=1
Entonces, E(Xi ) = 1/λ y Var(Xi ) = 1/λ2 , y aplicando el Teorema Central del Límite, para n suficien-
temente grande, se tiene que X ∼ N (n/λ, n/λ2 ), donde recordemos n/λ y n/λ2 son los valores de
media y varianza de una Γ(n, λ).
Cuando el número de pruebas del experimento de Bernoulli n es grande, podemos hacer aproxima-
ciones de la distribución Binomial que facilitarán el cálculo de probabilidades, bien a la distribución de
Poisson o bien a la Normal.
25
Temas 3 y 4. Variables aleatorias discretas y continuas
0.12
0.12
0.10
0.10
0.08
0.08
0.06
0.06
0.04
0.04
0.02
0.02
0.00
0.00
0 10 20 30 40 50 0 10 20 30 40 50
Figura 14. Masa de probabilidad de una Bi(50, 00 3) y función de densidad de una N (15, 10.5).
Cuando en una distribución Binomial con n grande, la probabilidad de éxito es extrema (p < 0.1 o
p > 0.9), se aproxima mejor por una Poisson, con la misma media, es decir, P ois(np).
26
Temas 3 y 4. Variables aleatorias discretas y continuas
y sobre esta segunda expresión podemos utilizar la aproximación Normal, obteniendo un resultado no
nulo. Esta corrección también se debe emplear al aproximar la Poisson por la Normal, y en general
cualquier aproximación que se haga de una distribución discreta a través de una continua.
P ois(λ) λ ≥ 10 N (λ, λ)
27
Temas 3 y 4. Variables aleatorias discretas y continuas
28
FK = 1 (K clases) F (−∞) = 0, F (+∞) = 1 F (−∞) = 0, F (+∞) = 1
n K Z ∞
1X X
x= xi µ = E(X) = xi p i µ = E(X) = xf (x)dx
n −∞
i=1 i=1
n K Z ∞
1X X
s2 = (xi − x)2 σ 2 = Var(X) = (xi − µ)2 pi σ 2 = Var(X) = (x − µ)2 f (x)dx
n −∞
i=1 i=1
n K Z ∞
1X 2 X
s2 = xi − x2 σ2 = xi2 pi − µ2 σ2 = x2 f (x)dx − µ2
n −∞
i=1 i=1
Tabla 2. Relaciones ente Estadística Descriptiva, variable aleatoria discreta y variable aleatoria continua.