0% encontró este documento útil (0 votos)
12 vistas30 páginas

Estadistica GrEI Tema3y4

El documento aborda los conceptos fundamentales de variables aleatorias, tanto discretas como continuas, incluyendo su definición, características y funciones asociadas. Se presentan temas como la masa de probabilidad, la función de distribución y medidas características como la media y la varianza. Además, se discuten modelos de distribuciones discretas y continuas, así como el Teorema Central del Límite.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
12 vistas30 páginas

Estadistica GrEI Tema3y4

El documento aborda los conceptos fundamentales de variables aleatorias, tanto discretas como continuas, incluyendo su definición, características y funciones asociadas. Se presentan temas como la masa de probabilidad, la función de distribución y medidas características como la media y la varianza. Además, se discuten modelos de distribuciones discretas y continuas, así como el Teorema Central del Límite.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Temas 3 y 4.

Variables aleatorias
Estadística
Grado en Ingeniería Informática

Índice

1. Concepto de variable aleatoria 1

2. Variable aleatoria discreta 2

2.1. Masa de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2.2. Función de distribución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2.3. Medidas características . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2.4. Variables tipificadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3. Variable aleatoria continua 6

3.1. Función de distribución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

3.2. Función de densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

3.3. Medidas características . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

4. Independencia de variables aleatorias 9

5. Modelos de distribuciones discretas 10

5.1. Experimento de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

5.2. Distribución Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

5.3. Distribución Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

5.4. Distribución Binomial Negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

5.5. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

I
Temas 3 y 4. Variables aleatorias discretas y continuas

5.6. Distribución Hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

5.7. Distribución Uniforme discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

6. Modelos de distribuciones continuas 17

6.1. Distribución Uniforme continua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

6.2. Distribución Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

6.3. Distribución Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

6.4. Distribución Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

7. Teorema Central del Límite 24

7.1. Aproximaciones entre distribuciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

II
Temas 3 y 4. Variables aleatorias discretas y continuas

En este tema se presentan los conceptos fundamentales para el estudio de variables aleatorias, tanto
discretas como continuas. Si bien en el programa de la materia se incluyen dos temas diferenciados
(uno para variables aleatorias discretas y otro para continuas), los contenidos teóricos de ambos se
recogen en este documento para facilitar la comprensión y la construcción de relaciones entre los
distintos tipos de variables y, de manera específica, de algunas distribuciones notables.

1. Concepto de variable aleatoria

Dado un experimento aleatorio, una variable aleatoria es una aplicación que asocia a cada elemento
del espacio muestral de un experimento aleatorio un número. De manera informal, una variable aleato-
ria nos permite traducir a números los resultados de un experimento aleatorio. Así, en el lanzamiento
de un dado, nos podría interesar el valor que se obtiene, o simplemente analizar si es par o impar;
de manera análoga, en el lanzamiento de dos monedas, podríamos contar el número de caras que se
obtienen. Estos serían ejemplos de variables aleatorias: valor al lanzar un dado, indicadora de si es
par o impar y número de caras al lanzar dos monedas.

Dependiendo de las posibles asignaciones numéricas a la variable, distinguiremos entre variables alea-
torias discretas y continuas. Formalmente, si denotamos por (Ω, A, P) el espacio de probabilidad de
un experimento aleatorio (Ω es el espacio muestral, A es la σ−álgebra de sucesos y P la probabilidad
asociada), una variable aleatoria X es una aplicación que asocia a cada suceso elemental un número
real, de manera que para cualquier real r, el conjunto:

{ω ∈ Ω : X(ω) ≤ r} = X −1 ((−∞, r])

es también un suceso. El espacio de probabilidad (Ω, A, P) contiene todos los elementos que nece-
sitamos para caracterizar el experimento aleatorio en estudio. Así, en Ω se tienen todos los sucesos
elementales; en la σ -álgebra de sucesos están todos los sucesos posibles, incluyendo aquellos que
se obtienen a partir de las operaciones usuales con sucesos que se han visto en el capítulo anterior y
con P se conocería la probabilidad de ocurrencia de cada suceso.

Definición 1. Dado un experimento aleatorio con espacio de probabilidad (Ω, A, P), una variable alea-
toria X es una función
X : (Ω, A, P) −→ (R, B, PX ),

tal que si B ∈ B ( B es el conjunto de todos los intervalos de R), entonces X −1 (B) ∈ A y por tanto
PX (B) = P(X −1 (B)).

Dependiendo del tipo de valores que tomen, distinguiremos entre variables aleatorias discretas y con-
tinuas. En el siguiente ejemplo se presenta una variable aleatoria discreta muy sencilla.

1
Temas 3 y 4. Variables aleatorias discretas y continuas

Ejemplo. Consideremos el experimento aleatorio que consiste en lanzar dos monedas y como variable
aleatoria tomemos el numero de caras. Los posibles valores de la variable son Sop(X) = {0, 1, 2} y la
probabilidad de cada uno de ellos es:

PX (0) = P((+, +)) = 1/4, PX (1) = P((c, +) ∪ (+, c)) = 1/2, PX (2) = P((c, c)) = 1/4

Consideremos distintos intervalos B ∈ B y veamos cómo es su imagen inversa a través de la variable


aleatoria:

B = (−1, 1/2) ⇒ X −1 (B) = X −1 (0) = (+, +) porque de los posibles valores que puede tomar
X (es decir, los valores de Sop(X)), el intervalo solo contiene al cero.

B = [1, 2) ⇒ X −1 (B) = {(c, +), (+, c)}, porque B solo contiene al 1.

B = (−3, 35) ⇒ X −1 (B) = Ω.

B = (−3, −2) ⇒ X −1 (B) = ∅.

Ejercicio. Consideremos un experimento que consiste en lanzar dos dados y registrar el menor valor.
Es decir, la variable X será el menor valor en el lanzamiento de dos dados. £Cuál es su soporte?
Calcula X −1 (B) con los intervalos del ejemplo anterior.

En muchas ocasiones, los resultados de un experimento aleatorio no solo se presentan a través de los
valores de una variable aleatoria, si no que a estos se les aplica alguna función, o bien se combinan
varias variables. En este sentido, algunas propiedades de las variables aleatorias son las siguientes:

1. Si X es una variable aleatoria sobre (Ω, A, P) y c es una constante, entonces cX también es una
variable aleatoria. Por ejemplo, imaginemos que en el ejemplo del lanzamiento de dos monedas,
recibimos 3 euros según el valor que obtenga X . Es decir, la variable de interés ahora es 3X ,
que tomará valores {0, 3, 6}, con probabilidades {1/4, 1/2, 1/4} respectivamente.

2. Si X e Y son variables aleatorias sobre (Ω, A, P), entonces X + Y y XY son también variables
aleatorias. Supongamos que lanzamos un dado y registramos el número que sale (variable X ) y
si es par o impar (variable Y , con valor 1 si es par y 0 si es impar). La suma de las dos variables
es una variable aleatora con valores {1, 3, 5, 7}, al igual que lo es el producto, que toma valores
{0, 2, 4, 6}.

2. Variable aleatoria discreta

Si X es una variable aleatoria (v.a.) sobre (Ω, A, P), y solo toma valores en un conjunto finito (o infinito
numerable) entonces diremos que X es una variable aleatoria discreta. Las variables aleatorias dis-

2
Temas 3 y 4. Variables aleatorias discretas y continuas

cretas se caracterizan conociendo el conjunto de sus posibles valores y las probabilidades asociadas.
Al conjunto de posibles valores se le denomina soporte, y se denota por Sop(X).

2.1. Masa de probabilidad

Si x1 , . . . , xK son los posibles valores que toma una v.a. discreta, Sop(X) = {x1 , . . . , xK }, se le
denomina función de masa de probabilidad al conjunto de probabilidades p1 , . . . , pK tales que:

K
X
P(X = xi ) = pi , i = 1, . . . , K donde, pi ≥ 0, pi = 1.
i=1

Ejercicio. Los ejemplos que se han comentado anteriormente (número de caras en el lanzamiento de
dos monedas, resultado del lanzamiento de un dado, menor valor al lanzar dos dados,...) son ejemplos
de variables aleatorias discretas. Para todas ellas, el soporte (conjunto de posibles valores) es finito.
Escribe los valores del soporte en cada caso y la masa de probabilidad asociada.

2.2. Función de distribución

Como se ha comentado, el comportamiento de una variable aleatoria se puede caracterizar conociendo


qué valores puede tomar y con qué probabilidad. Del mismo modo, el comportamiento de una variable
aleatoria también se puede describir a través de la función de distribución. La función de distribución
de una v.a. X es una función que a cada x ∈ R le asocia la probabilidad de que la variable tome
valores menores o iguales a dicho número:

F (x) = PX (X ≤ x) = P({A ∈ A : X(A) ≤ x}) = P(X −1 ((−∞, x])).

Se trata por tanto de una función de probabilidad acumulada. Algunas propiedades de la función de
distribución son las siguientes:

1. 0 ≤ F (x) ≤ 1.

2. F es no decreciente.

3. F (+∞) = lı́mx→∞ F (x) = 1 y F (−∞) = lı́mx→−∞ F (x) = 0.

4. F es continua por la derecha.

La función de distribución de una v.a. X en un punto x nos da la probabilidad acumulada hasta este
valor. Esta función toma valores entre 0 y 1, y es no decreciente.

3
Temas 3 y 4. Variables aleatorias discretas y continuas

Ejemplo. La función de distribución de la variable que cuenta el número de caras en el lanzamiento de


dos monedas es una función escalonada (constante a trozos) que toma valores:


 0, si x < 0,

 1/4, si x ∈ [0, 1)
F (x) =
 3/4, si x ∈ [1, 2)


1, si x ≥ 2

A partir de la función de distribución, es fácil identificar la masa de probabilidad. En concreto, se puede


ver que la función tiene saltos en los valores del soporte de la variable (0, 1 y 2 en este caso). Además,
la probabilidad asociada a cada valor viene dada por la altura del salto.

Nota. Para definir la función de distribución no se tiene en cuenta el carácter discreto o continuo de la
variable aleatoria de interés. Por tanto, la definición será la misma para el caso de variables continuas.

2.3. Medidas características

Al igual que en estadística descriptiva se utilizan medidas características para sintentizar la información
contenida en una muestra, en el estudio de variables aleatorias también se pueden construir medidas
que ayuden a resumir y caracterizar su comportamiento. Tal y como ocurre a nivel muestral al anali-
zar medidas descriptivas, se puede diferenciar entre medidas de localización o posición, dispersión y
forma. En el contexto de variables aleatorias se prestará especial atención a la media poblacional o
esperanza matemática, como medida de posición de tendencia central y a la varianza, como medida
de dispersión.

Sea X es una v.a. discreta, con valores x1 , . . . , xK y con masa de probabilidad p1 , . . . , pK . Como
medida de posición de tendencia central, se define la media o esperanza matemática:

K
X
E(X) = µ = xi pi .
i=1

La esperanza matemática tiene propiedades similares a la media aritmética, como por ejemplo, la
linealidad:

1. E(aX + b) = aE(X) + b, a, b ∈ R.

2. E(X + Y ) = E(X) + E(Y ).

Otras medidas características son la mediana y la moda. La mediana es el valor M e que divide la

4
Temas 3 y 4. Variables aleatorias discretas y continuas

1
distribución en dos partes iguales: F (M e) = . La moda es el valor del soporte donde la función de
2
masa de probabilidad es máximo.

Como medidas de dispersión, se consideran la varianza y la desviación típica:


p
σ 2 = Var(X) = E[(X − E(X))2 ] y σ = + E[(X − E(X))2 ].

Para variables discretas:


K
X K
X K
X
Var(X) = (xi − µ)2 pi = (xi − xj pj )2 pi .
i=1 i=1 j=1

En cuanto a las propiedades de la varianza, se tienen las siguientes:

1. Var(aX + b) = a2 Var(X).

2. Var(X) = E(X 2 ) − E2 (X) = E(X 2 ) − µ2 .

Esta segunda propiedad, en el caso de variables discretas, la varianza se escribiría como:

K K
!2
X X
Var(X) = x2i pi − xi p i
i=1 i=1

Nota. Las propiedades de la esperanza y de la varianza se mantienen para variables aleatorias conti-
nuas, aunque la fórmula de cálculo veremos que es diferente. La definición de mediana también es la
misma, ya que está dada en términos de la función de distribución.

2.4. Variables tipificadas

Si tenemos una v.a. X con media µ y desviación típica σ , podemos transformarla en una variable que
tenga media 0 y varianza 1 (variable estandarizada). Para estandarizarla, debemos restar la media y
dividir por la desviación típica:
X −µ
Y = .
σ
Por las propiedades descritas anteriormente es fácil comprobar que E(Y ) = 0 y Var(Y ) = 1.

Nota. La tipificación o estandarización de variables aleatorias se puede aplicar también a variables


continuas.

5
Temas 3 y 4. Variables aleatorias discretas y continuas

3. Variable aleatoria continua

Una v.a. continua es aquella que toma valores en un intervalo (o varios intervalos) de la recta real,
y por tanto, Sop(X) ⊂ R. Para caracterizar su comportamiento se puede considerar la función de
distribución o la función de densidad.

3.1. Función de distribución

La función de distribución de una v.a. continua se define de igual manera a la de una v.a. discreta,
es decir, la función de distribución de una v.a. X es una función que a cada valor real x le asocia la
probabilidad de que la variable tome valores menores o iguales a dicho número: F (x) = P(X ≤ x).

Ejemplo. Supongamos que X es la altura (en cm) de una persona en una cierta población y suponga-
mos que F es su función de distribución. £Cómo interpretamos F (160) o F (170)? Si F (160) = 1/4 y
F (170) = 1/2, £puedes calcular la probabilidad de que una person mida entre 160 y 170 cm?

El valor de F (160) = P(X ≤ 160), por definición. Por tanto, nos daría la probabilidad de que una
persona mida como mucho 160 cm. De manera análoga podemos interpretar F (170). Por otro lado, la
probabilidad de que una persona mida entre 160 y 170 la podemos escribir como: P(160 ≤ X ≤ 170),
que en términos de distribución es igual que P(X ≤ 170) − P(X ≤ 160) = F (170) − F (160) = 1/4.
Nótese que, en el caso de variables continuas, la igualdad en las probabilidades no resulta relevante,
ya que la probabilidad puntual es nula, como se expondrá más adelante.

3.2. Función de densidad

Como generalización al caso continuo de la función de masa de probabilidad se tiene la función de


densidad. Dada una v.a. continua X , la función de densidad se define como:

P(x − h < X < x + h)


f (x) = lı́m .
h→0 2h

Si F es la función de distribución de X , entonces tenemos la siguiente relación entre densidad y


distribución: Z x
f (x) = F 0 (x) o F (x) = f (t)dt.
−∞

Para ver de manera intuitiva la dualidad entre función de densidad y función de distribución, consi-
deremos una variable aleatoria X que en un intervalo (a, b) tiene una densidad constante, es decir,
cualquier subintervalo dentro de (a, b) de longitud l tiene la misma probabilidad. Más adelante, vere-
mos que si una variable tiene esta función de densidad, se dice que tiene una distribución Uniforme

6
Temas 3 y 4. Variables aleatorias discretas y continuas

continua en (a, b). Para ser más concretos, fijemos a = 0 y b = 1. La función de densidad y la función
de distribución se pueden ver en la Figura 1:

Densidad Distribución

1.0
1.0

0.8
0.8

0.6
0.6

0.4
0.4

0.2
0.2

0.0
0.0

−1.0 −0.5 0.0 0.5 1.0 1.5 2.0 −1.0 −0.5 0.0 0.5 1.0 1.5 2.0

Figura 1. Función de densidad y función de la distribución Uniforme en (0, 1).

La función de distribución en un punto, al darnos la probabilidad acumulada hasta ese valor, se calcula
como el área bajo la curva de densidad entre el extremo inferior del soporte de la variable (el valor
más pequeño que puede tomar) y ese punto. Entonces, en el ejemplo anterior, el área bajo la densidad
hasta x0 se calcula simplemente como el área de un rectángulo.

Podemos ver en la Figura 2 una representación gráfica de las áreas bajo la densidad para x0 = 0.25,
x0 = 0.5 y x0 = 0.75. El valor de estas áreas nos da la altura de la función de distribución en esos
puntos, como se puede comprobar en la Figura 2.

Para la función de densidad, se pueden deducir las siguientes propiedades:

1. Dado que la función de densidad es la derivada de la función de distribución, y ésta es una


función no decreciente: f (x) ≥ 0, −∞ < x < ∞.
Rx
2. El área bajo la curva de la función de densidad integra 1, esto es, lı́mx→∞ −∞ f (t)dt = 1.
R x0
3. La probabilidad de que X tome un valor concreto es nula, esto es, P(X = x0 ) = x0 f (t)dt = 0.

4. La probabilidad de un intervalo (a, b) es el área bajo la curva f (x) entre las rectas x = a y x = b,
Rb
es decir, P(a < X < b) = f (x)dx = F (b) − F (a). Por tanto, la probabilidad de (a, b) es la
a
misma que la de [a, b], [a, b) o (a, b].

7
Temas 3 y 4. Variables aleatorias discretas y continuas

F(0.25) F(0.5) F(0.75)


1.0

1.0

1.0
0.8

0.8

0.8
0.6

0.6

0.6
0.4

0.4

0.4
0.2

0.2

0.2
0.0

0.0

0.0

−1.0 0.0 0.5 1.0 1.5 2.0 −1.0 0.0 0.5 1.0 1.5 2.0 −1.0 0.0 0.5 1.0 1.5 2.0

Figura 2. Función de distribución para x0 = 0.25, x0 = 0.5 y x0 = 0.75 representada como área bajo
la función de densidad.

La función de densidad extiende el concepto de masa de probabilidad al caso continuo. Si recordamos


la definición de masa de probabilidad, las probabilidades de cada valor debían ser no negativas y
sumar 1. En este caso, la función de densidad toma valores positivos (propiedad 1) y su integral es
1 (propiedad 2). La principal diferencia radica en las probabilidades puntuales. En el caso de una v.a.
continua, la probabilidad de que tome exactamente un valor x0 es nula (propiedad 3), por lo que la
probabilidad de tomar valores entre a y b no varía, se incluya o no alguno de los extremos del intervalo.

3.3. Medidas características

Si X es una v.a. continua, con función de densidad f se pueden definir la esperanza matemática, la
varianza y la desviación típica de modo análogo al caso discreto. En las definiciones que se darán a
continuación, se puede observar que la masa de probabilidad es reemplazada por la densidad y los

8
Temas 3 y 4. Variables aleatorias discretas y continuas

sumatorios por integrales.

La media o esperanza matemática viene dada por:


Z ∞
µ = E(X) = xf (x)dx
−∞

Otras medidas de posición de tendencia central son la mediana y la moda. La mediana viene dada en
términos de la función de distribución, por lo que su definición es la misma que en el caso discreto:
F (M e) = 1/2. La moda es el punto o puntos donde se maximiza la densidad (se alcanza un máximo
00
relativo). Es decir: M o = x0 si se verifica que f 0 (x0 ) = 0, f (x0 ) < 0.

Como medidas de dispersión, la varianza y la desviación típica se definen como:


Z ∞
2 2
σ = Var(X) = E[(X − E(X)) ] = (x − µ)2 f (x)dx,
−∞
sZ

σ=+ (x − µ)2 f (x)dx.
−∞

La varianza admite un cálculo más sencillo de la siguiente forma:


Z ∞
2
σ = x2 f (x)dx − µ2
−∞

Las propiedades de la media y la varianza son las mismas que en el caso de variables discretas. La
tipificación de variables continuas, que será de gran utilidad en el caso de las variables con distribución
Normal como veremos más adelante, se realiza del mismo modo que para variables discretas (restando
la media y dividiendo por la desviación típica).

4. Independencia de variables aleatorias

Definición 2. Dos v.a. X e Y son independientes si y solo si se verifica:

FX,Y (x, y) = FX (x) · FY (y),

para todo x, y ∈ R.

En el caso de v.a. discretas, equivale a obtener la masa de probabilidad como producto de las margi-
nales, mientras que en el caso de v.a. continuas, la condición es la misma pero para las funciones de

9
Temas 3 y 4. Variables aleatorias discretas y continuas

densidad. X e Y son independientes si, y solo si, en el caso discreto:

pij = P(X = xi , Y = yj ) = P(X = xi )P(Y = yj ) = pi · pj , i = 1, . . . , K, j = 1, . . . , L,

y en el caso continuo:
fX,Y (x, y) = fX (x) · fY (y).

En el caso de que las v.a. X e Y sean independientes, entonces se verifican las siguientes propiedades
para la media y la varianza:

1. E(XY ) = E(X)E(Y ).

2. Var(X + Y ) = Var(X) + Var(Y ).

5. Modelos de distribuciones discretas

En las siguientes secciones veremos casos particulares de variables aleatorias discretas cuya masa
de probabilidad y función de distribución resultan sencillas de obtener y son de utilidad en nume-
rosos problemas aplicados. El primer grupo de variables discretas que estudiaremos serán aquellas
relacionadas con el Experimento de Bernoulli. También veremos el modelo de Poisson y la distribu-
ción Hipergeométrica. Finalizaremos con la distribución Uniforme discreta, que extenderemos en la
siguiente sección al caso continuo.

5.1. Experimento de Bernoulli

Un experimento de Bernoulli es aquel que solo presenta dos posibles resultados (por ejemplo, éxito o
fracaso, válido o defectuoso, 0 o 1, sano o enfermo, etc). En general, llamaremos éxito (E) a la ocurren-
cia del suceso que nos interesa estudiar, y fracaso (F) a la no ocurrencia. Además, la probabilidad de
obtener un éxito se mantiene constante, y la denotaremos por p. La v.a. X que registra el resultado de
una prueba de este tipo se dice que tienen una distribución de Bernoulli de parámetro p, X ∈ Ber(p):
( (
1 si ocurre E, 1 con probabilidad p,
X= o también X =
0 si ocurre F, 0 con probabilidad q = 1 − p.

La función de masa de probabilidad de X ∈ Ber(p) es:

xi 1 0
.
pi p q =1−p

10
Temas 3 y 4. Variables aleatorias discretas y continuas

En general, podemos escribir la función de masa de probabilidad como:

P(X = x) = px (1 − p)1−x = px q 1−x , x ∈ Sop(X) = {0, 1}.

La esperanza y la varianza son:


E(X) = p, Var(X) = pq.

5.2. Distribución Binomial

Si repetimos el experimento de Bernoulli n veces y consideramos la variable que cuenta el número de


éxitos esta seguirá una distribución Binomial de parámetros n y p, X ∈ Bi(n, p):

X = nž de éxitos en n pruebas de Bernoulli ⇒ X ∈ Bi(n, p)

Esta variable, puede tomar valores Sop(X) = {0, 1, 2, . . . , n − 1, n}. La función de masa de probabili-
dad es: ! !
n n n!
P(X = x) = px q n−x , donde = , x ∈ Sop(X)
x x x!(n − x)!

y el factorial de un número n, denotado por n!.

La masa de probabilidad y la función de distribución de una variable aleatoria Bi(8, 0.4) se representan
en la Figura 3.

Masa de probabilidad Distribución


1.0
0.25

0.8
0.20

0.6
0.15

0.4
0.10

0.2
0.05
0.00

0.0

0 2 4 6 8 0 2 4 6 8

x x

Figura 3. Masa de probabilidad y función de distribución de una variable aleatoria Bi(8, 0.4).

La esperanza y la varianza son:

E(X) = np, Var(X) = npq = np(1 − p).

11
Temas 3 y 4. Variables aleatorias discretas y continuas

Algunas de las propiedades de la distribución Binomial son las siguientes:

1. La distribución de Bernoulli es una Binomial con n = 1, esto es, Ber(p) = Bi(1, p).

2. La masa de probabilidad está tabulada, al igual que la función de distribución.

3. Si X ∈ Bi(n1 , p), Y ∈ Bi(n2 , p) independientes, entonces X + Y ∈ Bi(n1 + n2 , p).


Pn
4. Si X ∈ Bi(n, p) entonces X = i=1 Xi , donde Xi ∈ Ber(p) independientes.

Ejemplo. En podemos calcular valores de la masa de probabilidad o de la función de distribución


de una variable Binomial (o de una Bernoulli, simplemente considerándola como caso particular con
n = 1). Sea X ∼ Bi(n, p) con n = 5 y p = 1/2. El soporte de la variable es Sop(X) = {0, 1, 2, 3, 4, 5},
y los valores de la masa de probabilidad se pueden obtener como:

> dbinom(0:5,size=5,prob=0.5)
[1] 0.03125 0.15625 0.31250 0.31250 0.15625 0.03125

Del mismo modo, los valores de la función de distribución en cada punto del soporte serán las proba-
bilidades acumuladas hasta dicho punto, es decir:

> pbinom(0:5,size=5,prob=0.5)
[1] 0.03125 0.18750 0.50000 0.81250 0.96875 1.00000

También podemos calcular, por ejemplo, cuál es la probabilidad de que la variable valga 6 (que será 0)
o el valor de la función de distribución en 3.5.

> dbinom(6,size=5,prob=0.5);pbinom(3.5,size=5,prob=0.5)
[1] 0
[1] 0.8125

Además de las funciones para calcular la masa de probabilidad y la función de distribución, también
nos permite generar de manera aleatoria muestras de una distribución. Por ejemplo, generemos dos
muestras, de tamaño 6 y 4, de la variable X :

> rbinom(6,size=5,prob=0.5)
[1] 3 2 1 2 3 4

> rbinom(4,size=5,prob=0.5)
[1] 2 3 2 3

12
Temas 3 y 4. Variables aleatorias discretas y continuas

5.3. Distribución Geométrica

Supongamos que tenemos un experimento de Bernoulli y consideremos la v.a. X que cuenta el número
de fracasos hasta que se obtiene el primer éxito:

X = nž fracasos hasta el primer éxito ⇒ X ∈ G(p)

Esta variable toma valores Sop(X) = {0, 1, 2, . . .}. La función de masa de probabilidad es:

P(X = x) = q x p = (1 − p)x p, x ∈ Sop(X).

La esperanza y la varianza son:


q q
E(X) = , Var(X) = .
p p2
La masa de probabilidad y función de distribución de una G(0.3) se representan en la Figura 4 en la
que se puede ver cómo la masa de probabilidad va decayendo a medida que aumentan los valores en
el eje horizontal.

Distribución
Masa de probabilidad
0.30

1.0
0.25

0.8
0.20

0.6
0.15

0.4
0.10

0.2
0.05

0.0
0.00

0 2 4 6 8 10 12 0 2 4 6 8

x x

Figura 4. Masa de probabilidad y función de distribución de una G(0.3).

Ejemplo. Al igual que para variables binomiales, también dispone de comandos para el cálculo
de masa de probabilidad, distribución y generación de muestras de variables geométricas: dgeom(x,
prob), pgeom(q,prob) y rgeom(n,prob), respectivamente.

5.4. Distribución Binomial Negativa

La distribución Binomial Negativa generaliza a la distribución Geométrica. Consideremos un experi-


mento de Bernoulli y definamos la variable X que cuenta el número de fracasos hasta obtener el éxito

13
Temas 3 y 4. Variables aleatorias discretas y continuas

n-ésimo:
X = nž de fracasos hasta obtener el éxito n ⇒ X ∈ BN (n, p).

La función de masa de probabilidad es:


!
n+x−1
P(X = x) = q x pn , x ∈ Sop(X) = {0, 1, 2, . . .}
x

La media y la varianza:
nq nq
E(X) = , Var(X) = .
p p2
La masa de probabilidad y la función de distribución de una BN (5, 0.6) pueden verse en la Figura 5.
La distribución G(p) es un caso particular de la Binomial Negativa. Si X ∈ G(p) esto es equivalente a
X ∈ BN (1, p).

Distribución
Masa de probabilidad
1.0
0.15

0.8
0.6
0.10

0.4
0.05

0.2
0.0
0.00

0 2 4 6 8 10 12 0 2 4 6 8

x x

Figura 5. Masa de probabilidad y función de distribución de una BN (5, 0.6).

Ejemplo. Las funciones de masa de probabilidad, distribución y generación de muestras aleatorias


para una variable binominal negativa en son dnbinom(x,size,prob), pnbinom(x,size,prob) y
rnbinom(n,size,prob) donde x sería el valor donde evaluamos la masa de probabilidad o la distri-
bución y n sería el tamaño de la muestra a generar. En este caso, size es el número de éxitos que se
desea obtener y prob la probabilidad de éxito. Además, como la distribución geométrica es un caso
particular de la distribución binomial negativa, se puede obtener los mismos resultados que en el apar-
tado anterior utilizando estas funciones con size=1.

14
Temas 3 y 4. Variables aleatorias discretas y continuas

5.5. Distribución de Poisson

Un proceso de Poisson es un experimento aleatorio que consiste en observar la aparición de sucesos


en un soporte continuo, por ejemplo, en el tiempo. Este proceso ha de ser estable: el número medio
de sucesos en un intervalo de tiempo fijado, que se denota por λ, se mantiene constante. Además, los
sucesos han de ocurrir de manera independiente.

En este contexto, si consideramos la variable:

X = nž de sucesos en un intervalo ⇒ X ∈ P ois(λ).

Esta variable toma valores en Sop(X) = {0, 1, 2, . . .}. La masa de probabilidad es:

e−λ λx
P(X = x) = , x ∈ Sop(X).
x!
La media y la varianza son:
E(X) = Var(X) = λ.

Pn
∈ P ois( ni=1 λi ),
P
Sean Xi ∈ P ois(λi ), con i = 1, . . . , n variables independientes, entonces X = i=1 Xi
si los λi están referidos a la misma unidad temporal.

Masa de probabilidad Distribución


0.25

1.0
0.20

0.8
0.15

0.6
0.10

0.4
0.05

0.2
0.00

0.0

0 2 4 6 8 0 2 4 6 8

x x

Figura 6. Masa de probabilidad y función de distribución de una variable aleatoria P ois(2).

15
Temas 3 y 4. Variables aleatorias discretas y continuas

Ejemplo. Las funciones en para calcular probabilidades sobre variables de Poisson, con número
medio de sucesos lambda, son ppois(x,lambda), ppois(x,lambda) y rpois(n,lambda).

5.6. Distribución Hipergeométrica

Supongamos que hay una población finita con N elementos, de los cuales k son de la clase D y N − k
son de la clase D. Tomando una muestra aleatoria sin reemplazamiento de tamaño n, la variable:

X = nž de elementos de la clase D en la muestra de tamaño n ⇒ X ∈ H(N, n, k).

N (población)

D D
k individuos N−k individuos

n (muestra)

n n−x

Figura 7. Contexto de la distribución Hipergeométrica.

La masa de probabilidad es:


! !
k N −k
x n−x
P(X = x) = ! , x ∈ Sop(X) = {máx(0, n + k − N ), mı́n(k, N )}.
N
n

La media y la varianza son:

nk N −n
E(X) = = np, Var(X) = npq .
N N −1

16
Temas 3 y 4. Variables aleatorias discretas y continuas

A efectos prácticos, la Hipergeométrica puede aproximarse por una distribución Binomial, cuando el
tamaño de la población N es suficientemente grande. Si denotamos por p = k/N (la probabilidad
de pertenecer a la clase D), podemos observar que el valor esperado de una variable H(N, n, k)
coincide con el de una Bi(n, p). La varianza no es la misma, pero se diferencian tan solo en un factor
(N − n)/(N − 1) que cuando N es grande y n relativamente pequeño con respecto a N , se aproxima
a 1.

5.7. Distribución Uniforme discreta

Si X toma valores {x1 , . . . , xK } y todos ellos tienen la misma probabilidad, entonces se dice que X
tiene una distribución Uniforme:
X ∈ U {x1 , . . . , xK }.

La masa de probabilidad asigna a todos los valores la misma probabilidad:

1
P(X = x) = .
K
La media y la varianza son:

K K
1 X 1 X
E(X) = xi , Var(X) = (xi − µ)2 .
K K
i=1 i=1

6. Modelos de distribuciones continuas

En esta sección comentaremos los principales modelos de distribuciones continuas. Comenzaremos


con la distribución Uniforme continua, como extensión de la Uniforme discreta que hemos visto en
el apartado anterior. Veremos también de manera intuitiva cómo se pueden interpretar las funciones
de densidad asociadas. Para ello, antes de introducir la distribución Normal (que será la distribución
de referencia en esta asignatura), presentaremos algunas gráficas de densidades y discutiremos su
significado.

En la Figura 8 se muestran tres ejemplos de densidades continuas. La de la izquierda se corresponde


con una densidad N (0, 1), que veremos en el siguiente apartado. A partir de la gráfica podemos
interpretar que la zona de valores más probables está en torno al cero (que es la moda) y que se
distribuyen simétricamente alrededor de este valor. La gráfica del centro nos muestra una densidad
bimodal: es decir, hay dos grupos de valores más probables. La gráfica de la derecha nos muestra una
densidad asimétrica. Además, la altura de la densidad para valores por debajo de −3 es cero, así que
el soporte de la variable será (−3, ∞) (o un subconjunto de este).

17
Temas 3 y 4. Variables aleatorias discretas y continuas

0.4
0.4

1.4
1.2
0.3
0.3

1.0
0.8
0.2
0.2
f(x)

f(x)

f(x)

0.6
0.4
0.1

0.1

0.2
0.0

0.0

0.0
−3 −2 −1 0 1 2 3 −4 −2 0 2 4 −5 −4 −3 −2 −1 0 1

x x x

Figura 8. Tres ejemplos de densidades continuas: Normal, bimodal y asimétrica.

6.1. Distribución Uniforme continua

Si X toma valores en un intervalo (a, b), diremos que X tiene una distribución uniforme continua,
X ∈ U (a, b), si su función de densidad es:
(
1
b−a x ∈ (a, b),
f (x) =
0 en otro caso.

La función de distribución asociada:




 0 x < a,
x−a
F (x) = b−a a ≤ x < b,

1 x ≥ b.

La esperanza y la varianza son:

a+b (b − a)2
E(X) = µ = y Var(X) = σ 2 = .
2 12

El caso de la distribución Uniforme continua es muy simple, ya que su función de densidad es un


segmento plano sobre el soporte de la variable y con altura el inverso de la longitud del soporte (para
garantizar que el área bajo la densidad integra 1). En general, la altura que alcanza una función de

18
Temas 3 y 4. Variables aleatorias discretas y continuas

densidad nos da información sobre los rangos de valores más probables (o menos probables).

6.2. Distribución Normal

Una variable aleatoria X tiene distribución Normal con media µ y varianza σ 2 , X ∈ N (µ, σ 2 ), si su
función de densidad es:
1 (x−µ)2
f (x) = √ e− 2σ 2 , −∞ < x < ∞.
2πσ 2
Si tenemos µ = 0 y σ 2 = 1, entonces X ∈ N (0, 1) y su densidad será:

1 x2
f (x) = √ e− 2 .

Cambiar los valores de los parámetros de localización (media) y escala (desviación típica), tiene dis-
tinto efecto sobre la forma de la función de densidad y por tanto, de la función de distribución, como
podemos ver en la Figura 9. Tomando como referencia la distribución Normal de media µ = 0 y varian-
za σ 2 = 1, si cambiamos la media, lo que hacemos es trasladar la gráfica, hacia la derecha si la media
es positiva, y hacia la izquierda si es negativa. Cuando modificamos la varianza, si la aumentamos
lo que estamos haciendo es incrementar la dispersión, con lo que la curva se achata, incrementando
la probabilidad de valores más altos y más bajos con respecto al modelo estándar. Si reducimos la
varianza, lo que veríamos es que se concentra más alrededor de la media. Al incremetar la varianza,
la densidad se vuelve mesocúrtica (curtosis negativa, más achatada), mientras que al disminuir la va-
rianza, lo que se obtiene es una curva leptocúrtica (curtosis positiva, más apuntada). La densidad de
una N (0, 1) tiene curtosis nula (platocúrtica).
0.4
0.3
0.2
0.1
0.0

−4 −2 0 2 4

Figura 9. Funciones de densidad y funciones de distribución para diferentes variables que siguen una
distribución Normal. N (0, 1) (negro), N (−2, 1) (verde) y N (0, 4) (azul).

19
Temas 3 y 4. Variables aleatorias discretas y continuas

Ejemplo. Para dibujar las densidades de la Figura 9 podemos utilizar los siguientes comandos de :

> curve(dnorm,xlim=c(-5,5),lwd=2)
> curve(dnorm(x,mean=-2),add=TRUE,col=3,lwd=2)
> curve(dnorm(x,sd=2),add=TRUE,col=4,lwd=2)

La función dnorm permite calcular la función de densidad de una Normal. Los parámetros (de media y
desviación típica) por defecto son los de la Normal estándar. Para modificarlos, se deben incluir como
argumentos mean y sd (desviación típica, no varianza aunque esta sea la notación habitual en esta
asignatura).

La función de distribución de la Normal estándar se denota por Φ(z), aunque no existe una expresión
explícita (fórmula) para ella. En la distribución N (0, 1) será de utilidad identificar en qué intervalos
se encuentran el 90 %, 95 % y 99 % de los valores. En la Figura 10 se muestran los tres intervalos
más usuales para los posibles valores de una N (0, 1). Estos intervalos serán de utilidad tanto en la
estimación por intervalos de confianza como para los contrastes de hipótesis.
0.4

0.4

0.4
0.3

0.3

0.3
0.2

0.2

0.2
0.1

0.1

0.1
0.0

0.0

0.0

−1.64 1.64 −1.96 1.96 −2.58 2.58

Figura 10. Intervalos de probabilidad en una N (0, 1). El 90 % de los valores están en (−1.64, 1.64). El
95 % de los valores están en (−1.96, 1.96). El 99 % de los valores están en (−2.58, 2.58).

Todas las variables Normales se pueden transformar, mediante tipificación o estandarización, a una
Normal estándar. Esto es:
X −µ
X ∈ N (µ, σ 2 ) ⇔ Z = ∈ N (0, 1).
σ

20
Temas 3 y 4. Variables aleatorias discretas y continuas

En algunos casos lo que nos interesa es, dada una probabilidad, ver cuál es el punto de corte que
deja esa proporción de valores de la variable por encima o por debajo. Para ello, se define la función
de distribución inversa o la función cuantil del siguiente modo. Dada una probabilidad p0 , la función
cuantil q nos devuelve el punto x0 tal que:

q(p0 ) = x0 , si P(X ≤ x0 ) = F (x0 ) = p0 .

En la Figura 11 representamos la idea de la función cuantil para una distribución Normal.

Densidad Distribución Función cuantil

3
0.4

1.0

2
0.8
0.3

1
0.6

0.6
0.2

0
0.4

−1
0.1

0.2

−2

0.25
0.0
0.0

−3

−4 −2 0 2 4 −4 −2 0 2 4 0.0 0.2 0.4 0.6 0.8 1.0

Figura 11. Función de densidad, función de distribución y función cuantil (distribución inversa) de una
N (0, 1). Ejemplo para el sexto decil (cuantil 0.6). P(Z ≤ z0 ) = 0.6 ⇒ z0 = 0.2533.

Por otra parte, la distribución Normal también satisface la siguiente propiedad de aditividad; si X ∈
N (µ1 , σ12 ) e Y ∈ N (µ2 , σ22 ) son independientes, entonces:

(X + Y ) ∈ N (µ1 + µ2 , σ12 + σ22 ).

En general, la suma de variables Normales también sigue distribución Normal, donde la media es la
suma de las medias, pero en la varianza se debe tener en cuenta la posible dependencia entre las
variables (covarianza), que vale cero cuando son independientes.

21
Temas 3 y 4. Variables aleatorias discretas y continuas

6.3. Distribución Exponencial

En la sección anterior definíamos el proceso de Poisson como aquel en que los sucesos aparecen
de manera independiente y con una frecuencia de aparición constante, que llamábamos λ. Habitual-
mente, estudiaremos los procesos de Poisson en el tiempo; una variable que contabiliza el número
de sucesos en un intervalo de tiempo fijado tiene distribución de Poisson. En este tipo de procesos,
además de la aparición de los sucesos, nos puede interesar el tiempo entre ellos.

Si tenemos un proceso de Poisson de parámetro λ y consideramos la variable X que mide el tiempo


entre dos sucesos consecutivos, entonces diremos que la variable X sigue una distribución Exponen-
cial de parámetro λ y lo denotaremos por X ∈ Exp(λ). Como es una variable que mide el tiempo entre
sucesos, su soporte es Sop(X) = (0, +∞). Su función de densidad es:
(
λe−λx x > 0,
f (x) =
0 en otro caso.

La función de distribución se obtiene mediante integración por partes de la densidad:

F (x) = 1 − e−λx .

Densidad Distribución
1.0
1.0

0.8
0.8

0.6
0.6

0.4
0.4

0.2
0.2

0.0
0.0

0 2 4 6 8 0 2 4 6 8

Figura 12. Funciones de densidad y funciones de distribución para variables que siguen una distribu-
ción exponencial. Negro: λ = 1. Verde: λ = 2. Azul: λ = 0.5.

22
Temas 3 y 4. Variables aleatorias discretas y continuas

En la Figura 12 tenemos las funciones de densidad y funciones de distribución de variables Exponen-


ciales con distintos parámetros. Las curvas en negro se corresponden con la Exponencial estándar,
es decir, λ = 1 (frecuencia media de aparición de un suceso por unidad de tiempo). La curva verde
(λ = 2) tiene una frecuencia de aparición mayor. Así, el tiempo de espera entre dos sucesos con-
secutivos se reduce, ya que los sucesos se producen con mayor frecuencia. La curva verde decae
más rápidamente que la negra. Por otro lado, la curva azul tiene una frecuencia de aparición inferior
(λ = 0.5), lo que retrasa la aparición de sucesos, haciendo más probables tiempos de espera mayores.

En las funciones de distibución (Figura 12, gráfico derecho) observamos que cuando la frecuencia
media de aparición aumenta, la curva de distribución crece más rápidamente, mientras que si la fre-
cuencia disminuye, el crecimiento es menor.

Ejemplo. La Figura 12 con las densidades y distribuciones exponenciales se puede reproducir con el
siguiente código de :

> par(mfrow=c(1,2))
> curve(dexp,lwd=2,ylim=c(0,1),from=0,to=6)
> curve(dexp(x,rate=2),col=3,lwd=2,add=TRUE)
> curve(dexp(x,rate=0.5),col=4,lwd=2,add=TRUE)
> curve(pexp,lwd=2,ylim=c(0,1),from=0,to=6)
> curve(pexp(x,rate=2),col=3,lwd=2,add=TRUE)
> curve(pexp(x,rate=0.5),col=4,lwd=2,add=TRUE)

La esperanza de esta variable, el tiempo de espera medio entre sucesos, es la inversa de la frecuencia
media de aparición. La esperanza y la varianza, que también se calculan utilizando integrales por
partes, son:
1 1
E(X) = y Var(X) = .
λ λ2

6.4. Distribución Gamma

La generalización de la distribución Exponencial (tiempo entre dos sucesos consecutivos) se obtiene


cuando consideramos el tiempo hasta la aparición del n-ésimo suceso. Si en un proceso de Poisson
con frecuencia media de aparición λ consideramos la variable X que recoja el tiempo hasta la aparición
del n-ésimo suceso, Sop(X) = (0, +∞), entonces X tiene una distribución Gamma de parámetros
n y λ, X ∈ Γ(n, λ). La función de densidad de X ∈ Γ(n, λ) es:

λn −λx n−1
(
Γ(n) e x x > 0,
f (x) =
0 en otro caso.

La distribución Exponencial es un caso particular de la Gamma, ya que Exp(λ) es una Γ(λ, 1) y la

23
Temas 3 y 4. Variables aleatorias discretas y continuas

esperanza y la varianza son una generalización de las características de la Exponencial:

n n
E(X) = y Var(X) = .
λ λ2

Densidad Distribución

1.0
1.0

0.8
0.8

0.6
0.6

0.4
0.4

0.2
0.2

0.0
0.0

0 2 4 6 8 0 2 4 6 8

Figura 13. Funciones de densidad y funciones para diferentes variables que siguen una distribución
Gamma. Γ(1, 1) = Exp(1) (negro), Γ(2, 1) (verde) y Γ(4, 1) (azul).

La distribución Gamma también verifica una propiedad de aditividad: si tenemos dos variables X ∈
Γ(λ, n1 ), Y ∈ Γ(λ, n2 ) independientes, entonces X + Y ∈ Γ(λ, n1 + n2 ). En la Figura 13 tenemos las
funciones de densidad y las funciones de distribución para tres variables Gamma, consideradas sobre
un proceso de Poisson con frecuencia media de aparición λ = 1, pero con distinto número de sucesos.

Ejemplo. Las funciones en para el cálculo de densidad y distribución son dgamma y pgamma.

7. Teorema Central del Límite

Uno de los resultados fundamentales de la Estadística es el Teorema Central del Límite. Este teorema
establece que el promedio de variables independientes e idénticamente distribuídas (sea cual sea esa
distribución), con varianza finita, sigue una distribución Normal.

24
Temas 3 y 4. Variables aleatorias discretas y continuas

Teorema. Sea {Xi }i∈N una sucesión de variables aleatorias independientes e idénticamente distribui-
das con E(Xi ) = µ, Var(Xi ) = σ 2 , para todo i ∈ N. Entonces, para n suficientemente grande:

n Pn
X
2 i=1 X− nµ
i
Xi ∼ N (nµ, nσ ) ⇐⇒ √ ∼ N (0, 1),
σ n
i=1

donde ∼ indica una distribución aproximada.

Por ejemplo, si X ∈ Bi(n, p) se puede escribir como:

n
X
X= Xi , donde cada variable Xi ∈ Ber(p).
i=1

Por tanto, E(Xi ) = p, Var(Xi ) = p(1 − p) = pq . Así, aplicando el Teorema Central del Límite, para n
suficientemente grande y 0.1 < p < 0.9 se tiene:
n
X
X= Xi ∼ N (np, npq).
i=1

Otro ejemplo lo tenemos con la distribución Gamma que se puede expresar como suma de Exponen-
ciales. Así, X ∈ Γ(n, λ) se tiene que:

n
X
X= Xi donde cada Xi ∈ Exp(λ).
i=1

Entonces, E(Xi ) = 1/λ y Var(Xi ) = 1/λ2 , y aplicando el Teorema Central del Límite, para n suficien-
temente grande, se tiene que X ∼ N (n/λ, n/λ2 ), donde recordemos n/λ y n/λ2 son los valores de
media y varianza de una Γ(n, λ).

7.1. Aproximaciones entre distribuciones

Cuando el número de pruebas del experimento de Bernoulli n es grande, podemos hacer aproxima-
ciones de la distribución Binomial que facilitarán el cálculo de probabilidades, bien a la distribución de
Poisson o bien a la Normal.

En la Figura 14 podemos ver gráficamente la validez de la aproximación de la Binomial a la Normal. En


la parte izquierda tenemos la masa de probabilidad de una Bi(50, 0.3). Como el número de pruebas n
es suficientemente grande (se suele fijar el criterio n > 30), podríamos aproximar la Binomial por una
Normal N (µ, σ 2 ) con µ = np = 50 · 0.3 = 15 y σ 2 = npq = 50 · 0.3 · 0.7 = 10.5.

25
Temas 3 y 4. Variables aleatorias discretas y continuas

0.12

0.12
0.10

0.10
0.08

0.08
0.06

0.06
0.04

0.04
0.02

0.02
0.00

0.00

0 10 20 30 40 50 0 10 20 30 40 50

Figura 14. Masa de probabilidad de una Bi(50, 00 3) y función de densidad de una N (15, 10.5).

Cuando en una distribución Binomial con n grande, la probabilidad de éxito es extrema (p < 0.1 o
p > 0.9), se aproxima mejor por una Poisson, con la misma media, es decir, P ois(np).

En el caso de la distribución de Poisson, cuando el parámetro λ es grande (normalmente se toma


λ > 10), se puede aproximar por una Normal que conserva la media y la varianza. Es decir, una
variable P ois(λ) se aproximaría por una N (λ, λ), para λ suficientemente grande.

Al aproximar la distribución Binomial o la Poisson por la Normal estamos conservando la media y la


varianza. Sin embargo, al calcular probabilidades utilizando la aproximación a la Normal debemos tener
en cuenta que tanto la Binomial como la Poisson son discretas, mientras que la Normal es continua.
Para una variable X ∈ Bi(50, 0.3) podemos calcular la probabilidad de que X sea 20, P(X = 20) y
podemos ver en la Figura 14 que es positiva. Sin embargo, utilizando la aproximación X ∈ N (15, 75),
al ser continua, la probabilidad P(X = 20) será nula. Para solucionar este problema, utilizaremos la
corrección de Yates. La probabilidad de que X sea igual a 20 es la misma que:

P(X = 20) = P(19.5 < X < 20.5),

26
Temas 3 y 4. Variables aleatorias discretas y continuas

y sobre esta segunda expresión podemos utilizar la aproximación Normal, obteniendo un resultado no
nulo. Esta corrección también se debe emplear al aproximar la Poisson por la Normal, y en general
cualquier aproximación que se haga de una distribución discreta a través de una continua.

Distribución Caso Aproximación

Bi(n, p) n ≥ 30, p <0.1∗ P ois(np)

Bi(n, p) n ≥ 30, 0.1< p <0.9 N (np, npq)

P ois(λ) λ ≥ 10 N (λ, λ)

Tabla 1. Aproximaciones de la Binomial, Poisson y Normal.

∗ Si n ≥ 30, p > 0.9, entonces se usa que

P(Bi(n, p) = k) = P(Bin(n, 1 − p) = n − k) ' P(P ois(n(1 − p)) = n − k).

27
Temas 3 y 4. Variables aleatorias discretas y continuas

Estadística Descriptiva Variable aleatoria discreta Variable aleatoria continua


Muestra X Variable aleatoria discreta X Variable aleatoria continua
(x1 , . . . , xn ) Sop(X) = {x1 , . . . , xK } Sop(X) = (a, b) ⊆ R
ni
fi = frecuencia relativa p1 , . . . , pK masa de probabilidad f (x) función de densidad
n
n
X K
X Z ∞
fi ≥ 0, fi = 1 pi ≥ 0, pi = 1 f (x) ≥ 0, f (x)dx = 1
i=1 i=1 −∞
Ni
Fi = frec. relativa acumulada F (x) = P(X ≤ x) distribución F (x) = P(X ≤ x) distribución
n

28
FK = 1 (K clases) F (−∞) = 0, F (+∞) = 1 F (−∞) = 0, F (+∞) = 1
n K Z ∞
1X X
x= xi µ = E(X) = xi p i µ = E(X) = xf (x)dx
n −∞
i=1 i=1
n K Z ∞
1X X
s2 = (xi − x)2 σ 2 = Var(X) = (xi − µ)2 pi σ 2 = Var(X) = (x − µ)2 f (x)dx
n −∞
i=1 i=1
n K Z ∞
1X 2 X
s2 = xi − x2 σ2 = xi2 pi − µ2 σ2 = x2 f (x)dx − µ2
n −∞
i=1 i=1
Tabla 2. Relaciones ente Estadística Descriptiva, variable aleatoria discreta y variable aleatoria continua.

También podría gustarte