0% encontró este documento útil (0 votos)
74 vistas80 páginas

T2 Modelos Moodle2020

Este documento describe diferentes modelos de distribución de probabilidad, incluyendo modelos discretos y continuos. Explica las distribuciones uniforme discreta, de Bernoulli, binomial y normal, y proporciona ejemplos de cada una. También cubre conceptos como la esperanza matemática, varianza y función de distribución de estas distribuciones discretas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
74 vistas80 páginas

T2 Modelos Moodle2020

Este documento describe diferentes modelos de distribución de probabilidad, incluyendo modelos discretos y continuos. Explica las distribuciones uniforme discreta, de Bernoulli, binomial y normal, y proporciona ejemplos de cada una. También cubre conceptos como la esperanza matemática, varianza y función de distribución de estas distribuciones discretas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

2.

- MODELOS DE
DISTRIBUCIÓN DE
PROBABILIDAD

Esperanza Ayuga Téllez


Concepción González García
Eugenio Martínez Falero
T.2. Modelos de Distribución de Probabilidad

Contenido:

• Modelos discretos.

• Modelos continuos.

• La distribución normal.

Algunas variables aleatorias siguen distribuciones de probabilidad muy concretas,


como por ejemplo las medidas del contenido de un compuesto contaminante en el
agua de un embalse (v.a. continua), que se modelizan por la distribución “Normal”.

En el tema 1 hemos visto que las variables pueden ser discretas o continuas; por ello, los
modelos de distribución irán asociados al tipo de variable aleatoria, discreta o
continua.
MODELOS DE DISTRIBUCIÓN DE
PROBABILIDAD
• Modelos discretos:

Distribución Uniforme discreta.


Distribución de Bernoulli.
Distribución Binomial.
Otras distribuciones asociadas a la frecuencia de sucesos.
Distribución de Poisson.
Distribución discreta Uniforme
La variable aleatoria (v.a.) X: (Ω, A) (ℝ, ℬ)

Con dominio DX = { 1,2,3,…, n} y función de masa


P[X=x]= pX(x) = 1/n ,  x  DX y P[X=x]= 0, en otro
caso.
Tiene una distribución discreta Uniforme, con función de distribución:

0 𝑠𝑖 𝑥 < 1
1
si 1 ≤ 𝑥 < 2
𝐹 𝑥 =𝑃 𝑋≤𝑥 = 𝑛
2
si 2 ≤ 𝑥 < 3
𝑛
...
(n-1)/n si (n-1) ≤ x <n
1 si 𝑥 ≥ n
Distribución discreta Uniforme
Los principales momentos son:
La Esperanza matemática:

𝑛 𝑛 1 1 1 1+𝑛 𝑛 1+𝑛
µ = E(X) = 𝑖=1 𝑥𝑖 𝑃(𝑋 = 𝑥𝑖 ) = 𝑥
𝑖=1 𝑖 𝑛 =
𝑛
1 + 2 + ⋯𝑛 =
𝑛 2
=
2

y la Varianza

𝑛 2 1 1+𝑛 2 1 1+𝑛 2
σ2 =Var[X] = E[X2] - µ2 = 1 𝑥𝑖 𝑛 − 2
= 12 + 22 + ⋯+ 𝑛2 𝑛 − 2
=
𝑛(𝑛+1)(2𝑛+1) 1 1+𝑛 2 𝑛+1 𝑛−1 𝑛2 −1
= − = = 12
6 𝑛 4 12

𝑛2 −1
Siendo la desviación típica: σ = 𝑉 𝑋 = 12
Ejemplo: Distribución discreta Uniforme
1.- Experimento de lanzar un dado: ejemplo que cumple la distribución uniforme discreta,
ya que Cx = { 1,…,6} con P(x) = 1/6.

[Link]

2.- Experimento de extraer una bola de un bombo con 50 bolas numeradas de 1 a 50,
Cx = { 1,…,50} con P(x) = 1/50.

3.- Sea la v.a. X = nº de vehículos Diesel que se permite entrar en el centro histórico
de una ciudad en un día, con Dx = {0, 1, …,24}. Su función de probabilidad de masa
es

P{X=0}= P{X=1} = …= P{X=24} = 0,04


Distribución de Bernoulli
Dado un espacio probabilístico (Ω, A, P) y un suceso (B); la distribución de Bernoulli
es la de la variable aleatoria indicador del suceso B (IB).

Si P(B) = p, la función de masa será:


P{w∈Ω / IB(w) = 1} = P(B) = p si x = 1
pX(x) = P{w∈Ω / IB(w) = 0} = P(noB) = 1- p = q si x = 0
0 en todo otro caso

y la función de distribución:
 0 si x0

F X ( x)  1 - p si 0  x  1
 1 si x 1

Los principales momentos son:
E[IB] = 0(1-p) + 1p = p y Var[IB] = E[IB2] - E2[IB] = p – p2 = p(1-p) = pq

y, finalmente, la función característica es: I B (t )  x 0 e p X ( x)  pe  q


1 itx it
Distribución de Bernoulli
Ejemplos:
 El 10% de los trabajadores del país está desempleado, ¿Cuál es la probabilidad de
seleccionar un individuo al azar y esté desempleado?

X = 1⇒ Desempleado p = 0,1
X = 0 ⇒Empleado q = 1-p = 1-0,1 = 0,9

p(x=1)=0,1

 La probabilidad de tener una unidad defectuosa en una línea de ensamblaje es de


0.05. Distribución de probabilidad de la v.a. Xi : estado de una unidad terminada en
la línea de ensamblaje en el momento i,

DX = { Xi = 0 (unidad no defect.), Xi = 1 (unidad defectuosa)

PX = P[Xi = 1]= 0,05 , P[Xi = 0] = 1 – 0,05


Distribución Binomial
Si el experimento consiste en la repetición de n pruebas de Bernoulli independientes. Se
trata de un experimento compuesto
Para calcular la probabilidad de que el suceso B, aparezca un número determinado de
veces se construye un espacio probabilístico asociado (Ωn, A n, Pn), de forma que:
Ωn = Ω × … × Ω
A n = A ⊗ … ⊗A
Pn(S1 × … × Sn ) = P(S1) ∙…∙ P(Sn) (por independencia)
donde:
Ω es el mismo espacio muestral asociado a la prueba de Bernoulli;
A = {Ø, B, noB, Ω};
P es la definida para el modelo de Bernoulli y
Si es un suceso genérico en la i-ésima prueba de Bernoulli.

Sobre este espacio probabilístico, una variable aleatoria (X) sigue una distribución binomial
de parámetros n, p [X ∼ B(n, p)],
Siendo X = número de veces que ocurre el suceso B en n repeticiones del exp. Bernoulli.
DX = {0, 1, 2, …, n}
Distribución Binomial
Función de masa.
Supongamos el siguiente resultado específico que consiste en la obtención del suceso B, k veces. Su
probabilidad de ocurrencia será:
Pn(B × … ×B × noB … × noB) = P(B) ∙…∙ P(B) ∙ P(noB) ∙…∙ P(noB) = pk (1-p)n-k
k veces n - k veces k veces n - k veces

El número de resultados en los que B aparece k veces (al repetir n veces el experimento) son las
combinaciones de n elementos tomados de k en k (PRn,k). Así:

n
P ( X  k )  p X (k )    p k q n  k
k 
Momentos y función característica.
La consideración de las distribuciones binomiales (X) como suma de n variables independientes de Bernoulli
(Xi), de parámetro p, facilita el cálculo de las características de la distribución. Así:
E[X] = E[X1 + … + Xn] = ∑i=1, …, n E[Xi ] = np
Var[X] = Var[X1 + … + Xn] = ∑i=1, …, n Var[Xi ] = npq y
φX(t) =E[eitX ]  E[e 1 ]  E[eitXn ]  ( peit  q) n
itX

Teorema de adición:

Sean X1, …, Xk , k variables binomiales independientes con Xi ∼ B(ni, p). Entonces:


Sk= X1, +…+ Xk ∼ B(n1+ …+ nk , p)

Si no tienen la misma probabilidad no se pueden sumar.


Función de masa Distribución Binomial
pX(k) 0,3
0,25
B(10, 0.15) B(10, 0.5) B(10, 0.85)
0,2

0,15

0,1

0,05

0 k k k
0 10 20 30 0 10 20 30 0 10 20 30

Ejemplos:
Cada muestra de aire tiene 10% de posibilidades de contener una molécula rara
particular. Se obtienen 18 muestras, de manera independiente, y se analizan. Probabilidad
de que 2 de ellas contengan la molécula rara.
X = número de muestras con molec. rara en las 18 analizadas
n k = 2 ; n = 18 ; p = 0,1 , q = 0,9
P ( X  k )  p X (k )    p k q n  k
k 
P( X = 2) = 0,284
Distribución de la Fr

Distribución de la variable “frecuencia relativa”.

La variable frecuencia relativa (Fr) se define como el número de veces que aparece un suceso al repetir n
veces, en condiciones de independencia, un experimento aleatorio, dividido por el número de repeticiones del
experimento. Así Fr = X / n, donde X∼ B(n, p).
Ambas variables comparten funciones de masa pFr(k / n) = pX(k), pero tienen diferente soporte:
DFr = {0, 1/n, 2/n, …, 1} y DX = {0, 1, 2, …, n}

La esperanza y la varianza también son distintas: 1


E[ Fr ]  E[ X / n]  E[ X ]  p
n
1 pq
Var [ Fr ]  Var [ X / n]  2 Var [ X ] 
n n

La función de masa de la frecuencia relativa se distribuye en torno a la probabilidad de


ocurrencia de un suceso (p) y su variación es tanto menor, cuento mayor sea el número
de repeticiones del experimento. Esta propiedad se refleja con mayor precisión en el
teorema de Bernoulli.
Distribución de la Fr
Teorema de Bernoulli
La frecuencia relativa de un suceso converge en probabilidad a su probabilidad:
 / 0    1  lim P Fr  p     0
n 

La demostración es inmediata: por aplicación del teorema de Tchevichev se tiene que:


P(|Fr - p| > ε) < (pq) / (nε2) y si n → ∞ ⇒ (pq) / (nε2) → 0.

Ejemplo:
La probabilidad de que un deportista gane una competición es 0,4. ¿Cuántas veces
habrá de competir para que tenga una probabilidad de al menos 0,95, de que la
frecuencia relativa de triunfos difiera de 0,4, en valor absoluto, como máximo en 0,02?
Distribuc. derivadas de la Distribución Binomial
Distribución multinominal.

Representa las probabilidades de que se presenten los diferentes sucesos de un sistema completo (B1, B2, …,
Bk), cuando se repite n veces (en condiciones de independencia) un experimento aleatorio. El vector aleatorio
(X1, X2, …, Xk) de variables independientes que muestra, para cada variable (Xk), el número de veces que
aparece el suceso Bk sigue una distribución multinomial de parámetros n, p1, p2, …, pk, lo que se denotará
como: (X1, … , Xk) ∼MB(n, p1, … , pk).

La función de masa conjunta es: n!


p X 1 ,...,X r (k 1,..., k r )  P ( X 1  k1 ,..., X r  k r )  p1k1    prk r
k1!...  k r !
y algunos momentos característicos son:
E[Xi] = npi Var[Xi] = npi (1 - pi) Cov[Xi , Xj] = npi pj
T.2.- Modelos Distr. Probabilidad GITA

Distrib. Multinomial
Generalización de la distribución Binomial
Ejemplo:

Un método de diagnóstico tiene 3 resultados posibles: positivo (P),


negativo (N) y dudoso (D). Se sabe que, en la población, el 10% de
los sujetos son positivos, el 70% negativos y el resto dudosos. ¿Qué
probabilidad hay de que, en una muestra de 5 individuos, obtener
exactamente 1 positivo, 1 negativo y 3 dudosos ?

Px (X1=1, X1=1, X1=3)=


Distribución Binomial y asociadas
Ejemplos.
1.- Un nuevo fármaco se suministra a 10 enfermos. Se sabe que es efectivo en el 10% de los casos. Calcular
la probabilidad de que sea efectivo en 5 o más de esos 10 pacientes.

En cada paciente se observa un experimento de Bernoullli con B=“sana” y noB=“no sana” y con P(B) = p = 0,3 y
P(noB) = q = 0,7. Si se repite la observación de 10 pacientes independientes (n = 10), la variable X=“número de
pacientes sanados al observar a 10”, sigue una distribución B(10, 0.3) y la probabilidad pedida será:
10
10 
P ( X  5)    0.3k 0.710 k  0.15
k 5  k 

2.- En una fábrica de madera laminada-encolada se emplean 3 tipos de cola diferentes, de forma indistinta. La
proporción de tableros encolados con el tipo A es del 50%, con el tipo B del 35% y con el tipo C del 15%. En
una muestra de 30 tableros, ¿Cuál es la probabilidad de que haya la misma cantidad de tableros con cada
cola?. Determinar, también , la probabilidad de que 20 se hayan encolado con cola A y 10 con cola B.

Se trata de una variable multinomial, por lo que:


30!
P( A  10, B  10, C  10)  0.5100.35100.1510  0.00086
10!10!10!
30!
P( A  20, B  10, C  0)  0.5200.3510  0.00079
20!10!
Cálculo de probabilidades en Excel. Distribución Binomial

n
n n
P( X  x)     p x (1  p ) n  x P ( X  k )    p k q n  k
x 0  x  k 
Otras distribuciones asociadas a la frecuencia de sucesos

Distribución Geométrica o de Pascal

Sea el experimento consistente en la realización de varias pruebas de Bernoulli en


condiciones de independencia.
La variable X =“Número de repeticiones del experimento hasta que aparece, por primera vez,
el suceso B” sigue una distribución geométrica ≈ G(p).
DX = {1, 2,…, n, ...} conjunto infinito numerable.
Si P(B) = p, su función de masa es: p X ( x)  (1  p) x 1 p
Ejemplo:
La probabilidad de que una muestra de aire contenga una molécula rara es 0.01. Si se
supone que las muestras son independientes respecto a la presencia de la molécula.
Determinar cuál es la probabilidad de que sea necesario analizar 125 muestras antes de
detectar una molécula rara.
G( p= 0.01)

Px (x= 1)= (1- 0.01)125-1 0.01= 0.0029


Otras distribuciones asociadas a la frecuencia de sucesos
Distribución binomial negativa.

Sea el experimento consistente en la realización de varias pruebas de Bernoulli en condiciones


de independencia. Si el suceso B [con P(B) = p] ha aparecido r veces.
La variable X=“Número de fallos antes de la r-ésima aparición de B” sigue una
distribución binomial negativa y su función de masa es:
 r  x  1 r
p X ( x)    p (1  p ) x
 x 
Ejemplo:
Se investiga la presencia de mariposas con larvas defoliadoras en una zona en la que se sabe que las
mariposas defoliadoras son el 15% del total de mariposas. Como los métodos de captura no permiten
distinguir a priori entre mariposas defoliadoras y no defoliadoras (estas últimas son relevantes para
múltiples procesos ambientales), se quiere conocer: ¿Cuál es la probabilidad de capturar 10 mariposas
de especies no defoliadoras antes de encontrar:
a. Un ejemplar del tipo estudiado?
Para X∼ geométrica:
P( X  10)  0.15  0.8510  0.02953
b. Tres ejemplares del tipo estudiado?
Para X∼ binomial negativa:
10  3  1
P ( X  10)    0.153  0.8510  0.04385
 10 
Otras distribuciones asociadas a la frecuencia de sucesos
Distribución hipergeométrica.
Supóngase que se tiene una población de N elementos de los cuales, m pertenecen a la categoría
B y N-m a la categoría no-B. La distribución hipergeométrica mide la probabilidad de obtener x
elementos de la categoría B al extraer sin reemplazamiento n elementos de la población original.
Su función de masa es:
 m  N  m
    
nx 
p X ( x)    
x
, si {0, (n  m)}  x  min{m, n} y p X ( x)  0 en caso contrario
N
 
n
Ejemplo:
En fabricación, los lotes de N=25 piezas se controlan examinando n=5 piezas (de las 25) y aceptando
como bueno el lote si, de las 5 piezas examinadas, hay como máximo 1 defectuosa. Si la probabilidad de
que una pieza sea defectuosa es p, se pide: determinar la probabilidad de aceptar un lote

Esta probabilidad será:


 25  25 p   25 p 
1 
    

P( X  1)      
5 k k
k 0  25
 
5
Distribución de Poisson

Un experimento de Poisson consiste en contar el número de sucesos


que ocurren en un intervalo continuo (de tiempo, longitud, superficie,
etc.), de tal manera que si se reduce lo suficiente el intervalo, ocurre
que:
a. La probabilidad de que ocurra un único suceso en el intervalo es constante
(p).
b. La probabilidad de obtener más de un suceso en el intervalo es 0.
c. La probabilidad de observar un suceso en cualquier intervalo es
estadísticamente independiente de la de cualquier otro intervalo.
d. Las probabilidades de ocurrencia de un suceso solo dependen de la longitud
del intervalo en que se analiza, no del instante de ocurrencia.

Si se cumplen las condiciones anteriores, la distribución de Poisson


permite determinar la probabilidad del:
Número de caudales torrenciales que aparecen en una unidad de tiempo.
Número de conexiones a un servidor de internet en un día.
Numero de radiaciones radiactivas que se reciben en un lapso de tiempo.
Distribución de Poisson

Esta distribución discreta se adapta muy bien a procesos biológicos, donde X suele
representar el número de eventos independientes que ocurren a velocidad
constante en un intervalo de tiempo o en un espacio.

Así, X una variable aleatoria discreta, se dice que se distribuye como una
distribución de Poisson,
X → P( λ) con λ > ,0

si su función o distribución de probabilidad viene dada por

λx - λ
P( X = x) = e , x = 0,1,2,...
x!

En esta distribución λ representa el número promedio de ocurrencias en un


intervalo de tiempo o en un espacio. Por lo tanto, para esta distribución se verifica que
su esperanza y su varianza son:
E[X] = λ y V[X] = λ
Distribución de Poisson

Y su función o distribución viene dada por

λx - λ
P( X = x) = e , x = 0,1,2,...
x!
Distribución de Poisson
Características de la distribución de Poisson.

λx - λ
Función de masa: P( X = x) = e , x = 0,1,2,...
x!


∞ ∞ ∞
λx - λ λx - λ λx -1
E[ X ] = ∑ x e = ∑ x e = λe ∑ -λ

x=0
x! x =1
x! x =1
( x - 1)!
x x
∞ 2 -λ λ = -λ ∞ 2 λ -λ ∞ λx -λ ∞ λx
E[ X ] = ∑
2
x e +e ∑ x =e ∑ x( x - 1) + e ∑ x =
x=0 x! x=0 x! x=0 x! x = 0 x!

∞ λx - 2 ∞ λx -1
= e - λ λ2 ∑ + e- λ λ ∑ (
= e - λ λ2e λ )
+ λe λ = λ2 + λ
x = 2 ( x - 2)! x =1 ( x - 1)!

Media y varianza: E[X] = λ Var[X] = λ

x
Función característica: φX(t) = E[eitX] =∑ ∞ itX - λ λ λ(eit - 1)
e e = e
x=0 x!
Índices de agregación. Distribución de Poisson
IAX = Var[X] / E[X]. En modelos de Poisson Var[X] = E[X] ⇒ IAX = 1. En otros casos esto no ocurre, por
ejemplo, si Y sigue una distribución binomial negativa de parámetros r, p; entonces: IAY = 1/p, p∈(0, 1).

Variable: NÚMERO DE INDIVIDUOS POR UNIDAD ESPACIAL ELEMENTAL


espacial de una
Distribución

especie

Índice de
agregación >1 ≃1 <1

Expansión o recesión Equilibrio Población artificial


Tipo de proceso

Elevada presencia de individuos hijos El número de individuos en Los individuos se sitúan a la


ambiental

en la proximidad de los padres


Elevadas concentraciones de unidad espacial homogénea misma distancia unos de
individuos en zonas aisladas , sin es relativamente constante. otros al haberse mecanizado
presencia en otras partes del territorio su ubicación.
(La varianza de la variable (La varianza de la variable
analizada es grande y crece analizada es próxima a 0 y
con la dispersión). decrece con la regularidad.
Características de la distribución de Poisson Distribución de Poisson
(continuación) .
P(X = x)
Función de masa de la distribución de Poisson de
parámetro λ = 7
0,16

0,14

0,12

0,1

0,08

0,06

0,04

0,02

0
0 5 10 15 20 25 30 x

Teorema de adición:

Sean X1, …, Xn , n variables independientes de Poisson con Xk ∼ Poi(λk). Entonces:


Sn= X1, +…+ Xn ∼ Poi(λ1+ …+ λn)
Distribución de Poisson

La distribución de Poisson se obtiene como la distribución límite de una sucesión de variables


binomiales, B(n,p), donde np = λ y n → ∞:

Xn n →∞
→ X ≈ Poi( λ) ; X n ≈ B(n, p )
(por tanto: p →0 + )

Se utiliza la distribución de Poisson como aproximación de experimentos binomiales


donde el número de pruebas es muy alto, pero la probabilidad de éxito muy baja (por
eso se conoce también (la distr. de Poisson) como ley de los sucesos “raros”.

Se suele utilizar como criterio de aproximación:

n > 30, p ≤ 0,1 ⇒ B(n, p) ↔ Poi(λ = np)


Ejemplos. Distribución de Poisson
5.- En un tramo de carretera, el número de vertebrados atropellados por km, en un mes, sigue una
distribución de Poisson de media 10 vertebrados por km de carretera y mes. Calcular:
a. Probabilidad de que se atropellen 5 vertebrados por km en un mes.
10 105
P( X  5)  e  0.0378
5!
b. Probabilidad de que se atropellen más de 5 vertebrados por km y mes.
5
10x
P( X  5)  1  P( X  5)  1  e 10   0.933
x 0 x!
c. Probabilidad de, como máximo, haya 30 vertebrados atropellados por km, en los 5 meses de la
estación turística de primavera-verano.
Por el Th de adición el número de atropellos en 5 meses es una distribución de Poisson de
parámetro λ´ = 10+10+10+10+10 = 50. Por tanto:
30
50x
P(Y  30)  e 50

x 0 x!
 0.0016

6.- El número de insectos hembras (por ha) en una región sigue una distribución de Poisson con media λ. El
número de huevos puestos por cada insecto es también una variable de Poisson, pero de parámetro μ.
Determinar la distribución de probabilidad del número de huevos por ha en la región.

Sean las variables: F=“Número de insectos hembra (por ha) en una región” e Y=“Número de huevos (por ha) puestos
por los insectos de esa región”. Por tanto:
e    f e  f  f  
y
PY  y, F  f   PF  f  PY  y / F  f   
f! y!
Entonces:
PY  y  
e   y 
e 
 f
f y

y!

f 0 f!
Ejemplos. Distribución de Poisson

6.- El
número de insectos hembras (por ha) en una región sigue una distribución de
Poisson con media λ. El número de huevos puestos por cada insecto es también una
variable de Poisson, pero de parámetro μ. Determinar la distribución de
probabilidad del número de huevos por ha en la región.

Se definen las variables:


F=“Número de insectos hembra (por ha) en una región”
Y=“Número de huevos (por ha) puestos por los insectos de esa región”.
Por tanto:
e    f e  f  f  
y
PY  y, F  f   PF  f  PY  y / F  f   
f! y!
Entonces:
PY  y  
e   y 
e 
 f
f y

y!

f 0 f!
Cálculo de probabilidades en Excel. Distribución de Poisson

x
k x
P( X  x)   e 
P( X  x)  e 
k 0 k! x!
T2.- MODELOS DE DISTRIBUCIÓN DE PROBABILIDAD

• Modelos continuos:
Distribuciones continuas con soporte de longitud finito.
Distribución Uniforme continua.
Distribución Beta.
Distribuciones de la variable “tiempo de espera”:
Distribución Exponencial y Gamma y
otras exponenciales .

Distribución normal.
Distribuciones continuas con soporte de longitud finito
Distribución uniforme.
Una variable se distribuye según una distribución uniforme en el intervalo [a, b]
(X∼U[a, b]) si su función de densidad es:
0 x<aox>b
f X ( x) = 1
Es una función de densidad cte. a≤ x≤b
b-a
Supone que la probabilidad de que tome valores en un intervalo es proporcional a la
longitud del intervalo: P[X∈(c,d)] =[1/(b-a)]⋅(min{b, d}-max{a,c}).
Y la función de distribución:

1 t≠0
φ(t) = E[eitX] = eitb - eita
t=0
it (b - a)
E[X ]= (a+b)/2 Var[X ]= (b-a)2/12

[Link]
Distribución Uniforme
Ejemplo:
En un trayecto urbano hay dos semáforos consecutivos de modo que 2,5 minutos
después de que el primero se ponga verde se pone rojo el segundo. Ambos se cierran
cada 2 minutos, permaneciendo cerrados 30 segundos.
Un conductor se ha detenido en el primero y el tiempo en recorrer la distancia entre
ambos semáforos es una U(1,4). ¿Cuál es la probabilidad de que se pare en el segundo?

Del enunciado se deduce que deberá parar si emplea entre 2,5 y 3 minutos en ir del
primero al segundo, es decir,
P[2.5 < X < 3]= F(3) - F(2,5) = (3-1) / 3 - (2,5-1) / 3 = 0,17.

[Link]
Distribuciones continuas con soporte de longitud finito
Distribución beta.
A partir de la función matemática beta, definida en [0 ; 1] como:
1
B(α , β ) = ∫0 x α -1 (1 - x ) β -1 dx

que satisface las siguientes propiedades:


i. B(α, β ) = B( β , α )

ii B(α , β ) = ∫ 0+ x α -1 (1 + x ) - α - β dx

Γ (α ) Γ ( β )
iii B(α, β ) =
Γ (α + β )
Se dice que una variable aleatoria sigue una distribución beta de parámetros α,β
[X∼ Beta(α, β)] si su función de densidad es:
x α -1(1 - x) β -1
f X ( x) = 0 < x <1
B(α, β )
0 resto
Distribuciones continuas soporte de longitud finito

Distribución beta (continuación).

[X∼Beta(α, β)] x α -1(1 - x) β -1


f X ( x) = 0 < x <1
B(α, β )
Beta(1,1) ≡ U[0, 1] 3
0 resto
2,5
3
Características
3,5 de la variable Beta: 2,5
22
f(x) f(x)
33 α=0,5 β=0,5
Series1
22
α=4
Series2 β=4 1,5 α=1
Series1 β=2
2,5
α=2
Series2 β=2
1,5 α=1 β=2
Series1
2 11 α=4
Series3 β=2
α=0,5 β=0,5
Series1 α=2 β=2
Series2
1,5 11 α=9
Series4 β=4
α=4
0,5 β=4
Series2 α=4 β=2
Series3

41146 .5
36 .4 51 56 .6
61 66.7
71 76 .8
81 86 .9
91 96 1 α=9 β=4
Series4
0,5
0,5 00

00 00
01 6 11
.1 16 21
.2 26 31
.3 36 41
.4 46 51
.5 56 61
.6 66 71
.7 76 81
.8 86 91
.9 96 1 x
01 6 .1
11 16 .2
21 26 .3
31 36 .4
41 46 .5
51 56 .6
61 66.7
71 76 .8
81 86 .9
91 96 1 x 01 6 11
.1 16 21
.2 26 31
.3 36 41
.4 46 51
.5 56 61
.6 66 71
.7 76 81
.8 86 91
.9 96 1

Momentos
α αβ
E[ X ] = Var [ X ] =
α+ β (α + β ) 2 (α + β + 1)
Distribuciones continuas soporte de longitud finito

Distribución beta (continuación).

[X∼Beta(α, β)] x α -1(1 - x) β -1


f X ( x) = 0 < x <1
B(α, β )
0 resto
Momentos
α αβ
E[ X ] = Var [ X ] =
α+ β (α + β ) 2 (α + β + 1)

Ejemplo:
La proporción media de tubos defectuosos de una fábrica es del 20%. Dicha
proporción se modeliza como una B (p, 8). Calcular p.

E(X)=0.2 = p / (p+8), de donde p=2.


Ejemplos. Distribuciones continuas soporte de longitud finito

10.- De una estación parte un tren cada 20 minutos. Un viajero llega de imprevisto.
Hallar:
a) Función de distribución de la variable “tiempo de espera”.

Como se llega de improviso, se supone que todos los momentos de llegada son
equiprobables, por lo que la variable sigue una distribución U[0, 20] con:

0 x≤0
F(x) = P[X≤x] = x/20 0 < x < 20
1 x ≥ 20

b) Probabilidad de que espere, como máximo 7 minutos.

P[X≤7] = F(7) = 7/20

c) Esperanza y varianza de dicha variable.


E[X] = (0+20)/2 = 10; Var[X] = 202/12=100/3

d) Probabilidad de que espere exactamente 12 minutos

Por ser una variable continua: P(X=12) =0


Ejemplos. Distribuciones continuas soporte de longitud finito

11.- Definir un procedimiento para generar valores aleatorios de variables aleatorias continuas,
con función de distribución F(x), a partir de los valores de una v.a. ≈ U [0, 1].
∀ F(x)=P[X≤ x] ⇒ Y=F(x) es U[0, 1].
Entonces:
Φ(y) = P[Y ≤ y] = P[F(x) ≤ y] = P[X ≤ F-1(y)] = F [F-1(y)] = y

Por tanto, para obtener valores aleatorios de una variable aleatoria continua, basta
generar y1, …, yn valores de una U[0, 1] y transformarlos luego a
x1 = F-1(y1), …, xn = F-1(yn)
F(x)
1-
ALEATORIOS DE Y∼U[0, 1]

y3
GENERA VALORES

y2
y1
0-
x
F-1(y1) =
F-1(y2) =

F-1(y3) =

x3 OBTIENE VALORES
x1 x2
ALEATORIOS PARA X∼FX(x)
Distribuciones del tiempo de espera
Distribución Exponencial
1
-t  e -t  si t  0
⇒-S (t )  f (t )  
S (t )  e
T∼Exp(θ)
0 si t ≤ 0
Toda variable aleatoria T, con esta función de densidad, se dice que sigue una
distribución exponencial de parámetro θ y se representa como T∼Exp(θ).
Su función característica: φT(t) = [1-itθ]-1
Derivando φT(t) una vez se obtiene la E[T] = θ; φ’’T(t) = E[T2] y Var[T] = θ2
Aplicación de la distribución exponencial: “tiempo de vida de un elemento”
Por ejemplo: una pieza que haya durado un tiempo s, la probabilidad de que siga
funcionando un tiempo t más, será

𝑃[ 𝑇> 𝑡+𝑠 ∩ 𝑇>𝑠 ] 𝑃[𝑇>(𝑡+𝑠)] 𝑒 −(𝑡+𝑠)/𝜃


𝑃[𝑇 > (𝑡 + 𝑠)/(𝑇 >s]= = = = 𝑒 −𝑡/𝜃 = 𝑃 𝑇 > 𝑡
𝑃[𝑇>𝑠] 𝑃[𝑇>𝑠] 𝑒 −(𝑠)/𝜃

Esta propiedad se conoce como falta de memoria de la distribución exponencial.


Significa que una componente que no haya fallado es tan buena como si fuera
nueva. Esta consideración permite aplicar el modelo exponencial al tiempo de vida
de sistemas con reducido rozamiento (motores eléctricos, organismos unicelulares,
etc.) en los que el tiempo vivido no afecta a la probabilidad de supervivencia
posterior.
Distribuciones del tiempo de espera
Distribución Exponencial

La distribución exponencial se puede describir como la distr. de la variable


T= “tiempo de espera hasta que ocurre el primer suceso de Poisson”
de parámetro λt.

Así: P[T > t] = P(no ocurra ningún suceso de Poisson en [0,t]) = P0(t) = e- λt

Por tanto:
FT(t) = P[T ≤ t] = 1- e- λt ⇒ fT(t) = λ e- λt

que, al hacer el cambio: λ = 1/ θ coincide con la distribución del modelo


exponencial.
Distribuciones del tiempo de espera

Variable “tiempo de espera de un cierto número de sucesos de Poisson”.

La función de densidad de esta variable (Tr) se obtiene al considerar que


P[Tr>t] = P (ocurra el suceso r-ésimo de Poisson después de t) =
= P (nº de sucesos en (0, t] < r)
Por tanto: r -1 k
( λt )
P[Tr>t ] = P[ X (t ) < r ] = P[ X (t ) ≤ r - 1] = ∑ e- λt
k =0
k!

La función de distribución es FTr(t) = 1-P[Tr>t] y su derivada será la función de


densidad: d t r -1e- λt
fTr (t ) = - P[Tr > t ] = r
, t>0
dt (1 / λ) (r - 1)!

Si se hace el cambio λ = 1/ θ , resulta:


t r -1e -t θ
t>0
fTr (t ) = θ r ( r - 1)!
0 t≤0
Distribuciones del tiempo de espera
Ejemplos.

7.- Se ha comprobado que el tiempo de vida de ciertos elementos sigue una distribución
exponencial con media de 8 meses. Se pide:

a) Calcular la probabilidad de que un elemento tenga una vida entre 3 y 12 meses.


Para una distribución exponencial con parámetro θ = 8:
12 1 -t 8
P[3  T  12]  ∫ e dt  0.4641
3 8

b) El percentil del 95% de la distribución.


Se busca el valor x tal que P[T≤x] = F(x) = 0.95

x x 1 -t 8
F ( x) = ∫ f (t )dt = ∫ e dt =1 - e- x 8 = 0.95 ⇒ x = -8 ln 0.05 = 23,97
0 08

c) La probabilidad de que un elemento que haya funcionado ya más 10 meses, viva 15 meses
más.
Por la propiedad de falta de memoria de la distribución exponencial:

P{[T > (10+15)]/[T>10]} = P[T >15] = 1- F(15) = 0,1534


Distribuciones del tiempo de espera
Otras distribuciones asociadas a la Exponencial y definidas como “tiempos de espera”

Si λ(t) = (α/β)tα-1 , entonces la función de densidad


α será:
(α β )t α -1e-t β si t > 0
f (t ) =
0 si t ≤ 0
lo que corresponde a una distribución Weibull de parámetros α, β.

Cuando α <1 indica que la tasa de fallos decrece con el tiempo (sistemas adaptativos
inteligentes, que aprenden con el tiempo); cuando α =1, la tasa de fallos es constante en
el tiempo (distribución exponencial) y cuando α > 1 indica que la tasa de fallos crece
con el tiempo.

Un caso particular de la distribución de Weibull es la Rayleigh, que supone una tasa de


fallo lineal: λ(t) = (2/β)t, en cuyo caso, la función de densidad es:

-t 2 β
(1 β )2te si t > 0
f (t ) =
0 si t ≤ 0
Distribuciones del tiempo de espera
Ejemplos.
8.- Un fabricante de lavadoras garantiza sus productos contra cualquier defecto durante el primer
año de uso normal. El fabricante ha estimado un coste medio de reparación de 68 euros por cada
lavadora averiada durante el primer año de funcionamiento. Su experiencia le permite suponer
que el tiempo (en meses) transcurrido hasta que se produce el primer fallo es una variable con
distribución Weibull de parámetros α = 2 y β =1600.
Si el fabricante espera vender 100.000 unidades, determinar el coste estimado de la garantía.

α -1 -t α β
(α β )t e si t > 0
Función de densidad de la distrib. de Weibull: f (t ) =
0 si t ≤ 0

La probabilidad de que una lavadora falle en el primer año será:

12
2 2
−𝑡1600
2
−121600
𝑃 𝑋 ≤ 12 = 𝑡𝑒 𝑑𝑡 = 1 − 𝑒 = 0.0861
0 1600

Luego el número esperado de lavadoras con fallos en el período de garantía será


de 8610 y, el coste de la garantía, será de: 585480 euros.
Distribución Gamma
Es otra generalización de la distribución exponencial.
Se dice que una variable aleatoria X sigue una distribución Gamma de parámetros α, β
si su función de densidad tiene la siguiente expresión:

x -1e - x 
x0
f ( x)    ( )
y se representa por X∼γ(α, β ). 0 x0

Γ(α) es una función continua y convergente para α>0, definida como:



Γ (α ) = ∫ + x α -1e - x dx
0
y satisface las siguientes propiedades:
i. Γ(1) = 1
ii. Γ(α+1) = α Γ(α) (con α > 0)
iii. Γ(α+1) = α! (con α > 0 y α∈ℕ)
iv. Γ(1/2) = π
Forma de la función de densidad. Distribución Gamma

Para α < 1 es estrictamente decreciente y ocurre


que: f(x) → 0 cuando x → ∞ y también sucede que:
f(x) → ∞ cuando x → 0.
Para α > 1 tiene una única moda en el punto:
•Para α = 1 es una exponencial de parámetro θ = β.
x = (α-1) β.

f(x) f(x)
2,5
0,9 0,9
f(x) 0,8 0,8
2
0,7 0,7
α =3 α
1,5 Series30,6 0,6
β=0.33
Series1
Series40,5 0,5
1 β=1
Series2
α =0.5
0,4 β=0.5
Series2 0,4
β=1.66
Series3
α =10,3
Series1 β=0.5 0,3
0,5 β=2.33
Series4
0,2 0,2

0 0,1 0,1
x
x x
113
106

120
1
8
15
22

36
43

57
64
71
78

92
99
29

50

85

0 .5 1 1.5 2 2.5 3 0 0

100
111
122
133
144
155
166
177
188
199
1
12
23
34
45
56
67
78
89

100
111
122
133
144
155
166
177
188
199
1
12
23
34
45
56
67
78
89
0 2 0 4 2 6 4 8 6 10 8 10
Forma de la función de densidad. Distribución Gamma

•Para α = n/2, con n>0, y β= 2 se obtiene la distribución χ2n que se desarrollará en el apartado
de la distribución normal y desempeña un importante papel en teoría de muestras.

•Para α = r y β = θ = 1/λ se obtiene la distribución de la variable “tiempo de espera hasta la


aparición del r-ésimo suceso de Poisson” (el parámetro α es el nº de sucesos Poisson)

Teorema de adición: Sean X1, …, Xn , n variables independientes con distribución


Xi ∼ γ(αi, β). Entonces:
Sn= X1, +…+ Xn ∼ γ(α1+ …+ αn, β)

Momentos.
E[X]= α β Var[X]= α β2
Ejemplo. Distribución Gamma
9.- La duración (en horas) de una cuchilla de motosierra es una variable que sigue una Gamma de
parámetros α = 2 y β=20. Obtener su F(x), la duración esperada de una cuchilla y la probabilidad
de que se tenga que cambiar antes del tercer día de trabajo.
x 1 
t
  x
x

F [ x]   te 20
dt  1  e 20
  1
 20 
2
0 (20)
x =24
E[X] = α β = 40 horas
3 días (8 horas/día) = 24 horas. FX∼γ(2, 20)(24) = 0.337372728

Función de distribución

Función de densidad
Distribuciones de valores extremos
Sean X1, X2, ..., Xn , n [Link]. independientes y con la misma distribución [FX(x) y fX(x)].
La variable Y definida como: Y = max (X1, ..., Xn) se conoce como la variable máximo y
su función de distribución será:

FY(y) = P(Y≤y) = P[max(X1,..., Xn) ≤y] = [F(y)]n

Como Xi ≤ max(X1,...,Xn) -para i = 1,2,...,n-, el suceso max(X1, ..., Xn) ≤ y es equivalente al


suceso (X1≤y, …, Xn≤y). Es decir, para que el máximo de (X1,...,Xn) sea menor o igual a un
número y, cada una de las Xi tiene que ser menor o igual a ese número y.
Por lo tanto:
FY(y) = P(X1 ≤y, …, Xn≤y) = P(X1≤y)…P(Xn≤y) = [P((X1≤y)]n = [FX(y)]n

Y su función de densidad será:


fY(y) = FY (y)' = ([F(y)]n)' = n[FX(y)]n − 1fX(y)
Distribuciones de valores extremos
Distribución Gumbel.

Cuando las variable Xi son exponenciales, normales o gamma, Y = max(X1, ..., Xn) se aproxima
a una distribución Gumbel (tanto más cuanto mayor es n).
-( x- μ ) / β
La función de distribución de una variable Gumbel es: F ( x) = e-e , -∞≤ x ≤∞

Características:
Moda: μ Mediana: μ - β ln(- ln(1 2))
E[X]: μ + γβ donde γ = 0.577215
Var[X]: [ βπ / 6 ]2

Aplicación: Se utiliza para el estudio de valores extremos, como el día de mayor


precipitación del año, al cabo de una serie de años. Se trata de obtener la probabilidad (o
período de retorno) se presentará un cierto valor de precipitación o de caudal en un punto
de un río (por ejemplo)

Lectura: [Link]
MODELOS DE DISTRIBUCIÓN DE
PROBABILIDAD
• La distribución normal:
La distribución normal: definición y propiedades.
Teoremas del límite central.
Distribuciones asociadas a la normal.
Distribución normal multivariante.
Distribución Normal

1777-1855

Def: Una v.a. X sigue una distribución Normal o de


Gauss si su función de densidad es:

1 1 𝑥−𝜇 2

𝑓 𝑥 = 𝑒 2 𝜎
𝜎 2𝜋

μ es la media σ es la desviación típica y se representa


como X∼N(μ, σ ).
La distribución normal: definición y propiedades
Una variable aleatoria X se dice que sigue una distribución normal o de Gauss con parámetros μ,
σ , si su función de distribución F(x) es absolutamente continua con la siguiente función de
densidad:
1 1
f ( x)  exp(- 2 ( x -  ) 2 ) para - ∞  x  ∞
2  2 y se representa como X∼N(μ, σ ).

Momentos: E[X] = μ y Var[X] = σ2

1
1 x - (t - μ ) 2
2σ 2
Su función de distribución es: F ( x) =
2π σ
∫ -∞ e dt

no tiene expresión conocida, pero está tabulada para valores de μ = 0 y σ =1.


Distribución Normal
0,7

0,6

0,5 0,7
f(x) 0,6
0,4
μ=0
Series1 σ =1.6
0.4
0,3 0,5 μ=0 σ =1
Series2
μ=0 σ =0.4
Series3 1.6
0,2 0,4
μ=0 σ =1.6
Series1
0,1 0,3 μ=0 σ =1
Series2

0
μ=0 σ =0.4
Series3
0,2
-41 5 -3
9 13 17-2
21 25 29
-1 33 37 041 45 491 53 57 61
2 65 69373 77 81
4
0,1

0
x
-41 5 -3
9 13 17-2
21 25 29
-1 33 37 041 45 491 53 57 61
2 65 69373 77 81
4
La distribución normal: definición y propiedades

Toda combinación lineal de variables aleatorias Xi normales, independientes, con media μi


y varianza σi2 (Y=a1X1+…+anXn+b) es también una variable aleatoria normal (teorema de
adición):

𝑛 𝑛 2 2
Y∼ 𝑁(𝑏 + 1 𝑎𝑖 𝜇𝑖 ; 1 𝑎𝑖 𝜎𝑖

Una importante aplicación de esta propiedad es la obtención de la ley de probabilidad de


la variable media muestral obtenida como media aritmética de n observaciones
independientes de una variable.

En general, el conjunto de n observaciones de X se considera como un vector aleatorio de n


variables aleatorias independientes (muestra aleatoria simple),
(X1 , ..., Xn) cada Xi con distribución N(µi ; σi) ¡FALTA EN LIBRO!

la variable aleatoria media aritmética de dichas variables X = ( X1 + ... + X n ) n

tendrá una distribución: N (  ,  n)


La distribución normal: definición y propiedades

Normal tipificada (o estandarizada o reducida).


Es la variable aleatoria con distribución X∼N(0, 1).
Ф(x) es la función de distribución de esta variable .
Toda variable X∼N(μ, σ) mediante el cambio: Z=(X-μ)/σ es Z∼N(0, 1)
con media y varianza: (por ser Z una transformación lineal de X)

E[Z] = E[(X-μ)/σ] = (1/σ){E[X]-μ} = 0 y Var[Z] = (1/σ2){Var[X]-0} = 1

Cálculo de probabilidades de una X∼N(μ, σ)

Al ser una v.a. continua, las probabilidades se calculan para valores en intervalos de ℝ y se
pueden calcular a partir de la distribución de probabilidades de la normal tipificada (Z):

Las probabilidades de Z se obtienen de tablas para la distribución de esta variable; las más
usuales proporcionan el valor de la función de distribución
1 2
1 z -u
Ф(z) = ∫ -∞ e 2 du

En general,
P[a < X < b] = P[(a-μ)/σ < Z < (b-μ)/σ] = Ф{(b-μ)/σ}- Ф{(a-μ)/σ}
[Link]
[Link]
La distribución normal: definición y propiedades

Cálculo de probabilidades de una X∼N(μ, σ)


En los temas de inferencia se emplea la notación zα , 0 < α< 1,
representa el cuantil (o fractil) de orden 1-α de la distribución Z∼N(0,1):

P[|Z| > zα/2] = α y P[Z > zα] = α


La distribución normal: definición y propiedades

Normal tipificada.

Cuantiles (o fractiles) de orden 1-α de la distribución Z∼N(0,1):

P[|Z| > zα/2] = α y P[Z > zα] = α

α zα/2 zα
Valores de cuantiles más

0.01 2.525 2.33


usados

0.02 2.33 2.05

0.05 1.96 1.645

0.10 1.645 1.28


0,45
0,4
0,35
Ejercicio propuesto: 0,3
0,25
Obtener los siguientes fractiles de Z: 0,2
P [Z < z] = 0,95 0,15
0,1
P [Z < z] = 0,975 0,05
10%
0
-41 5 -3
9 13 17-2 -133 37 41
21 25 29 0 45 49153 57 61
2 65 69 373 77 814

z0.1=1.28
La distribución normal: definición y propiedades
Ejemplo.
16.- Calcular el valor de n que hace que la variable "media muestral" satisfaga P (| X - |  ]  
donde α es un valor pequeño, previamente especificado, siendo la variable de partida
X∼N(μ, σ)
Por Th. de adición, si X1, X2, …, Xn son todas N(μ, σ) e indep. ⇒ X = ( X1 + ... + X n ) n ∼
por lo que: N( ,  n)
 X   n
P
 X       1  P  X      1  P 
    

  n  

  n  n 
  n    n  

 1 P  Z   1   
 
   
 
 
      
     

por ser Z∼N(0, 1) y como  


  n   1    n   , resulta que

   n   n  
 
P  X       2 1           1 
        2

Por tanto, al poner la expresión anterior en función de los valores tabulados, se obtiene

 z  2 
2
  n  n    n
P Z    1        z 2  n   
      2    
Teoremas del límite central Distribución Normal

Los teoremas del límite aseguran la convergencia de sumas de varias variables


aleatorias a una distribución normal. :

Sea Sn=X1+X2+ ... +Xn, donde Xi son variables aleatorias independientes con
funciones de distribución Fi(xi) cualesquiera y E[Xi] = μi y Var[Xi] = σi2. Bajo
condiciones muy generales, siendo n suficientemente grande, se puede afirmar,
con un riesgo tanto menor cuanto mayor sea n, que la función de distribución de
Sn tiende a la función de distribución de una variable aleatoria


N in1i , in1 i2 
Es decir, Sn converge en ley a una distribución normal con la media y desviación típica arriba
indicadas, lo que significa que:

1 x  (t   ) 2 
lim FS n ( x)   exp  2 2 dt, donde :   i 1i y   i1 i
n n 2
n   2

y se representa como Sn 

L
X donde X∼ 
N in1i , in1 i2 
Teoremas del límite central Distribución Normal

1 x  (t   ) 2 
lim FS n ( x)    2 2 
          
n n 2
exp dt , donde :  y 
 2
i 1 i i 1 i
n 

Sn 

L n n

X ≈ N i 1i , i 1 i
2

Teorema de Lindeberg y Lévy.

Dadas X1 , …, Xn, n variables aleatorias independientes, con la misma función de distribución


F(Xi) (no necesariamente normal), con E[Xi]=μ y Var[Xi]=σ2 y Sn= X1+ ....+ Xn .
Cuando n es suficientemente grande, la variable aleatoria Zn
S  n N(0,1)
Zn  n
 n 𝑛 →∞
Teoremas del límite central
Teorema de Lindeberg y Lévy (consecuencias)

Consecuencia 1: Convergencia de la media muestral:


X  L  X  ...  X n   S  n   X  
 N(0,1) X  1  Por tanto : P( Z n  z )  P n  z   P  z   ( z )
 n  n    n   n 
Comentario 2: Velocidad de convergencia:
¿Qué valor de n se requiere para obtener una buena aproximación en el cálculo de probabilidades
mediante la aplicación del teorema del límite? o ¿Cual es el error cometido en la aproximación?:

Depende de la velocidad de convergencia de P(Zn≤z) a Φ(z) o lo que es igual, de |P(Zn≤z) - Φ(z)| a 0,


que dependerá de la distribución de las Xi: si las variables Xi tiene una distribución parecida a la de la
distribución normal (por ejemplo, son simétricas), cabe esperar que la aproximación sea buena, incluso
para valores no muy grandes de n. 3
 S  n   X   E[ S   ]
 z    ( z )  P  z    ( z )  0.7975
n S
P ( Z n  z )   ( z )  P n n

  n   n   S3
n

La siguiente expresión proporciona una acotación general para la aproximación, en distribuciones para
las cuales los momentos absolutos de orden tres respecto a la media sean finitos:

Distribución Valor de la cota anterior Aunque esta acotación se utiliza para determinar el valor de n
requerido para obtener una buena aproximación a la distribución
Bernoulli(p) 0.79751  2 p(1  p) np(1  p
normal, en muchas ocasiones no se conocen los momentos
Poi(λ) 
0.7975 82  6  1  n requeridos de Sn y no siempre son finitos. Por otra parte, el error
U[0.5 ; 0,5] 1.036 n cometido puede ser inferior al acotado por la anterior expresión.
Exp(θ) 0.653 n
Teorema de Lindeberg y Lévy (consecuencias) Teoremas del límite central

Comentario 3: Incremento de la precisión por aplicación del teorema del límite (TCL).
Si se utiliza la acotación de Tchebychev para obtener probabilidades de valores de variables
con distribución de probabilidad desconocida, el rango de error es mayor que si se emplea el
TCL.
Por ejemplo, la probabilidad de que la variable aleatoria "media muestral” difiera de su
esperanza matemática converge a 0 con diferentes tasas de convergencia:
 2
  2  0 (Tasa de convergencia : n 1 )
n
 n 
Cota para P ( X    0.1) con   1
P( X     ) 
n  n 2   n
2
 P  X     n
 0,9  
exp 
   2  n 0,8  2 

 
2

0,7
0,6
Cota para P ( X    0.1) con   1
0,9
Comentario 4: Teorema de Laplace-De Moivre. 0,5
0,8 A. Tcheby.
Series1
0,4
Th. Límite
B(n, p) 
 N(np, npq )
0,7 Series2
L 0,3
0,6
0,2
0,5
0,1 A.
Ser
Este teorema es el teorema de Lindeberg-Lévy 0,4
0 Th
Ser
aplicado a la convergencia de la suma de n 1
80,3

22
29
36
43
50
57

71
78
85
92
99
15

64
130 150 170 190 220 230 =n
variables de Bernoulli de parámetro p. 0,2
0,1
0
1
8

22
29
36
43
50
57

71
78
85
92
99
15

64
130 150 170 190 220 230 =n
Teoremas del límite central
Resumen de aproximaciones entre distrib.
De los teoremas del límite se obtienen aproximaciones de distribuciones de v.a.
discreta a la distrib. de v.a. continua, Normal

Distribución Se puede aproximar Regla práctica


a

Hiperg. (N,n,p) B(n,p) Aproximación mejor para N


grande y n pequeño en
comparación con N:
(n/N) < 0,1

B(n,p) Poisson (λ = np) Aproximación mejor para n


grande y p pequeño:
n ≥ 50 y p ≤ 0,1

B(n,p) N(np ; 𝑛𝑝𝑞) np ≥ 5 y nq≥5

Poisson (λ ) N(λ ; λ) Mejor para λ ≥ 5


Teoremas del límite central
Resumen de aproximaciones entre distrib.

np ≥ 5 y nq≥5

50
Teoremas del límite central
Ejemplo de aproximaciones entre distrib.
El 2% de las piezas fabricadas por una máquina presentan defectos. De un lote de 2000 piezas
fabricadas por dicha máquina ¿Cuál es la probabilidad de que haya menos de 50 defectuosos?

X = nº de def. en n n = 2000 p = 0,02 y q = 0,98


es B(n , p)
np ≥ 5 y nq ≥ 5

Se puede aproximar a la distribución Normal:

X es B(2000 ; 0,02) Y es N(40 ; 6,26) Z es N(0 ;1)


49,5−40
P[X < 50] = P[X* ≤ 49,5] = P 𝑍 ≤ =P[Z≤1,52]=0,9357
6,26

*(corrección por continuidad -paso de variable discreta a continua-)


Teoremas del límite central
Corrección por continuidad

Cuando se aproxima de una distribución discreta como Binomial o Poisson a Normal que
es continua, surge un problema en el cálculo de algunas probabilidades.
Así, en el caso discreto la P[a ≤ X ≤ b] no tiene por qué ser igual a P[a < X < b], mientras
que en una continua como la Normal coinciden.
Por ello, cuando se aproxima una variable aleatoria discreta a una continua y se desea que
la aproximación de la probabilidad sea lo más adecuada posible, tendremos que evitar este
problema.

En una distribución discreta, la probabilidad de que la variable tome algún valor


comprendido entre dos considerados como consecutivos es cero, de modo que toda la
región comprendida entre ellos no tiene asignada ninguna probabilidad. Si queremos
continuidad en todos los puntos, parece lógico repartir la probabilidad asignada a xi, a
toda la región más cercana a xi; la probabilidad asignada a xi+1, a toda la región más
cercana a xi+1, etc.
Esto nos conduce al gráfico (histograma) siguiente:
Teoremas del límite central
Corrección por continuidad

Los valores de una variable que sigue una Binomial o Poisson son enteros
positivos (0, 1, 2, …). Cualquier rectángulo centrado en un valor k, será de la
forma: k-1/2, k+1/2; de manera que determinar la probabilidad de P(X=x) en una
Binomial o Poisson, será equivalente a determinar la probabilidad en el intervalo
(x-0.5; x+0.5) utilizando la función de distribución de la normal.
Por tanto, para calcular la P(X=xi) se adopta el criterio de calcular:
P(xi – 0,5 < X < xi +0,5 )
Teoremas del límite central
Ejemplo.
17.- Se considera que el tiempo de funcionamiento de una componente eléctrica de un sistema
(con escasas vibraciones) se puede modelizar a través de una distribución exponencial, con
función de densidad:
f(x) = (1/θ) e-x/θ para x≥0 y f(x) = 0 para x<0
Si Xi representa el tiempo transcurrido entre la (i-1)-ésima y la i-ésima ruptura. S nn
S n n


 N(0,1)
 n
Sn= X1+... +Xn, representará el tiempo transcurrido hasta la n-ésima ruptura.
Comparar la probabilidad de que el n-ésimo fallo del sistema se produzca después de un tiempo
t (a) directamente y b) por el teorema del límite).

a) Para el cálculo directo de esta probabilidad se considera que las variables Xi son variables
aleatorias independientes con función de densidad exponencial. Como la distribución
exponencial es un caso especial de la distribución gamma; la aplicación del teorema de
adición a estas funciones permite concluir que Sn sigue una distribución gamma de
parámetros α=n y β=θ . Por tanto:
 1
P[ S n  t ]  ∫ x n 1e - x  dx
t (n) n

Por ejemplo, para n=30 rupturas y θ=2 meses, y un tiempo t = 36 meses,


resulta: P(Sn > 36) = 0.9941
Ejemplo. Teoremas del límite central
17.- Se considera que el tiempo de funcionamiento de una componente eléctrica de un sistema (con escasas
vibraciones) se puede modelizar a través de una distribución exponencial, con función de densidad:
f(x) = (1/θ) e-x/θ para x≥0 y f(x) = 0 para x<0
y que Xi representa el tiempo transcurrido entre la (i-1)-ésima y la i-ésima ruptura. Por tanto, Sn= X1+... +Xn,
representará el tiempo transcurrido hasta la n-ésima ruptura. Se pide: comparar la probabilidad de que el n-
ésimo fallo del sistema se produzca después de un tiempo t (directamente y por el teorema del límite).

b) Para el cálculo de esta misma probabilidad a partir del teorema central del límite (Lindeberg
y Lévy) teniendo en cuenta que, si Xi es exponencial entonces
E[Xi] = θ y Var[Xi] = θ2 S nn
y S n n


 N(0,1)
 n
resulta que  S  n t  n   t  n 
P ( S n  t )  P n    P Z n 
  n  n    n 
De las tablas de la normal, para n=30 y =2, se obtiene
 36  60 
  PZ n 2.19  0.9857
30
P ( S n  36)  P Z n
 2 30 
La diferencia entre las probabilidades calculadas por ambos procedimientos es muy pequeña
(0,0084), incluso para valores moderados de n=30. Esta diferencia es incluso bastante menor
que la cota antes obtenida para la velocidad de convergencia: en el caso 3
de una distribución
exponencial la acotación del error resulta ser de: E[ S n   S ] 0.653
0.7975 n
 0.653 n  0.1192
 3
Sn 30
Distribuciones asociadas a la normal
MODELO χ2 de Pearson t de Student F de Fisher-Snedecor.
m
1 de
Distribución X
chi-cuadrado con n grados
 asociada a una v. a. que se obtiene
(χ2t n(n))
 libertad
X i2
m i 1 como suma
Definición  n2  X 12  X 22  ...  X n2 1 n 2 Fm ,n 

de los cuadrados Xi
n i 1N(0, 1).
1 n 2
de n variables independientes
 Yi
con
distribución n i 1
X1, X2, …, Xn SóloX,toma
X , Xvalores
, …, X positivos X , X , …, X Y , Y , …, Y
1 2 n 1 2 m, 1 2 n
Para: Independientes y N(0, 1) Independientes y N(0, σ) Independientes y N(0, 1)
 n2 1 2x  mn
Chi-Cuadrado Distribución
Función  n 1   2  m  m  2 1  m   2
m mn
x e si x  0   0.25 2  n21  
 n
f  2 ( x)   2  n  f t n ( x) 
1  2  1  x  si -   x    1 de libertad
f Fm ,n ( x)    m   n  n  n  10 n 
x Grad. x si x  0
de n

2   n  n   0.2n    2  2 
2   50
 0 2     

densidad
densidad  si x  0 0.15  0
3
si x  0

Momentos 0.1
n n n 2 (2m  2n  4)
E[ X ]  n Var[ X ]  2n E[ X ]  0 Var[ X ]  E[ X ]  Var[ X ] 
empleados 0.05 n2 n2 m(n  2) 2 (n  4)
0
Valores tn,α/2 :
χ2 n,α : P[X > χ2 n,α] =α 0 20 40 60
Fm,n,α : 80 Fm,n,α ] = α
P[X >100
tabulados P[-tn,α/2 < X < tn,α/2 ] = 1-α x

n 
 n2  γ ,2   (Th
T. Adición
adicción) 1
 Fn ,m
2  Fm,n
  n1  ...   n2k ∼
  n21 ... nk
Esta distribución es
2
Intuitivamente, esta distribución1 es de utilidad para
asintóticamente N(0,1), F   m , n ,
Propiedades
2   N( 2n-1,1)
obtener información de la varianza F poblacional a n , m ,
2
n con buena aproximación  P[ F  F ]  P[ F  1 F ]
Esta aproximación es válida para n>30 y partir de
para n>120. un conjunto de datos extraídos de una m ,n m , n , n ,m m , n ,

da un ajuste superior al que obtiene por 1  n m 


aplicación del teorema central del límite variable normal. 1  ( m n) F
 Beta , 
 2 2  m,n
Distribuciones asociadas a la normal
Ejemplo.
18.- Obtener el valor del fractíl del 90% de una distribución χ2 con n = 25 grados de libertad.
Determinar ¿a qué cuantíl corresponde el valor anterior cuando se calcula la distribución de la χ2
mediante la aproximación de la distribución normal y mediante la aplicación del teorema del
límite central?. Calcular, también en ambos casos, el fractíl del 90%.

Se busca el valor x0.9 tal que P{χ 2 (25) < x0.9 } = 0.9 o, lo que es lo mismo, un χ 25
2
, α tal que :
2 2
P{χ (25) > χ 25,α } = α (α = 0.1), puesto que, como en el caso de la distribución normal, este
valor es el que proporcionan las tablas de la χ2.
2
Así se obtiene: χ 25 ,0.1 = 34.382 = x0.9
Cuando se utiliza la aproximación: 2  n2  N( 2n-1,1) , resulta que:
P{χ 2 (25) ≤ 34.382} ≈ P{Z ≤ 2  34.382 - 49}  P{Z ≤ 1.29}  0.9015⇒34.382  x0Aprx Norm
.9015

2 x0AprxNorm  49 (1.28  7)2


z0.1  1.28  .9
x
AprxNorm
0.9   34.292
1 2
Para la aplicación del teorema del límite central, se tiene que E[χ2(25)]=25 y Var[χ2(25)]=50.
Por tanto:
 χ 2 (25)-25 34.382-25 
P{χ (25) ≤ 34.382}  P
2
≤  ≈ P{Z ≤ 1.32}  0.9066⇒34.382  x0TLC
.9066
 50 50 
x0TLC  25
z0.1  1.28  .9  x0TLC
.9  1.28  50  25  34.062
50
Distribuciones asociadas a la normal
MODELO χ2 de Pearson t de Student F de Fisher-Snedecor.
1 m 2
tn 
X Distribución tmde  Xi
Student con
, n  libertad
i 1
Definición  n2  X 12  X 22  ...  X n2 1 n 2 n gradosFmde
 1 n 2 (tn) es la
n i 1
Xi
asociada a una 
n i 1
Yi que se
v.a.
obtiene a partir del cociente de
X1, X2, …, Xn X, X1, X2, …, Xn 1, X2, …, N(0,
una Xvariable Xm, Y1,1)Y2,y…,
la Yraíz
n
Para: Independientes y N(0, 1) Independientes y N(0, σ) Independientes y N(0, 1)
cuadrada de una variable χ2
 n2 1 2x  mn
Función x e  n 1 (n).   2  m  m   m  m mn

si x  0   n 1
2  2 2
1 
2
 n 1  2  x   x  1  x  si x  0
de f  2 ( x)   2  n  f t n ( x)  1   si -   x   f Fm ,n ( x)    m   n  n  n   n 
2  
 n  n   n   2de
 
n

2   Gráfica     
su2 f(x): Centrada en x = 0,
densidad  0 si x  0 2
 simétrica 0
y más aplastada que la si x  0
Momentos n N(0;1), platicúrtica.
n n 2 (2m  2n  4)
E[ X ]  n Var[ X ]  2n E[ X ]  0 Var[ X ]  E[ X ]  Var[ X ] 
empleados n2 n2 m(n  2) 2 (n  4)
t de Student Distribución
Valores tn,α/2 :
χ2 n,α : P[X > χ2 n,α] =α 0.4 Fm,n,α : P[X > Fm,n,α ] = α Grad. de libertad
tabulados P[-tn,α/2 < X < tn,α/2 ] = 1-α 10
3
0.3

densidad
n 
50
  γ ,2   (Th adicción)
2
n
1
 Fn ,m
2 
0.2
Fm,n
  n21  ...   n2k ∼
  n21 ... nk
Esta distribución es 0.1
1
asintóticamente N(0,1), Fm ,n ,  
Propiedades 0
Fn ,m ,
2  n2  N( 2n-1,1) con buena aproximación -9 -6 -3 0 3 6 9
 P[ Fmx,n  Fm ,n , ]  P[ Fn ,m  1 Fm ,n , ]  
Esta aproximación es válida para n>30 y
William
da Sealy
un ajuste Gossetal que obtiene por
superior
para n>120. 1 n m
 Beta , 
1876-1937del teorema central del límite
aplicación 1  (m n) Fm,n 2 2 
Distribuciones asociadas a la normal
MODELO χ2 de Pearson t de Student F de Fisher-Snedecor.
Distribución F de Fisher-Snedecor con n y m grados de 1 m 2
libertad
t 
X 
m i 1
Xi
Definición F(n,nm)
2
1  X 2  ...  X n
esXla2 2
asociada 2
a una v.a. que sen obtiene
1 n a partir del Fm ,n 
cociente de dos variables chi-cuadrado con  1 n 2
2
n y Xmi grados
n i 1 
n i 1
Yi
de libertad respectivamente. Por tanto, esta variable sólo
toma valores
X1, X2,positivos.
…, Xn X, X1, X2, …, Xn X1, X2, …, Xm, Y1, Y2, …, Yn
Para: Independientes y N(0, 1) Independientes y N(0, σ) Independientes y N(0, 1)
 n2 1 2x  mn
Función  n 1   2  m  m  2 1  m   2
m mn
x e x0   
n 1
 
Gráfica de
 nsunf(x) si parecida a la1 de la  x2  2
2 distribución  1 x si x  0
f Fm ,n ( x)    m   n  n  n  
x
de f  2 ( x)   2   f t ( x)  1   si -   x   n 
chi-cuadrado.
n

2   n
n  n   n   2  2 
   
    
2
densidad  0 si x  0  2  si x  0
  0

Momentos n n n 2 (2m  2n  4)
E[ X ]  n Var[ F  2n de
X ](índice varianza) ]0 Var[ X ] 
E[ XDistribución E[ X ]  Var[ X ] 
empleados n2 n2 m(n  2) 2 (n  4)
2.4 Numerador g.l.,Denominador g.l.
Valores tn,α/2 : 10,10
χ2n,α : P[X >2 χ2n,α] = α 3,15 Fm,n,α : P[X > Fm,n,α ] = α
tabulados P[-tn,α/2 < X < tn,α/2 ] = 1-α
densidad

1.6 100,100
n 
 n2  γ ,1.2
2   (Th adicción) 1
 Fn ,m
2  Fm,n
0.8
  n21  ...   n2k ∼
  n21 ... nk
Esta distribución es
1
0.4 asintóticamente N(0,1), Fm ,n ,  
Propiedades Fn ,m ,
2  n2  N(
0 2n-1,1) con buena aproximación  P[ Fm ,n  Fm ,n , ]  P[ Fn ,m  1 Fm ,n , ]  
0 válida para
1 n>30 y2
Esta aproximación es
da un ajuste superior al que obtiene por
para3n>120.4 5
1 n m
x  Beta , 
aplicación del teorema central del límite 1  (m n) Fm,n 2 2 
Distribuciones asociadas a la normal

MODELO χ2 de Pearson t de Student F de Fisher-Snedecor.


1 m 2
tn 
X 
m i 1
Xi
Definición  n2  X 12  X 22  ...  X n2 1 n 2 Fm ,n 

n i 1
Xi 1 n 2
 Yi
n i 1
X1, X2, …, Xn X, X1, X2, …, Xn X1, X2, …, Xm, Y1, Y2, …, Yn
Para: Independientes y N(0, 1) Independientes y N(0, σ) Independientes y N(0, 1)
 n2 1 2x  mn
Función  n 1   2  m  m  2 1  m   2
m mn
x e si x  0   n 1
2  2  
 n   
 1   si -   x    1 x si x  0
f Fm ,n ( x)    m   n  n  n  
1 2 x x
de f  2 ( x)   2  n  f t n ( x)  n 
n

2   n  n   n    2  2 
2  
 0 2     
densidad  si x  0  0 si x  0

Momentos n n n 2 (2m  2n  4)
E[ X ]  n Var[ X ]  2n E[ X ]  0 Var[ X ]  E[ X ]  Var[ X ] 
empleados n2 n2 m(n  2) 2 (n  4)
Valores tn,α/2 :
χ2n,α : P[X > χ2n,α] = α Fm,n,α : P[X > Fm,n,α ] = α
tabulados P[-tn,α/2 < X < tn,α/2 ] = 1-α
n 
 n2  γ ,2   (Th adicción) 1
 Fn ,m
2  Fm,n
  n1  ...   n2k ∼
2
  n21 ... nk
Esta distribución es
1
asintóticamente N(0,1), Fm ,n ,  
Propiedades Fn ,m ,
2  n2  N( 2n-1,1) con buena aproximación  P[ Fm ,n  Fm ,n , ]  P[ Fn ,m  1 Fm ,n , ]  
Esta aproximación es válida para n>30 y
da un ajuste superior al que obtiene por
para n>120. 1 n m
 Beta , 
aplicación del teorema central del límite 1  (m n) Fm,n 2 2 
Distribución normal multivariante
Un vector aleatorio absolutamente continuo (X,Y) sigue una distribución normal
bivariante de parámetros: -∞<μ1<∞, -∞<μ2<∞ , 0< σ1<∞ , 0< σ2<∞ y -1<ρ<1, si su
función de densidad es:
1   1  ( x  1 ) 2 2ρ( x  1 )( y   2 ) ( y   2 ) 2 
f ( x, y )  exp 2 
   
21 2  2(1  ρ )   1  1 2 2
2 2
1 ρ 2

para -∞<x<∞ y -∞<y<∞.

Su función característica es: φ(X,Y)(t,u) = E[ei(tX+uY)] =


 
  ei ( xt  yu ) f ( x, y )dxdy 
 

 1 
 expi ( 1t   2u )  ( 12t 2  2ρ 1 2   22u 2 )
 2 
Normal multivariante
Distribuciones marginales.
A partir de la función característica del vector aleatorio, se pueden obtener las funciones características de
cada una de las variables que forman el vector, pues: φ(t,0) = φ1(t) y φ(0,u)=φ2(u).
Por tanto, las funciones características asociadas a las variable X e Y son, respectivamente:
 t 2 12   u 2 12 
φX(t) = expit1   y φY(u) = expiu 2  2 
 2   
de donde mediante la fórmula de reciprocidad, se obtiene:
1  ( x  1 ) 2  1  ( y  2 )2 
f1 ( x)  exp  y f 2 ( y)  exp 
 1 2  2  1
2
  2 2  2 22 

es decir X∼N(μ1, σ1) e Y∼N(μ2, σ2) .

Parámetros.
De las marginales, se deduce que μ1, μ2, σ1 y σ2 son las medias y desviaciones típicas de X y de Y.
Coeficiente de correlación.
El parámetro ρ es el coeficiente de correlación: ρ = μ11/σ1σ2
μ11= Cov[X, Y] = E[XY]-E[X]E[Y] = α11─ μ1μ2 = ρσ1σ2 ⇒ α11=ρσ1σ2+μ1μ2

Si el coeficiente de correlación es 0, la función de densidad conjunta adopta la siguiente expresión:


1  ( x  1 ) 2 ( y   2 ) 2 
f ( x, y )  exp    f1 ( x)  f 2 ( y )
21 2  2  2
1 2 2
2 
lo que significa que las variables aleatorias X e Y son independientes.
De la función de densidad, se deduce que las siguientes elipses: Normal multivariante
 1  ( x  1 ) 2 2ρ( x  1 )( y   2 ) ( y   2 ) 2 
2 
     k 2
2(1  ρ )   12
 1 2 22
 1
son curvas con idéntico valor de la función de densidad igual a: f ( x, y) 
2
ek
21 2 1  ρ 2
Cuando ρ→±1 las elipses ganan excentricidad y la función de densidad tiende a acumularse en el eje mayor
de las elipses, en el límite, toda la función de densidad estará concentrada en este eje y, por tanto, para cada
valor de una variable existirá un único valor de la otra. Es decir, existirá dependencia funcional entre las
variables.
μ2+5
ρ = 0.666 ρ = 0.85 ρ=1
σ1= 0.7
σ2= 0.9
μ2 (μ1, μ2)

ρ=0

μ2-5
μ1-5 μ1 μ1+5

k = 1, 2, 3

ρ = -0.666 ρ = -0.85 ρ = -1
Distribuciones condicionadas.
Normal multivariante
Recordemos que la función de densidad condicionada es: f(x/y) = f(x,y)/f2(y) y en este caso:
1   1  ( x  1 ) 2 2ρ( x  1 )( y   2 ) ( y   2 ) 2  1  ( y  2 )2 
f ( x, y )  exp 2 
    y f 2 ( y )  exp 
21 2 1 ρ 2
 2(1  ρ )   2
1  
1 2  2
2   2 2  2 22 

si : -∞<x<∞ y -∞<y<∞. Por tanto:




  1  ( x  1 ) 2 2ρ( x  1 )( y   2 ) ( y   2 ) 2  ( y   2 ) 2 (1  ρ 2 )  
f ( x y )   exp
 ρ 2 

 2

 

 2
 
 2
 ρ 2 
  2  1 
1  ρ2 
  2(1 )  1 1 2 2  2 2 (1 ) 
 1  11  
2

   2  y   2  
1
 exp 2 2  1
2  12 (1  ρ 2 ) 2
 1 (1  ρ )  2  
que corresponde a una función de densidad de una distribución normal de parámetros:

 X Y  1  112  y   2  ;  X Y   12 1  ρ 2 
2
Análogamente, la distribución de Y condicionada a X es una distribución normal de parámetros:

Y X   2  112  x  1  ;  Y X   22 1  ρ 2 
1

Curvas y rectas de regresión.


A partir del las distribuciones condicionadas, se obtiene:
11 11
x  m1  y   E X Y  y   1   y  2  y  m2 ( x)  E[Y X  x]   2  x  1 
 22  12
con lo que las curvas de regresión coinciden con las rectas de regresión.
Distribución normal multivariante. Normal multivariante
Diremos que el vector X=(X1, …, Xn)T sigue una distribución normal n-variante si su función de
densidad es: A  1 
f X (x)  f ( X 1 ,...,X n )( x1 ,..., xn )  exp   ( x  μ ) T
A ( x  μ ) 
(2 ) n 2  2 
para -∞<xi<∞ (i=1, …, n). Donde A es una matriz cuadrada, semi-definida positiva y con
elementos constantes y μ es un vector de elementos también constantes:
 a11 a12  a1n   1 
   
a a22  a21   
A   21 μ 2
     
   
a  a nn   
 n1 an 2  n
Se puede demostrar que:
A ij
E[ X i ]  i E[( X i  i )( X j   j )]  Cov[ X i , X j ] 
A
y que la matriz C, con cij = Cov[Xi, Xj], es igual a la inversa de A [C=A-1] . Por esta razón la
distribución normal multivariante se suele representar por X ∼N(μ, C-1) .

Propiedades.
i. La distribución marginal de cualquier componente de una distribución normal multivariable es una distribución normal
unidimensional. Es más, la distribución marginal de cualquier subconjunto de componentes, de dimensión p, es una
distribución normal p-variante.
ii. Toda combinación lineal de las componentes de un vector normal multivariantes sigue una distribución normal, aunque
las componentes sean dependientes.
iii. Las componentes de un vector aleatorio normal multivariantes son independientes si y sólo si, la matriz de covarianza
es una matriz diagonal.

También podría gustarte