0% encontró este documento útil (0 votos)
245 vistas68 páginas

Probabilidad de Variables Aleatorias Discretas

Este documento presenta conceptos básicos sobre probabilidad, incluyendo variables aleatorias discretas como la binomial, de Poisson y geométrica. También introduce la función de distribución acumulativa asociada a una variable aleatoria discreta y sus propiedades. El documento contiene ejemplos ilustrativos de cada uno de estos conceptos.

Cargado por

karoll_rz
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
245 vistas68 páginas

Probabilidad de Variables Aleatorias Discretas

Este documento presenta conceptos básicos sobre probabilidad, incluyendo variables aleatorias discretas como la binomial, de Poisson y geométrica. También introduce la función de distribución acumulativa asociada a una variable aleatoria discreta y sus propiedades. El documento contiene ejemplos ilustrativos de cada uno de estos conceptos.

Cargado por

karoll_rz
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

PROBABILIDAD

Ricardo Bautista Mercado


20 de julio de 2007
Resumen
Este trabajo fue motivado por el curso de Probabilidad I, impartido
por el Dr. Raul Montes De Oca del Departamento de Matematicas de la
UAM-I, en el trimestre 07-I

VARIABLES ALEATORIAS
1. VARIABLES ALEATORIAS DISCRETAS
1.1.

Variable Aleatoria Binomial

Sea un experimento aleatorio tal que


={exito, fracaso}
p = P [{exito}]
Observaci
on 1. P [fracaso}] = 1 p

X =n
umero de exitos en las n repeticiones independientes de
P [X = k] = Ckn pk (1 p)nk

X[] = {0, 1, 2, 3, . . .}

k {0, 1, . . . , n}

Notaci
on: X B(n, p)

Observaci
on 2.
n
X

k=0

P [X = k] =

n
X

k=0

Ckn pk (1 p)nk = (p + (1 p))n = 1

Ejemplo 1. I) Sea m una moneda con P ({aguila}) = 32 , P ({sol}) = 13


Suponga que lanzamos la moneda 100 veces, de manera independiente
cual es la probabilidad de obtener 2 aguilas o mas?

2
X B 100,
3
P [X 2]

=
=
=

1 P [X < 2]

1 (P [X = 0] + P [X = 1])
100
99
1
1
2
1
100
3
3
3

II) Los motores de un avi


on operan independientemente unos de otros
con P ({no fallar}) = 0,99 . Un avi
on llega a su destino siempre y
cuando no fallen al menos la mitad de sus motores
cual es la probabilidad de que un tetramotor llegue a su destino
exitosamente?
X B (4, 0,99)
P [X 2]

P [X = 2] + P [X = 3] + P [X = 4]

C24 (0,99)2 (0,01)2 + C34 (0,99)3 (0,01) + C44 (0,99)4

III) Se tienen N objetos de los cuales M son blancos y el resto de color


negro
si se toma una muestra de n objetos con sustitucion
cual es la probabilidad de obtener k objetos blancos?

M
X B n,
N
P [X = k]

Ckn

M
N

k
nk
M
1
N

Observaci
on 3. El muestreo sin sustitucion no se puede plantear
como binomial pues no hay independencia

III) Un sistema de protecci


on contra misiles esta construido con n unidades de radar que funcionan de forma independiente, cada uno con
una probabilidad de 0.9 de detectar un misil.
a) Si n = 5 y pasa un misil, cual es la probabilidad de que 4 unidades lo detecten?
!
5
P [X = 4] =
(0,9)4 (0,1) = 0,32805
4
b) cual debe ser el valor de n para que la probabilidad de dectar un
misil sea 0.999?
0,999

=
=

P [X 1]

1 (1 0,9)n

(1 0,9)n
(0,1)n

=
=

1 0,999

0,001

=
=

1.2.

log(0,001)
log(0,1)
3

Variable Aleatoria de Poisson

Lema 1. Sea (x) una funci


on tal que
lm

x0

(x)
=0
x

Sea a R. Entonces
lm [1 + ax + (x)]1/x = ea

x0

Teorema 1 (Poisson). Sea Xn B(n, Pn )


n = 1, 2, . . .
Supongangase que lmn+ Pn = 0 y que lmn+ nPn = > 0
Entonces
P [Xn = k]

k e
k!

k = 0, 1, 2, . . .

Demostraci
on. Como n Pn cuando n
entonces
g(n) = n Pn 0 cuando n
Por otro lado

n Pn = g(n) Pn = g(n)
+n
n
g(n)
en particular n 0 cuando n
Luego utilizando la hipotesis Xn B(n, Pn ) tenemos que
P [Xn = k]

=
=
=
=

sea x =

P [Xn = k]

1
,
n

Ckn Pnk (1 Pn )nk

nk
g(n)

1
+
n
n
nk

g(n)

1 n(n 1) (n k + 1)
k
1

(
+
g(n))

k!
nk
n
n

n
k
g(n)
g(n)
1

1
k1

1
1
( + g(n))k 1
1
k!
n
n
n
n
n
n

n(n 1) (n k + 1)
k!

g(n)

+
n
n

entonces

1
k!

k
1
g(n)
1
k1

1
1
( + g(n))k (1 x xg(n)) x 1
n
n
n
n

e
k!

lmn P [Xn = k] =

Observaci
on 4. a) 0 k! e 1
P+ k
P
k
b)
= e +
k=1 k! e
k=1 k! = 1

Observaci
on 5.

ez =

+ m
X
z
,
m!
k=1

k = 0, 1, . . .

zR

X =n
umero de veces que ocurre cierto evento aleatorio, cuando sabemos que este ocurre en promedio veces por unidad de tiempo
P [X = k] =
X[] = {0, 1, 2, . . .}
Notaci
on: X P[]

k
e
k!

Ejemplo 2. En una carretera ocurren en promedio 2 accidentes por dia


=2
X P[2]
I) cual es la probabilidad de que ma
nana no ocurra ningun accidente?
P [X = 0] = e2 = 0,1353
II) cual es la probabilidad de que ocurra al menos 1 accidente?
P [X 1] = 1 P [X = 0] = 1 e2 = 1 0,1353 = 0,864
III)
P [4 < X 7]

=
=
=
=

P [X = 5] + P [X = 6] + P [X = 7]
25 2 26 2 27 2
e + e + e
5!
6!
7!

64
128
32
e2
+
+
120
720
5040
0,051556298

Ejemplo 3. Sup
ongase que un deposito contiene 10000 partculas. la probabilidad de que una de esas partculas salga del dep
osito es igual a 0.0004
Cu
al es la probabilidad de que ocurran m
as de 5 salidas? (Puede suponerse que las salidas son independientes unas de otras).
X B(10000, 0,0004)
= (10000)(0,0004) = 4
P [X > 5]

=
=

1.3.

1 (P [X = 0] + P [X = 1] + + P [X = 5])
0

4
41
42
43
44
4
1e
+
+
+
+
0!
1!
2!
3!
4!
0,2151

Variable Aleatoria Geometrica

Sea un experimento Bernoulli,


= {exito, f racaso},
p := P [{exito}]
p (0, 1)
Se repite , de manera independiente, una infinidad de veces
Sea :=

Observaci
on 6. = (exito
o fracaso, exito
o fracaso, . . .)
X : R
X =n
umero de repeticiones de hasta obtener exito por vez primera

X[ ] = {1, 2, 3, . . .}

P [X = k] = (1 p)k1 p

Notaci
on: X G[p]

Observaci
on 7.
+
X

P [X = k] =

k=1

+
X

k=1

+
X

p(1 p)k1 = p

(1 p)k1

k=1

=p

1
=1
1 (1 p)

Ejemplo 4. La probabilidad de encontrar cierto medicamento en una


farmacia es de 0.20
Calcule la probabilidad de que una persona que requiere de ese medicamento:
I) Tenga que recorrer 3 farmacias para hallarlo?
p = 0,20
P [X = 3] = (1 p)2 p = (0,8)2 (0,20) = 0,128
II) Se vea obligada a recorrer por lo menos 3 farmacias para encontrarlo?

P [X 3]

=
=
=

1 P [X = 1] P [X = 2]
1 (0,20) (0,8)(0,20)
0,64

Ejemplo 5. Cierto atleta logra saltar la varilla a 2.28 mts de altura el


60 % de las veces. En una competencia olimpica dispone de 3 intentos y si
logra salvar esa altura ganara medalla de oro. Determine la probabilidad
de que gane dicha medalla
p = 0,6
P [{gane la medalla de oro}]

P [X = 1] + P [X = 2] + P [X = 3]

(0,6) + (0,4)(0,6) + (0,4)2 (0,6)

0,936

Observaci
on 8. Se supuso que los saltos sean independientes

Ejemplo 6. Suponga que un joven envia muchos mensajes por e-mail a


su prometida, pero ella solo responde el 5 % de los mensajes que recibe.
cuantos correos debera este insistente joven enviar a su novia para tener
una probabilidad de por lo menos 0.8 de que por fin uno de ellos sea
respondido?
p = 0,05
P [{algun correo es respondido}]

P [X = 1] + P [X = 2] + + P [X = n]

p + (1 p)p + (1 p)2 p + + (1 p)n1 p

[1 + (1 p) + (1 p)2 + + (1 p)n1 ]p
1 (1 p)n
p
1 (1 p)
1 (1 p)n

=
=
=

0,8

(1 p)n

1 0,8

0,2

log(0,2)
log(0,95)
31,38

1.4.

Funci
on de distribucion acumulativa

Sea X una variable aleatoria discreta


Definimos la funcion de distribucion acumulativa de X como la funci
on
FX : R R dada por:
X
FX := P [X x] =
P [X = k],
xR
kX[]:kx

Ejemplo 7. Hallar FX :
X B(3, 12 )
k
0
1
2
3

P [X = k] = Ck3
1
8
3
8
3
8
1
8

` 1 3
2

= Ck3

P [X = k]

FX =

8
0
>
>
>
>
< 18
>
>
>
>
:

4
8
7
8

si
si
si
si
si

x<0
0x<1
1x<2
2x<3
x3

1
8

FX

1.4.1. Propiedades de la distribuci


on acumulativa asociada
a una variable aleatoria discreta
FX es creciente (i.e x < y FX (x) FX (y))

lmx FX (x) = 1;
lmx FX (x) = 0

FX es continua a la derecha de los puntos del rango


P [X = k] = FX (k) FX ( k)

k X[]

Ejemplo 8. Supongase que X toma los valores 1, 0, 1 con probabilidades


1 1 1
, , respectivamente
3 2 6
I) Hallar la funci
on de probabilidad puntual de Y1 = X2
Y1 [] = {0, 1}
P [Y1 = 0] = P [X2 = 0] = P [X = 0] = 12
P [Y1 = 1] = P [X2 = 1] = P [X = 1] + P [X = 1] =

1
6

II) Hallar la funci


on de probabilidad puntual de Y2 = 3X + 1
Y2 [] = {2, 1, 4}
P [Y2 = 2] = P [3X + 1 = 2] = P [X = 1] =
P [Y2 = 1] = P [3X + 1 = 1] = P [X = 0] = 12
P [Y2 = 4] = P [3X + 1 = 4] = P [X = 1] = 61

1
3

1
3

1
2

Ejemplo 9. X G( 21 )

0
Y=
1

si X toma un valor par


si X toma un valor impar

Hallar la funci
on de probabilidad puntual de Y

Y[] = {0, 1}
` 2 ` 4 ` 6
P [Y = 0] = 12 + 21 + 21 + = 13
` 3 ` 5
` 7
P [Y = 1] = 12 + 21 + 12 + + 21 + =

1.5.

2
3

Variable Aleatoria Hipergeometrica

Considere N objetos tales que M de ellos cumplen cierta propiedad p,


entonces para el problema del muestreo sin substituci
on (con tama
no de
muestra n) se tiene el siguiente modelo probabilistico:
X =n
umero de objetos que cumplen la propiedad p
N M
CkM Cnk
N
Cn
X[]={k| k es un entero no negativo que cumple: k M y k N M }

P [X = k] =

Notaci
on: X H[N, M, k]
Ejemplo 10. En una fabrica hay 1500 lavadoras de las cuales 400 son
defectuosas. Si se toman sin sustitucion 200 lavadoras al azar, cual es la
probabilidad de que al menos una de las 200 lavadoras sea defectuosa?

X H (1500, 400, 200)


P [X 1]

1 P [X = 0]

10

1100
C200
1500
C200

2. ESPACIOS DE PROBABILIDAD Y
VARIABLES ALEATORIAS
Definici
on 1. Sean un conjunto y F una familia de subcon juntos de

Diremos que F es una -


algebra de subconjuntos de si:
a) , F
b) si A F entonces Ac F;
y
c) A1 , A2 , . . . F, entonces

+
n=1 An F

Observaci
on 9. Sean A1 , A2 , . . . F entonces (por las leyes de DeMorgan)
c
` +
+
n=1 An = n=1 An
Lema 2. Si F1 , F2 son -
algebras de entonces F1 F2 tambien es
algebra
Demostraci
on.
entonces

a) Como , Fi

i = 1, 2

, F1 F2

b) Sea A F1 F2 entonces Ac F1 y Ac F2
luego entonces
Ac F 1 F 1

c) Sean A1 , A2 , . . . F1 F2 , entonces

A1 , A 2 , . . . F 1

entonces

por lo tanto

A1 , A 2 , . . . F 2
+
n=1 An Fi

i = 1, 2

+
n=1 An F1 F2

i = 1, 2

Ejemplo 11. a) Sea un subconjunto. Entonces F1 = {, } y F2 =


P () (conjunto potencia de )
son -
alebra de subconjuntos de
b) Sean un conjunto y 6=

B( ) := {F : F es -algebra y F }

Notaci
on: B( ) := -
algebra de Borel de

11

Definici
on 2. Sea un subconjunto y F una -
algebra de subconjuntos
de
Diremos que
p : F : [0, 1]
es una medida de probabilidad sobre F si:
a) P []=1;
y
b) si A1 , A2 , . . . F y son ajenos , entonces
+
X
`
P (An )
P +
n=1 An =
n=1

A la terna (, F, P ) se le llama espacio de probabilidad


Definici
on 3. Diremos que X es una variable aleatoria si

x R

[X x] := { : X() x} F

1
Observaci
on 10. [X x] = { : X() < x} = +
i=1 [X x n ] F

Definici
on 4. Diremos que X es una variable aleatoria discreta si
X[] := {X() : }

es un conjunto finito o numerable

Para una variable aleatoria discreta, con rango X[] = {x1 , x2 , . . .} se


define la funci
on de probabilidad puntual como:
PX ({xi }) := P [X = xi ],

i = 1, 2, . . .

Observaci
on 11. a) 0 PX ({xi }) 1 i = 1, 2 . . .
P+
P+
b)
i=1 P [X = xi ] = 1
i=1 PX ({xi }) =

2.1.

VARIABLES ALEATORIAS CONTINUAS

Definici
on 5. Sea X una variable aleatoria diremos que X es una variable
aleatoria continua si
P [X = x] = 0

x R

Observaci
on 12. Igual que en el caso discreto, se puede definir la funci
on
de distribucion acumulativa asociada a una variable aleatoria continua
como
F : R R, dada F (x) = P [X x] x R (esta funcion F cumple
con las propiedades obtenidas para el caso discreto)
(i) como P [X = x] = F (x) F ( x) = 0 F es continua

(ii) Notese que P [X R] = 1 y que no puede estar soportadapor un


conjunto finito o numerable
si A = {y1 , y2 , . . .}
P [X A] = P [X = y1 ] + P [X = y2 ] + = 0

12

(iii) Sean a, b R, a < b


F (b) F (a) = P [X b] P [X a]

=
=
=
=

P [a < X b]

P [a X < b]

P [a < X < b]
P [a X b]

2.1.1. VARIABLES ALEATORIAS CONTINUAS DEFINIDAS MEDIANTE DENSIDADES


Definici
on 6. Sea f : R R diremos que f es una densidad de probabilidad
si
a) f 0;
y
R +
b) f (x)dx = 1

Ry
Observaci
on 13. (i) y f (x)dx = 0;
y
Rx
(ii) F (x) := f (t)dt,
xR
F cumple con con todas las propiedades de una funcion de distruci
on
de una variable aleatoria continua
Entonces por un teorema debido a Kolmogorov, existen un espacio de
probabilidad (, F, p) y una variable aleatoria X : R tal que
Z x
f (t)dt,
xR
FX = F (X) =

13

2.2.

Ejemplos de variables aleatorias continuas

1. Variable Aleatoria Uniforme


a, b R, a < b
f (x) =

1
ba

si x [a, b]
si x
/ [a, b]

X =seleccion de un punto al azar de [a, b]


P [c1 X c2 ] =

c2

[c1 , c2 ] [a, b]

f (x)dx
c1

Notaci
on: X U [a, b]

Ejemplo 12. El tiempo medido en minutos en que cierta persona


invierte en ir de la estacion de su casa al tren es un fenomeno aleatorio que sigue una ley de probabilidad uniforme en el intervalo de
20-25. cual es la probabilidad de que alcance el tren que sale de la
estacion a las 7:28 AM en punto si deja su casa exactamente a las
7:05 AM
X U (20, 25)
P [{alcance el tren}]

=
=

14

P [20 X 23]
Z 23
1
3
dt =
5
5
20

2. Variable Aleatoria Exponencial


Sea > 0
f (x) =

expx
0

si x 0
si x < 0

T =tiempo transcurrido hasta que cierto evento ocurre,


T[] = [0, +)
Z

f (x)dx =

ex dx = ex
0

Notaci
on: T exp[]

Ejemplo 13. Supongase que un sistema contiene cierto tipo de componente cuya duracion en a
nos est
a dada por una variable aleatoria
distribuida en forma exponencial con = 51 . Si se instalan 5 de estos
componentes en diferentes sistemas, cual es la probabilidad de que
por lo menos 2 funcionen 8 a
nos
o mas?
[Supongase que estos componentes son independientes unos de otros]

T exp

P [T 8]

=
=


1
5
+

1 15 x
e
dx
5

e 5 = 0,2018

Por lo tanto la probabilidad de que un componente dure 8 a


nos
o mas
8
es e 5 , ahora solo falta calcular la probabilidad de que por lo menos
8
2 de los 5 componentes sigan funcionando: X B(5, e 5 )

15

P [X 2]

1 (P [X = 0] + P [X = 1])

8 5
8 4
1 e 5
1 1 e 5 5 e 5

,2666

=
=

1 ,323814 0,409577

Proposici
on 1 (perdida de memoria de la exponencial). Sea T
exp []
Entonces
t, s > 0

P [T > s + t|T > s] = P [T > t]


Demostraci
on.
P [T > s + t|T > s]

=
=

P [T > s + t, T > s]
P [T > s]
P [T > s + t]
pues
P [T > s]

[T > s + t] [T > s]

por otra parte


Z

P [T > s + t|T > s]

P [T > s]

et dt

es dt

por lo tanto

16

e(s+t)
es
et

P [T > t]

3. Variable Aleatoria Normal


Observaci
on 14. La variable aleatoria normal trata de ajustarse a
la binomial

n de densidad normal:
Funcio
1
1 (x)2
e 22
(1)
2
Definici
on 7. Una variable aleatoria X con densidad dada por 1
ser
a llamada variable aleatoria normal con parametros y 2 se
denota
X N (, 2 )
f (x) =

Observaci
on 15. X[] = R

P [0 X z] = (z) =Area
bajo la curva normal est
andar de 0 a z
3.1.10

17

CALCULO DE PROBABILIDADES CON LA NORMAL


a) X N (0, 1)
X =Normal est
andar (centrada por el eje de las ys)
Ejemplo 14. I) P [0 X 1,42] = (1,42) =.4222

II) P [0,73 X 0] = (0,73) =.2673

III) P [1,73 X 2,01] = (2,01) + (1,73) =.4778

18

IV) P [0,65 X 1,26] = (1,26) (0,65) =.1540

V) P [1,79 X 0,54] = (1,79) (,54) = ,4633


,2054 =.2579

VI) P [X 1,13] =

1
2

,3708 =.1292

19

VII) determine a tal que P [a X 0,5] = 0,004


0,004

=
=

(a) (0,5)

(a) 0,1915

entonces
(a) = 0,004 + 0,1915 = 0,1955
de donde
a .51

b) X N (, 2 ), 6= 0, 6= 1
Proposici
on 2. Si Y :=
entonces

Y N (0, 1)
Demostraci
on.
FY (y)

=
=
=
=

P [Y y]

X
P
y

P [X y + ]
Z y+
1
1 (t)2

e 22
dt
2

sea := 1 t
entonces d := 1 dt
por lo tanto

FY (y)

=
=

y+

Z y

1
1 (t)2
e 22
dt
2

1 2
1
e 2 d
2

1 2
1
e 2 y
2

20

yR

Ejemplo 15. Sea X N (0,25, (0,02)2 )


hallar
I) P [X 0,2] P [X 0,20,25
] = 12 (2,5) = 0,0062
0,02

II) P [X 0,28] P [X
III) P [0,2 X 0,28]
P [0,2 X 0,28]

0,280,25
]
0,02

1
2

(1,5) = 0,0668

X 0,25
0,2 0,25

1,5
0,02
0,02

P [2,5 X 1,5]

(2,5) + (1,5)

0,4938 + 0,4332

0,927

Ejemplo 16. Si X N (80, 102 )


determine
I) P [X 100] P [X 10080
] = 21 + (2) = 0,9772
10

8080
II) P [X 80] P [X 10 ] = 12
X 10080
] = (2) + (0,5) =
III) P [75 X 100] P [ 7580
10
10
,6687
IV) P [X 75] P [X 7580
] = 12 + (,5) = 0,6915
10
V) P [|X80| 19,6] P [ 19,6
X 19,6
] = (1,96)+(1,96) = 1,95
10
10
Observaci
on 16.

|x| a

|x| a

x [a, a]

x (, a] [a, +)

Ejemplo 17. Una maquina troqueladora produce tapas de latas cuyos


diametros estan normalmente distribuidos con = 0,01 pulgadas.
En que valor de debe ajustarse la maquinaria de tal manera que el
5 % de las tapas producidas tengan diametro que excede las 3 pulgadas

D N (, (0,01)2 )
0,05

P [D > 3]

3
P D >
0,01

3
1

2
0,01

21

por lo tanto

entonces

3
0,01

= 0,45

3
1,65
0,01

= 3 (0,01)(1,65) = 2,9835

22

3. VARIABLES ALEATORIAS (BIDIMENSIONALES)


Sea un experimento aleatorio con espacio de probabilidad (, F, P )
Sea X : R2 , X = (X, Y) una funcion 7 X() = (X(), Y())
Definici
on 8. Diremos que X es un vector aleatorio (bidimensional) si
[X x, Y y] F

x, y R

[X x, Y y] := { : X() x, Y() y}

I. Caso discreto

Definici
on 9. Diremos que X es un vector aleatorio discreto si
X[] = {(xi , yi ) : xi X[], yj Y[]}
es finito o numerable

3.0.1.

Funci
on de probabilidad puntual de X
PX ({(xi , yj )})

:=

P [X = xi , Y = yi ]

P [{ : X() = xi , Y = yj }]

Propiedades
0 PX ({(xi , yj )}) 1
XX
j

PX {(xi , yj )}

i, j
=

X X
j

P [X = xi , Y = yj ]

P [Y = yi ]

3.0.2.

P [] = 1

Funciones de probabilidad puntual marginales


P [X = xi ] =

P [X = xi , Y = yj ],

P [X = xi , Y = yj ],

P [Y = yj ] =

X
i

3.0.3.

Funciones de probabilidad condicional


P [X = xi |Y = yj ] :=

P [X = xi , Y = yj ]
P [Y = yj ]

P [Y = yj |X = xi ] :=

P [X = xi , Y = yj ]
P [X = xi ]

23

Independencia
Definici
on 10. X y Y son independientes ssi
P [X = xi , Y = yj ] = P [X = xi ]P [Y = yj ]
i, j
X
Y
0
1
2
3
P [X = x]
1
2
3
6
0
0
42
42
42
42
Ejemplo 18.
2
3
4
5
14
1
42
42
42
42
42
4
5
6
7
22
2
42
42
42
42
42
6
9
12
15
P [Y = y] 42
42
42
42
{0, 1, 2}

X[]

Y[]

{0, 1, 2, 3}

X[]

X[] Y[]

=
=

{0, 1, 2} {0, 1, 2, 3}

{(0, 0), (0, 1), (0, 2), (0, 3), (1, 0), (1, 1), (1, 2), (1, 3), (2, 0), (2, 1), (2, 2), (2, 3)}

Ejemplo 19.
P [X = 1, Y = 1] = PX ({(1, 1)}) =

3
42

Ejemplo 20.
P [X > Y]

P [{(1, 0), (2, 0), (2, 1)}]


4
5
2
+
+
42
42
42
11
42

=
=
Ejemplo 21.

P [X < 1] = P [X = 0] =

6
42

Ejemplo 22.
P [X = 0|Y = 1]

=
=
=

P [X = 0, Y = 1]
P [Y = 1]
1/42
9/42
1
9

Ejemplo 23.
P [X = 1|Y = 1]

=
=
=

24

P [X = 1, Y = 1]
P [Y = 1]
3/42
9/42
3
9

Ejemplo 24.
P [X = 2|Y = 1]

=
=
=

P [X = 2, Y = 1]
P [Y = 1]
5/9
1
5
9

Observaci
on 17.
P [X = 0|Y = 1] + P [X = 1|Y = 1] + P [X = 2|Y = 1]

=
=

1
3
5
+ +
9
9
9
1

(ve
ase los ejemplos 22, 23, 24)
Observaci
on 18.
P [X = 0, Y = 0]

=
6=
=

2
6
42
P [X = 0] P [Y = 0]

X, Y no son independientes
II. Caso Continuo
Definici
on 11. Diremos que X es un vector aleatorio continuo si
x, y

P [X = x, Y = y] = 0

Observaci
on 19. Igual que en el caso unidimensional tenemos:
FX (x, y) := P [X x, Y y]

3.0.4.

x, y

Vectores aleatorios generados por densidades

Definici
on 12. Una funci
on f : R2 R ser
a llamada una densidad
de probabilidad si
a) f 0 (i.e f (x, y) 0
R
b) R2 f = 1

x, y)

Proposici
on 3. Sea f una densidad de probabilidad
F (x, y) =

f (u, v)dvdu,

x, y R

entonces
PX (A) =

f,

A B(R2 )

25

(ve
ase ejemplo 11)

Ejemplo 25. Sea X = (x, y) con densidad


f (x, y) =

ey
0

si x 0, y > x
en otro caso

f (x, y)dy dx
x
0

Z Z +
ey dy dx
x
Z0
x
e dx

R2

=
=

3.0.5.

Densidades Marginales
fX (x) =
fY (y) =

f (x, y)dy,

x X[]

f (x, y)dx,

y Y[]

Ejemplo 26. Sea f (x, y) la funci


on de densidad dada en el ejemplo
25
entonces

fX (x)

=
=
=

f (x, y)dy,

x
Z +

x
x

ey dy
x0

26

x [0, +)

fY (y)

=
=

f (x, y)dx,

Z0 y

y [0, +)

ey dx

yey ,

y0

Independencia
Definici
on 13. X y Y son independientes sii
f (x, y) = fX (x) fY (y)

(x, y)

Ejemplo 27. Sea f (x, y) la funci


on de densidad dada en el ejemplo
25
entonces
X y Y no son independientes, pues

f (0, 0)

6=

fX (0) fY (0)

Calculo de Probabilidades
Ejemplo 28. Sea f (x, y) la funci
on de densidad dada en el ejemplo
25
P [X 1|Y 2] =

27

P [X 1, Y 2]
P [Y 2]

P [X 1, Y 2]

Z Z

+
2
+

ye

dy

ey dy

fY (y)dy

Z2

yey dy

Z
yey +

(yey ey )dy

2e2

f (x, y)dydx
Z y
ey dxdy

3e2 e2

P [Y 2]

ye

por ejemplo 26

ey dy

2
y
e
2
2

2e2 + e

3e2

Observaci
on 20.
lm yey

y+

=
=
=

y
ey
1
lm
y+ ey
0
lm

y+

regla de LHopital

entonces

P [X 1|Y 2]

=
=
=

28

P [X 1, Y 2]
P [Y 2]
2e2
3e2
2
3

3.0.6.

Densidades Condicionales

fY|X (y|x) :=
fX|Y (x|y) :=

f (x,y)
,
fX (x)
f (x,y)
,
fY (y)

fX (x) > 0
fY (y) > 0

29

Ejemplo 29. Sea f (x, y) la funci


on de densidad dada en el ejemplo 25
Sea x 0 fijo
fY|X (y|x)

=
=
=

f (x, y)
fX (x)
ey
por ejemplo 26
ex
(yx)
e

Sea y > 0 fijo

fX|Y (x|y)

=
=
=

f (x, y)
fY (x)
ey
yey
1
y

30

por ejemplo 26

PROBLEMA 21. Supongamos que el vector aleatorio discreto (X, Y)


est
a definido por
X
Y
1
2
3

1
2

1
6
1
9
1
4

0
1
8

3
0
1
5
2
15

1. Hallar las funciones de probabilidad marginales y las funciones de


probabilidad condicionales
Diga si X y Y son independientes
2. Sup
ongase que el vector aleatorio continuo tiene densidad
f (x, y) =

kx(x y)
0

si 0 < x < 2, x < y < x


en otro caso

a) Encuentre el valor de k
b) Determine fX y fY y diga si X y Y son independientes

31

3.0.7.

Densidades de funciones de variable aleatoria

Ejemplo 30. Sup


ongase que X U [0, 1]. Encuentre la densidad de Y =
4X2 + 2
(g(x) = 4x2 + 2,
x R)
Soluci
on 22. a) Determinar el rango de Y

Y[] = [2, 6]
Observaci
on 23. fuera de es este rango mide 0
b) Sea y [2, 6] fijo

Observaci
on 24.
y [2, 6]

FY (y)

=
=
=
=
=

P [Y y]

2y6

0y24
y2
0
1
4

P [4X + 2 y]

y2
P X2
4
"
#
r
y2
P |X|
4
#
" r
r
y2
y2
X
P
4
4
q
r
Z y2
4
y2
1 dt =
4
0

32

Conclusi
on Si y [2, 6], entonces
1

FY (y) =

(y 2) 2
2

fY (y)

=
=
=

fY (y) =

FY (y)

1 1
1
2
(y 2)
2 2
1
1

4 y2

11
4 y2

33

si y (2, 6]
en otro caso

Ejemplo 31. Supongase que X U [0, 1]. Encuentre la densidad de Z =


eX
Soluci
on 25. a) Determinar el rango de Z

Z[] = [1, e]
Observaci
on 26. fuera de es este rango mide 0
b) Sea z [1, e] fijo

Observaci
on 27.
z [1, e]

FZ (z)

=
=
=
=

1ze

0 ln z 1

P [Z z]

P [exp[X] z]

P [X ln z]
Z ln z
1 dt = ln z
0

34

Conclusi
on Si z [1, e], entonces
FZ (z) = ln z

fZ (z)

=
=

fZ (z) =

1
z

35

FZ (z)
1
z

si z [1, e]
en otro caso

Ejemplo 32. Sea X U [1, 1]. Hallar la densidad de Y = 5X3 + 3


Soluci
on 28. a) Determinar el rango de Y

Y[] = [2, 8]
Observaci
on 29. fuera de es este rango mide 0
b) Sea y [2, 8] fijo

Observaci
on 30.
y [2, 8]

FY (y)

=
=
=
=

2 y 8

5 y 3 5
y3
1
1
5

P [Y y]

P [5X3 + 3 y]

y3
P X3
5
"
#
r
3 y 3
P X
5
Z

3 y3
5

36

1
1
dt =
2
2

r
3

y3
5

Conclusi
on Si y [2, 8]\{3}, entonces
FY (y) =

1
2

(y 3)
5

1
3

fY (y)

=
=

fY (y) =

8
<

1
30

: 0

FY (y)

2
1 (y 3) 3
30
5

(y3)
5

2
3

si y 6= 3

si y (2, 3) (3, 6]
en otro caso

PROBLEMA 31. Sup


ongase que X tiene densidad

2x si 0 < x < 1
f (x) =
0
en otro caso
Encuentre las densidades de

a) Y = 3X + 1
b) Z = eX

37

3.0.8. Densidades de la suma y del producto de variables


aleatorias independientes
Sean Z := X + Y
Densidad de la suma

FZ (z)

=
=
=
=

P [Z z]

z fijo

P [X + Y z]
Z Z
fX (x, y)dydx
x+yz
Z Z
f (x) g(y)dydx

independencia

x+yz

=
=
=
=

zx

f (x)

f (x)

Z z

f (x) g(y)dy dx
zx

g(y)dy dx

g(u x)du dx

f (x)g(u x)dx du

cambio de variable: u = y + x
T. Fubini

R +
FZ = f (x)g(z x)dx

convoluci
on:

fX+Y (z) =

38

f (x)g(z x)dx

Ejemplo 33. Sean X exp(1 ), Y exp(2 ). Suponga que X y


Y son independientes y que 1 6= 2
Hallar fX+Y
f (x) =

1 e1 x
0

si x 0
en otro caso

g(y) =

2 e2 y
0

si y 0
en otro caso

0
x

entonces
x
z

pues y = z x 0

(X + Y)[] = [0, )
Sea z [0, +)
fX+Y (z)

=
=

1 e1 x 2 e2 (zx) dx
Z z
ex(1 2 ) dx
1 2 e2 z

convoluci
on

=
=

1 2 2 z z(1 2 )
e

e
1
1 2

1 2 1 z
e2 z
e
2 1

39

Densidad del producto


fXY (z) =

f (x) g(z/x)

1
dx
|x|

Ejemplo 34. Sup


ongase que X y Y tienen densidades
f (x) =
g(y) =

2x
0
y 2 /9
0

si 0 < x < 1
en otro caso
si 0 < y < 3
en otro caso

respectivamente
Suponiendo X y Y independientes encuentre fXY

0<y<3
1
z<x
3

X Y = [0, 3]

40

pues y =

z
x

<3

(2)

Sea z (0, 3)
fXY (z)

1
1z
3

2 2
z
9

2x

z2 1 1
dx
x2 9 x

dx
x2

1
1z
3

2 2 3
z
1
9
z

2`
3z z 2
9

=
=

Ejemplo 35. Sean

I : f (i)

R : g(r)

6i(1 i)
0
2r
0

si 0 i 1
en otro caso

si 0 < r < 1
en otro caso

I, R independientes
Hallar la densidad de W = I 2 R

I 2 [] = [0, 1]

41

FI 2 (z)

=
=
=

P [I 2 z]

P [I z]

Z z
6i(1 i)di
0

idi 6

3z 2z 3/2

i2 di

entonces
fI 2 (i) = FI 2 (i) =
por otro lado

FI 2 R

=
=
=
=

0i1
z<i

3 3i1/2
0

pues r =

si 0 i 1
en otro caso

z
i

<1

z 1
usando 2
(3 2i1/2 )(2 ) di
i |i|
z
Z 1
Z 1
1
i3/2 di
di 4z
6z
2
z
z i
(6 6z) + (8z 8z (1/2) )

2z 8 z + 6

42

3.1.

ESPERANZA Y VARIANZA

3.1.1.

Esperanza

Definici
on 14. Sea X una variable aleatoria (discreta o continua). Se
define la esperanza como
8 P
X discreta
<
k kP [X = k],
E[X] :=
R
:
xfX (x)dx, X continua

Observaci
on 32. La esperanza de X se define solo si
X
|k|P [X = k] < +
k

|x|fX (x)dx < +

Ejemplo 36. Encuentra E[X] en los casos siguientes:


a) X B(n, p)
E[X]

=
=
=

n
X

k=0
n
X

k=1
n
X

k=1

kCkn pk (1 p)nk
k

n!
pk (1 p)nk
k!(n k)!

n(n 1)!
pk (1 p)nk
(k 1)!(n k)!

(np)

n
X

k=1

(np)

n1
X
z=0

(np)

np

n1
X
z=0

(n 1)!
pk1 (1 p)nk
(k 1)!(n k)!
(n 1)!
pz (1 p)n(z+1)
z!((n 1) z)!
Czn1 pz (1 p)(n1)z

Conclusi
on
Si X B(n, p) E[X] = np

b) X U [a, b]

43

cambio de variable: z = k 1

E[X]

=
=
=
=
=

xfX (x)dx

1
dx
b

a
a
Z b
1
xdx
ba a
x

b 2 a2
2(b a)
a+b
2

Conclusi
on
Si X U [a, b] E[X] =

a+b
2

Ejemplo 37. X B 3, 12
plo 7)

(ve
ase ejem-

E[X] =

44

3
2

3.1.2.

Varianza

Definici
on 15. Sea X una variable aleatoria (discreta o continua) con
esperanza E[X]. Se define la varianza de X como:
8 P
2
X discreta
<
k (k E[X]) P [X = k],
var(X) :=
: R
(X E[X])2 fX (x)dx, X continua

Observaci
on 33. var(X) 0

Ejemplo 38. Hallar var(X) en los casos:


a) X B(n, p)
var(X)

=
=
=
=
=

n
X

(k np)2 P [X = k]

k=0
n
X

k=0
n
X

k=0
n
X

k=2
n
X

k=2

k2 P [X = k] 2np

n
X

k=1

k2 P [X = k] (np)2

k(k 1)

P [X = k]

k=1

por problema 36

n(n 1)p2
n(n 1)p2

n!
p2 pk2 (1 p)nk + np (np)2
k!(n k)!

n
X

k=2
n2
X
z=0

n2
X

(n 2)!
pk2 (1 p)nk + np (np)2
(k 2)!(n k)!
(n 2)!
pz (1 p)n2z + np (np)2
z!((n 2) z)!
Cznz pz (1 p)(n2)z + np (np)2

n(n 1)p2

n(n 1)p2 + np (np)2

n
X

k(k 1)Ckn pk (1 p)nk + np (np)2

kP [X = k] + (np)2

z=0

(np)2 np2 + np (np)2


np(1 p)

Conclusi
on
Si X B(n, p) var(X) = np(1 p)

b) X U [a, b]

45

c.v: z = k 2

var(X)

=
=
=
=
=
=
=
=

2
a+b
x
fX (x)dx
2

Z +
Z +
(a + b)2
x2 fX (x)dx (a + b)
xfX (x)dx +
4

Z b
2
2
(a + b)
(a + b)
1
dx
+
x2
b

a
2
4
a
Z

(a + b)2
1
(b3 a3 )
3(b a)
4

(a + b)2
(b a)(b2 + ab + a2 )

3(b a)
4

4b2 + 4ab + 4a2 3a2 + 6ab 3b2


12
b2 2ab + a2
12
(b a)2
12

Conclusi
on
Si X U [a, b] var(X) =

(ba)2
12

cuadro de esperanzas y varianzas


variable aleatoria
B(n, p)
G(p)
P()
H(N, M, n)
U [a, b]
exp()
N (, 2 )

Esperanza
np
1/p

M
n
N
a+b
2

1/

46

Varianza
np(1 p)
1p
pz

M N n
(1

)
nM
N
N N 1
(ba)2
12
2

1/
2

3.1.3.

Esperanza de funciones de variables aleatorias

Definici
on 16. Supongamos Y := g X = g(X), entonces
8 P
Y discreta
<
kY[] kP [Y = k],
E[Y] = E[g(X)] =
: R
yfY (y)dy,
Y continua

Ejemplo 39. Sea X U [1, 1]


Hallar E[X2 ]
(Y = X2 )
obtenci
on de la densidad de Y:

1 Y[] = [0, 1]
2 Sea y [0, 1] fijo
FY (y)

P [Y y]

P [X2 y]

P [ y X y]

Z y
1
2
dx
2
0

=
=
=
=

Observaci
on 34.
y [0, 1]

0y1

y1

y an
alogamente 1 y 0
entonces

fY (y) =

8
<
:

E[Y]

=
=

1
,
2 y

0,

en otro caso

yfY (y)dy

Z 1

1
y dy
2 y
Z 1
1
1
lm
y 2 dy
2 0
1 2
lm (1 3/2 )
2 3 0
1
3
0

=
=
=

0<y1

47

Teorema 2. Supongamos Y = g(X), entonces

E[Y] = E[g(X)] :=

8 P
<
kX[] g(k)P [X = k],
: R

Ejemplo 40.

E[Y]

=
=
=
=

g(x)fX (x)dx,

X discreta
X continua

E[X2 ]
Z +
x2 fX (x)dx
Z

1
1

1
x2 dx
2

1
3

Observaci
on 35.
var(X)

:=

8 P
2
<
k (k E[X]) P [X = k],
: R

X continua

E[(X E[X]) ]

(g(x) = (x E[X])2 ,

3.1.4.
rios

(X E[X])2 fX (x)dx,

X discreta

x R)

Esperanza asociada a funciones de vectores aleato-

Teorema 3. Supongamos X = g(X, Y), entonces

E[g(X, Y)] :=

8 P P
<
x
y g(x, y)P [X = x, Y = y],
: R R

g(x, y)fX (x, y)dxdy,

48

X, Y discreta
(X, Y) continua

3.1.5.

Propiedades de la Esperanza

1. Si X = c, entonces
E[X] = c
Observaci
on 36. X = c

X[] = {c}
P [X = c] = 1
2. Si c es constante, entonces
E[cX] = cE[X]
3. E[X + Y] = E[X] + E[Y]
Demostraci
on. Sea
g(x, y) = x + y,

(x, y) R2

y supongase que (X, Y) es un vector continuo con densidad fX


X + Y = g(X, Y)

E[X + Y]

=
=
=
=
=
=
=

E[g(X, Y)]
Z + Z +

Z +

Z +

Z +

(x + y)fX (x, y)dxdy


xfX (x, y)dxdy +
xfX (x, y)dydx +

Z
Z

Z
+
fX (x, y)dydx +

xfX (x)dx + E[Y]

yfX (x, y)dxdy


+

yfY (y)dy

por definici
on de densidad marginal y esperanza

E[X] + E[Y]

4. Sean X y X variables aleatorias independientes, entonces


E[X Y] = E[X] E[Y]

49

fX (x, y)dx dy

Demostraci
on. Sea
g(x, y) = x y,

(x, y) R2

y sup
ongase que (X, Y) es un vector continuo con densidad fX
X Y = g(X, Y)

E[X Y]

E[g(X, Y)]
Z + Z +

Z +

=
=

E[X]

x yfX (x, y)dxdy


x yfX (x)fY (y)dxdy

pues X y Y son independientes

xfX (x)dx fY (y)dy

yfY (y)dy

E[X] E[Y]

3.1.6.

Z +

Propiedades de la Varianza
var(X) := E[(X E[X])2 ]

1. Sea c es constante
Entonces
var(X + c) = var(X)
Demostraci
on.
var(X + c)

=
=
=
=

E[(X + c E[X + c])2 ]

E[(X + c E[X] c)2 ]


E[(X E[X])2 ]

var(X)

2. Sea c una constante


Entonces
var(cX) = c2 var(X)

50

Demostraci
on.
var(cX)

=
=
=
=

E[(cX E[cX])2 ]

E[(cX cE[X])2 ]

c2 E[(X E[X])2 ]

c2 var(X)

3. Sean X y X variables aleatorias independientes, entonces


var(X + Y) = var(X) + var(Y)
Demostraci
on.
var(X + Y)

=
=
=
=
=
=

E[((X + Y) E[X + Y])2 ]

E[(X E[X]) + (Y E[Y])2 ]

var(X) + 2E[(X E[X])(Y E[Y])] + var(Y)

var(X) + var(Y) + 2(E[XY] E[X]E[Y] E[X]E[Y] + E[X]E[Y])

var(X) + var(Y) + 2(E[XY] E[X]E[Y])

var(X) + var(Y)

51

Ejemplo 41. Suponga que X y Y son variables aleatorias independientes


con densidades:
f (x) = x83 , x > 2;
g(y) = 2y, 0 < y < 1
a) Encuentre la densidad de Z = XY
primero observe que
z
z = xy y =
x
de donde 0 < y < 1 0 < z < x
f (x) =

8
<

8
x3

g(y) =

0
8
< 2y
:

si x > 2
en otro caso
si 0 < z < x

en otro caso

Sea z [0, ]
fXY (z)

=
=

Z2
2

=
=
Sea z [2, ]

52


1
8 2z
dx
x3 x |x|
16z
dx
x5

16z
4(2)4
z
4

fXY (z)

Zz


1
8 2z
dx
x3 x |x|
16z
dx
x5

4
z3

por lo tanto
8
<

fXY (z) =

b) Obtenga E[Z] de dos maneras:

z
4

si 0 z < 2

4
z3

si z > 2

i) Usando la densidad de Z

E[Z]

zfZ (z)dz

Z 2

z
z dz +
4

1
4
8
3

=
=

z
2

z dz + 4
0

4
dz
z3

z 2 dz

ii) Directamente, sin usar la densidad de Z


E[Z]

E[XY]

E[X]E[Y]
Z
Z 1

8
x 3 dx
y(2y)dy
x
2
0
Z
Z 1

2
8
x dx
2
y 2 dy

=
=

8
3

53

Ejemplo 42. Suponga que X es una variable aleatoria tal que E[X] = 10
y var(X) = 25
Para que valores positivos de a y de b tiene Y = aX b esperanza
cero y varianza 1?
1

=
=

var(Y)
var(aX b)

var(aX)

a2 var(X)

a2 25

entonces
a=

1
5

E[Y]

E[aX b]

=
=

a E[X] b
1
10 b
5

entonces
b=2

54

3.1.7.

Desigualdad de Chebyschev

Sea X una variable aleatoria con esperanza y varianza, ambas finitas.


Entonces para cada > 0, se cumple
P [|X E[X]| < ] 1

var(X)
2

(3)

Observaci
on 37.
1

var(X)
P [|X E[X]| < ] 1
2

Demostraci
on. Supongase que X es continua
var(X)

=
=
=

E[(X E[X])2 ]
Z +
(X E[X])2 fX (x)dx

Z
Z
(X E[X])2 fX (x)dx +
{x:|XE[X]|<}

{x:|XE[X]|}

{x:|XE[X]|}

(X E[X])2 fX (x)dx

{x:(XE[X])2 2 }

(X E[X])2 fX (x)dx

(X E[X])2 fX (x)dx

fX (x)dx

{x:(XE[X])2 2 }

fX dx

{x:P [(XE[X])2 2 ]}

fX dx

{x:P [|XE[X]|]}

=
=

2 P [|X E[X]| ]

2 (1 P [|X E[X]| < ])

P [|X E[X]| < ] 1

var(X)
2

Observaci
on 38. Sea X una variable aleatoria tal que var(X) = 0. Entonces X E[X]

55

3.1.8.

Ley debil de los grandes n


umeros

Sean X1 , X2 , . . . variables aleatorias independientes e identicamente


distribuidas
Supongase que X1 tiene esperanza y varianza finitas. Denotemos, para
cada n = 1, 2, 3, . . .
Sn := X1 + X2 + + Xn

Entonces para cada > 0 tenemos

Sn

lm P
E[X1 ] < = 1
n
n

(para n grande

Sn
n

E[X1 ])

Demostraci
on. Note que para n = 1, 2, . . .
E[Sn ] = E[X1 + + Xn ] = n E[X1 ]

var(Sn ) = var(X1 + + Xn ) = n var(X1 )


Entonces, dado > 0

Sn

P
E[X1 ] <
n

=
=

P [|Sn n E[X1 ]| < n ]


var(Sn )
usando la desigualdad de chebyschev
n2 2
n var(X1 )
1
n2 2
var(X1 )
1
n 2
1

por tanto, para cada n = 1, 2, . . .

Sn

var(X1 )
1 P
E[X1 ] < 1
n
n 2

se sigue entonces que cuando n :

Sn

lm P
E[X1 ] < = 1
n
n

56

3.1.9.

Ley fuerte de los grandes n


umeros

Sean X1 , X2 , . . . variables aleatorias independientes e identicamente


distribuidas
Supongase que X1 tiene esperanza finita
Entonces,

( Snn

Sn
E[X1 ]
n
E[X1 ], para n grande)

con probabilidad 1

Observaci
on 39. Supongase que X B(1, p), Y B(1, p), y que X y Y
son independientes
Cu
al es la distribuci
on probabilistica de X + Y?
(X + Y)[] = {0, 1, 2}

P [X + Y = 0]

P [X = 0, Y = 0]

(P [X = 0])2

(1 p)2

C02 p0 (1 p)2

P [X + Y = 1]

=
=

P [X + Y = 2]

2P [X = 0] P [Y = 1]
C12 p(1 p)

C22 p2 (1 p)0

X + Y B(2, p)

Observaci
on 40. En general es posible demostrar por inducci
on que:
Si X1 , X2 , . . . , Xn son independientes y Xi B(1, p), i = 1, 2, . . . , n,
entonces
X1 + X2 + + Xn B(n, p)

57

Ejemplo 43 (frecuencia relativa). Sea un experimento aleatorio con


espacio de probabilidad (, F, P )
Sea A un evento tal que p = P [A]
Para cada i = 1, 2, . . . , n sea Xi B(1, p) y suponga que X1 , X2 , . . . , Xn
son variables independientes.
observe que:
E[Xi ] = p
Sn
n

i = 1, 2, . . . , n

X1 +X2 ++Xn
n

=
(frecuencia relativa de A)
pues Sn = X1 + X2 + + Xn B(n, p)
por la ley de los grandes n
umeros
Sn
p = P (A),
n

3.1.10.

con probabilidad 1

Teorema Limite Central (Forma Cl


asica)

Teorema 4 (Teorema Limite Central). Sean X1 , X2 , . . . variables independientes identicamente distribuidas.


Supongase que X1 tiene esperanza y varianza finitas, con var(X1 ) > 0
Entonces
"
#
Z x
t2
Sn E[Sn ]
1
lm P p
x =
e 2 dt
n
2
var(Sn )
x R, Sn := X1 + + Xn ,

n = 1, 2, . . .

Observaci
on 41. En pocas palabras el teorema dice que si n es grande,
Sn E[Sn ]
p
X
var(Sn )

Observaci
on 42. El teorema anterior se puede interpretar para X
N (0, 1) como sigue:
#
"
Sn E[Sn ]
x = P [X = x]
lm P p
n
var(Sn )

Observaci
on 43. var(X) = 0 X constante

Observaci
on 44.
"
#
Sn E[Sn ]
E p
var(Sn )

=
=
=

1
p
E[Sn E[Sn ]]
var(Sn )

1
p
(E[Sn ] E[Sn ])
var(Sn )
0

58

var

Sn E[Sn ]
p
var(Sn )

=
=
=

1
p
var(Sn E[Sn ])
var(Sn )

1
p
var(Sn )
var(Sn )
1

Observaci
on 45. Si X B(n, p), entonces para poder aplicar el teorema
se debe satisfacer tambien lo siguiente:
X = Sn = X1 + + Xn
Xi B(1, p),

i = 1, 2, . . . , n

X1 , . . . , Xn son independientes

Ejemplo 44 (Aproximacion normal a la Binomial). Sea X B(900, 12 )


entonces
E[X] = (900)( 21 ) = 450
var(X) = (900)( 21 )(1 21 ) = 225
X = S900 por observaci
on 40
P [X 500]

=
=

P [400 X 500]

=
=
=

P [X = 420]

=
=
=
=
=
=

P [S900 500]
"
#
S900 E[S900 ]
500 450
p

225
var(S900 )
P [X 3,33]

0,0004

P [400 S900 500]


#
"
S900 E[S900 ]
500 450
400 450


P
p
225
225
var(S900 )

0,9992

P [419,5 X 420,5]

420,5 450
419,5 450

X
P
225
225

P [2,63 X 1,96]
(2,03) (1,96)

0,4788 0,4750

0,0638

59

PROBLEMA 46. Al sumar n


umeros, una computadora aproxima cada
n
umero al entero mas pr
oximo. Supongase que todos los errores de aproximaci
on son independientes y que est
an distribuidos uniformemente en
[-0.5,0.5]. Si se suman 1500 n
umeros, cu
al es la probabilidad de que el
valor absoluto del error total exceda a 15?
Soluci
on 47.
8
on
< Xi = errores de aproximaci
:

Xi U [0.5, 0.5]

i = 1, 2, . . . , 1500
i = 1, 2, . . . , 1500

S1500 = X1 + + X1500
P [|S1500 | > 15]

=
=
=
=

P [S1500 > 15] + P [S1500 < 15]


15 0
15 0
P [X >
] + P [X <
]
11.18
11.18
P [X > 1,341] + P [X < 1,341]

2P [X > 1,341]

1
(1,341)
2
2
0.1802

PROBLEMA 48. Supongase que los tiempos de espera para los clientes
que pasan por una caja registradora a la salida de una tienda son variables
aleatorias independientes e identicamente distribuidas con esperanza 1.5
minutos y varianza 1.0
Aproxime la probabilidad de que se pueda atender a 100 clientes en
menos de 120 minutos.
Soluci
on 49.
Xi = tiempo de espera del i-esimo cliente

i = 1, 2, . . . , 100

S100 = X1 + + X100
P [S100 120]

=
=
=

120 150
]
10

P [X 3]
1
+ (3)
2
0.9974
P [X

60

PROBLEMA 50. Supongase que tenemos 20 voltajes vi , i = 1, 2, . . . , 20


con ruido independiente
P que se reciben en lo que se llama un sumador
de voltaje. Sea V = 20
i=1 vi donde se supone que vi U [0, 10] para toda
i = 1, . . . , 20

Aproxime P [V > 105]


Soluci
on 51.
8
< Xi = voltajes con ruido
S20 = V

Xi U [0, 10]

P [V > 105]

=
=
=

i = 1, 2, . . . , 20
i = 1, 2, . . . , 20

P [S20 > 105]


105 100
P [X >
]
12.90

P [X > 0.3875]
1
(0,3875)
2
0.352

61

PROBLEMA 52. a) Sea c una constante y X una variable aleatoria


con E[X] = y var(X) = 2
Demuestre que
E[(X c)2 ] = ( c)2 + 2
b) Supongase que E[(X c)2 ] se piensa como funci
on de c,
es decir
g(c) = E[(X c)2 ],

cR

Para que valor de c, g alcanza su mnimo?


Soluci
on 53. a)
E[(X c)2 ]

=
=
=
=

E[X2 ] 2c + c2 + 2 2

( c)2 + (E[X2 ] 2 )

( c)2 + (E[X2 (E[X])2 ])


( c)2 + var(X)

b) c =
PROBLEMA 54. Construya un ejemplo de una distribuci
on de probabilidad cuya esperanza exista pero su varianza no (es decir esperanza finita
y varianza infinita)
Observaci
on 55. Sea X una variable aleatoria tal que la funci
on de
probabilidad puntual esta definida seg
un la siguiente regla:
P [X = n] =

1 1
,
/ 6 n2

n=

entonces

E[X]

+
X

n=1

+
X

n=1

=
=

n P [X = n]
n

1 1
2 /6 n2

+
1 X1
2 /6 n=1 n

62

1, 2, . . .
| {z }
rango de X

Observaci
on 56.
Sn E[Sn ]
p
var(Sn )

1
(Sn E[Sn ])
n
p
1
var(Sn )
n
Sn
E[ Snn ]
n

=
=

1
var(Sn )
n2

E[ Snn ]
q
var( Snn )

Sn
n

para n grande

Ejemplo 45. Supongase que un instrumento electr


onico tiene una duraci
on T que est
a distribuida exponencialmente con parametro =0.001
Si se prueban 100 de tales instrumentos (lo que da valores observados:
T1 , . . . , T100 )
Cu
al es la probabilidad de que 950 < T < 1100?
Observaci
on 57. T =

E[T]

T1 ++T100
100

=
=
=
=
=
=

var(T)

=
=
=
=
=
=

T1 + + T100
100

1
E[T1 + + T100 ]
100
100
E[T1 ]
100
E[T1 ]
1

1000

var

T1 + + T100
100

1 p
var(T1 + + T100 )
100
10 p
var(T1 )
100
r
1
1
10 2

1
1
10 0,001
100

Observaci
on 58. Se supuso que T1 , . . . , T100 son independientes

63

P [950 < T < 1100]

1100 1000
950 1000

<T <
100
100

P [0,5 < T < 1]

0,5328

PROBLEMA 59. Sean X1 , X2 , . . . variables independientes identicamente distribuidas


Supongase que E[X1 ] = y que var(X1 ) = q
Utilice el teorema lmite central para determinar el menor valor de n
para el cual

Sn

P
< 0,3 0,95
n
donde Sn := X1 + + Xn

64


Areas
bajo la curva
normal est
andar
de 0 a z
z
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
3.0
3.1
3.2
3.3
3.4
3.5

0
.0000
.0000
.0000
.1179
.1179
.1179
.2258
.2258
.2258
.3159
.3159
.3159
.3159
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987

2
.0040
.0040
.0040
.1217
.1217
.1217
.2291
.2291
.2291
.3186
.3186
.3186
.3186
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987

2
.0080
.0080
.0080
.1255
.1255
.1255
.2324
.2324
.2324
.3212
.3212
.3212
.3212
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987
.4987

3
.0120
.0120
.0120
.1293
.1293
.1293
.2357
.2357
.2357
.3238
.3238
.3238
.3238
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988

65

4
.0160
.0160
.0160
.1331
.1331
.1331
.2389
.2389
.2389
.3264
.3264
.3264
.3264
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988
.4988

5
.0199
.0199
.0199
.1368
.1368
.1368
.2422
.2422
.2422
.3289
.3289
.3289
.3289
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989

6
.0239
.0239
.0239
.1406
.1406
.1406
.2454
.2454
.2454
.3315
.3315
.3315
.3315
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989

7
.0279
.0279
.0279
.1443
.1443
.1443
.2486
.2486
.2486
.3340
.3340
.3340
.3340
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989
.4989

8
.0319
.0319
.0319
.1480
.1480
.1480
.2518
.2518
.2518
.3365
.3365
.3365
.3365
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990

9
.0359
.0359
.0359
.1517
.1517
.1517
.2549
.2549
.2549
.3389
.3389
.3389
.3389
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990
.4990

PROBABILIDAD
CONDICIONAL
Sea un experimento con espacio muestral
Proposici
on 4.
P (Ac ) = 1 P (A)

para todo evento A

Proposici
on 5.
P (B\A) = P (B) P (A B)

Proposici
on 6.

P (A B) = P (A) + P (B) P (A B)
Observaci
on 60. En general

P (A1 A2 An ) =

n
X

P (Ak )

k=1

X
i<k

Definici
on 17.
P (A|B) :=

P (Ai Aj )+

i<k<j

P (Ai Ak Aj ) +(1)n1 P (A1 An )

P (A B)
P (B)

Teorema 5 (Teorema de la multiplicaci


on). Sean A1 , A2 , . . . , Am eventos
tales que P (A1 Am ) > 0. Entonces
P (A1 Am ) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) P (Am |A1 A2 Am1 )
Definici
on 18. Diremos que los eventos A1 , . . . , An forman una partici
on
de si
a) Ai Aj = si i 6= j

b) = A1 A2 An
c) P (Ai ) > 0

i = 1, . . . , n

Teorema 6 (Teorema de la probabilidad total). Sea {Ai }n


i=1 una partici
on de . Entonces, si A es un evento tenemos que
P (A) =

n
X

P (A|Ai )P (Ai )

i=1

Demostraci
on. A = (A A1 ) (A A2 ) (A An )
entonces
P (A) =

n
X
i=1

P (A Ai ) =

66

n
X
i=1

P (A|Ai ) P (Ai )

Teorema 7 (F
ormula de Bayes). Supongase las hip
otesis del Teorema
anterior. Sea Ak un elemento de la partici
on y sea A un evento, con
P (A) > 0. Entonces
P (Ak |A) =

P (Ak A)
P (A|Ak ) P (Ak )
= Pn
P (A)
i=1 P (A|Ai ) P (Ai )

Ejemplo 46. Un motor V8 de aut


omovil tiene tres soportes independientes, cuyas probabilidades de romperse en un lapso de 8 a
nos son, respectivamente, 0.2, 0.4 y 0.3 %. Si el conductor del vehculo percibe el ruido
caracterstico de dos soportes quebrados, halle la probabilidad de que se
hayan roto los soportes primero y segundo.
Llamemos pi la probabilidad de que se haya roto el soporte i y qi la
probabilidad de que no se haya roto el soporte i

B1

B2

B3

p1

0,2

p2

0,4

p3

0,3

{ se rompieron 1 y 2 pero no el 3}

{ se rompieron 1 y 3 pero no el 2}

{ se rompieron 2 y 3 pero no el 1}

P (B1 )

p1 p2 q3

P (B2 )

p1 q2 p3

P (B3 )

q1 p2 p3

Sea A = {se rompieron 2 soportes}


P (A) =

3
X

P (Bi ) = 0,1880

i=1

Aplicando Bayes obtenemos:

P (B1 |A)

=
=
=

P (B1 )P (A|B1 )
P (A)
p1 p2 q3
P (A)
0,2978

67

Indice
1. VARIABLES ALEATORIAS DISCRETAS
1.1. Variable Aleatoria Binomial . . . . . . . . . . . . . . . . .
1.2. Variable Aleatoria de Poisson . . . . . . . . . . . . . . . .
1.3. Variable Aleatoria Geometrica . . . . . . . . . . . . . . . .
1.4. Funci
on de distribucion acumulativa . . . . . . . . . . . .
1.4.1. Propiedades de la distribuci
on acumulativa asociada
a una variable aleatoria discreta . . . . . . . . . .
1.5. Variable Aleatoria Hipergeometrica . . . . . . . . . . . . .

.
.
.
.

. 9
. 10

2. ESPACIOS DE PROBABILIDAD Y VARIABLES ALEATORIAS


2.1. VARIABLES ALEATORIAS CONTINUAS . . . . . . . . .
2.1.1. VARIABLES ALEATORIAS CONTINUAS DEFINIDAS MEDIANTE DENSIDADES . . . . . . . . .
2.2. Ejemplos de variables aleatorias continuas . . . . . . . . . .
3. VARIABLES ALEATORIAS (BIDIMENSIONALES)
3.0.1. Funci
on de probabilidad puntual de X . . . . . . . .
3.0.2. Funciones de probabilidad puntual marginales . . . .
3.0.3. Funciones de probabilidad condicional . . . . . . . .
3.0.4. Vectores aleatorios generados por densidades . . . .
3.0.5. Densidades Marginales . . . . . . . . . . . . . . . . .
3.0.6. Densidades Condicionales . . . . . . . . . . . . . . .
3.0.7. Densidades de funciones de variable aleatoria . . . .
3.0.8. Densidades de la suma y del producto de variables
aleatorias independientes . . . . . . . . . . . . . . .
3.1. ESPERANZA Y VARIANZA . . . . . . . . . . . . . . . . .
3.1.1. Esperanza . . . . . . . . . . . . . . . . . . . . . . . .
3.1.2. Varianza . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.3. Esperanza de funciones de variables aleatorias . . . .
3.1.4. Esperanza asociada a funciones de vectores aleatorios
3.1.5. Propiedades de la Esperanza . . . . . . . . . . . . .
3.1.6. Propiedades de la Varianza . . . . . . . . . . . . . .
3.1.7. Desigualdad de Chebyschev . . . . . . . . . . . . . .
3.1.8. Ley debil de los grandes n
umeros . . . . . . . . . . .
3.1.9. Ley fuerte de los grandes n
umeros . . . . . . . . . .
3.1.10. Teorema Limite Central (Forma Cl
asica) . . . . . . .

68

1
1
3
5
8

11
12
13
14
23
23
23
23
25
26
29
32
38
43
43
45
47
48
49
50
55
56
57
58

También podría gustarte