0% encontró este documento útil (0 votos)
13 vistas42 páginas

02MAIR Probabilidad

Presentaciones de Probabilidad
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
13 vistas42 páginas

02MAIR Probabilidad

Presentaciones de Probabilidad
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Probabilidad

02MIAR | Matemáticas para la IA


Introducción a la probabilidad

I La probabilidad es una medida que asigna un valor de certidumbre a la ocurrencia


de un determinado suceso.
I Habitualmente toma valores comprendidos entre 0 y 1, donde valores próximos a 0
indica poca probabilidad y los próximos a 1 bastante probabilidad.
I Por ejemplo, si lanzamos una moneda equilibrada, es razonable asignar
P(cara) = 0.5 y P(cruz) = 0.5.
I Otro ejemplo: si tenemos una urna con 30 bolas blancas y 70 negras y extraemos
una al azar, también es razonable asignar P(blanca) = 0.3 y P(negra) = 0.7.
I La probabilidad pretende asignar la proporción a la que tienden a darse los
resultados tras muchos experimentos:
I En el ejemplo de las monedas: 50 % caras y 50 % cruces.
I En el ejemplo de la urna: 30 % blancas y 70 % negras.
Introducción a la probabilidad

Definición
El conjunto formado por todos los resultados posibles, ⌦, recibe el nombre de espacio
muestral. Cada subconjunto formado por esas posibles ocurrencias, A ✓ ⌦, reciben el
nombre de sucesos o eventos.

Ejemplos
1. El espacio muestral asociado al lanzamiento de una moneda es ⌦ = {cara, cruz}.
2. Extracción en una urna con bolas blancas y negras: ⌦ = {blanca, negra}.
3. Lanzamiento de un dado: ⌦ = {1, 2, 3, 4, 5, 6}.
4. Lanzamiento de dos monedas:
⌦ = {(cara, cara), (cara, cruz), (cruz, cara), (cruz, cruz)}.
Introducción a la probabilidad

Ejemplos
1. Lanzamiento de una moneda equilibrada: ⌦ = {cara, cruz}. Posibles sucesos:
I No ocurre nada: A = ;. P(A) = 0.
I Sale cara: A = {cara}. P(A) = 0.5.
I Sale cruz: A = {cruz}. P(A) = 0.5.
I Sale alguna de las dos caras: A = {cara, cruz}. P(A) = 1.
2. Lanzamiento de un dado: ⌦ = {1, 2, 3, 4, 5, 6}. Ejemplos de sucesos:
I Sale un número par: A = {2, 4, 6}. P(A) = 0.5.
I Sale un número impar: A = {1, 3, 5}. P(A) = 0.5.
I Sale un número menor que 5: A = {1, 2, 3, 4}. P(A) = 23 .
I Sale un número que empieza por “c”: A = {4, 5}. P(A) = 13 .
Introducción a la probabilidad

Ejemplos
3. Lanzamiento de dos monedas:
⌦ = {(cara, cara), (cara, cruz), (cruz, cara), (cruz, cruz)}. Ejemplos de sucesos:
I Obtener el mismo resultado: A = {(cara, cara), (cruz, cruz)}. P(A) = 0.5.
I No obtener dos caras: A = {(cara, cruz), (cruz, cara), (cruz, cruz)}. P(A) = 0.75.
4. Lanzamiento de dos dados: ⌦ = {(i, j) | 1  i, j  6}. Ejemplos de sucesos:
I La suma de los resultados es 10: A = {(4, 6), (5, 5), (6, 4)}. P(A) = 12 1
.
I Ambos resultados son pares:
A = {(2, 2), (2, 4), (2, 6), (4, 2), (4, 4), (4, 6), (6, 2), (6, 4), (6, 6)}. P(A) = 14 .
Introducción a la probabilidad
Los sucesos pueden combinarse entre sı́ mediante las operaciones básicas entre conjuntos
(unión, intersección, complementario, etc.).
Ejemplos
1. Lanzamos un dado y consideramos el siguiente suceso: “sacar un número par o que
sea mayor que 3”. Llamamos A al suceso “sacar un número par” (por lo que
A = {2, 4, 6}) y B al suceso “sacar un número mayor que 3” (luego B = {4, 5, 6}).
Por tanto, el suceso que buscamos es
A [ B = {2, 4, 6} [ {4, 5, 6} = {2, 4, 5, 6}.
2. Bajo las condiciones anteriores, consideramos el suceso “sacar un número par mayor
que 3”. En este caso la operación que debemos realizar es
A \ B = {2, 4, 6} \ {4, 5, 6} = {4, 6}.
Introducción a la probabilidad
Definición
Dos sucesos A, B ✓ ⌦ son mutuamente excluyentes si A \ B = ;.

Ejemplo
Al lanzar un dado, A = {1, 3}, B = {2, 4, 6}. Se cumple A \ B = ;.

Definición
Una probabilidad P definida sobre el conjunto de sucesos asociado a un espacio muestral
⌦ es una función real cumpliendo:
1. 0  P(A)  1 para cualquier suceso A ✓ ⌦.
2. P(⌦) = 1.
3. Para cada par de sucesos A, B ✓ ⌦ mutuamente excluyentes (es decir,
A \ B = ;), se tiene P(A [ B) = P(A) + P(B).
Introducción a la probabilidad
De los axiomas asociados a una probabilidad se pueden deducir las siguientes
propiedades:
Propiedades
Sea ⌦ un espacio muestral, P una probabilidad y A, B ✓ ⌦ sucesos. Entonces se cumple:
1. P(Ac ) = 1 P(A).
2. P(;) = 0.
3. Si A ✓ B , entonces P(A)  P(B).
4. Si P(A [ B) = P(A) + P(B) P(A \ B).
5. En particular, P(A [ B)  P(A) + P(B).

Ejercicio
Demuéstrense las propiedades anteriores utilizando los tres axiomas de la probabilidad.
Introducción a la probabilidad

Ejemplo
En un grupo de amigos, un 40 % de ellos estudia Ingenierı́a Informática, un 30 %
Matemáticas y un 10 % ambas cosas a la vez. ¿Cuál es la probabilidad de que una
persona elegida al azar estudie alguna de las dos carreras? Si
A = {estudiar Ingenierı́a Informática} y B = {estudiar Matemáticas}, se nos pide

P(A [ B) = P(A) + P(B) P(A \ B) = 0.4 + 0.3 0.1 = 0.6.


Introducción a la probabilidad
La ocurrencia de determinados sucesos (o el conocimiento de determinada información)
puede condicionar la ocurrencia de otros sucesos.
Ejemplo
Lanzamos un dado equilibrado y consideramos el suceso A = {obtener un 2}. En ese
caso, y sin saber nada más, sabemos que la probabilidad de que ocurra ese suceso es 16 .
Sin embargo, esto puede cambiar si conocemos de antemano que ha ocurrido otro suceso
B.
I Por ejemplo, si B = {se ha obtenido un número par}, entonces la probabilidad de A
condicionada a B es 13 .
I Por otra parte, si B = {se ha obtenido un número impar}, entonces dicha
probabilidad es 0.
Introducción a la probabilidad
Definición
Sean A, B sucesos de un espacio muestral ⌦ y P una probabilidad asociada a éste.
Definimos la probabilidad de A condicionada a B como
P(A \ B)
P(A|B) = .
P(B)
Ejemplo
En el ejemplo anterior del dado, y tomando A = {obtener un 2}:
I Si B = {obtener un número par}, entonces
1
P(A \ B) P(A) 1
P(A|B) = = = 61 = .
P(B) P(B) 2
3
I Si B = {obtener un número impar}, entonces
P(A \ B) P(;) 0
P(A|B) = = = 1 = 0.
P(B) P(B) 2
Introducción a la probabilidad
Teorema (Teorema de Bayes)
Sean A, B sucesos de un espacio muestral ⌦ y P una probabilidad asociada. Entonces
P(A|B)P(B)
P(B|A) = .
P(A)

Ejemplo
Consideramos el lanzamiento de un dado y los sucesos A = {1, 2, 4, 5} y B = {2, 4, 6}.
1
Entonces P(A \ B) 2
P(A|B) = = 31 = .
P(B) 2
3
Por otra parte, utilizando el teorema de Bayes:
2 1
P(A|B)P(B) 3
· 2 1
P(B|A) = = 2 = .
P(A) 3
2
Introducción a la probabilidad

Definición
Diremos que dos sucesos A, B ✓ ⌦ son independientes si P(A|B) = P(A).

En general, de la definición de probabilidad condicionada, se deduce que para cualquier


par de sucesos A, B ✓ ⌦ (independientes o no) se cumple

P(A \ B) = P(A|B)P(B).

Por tanto:
Teorema
Dos sucesos A, B ✓ ⌦ son independientes si y sólo si se cumple P(A \ B) = P(A)P(B).
Introducción a la probabilidad

Ejemplo
Lanzamos una moneda y un dado, ambos equilibrados. ¿Cuál es la probabilidad de
obtener una cara en la moneda y, simultáneamente, un 3 en el dado?

Si llamamos A al suceso “obtener una cara al lanzar la moneda” y B al suceso “obtener


un 3 al lanzar el dado”, entonces se nos pide P(A \ B).

Dado que los sucesos A y B son independientes, se tiene:


1 1 1
P(A \ B) = P(A)P(B) = · = .
2 6 12
Introducción a la probabilidad
En ocasiones nos podemos encontrar con espacios muestrales infinitos.
Ejemplo
Sea ⌦ = [0, 1] ⇥ [0, 1] y la función f : [0, 1] ! [0, 1] dada por f (x) = x 2 . ¿Cuál es la
probabilidad de que un punto elegido al azar en el cuadrado [0, 1] ⇥ [0, 1] esté por debajo
de la gráfica de f ?
El área encerrada por la región es:
Z 1  1
2 x3 1
x dx = = .
0 3 0 3

Por tanto, la probabilidad es:


1
Área región 3 1
= = .
Área cuadrado 1 3
Introducción a la probabilidad
Definición
Una partición A1 , A2 , . . . , An sobre un espacio muestral ⌦ es un conjunto de sucesos
cumpliendo Ai \ Aj = ; para 1  i, j  n, i 6= j y además
n
[
Ai = ⌦.
i=1

Teorema (Teorema de la probabilidad total)


Sea A1 , A2 , . . . , An una partición sobre un espacio muestral ⌦ y B un suceso cualquiera
del que se conoce P(B|Ai ), para 1  i  n. Entonces
n
X
P(B) = P(B|Ai )P(Ai ).
i=1
Introducción a la probabilidad
Ejemplo
En un determinado grupo de personas, un 1 % de las mismas padece una enfermedad especı́fica.
Existe un test de detección de la misma, el cual tiene un 1 % de probabilidad de obtener un
falso positivo, ası́ como un 1 % de obtener un falso negativo. ¿Cuál es la probabilidad de que
un individuo que ha dado positivo en el test padezca realmente la enfermedad?

Sea E el suceso “sufrir la enfermedad” y T el suceso “obtener positivo”. Se sabe que


P(E ) = 0.01, P(T |E ) = 0.01 y P(T |E ) = 0.01. Se pide obtener P(E |T ).
Aplicando el teorema de Bayes y el teorema de la probabilidad total:

P(T |E )P(E ) P(T |E )P(E )


p(E |T ) = =
P(T ) P(T |E )P(E ) + P(T |E )P(E )
0.99 · 0.01 1
= = = 0.5.
0.99 · 0.01 + 0.01 · 0.99 2
Variables aleatorias
Definición
Una variable aleatoria (V.A.) X sobre un espacio muestral ⌦ es una función ⌦ ! R.
En ese caso, es posible inducir una probabilidad asociada a esa variable aleatoria sobre
X (⌦) ✓ R. Dado un suceso A ✓ R, definimos
PX (A) ⌘ P(X 2 A) := P X 1 (A) = P {! 2 ⌦ | X (!) 2 A} .

Ejemplos
1. Sea ⌦ el conjunto formado por la población mundial X : ⌦ ! R la variable
aleatoria que a una persona ! 2 ⌦ le asigna su año de nacimiento, X (!) 2 R.
Entonces si A = {1984, 1985, 1986}:
X 1 (A) = {personas nacidas entre 1984 y 1986}
PX (A) = proporción de personas nacidas entre 1984 y 1986.
Variables aleatorias
Ejemplos
2. Sea ⌦ el espacio muestral asociado al lanzamiento de tres monedas:

⌦ = {ZZZ , CZZ , ZCZ , ZZC , CCZ , CZC , ZCC , CCC }.


I Sea X : ⌦ ! R la V.A. que cuenta el número de caras obtenidas:

I X (ZZZ ) = 0. I X (CCZ ) = 2. I X 1
(0) = {ZZZ }. I P(X = 0) = 18 .
I X (CZZ ) = 1. I X (CZC ) = 2. I X 1
(1) = {CZZ , ZCZ , ZZC }. I P(X = 1) = 38 .
I X (ZCZ ) = 1. I X (ZCC ) = 2. I X 1
(2) = {CCZ , CZC , ZCC }. I P(X = 2) = 38 .
I X (ZZC ) = 1. I X (CCC ) = 3. I X 1
(3) = {CCC }. I P(X = 3) = 18 .
I P(1 < X  3.5) = P X 1
(]1, 3.5]) = P ({! 2 ⌦ | X (!) 2] 1, 3.5]}) =
1
P ({CCZ , CZC , ZCC , CCC }) =
2
Variables aleatorias discretas
Definición
Sea X una V.A. Si el conjunto X (⌦) es finito o numerable (indexable por números
naturales), entonces diremos que X es una variable aleatoria discreta.

En ese caso, definimos la función de densidad o función de masa de probabilidad


asociada como fX : R ! [0, 1] dada por
1
fX (x) = P(X = x) = PX ({x}) = P(X ({x})) = P({! 2 ⌦ | X (!) = x}), x 2 R.
Definimos la función de distribución asociada como FX : R ! [0, 1] dada por
X
FX (x) = P(X  x) = fX (X (t)), x 2 R.
t2⌦,X (t)x
X
Condición de normalización: fX (X (t)) = 1.
t2⌦
Variables aleatorias discretas
Ejemplos
1. Sea ⌦ = {uno, dos, tres, cuatro, cinco, seis} el conjunto de los posibles resultados al
lanzar un dado y X : ⌦ ! R la V.A. que le asigna su valor: X (uno) = 1,
X (dos) = 2, X (tres) = 3, X (cuatro) = 4, X (cinco) = 5 y X (seis) = 6. Entonces

X (⌦) = {1, 2, 3, 4, 5, 6}.

1
fX (4) = P(X = 4) = P({cuatro}) = .
6
Por otra parte,
2
FX (4) = P(X  4) = P({uno, dos, tres, cuatro}) = .
3
Variables aleatorias discretas
Ejemplos
2. Consideramos el experimento aleatorio consistente en lanzar una moneda hasta
obtener como resultado cara. El espacio muestral es por tanto
⌦ = {cara, (cruz, cara), (cruz, cruz, cara), (cruz, cruz, cruz, cara), ...}.
I Sea X la V.A. aleatoria consistente en contar el número de lanzamientos hasta
obtener cara. Entonces:
I X (cara) = 1. I fX (1) = 12 .
I X (cruz, cara) = 2. I fX (2) = 14 .
I X (cruz, cruz, cara) = 3. I fX (3) = 18 .
I X (cruz, cruz, cruz, cara) = 4. I fX (4) = 16 1
.
.. ..
. .
I Por tanto, X (⌦) = {1, 2, 3, 4, . . .} = N. I fX (n) = 1
2n , 8n 2 N.
X X X 1
X 1
I fX (X (t)) = fX (n) = P(X = n) = = 1.
2n
t2⌦ n2N n2N n=1
Variables aleatorias continuas
Definición
Sea X una V.A. asociada a un espacio muestral ⌦. Diremos que X es una V.A.
continua si X (⌦) es continuo (por ejemplo, un intervalo o todos los reales).

Definimos la función de distribución asociada a X como FX : R ! [0, 1] dada por


FX (x) = P(X  x).
Asimismo, diremos que X admite una función de densidad si 9fX : R ! [0, +1[ no
negativa e integrable tal que para cada A ✓ R
Z
P(X 2 A) = fX (t)dt.
A
Z +1
Condición de normalización: fX (t)dt = 1.
1
Variables aleatorias continuas
I Si X es una V.A. continua que admite una función de densidad, entonces podemos
escribir Z x
FX (x) = P(X  x) = fX (t)dt.
1
I La función de densidad debe satisfacer la condición de normalización:
Z +1
fX (t)dt = P(X 2 R) = 1.
1

I De la existencia de una función de densidad se deduce que


P(X < x) = lı́m FX (t) = FX (x) = P(X  x).
t!x

I En particular, se deduce que en ese caso


P(X = x) = 0, 8x 2 R.
Variables aleatorias continuas
Ejemplo
Se elige un número al azar dentro del intervalo real [0, 1] y se considera la V.A. aleatoria
asociada a dicho experimento. Entonces la función de distribución asociada a X es:
8
>
<0 si x < 0,
FX (x) = P(X  x) = x si 0  x  1,
>
:
1 si x > 1.

Por tanto, la función de densidad asociada a X es:


8
>
<0 si x < 0,
fX (x) = 1 si 0  x  1,
>
:
0 si x > 1.
Esperanza
Definición
Sea X una V.A. asociada a un espacio muestral ⌦, y con función de densidad fX (x).
Definimos la esperanza de X como
(P
xfX (x) si X es una V.A. discreta,
E [X ] = R x2X (⌦)
xf (x)dx
R X
si X es una V.A. continua.

Propiedades
Sean X , Y variables aleatorias, a 2 R. Entonces:
1. E [X + Y ] = E [X ] + E [Y ].
2. E [aX ] = aE [X ].
3. Si X , Y son independientes, entonces E [XY ] = E [X ]E [Y ].
Esperanza

Ejemplos
1. El precio del número de una rifa es de 1 euro. Si ésta tiene un total de 1000 números
y el premio tiene un valor de 500 euros, ¿cuál es el promedio de beneficio esperado?

Llamamos X a la V.A. que cuantifica el beneficio obtenido al participar en la rifa:


999
Perder la rifa: X = 1 ! P(X = 1) = 1000 .
1
Ganar la rifa: X = 499 ! P(X = 499) = 1000 .

Por tanto:
999 499
E [X ] = ( 1) · P(X = 1) + 499 · P(X = 499) = + = 0.5.
1000 1000
Esperanza

Ejemplos
2. Consideramos el intervalo [0, 1] y seleccionamos un punto al azar y nos planteamos
cuál es el valor sobre el que oscilará el promedio. Vimos que
8
>
<0 si x < 0,
fX (x) = 1 si 0  x  1,
>
:
0 si x > 1.

Por tanto: Z Z 
+1 1 1
x2 1
E [X ] = xfX (x)dx = xdx = = .
1 0 2 0 2
Varianza
Definición
Sea X una V.A. y g : R ! R. Definimos
(P
g (x)fX (x) si X es una V.A. discreta,
E [g (X )] = R x2X (⌦)
R
g (x)fX (x)dx si X es una V.A. continua.

Definición
Sea X una V.A. aleatoria. Definimos la varianza de X como:
⇥ ⇤ ⇥ ⇤
Var(X ) = E (X E [X ])2 = E X 2 E [X ]2 .

Propiedades
1. Var(aX ) = a2 Var(X ), 8a 2 R.
2. Var(X + a) = Var(X ), 8a 2 R.
3. Var(X + Y ) = Var(X ) + Var(Y ) si X , Y son independientes.
Varianza
Ejemplos
1. En el ejemplo de la rifa, se tiene
⇥ ⇤ X
E X2 = x 2 fX (x) = ( 1)2 · P(X = 1) + 4992 · P(X = 499)
x2{ 1,499}
999 249001
= + = 250.
1000 1000
Por tanto, Var(X ) = E [X 2 ] E [X ]2 = 250 0.52 = 249.75.
2. Selección al azar de un número en el intervalo [0, 1]:
Z +1 Z 1  3 1
⇥ 2⇤ 2 2 x 1
E X = x fx (x)dx = x dx = = .
1 0 3 0 3
✓ ◆2
1 1 1
Luego Var(X ) = E [X 2 ] E [X ]2 = = .
3 2 12
Distribución de Bernoulli
Una V.A. X sigue la distribución de Bernoulli de parámetro p 2 [0, 1], y lo
denotaremos por X ⇠ Be(p), si X 2 {0, 1}, verificando

P(X = 1) = p, P(X = 0) = 1 p.

Podemos calcular la esperanza y varianza de X como sigue:

E [X ] = p, Var(X ) = p(1 p).

Ejemplo
Consideramos el experimento consistente en devolver éxito (X = 1) si al lanzar un dado
obtenemos un 5 y fracaso (X = 0) en otro caso. Entonces X ⇠ Be( 16 ).
Distribución binomial

Si X = X1 + · · · + Xn , con Xi ⇠ Be(p) independientes entre sı́, es decir, si X es una V.A.


aleatoria que cuenta el número de éxitos tras realizar n pruebas Bernoulli de parámetro p
independientes, diremos que X sigue una distribución binomial de parámetros n y p,
que denotaremos por X ⇠ B(n, p). Se cumple
✓ ◆ ✓ ◆
n k n k n n!
P(X = k) = p (1 p) , donde = .
k k k!(n k)!

Por otra parte,


E [X ] = np, Var(X ) = np(1 p).
Distribución binomial

Ejemplo
Lanzamos un dado 10 veces y queremos calcular cuál es la probabilidad de obtener tres
veces un cinco. Si X es la V.A. que cuenta el número de veces que se obtiene un cinco
tras lanzar el dado 10 veces, entonces X ⇠ B(10, 16 ), por lo que n = 10, p = 16 y k = 3,
con lo cual se tiene:
✓ ◆ ✓ ◆ 3 ✓ ◆7
n k n k 10! 1 5 390625
P(X = k) = p (1 p) = = .
k 3! · 7! 6 6 2519424
Distribución de Poisson
Supongamos que realizamos un número de pruebas Bernoulli muy alto n, con una
probabilidad pn cada vez más pequeña, de forma que

lı́m npn = .
n!1

Si Xn ⇠ B(n, pn ), entonces se puede demostrar que


k
e
lı́m P(Xn = k) = .
n!1 k!
Si X es una variable de este tipo, diremos que X sigue una distribución de Poisson de
parámetro , que denotaremos por X ⇠ Po( ). Se cumple

E [X ] = , Var(X ) = .
Distribución de Poisson

Ejemplo
La probabilidad media de tener un accidente de tráfico al coger el coche en una
determinada región es de un 0.01 %. Si una persona coge el coche una media total de
20000 veces a lo largo de su vida, ¿cuál es la probabilidad de que sufra algún accidente
de tráfico en algún momento de su vida?

Sea X la V.A. aleatoria que contabiliza el número de accidentes de tráfico en esas


circunstancias. Como n = 20000 y p = 0.0001, tenemos = np = 2, y podemos decir
que X ⇡ Po(2). Por tanto, se nos pide
0
e 2
P(X > 0) = 1 P(X = 0) = 1 =1 e ⇡ 0.8647.
0!
Distribuciones continuas
I Distribución uniforme:

Si X es una V.A. continua que toma valores uniformemente en el intervalo [a, b],
entonces diremos que X sigue una distribución uniforme, y lo denotaremos por
X ⇠ Unif [a, b] .
Ejercicio
Si X ⇠ Unif [a, b] , obtener razonadamente FX , fx , E [X ] y Var(X ).
I Distribución normal:

Una V.A. X sigue una distribución normal de media µ y desviación tı́pica ,


denotado por X ⇠ N(µ, ), si se cumple
1 (x µ)2
fX (x) = p e 22 .
2⇡ 2
Distribución normal

2
Se cumple E [X ] = µ y Var(X ) = .
Teorema
X µ
Si X ⇠ N(µ, ), entonces ⇠ N(0, 1). Usualmente esta última distribución recibe
el nombre de normal tipificada.
Distribución normal
Ejemplo
La altura (en centı́metros) de una determinada población sigue una distribución normal
de media 175 y desviación tı́pica 10. ¿Cuál es la probabilidad de que una persona elegida
al azar mida más de 185 cm?

Sea X la V.A. asociada, luego X ⇠ N(175, 10). Si definimos Z = X 10175 ⇠ N(0, 1), se
tiene
✓ ◆
X 175 185 175
P (X > 185) = P >
10 10
= P (Z > 1) = 1 P (Z  1) ⇡ 1 0.8413 = 0.1587.

Comandos utilizados:
from [Link] import norm
[Link](1)
Teorema del lı́mite central
Teorema (Teorema del lı́mite central)
Sea {Xi }1 i=1 una sucesión de variables aleatorias idénticamente distribuidas (en adelante,
i.i.d.), con E [Xi ] = µ y Var(Xi ) = 2 8i 2 N. Denotamos para cada n 2 N
n
X Sn nµ
Sn = Xi y definimos Zn = p .
i=1
n

Entonces se cumple
lı́m P(Zn  t) = P(Z  t),
n!1

donde Z ⇠ N(0, 1).


✓ 2

En particular, X n ⇡ N µ, para valores de n grandes.
n
Teorema del lı́mite central
Ejemplo
¿Cuál es la probabilidad de que al lanzar una moneda 400 veces, salga cara en menos de
210 ocasiones?

Sea Xi ⇠ Be(0.5) la V.A. que vale 1 si se obtiene cara en el lanzamiento i-ésimoPy 0 en


otro caso, por lo que E [Xi ] = 0.5 y Var[Xi ] = 0.52 = 0.25. Si definimos S400 = 400
i=1 Xi ,
entonces se nos pide
P(S400 < 210) = P(S400  209)
✓ ◆
S400 400 · 0.5 209 400 · 0.5
=P p p  p p
400 · 0.25 400 · 0.25
⇡ P(Z < 0.9) ⇡ 0.8159,

donde Z ⇠ N(0, 1).


Ley de grandes números

Teorema (Ley de grandes números)


Sea {Xi }1
i=1 una sucesión de variables aleatorias independientes cumpliendo E [Xi ] = µ y
Var(Xi ) = 2 8i 2 N. Si denotamos para cada n 2 N
n
1X
Xn = Xi
n i=1

entonces
lı́m P(|X n µ| < ") = 1, 8" > 0.
n!1
¡Muchas gracias!

Contacto:
[Link]@[Link]

También podría gustarte