0% encontró este documento útil (0 votos)
7 vistas18 páginas

Ejercicios

El documento contiene una serie de ejercicios sobre probabilidad y variables aleatorias, abarcando definiciones, conceptos básicos, y problemas prácticos relacionados con sucesos, espacios muestrales, y funciones de distribución. Se incluyen pruebas y cálculos de probabilidades en diferentes contextos, así como la exploración de propiedades de funciones de masa y densidad. Además, se plantean problemas aplicados como el juego de Monty Hall y la paradoja de Galton.

Cargado por

Adr 1122
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
7 vistas18 páginas

Ejercicios

El documento contiene una serie de ejercicios sobre probabilidad y variables aleatorias, abarcando definiciones, conceptos básicos, y problemas prácticos relacionados con sucesos, espacios muestrales, y funciones de distribución. Se incluyen pruebas y cálculos de probabilidades en diferentes contextos, así como la exploración de propiedades de funciones de masa y densidad. Además, se plantean problemas aplicados como el juego de Monty Hall y la paradoja de Galton.

Cargado por

Adr 1122
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Ejercicios del tema 1.

Probabilidad: definiciones y conceptos básicos


1. Expresar los siguientes sucesos en función de los sucesos A, B y C:

a) Ocurren los tres sucesos A, B y C. e) No ocurren dos sucesos entre A, B y C.


b) No ocurre ninguno. f ) Ocurren al menos dos de los sucesos.
c) Ocurren A y B pero no C. g) Ocurre sólo uno.
d ) Ocurren exactamente dos y no más. h) Ocurre al menos uno.

2. Una caja contiene una bola roja y otra verde. Un experimento aleatorio consiste en hacer dos extracciones:
se saca una bola, se devuelve y se hace la segunda extracción. Se pide:

a) Determinar el espacio muestral del experimento aleatorio.


b) Calcular la probabilidad de cada suceso elemental teniendo en cuenta que las dos bolas tienen la
misma probabilidad de ser extraı́das.
c) Responder a las preguntas anteriores suponiendo que el experimento se hace con un número de bolas
n ≥ 1, teniendo en cuenta que las bolas son distinguibles entre ellas (tienen colores distintos, por
ejemplo).

3. Considerar el experimento aleatorio consistente en lanzar una moneda hasta que se obtengan dos caras
consecutivas. Determinar:

a) El espacio muestral.
b) La probabilidad de lanzar la moneda cuatro veces. Suponer que cara y cruz salen con la misma
probabilidad.

4. Dada una sucesión (An )n∈N de subconjuntos de Ω, probar:

∞ T

a) lim An =
S
Am c) (lim An )c = lim Acn e) lim An ⊂ lim An
n n n n
n k=0 m=k
∞ S
T ∞
b) lim An =
n
Am d ) (lim An )c = lim Acn
k=0 m=k n n

5. Probar que A es una σ-álgebra si y sólo si A es un álgebra y una clase monótona.

6. Dados los números a, b, c, d ∈ R y n ∈ N, n ≥ 1, se pide expresar el intervalo:

a) (a, b) como función de intervalos de la forma (c, d − 1/n].


b) (a, b] como función de intervalos de la forma (c, d + 1/n).

7. Probar que una función de conjunto P : A → R en un espacio probabilizable (Ω, A) es una probabilidad si
y sólo si se cumplen:

a) No negativa: para todo A ∈ A es P (A) ≥ 0.


b) Normalizada: P (Ω) = 1.
c) Aditiva: para todo A, B ∈ A con A ∩ B = ∅ es P (A ∪ B) = P (A) + P (B).
d ) Continua por arriba en ∅: para toda sucesión (An )n∈N ⊂ A monótona decreciente y convergente a ∅
es lı́m P (An ) = 0.
n

1
8. Dados un espacio de probabilidad (Ω, A, P ) y una sucesión (An )n∈N ⊂ A, probar:

a) Si (An )n∈N es monótona, creciente o decreciente, entonces P (lı́m An ) = lı́m P (An ).


n n

b) P (lim An ) ≤ lim P (An ) ≤ lim P (An ) ≤ P (lim An ).


n n n n

c) Si (An )n∈N es convergente, entonces P (lı́m An ) = lı́m P (An ).


n n
 
T
d ) Si P (An ) = 1 para todo n ∈ N, entonces P An = 1.
n∈N

9. Dados dos sucesos A, B ∈ A del espacio de probabilidad (Ω, A, P ) probar:

a) P (A ∩ B) ≤ mı́n{P (A), P (B)}.


b) P (A ∩ B) ≥ P (A) + P (B) − 1.
c) máx{P (A), P (B)} ≤ P (A ∪ B) ≤ mı́n{P (A) + P (B), 1}.
d ) Si A ⊂ B entonces P (B) = P (A) + P (Ac ∩ B) ≥ P (A).

10. Prueba las siguientes desigualdades:


 n  " #
S n
P P
a) Bonferroni: P Ai ≥ P (Ai ) − P (Ai ∩ Aj ) .
i=1 i=1 {j:j>i}
  " #
n
S n
P P
b) Kounias: P Ai ≤ mı́n P (Aj ) − P (Ak ∩ Aj ) .
i=1 k j=1 {j:j̸=k}

11. Expresar la probabilidad de la diferencia simétrica entre A y B como función de P (A), P (B) y P (A ∩ B).

12. Sea p ∈ (0, 1) la probabilidad de obtener una cara en el lanzamiento de una moneda (1 − p de obtener
cruz). Probar que:

a) Con probabilidad 1, la moneda cambia de resultado tras sucesivos lanzamientos.


b) Con probabilidad 1, obtenemos cualquier secuencia finita de resultados.

13. Una fracción p de la superficie de una esfera está pintada de rojo y el resto de verde. Estimar el valor de
p para que, con independencia de cómo esté pintada la esfera, sea posible inscribir un cubo con todos sus
vértices verdes.

14. Una cantidad m de personas sin parentesco asisten a un evento. Teniendo en cuenta que el año tiene d
dı́as, calcular la probabilidad de que dos o más personas hayan nacido el mismo dı́a del año.

15. Sean dos sucesos A y B con probabilidades no nulas. Probar:

a) Si P (A|B) > P (A) entonces P (B|A) > P (B).


b) Si P (A ∩ B) ̸= 0, P (A|B) = P (B|A) ⇔ P (A) = P (B).

16. Si A y B son sucesos independientes del espacio de probabilidad (Ω, A, P ), probar:

a) Si P (B) > 0, entonces P (A|B) = P (A).


b) Ac y B c son independientes.
c) A y B c son independientes.

17. Dados tres sucesos independientes, A, B y C, del espacio de probabilidad (Ω, A, P ), calcular en función de
sus probabilidades:

2
a) P (A ∪ (B ∩ C)c ). b) P (A ∪ (B ∩ C c )).

18. Se lanzan dos dados de seis caras cada uno, no trucados. Calcular:

a) La probabilidad de que el resultado total sea n ∈ N.


b) La probabilidad de que al menos salga un 1 en uno de los dados.
c) La probabilidad de que al menos salga un 2 en uno de los dados, sabiendo que los resultados de los
dados han sido diferentes.
d ) La probabilidad de obtener un 3 en uno de los dados sabiendo que el resultado total ha sido 7.

19. Dos jugadores, 1 y 2, juegan a los dados. El primero tiene una probabilidad p1 de acertar, mientras que el
segundo tiene p2 . Calcular la probabilidad de que el jugador 1 acierte si:

a) Sabemos que sólo uno de los dos jugadores ha acertado.


b) Al menos uno de los jugadores a acertado.

20. El problema de Monty Hall (modificado). Un juego consiste en encontrar un premio que se esconde detrás
de una y sólo una de n ≥ 3 puertas posibles. La elección de la puerta se hace en dos fases. En una primera
fase, el jugador elige una puerta entre las n. De entre las n−1 no elegidas, se elimina una puerta sin premio.
En una segunda fase, el jugador elige entre quedarse o cambiar de puerta. Se pide:

a) Calcular la probabilidad de ganar si en la segunda fase el jugado no cambia de puerta.


b) Calcular la probabilidad de ganar si en la segunda fase el jugado sı́ cambia de puerta.

21. Sea el espacio de probabilidad (Ω, A, P ) donde Ω = {1, 2, . . . , p} con p un número primo, A = P(Ω) y
P (A) = |A|/p para todo A ∈ A. Probar que A y B son independientes si y sólo si A ó B es Ω ó ∅.

22. Paradoja de Galton. Lanzamos tres monedas (equilibradas). Al menos dos de ellas coinciden en su resultado,
¿podemos concluir entonces que la tercera moneda tiene probabilidad 1/2 de coincidir con las otras dos?

23. Un experimento aleatorio consiste en lanzar una moneda repetidamente. Teniendo en cuenta que la proba-
bilidad de obtener cara en un lanzamiento es p, obtener una ecuación para pn , la probabilidad de que en
el lanzamiento n-ésimo acumulemos un número par de caras. Resolver la ecuación tomando p0 = 1.

24. Cuatro personas, P1 a P4 , dicen la verdad, con independencia del resto, con una probabilidad p. P1 asegura
que P2 niega que P3 diga que P4 miente. Suponiendo que la frase anterior es cierta, calcular la probabilidad
de que P4 diga la verdad.

25. En una urna hay N piezas de las cuales M son defectuosas. Si se extraen n piezas de la caja al azar, calcular
la probabilidad de que m sean defectuosas.

26. En una caja hay 10 bolas de diferentes colores. Se eligen n al azar con reemplazamiento. Calcular la
probabilidad de que s sean diferentes.

27. Se lanzan tres dados dos veces. Calcular la probabilidad de que obtengamos el mismo resultado en las dos
tiradas si los dados son

a) distinguibles. b) indistinguibles.

28. Una urna contiene r bolas rojas y v bolas verdes. Se extraen todas las bolas de la urna de forma aleatoria.
Calcular la probabilidad de que:

3
a) La primera bola roja en salir sea la n-ésima (contando las verdes).
b) La última bola en salir sea roja.

29. Dadas n ≥ 1 funciones de distribución definidas en R, F1 , . . . , Fn , probar que


n
X
F = λi Fi
i=1

n
P
con λi ≥ 0, i = 1, . . . , n y λi = 1, es también una función de distribución en R.
i=1

30. Dada la función 




 0, x < −2





 1/8, −2 ≤ x < 0

0≤x<1

1/4 + x/8,
F (x) =


 4/8 + (x − 1)/8, 1≤x<2


6/8 + (x − 2)/8, 2≤x<3






1, x≥3

a) Probar que F es una función de distribución.


b) Calcular P (Q), donde P es la probabilidad asociada a F .
c) Calcular P (Q ∩ (0, 2)).
d) Calcular P (I ∩ (0, 2]).
e) Calcular P (I ∩ (2, 3] ∪ Q ∩ (2, 4)).

4
Ejercicios del tema 2.
Variables aleatorias y distribuciones de probabilidad
1. Sea (Ω, A) un espacio probabilizable en el que está definida la variable aleatoria real X. Demostrar que
para todo x ∈ R los siguientes conjuntos están en A:

a) {X > x}. c) {X < x}.


b) {X ≥ x}. d ) {X = x}.

2. Sean (Ω, A, P ) un espacio de probabilidad, X e Y variables aleatorias reales definidas en (Ω, A, P ) y


f : R → R medible. Probar que las siguientes son también variables aleatorias reales en (Ω, A, P ):

a) f (X).
b) X + Y .
c) X · Y .

3. Dadas IA e IB funciones indicatrices de un espacio proabilizable (Ω, A), con A, B ∈ A, probar que IA es
una variable aleatoria real y que se cumplen:

a) IA∩B = IA · IB ,
b) IA + IAc = 1,
c) IA∪B = IA + IB − IA∩B .

4. Probar que la suma de dos variables aleatorias simples en el espacio probabilizable (Ω, A) también es una
variable aleatoria simple.

5. Sean el intervalo I = (0, 1) y el espacio de probabilidad (I, BI , λ) donde λ es la probabilidad uniforme en I


(igual a la longitud de los subconjuntos de BI ). Dada una función de distribución F , definimos F ∗ : I → R
como
F ∗ (y) = mı́n{x ∈ R : F (x) ≥ y}.

Probar que, en (I, BI , λ), F ∗ es una varia aleatoria real con función de distribución F .

6. Sean X una variable aleatoria real y FX su función de distribución. Probar que la función de masa pX
cumple pX (x) = FX (x) − FX (x− ).

7. Se habla de la distribución de una variable aleatoria X para referirnos a su función de masa cuando es
discreta o a su densidad de probabilidad cuando es continua. Comprobar que las siguientes funciones son
distribuciones y calcular, cuando sea posible, la función de distribución asociada.

1, x = x
0
a) Distribución causal o degenerada: p(x) = para una x0 ∈ R.
0, x ̸= x0
1
b) Distribución uniforme sobre n > 0 puntos: p(x) = n para x = x1 , . . . , xn y cero en otro caso.
c) Distribución de Bernoulli: p(x) = px q 1−x para x = 0, 1 y cero en otro caso. Es p ∈ [0, 1] y q = 1 − p.
!
n x n−x
d ) Distribución Binomial: p(x) = p q para x = 0, . . . , n, con n ≥ 1, y cero en otro caso. Es
x
p ∈ [0, 1], q = 1 − p.
e−λ λx
e) Distribución de Poisson: p(x) = x! para x ∈ N (con x = 0) y cero en otro caso. Es λ > 0.

5
  
D N − D
  
x n−x
f ) Distribución hipergeométrica: p(x) =   para máx(0, n − N + D) ≤ x ≤ mı́n(D, n) y
N 
 
n
cero en otro caso. Es N ≥ 1, D ≤ N .
g) Distribución geométrica: p(x) = pq x para x ∈ N, x ̸= 0, y cero en otro caso. Es p ∈ [0, 1], q = 1 − p.
1
h) Distribución uniforme: f (x) = b−a para x ∈ [a, b] y cero en otro caso. Es b > a.
(x−µ)2
i ) Distribución normal: f (x) = √1 e− 2σ 2 para x ∈ R. Es µ ∈ R, σ > 0.
σ 2π
p −ax p−1
a e x
j ) Distribución gamma: f (x) = Γ(p) para x > 0 y cero en otro caso. Es p > 0, a > 0.
−λx
k ) Distribución exponencial: f (x) = λe para x ≥ 0 y cero en otro caso. Es λ > 0.
l ) Distribución de Pareto: f (x) = αxα
0 /x
α+1
para x ≥ x0 . Es α > 0, x0 > 0.
a 1
m) Distribución de Cauchy: f (x) = π a2 +(x−µ)2 para x ∈ R. Es a > 0, µ ∈ R.
n) Distribución de Laplace: f (x) = λ2 e−λ|x−µ| para x ∈ R. Es µ ∈ R, λ > 0.
e−λ λx
8. Sea X una variable aleatoria con distribución de Poisson pX (x) = x! con λ > 0 y para x ∈ N. Estudiar
la distribución la variable aleatoria Y dada por

1, X par
Y =
0, X impar

9. Dadas n funciones de densidad fi , i = 1, . . . , n, y n números no negativos λi , i = 1, . . . , n, cumpliendo


Pn n
P
λi = 1, probar que λi fi es también una función de densidad. ¿Es el producto de las funciones de
i=1 i=1
densidad una función de densidad?

10. Sea X una variable aleatoria con función de densidad f (x) = c(x − x2 ) para x ∈ (a, b) y cero en otro sitio,
con c > 0.

a) ¿Qué valores pueden tomar a y b?


b) Calcular c en función de a y b.

11. La variable aleatoria X tiene función de densidad fX (x) = 21 e−|x| , ∀x ∈ R. Calcular la función de distri-
bución FX y la probabilidad de los siguientes conjuntos:

a) {|X| ≤ 2}.
b) {|X| ≤ 2} ∪ {X ≥ 0}.
c) {|X| ≤ 2} ∩ {X ≤ −1}.
d ) {|X| + |X − 3| ≤ 3}.
e) {X 3 − X 2 − X − 2 ≤ 0}.
f ) {exp(sen(πX)) ≥ 1}.
g) {X ∈ I}.

12. Dada la variable aleatoria X con distribución fX (x) = e−x para x > 0 y cero en otro caso, calcular la
distribución de las siguientes variables aleatorias:

a) Y1 = X 3 .
b) Y2 = eX .

6
c) Y3 = ln |X|.

13. Dada la variable aleatoria X con función de distribución FX (x) = 1 − e−x para x > 0 y 0 para x ≤ 0,
probar que Y = cos(X) para Y ∈ [−1, 1] es una variable aleatoria y calcular su función de distribución.

14. Dada una variable aleatoria X absolutamente continua con densidad f , calcular la distribución de las
siguientes variables:

a) X n para n ∈ N.
b) X/(1 + X).
c) 1/(1 − X 2 ).
d ) e−|X| .

Considerar el caso particular en el que f = −k ln |x| para x ∈ (−1/2, 1).

15. Sea X una variable aleatoria con una función de distribución F continua. Probar que:

a) Y1 = F (X) tiene distribución uniforme en [0, 1].


b) Y2 = − ln(F (X)) tiene distribución exponencial.

16. Distribución Log-Normal. Sea X una variable aleatoria con distribución normal de media cero y varianza
uno N (0, 1). Calcula la función de densidad de la variable Y = eX .

17. Se consideran dos variables aleatorias, R y L. La primera está uniformemente distribuida en el intervalo
[0, ρ], con ρ > 0. La segunda se toma una función de la primera L = g(R), de la siguiente manera: si R
representa la distancia al centro de una circunferencia de radio ρ, L es la longitud de un segmento que
dista R del origen y tiene extremos contenidos en la anterior circunferencia. Estudiar la variable Y : ver si
es aleatoria y de qué tipo, calcular en caso afirmativo su función de distribución y su distribución.

18. Paradoja de Bernard. Dado una circunferencia de radio unidad, se dibuja una segmento recto con extremos
en ella. Calcular la probabilidad de que la longitud del segmento sea inferior al lado de un triángulo
equilátero inscrito en la circunferencia si los siguientes elementos del segmentos son elegidos al azar:

a) Los dos extremos.


b) La dirección y la distancia al centro.
c) Un punto en la circunferencia y otro en el interior.
d ) El punto medio del segmento.

19. Determinar la distribución de la longitud del segmento del ejercicio 18 para los casos a) y b).

20. Admitiendo que el ángulo que forma un cañón con la horizontal está uniformemente distribuido en (0, π/2),
calcular la distribución del alcance del proyectil si éste es lanzado con una velocidad v y la aceleración de
la gravedad es g.

21. Dada una variable aleatoria X, probar que:

a) E[X 2 ] ≥ (E[X])2 .
b) E[X 2 ] = (E[X])2 entonces existe x0 ∈ R tal que P {X = x0 } = 1.

22. Par una una variable aleatoria X, supongamos que 1/X está bien definida. ¿Es cierto que E[1/X] es igual
a 1/E[X]? ¿Existe algún caso en el que sı́?

23. Calcular, cuando sea posible, la esperanza matemática asociada a cada distribución del ejercicio 7.

7
24. La variable aleatoria discreta X tiene función de masa pX (x) = c(1 − θ)x para x ∈ N, donde c es una
constante de normalización y θ ∈ (0, 1) un parámetro. Determinar c y hallar la media y varianza de X.

25. Calcular la media y varianza de la variable aleatoria X con función de densidad



x/2,

 x ∈ [0, 1)
fX (x) = 1/2, x ∈ [1, 2]


(3 − x)/2, x ∈ (2, 3]

y cero en otro caso.


λ −λ|x|
26. Sea X una variable aleatoria con densidad de Laplace fX (x) = 2e para λ > 0 y x ∈ R. Calcular el
esperanza de Y = X 2 y Z = cos(X).

27. Sea la variable aleatoria V que representa el módulo de la velocidad de una partı́cula de masa m que
forma parte de un gas en equilibrio a la temperatura T . Su densidad de probabilidad viene dada por la
mv 2
distribución de Maxwell-Boltzmann fV (v) = cv 2 e− 2kT donde c es una constante de normalización y k una
constante universal (constante de Boltzmann). Calcular:

a) la constante de normalización c.
b) el valor medio de V : E[V ].
c) la energı́a cinética media de una molécula: E[ 21 mV 2 ].

28. Calcular la esperanza matemática de la variable aleatoria cuya función de distribución viene dada por
1 1
F (x) = 1 − 2x+1 − 2[x]+1 para x ≥ 0.

29. Calcular los momentos respecto al origen y los momentos centrales de la distribución uniforme en (a, b),
a < b.

30. Supongamos que dos equipos juegan uno contra el otro una serie de partidos. El equipo A gana un partido
con una probabilidad p mientras que el B lo hace con 1 − p. El ganador de la serie es el primer equipo que
gana cuatro partidos. Hallar el número esperado de partidos que se juegan.

8
Ejercicios del tema 3.
Vectores aleatorios
1. Estudiar bajo qué condiciones la función F (x, y) = a(x)b(y) + c(x) + d(y) es una función de distribución.

2. Sea el experimento aleatorio consistente en lanzar un dado de seis caras equilibrado. Se define el vector
aleatorio X = (X1 , X2 ) por

−2, sale 1, 2 ó 3
 
−1, sale impar 
X1 = , X2 = 0, sale 4 .
1, sale par 

3, sale 5 ó 6

Determinar la distribución y función de distribución de X.

3. Se considera el vector aleatorio Z = (X, Y ) con densidad



1, 0 ≤ x ≤ 1, 0 ≤ y ≤ 1
f (x, y) =
0, otro caso

Calcular:

a) P {X + Y ≤ 1}.
b) P {1/3 ≤ X + Y ≤ 3/2}.
c) P {X ≤ 2Y }.

4. Se elige un punto al azar del cuadrado [0, 1]2 y se definen dos variables aleatorias: D es la distancia del
punto elegido al perı́metro del cuadrado Θ es el ángulo que forma la recta, que une el origen con el punto,
con el eje horizontal. Calcular la función distribución del vector aleatorio (D, Θ).

5. Un vector aleatorio X tiene función de distribución


1
F (x1 , x2 ) =
1 + e−µ1 x1 −µ2 x2

para x1 , x2 < 0, con µ1 , µ2 > 0. Teniendo en cuenta que P {X ∈ B} = P {X ∈ −B} para todo B ∈ B2 ,
siendo −B = {(−x1 , −x2 ) : (x1 , x2 ) ∈ B}, calcular:

a) La expresión completa de su función de distribución.


b) La función de densidad de X.
c) La probabilidad de los conjuntos {(x1 , x2 ) : x1 ≤ a} y {(x1 , x2 ) : x2 ≤ b} para a, b ∈ R.

6. Se considera la siguiente distribución de una variable aleatoria bidimensional f (x, y) = c(x + y)−α para
x, y > 0 con x + y > a y cero en otro caso. Se pide:

a) Determinar los posibles valores de c, α y a para que, efectivamente, f sea una función de densidad.
b) Calcular la probabilidad del conjunto {(x, y) : y < rx} para r > 0.

7. Estudia las siguientes distribuciones pluridimensionales:

a) Distribución multinomial:
n!
p(x1 , . . . , xk−1 ) = px1 . . . pxkk
x1 ! . . . xk ! 1
con xi ∈ N, x1 + · · · + xk = n ∈ N, pi ∈ [0, 1], p1 + · · · + pk = 1.

9
b) Distribución normal multivariante:
p  
|R| 1 T
f (x) = n exp − (x − µ) R(x − µ)
(2π) 2 2

con x, µ ∈ Rn , n ≥ 1, y R una matriz real n × n definida positiva.

8. La variable X = (X1 , X2 ) tiene función de densidad f (x1 , x2 ) = 10x21 x2 para 0 ≤ x2 ≤ x1 ≤ 1 y cero en


otro caso.

a) Calcular las funciones de densidad marginales de X1 y X2 .


b) Calcular P {X2 ≤ 1/2}.

9. Se considera el vector aleatorio X = (X1 , X2 ) con densidad de probabilidad f (x1 , x2 ) = cxy para 0 < y <
x < 1 y cero en otro caso.

a) Calcular la constante c.
b) Obtener las distribuciones marginales y condicionadas.

10. Se consideran n variables aleatorias independientes X1 , . . . , Xn con distribuciones respectivas F1 , . . . , Fn .


Calcular las funciones de distribución conjunta y marginales de X(1) = mı́n(X1 , . . . , Xn ) y X(n) = máx(X1 , . . . , Xn ).
¿Son X(1) y X(n) independientes?

11. Sean n variables aleatorias X1 , . . . , Xn independientes, cada una con distribución uniforme en (0, 1). Se
define Y = máx{X1 , . . . , Xn }.

a) Determinar la función de distribución conjunta de X1 e Y . Calcular P {Y = X1 } y P (X1 + Y ≤ 1).


b) Calcular la función de distribución condicionada de Y por X1 = x1 y la de X1 por Y = y.

12. Sean X e Y dos variables aleatorias definidas en el mismo espacio de probabilidad, teniendo X la distribu-
ción degenerada en x0 . Probar que:

a) X e Y son independientes.
b) si Y es independiente de sı́ misma, entonces tiene distribución degenerada.

13. Se considera el experimento aleatorio de elegir un número ω al azar (distribución uniforme) en el intervalo

xn 10−n definimos para cada n ∈ N la variable aleatoria
P
[0, 1]. Escribiendo ω en base decimal, ω =
n=1
Xn (ω) = xn . Ası́ queda determinada una sucesión de variables aleatorias (Xn )n∈N . Comprobar que esta
sucesión es independiente.

14. Se considera un vector X = (X1 , X2 , X3 ) formado por tres variables estadı́sticamente independientes de
distribuciones exponenciales de parámetros λ1 , λ2 y λ3 , respectivamente. Calcular la probabilidad de los
siguientes sucesos:

a) {X1 < X2 }.
b) {X1 < X2 < X3 }.
c) {X3 = máx(X1 , X2 , X3 )}.

15. Se considera el vector aleatorio X = (X1 , X2 ) con densidad f (x1 , x2 ) = 2/9 para 0 ≤ x1 ≤ 3 y 0 ≤ x2 ≤ x1
y cero en otro caso. A partir de X se define un nuevo vector aleatorio Y = (Y1 , Y2 ) con Y1 = X1 + X2 e
Y2 = X1 − X2 . Obtener la distribución de Y .

10
16. Sea Z = (X, Y ) una variable aleatorio bidimensional uniformemente distribuida en el cı́rculo de centro el
√ Y
origen y radio 1. Sean las nuevas variables R = X 2 + Y 2 y Θ = arctan X . Demostrar que R y Θ son dos
variables aleatorias independientes.

17. El problema de la aguja de Buffon. En un plano hay trazadas rectas paralelas equidistanciadas una longitud
d > 0. Se deja caer una aguja de longitud 2l ≤ d. Calcular la probabilidad de que la aguja corte a alguna
de las rectas.

18. Un experimento aleatorio consiste en elegir dos puntos, A y B, al azar de un cı́rculo de radio r > 0: A en
el interior y B sobre la circunferencia. Determinar la distribución conjunta de la distancia ente A y B y el
ángulo que forman el segmento AB con el diámetro que pasa por B.

19. Se consideran dos variables aleatorias independientes X1 y X2 , definidas en un mismo espacio de probabi-
lidad. Calcular la distribución de X = X1 + X2 en los siguientes casos:

a) X1 y X2 tienen distribución uniforme en [0, 1].


b) X1 y X2 tienen distribución exponencial de parámetro λ.
c) X1 tiene distribución geométrica con parámetro 1−p y X2 tiene distribución exponencial de parámetro
λ.

20. Sean dos variables aleatorias independientes, X1 y X2 , definidas en un mismo espacio de probabilidad,
ambas con distribución normal de media nula y varianza uno. Calcular la distribución de :

a) X12 .
b) X12 + X22 .
p
c) X12 + X22 .

21. Se consideran dos vectores aleatorios independientes, X 1 y X 2 , ambos con módulo unidad y con dirección
uniforme en el intervalo (0, π/2). Para el vector aleatorio Y = X 1 + X 2 :

a) Calcular la distribución conjunta de su módulo y dirección (argumento).


b) Obtener la distribución conjunta de sus coordenadas cartesianas.

22. Se consideran tres variables aleatorias independientes uniformemente distribuidas en (0, 1). Obtener la
distribución conjunta del máximo y media de las tres variables. ¿Son estas últimas variables independientes?

23. Se considera una variable aleatoria N con media finita y función de masa p(n) para n ∈ N y cero en otro
N
Xi teniendo en cuenta que (Xi )∞
P
caso. Calcular la esperanza de la variable Z = i=1 es una sucesión de
i=1
variables aleatorias estadı́sticamente independiente e independientes de N .

24. Sea X una variable aleatoria con p0 = P {X = 0} ∈ (0, 1), media µ y varianza σ 2 . Calcular:

a) La media condicionada a X ̸= 0.
b) La varianza condicionada a X ̸= 0.

25. Para una variable aleatoria X con densidad f , probar que su función caracterı́stica cumple lı́m |ψ(t)| = 0.
t→±∞

26. Calcular las funciones caracterı́sticas de las distribuciones binomial y exponencial.

27. Se considera una sucesión (Xn )n∈N de variable aleatorias independientes uniformemente distribuidas en el
s −1
NP Ns
P
intervalo (0, 1). Sea Ns la variable aleatoria tal que Xi ≤ s ≤ Xi para un s dado, s < 1. Determinar
i=1 i=1
la distribución de Ns y su valor medio.

11
28. Se considera una variable aleatoria N con distribución de probabilidad

1
p(n) =
ζ(s)ns

para n ∈ N, n ≥ 1, y cero en otro caso. Además, s > 1 y ζ es la función zeta de Riemann, definida por

X 1
ζ(s) = s
.
n=1
n

a) Calcular la probabilidad de que N sea múltiplo de un número natural mayor que cero.
b) Para (pn )∞
n=1 la sucesión de números primos, se escribe


Y
N= pX
n .
n

n=1

Calcula la distribución de Xn para n ∈ N.


c) Probar que (Xn )n∈N es una sucesión de variables aleatorias independiente.
d ) Deducir la fórmula de Euler:

Y 1
ζ(s) = .
n=1
1 − p−s
n

29. Calcular la distribución de la variable aleatoria X sabiendo que:

(i) para λ > 0 fijo, la distribución de X es de Poisson de parámetro λ.


(ii) la distribución de λ es exponencial de media 1.

30. El problema de los puntos. Dos jugadores A y B juegan a lanzar una moneda para la que la probabilidad
de obtener cara es p. Si salen m caras antes de que salgan n cruces, gana el jugador A. En caso contrario,
gana B. Calcular la probabilidad de que gane A.

12
Ejercicios del tema 4.
Procesos aleatorios
p p
1. Demostrar que si Xn −→ X y Xn −→ X entonces P {X = Y } = 1.
p
2. Dada una sucesión (Xn )n∈N de variables aleatorias positivas estrictamente decreciente, entonces si Xn −→ 0
c.s.
es Xn −→ 0.

3. Sea (Xn )n∈N una sucesión de variables aleatorias independientes e idénticamente distribuidas en (0, θ), con
p
θ > 0. Demostrar que cumple Zn −→ θ para Zn = máx{X1 , . . . , Xn }.

4. Probar que la sucesión (Xn )n∈N con funciones de masa pXn (1/n) = pXn (−1/n) = 1/2 y cero en otro caso
convergen casi seguro a 0.

5. Demostrar que la sucesión de funciones caracterı́sticas de las variables Xn , n ∈ N+ , con distribución


binomial de parámetros n y pn = λ/n tiende a la función caracterı́stica de la distribución de Poisson de
d
parámetro λ. Deducir del resultado que Xn −→ X.

6. Demostrar la condición de Markov para que una sucesión de variables aleatorias (Xn ) cumpla la ley débil
de los grandes números.

7. Probar que las siguientes sucesiones de variables aleatorias independientes obedecen la ley débil y la ley
fuerte de los grandes números:

(a) (Xn )n∈N con P {Xn = ±2n } = 2−n−1 , P {Xn = 0} = 1 − 2−n−1 .


p
(b) (Xn )n∈N con P {Xn = ± ln(a + n)} = 1/2 con a ∈ N+ .

8. Demostrar que una sucesión (Xn )n∈N de variable aleatorias independientes e idénticamente distribuidas
con la distribución de Cauchy no obedece la ley de los grande números.

9. Demostrar el teorema de Levy-Lindeberg.

10. Dadas siguientes sucesiones (Xn )n∈N+ de variables aleatorias independientes, calcular la distribución de la
Pn
suma parcial Sn = i=1 :

a) Xi tiene distribución de Poisson de parámetro λi .


b) Xi tiene distribución normal de media µi y varianza σi2 .
c) Xi tiene distribución gamma de parámetros pi y a.
d ) Xi tiene distribución de Cauchy de parámetros ai y µi .

11. Calcular la media y autocovarianza en instantes genéricos de un proceso IID.

12. Calcular los primeros momentos del proceso binomial y del paseo aleatorio.

13. Probar que todo proceso de suma tiene incrementos independientes y estacionarios.

14. Dado un proceso IID (Xn )n∈N+ de variables con distribución exponencial de parámetro λ, se considera el
n
P
proceso suma correspondiente (Sn )n∈N : S0 = 0, Sn = Xi para n ≥ 1. Se pide:
i=1

a) Obtener la densidad de probabilidad de la suma de n variables aleatorias independientes con distri-


bución exponencial de parámetro λ.
b) Calcular la densidad de probabilidad del vector aleatorio (S1 , S3 , S4 ).

15. Dado un proceso (Xt )t∈T con incrementos independientes, probar que

13
2
a) cX (t1 , t2 ) ≡ E[(Xt1 − E[Xt1 ])(Xt2 − E[Xt2 ])] = σX t1
para t1 < t2 .
q
2 σ2
b) ρX (t1 , t2 ) ≡ (cX (t1 , t2 ))/ σX
1 t Xt = σXt1 /σXt2 para t1 < t2 .
2

16. Dado un proceso de Poisson de parámetro λ, (Xt )t∈T , probar que Xt tiene distribución de Poisson de
parámetro λt, para t > 0.

17. Dado un proceso de Poisson (Nn )t∈[0,+∞) y dos instantes 0 < s < t < +∞, calcular:
2
a) µN (t) ≡ E[Nt ], σN (t) ≡ E[(Nt − E[Nt ])2 ], CN (s, t) = E[(Ns − E[Ns ])(Nt − E[Nt ])] y ρN (s, t) =
p
CN (s, t)/ CN (s, s)CN (t, t).
b) P {N2 = 1, N4 = 1, N8 = 3, N9 = 3}.

18. El número de llamadas que se reciben en un contestador automático cada minuto sigue una distribución
de Poisson de parámetro λ. Calcular:

a) La probabilidad de que en m1 + m2 minutos se registren k1 llamadas en los primeros m1 minutos y


k2 en los últimos m2 .
b) La función de distribución de T1 (instante en que se recibe la primera llamada) sabiendo que en los
primeros k minutos se ha recibido sólo una llamada.
c) La esperanza y varianza de la variable Tn (instante en que se recibe la llamada n-ésima).

19. Se considera el proceso suma (Sn )n∈N : S0 = 0, Sn = Sn−1 + Xn para n ≥ 1, donde (Xn )n∈N+ es un proceso
IID con PXn (1) = 1/2, PXn (2) = 1/3, PXn (3) = 1/6 y cero en otro caso. Calcular:
2
a) µXn ≡ E[Xn ] y σX n
.
b) Los “momentos” de (Sn )n∈N : µSn (t), σS2 n (t), CS (s, t), ρS (s, t), para s < t.
c) P {S3 = 4, S4 = 5, S6 = 7}.

20. Sea (Nt )t∈[0,+∞) un proceso de Poisson de parámetro λ. A partir de él, definimos el proceso telégrafo
aleatorio (Xt )t∈[0,+∞) que toma valores en {−1, 1} de tal manera que Ns es el número de cambios de
estado del proceso (Xt )t∈[0,+∞) en el intervalo [0, s). Teniendo en cuenta que P {X0 = 1} = p ∈ [0, 1],
calcular la distribución de Xt como función de λ y p.

14
Ejercicios del tema 5.
Cadenas de Markov
1. Se considera una cadena de Markov en tiempo discreto (Xn )n∈N homogénea. Se define el tiempo de
permanencia de la cadena en el estado s, Ts , como la variable aleatorias que contabiliza el número de
pasos de tiempo que deben transcurrir antes de que la cadena cambie de estado. Se pide:

a) Probar que P {Ts > k} = P {Xn+1 = s, . . . , Xn+k = s|Xn = s} independientemente de n.


b) Demostrar que Tsi tiene distribución geométrica de parámetro 1 − pii , con pii el elemento correspon-
diente de la matriz de probabilidades de transición.

2. Sea X una variable aleatoria con distribución exponencial. Probar que:

a) X no tiene memoria, es decir, para todo x, y > 0 es P {X > x + y|X > x} = P {X > y}.
b) si Y es absolutamente continua con soporte (0, +∞) y no tiene memoria, entonces Y tiene distribución
exponencial.

3. Demostrar que los tiempos de permanencia de una cadena de Markov en tiempo continuo homogénea tienen
distribución exponencial.

4. El estado de un electroimán como función del tiempo puede caracterizarse por un proceso de Markov en
tiempo discreto (Xn )n∈N con espacio de estados E = {−1, 1}, siendo las probabilidades de cambio de estado
por unidad de tiempo, 1 → −1 y −1 → 1, 0,2 y 0,7, respectivamente.

a) Calcular la matriz de probabilidades de transición y dibujar el diagrama correspondiente.


b) Calcular la probabilidad de que el estado dentro de 4 unidades de tiempo sea 1 si actualmente es 1.
c) Calcular la distribución estacionaria de la cadena.

5. Un canal de comunicación utiliza tres repetidores de señal para la transmisión de la información. Se supone
que el número de canales operativos en el dı́a n es la variable aleatoria Xn de modo que el proceso estocástico
(Xn )n∈N es de Markov con matriz de probabilidades de transición
 
1/5 4/5 0 0
 0 1/5 4/5 0 
.
 

2/5 0 1/5 2/5
0 0 1 0

a) Sabiendo que ayer funcionaba un repetidor, calcular la probabilidad de que hoy funcionen dos y pasado
mañana ninguno.
b) Calcular la distribución de X2 teniendo en cuenta que para n = 0 todos los estados son equiprobables.
c) Calcular la distribución estacionaria de la cadena.
d ) Suponiendo que la potencia de la señal recibida desde el canal el dı́a n tiene distribución normal de
media 2Xn y varianza σ 2 , calcular la potencia media recibida el dı́a n suponiendo que el canal está
en equilibrio.

6. Se modela la demanda de un producto por una cadena de Markov en tiempo discreto (Dn )n∈N , con el
tiempo n medido en años y el espacio de estados E = {1, 2, 3}, siendo i ∈ E una medida del grado de
demanda. Teniendo en cuenta que la matriz de probabilidades de transición es
 
0 1/5 4/5
P = 1/2 1/2 0 
 

3/5 2/5 0

15
calcular:

a) La probabilidad de que la demanda dentro de tres años sea 3 si este año ha sido 1.
b) La distribución estacionaria de (Dn )n∈N .
c) El beneficio medio de una empresa. Suponer que (Dn )n∈N tiene su distribución estacionaria y que el
beneficio anual de la empresa tiene distribución normal de media 3Dn y varianza 1.

7. Una antena de comunicación ofrece servicio a tres usuarios cambiando de uno a otro cada minuto según el
siguiente diagrama de transiciones:

p12 1/2
9/10 1 2 3 3/5
1/2 2/5

a) Obtener p12 para que el diagrama de transición represente una cadena de Markov en tiempo discreto.
Escribir la matriz de probabilidades de transición en un paso correspondiente.
b) Sabiendo que el usuario 1 está actualmente conectado, calcular la probabilidad de que el usuario 3
esté conectado dentro de dos minutos.
c) Calcular la probabilidad de que cada usuario esté conectado asumiendo que la distribución de la
cadena es la estacionaria.

8. Se considera una cadena de Markov en tiempo continuo con el siguiente diagrama de transición

λ (1 − p)λ0
2 0 1
pλ0 λ

a) Sea N el número de veces que la cadena, partiendo del estado 0, pasa por el estado 1 antes de llegar
al 2. Calcular la distribución de N .
b) Calcular el tiempo medio que tarda el sistema en llegar al estado 2 partiendo de 0.
c) Obtener la distribución estacionaria de la cadena.

9. Se considera una cadena de Markov en tiempo continuo con espacio de estados {0, 1, 2, 3} y velocidades
de transición (elementos de la matriz de tasas de transición) γi,i+1 = λ y γi+1,i = µ, con λ, µ > 0, y cero
para el resto de elementos no diagonales.

a) Obtener la matriz de tasas de transición y dibujar el diagrama de transición.


b) Calcular la distribución de equilibrio.

10. Una cadena de Markov en tiempo continuo con espacio de estados finito E = {ei }N i=1 y tasas de salida
respectivas {λi }Ni=1 tiene la matriz de probabilidades de transición Q. Calcular la matriz de tasas de
transición y la distribución estacionaria de la cadena.

a) E = {1, 2, 3}, {λi }3i=1 = {λ, 1, 1/λ},


 
0 1 0
Q = p 0 1 − p
 

0 1 0

con λ > 0 y p ∈ (0, 1).

16
b) E = {1, 2, 3, 4}, {λi }4i=1 = {1, 2, 3, 4},
 
0 α 1−α 0
0 0 1 0 
Q=
 

0 0 0 1 
β 1−β 0 0

con α, β ∈ (0, 1).

17
Ejercicios del tema 6.
Teorı́a de colas
1. Un servicio de atención telefónico cuenta con dos operadores para atender las llamadas. Además, el sistema
permite atender a dos clientes en espera si ambos operadores están ocupados. En media, se reciben 5
llamadas por minuto y el tiempo dedicado por los operadores a cada cliente es de 8 minutos.

a) Identificar la cola que mejor se ajusta al problema. Dibujar el diagrama de transición correspondiente.
b) Calcular la distribución estacionaria.
c) En el estacionario, calcular el porcentaje de usuarios bloqueados (no aceptados en el sistema), la tasa
de bloqueo y el porcentaje de uso del servicio.

2. Una aplicación utiliza una red de cuatro ordenadores. El tiempo de fallo de cualquiera de ellos tiene
distribución exp(µ) mientras que el tiempo en ser reparado, por una única persona, tiene distribución
exp(λ), siendo λ, µ > 0. Teniendo en cuenta que ambos tiempos son independientes y que para que el
sistema funcione se requieren al menos dos ordenadores, se pide:

a) Elegir un modelo de cola para describir el proceso estocástico (Nt )t∈[0,+∞) para el número de orde-
nadores funcionando en el instante t.
b) Calcular la distribución estacionaria.
c) En el estado estacionario, determinar el número medio de ordenadores operativos y el porcentaje de
tiempo que la aplicación está en funcionamiento.

3. Para la cola M/M/2 con tasa de llegadas λ y tasa de servicio µ, se pide:

a) Dibujar el diagrama de transición.


b) Calcular la distribución estacionaria.
c) Determinar el tiempo medio que pasan los clientes en el sistema en el estado estacionario.

4. Se considera la cola M/M/c con tasa de llegadas λ y tasa de servicio µ.

a) Probar que los usuarios salen del sistema con una tasa kµ siendo k el número de servidores ocupados.
b) Dibujar el diagrama de transiciones de la cola.
c) Obtener la distribución estacionaria cuando λ/µ < c.
d ) Calcular la probabilidad de que, estando el sistema en equilibrio, un usuario recién llegado tenga que
esperar.

18

También podría gustarte