Sorbonne Université, Master 1 MU4MA015, Statistique, 2024-2025
Cours : A. Ben-Hamou TD : A. Godichon, A. Guyader et M. Sangnier
TD 9 : Théorie de la décision
Exercice 1 (Modèle Gamma-Poisson)
Soient p, λ > 0. On se place dans le cadre bayésien suivant
θ ∼ Π = Γ(p, λ) ,
X = (X1 , . . . , Xn ) θ ∼ P(θ)⊗n .
1. Quelle est la loi a posteriori de θ sachant X ?
2. Donner un estimateur de Bayes pour la perte quadratique. On le notera T ⋆ (X).
3. Montrer que pour tout θ > 0, on a
p 2
⋆ nθ + λ2 θ − λ
R(θ, T ) = ·
(n + λ)2
p
4. Montrer que le risque de Bayes pour Π vaut RB (Π) = λ(n+λ) .
nX n +p+3
5. Montrer qu’un estimateur de Bayes pour la perte ℓ(θ, T ) = θ3 e−2θ (θ − T )2 est Te(X) = λ+n+2 .
Exercice 2 (Estimateurs de Bayes)
Soit X une variable aléatoire de loi N (θ, 1) sachant θ, et soit Π = N (0, σ 2 ) la loi a priori sur θ, pour
σ 2 > 0 fixé.
1. Donner un estimateur de Bayes pour la perte quadratique. Que vaut le risque de Bayes ?
3θ 2
2. On suppose σ 2 < 2 et on considère la fonction de perte ℓ(θ, T ) = e 4 (θ − T )2 . Montrer qu’un
estimateur de Bayes associé est T ∗ (X) = σ−2X−1/2 , et que le risque de Bayes associé vaut l’infini si
σ 2 ≥ 2/3, tandis que si σ 2 < 2/3 il vaut
1 1
RB (Π, T ∗ ) = ·p .
σ −2 − 1/2 1 − 3σ 2 /2
Exercice 3 (De Bayes et de risque constant implique minimax)
On considère le modèle de Bernoulli P = {B(θ)⊗n , θ ∈]0, 1[} et l’on prend comme loi a priori sur Θ =]0, 1[
une loi Πa,b = Beta(a, b), avec a, b > 0.
1. Donner un estimateur de Bayes θba,b (X) pour la perte quadratique.
2. On suppose a = b. Calculer le risque ponctuel et en déduire un estimateur minimax pour la perte
quadratique.
3. L’estimateur T = X n est-il minimax ?
Exercice 4 (Contrôle continu 2020)
On se place dans le modèle gaussien avec a priori gaussien : θ ∼ Π = N (µ, σ 2 ) avec µ ∈ R et σ ∈ R∗+ , et
X = (X1 , . . . , Xn ) θ ∼ N (θ, 1)⊗n .
1. Question préliminaire : soit s > 0 et Y ∼ N (0, s2 ), calculer E[|Y |].
2. Quelle est la loi a posteriori Π[· X] ?
3. Donner un estimateur de Bayes pour la fonction de perte ℓ(θ, T ) = |θ − T |.
4. Calculer son risque de Bayes.
5. Montrer que l’estimateur X n est minimax pour la perte ℓ.
Exercice 5 (Contrôle continu 2020)
On considère le modèle bayésien suivant : θ ∼ Beta(a, b) avec a, b > 0 et X = (X1 , . . . , Xn ) avec X|θ ∼
Pθ⊗n , où, pour tout θ ∈ [0, 1], la densité pθ de Pθ par rapport à la mesure de comptage sur N est donnée
par : ∀k ∈ N, pθ (k) = (k + 1)(1 − θ)2 θk . On rappelle que la variance d’une loi Beta(a, b) est (a+b)2ab
(a+b+1)
.
1. Donner la loi a posteriori de θ sachant X. Donner la moyenne et la variance a posteriori.
2. En déduire un intervalle de crédibilité pour θ de niveau 1 − α.
3. Déterminer un estimateur de Bayes pour la perte quadratique.
1 2
4. On considère maintenant la fonction de perte ℓ(θ, T ) = (1−θ)2 (θ − T ) .
(a) Donner un estimateur de Bayes associé à la perte ℓ (noté T ∗ ).
(b) On sait simuler facilement une réalisation de Xi | θ (c’est une loi binomiale négative). Décrire
une méthode Monte-Carlo pour estimer le risque de Bayes de T ∗ .
Exercice 6 (Rattrapage 2020) Soit n ≥ 3. On considère le modèle bayésien suivant : θ ∼ Πa,b = Γ(a, b),
pour a, b > 0, et X = (X1 , . . . , Xn ) avec X|θ ∼ Pθ⊗n , où, pour tout θ > 0, Pθ = E(θ), loi exponentielle de
paramètre θ. On rappelle que si T ∼ Γ(n, 1) alors pour tout p < n, on a E[T −p ] = Γ(n − p)/Γ(n).
1. Déterminer la loi a posteriori Πa,b [· X], la moyenne a posteriori mX et la variance a posteriori vX .
On considère la fonction de perte ℓ donnée par :
(t − θ)2
∀θ, t > 0 , ℓ(θ, t) = ·
θ2
2. Déterminer un estimateur de Bayes pour Πa,b et la perte ℓ. On le notera Ta,b .
3. Déterminer le risque a posteriori de Ta,b et en déduire le risque de Bayes RB (Πa,b ).
4. Soit T ∗ (X) = Pn−2 . Calculer Rmax (T ∗ ). On pourra noter que, sous Pθ⊗n , on a θ ni=1 Xi ∼ Γ(n, 1).
P
n
Xi
i=1
5. Montrer que T ∗ est minimax.
Exercice 7 (Quantiles)
Soit X une variable aléatoire réelle de loi Pθ sachant θ, où θ est une variable aléatoire réelle et intégrable
de loi Π. On suppose que les lois Pθ , θ ∈ R, et Π sont à densité par rapport à la mesure de Lebesgue,
c’est-à-dire dPθ (x) = pθ (x) dx et dΠ(θ) = π(θ) dθ. Pour a > 0 et b > 0, soit la fonction de perte
ℓ(θ, T ) = b(θ − T )1θ>T + a(T − θ)1θ≤T . Soit F = Fθ|X la fonction de répartition de la loi a posteriori,
montrer que ∀t ∈ R, Z +∞ Z t
E ℓ(θ, t) X = b (1 − F (s)) ds + a F (s) ds.
t −∞
En déduire qu’un estimateur de Bayes pour la fonction de perte ℓ est le quantile d’ordre b/(a + b) de la
loi a posteriori. Que retrouve-t-on lorsque a = b ?