0% ont trouvé ce document utile (0 vote)
185 vues7 pages

Corrigé Devoir 17: Matrices et Probabilités

Ce document contient trois exercices sur les matrices. L'exercice 1 concerne la diagonalisation de matrices symétriques réelles et leurs valeurs propres. L'exercice 2 porte sur la décomposition polaire de matrices inversibles. L'exercice 3 traite de la trace de matrices.

Transféré par

abidine vall
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
185 vues7 pages

Corrigé Devoir 17: Matrices et Probabilités

Ce document contient trois exercices sur les matrices. L'exercice 1 concerne la diagonalisation de matrices symétriques réelles et leurs valeurs propres. L'exercice 2 porte sur la décomposition polaire de matrices inversibles. L'exercice 3 traite de la trace de matrices.

Transféré par

abidine vall
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

1

Corrigé du devoir 17

Exercice 1

1. La matrice S est symétrique réelle, donc diagonalisable dans Mn (R).


Soient λ1 , . . . , λn ses valeurs propres (non nécessairement distinctes). Comme S est symétrique réelle, on peut écrire
D = tP S P avec P ∈ On (R) et D = diag (λ1 , . . . , λn ). On a donc S = P D tP .
Xn
On a ainsi, pour tout X ∈ Mn,1 (R), tXSX = t (P X)D (P X) = λi yi2 , où Y = P X.
i=1
Comme P est inversible, l’application X 7→ P X est un automorphisme de Mn,1 (R), et par conséquent X ∈ Mn,1 (R)\
{0} ⇐⇒ Y ∈ Mn,1 (R)\{0}.
Si toutes les valeurs propres de S sont strictement positives, si X ∈ Mn,1 (R)\{0}, on a au moins un des yi non nuls et
donc tXSX > 0.
Si, pour tout X ∈ Mn,1 (R)\{0}, on a tXSX > 0.
Soit λ une valeur propre et X un vecteur propre associé. Comme SX = λ X, on en déduit que λ tXX > 0. Comme
t
XX = kXk2 > 0, car X 6= 0, on a λ > 0.

S ∈ Sn++ (R) si et seulement si toutes ses valeurs propres sont strictement positives.

2. a. La matrice tM M est une matrice symétrique réelle.


De plus, pour X ∈ Mn,1 (R)\{0},

t
X tM M X = t (M X) M X = kM Xk2

Comme M est inversible et que X est non nul, on a M X non nul. Donc kM Xk2 > 0.

Ainsi
t
X tM M X > 0

Donc
t
M M est symétrique définie positive.

b. La matrice tM M est donc diagonalisable dans Mn (R) et toutes ses valeurs propres sont strictement positives. Notons
ses valeurs propres λ1 , . . . , λn .
Il existe donc P ∈ On (R) telle que

t
P (tM M )P = D, soit tM M = P D tP, avec D = diag (λ1 , . . . , λn )

Posons alors
p p
∆ = diag ( λ1 , . . . , λn ) et S = P ∆ tP

On a
S 2 = P ∆ tP P ∆ tP = P ∆2 tP = P D tP = tM M

De plus S est symétrique réelle, semblable à ∆, donc ses valeurs propres sont stictement positives. Donc S ∈
Sn++ (R).

Il existe S ∈ Sn++ (R) telle que tM M = S 2


2

n p
Y
c. On a det S = det ∆ = λi > 0. Donc
i=1

S est inversible.

Posons R = M S −1 . Il vient

t
RR = t(S −1 ) tM M S −1 = S −1 S 2 S −1 = In

Donc

R est orthogonale.

d. On a finalement obtenu M = RS, avec R ∈ On (R) et S ∈ Sn++ (R).

Si M ∈ GLn (R), il existe R ∈ On (R) et S ∈ Sn++ (R) telle que M = RS.

3. a. La matrice Σ est symétrique réelle, donc diagonalisable dans Mn (R).

Sa trace est la somme de ses valeurs propres.

n
X
Tr(Σ) = λi .
i=1

b. La matrice Σ est symétrique réelle, donc il existe donc P ∈ On (R) telle que tP Σ P = D, avec D matrice diagonale.
Il vient alors Q Σ = Q P D tP, puis, par propriété de la trace,

Tr (Q Σ) = Tr (Q P D tP ) = Tr (tP Q P D) = Tr(Q1 D)

où la matrice Q1 = tP Q P est orthogonale, car c’est le produit de trois matrices orthogonales.



En notant Q1 = qi,j 1≤i,j≤n , on obtient :
n
X n
X n
X

Tr (Q Σ) = Tr (Q1 D) = qi,i λi ≤ qi,i λi ≤ λi = Tr Σ,
i=1 i=1 i=1

car λi ≥ 0, et la matrice Q1 étant orthogonale, on a qi,i ≤ 1 pour tout i.

c. L’inégalité du (b) est valable pour toute Q ∈ On (R) , et on a une égalité lorsque Q = In .

On en déduit que
Tr Σ = max Tr (Q Σ) = sup Tr (Q Σ)
Q∈On (R) Q∈On (R)

h i
sup Tr (Q Σ) = Tr(Σ).
Q∈On (R)

Å ã
a b
4. a. La matrice A = appartient à H2 si, et seulement si, a, b, c et d sont dans {−1, 1} et ab + cd = 0. On
c d
obtient huit cas possibles :
Å ã Å ã Å ã Å ã Å ã Å ã Å ã Å ã
−1 1 1 −1 1 1 1 1 1 −1 −1 1 −1 −1 −1 −1
, , , , , ,
1 1 1 1 1 −1 −1 1 −1 −1 −1 −1 −1 1 1 −1
3

b. i. Soit A ∈ Hn .
A √
La matrice A0 = √ a ses vecteurs colonnes deux à deux orthogonaux comme A. De plus, en divisant par n,
n
les vecteurs colonnes de A0 deviennent de norme 1.
Donc A0 ∈ On (R), donc t (A0 ) A0 = In . On en déduit que
t
A A = n In .

ii. Non .

Par exemple, la matrice A = n In vérifie tAA = n In , mais elle n’appartient pas à Hn .
1
iii. Posons encore A0 = √ A. On a t (A0 ) A0 = In , donc A0 ∈ On (R), donc les vecteurs colonnes de A0 sont
n
deux à deux orthogonaux, et il en est de même de ceux de A. Ainsi
A ∈ Hn .

c. i. f (Hn ) est une partie non vide de R car Hn est non vide.
Si A ∈ Hn , on a ses coefficients ai,j dans {−1, 1}. Donc
n X
X n n X
X n
|f (A)| ≤ 1≤ 1 = n2
i=1 j=i i=1 j=1

f (Hn ) est une partie non vide et majorée de R, donc

f (Hn ) admet une borne supérieure.

ii. On a, en notant (A T )i,j le terme général de la matrice AT ,


n
X n
X n
X
(A T )i,j = ai,k tk,j = ai,k tk,j = ai,k
k=1 k=j k=j

Donc n n X
n
X X
Tr (A T ) = (AT )i,i = ai,k
i=1 i=1 k=i

On a bien
Tr (A T ) = f (A).
iii. On pose
1
A0 = √ A ∈ On (R)
n
On a
√ √
f (A) = Tr (A R S) = n Tr (A0 R S) ≤ n Tr S,

d’après 2.b), car A0 R ∈ On (R).


Cette inégalité est valable pour toute A ∈ Hn , donc, comme la borne supérieure est le plus petit des majorants,
on a

αn ≤ n Tr S.
2 X
X 2
iv. Pour n = 2, pour toute matrice A de H2 , on a f (A) ≤ 1 = 3. Donc α2 ≤ 3.
i=1 j=i
Å ã
1 1
De plus, pour A = , on a f (A) = 3. Donc
−1 1

α2 = 3
4

On détermine R orthogonale et S symétrique définie positive telles que T = R S.


√ √
3+ 5 3− 5
Å ã Å ã
1 0 t 2 1 t
Ici, T = d’où T T = . Les valeurs propres de T T sont et .
1 1 1 1 2 2
On a S 2 = t T T , et les valeurs propres de S 2 sont les carrés des valeurs propres de S.
Comme de plus S a ses valeurs propres strictement positives, les valeurs propres de S sont donc
  √ √   √ √
3+ 5 1+ 5 3− 5 −1 + 5
= et = .
2 2 2 2

Ainsi, Tr S = 5 et on a
√ √
2 Tr (S) = 10.

Exercice 2

1. Comme X et Y suivent la même loi géométrique G(p), on a, en notant q = 1 − p,

∀n ∈ N∗ , P (X = n) = P (Y = n) = q n−1 p

Soit (m, n) ∈ (N ∗ )2 . Il s’agit de déterminer P ((U = m) ∩ (V = n)).

• Supposons m < n.
Comme Max(X, Y ) > Min(X, Y ), on a P ((U = m) ∩ (V = n)) = 0.

• Supposons m = n.
Alors Max(X, Y ) = Min(X, Y ) implique que X = n et Y = n.
On a donc, puisque les variables X et Y sont indépendantes,

P ((U = n) ∩ (V = n)) = P ((X = n) ∩ (Y = n)) = P (X = n) × P (Y = n) = p2 q 2n−2

• Supposons m > n.
On a alors deux possibilités : (X = m et Y = n) ou (X = n et Y = m).
Comme les deux événements sont incompatibles, on a :

P ((U = m) ∩ (V = n)) = P ((X = m) ∩ (Y = n)) + P ((X = n) ∩ (Y = m))

= P (X = m) × P (Y = n) + P (X = n) × P (Y = m)
= 2 p2 q m+n−2

2. Comme les événements (V = n)n∈N∗ forment un système complet d’événements, on a


+∞
X
P (U = m) = P ((U = m) ∩ (V = n))
n=1
5

Soit, avec les résultats ci-dessus,


m
X
P (U = m) = P ((U = m) ∩ (V = n))
n=1
m−1
X
= P ((U = m) ∩ (V = m)) + P ((U = m) ∩ (V = n))
n=1
m−1
X
= p2 q 2m−2 + 2 p2 q m+n−2
n=1
m−1
X
2 2m−2 2 m−1
= p q + 2p q q n−1
n=1
m−2
X
= p2 q 2m−2 + 2 p2 q m−1 qn
n=0
1 − q m−1
= p2 q 2m−2 + 2 p2 q m−1
1−q
= p2 q 2m−2 + 2 p q m−1 (1 − q m−1 )

P (U = m) = p2 q 2m−2 + 2 p q m−1 (1 − q m−1 )

Comme les événements (U = m)m∈N∗ forment un système complet d’événements, on a


+∞
X
P (V = n) = P ((U = m) ∩ (V = n))
m=1

Soit, avec les résultats ci-dessus,


+∞
X
P (V = n) = P ((U = m) ∩ (V = n))
m=n
+∞
X
= P ((U = n) ∩ (V = n)) + P ((U = m) ∩ (V = n))
m=n+1
+∞
X
= p2 q 2n−2 + 2 p2 q m+n−2
m=n+1
+∞
X
= p2 q 2n−2 + 2 p2 q n−2 qm
m=n+1
+∞
X
= p2 q 2n−2 + 2 p2 q n−2 q n+1 qm
m=0

2 2n−2 2 n−2 n+1 1


= p q + 2p q q
1−q
= p2 q 2n−2 + 2 p q 2n−1

P (V = n) = p2 q 2n−2 + 2 p q 2n−1

3. On a P ((U = 1) ∩ (V = 2)) = 0, or P (U = 1) × P (V = 2) 6= 0, donc les variables ne sont pas indépendantes.

4. On a Z(Ω) = N \ {0, 1}.


On peut remarquer qu’on a toujours Max(X, Y ) + Min(X, Y ) = X + Y .
Soit n dans N \ {0, 1}. Pour i fixé, les événements ((X = k) ∩ (Y = n − k))16k6n sont incompatibles deux à deux, et
6

leur réunion est l’événement (X + Y = n). On a donc, compte-tenu que les variables X et Y sont indépendantes, :

P (Z = n) = P (U + V = n)

= P (X + Y = n)
n−1
X
= P ((X = k) ∩ (Y = n − k))
k=1
n−1
X
= P (X = k) × P (Y = n − k)
k=1
n−1
X
= p q k−1 p q n−k−1
k=1
= (n − 1) p2 q n−2

∀n ∈ N \ {0, 1}, P (U + V = n) = (n − 1) p2 q n−2

Exercice 3

1. On a

am −a
∀m ∈ N, P ((X = m)) = e , E(X) = a, V (X) = a
m!

2. Pour chaque client, le fait d’être volé ou pas correspond à une épreuve de Bernoulli de paramètre p.
De plus on considére que le fait pour deux clients d’être volés sont deux événements indépendants.
Donc, pour un jour donné, et si k 6 n, l’événement que k clients soient volés sachant qu’ils sont n dans le magasin suit
une loi binomiale de paramètre n et p. On a
  
 n
pk (1 − p)n−k si k 6 n
P ((Y = k)|(X = n)) = k
0 si k > n

3. On a Y (Ω) = N.
La suite d’événements (X = n)n∈N constitue un système complet d’événements, donc d’après la formule des probabilités
7

totales :
+∞
X
P (Y = k) = P ((Y = k)|(X = n)) P (X = n)
n=0
+∞
X
= 0+ P ((Y = k)|(X = n)) P (X = n)
n=k
+∞  
X n an −a
= pk q n−k × e
k n!
n=k
+∞
X n! an −a
= pk q n−k × e
k! (n − k)! n!
n=k
Å ãk +∞
p 1 X (a q)n
= e−a
q k! (n − k)!
n=k
Å ãk +∞
p 1 X (a q)n+k
= e−a
q k! n=0 n!
Å ãk +∞
p 1 X (a q)n
= e−a (a q)k
q k! n=0 n!
Å ãk
p 1
= e−a (a q)k ea q
q k!

Finalement
(a p)k −a p
P (Y = k) = e
k!
Donc la variable aléatoire Y suit une loi de Poisson : Y ,→ P(a p).

4. La variable aléatoire Z suit la même loi de probabilité que Y , en remplaçant p par q = 1 − p.

5. On a, pour tout (j, k) de N2 ,

(a p)j e−a p (a q)k e−a q aj+k pj q k −a


P (Y = j) × P (Z = k) = × = e
j! k! j! k!

Comme Y + Z = X, on a

P ((Y = j) ∩ (Z = k)) = P ((Y = j) ∩ (X − Y = k))


= P ((Y = j) ∩ (X = k + Y ))
= P ((Y = j) ∩ (X = k + j))

= P ((Y = j)|(X = k + j)) × P (X = k + j)


 
k+j ak+j
= pj (1 − p)k+j−j × e−a
j (k + j)!
(k + j)! j k ak+j
= p q × e−a
k! j! (k + j)!
aj+k pj q k −a
= e
j! k!

On a bien P ((Y = j) ∩ (Z = k)) = P (Y = j) × P (Z = k), et les deux variables Y et Z sont indépendantes.

Vous aimerez peut-être aussi