0% ont trouvé ce document utile (0 vote)
54 vues32 pages

Algebre Correction

Le document présente des solutions complètes d'exercices d'algèbre linéaire, incluant des vérifications de propriétés de lois d'opération, des définitions de familles de vecteurs, et des démonstrations de sous-espaces vectoriels. Il aborde des concepts tels que la commutativité, l'associativité, le rang, et la linéarité des vecteurs dans des espaces vectoriels. Enfin, il fournit des méthodes pour déterminer des bases et des dimensions de sous-espaces dans R3.

Transféré par

oswelllekane2
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
54 vues32 pages

Algebre Correction

Le document présente des solutions complètes d'exercices d'algèbre linéaire, incluant des vérifications de propriétés de lois d'opération, des définitions de familles de vecteurs, et des démonstrations de sous-espaces vectoriels. Il aborde des concepts tels que la commutativité, l'associativité, le rang, et la linéarité des vecteurs dans des espaces vectoriels. Enfin, il fournit des méthodes pour déterminer des bases et des dimensions de sous-espaces dans R3.

Transféré par

oswelllekane2
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Solutions Complètes des Exercices d'Algèbre Linéaire

Dr. Kikmo Wilba Christophe

Exercice 1

1. Loi ∗ dénie par x ∗ y = xy + (x2 − 1)(y2 − 1)


(a) Vérications
 Commutativité :
x ∗ y = xy + (x2 − 1)(y 2 − 1) = yx + (y 2 − 1)(x2 − 1) = y ∗ x
La loi est commutative car x ∗ y = y ∗ x pour tous x, y ∈ R.
 Non-associativité : La loi est dénie par :
x ∗ y = xy + (x2 − 1)(y 2 − 1).
Pour vérier l'associativité, on compare (x ∗ y) ∗ z et x ∗ (y ∗ z).
 Calcul de (x ∗ y) ∗ z :
(x ∗ y) ∗ z = xy + (x2 − 1)(y 2 − 1) ∗ z
 

= xy + (x2 − 1)(y 2 − 1) z + (xy + (x2 − 1)(y 2 − 1))2 − 1 (z 2 − 1).


 

Développement :
= xyz+(x2 −1)(y 2 −1)z+ x2 y 2 + 2xy(x2 − 1)(y 2 − 1) + (x2 − 1)2 (y 2 − 1)2 − 1 (z 2 −1).


 Calcul de x ∗ (y ∗ z) :
x ∗ (y ∗ z) = x ∗ yz + (y 2 − 1)(z 2 − 1)
 

= x yz + (y 2 − 1)(z 2 − 1) + (x2 − 1) (yz + (y 2 − 1)(z 2 − 1))2 − 1 .


 

Développement :
= xyz+x(y 2 −1)(z 2 −1)+(x2 −1) y 2 z 2 + 2yz(y 2 − 1)(z 2 − 1) + (y 2 − 1)2 (z 2 − 1)2 − 1 .


Les expressions développées de (x ∗ y) ∗ z et x ∗ (y ∗ z) ne sont pas identiques. Par exemple,


le terme (x − 1)(y − 1)z dans (x ∗ y) ∗ z n'a pas d'équivalent direct dans x ∗ (y ∗ z).
2 2

 Élément neutre : On cherche e ∈ R tel que x ∗ e = x pour tout x ∈ R. Soit :


xe + (x2 − 1)(e2 − 1) = x.
Réécriture :
xe − x + (x2 − 1)(e2 − 1) = 0.
Factorisation :
x(e − 1) + (x2 − 1)(e2 − 1) = 0.
Pour que cette équation soit valable pour tout x, les coecients des puissances de x
doivent être nuls :
1
1. Terme constant (en x ) : −(e − 1) = 0 =⇒ e = 1.
0 2 2

2. Terme linéaire (en x ) : e − 1 = 0 =⇒ e = 1.


1

3. Terme quadratique (en x ) : e − 1 = 0 (déjà satisfait par e


2 2 2
=1 ).
.
Vérication :
 Si e = 1 : x ∗ 1 = x · 1 + (x − 1)(1 − 1) = x.
2

 Si e = −1 : x ∗ (−1) = −x + (x − 1)(1 − 1) = −x ̸= x (sauf si x = 0).


2

L'unique élément neutre est e = 1.


(b) Résolution des équations
 Équation 2 ∗ y = 5 :
2 ∗ y = 2y + 3(y 2 − 1) = 3y 2 + 2y − 3 = 5

2 −2 ± 4 + 96 −2 ± 10
3y + 2y − 8 = 0 =⇒ y = =
6 6
Solutions : y = ou 4
y = −2.
 Équation x ∗ x = 1 :
3

x ∗ x = x4 − x2 + 1 = 1 =⇒ x4 − x2 = 0 =⇒ x2 (x2 − 1) = 0

Solutions : x = 0 ou x = ±1.
2. Vecteurs de R3
(a) Combinaisons linéaires
 3X 1 − 2X2 + X3 :
3(−1, 5, 2) − 2(2, −1, 2) + (1, 1, 3) = (−3 − 4 + 1, 15 + 2 + 1, 6 − 4 + 3) = (−6, 18, 5)

 3(X 1 − X3 ) + X2 :
3((−1 − 1, 5 − 1, 2 − 3)) + (2, −1, 2) = (−6, 12, −3) + (2, −1, 2) = (−4, 11, −1)

(b) Trouver α, β, γ non nuls


On résout le système : (
−α + 2β + γ = 0
5α − β + γ = 0
En soustrayant la première équation de la seconde :
6α − 3β = 0 =⇒ β = 2α

En substituant dans la première équation :


−α + 4α + γ = 0 =⇒ γ = −3α

Une solution non nulle est α = 1, β = 2, γ = −3. Le vecteur résultant est (0, 0, −3).
2
Exercice 2

1. Dénition d'une famille nie libre


Une famille nie de vecteurs (v , v , . . . , v ) dans un espace vectoriel E est dite libre (ou linéai-
rement indépendante) si la seule combinaison linéaire nulle de ces vecteurs est celle dont tous
1 2 p

les coecients sont nuls. Mathématiquement :


p
X
λi vi = 0 =⇒ λi = 0 ∀i ∈ {1, 2, . . . , p}.
i=1

Interprétation :
Aucun vecteur de la famille ne peut s'exprimer comme combinaison linéaire des autres.
2. Dénition du rang d'une famille nie
Le rang d'une famille nie de vecteurs (v , v , . . . , v ) est la dimension du sous-espace vectoriel
engendré par cette famille. Autrement dit :
1 2 p

rang(v , v , . . . , v ) = dim(vect(v , v , . . . , v )).


1 2 p 1 2 p

Propriété clé :
Le rang est égal au nombre maximal de vecteurs linéairement indépendants dans la famille.
3. Famille contenant le vecteur nul
Proposition :
Une famille de vecteurs contenant le vecteur nul est toujours liée (non libre).
Preuve :
Soit une famille (0, v , . . . , v ). La combinaison linéaire :
2 p

1 · 0 + 0 · v2 + · · · + 0 · vp = 0

admet un coecient non nul (λ =1 ) même si les autres sont nuls. Par dénition, la famille
n'est pas libre.
1

4. Sous-famille d'une famille libre


Proposition :
Toute sous-famille d'une famille libre est libre.
Preuve :
Soit une famille libre (u , u , u , u ). Considérons la sous-famille (u , u , u ). Supposons une
combinaison linéaire nulle :
1 2 3 4 1 2 3

αu + βu + γu = 0.1 2 3

En ajoutant 0 · u , on a :
4
αu1 + βu2 + γu3 + 0 · u4 = 0.

3
Comme la famille complète est libre, tous les coecients (α, β, γ, 0) doivent être nuls. Ainsi,
α=β=γ=0 , donc la sous-famille est libre.
Exercice 3

1. Famille génératrice de R2
Montrons que {(1, 2), (−1, 1)} est génératrice. Pour tout (a, b) ∈ R , on cherche α, β tels que :
2

α(1, 2) + β(−1, 1) = (a, b)

Ce qui donne le système : (


α−β =a
2α + β = b
En additionnant les deux équations :
a+b
3α = a + b =⇒ α = , β =α−a
3
La famille est donc génératrice. Comme elle a 2 vecteurs en dimension 2, c'est aussi une base.
2. Familles libres
F 1 = {(1, 1, 0), (1, 0, 0), (0, 1, 1)} : On calcule le déterminant de la matrice associée :
1 1 0
1 0 1 = 1 · (0 · 1 − 1 · 0) − 1 · (1 · 1 − 1 · 0) + 0 = −1 ̸= 0
0 0 1

Donc F est libre.


1

 F = {(0, 1, 1, 0), (1, 1, 1, 0), (2, 1, 1, 0)} : Ces vecteurs sont dans R mais leurs quatrièmes
4

composantes sont nulles. Ils ne peuvent pas engendrer un espace de dimension 3, donc ils
2

sont liés.
3. Bases
 {(1, 2), (−1, 1)} est une base de R car libre et génératrice.
2

 F est une base de R car libre et contient 3 vecteurs en dimension 3.


1
3

4. Famille libre dans R3


Pour {(1, 2, 3), (0, 1, −1), (2, 0, 1)}, on calcule le déterminant :
1 0 2
2 1 0 = 1(1 · 1 − 0 · (−1)) − 0 + 2(2 · (−1) − 1 · 3) = 1 − 10 = −9 ̸= 0
3 −1 1

La famille est libre, et comme elle a 3 vecteurs en dimension 3, c'est une base de R . 3

4
Exercice 4

1. Montrer que F est un sous-espace vectoriel de R3


Dénition de F :

F = {(x, y, z) ∈ R3 | x + y + z = 0}.

Preuve par stabilité par combinaisons linéaires :


Soient u = (x , y , z ) et v = (x , y , z ) deux vecteurs quelconques de F , et λ, µ ∈ R.
1. Vérication de la condition :
1 1 1 2 2 2

x + y + z = 0 et x + y + z = 0.
1 1 1 2 2 2

La combinaison linéaire λu + µv s'écrit :


(λx1 + µx2 , λy1 + µy2 , λz1 + µz2 ).
Vérions qu'elle appartient à F :
(λx1 + µx2 ) + (λy1 + µy2 ) + (λz1 + µz2 ) = λ(x1 + y1 + z1 ) + µ(x2 + y2 + z2 ) = λ · 0 + µ · 0 = 0.
Donc, λu + µv ∈ F .
2. Non-vide : Le vecteur nul (0, 0, 0) vérie 0 + 0 + 0 = 0, donc (0, 0, 0) ∈ F .
Conclusion :
F est un sous-espace vectoriel de R . 3

2. Trouver une base de F


Méthode :
L'équation x + y + z = 0 permet d'exprimer une variable en fonction des autres. Choisissons
z = −x − y .

Expression générale des vecteurs de F :

(x, y, z) = (x, y, −x − y) = x(1, 0, −1) + y(0, 1, −1).


Les vecteurs e 1 = (1, 0, −1) et e 2 = (0, 1, −1) engendrent F .
Indépendance linéaire :
Supposons αe 1 + βe2 = 0 . Alors :
α(1, 0, −1) + β(0, 1, −1) = (α, β, −α − β) = (0, 0, 0).
Ce qui implique α = β = 0. Donc {e , e } est libre. 1 2

Base de F :

B = {(1, 0, −1), (0, 1, −1)}.

5
3. Dimension de F
La base B contient 2 vecteurs, donc :
dim(F ) = 2.

Interprétation :
F est un plan passant par l'origine dans R . 3

Exercice 5

1. Montrer que E1 et E2 sont des sous-espaces vectoriels de R3


Ensembles dénis :
E 1 = {(x, y, z) ∈ R3 | x + y + z = 0} ,
E 2
3
= {(x, y, z) ∈ R | x − y = x + z = 0} .
Preuve pour E1 :
Identique à l'Exercice 4. E est un plan vectoriel (sous-espace de dimension 2).
1

Preuve pour E2 :
1. Non-vide : (0, 0, 0) ∈ E2 car 0 − 0 = 0 + 0 = 0.
2. Stabilité par combinaisons linéaires : Soient u = (x1, y1, z1), v = (x2, y2, z2) ∈ E2, et
λ, µ ∈ R .
λu + µv = (λx1 + µx2 , λy1 + µy2 , λz1 + µz2 ).
Vérication :
(λx1 + µx2 ) − (λy1 + µy2 ) = λ(x1 − y1 ) + µ(x2 − y2 ) = 0,

(λx1 + µx2 ) + (λz1 + µz2 ) = λ(x1 + z1 ) + µ(x2 + z2 ) = 0.


Donc λu + µv ∈ E . 2

Conclusion :
E1 et E sont des sous-espaces vectoriels de R .
2
3

2. Bases et dimensions de E1 et E2
Base de E1 :
Comme dans l'Exercice 4 :
B1 = {(1, 0, −1), (0, 1, −1)}, dim(E1 ) = 2.

6
Base de E2 :
Résolvons le système x − y = 0 et x + z = 0 :
 y = x,
 z = −x.
Ainsi, tout vecteur de E s'écrit : 2

(x, y, z) = (x, x, −x) = x(1, 1, −1).

Base proposée :

B2 = {(1, 1, −1)}, dim(E2 ) = 1.

3. Montrer que R3 = E1 ⊕ E2
Dénition de la somme directe :
R3 = E1 ⊕ E2 si :
1. E1 + E2 = R3 ,
2. E1 ∩ E2 = {0} .
Preuve :
1. Somme : Tout vecteur (x, y, z) ∈ R3 peut s'écrire comme :
   
2x − y − z −x + 2y − z −x − y + 2z x + y + z x + y + z −(x + y + z)
(x, y, z) = , , + , , .
3 3 3 3 3 3

 Le premier terme est dans E (somme des composantes = 0),


 Le second terme est dans E (forme (a, a, −a)).
1

Donc E + E = R .
1 2
3

2. Intersection : Soit u ∈ E ∩ E . Alors :


1 2

 u ∈ E =⇒ x + y + z = 0,
 u ∈ E =⇒ x = y et z = −x.
1

Donc 3x = 0 =⇒ x = 0, d'où u = (0, 0, 0).


Conclusion :
R3 est la somme directe de E et E . 1 2

Exercice 6

1. Base canonique et dimension de R2[X]


La base canonique de l'espace des polynômes réels de degré ≤ 2 est :
B = {1, X, X 2 }.

7
Dimension :

dim(R2 [X]) = 3.

2. P0 comme combinaison linéaire de P2 et P3


Polynômes donnés :

P0 = X 2 − 2,
P2 = (X − 2)(X + 1) = X 2 − X − 2,
P3 = (X − 1)(X + 2) = X 2 + X − 2.

Résolution :
On cherche α, β tels que P 0 = αP2 + βP3 :
X 2 − 2 = α(X 2 − X − 2) + β(X 2 + X − 2).

En développant et identiant les coecients :


X 2 − 2 = (α + β)X 2 + (−α + β)X + (−2α − 2β).

Système d'équations : 
α + β = 1,

−α + β = 0,

−2α − 2β = −2.

Résolution :
1. De la 2e équation : β = α.
2. Substituer dans la 1re : 2α = 1 =⇒ α = , donc β = .
1 1

3. Vérication dans la 3e équation :


2 2

(cohérent).
   
1 1
−2 −2 = −1 − 1 = −2
2 2

Conclusion :

1 1
P 0 = P 2 + P3 .
2 2

3. Liberté de (P1, P2, P3) et base de R2[X]


Polynômes :

P1 = (X − 1)(X + 1) = X 2 − 1,
P2 = X 2 − X − 2,
P3 = X 2 + X − 2.

8
Test de liberté :
On résout αP 1 + βP2 + γP3 = 0 :
α(X 2 − 1) + β(X 2 − X − 2) + γ(X 2 + X − 2) = 0.
En développant et identiant les coecients :
(α + β + γ)X 2 + (−β + γ)X + (−α − 2β − 2γ) = 0.
Système d'équations : 
α + β + γ = 0,

−β + γ = 0,

−α − 2β − 2γ = 0.

Résolution :
1. De la 2e équation : γ = β.
2. Substituer dans la 1re : α + 2β = 0 =⇒ α = −2β.
3. Substituer dans la 3e équation :
−(−2β) − 2β − 2β = 2β − 2β − 2β = −2β = 0 =⇒ β = 0.
Donc γ = 0 et α = 0.
Conclusion :
La seule solution est α = β = γ = 0, donc la famille (P , P , P ) est libre.
1 2 3

Base de R2 [X] :
Puisque (P , P , P ) est libre et contient 3 éléments dans un espace de dimension 3, c'est une
base de R [X].
1 2 3
2

Exercice 7

1. Intersection et somme de sous-espaces vectoriels


Énoncé :
Soient F et G deux sous-espaces vectoriels de E. Montrer que :
F ∩ G = F + G ⇐⇒ F = G.

Preuve :
 Sens direct ( =⇒ ) : Supposons F ∩ G = F + G.
 Par dénition, F + G contient tous les vecteurs de la forme u + v avec u ∈ F , v ∈ G.
 F ∩ G contient seulement les vecteurs communs à F et G.
 Si F ∩ G = F + G, alors tout u + v ∈ F ∩ G, donc u + v ∈ F et u + v ∈ G.
 Pour v = 0, u ∈ G (donc F ⊆ G).
 Pour u = 0, v ∈ F (donc G ⊆ F ).
 Ainsi, F = G.
 Sens inverse ( ⇐= ) : Si F = G, alors F ∩ G = F = F + F = F + G.
9
Conclusion :
L'égalité F ∩ G = F + G caractérise l'identité F = G.
2. Union de sous-espaces vectoriels
Énoncé :
Si E est de dimension nie et F , G sont des sous-espaces de E, montrer que :
F ∪ G est un sous-espace vectoriel ⇐⇒ F ⊆ G ou G ⊆ F.

Preuve du sens direct (⇒). Supposons F ∪ G sous-espace vectoriel. Par l'absurde :


 Si F ̸⊆ G et G ̸⊆ F , alors ∃u ∈ F \ G et ∃v ∈ G \ F .
 Comme u, v ∈ F ∪ G, la stabilité par addition implique u + v ∈ F ∪ G.
 Deux cas possibles :
 Si u + v ∈ F , alors v = (u + v) − u ∈ F (car F stable), contradiction.
 Si u + v ∈ G, alors u = (u + v) − v ∈ G (car G stable), contradiction.
 L'hypothèse initiale est donc fausse : nécessairement F ⊆ G ou G ⊆ F .
Preuve du sens inverse ( ⇐= ).Supposons F ⊆ G ou G ⊆ F et montrons F ∪ G
 Si F ⊆ G, alors F ∪ G = G qui est un sous-espace.
 Si G ⊆ F , alors F ∪ G = F qui est un sous-espace.
Dans les deux cas, F ∪ G est bien un sous-espace vectoriel.
Conclusion :
L'union F ∪ G est un sous-espace ssi un des sous-espaces est inclus dans l'autre.
3. Sous-espaces en dimension nie
Énoncé :
Montrer que tout sous-espace vectoriel d'un espace de dimension nie est de dimension nie.
Preuve :
 Soit E de dimension nie n, et F ⊆ E un sous-espace.
 Toute famille libre de F est aussi libre dans E, donc a au plus n vecteurs (d'après le
théorème de la dimension).
 La famille génératrice nie de E peut être restreinte à F , garantissant que F admet une
base nie.
Conclusion :

dim(F ) ≤ dim(E) < +∞.

10
Exercice 8

1. Demontrons que la Dérivation et un endomorphisme


Proposition
L'application de dérivation D : R[X] → R[X] dénie par D(f ) = f est un endomorphisme

d'espaces vectoriels.
Démonstration de la linéarité
Soient f, g ∈ R[X] et λ, µ ∈ R. Montrons que D préserve les combinaisons linéaires :
D(λf + µg) = (λf + µg)′
= λf ′ + µg ′ (par linéarité de la dérivation classique)
= λD(f ) + µD(g)
De plus, pour tout polynôme f ∈ R[X], sa dérivée f reste dans R[X]. Ainsi :

 D est bien dénie de R[X] dans R[X]


 D est linéaire
Donc D est bien un endomorphisme de R[X].
2. Image de la dérivation
Analyse

Im(D) = {f ′ | f ∈ R[X]}

Théorème fondamental
Tout polynôme P ∈ R[X] admet une primitive dans R[X], c'est-à-dire :
∀P ∈ R[X], ∃Q ∈ R[X] tel que Q = P ′

Conclusion

Im(D) = R[X]
La dérivation est surjective.
3. Noyau de la dérivation
Calcul

ker(D) = {f ∈ R[X] | f ′ = 0}

Résolution
Les solutions sont les polynômes constants :
f ′ = 0 ⇐⇒ f = C avec C ∈ R
11
Conclusion

ker(D) = R0 [X] ≃ R
où R [X] désigne l'espace des polynômes constants.
0

4. Propriétés de D
Propriété Valeur Justication
Injectivité Non ker(D) = R ̸= {0}
Surjectivité Oui Im(D) = R[X]
Bijectivité Non Car non injective
5. Dimension de R[X]
Preuve par l'absurde
Supposons R[X] de dimension nie n.
D'après le théorème du rang :
dim R[X] = dim ker(D) + dim Im(D)

n=1+n
Ce qui est impossible.
Conclusion

R[X] est un espace vectoriel de dimension innie


Exercice 9

1. Vérication que f est linéaire


L'application f : R 2
→ R2 est dénie par :
f (x, y) = (−x + 2y, −2x + 4y).

Preuve de linéarité :
Soit f : R 2
→ R2 dénie par :
f (x, y) = (−x + 2y, −2x + 4y)

Pour montrer que f est linéaire, nous allons vérier qu'elle préserve les combinaisons linéaires.
Soient ⃗u = (x , y ), ⃗v = (x , y ) deux vecteurs de R et α, β ∈ R.2

Calculons d'une part :


1 1 2 2

f (α⃗u + β⃗v ) = f (αx1 + βx2 , αy1 + βy2 )



= − (αx1 + βx2 ) + 2(αy1 + βy2 ), −2(αx1 + βx2 ) + 4(αy1 + βy2 )

= − αx1 + 2αy1 − βx2 + 2βy2 , −2αx1 + 4αy1 − 2βx2 + 4βy2

12
Et d'autre part :
αf (⃗u) + βf (⃗v ) = α(−x1 + 2y1 , −2x1 + 4y1 ) + β(−x2 + 2y2 , −2x2 + 4y2 )

= − αx1 + 2αy1 − βx2 + 2βy2 , −2αx1 + 4αy1 − 2βx2 + 4βy2
Nous obtenons bien :
f (α⃗u + β⃗v ) = αf (⃗u) + βf (⃗v )
Conclusion : L'application f préserve les combinaisons linéaires, donc elle est linéaire.

2. Noyau et image de f
Noyau (ker f ) :
ker f = {(x, y) | f (x, y) = (0, 0)}
= {(x, y) | −x + 2y = 0 et − 2x + 4y = 0}.
Les équations sont proportionnelles, donc :
ker f = {(2y, y) | y ∈ R}.
Une base de ker f est {(2, 1)}, et dim(ker f ) = 1.
Image (ℑf ) : L'image est engendrée par les colonnes de la matrice de f :
ℑf = vect{(−1, −2), (2, 4)} = vect{(−1, −2)},
avec dim(ℑf ) = 1.
3. Calcul de f n pour n ∈ N∗
La matrice de f est :  
−1 2
A= .
−2 4
On vérie que A 2
= 3A :
   
2 (−1)(−1) + 2(−2) (−1)(2) + 2(4) −3 6
A = = = 3A.
−2(−1) + 4(−2) −2(2) + 4(4) −6 12
Par récurrence, on montre que :
∀n ∈ N∗ , f n = 3n−1 f.
- **Base** : Pour n = 1, f 1
= f = 30 f . - **Hérédité** : Supposons f n
= 3n−1 f . Alors :
f n+1 = f ◦ f n = f ◦ (3n−1 f ) = 3n−1 f 2 = 3n−1 (3f ) = 3n f.

4. Calcul de hn où h = f + I
Dénissons h = f + I . Sa matrice est :
 
0 2
B =A+I = .
−2 5
Les valeurs propres de B sont solutions de :
−λ 2
det(B − λI) = = λ2 − 5λ + 4 = 0,
−2 5 − λ
donc λ = 1 ou λ = 4.
13
 Pour λ = 1 : ker(B − I) = vect{(2, 1)}
 Pour λ = 4 : ker(B − 4I) = vect{(1, 2)}
Ainsi, B = P DP avec :
−1
   
2 1 1 0
P = , D= .
1 2 0 4
L'inverse de P est : 1

2 −1

−1
P = .
3 −1 2
Finalement, la puissance n-ème de h est :
   
n n −1 1 2 1 1 0 2 −1
h = PD P = .
3 1 2 0 4n −1 2

Exercice 10

1. Décomposition de l'espace E = ker f ⊕ Imf


Hypothèse : Soit f ∈ L(E) telle que f 3 = f 2 + f .
Preuve :
1. Intersection nulle : Montrons que ker f ∩ Imf = {0}.
Soit x ∈ ker f ∩ Imf . Alors :
∃y ∈ E, x = f (y) et f (x) = f (y) = 0 2

D'après l'équation f 3
= f2 + f , appliquée à y :

f 3 (y) = f 2 (y) + f (y) =⇒ 0 = 0 + x =⇒ x = 0

2. Décomposition : Montrons que E = ker f + Imf .


Pour tout x ∈ E, posons :
x = (x − f 2 (x)) + f 2 (x)
| {z } | {z }
∈ker f ∈Imf

Vérication :
f (x − f 2 (x)) = f (x) − f 3 (x) = f (x) − (f 2 (x) + f (x)) = −f 2 (x) ∈ Imf
donc x − f (x) ∈ ker f si f (x) = 0.
2 2

Conclusion : E = ker f ⊕ Imf .

2. Étude de F = vect(x, f (x))


Hypothèse : f 2 + f + Id = 0, x ̸= 0.
(a) Base de F :
Montrons que {x, f (x)} est libre. Supposons :
αx + βf (x) = 0

En appliquant f :
αf (x) + βf 2 (x) = αf (x) − β(x + f (x)) = 0

14
Ce qui donne le système :
(
αx + βf (x) = 0
−βx + (α − β)f (x) = 0

D'où α = β = 0.
(b) Stabilité :
Pour tout y ∈ F , y = αx + βf (x), alors :
f (y) = αf (x) + βf 2 (x) = αf (x) − β(x + f (x)) ∈ F

Exercice 11

1. Linéarité de h
L'application h est dénie par :
f (⃗u)
h(⃗u) = ⃗u − 2 w

f (w)

Preuve de linéarité :
 Additivité : f (⃗u + ⃗v )
h(⃗u + ⃗v ) = (⃗u + ⃗v ) − 2 w
⃗ = h(⃗u) + h(⃗v )
f (w)

 Homogénéité :
f (λ⃗u)
h(λ⃗u) = λ⃗u − 2 w
⃗ = λh(⃗u)
f (w)

2. Dimension de H = ker f
Par le théorème du rang :
dim E = dim ker f + dim Imf =⇒ dim H = n − 1

3. Calcul de h(w)

f (w)

h(w) ⃗ −2
⃗ =w ⃗ = −w
w ⃗
f (w)

4. Action sur H
Pour ⃗u ∈ H : 0
h(⃗u) = ⃗u − 2 w
⃗ = ⃗u
f (w)

5. Intersection H ∩ D
Si ⃗v ∈ H ∩ D, alors :
⃗v = λw
⃗ et f (⃗v ) = λf (w)
⃗ = 0 =⇒ λ = 0

15
6. Décomposition
Pour tout ⃗u ∈ E : f (⃗u)
⃗u − ⃗ ∈H
w
f (w)

car son image par f est nulle.
7. Somme directe
Tout vecteur s'écrit : 
f (⃗u)

f (⃗u)
⃗u = ⃗u − w
⃗ + w

f (w)
⃗ f (w)

avec H ∩ D = {0}, donc E = H ⊕ D.
8. Nature de h
h est une symétrie par rapport à H parallèlement à D.
 Pour tout ⃗u ∈ H , on a :
h(⃗u) = ⃗u
(point xe).
 Pour tout ⃗u ∈ D, c'est-à-dire ⃗u = λw⃗ , alors :
h(λw) ⃗ = −λw
⃗ = λh(w) ⃗ = −⃗u.
Ainsi, h est une symétrie orthogonale par rapport à H puisque D est la droite orthogonale à
H.

Exercice 12

1. Injectivité et Image de l'application linéaire f


Application dénie

f : R3 → R3
f (x, y, z) = (x + y − z, −y + z, −x + z)

Matrice associée
 
1 1 −1
A =  0 −1 1 
−1 0 1

16
a. Injectivité
Le noyau de f est :
ker(f ) = {(x, y, z) ∈ R3 | f (x, y, z) = (0, 0, 0)}
Résolution du système :
 
x + y − z = 0
 z = y

−y + z = 0 =⇒ x = z = y
 
−x + z = 0 y=0
 

Conclusion : ker(f ) = {(0, 0, 0)}, donc f est injective.


b. Image de f
Calculons le rang de A :
Les colonnes de A : 
1
  
1
 
−1
C1 =  0 , C2 = −1 , C3 =
    1
−1 0 1
On a C = −C + C , donc rang(A) = 2.
Conclusion : Im(f ) est de dimension 2, avec pour base :
3 1 2

    
 1 1 
 0  , −1
−1 0
 

2. Matrice associée dans la base canonique


Les colonnes de A représentent les images des vecteurs de base :
f (1, 0, 0) = (1, 0, −1), f (0, 1, 0) = (1, −1, 0), f (0, 0, 1) = (−1, 1, 1)

D'ou cette matrice est :


 
1 1 −1
 0 −1 1 
−1 0 1

3. Inversibilité de A et calcul de A−1


Déterminant

−1 1 0 1 0 −1
det(A) = 1 −1 −1 = −1 − 1 + 1 = −1 ̸= 0
0 1 −1 1 −1 0

Méthode des cofacteurs


Matrice des cofacteurs : 
−1 −1 −1

C = −1 0 −1
0 −1 −1

17
Matrice adjointe :  
−1 −1 0
adj(A) = C ⊤ = −1 0 −1
−1 −1 −1
Inverse : 
1 1 0

A−1 =
1
det(A)
adj (A) = 1 0 1
1 1 1

4. Composition g ◦ f et vérication
Dénition de g
 
x
−1  
g(x, y, z) = A y = (x + y, x + z, x + y + z)
z

Calcul de g ◦ f

(g ◦ f )(x, y, z) = g(x + y − z, −y + z, −x + z)
= (x + y − z − y + z, x + y − z − x + z, x + y − z − y + z − x + z) = (x, y, z)
Conclusion : g ◦ f = Id , donc g = f .
R3
−1

Conseils pratiques

 Pour l'injectivité : résoudre f (⃗u) = ⃗0


 Pour l'image : calculer le rang de la matrice
 Pour l'inverse : utiliser cofacteurs ou Gauss-Jordan
 Pour la composition : vérier g ◦ f = Id
Exercice 14
Données
 
0 1 −1
M = 0 1 1 
1 0 1

1. Calcul de M 3 − 2M 2 + 2M
1. Calcul de M : 2

−1 1 0

M 2 =  1 1 2
1 1 0
2. Calcul de M 3
= M · M2 : 
0 0 2

M 3 = 2 2 2
0 2 0

18
3. Calcul de l'expression :
M 3 − 2M 2 + 2M = 2I3

2. Calcul de M −1
De la relation M 3
− 2M 2 + 2M = 2I , on obtient :
M 2 − 2M + 2I
 
M =I
2

Donc : 1 −1 2

1 1
M −1 = (M 2 − 2M + 2I) =  1 1 0
2 2
−1 1 0

3. Vérication par la méthode des comatrice


1. Déterminant :
det(M ) = 2
2. Matrice des cofacteurs : 1

1 −1

C = −1 1 1
2 −1 −1
3. Matrice adjointe :  
1 −1 2
adj (M ) = C ⊤ =  1 1 −1
−1 1 −1
4. Matrice inverse : 
1 −1 2

1
M −1 = 1 1 −1
2
−1 1 −1

'Exercice 15

Données
Soit f un endomorphisme de R dont la matrice dans la base canonique est :
3

 
3 2 −2
A = −1 0 1 
1 1 0

19
1 : Calcul de (A − I)2

 
2 2 −2
A − I = −1 −1 1 
1 1 −1
  
2 2 −2 2 2 −2
(A − I)2 = −1 −1 1  −1 −1 1 
1 1 −1 1 1 −1
 
2 · 2 + 2 · (−1) − 2 · 1 2 · 2 + 2 · (−1) − 2 · 1 2 · (−2) + 2 · 1 − 2 · (−1)
= −1 · 2 − 1 · (−1) + 1 · 1 −1 · 2 − 1 · (−1) + 1 · 1 −1 · (−2) − 1 · 1 + 1 · (−1)
1 · 2 + 1 · (−1) − 1 · 1 1 · 2 + 1 · (−1) − 1 · 1 1 · (−2) + 1 · 1 − 1 · (−1)
 
0 0 0
= 0 0 0

0 0 0

(A − I)2 = 0

2 : Preuve par récurrence de An = nA + (1 − n)I


Initialisation (n = 1)

A1 = 1 · A + (1 − 1)I = A (Vrai)
Hérédité
Supposons la propriété vraie au rang k ≥ 1 :
Ak = kA + (1 − k)I

Au rang k + 1 :
Ak+1 = A · Ak
= A · (kA + (1 − k)I)
= kA2 + (1 − k)A

D'après la partie 1, on a A2
= 2A − I (car (A − I)2
). Donc :
=0

Ak+1 = k(2A − I) + (1 − k)A


= 2kA − kI + (1 − k)A
= (k + 1)A − kI
= (k + 1)A + (1 − (k + 1))I

Conclusion
Par récurrence, pour tout n ≥ 1 : An = nA + (1 − n)I

20
Exemple pour n = 2
 
5 4 −4
A2 = 2A − I = −2 −1 2 
2 2 −1

Interprétation
La matrice A vérie (A − I) = 0, ce qui en fait une matrice quasi-nilpotente. La formule
2

obtenue permet de calculer simplement les puissances de A.


'Exercice 16

Énoncé du problème
On considère :  
1 −2 4
 La matrice A = 1
 1 1
1 −1 1

−x + y − z = 10 (1)
 Le système d'équations :

x + y + z = −4 (2)

x − 2y + 4z = 6 (3)

1. Inversibilité de la matrice A
Étape 1 : Calcul du déterminant
Pour vérier si A est inversible, on calcule son déterminant :
1 −2 4
det(A) = 1 1 1
1 −1 1
1 1 1 1 1 1
=1· − (−2) · +4·
−1 1 1 1 1 −1
= 1(1 · 1 − (−1) · 1) + 2(1 · 1 − 1 · 1) + 4(1 · (−1) − 1 · 1)
= 1(1 + 1) + 2(1 − 1) + 4(−1 − 1)
= 2 + 0 − 8 = −6 ̸= 0

Conclusion : Comme det(A) = −6 ̸= 0, la matrice A est inversible.


Étape 2 : Calcul de la matrice inverse A−1
On utilise la méthode des cofacteurs :
1. Matrice des cofacteurs ou Comatrice :
 
+(1 · 1 − 1 · (−1)) −(1 · 1 − 1 · 1) +(1 · (−1) − 1 · 1)
com (A) = −(−2 · 1 − 4 · (−1)) +(1 · 1 − 4 · 1) −(1 · (−1) − (−2) · 1)
+(−2 · 1 − 4 · 1) −(1 · 1 − 4 · 1) +(1 · 1 − (−2) · 1)

21
 
2 0 −2
= −2 −3 −1
−6 3 3
2. Matrice adjointe : Transposée de la comatrice
 
2 −2 −6
adj (A) =  0 −3 3 
−2 −1 3

3. Matrice inverse :
  
2 −2 −6 −1/3 1/3 1
A−1 =
1
det(A)
· adj 1
(A) = −  0 −3 3  =  0
6
1/2 −1/2
−2 −1 3 1/3 1/6 −1/2

2. Résolution du système linéaire


Étape 1 : Réécriture matricielle
On réorganise les équations pour faire correspondre aux lignes de A :
x − 2y + 4z = 6 (correspond à la 1ère ligne de A)

x + y + z = −4 (2ème ligne)

x − y + z = −10 (équation (1) Ö -1)



Forme matricielle :   
x 6

A y  =  −4 
z −10

Étape 2 : Calcul de la solution


La solution est donnée par X = A −1
B :
    
x −1/3 1/3 1 6
y  =  0 1/2 −1/2  −4 
z 1/3 1/6 −1/2 −10
 
(−1/3) · 6 + (1/3) · (−4) + 1 · (−10)
=  0 · 6 + (1/2) · (−4) + (−1/2) · (−10) 
(1/3) · 6 + (1/6) · (−4) + (−1/2) · (−10)
   
−2 − 4/3 − 10 −40/3
= 0−2+5 = 3 
2 − 2/3 + 5 19/3

Conclusion
La solution unique du système est :
40 19
x=− , y = 3, z=
3 3

22
Exercice 17

a) Écriture du système
Données expérimentales
( m) k (λ) k (λ) k (λ) A(λ)
λ µ 1 2 3

6.5 1 -2 4 2.6
6.0 1 1 1 1.7
7.5 1 -1 1 1.58
Application de la loi de Beer-Lambert
Pour chaque longueur d'onde, on a :
A(λ) = k1 (λ)X + k2 (λ)Y + k3 (λ)Z
où X = c , Y = c , Z = c sont les concentrations inconnues.
1 2 3

Système d'équations

1 · X − 2 · Y + 4 · Z = 2.6 (pour λ = 6.5)
(pour λ = 6.0)

1 · X + 1 · Y + 1 · Z = 1.7


1 · X − 1 · Y + 1 · Z = 1.58 (pour λ = 7.5)
b) Résolution par la méthode de Cramer
Principe de la méthode
Pour un système AX = B :     
X a11 a12 a13 b1
X = Y  , A = a21 a22 a23  , B =  b2 
Z a31 a32 a33 b3
Les solutions sont données par :
det(AX ) det(AY ) det(AZ )
X= , Y = , Z=
det(A) det(A) det(A)
où A , A , A sont les matrices obtenues en remplaçant respectivement les 1ère, 2ème et 3ème
colonnes de A par B.
X Y Z

Application numérique
1. Calcul de det(A)  
1 −2 4
A = 1 1 1
1 −1 1

1 1 1 1 1 1
det(A) = 1 · − (−2) · +4·
−1 1 1 1 1 −1
= 1(1 · 1 − (−1) · 1) + 2(1 · 1 − 1 · 1) + 4(1 · (−1) − 1 · 1)
= 1(2) + 2(0) + 4(−2) = −6

23
2. Calcul de X  
2.6 −2 4
AX =  1.7 1 1
1.58 −1 1

1 1 1.7 1 1.7 1
det(AX ) = 2.6 − (−2) +4
−1 1 1.58 1 1.58 −1
= 2.6(2) + 2(1.7 − 1.58) + 4(−1.7 − 1.58)
= 5.2 + 0.24 − 13.12 = −7.68
−7.68
X= = 1.28
−6

3. Calcul de Y  
1 2.6 4
AY = 1 1.7 1
1 1.58 1

1.7 1 1 1 1 1.7
det(AY ) = 1 − 2.6 +4
1.58 1 1 1 1 1.58
= 1(0.12) − 2.6(0) + 4(−0.12)
= 0.12 − 0 − 0.48 = −0.36
−0.36
Y = = 0.06
−6

4. Calcul de Z  
1 −2 2.6
AZ = 1 1 1.7 
1 −1 1.58

1 1.7 1 1.7 1 1
det(AZ ) = 1 − (−2) + 2.6
−1 1.58 1 1.58 1 −1
= 1(3.28) + 2(−0.12) + 2.6(−2)
= 3.28 − 0.24 − 5.2 = −2.16
−2.16
Z= = 0.36
−6

Conclusion
Les concentrations des solutés sont :
X = c1 = 1.28, Y = c2 = 0.06, Z = c3 = 0.36

Exercice 18

1. Écrire le système d'équations sous la forme X ′ = AX


Le système décrit l'évolution des concentrations de polluant dans trois cuves avec un débit
constant r et un volume V pour chaque cuve.
24
1) Cuve C 1 :
Entrée − Sortie = 0 − Vr x
dx1
dt
= 1

L'eau entrante est non polluée, donc seul le terme de sortie contribue.
2) Cuve C 2 :
Entrée − Sortie = Vr x
dx2
dt
= 1 −
r
V
x2
Le polluant entre depuis et sort vers C .
C1
3) Cuve C
3

3 :
dx3 r r
= x2 − x3
dt V V
Le polluant entre depuis C et sort vers l'égout.
2

Le système s'écrit sous forme matricielle :


 ′  r  
x1 −V 0 0 x1
x′2  =  r − Vr 0   x2 
V
x′3 0 r
V
−Vr
x3

Soit X ′
= AX , où :
− Vr
 
0 0
r
A= V
− Vr 0 
r
0 V
− Vr

2. Système à l'état stationnaire sous la forme AX = B


À l'état stationnaire, les dérivées temporelles sont nulles (X (t) = B). Le système devient :

   V 
− Vr

0 0 x1 −r
r

V
− Vr 0   x2 =
  V 
r
r r V
0 V
−V x3 r

Le système stationnaire devient alors :


− Vr
 

AX = B avec B= V
r
V

r

3. Analyse du système et résolution


1. Nature du système
Un système de Cramer est un système carré avec une matrice inversible. Calculons le détermi-
nant de A :  r  r  r r 3
det(A) = − × − × − =− ̸= 0
V V V V
Le système est donc de Cramer.
2. Algorithme de résolution par la méthode de Cramer
Pour résoudre AX = B, on utilise :
det(Ai )
xi =
det(A)
où A est la matrice A avec la i-ème colonne remplacée par B.
i

25
3. Calcul des solutions
 Pour x1 :
− Vr
 
0 0   
V V r  r r
A1 =  r
− Vr 0 , det(A1 ) = − × − × − =−
V r r V V V
r V
− Vr

− Vr V2
x1 =  =
r 3 r2
− V

 Pour x 2 :
− Vr − Vr
 
0     
r V r  V r V V r r 
A2 =  V r
0 , det(A2 ) = − × ×− −0× − − × ×− −0×0
V V r V r r V V
0 r
− Vr
2r
V 2V 2
x2 = 3 = −
− r r2
V

 Pour x 3 :
− Vr − Vr
 
0
A3 =  r
V
− Vr
r
V
r
V
, det(A3 ) = Calcul similaire = − 3rV
0 V r

− 3r
V 3V 2
x3 = 3 =
− Vr r2


Solutions nales

V2 2V 2 3V 2
x1 = , x2 = − , x3 =
r2 r2 r2

Interprétation physique
Les concentrations à l'état stationnaire sont proportionnelles à . Cela montre que : V2

 Une augmentation du volume V augmente la concentration résiduelle.


r2

 Une augmentation du débit r diminue la concentration, car le polluant est évacué plus
rapidement.
Exercice 19

1. Détermination du rang de A − λI2


Énoncé
Soit la matrice : 
7 5

A=
−6 −4

26
Étape 1 : Calcul du polynôme caractéristique
Le polynôme caractéristique est donné par :
7−λ 5
det(A − λI) = = (7 − λ)(−4 − λ) − (5)(−6)
−6 −4 − λ

= −28 − 7λ + 4λ + λ2 + 30 = λ2 − 3λ + 2

Étape 2 : Résolution de l'équation caractéristique

λ2 − 3λ + 2 = 0 =⇒ λ1 = 1, λ2 = 2

Étape 3 : Analyse du rang


 Pour λ ̸= 1, 2 : det(A − λI) ̸= 0 =⇒ Rang = 2
 Pour λ = 1 :
(lignes proportionnelles) =⇒ Rang = 1
 
6 5
A−I =
−6 −5

 Pour λ = 2 :
(lignes proportionnelles) =⇒ Rang = 1
 
5 5
A − 2I =
−6 −6

2. Détermination des vecteurs propres


Pour λ1 = 1
(  
6x + 5y = 0 5
(A − I)⃗v = 0 =⇒ =⇒ ⃗v1 =
−6x − 5y = 0 −6

Pour λ2 = 2
(  
5x + 5y = 0 1
(A − 2I)⃗v = 0 =⇒ =⇒ ⃗v2 =
−6x − 6y = 0 −1

3. Diagonalisation de A
Base de R2
La famille {⃗v , ⃗v } forme une base de R car :
1 2
2



5 1
det = 5(−1) − 1(−6) = 1 ̸= 0
−6 −1

Matrice de passage P et son inverse


   
5 1 −1 −1 −1
P = , P =
−6 −1 6 5

27
Vérication de la diagonalisation
 
−1 1 0
P AP =
0 2

4. Calcul de A−1 et Ak
Expression de A−1
En utilisant A
2
− 3A + 2I = 0 :
 
−1 3I − A 1 −4 −5
A = =
2 2 6 7

Expression de Ak
   
k 1k 0 −1 5 − 6 · 2k 5 − 5 · 2k
A =P P =
0 2k −6 + 6 · 2k −6 + 5 · 2k
Cette décomposition permet de calculer ecacement les puissances et l'inverse de A.
Exercice 20

1, Modélisation du système
Pour le graphe spécié :
 Page 1 → Page 3
 Page 2 → Pages 1, 3, 4
 Page 3 → Pages 1, 2
 Page 4 → Aucun lien
Paramètres :
C(1) = 1 (1 lien sortant)
C(2) = 3 (3 liens sortants)
C(3) = 2 (2 liens sortants)
C(4) = 0 (aucun lien sortant)
Système PageRank général :
  
Y Z
X = (1 − d) + d +


3 2



 

 Z
Y = (1 − d) + d


2 
X Y
Z = (1 − d) + d +


 1 3





 Y
T = (1 − d) + d


3

28
2. Résolution pour d = 12
Le système devient :  Y Z 1

 X− − = (1)

 6 4 2
Y − Z = 1 (2)



4 2
Y 1

 −X − + Z = (3)
6 2


T = 1 + Y (4)


les 3 premiere equation sont independents de T on peut donc utilise uniquement ce equation
2 6

pour forme notre systeme


Matrices du système :
1 − 16 − 41
  1
2
A= 0 1 − 14  , B =  12 
−1 − 16 1 1
2

Calcul des déterminants


1. Déterminant principal det(A) :
1 − 16 − 14           
1 1 1 1 1 1 1
det(A) = 0 1 − 4 = 1· 1 · 1 − − · − + · 0 · 1 − (−1) · − − · 0· − − (−1)
4 6 6 4 4 6
−1 − 61 1
23 1 1 2
= − − =
2. Déterminants partiels :
24 24 4 3

 Pour X : 1
− 61 − 14
2
1 35
det(AX ) = 2
1 − 14 =
1 48
− 61 1
 Pour Y :
2

1
1 − 14
2
1 5
det(AY ) = 0 2
− 14 =
1 8
−1 1
 Pour Z :
2

1 − 16 1
2
1 7
det(AZ ) = 0 1 2
=
8
−1 − 16 1
2

Solutions
35
det(AX ) 48 35
X= = 2 = ≈ 1.09375
det(A) 3
32
5
det(AY ) 15
Y = = 82 = = 0.9375
det(A) 3
16
7
det(AZ ) 21
Z= = 82
= = 1.3125
det(A) 16
3
1 Y
T = + ≈ 0.65625
2 6
29
Résultats naux
Page Score exact Score décimal
1 (X) 35
1.09375
2 (Y) 32
15
0.9375
3 (Z) 16
21
1.3125
4 (T) 16
21
32
0.65625
Classement :
1. Page 3 (Z)
2. Page 1 (X)
3. Page 2 (Y)
4. Page 4 (T)
3 : Analyse du web réel
Pour N = 1.3 × 10 pages :
14

 Nombre de coecients : N ≈ 1.69 × 10


2 28

 Stockage nécessaire : 1.69 × 10 disques de 1 To


16

Solution pratique : Google utilise :


 Une méthode itérative (pas de stockage matriciel)
 Des approximations distribuées
 Un découpage par blocs
21

Partie 1 : Détermination du rang de A − λI3


Soit la matrice : 
0 1 0

A =  0 0 1
−2 1 2

Étape 1 : Calcul du polynôme caractéristique

−λ 1 0
det(A − λI) = 0 −λ 1
−2 1 2 − λ
−λ 1 0 1
= −λ −1
1 2−λ −2 2 − λ
= −λ(λ2 − 2λ − 1) − (0 − (−2))
= −λ3 + 2λ2 + λ − 2

30
Étape 2 : Recherche des valeurs propres
Résolution de −λ + 2λ + λ − 2 = 0 :
3 2

On trouve les racines :


 λ = 1 (diviseur constant)
1

 λ = 2 (par factorisation)
2

 λ = −1 (équation résiduelle)
3

Étape 3 : Analyse du rang


Pour λ ̸= 1, 2, −1, rang(A − λI) = 3.
Pour λ = λ , rang(A − λ I) = 2 car les mineurs 2 × 2 sont non nuls.
i i

Partie 2 : Calcul des vecteurs propres


Pour λ1 = 1

−x1 + x2 = 0

(A − I)⃗v = 0 ⇒ −x2 + x3 = 0

−2x1 + x2 + x3 = 0

 
1
Solution : ⃗v1 = 1

1

Pour λ2 = 2

−2x1 + x2 = 0

(A − 2I)⃗v = 0 ⇒ −2x2 + x3 = 0

−2x1 + x2 = 0

 
1
Solution : ⃗v2 = 2

4

Pour λ3 = −1

x 1 + x 2 = 0

(A + I)⃗v = 0 ⇒ x2 + x3 = 0

−2x1 + x2 + 3x3 = 0

 
1
Solution : ⃗v3 = −1
1

31
Partie 3 : Base de R3
La famille B = {⃗v , ⃗v , ⃗v } forme une base car :
1 2 3

1 1 1
det(⃗v1 |⃗v2 |⃗v3 ) = 1 2 −1 = 6 ̸= 0
1 4 1

Partie 4 : Diagonalisation
Matrice de passage P
 
1 1 1
P = 1 2 −1
1 4 1

Calcul de P −1
 
6 3 −3
1
P −1 = −2 0 2
6
2 −3 1

Vérication
 
1 0 0
P −1 AP = 0 2 0  = D
0 0 −1

Partie 5 : Polynôme minimal et inverse


Polynôme minimal :
(A − I)(A − 2I)(A + I) = 0
Expression de A : En développant le polynôme caractéristique :
−1

A3 − 2A2 − A + 2I = 0 =⇒ A3 − 2A2 − A = −2I

(A2 − 2A − I)
=⇒ A(A2 − 2A − I) = −2I =⇒ A · =I
−2
Or I = AȦ comparant
−1
1
A−1 = (A2 − 2A − I)
2

Partie 6 : Calcul de Ak
Par diagonalisation :  
1 0 0
Ak = P Dk P −1 = P 0 2k 0  P −1
0 0 (−1)k

32

Vous aimerez peut-être aussi