0% ont trouvé ce document utile (0 vote)
81 vues45 pages

Algebre 2

Transféré par

trhmgxrjzt
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • Orthogonalité des sous-espaces,
  • Méthode du pivot de Gauss,
  • Orthogonalité des matrices de …,
  • Systèmes d'équations,
  • Angle,
  • Orthogonalité des matrices de …,
  • Orthogonalité des matrices de …,
  • Endomorphisme adjoint,
  • Orthogonalité des matrices de …,
  • Orthogonalité des matrices de …
0% ont trouvé ce document utile (0 vote)
81 vues45 pages

Algebre 2

Transféré par

trhmgxrjzt
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • Orthogonalité des sous-espaces,
  • Méthode du pivot de Gauss,
  • Orthogonalité des matrices de …,
  • Systèmes d'équations,
  • Angle,
  • Orthogonalité des matrices de …,
  • Orthogonalité des matrices de …,
  • Endomorphisme adjoint,
  • Orthogonalité des matrices de …,
  • Orthogonalité des matrices de …

Université Paris 8

A.A. 2022–2023

Algèbre linéaire 2

Martino Borello

18 novembre 2022
2
Table des matières

1 Groupes 5
1.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Sous-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Homomorphismes de groupes . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2 Déterminant 11
2.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . 11
2.2 Méthodes de calcul des déterminants . . . . . . . . . . . . . . . . . 13
2.2.1 Méthode de Sarrus . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.2 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . 14
2.2.3 Méthode des cofacteurs (formules de Laplace) . . . . . . . 15
2.3 Déterminant, bases et rang . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Matrice inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 Règle de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . 19

3 Diagonalisation et triangularisation 21
3.1 Valeurs propres et espaces propres . . . . . . . . . . . . . . . . . . 21
3.2 Triangularisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 Polynômes et matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4 Orthogonalité 35
4.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Norme et angle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Bases orthogonales et orthonormée . . . . . . . . . . . . . . . . . . 40
4.4 Sous-espaces orthogonales . . . . . . . . . . . . . . . . . . . . . . . . 41
4.5 Transformations orthogonales . . . . . . . . . . . . . . . . . . . . . 43
4.6 Endomorphisme adjoint et autoadjoint . . . . . . . . . . . . . . . . 44

Bibliographie 45

3
4 TABLE DES MATIÈRES
Chapitre 1

Groupes

1.1 Définition et propriétés


Soit G un ensemble. Une application ⋆ ∶ G × G → G s’appelle loi de compo-
sition interne. Une structure algébrique (pure) est un ensemble doté d’une
ou plusieurs lois de composition internes, satisfaisantes certains propriétés.

Définition 1.1. Un groupe est un couple (G, ⋆), où G est un ensemble G et


⋆ ∶ G × G → G est une loi de composition qui satisfait les propriétés suivantes :
● pour tous a, b, c ∈ G,
(a ⋆ b) ⋆ c = a ⋆ (b ⋆ c),
i.e. la loi est associative ;
● il existe un élément neutre pour la loi de composition, i.e. un élément
e ∈ G tel que, pour tout a ∈ G,

a ⋆ e = e ⋆ a = a;

● tout élément a ∈ G admet un élément inverse, noté a−1 , i.e. un élément


tel que
a ⋆ a−1 = a−1 ⋆ a = e.
Si en plus la loi de composition est commutative, i.e. si pour tous a, b ∈ G,

a ⋆ b = b ⋆ a,

alors (G, ⋆) est dit groupe abélien (ou commutatif ).

On note le plus souvent un groupe (G, ⋆) par G en sous-entendant la loi de


composition.

Exemple 1.1. On connaît plusieurs exemples de groupes abéliens :


a) (Z, +), (Q, +), (R, +), (C, +).
b) (Q ∖ {0}, ⋅), (R ∖ {0}, ⋅), (C ∖ {0}, ⋅).

5
6 CHAPITRE 1. GROUPES

c) ({−1, +1}, ⋅).


d) (Z/nZ, +), pour tout n ∈ N. .
e) (E, +), où E est un espace vectoriel.
Connaît-on des exemples de groupes non abéliens ?

Exercice 1.1. Montrer que :


● dans (Z, −) il existe un élément neutre, tout élément admet un inverse,
mais la loi de composition n’est pas associative ;
● dans (2Z, ⋅) (les multiples de 2) il n’existe pas d’élément neutre ;
● (N, +) et (Z ∖ {0}, ⋅) ne sont pas des groupes.

Exercice 1.2. Montrer que (Z/nZ ∖ {0}, ⋅) est un groupe si et seulement si n


est premier.

Proposition 1.1. Soit (G, ⋆) un groupe. Alors :


a) l’élément neutre est unique ;
b) Si a ⋆ b = a ⋆ c, alors b = c ;
c) Si b ⋆ a = c ⋆ a, alors b = c ;
d) l’inverse d’un élément est unique ;
e) pour tous a, b ∈ G, l’inverse de a−1 est a et l’inverse de a ⋆ b est b−1 ⋆ a−1 .

Démonstration. Exercice.

Soient (G, ⋆) un groupe, e son élément neutre et a un élément de G. Pour


tout n ∈ N, on pose

a0 ∶= e; an = an−1 ⋆ a; a−n = a−(n−1) ⋆ a−1 .

On a donc définit par récurrence toute puissance az avec z ∈ Z. Les propriétés


suivantes valent :

an ⋆ am = an+m et (an )m = an⋅m ,

pour tout a ∈ G et tous n, m ∈ Z. Par contre, en général,

an ⋆ bn ≠ (a ⋆ b)n ,

mais si le groupe est abélien l’égalité vaut.

1.2 Sous-groupes
Définition 1.2. Soit (G, ⋆) un groupe et H un sous-ensemble de G. On dit que
H est un sous-groupe de G si
● pour tous a, b ∈ H, a ⋆ b ∈ H,, i.e. H est stable par la multiplication ;
● l’élément neutre de G est dans H ;
1.3. HOMOMORPHISMES DE GROUPES 7

● pour tout élément a ∈ H, l’inverse a−1 appartient à H, i.e. H est stable


par inversion.
On a donc que (H, ⋆) est un groupe.
Exemple 1.2. L’ensemble nZ des multiples d’un entier n est un sous-groupe
de (Z, +). Tout sous-groupe de (Z, +) est de cette forme (exercice).
L’intersection de sous-groupes est un sous-groupe (exercice). L’union de sous-
groupes n’est pas un sous-groupe (donner un contre-exemple).
Définition 1.3. Soit (G, ⋆) un groupe et S un sous-ensemble de G. On appelle
sous-groupe engendré par S l’intersection de tous les sous-groupes contenant
S. On le note ⟨S⟩.
C’est facile de montrer (exercice) que ⟨S⟩ est formé par tous les produits
possibles des éléments de S ou des leurs inverses. Si S = {a}, alors ⟨S⟩ = {ak ∣
k ∈ Z} et le sous-groupe est dit cyclique.
Définition 1.4. Soit (G, ⋆) un groupe. Si G est un ensemble fini de n éléments,
on dit que G est un groupe d’ordre n, et on note ∣G∣ son ordre (i.e. son cardinal).
Définition 1.5. Soit (G, ⋆) un groupe et a ∈ G. On dit que l’ordre de a dans
G est l’ordre du groupe ⟨a⟩, si cela est fini, ou infini, autrement.
Exemple 1.3. a) Dans (Z, +), l’ordre de 0 est 1 et l’ordre de tout entier
non nul est infini.
b) Dans (Q ∖ {0}, ⋅), l’ordre de −1 est 2.
c) Dans (Z/6Z, +) l’ordre de la classe de 2 est 3.
Théorème 1.1 (Lagrange). Soient (G, ⋆) un groupe fini et H un sous-groupe
de G. Alors ∣H∣ divise ∣G∣. En particulier, l’ordre de tout élément de G divise
l’ordre de G.
Démonstration. On définit une relation ∼ sur G comme suit :
a∼b si a ⋆ b−1 ∈ H.
Cette relation est une relation d’équivalence (exercice) et, en tant que telle, elle
définit une partition de G en classes d’équivalence. La classe d’un élément a ∈ G
est
{b ∈ G ∣ a ∼ b} = {b ∈ G ∣ a ⋆ b−1 ∈ H} = {h ⋆ a ∣ h ∈ H}
et, puisque h ⋆ a = h′ ⋆ a implique h = h′ , toute classe a ∣H∣ éléments, de manière
que ∣G∣ est un multiple de ∣H∣. On notera Ha la classe de a.

1.3 Homomorphismes de groupes


Définition 1.6. Soient (G, ⋆) et (G′ , ⋆′ ) deux groupes. Une application f ∶ G → G′
telle que, pour tous a, b ∈ G,
f (a ⋆ b) = f (a) ⋆′ f (b),
8 CHAPITRE 1. GROUPES

est appelée homomorphisme de G dans G′ . Si en plus f est bijective, alors


f est dite isomorphisme.

Exemple 1.4. L’application exp ∶ R → R, qui associe à tout nombre réel r son
exponentiel er , est un homomorphisme de (R, +) dans (R ∖ {0}, ⋅).
L’application f ∶ Z/2Z → {−1, +1}, définie par 0 ↦ +1 et 1 ↦ −1, est un isomor-
phisme de (Z/2Z, +) dans ({−1, +1}, ⋅).

Proposition 1.2. Soient (G, ⋆) et (G′ , ⋆′ ) deux groupes, e et e′ leurs éléments


neutres respectives, et f ∶ G → G′ un homomorphisme.
a) On a e′ = f (e).
b) Pour tout a ∈ G, l’inverse de f (a) est f (a−1 ).
c) Si H est un sous-groupe de G, alors f (H) est un sous-groupe de G′ .
d) Le noyau de f , noté Ker(f ) et défini par Ker(f ) ∶= {a ∈ G ∣ f (a) = e′ },
est un sous-groupe de G.
e) L’homomorphisme f est injectif si et seulement si Ker(f ) = {e}.

Démonstration. Exercice.

1.4 Le groupe symétrique


Définition 1.7. Pour tout entier n > 0, l’ensemble de bijections de l’ensemble
{1, . . . , n} dans lui-même, muni de la loi de composition des applications, est un
groupe, qu’on note (Sn , ○) et qu’on appelle groupe symétrique de degré n.

Souvent, pour simplifier la notation, on note le composé par juxtaposition :


στ signifie σ ○ τ (attention que cette loi n’est pas commutative en général). On
sait bien que l’ordre de Sn est n!.

Définition 1.8. On appelle cycle de longueur r > 1 de Sn une permutation


σ ∈ Sn telle qu’il existe des éléments x1 , . . . , xr de {1, . . . , n} vérifiant σ(x1 ) =
x2 ,. . . ,σ(xr−1 ) = xr et σ(xr ) = x1 et telle que σ fixes les autres éléments. La
notation usuelle pour un cycle est σ = (x1 . . . xr ), l’entier n sous-entendu. Un
cycle de longueur 2 est appelé transposition.

Notons que la notation pour un cycle n’est pas unique. Par exemple, (1 3 5)
et (3 5 1) définissent le même cycle σ ∈ S5 , i.e. la permutation telle que σ(1) = 3,
σ(2) = 2, σ(3) = 5, σ(4) = 4 et σ(5) = 1. Il est facile de vérifier que l’ordre d’un
cycle de longueur r est r (exercice). On appelle cycles disjoints des cycles
(x1 . . . xr ) et (y1 . . . ys ) tels que {x1 , . . . , xr } ∩ {y1 , . . . , ys } = ∅. Des cycles
disjointes cummutent entre eux.

Proposition 1.3. Toute permutation se décompose en un produit de cycles


disjoints, de façon unique à l’ordre des cycles près.

Démonstration. Voir [JPE].


1.4. LE GROUPE SYMÉTRIQUE 9

Exercice 1.3. Écrire tout les éléments de S4 comme produit de cycles disjoints.

Proposition 1.4. Le groupe Sn est engendré par l’ensemble des transpositions


(autrement dit, toute permutation est produit de transpositions).

Démonstration. Voir [JPE]. Un ingrédient important de la preuve, d’un point


de vue constructif, est le suivant : on peut montrer par récurrence sur r que

(x1 . . . xr ) = (xr xr−1 ) . . . (xr x2 )(xr x1 ).

Exercice 1.4. Écrire tout les éléments de S4 comme produit de transpositions.

Définition 1.9. La signature d’une permutation est la fonction

σ(j) − σ(i)
ε ∶ Sn → Z, σ ↦ ε(σ) ∶= ∏ .
1≤i<j≤n j−i

Exemple 1.5. Le cycle σ = (1 3 2) ∈ S3 a signature

1−3 2−3 2−1


ε(σ) = ⋅ ⋅ = 1.
2−1 3−1 3−2
Exercice 1.5. Montrer que toute transposition a signature −1.

Proposition 1.5. L’application ε est un homomorphisme du groupe symétrique


(Sn , ○) dans le groupe ({−1, +1}, ⋅).

Démonstration. Voir [JPE].

Une conséquence immédiate de ce résultat (la preuve est laissée comme exer-
cice) est le théorème suivant.

Théorème 1.2. La signature d’une permutation σ dans Sn est égale à (−1)r ,


où r est le nombre de facteurs d’une décomposition de σ en produit de transpo-
sitions. En particulier, si

σ = τ1 τ2 . . . τr = τ1′ τ2′ . . . τr′ ′

sont deux décompositions de σ en produit de transpositions, alors r et r′ sont


de même parité.

Exercice 1.6. Calculer l’ordre et la signature des permutations (dans S6 ) sui-


vantes :
● (1 2 5 6 3 4) ;
● (1 2 3)(4 5) ;
● (1 2 3)(4 5 6) ;
● (1 2 3)(3 2 6)(4 5).
10 CHAPITRE 1. GROUPES

Exercice 1.7. Soient i, j deux entiers différents dans {1, . . . , n}. Trouver l’in-
verse de la transposition (i j) ∈ Sn . Quel est l’inverse du cycle

(x1 . . . xr ) = (xr xr−1 ) . . . (xr x2 )(xr x1 )?

En déduire que l’inverse de

(1 2 3 4 5)(6 7 8)

est
(1 5 4 3 2)(6 8 7).

On dira qu’une permutation qui se décompose en produit d’un nombre pair


(respectivement impair) de transposition est une permutation paire (respec-
tivement impaire).
Définition 1.10. Le noyau de l’homomorphisme de signature est un sous-
groupe de Sn appelé groupe alterné de degré n et noté An .

Exercice 1.8. Soit τ ∈ Sn une transposition. Montrer que

Sn = An ⊔ {σ ○ τ ∣ σ ∈ An },

où ⊔ veut dire union disjointe (i.e. l’intersection entre les deux ensembles est
vide). En déduire que l’ordre de An est n!/2.
Chapitre 2

Déterminant

Dans tout ce chapitre K désigne un corps (par exemple (Q, +, ⋅), (R, +, ⋅),
(C, +, ⋅) mais aussi (Z/pZ, +, ⋅) avec p premier).

2.1 Définition et premières propriétés


Nous savons qu’une matrice 2 × 2 à coefficients dans K, i.e. une matrice

a b
M ∶= ( ) ∈ Mat2 (K)
c d

est inversible si et seulement si a ⋅ d − b ⋅ c ≠ 0. Cette quantité représente le


déterminant d’une matrice 2 × 2. On veut généraliser cette notion à des matrices
carrées de taille n > 2.
Définition 2.1. Soit M = (mi,j ) une matrice carrée de taille n à coefficients
dans K. Le déterminant de M est un élément de K, noté det(M ) ou ∣M ∣,
défini par
det(M ) = ∑ ε(σ) ⋅ mσ(1),1 ⋅ mσ(2),2 ⋅ . . . ⋅ mσ(n),n
σ∈Sn

Exemple 2.1. Soit


⎛a1 b1 c1 ⎞
M = ⎜a2 b2 c2 ⎟
⎝a3 b3 c3 ⎠
Le déterminant de cette matrice est donné par

det(A) = a1 ⋅ b2 ⋅ c3 − a1 ⋅ b3 ⋅ c2 − a3 ⋅ b2 ⋅ c1 − a2 ⋅ b1 ⋅ c3 + a2 ⋅ b3 ⋅ c1 + a3 ⋅ b1 ⋅ c2 .

Exercice 2.1. Calculer le déterminant de

⎛2 4 0⎞
M = ⎜1 −2 1⎟ .
⎝0 −1 1⎠

11
12 CHAPITRE 2. DÉTERMINANT

Proposition 2.1. Une matrice carrée M a le même déterminant que sa trans-


posée M T .
Démonstration. Exercice.
On peut considérer l’application déterminant

det ∶ Matn (K) → K M → det(M )

qui associe à tout matrice son déterminant.


Tout ce qui suit reste vrai en remplaçant “colonne” par “ligne” (cela
est une conséquence directe de la Proposition 2.1).
On peut voir det comme une application de l’ensemble de colonnes de la
matrice :

det ∶ K n × . . . × K n → K (v1 , . . . , vn ) ↦ det((v1 ∣ . . . ∣vn )).

Théorème 2.1. L’application déterminant satisfait les propriétés suivantes :


a) dépend de façon linéaire de chaque colonne de la matrice, i.e.

det((v1 ∣ . . . ∣λvi + µwi ∣ . . . ∣vn )) =

= λ ⋅ det((v1 ∣ . . . ∣vi ∣ . . . ∣vn )) + µ ⋅ det((v1 ∣ . . . ∣wi ∣ . . . ∣vn )),


i.e. elle est une forme n-linéaire (ou multilinéaire) ;
b) vaut 0 lorsque deux colonnes sont égales, i.e. elle est une forme alter-
née ;
c) vaut 1 pour la matrice identité.
En plus, elle est l’unique application de Matn (K) dans K avec ces propriétés.

Démonstration. a) et c) sont une conséquence directe de la définition de déter-


minant. Montrons b) : soient i et j les indices des colonnes égales et τ = (i j) ∈
Sn . Par l’Exercice 1.8,
Sn = ⊔ {α, α ○ τ }.
α∈An

Donc
n n n
det(M ) = ∑ ε(σ)⋅ ∏ mσ(k),k = ∑ (ε(α)⋅ ∏ mα(k),k +ε(α○τ )⋅ ∏ mα(τ (k)),k ) =
σ∈Sn k=1 α∈An k=1 k=1

n n
= ∑ ( ∏ mα(k),k − ∏ mα(τ (k)),k )
α∈An k=1 k=1

et ce dernier est égal à zéro, car

mα(k),k = mα(τ (k)),k

pour tout k ≠ i, j et mα(i),i = mα(i),j , mα(j),j = mα(j),i . Pour l’unicité voir


[JPE].
2.2. MÉTHODES DE CALCUL DES DÉTERMINANTS 13

Le déterminant satisfait des autres propriétés, qui sont une conséquence de


la définition et de la caractérisation du déterminant donnée par le Théorème 2.1
et dont la preuve est laissée par exercice.
Proposition 2.2. Soient A ∈ Matn (K) et λ ∈ K.
a) Si une colonne de A est nulle alors det(A) = 0.
b) Le déterminant de A ne change pas lorsqu’on ajoute à une colonne une
combinaison linéaire des autres (on utilise souvent cette propriété pour
faire apparaître des zéros sur une ligne ou colonne).
c) Si les colonnes de A sont linéairement dépendantes, alors det(A) = 0.
d) Si l’on permute deux colonnes de A, le déterminant change de signe (mais
pas en valeur absolue).
e) det(λA) = λn det(A).
Démonstration. Exercice.
Exercice 2.2. Montrer que
RRR 1 1 −4 −2 RRR
RRR RRR
RRR 1 2 −3 0 RRR
RRR 1 3 −2 2 RRR = 0.
RRR RRR
RRR 1 4 −1 4 RRR

Exercice 2.3. Montrer par récurrence que le déterminant d’une matrice trian-
gulaire inférieure (resp. supérieure) est égal au produit de ses termes diagonaux,
i.e.
RRR a1,1 0 0 ⋯ 0 RRRR
RRRR R
RRR a2,1 a2,2 0 ⋯ 0 RRRR
RRR ⋮ ⋱ ⋱ ⋮ RRRR = a1,1 ⋅ a2,2 ⋅ ⋯ ⋅ an,n .
RRR R
RRR ⋮ ⋱ 0 RRRR
RRR a RR
R n,1 an,2 ⋯ ⋯ an,n RRR
Exercice 2.4. Calculer le déterminant de

⎛1 1 0 0 0⎞
⎜1 3 0 0 0⎟
⎜ ⎟
M ∶= ⎜1 3 3 0 0⎟ .
⎜ ⎟
⎜1 3 3 4 0⎟
⎝1 3 3 4 5⎠

2.2 Méthodes de calcul des déterminants


2.2.1 Méthode de Sarrus
Le déterminant d’une matrice 3×3 peut être calculé par la règle de Sarrus :
on sait que, par définition,
RRR a1,1 a1,2 a1,3 RRR
RRR RRR
RRR a2,1 a2,2 a2,3 RRR =
RRR a a3,2 a3,3 RRR
R 3,1 R
14 CHAPITRE 2. DÉTERMINANT

a1,1 a2,2 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2 − a3,1 a2,2 a1,3 − a3,2 a2,3 a1,1 − a3,3 a2,1 a1,2 .

On peut représenter ce déterminant par le schéma suivant :

+ + +
a1,1 a1,2 a1,3 a1,1 a1,2

a2,1 a2,2 a2,3 a2,1 a2,2

a3,1 a3,2 a3,3 a3,1 a3,2


− − −

Exemple 2.2. Si on veut calculer le déterminant de

⎛2 −1 −2⎞
M = ⎜6 −1 1⎟
⎝4 5 3⎠

on écrit

+ + +
2 −1 −2 2 −1

6 −1 1 6 −1

4 5 3 4 5
− − −

ce qui donne

det(M ) = (2) ⋅ (−1) ⋅ (3) + (−1) ⋅ (1) ⋅ (4) + (−2) ⋅ (6) ⋅ (5) − (4) ⋅ (−1) ⋅ (−2) − (5) ⋅
(1) ⋅ (2) − (3) ⋅ (6) ⋅ (−1) = −70.

Exercice 2.5. Calculer le déterminant de

⎛1 1 −2⎞
M ∶= ⎜1 3 0 ⎟.
⎝1 3 3⎠

2.2.2 Méthode du pivot de Gauss


On peut utiliser les propriétés b) et d) de la Proposition 2.2, par rapport aux
colonnes ou aux lignes, pour transformer une matrice donnée dans une matrice
triangulaire (inférieure ou supérieure), de manière que son déterminant soit plus
facilement calculable (voir l’Exercice 2.3). Cela s’appelle méthode du pivot
de Gauss.
2.2. MÉTHODES DE CALCUL DES DÉTERMINANTS 15

Exemple 2.3. Soit

⎛1 1 0 1⎞
⎜2 1 1 0⎟
M ∶= ⎜ ⎟.
⎜1 2 −1 1⎟
⎝−1 0 −1 −3⎠

En faisant L1 ← L1 , L2 ← L2 − 2L1 et L3 ← L3 − L1 et L4 ← L4 + L1 (ici Li est


la i-ème ligne de M et A ← B signifie qu’on remplace A par B), on obtient

⎛1 1 0 1⎞
⎜0 −1 1 −2⎟
M′ = ⎜ ⎟
⎜0 1 −1 0⎟
⎝0 1 −1 −2⎠
Ensuite, en faisant L1 ← L1 , L2 ← L2 , L3 ← L3 + L2 et L4 ← L4 + L2 , on obtient

⎛1 1 1 0⎞
⎜0 −1 −2 1⎟
M =⎜ ′′

⎜0 0 0 −2⎟
⎝0 0 0 −4⎠

Puisque on n’a utilisé que la propriétés b), on a que

det(M ) = det(M ′ ) = det(M ′′ ) = (1) ⋅ (−1) ⋅ (0) ⋅ (−4) = 0.

Exercice 2.6. Obtenir une matrice triangulaire inférieure à partir de la matrice


M ci-dessus, en faisant des combinaisons linéaires des colonnes.

Exercice 2.7. Montrer que


RRR 1 3 −1 1 RRR
RRR RRR
RRR 0 2 3 −1 RRR
RRR −1 −1 7 1 RRR = 24.
RRR RRR
RRR 1 1 −10 0 RRR

2.2.3 Méthode des cofacteurs (formules de Laplace)


Soit M ∈ Matn (K). On désigne par :
● Mi,j la matrice obtenue à partir de M par la suppression de la i-ème
ligne et de la j-ème colonne ;
● ∆i,j le cofacteur d’indices i et j dans M , i.e.

∆i,j ∶= (−1)i+j det(Mi,j ).

Développement par rapport à la i-ème ligne : le déterminant de M peut


être obtenu à partir des éléments de la i-ème ligne comme suit

det(M ) = ai,1 ∆i,1 + ai,2 ∆i,2 + ⋅ ⋅ ⋅ + ai,n ∆i,n .


16 CHAPITRE 2. DÉTERMINANT

Développement par rapport à la j-ème colonne : il s’obtient également à


partir des éléments de la j-ème colonne

det(M ) = a1,j ∆1,j + a2,j ∆2,j + ⋅ ⋅ ⋅ + an,j ∆n,j .

Voir [JPE] pour une preuve (par récurrence).


Exercice 2.8. Montrer que
RRR 0 0 0 0 1RRRR
RRR R
RRR 1 1 0 0 0RRRR
RRR 0 0 1 0 1RRRR = −5.
RRR R
RRR 1 2 3 4 0RRRR
RRR R
RR 4 3 2 1 1RRRR

Exercice 2.9. Montrer que


RRR 0 0 0 0 0 1RRR
RRR R
RRR 0 0 0 1 0 1RRRR
RRR R
RRR 5 0 0 0 0 0RRRR
R = 25.
RRR 0 1 1 0 0 0RRRR
RRR R
RRR 0 1 2 3 4 0RRRR
RRR 0 4 3 2 1 1RRRR

2.3 Déterminant, bases et rang


Soit E un espace vectoriel de dimension n, muni d’une base B = {e1 , . . . , en }
et soit {v1 , . . . , vn } une famille de n vecteurs de E. On peut définir

detB (v1 , . . . , vn )

comme le déterminant de la matrice carré d’ordre n dont les colonnes sont


formées par les coordonnées des vi dans la base B.
Un résultat important qui concerne les formes multilinéaires alternée est le
suivant (voir [JPE, Proposition 4 et 5] pour la preuve).
Proposition 2.3. Soient E un espace vectoriel et B = {e1 , . . . , en } une base de
E. Pour toute forme n-linéaire et alternée ϕ ∶ E n ↦ K on a

ϕ(v1 , . . . , vn ) = detB (v1 , . . . , vn ) ⋅ ϕ(e1 , . . . , en ).

Avec le déterminant on peut caractériser une base.


Proposition 2.4. Soient E un espace vectoriel et B = {e1 , . . . , en } une base de
E. Une famille B ′ = {e′1 , . . . , e′n } est une base de E si et seulement si

detB (e′1 , . . . , e′n ) ≠ 0.


2.3. DÉTERMINANT, BASES ET RANG 17

Démonstration. Si {e′1 , . . . , e′n } sont linéairement dépendantes, alors

detB (e′1 , . . . , e′n ) = 0

par la Proposition 2.2. Vice versa, si B ′ est une base, la Proposition 2.3 appliquée
à la forme detB′ (et le point c) du Théorème 2.1) nous donne

1 = detB′ (e′1 , . . . , e′n ) = detB (e′1 , . . . , e′n ) ⋅ detB′ (e1 , . . . , en ),

de manière que detB (e′1 , . . . , e′n ) ≠ 0.

Exemple 2.4. Montrons pour quelles valeurs de a, b ∈ R, les vecteurs :

⎛0⎞ ⎛a⎞ ⎛ b ⎞
⎜a⎟ ⎜ b ⎟ ⎜0⎟
⎝ b ⎠ ⎝0⎠ ⎝a⎠

forment une base de R3 .


Il suffit de calculer :
RRR0 a b RRRR
RRR
RRRRa b 0RRRR = −a3 − b3
R
RRR b 0 aRRRR
Si a3 = −b3 , i.e. si a = −b, alors les 3 vecteurs sont liés. Autrement les 3 vecteurs
forment une base de R3 .

Exercice 2.10. Soit E l’espace vectoriel des polynômes à coefficients dans R


de degré inférieur à 5 (une base pour cet espace vectoriel est donné par B =
{1, x, x2 , x3 , x4 }). Montrer que la famille

B ′ = {x4 , 1 + x, x2 + x4 , 1 + 2x + 3x2 + 4x3 , 4 + 3x + 2x2 + x3 + x4 }

forme une base pour E.

Exercice 2.11. Soit E = Mat2 (R). Quelle est une base canonique pour cet
espace vectoriel ? Est-ce que la famille

1 3 0 2 −1 −1 1 1
B ′ = {[ ],[ ],[ ],[ ]}
−1 1 3 −1 7 1 −10 0

forme une base pour E ?

Le rang d’une matrice (pas nécessairement carrée) est la dimension de l’es-


pace vectoriel engendré par ses colonnes ou par ses lignes. On peut le calculer
en utilisant le résultat suivant.

Proposition 2.5. Une matrice A est de rang r si et seulement si on peut


extraire de A une matrice carrée de taille r × r et de déterminant non nul et si
toute matrice extraite carrée de taille (r + 1) × (r + 1) a un déterminant nul.
18 CHAPITRE 2. DÉTERMINANT

Démonstration. Voir [JPE].

Exercice 2.12. Calculer le rang de la matrice à coefficient réels

⎛1 1 0 1 3⎞
⎜2 1 1 0 4⎟
M =⎜ ⎟.
⎜1 2 −1 1 3⎟
⎝−1 0 −1 −3 −5⎠

2.4 Matrice inverse


En utilisant le résultat du Théorème 2.1, on peut montrer la proposition
suivante.

Proposition 2.6 (Formule de Binet). Pour tous A, B ∈ Matn (K),

det(AB) = det(A) ⋅ det(B).

Démonstration. Si det(A) = 0, alors ses lignes a1 , . . . , an sont linéairement dé-


pendantes (voir section précédente), ce qui donne que les lignes a1 B, . . . , an B
de AB sont linéairement dépendantes, de manière que det(AB) = 0. Or, si
det(A) ≠ 0, l’application

fA ∶ Matn (K) → K B ↦ det(AB)/det(A)

vérifie les propriétés a), b) et c) du Théorème 2.1. Donc, pour l’unicité, on a


fA = det, ce qui conclu la preuve.

En particulier, si A est inversible, alors son déterminant est différent de zéro


et le déterminant de son inverse est 1/det(A). On a aussi le vice versa, i.e. si
det(A) ≠ 0, alors A est inversible, comme les résultats suivants montent.

Définition 2.2. La comatrice d’une matrice A ∈ Matn (K) est une matrice
comA ∈ Matn (K), dont les coefficients sont les cofacteurs de A, i.e.

(comA)i,j ∶= ∆i,j = (−1)i+j det Ai,j

où Ai,j est la sous-matrice carrée de taille n − 1 obtenue de A en supprimant la


i-ème ligne et la j-ème colonne.

Théorème 2.2. Pour toute matrice A ∈ Matn (K) on a

(comA)T A = det(A) ⋅ In .

En particulier, si det(A) ≠ 0, alors

A−1 = det(A)−1 ⋅ (comA)T . (2.1)

Démonstration. Exercice.
2.4. MATRICE INVERSE 19

Exemple 2.5. On veut calculer l’inverse de

⎛1 2 −1⎞
M = ⎜1 3 2 ⎟.
⎝2 5 2⎠

On calcule d’abord son déterminant (avec les formules de Laplace) :

det(M ) = 1(6 − 10) − 2(2 − 4) − 1(5 − 6) = −4 + 4 + 1 = 1.

Puis on calcule la comatrice :

⎛ + ∣3 2
∣ −∣
1 2
∣ +∣
1 3⎞

⎜ 5 2 2 2 2 5⎟
⎜ ⎟ ⎛−4 2 −1⎞
⎜ 2 −1 1 −1 1 2⎟
comM = ⎜
⎜− ∣5 ∣ +∣ ∣ −∣ ∣⎟ = ⎜−9 4 −1⎟ .
⎜ 2 2 2 2 5⎟⎟ ⎝7
⎜ ⎟ −3 1⎠
⎜ 2 −1 1 −1 1 2⎟
⎝+ ∣3 2
∣ −∣
1 2
∣ +∣
1 3
∣⎠

Donc
⎛−4 −9 7⎞
M −1
=⎜2 4 −3⎟ .
⎝−1 −1 1⎠

Exercice 2.13. Calculer l’inverse de

⎛1 2 0⎞
M = ⎜2 1 2⎟ .
⎝1 0 1⎠

Remarque 2.1. L’ensemble des matrice inversibles dans Matn (K) est un groupe
avec la multiplication des matrices. Il est appelé groupe général linéaire et
noté GLn (K). Clairement, il peut être caractérisé comme l’ensemble des ma-
trices dans Matn (K) qui ont déterminant non nul.

2.4.1 Règle de Cramer


La règle de Cramer est un procédé qui permet de trouver la solution d’un
système de n équations linéaires à n variables dont le déterminant est non nul.
Elle descend directement de la formule (2.1). En effet, si

Ax = b

avec A ∈ GLn (K) et x, b ∈ K n , alors

x = A−1 b = det(A)−1 ⋅ (comA)T b,


20 CHAPITRE 2. DÉTERMINANT

de manière que, pour tout i ∈ {1, . . . , n},


∑j=1 (−1)i+j det(Ai,j )bj
n
xi = .
det(A)
On peut éventuellement interpréter le numérateur comme un déterminant (on
ne va pas l’expliquer dans le cas général) comme montré dans les exemples
suivantes.
Exemple 2.6. Voyons la règle de Cramer appliquée au systèmes avec 2 équa-
tions et 2 variables. Si on a les équations


⎪A1 X + B1 Y = C1


⎪A X + B2 Y = C 2
⎩ 2

A B1
D=∣ 1 ∣ = A1 ⋅ B2 − A2 ⋅ B1 ≠ 0,
A2 B2
alors X = D1
D
et Y = D2
D
, où

C B1
D1 = ∣ 1 ∣ = C1 ⋅ B2 − B1 ⋅ C2
C2 B2
et
A1 C1
D2 = ∣ ∣ = A1 ⋅ C2 − A2 ⋅ C1 .
A2 C2
Exercice 2.14. Résoudre le système suivant avec la règle de Cramer :


⎪3X + 2Y = 12
⎨ .

⎪5X + 2Y = 16

Exemple 2.7. Voyons la règle de Cramer appliquée au systèmes avec 3 équa-
tions et 3 variables. Si on a les équations

⎪a11 x1 + a12 x2 + a13 x3 = b1



⎨a21 x1 + a22 x2 + a23 x3 = b2




⎩a31 x1 + a32 x2 + a33 x3 = b3

RRRa11 a12 a13 RRRR
R
D = RRRRRa21 a22 a23 RRRR ≠ 0
R
RRRa a32 a33 RRRR
R 31
alors les solutions du système sont données par
RRRb1 a12 a13 RRRR RRRa11 b1 a13 RRRR RRRa11 a12 b1 RRRR
RRR RRR RRR
RRRb2 a22 a23 RRRR RRRa21 b2 a23 RRRR RRRa21 a22 b2 RRRR
RRRb R R R
R 3 a32 a33 RRRR RRRa
R 31 b3 a33 RRRR RRRa
R 31 a32 b3 RRRR
x1 = x2 = x3 =
D D D
Chapitre 3

Diagonalisation et
triangularisation

3.1 Valeurs propres et espaces propres


Soit K un corps et E un K-espace vectoriel de dimension finie n. Étant
donné un endomorphism f ∶ E → E, on est intéressé à trouver une base de E
dans laquelle la matrice de f ait une forme simple.
Notation : si B1 et B2 sont deux bases de E, on indique avec µB1 ,B2 (f ) la
matrice de f dans les bases B1 (espace de départ) et B2 (espace d’arrivée). Si la
base de l’espace de départ et d’arrivée est la même (disons B), on indique µB (f )
la matrice de f .
Définition 3.1. Une valeur propre de f (resp. de A = µB (f )) est un élément
λ de K tel que det(f −λI) = 0 (resp. det(A−λIn ) = 0), où I est l’endomorphisme
identité (resp. In est la matrice identité).
La condition det(f − λI) = 0 équivaut à f − λI non injectif. L’ensemble des
valeurs propres de f (resp. de A) s’appelle spectre et il est noté spec(f ) (resp.
spec(A)).
Exemple 3.1. Soit
a b
A=[ ] ∈ Mat2 (R).
c d
Pour calculer spec(A) il suffit calculer les racines dans R de

a−λ b
det(A − λI) = ∣ ∣ = λ2 − (a + d)λ + ad − bc = 0.
c d−λ

Si ∆ ∶= a2 + d2 + 2ad − 4ad + 4bc = (a − d)2 + 4bc ≥ 0, alors



a+d± ∆
spec(A) = { }.
2

21
22 CHAPITRE 3. DIAGONALISATION ET TRIANGULARISATION

Autrement, A n’a pas de valeurs propres.


Dans le cas où ∆ ≥ 0, quelle est la somme des valeurs propres ? Et leur produit ?
Exercice 3.1. Soit
⎡1 −2⎤⎥
⎢ 2
⎢ ⎥
A = ⎢−4 −5 4 ⎥ ∈ Mat3 (R).
⎢ ⎥
⎢−4 −4 3 ⎥⎦

Montrer que spec(A) = {−1, 1}.
Exercice 3.2. Calculer les valeurs propres de
⎡ 0 −3 −2⎤
⎢ ⎥
⎢ ⎥
A=⎢2 7 4 ⎥ ∈ Mat3 (R).
⎢ ⎥
⎢−2 −6 −3⎥
⎣ ⎦
Exercice 3.3. Quelles sont les valeurs propres d’une matrice diagonale ? Et
d’une matrice triangulaire ?
Puisque f − λI n’est pas injectif si λ est une valeur propre, son noyau n’est
pas réduit au vecteur nul.
Définition 3.2. Un vecteur propre de f (resp. de A = µB (f )) associé à la
valeur propre λ est un vecteur non nul de ker(f − λI) (resp. de ker(A − λIn )).
Ce dernier est appelé l’espace propre de f (resp. de A) associé à λ.
Exemple 3.2. Reprenons l’exemple précédent. Soit
a b
A=[ ] ∈ Mat2 (R)
c d

avec ∆ ∶= (a − d)2 + 4bc > 0. Soient λ1 et λ2 les deux valeurs propres de A.


Soit i ∈ {1, 2}. Pour calculer les vecteurs propres associés à la valeur propre λi
on doit résoudre le système
a − λi b x 0
[ ][ ] = [ ]
c d − λi y 0
en sachant que le déterminant de ce système est nul, par définition. Donc on a
qu’une seule équation, par exemple la première
(a − λi )x + by = 0.
Ainsi, les vecteurs propres associés à λi sont de la forme
−µb
[ ]
µ(a − λi )
avec µ ∈ R. Autrement dit, l’espace propre de A associé à λi est
−b
Eλi = ⟨[ ]⟩.
a − λi
Montrer par exercice que Eλ1 et Eλ2 sont effectivement des espaces de dimension
1 (i.e., le générateur n’est pas nul). Que se passe-t-il si ∆ = 0 ?
3.1. VALEURS PROPRES ET ESPACES PROPRES 23

Exercice 3.4. Calculer les espaces propres associés aux valeurs propres de la
matrice A donnée dans l’Exercice 3.2.
Exercice 3.5. Montrer que les espaces propres associés aux valeurs propres de
la matrice A donnée dans l’Exercice 3.1 sont respectivement
⎡1⎤ ⎡0⎤ ⎡1⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
E−1 = ⟨⎢0⎥ , ⎢1⎥⟩ et E1 = ⟨⎢−2⎥⟩.
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1⎥ ⎢1⎥ ⎢−2⎥
⎣ ⎦ ⎣ ⎦ ⎣ ⎦
Remarque 3.1. Les vecteurs propres d’une application linéaire correspondent
aux axes privilégiés selon lesquels l’application se comporte comme une dilata-
tion, multipliant les vecteurs par une même constante. Ce rapport de dilatation
est la valeur propre.
Exercice 3.6. Soient λ1 et λ2 deux valeurs propres distinctes d’un endomor-
phisme f ∶ E → E. Montrer que les espaces propres E1 et E2 associés respecti-
vement à λ1 et λ2 ont intersection réduite à {0}.
Définition 3.3. Le polynôme caractéristique de f ou de A = µB (f ) est

χf (x) = χA (x) ∶= det(f − xI) = det(A − xI) ∈ K[x].

La définition est bien posée, car matrices semblables ont le même polynôme
caractéristique. En effet, si B = P −1 AP , on a B − xIn = P −1 (A − xIn )P , de
manière que

χB (x) = det(B − xIn ) = det(P −1 ) ⋅ det(A − xIn ) ⋅ det(P ) = χA (x).

Définition 3.4. On dit que f est diagonalisable s’il existe une base B de E tel
que µB (f ) est diagonale. Une matrice est diagonalisable si elle est semblable
à une matrice diagonale.
Remarque 3.2. Un endomorphisme f est diagonalisable si et seulement s’il
existe une base B de E formée de vecteurs propres.
Avant de voir une condition pour la diagonalisabilité, on fait de rappels sur
les polynômes.
Définition 3.5. Soit p(x) un polynôme dans K[x] et α une racine de p(x). La
multiplicité algébrique de α dans p(x) est définie par

mα (p(x)) ∶= max{t ∣ (x − α)t divise p(x)}.

On dit aussi que α est une racine d’ordre mα (p(x)) de p(x).


Lemme 3.1. Soit f un endomorphisme et λ une valeur propre de f . Alors

dim ker(f − λI) ≤ mλ (χf (x)).

Démonstration. Exercice.
24 CHAPITRE 3. DIAGONALISATION ET TRIANGULARISATION

Définition 3.6. Un polynôme p(x) dans K[x] est dit scindé s’il peut s’écrire
comme produit de polynômes de degré 1 à coefficients dans K.

Notons que la dernière définition dépend fortement du corps où on considère


les coefficients : par exemple x2 +1 est scindé sur C (en effet, x2 +1 = (x+i)(x−i)),
mais pas sur R.

Théorème 3.1. Un endomorphisme f ∶ E → E (resp. une matrice A) est


diagonalisable si et seulement si les deux conditions suivantes sont vérifiées :
a) χf (x) (resp. χA (x)) est scindé dans K[x] ;
b) la multiplicité algébrique de λ dans χf (x) (resp. dans χA (x)) est égale
à dim ker(f − λI) (resp. dim ker(A − λI)) pour tout valeur propre λ de f
(resp. de A).

Démonstration. On fait la preuve seulement pour f (la preuve pour A est com-
plètement analogue). Soient λ1 , . . . , λr les valeurs propres de f et E1 , . . . , Er les
espaces propres de f associés à ces valeurs.
L’Exercice 3.6 implique facilement (exercice) que leur somme est directe. On
a donc
E1 ⊕ . . . ⊕ Er ⊆ E. (3.1)
Par la Remarque 3.2, f est diagonalisable si et seulement si on a l’égalité dans
(3.1), i.e. si et seulement si dim(E1 ⊕ . . . ⊕ Er ) = dim E. Or,

dim(E1 ⊕ . . . ⊕ Er ) = dim E1 + . . . + dim Er ≤ mλ1 (χf (x)) + . . . + mλr (χf (x)).

La somme à droite est égale à dim E si et seulement si χf (x) est scindé et on


a l’égalité entre le deuxième et le troisième terme si et seulement si dim Ei =
mλi (χf (x)) pour tout i ∈ {1, . . . , r}.

Corollaire 3.1. Soit E un espace vectoriel sur K de dimension n et f un endo-


morphisme de E (resp. A une matrice dans Matn (K)). Si χf (x) (resp. χA (x))
a n racines distinctes deux à deux dans K, alors f (resp. A) est diagonalisable.

Démonstration. Cela suit du fait que si χf (x) (resp. χA (x)), qui est de degré
n, a n racines distinctes deux à deux dans K, alors il est forcement scindé, et
du fait que
1 ≤ dim ker(f − λI) ≤ mλ (χf (x)) = 1,
pour toute valeur propre λ, de manière qu’on a l’égalité.

Exemple 3.3. Soit f ∶ R3 → R3 l’application linéaire définie, dans la base


canonique de R3 , par la matrice
⎡−1 −1⎤⎥
⎢ 2
⎢ ⎥
A = ⎢−2 3 −2⎥ .
⎢ ⎥
⎢−1 1 0 ⎥⎦

3.1. VALEURS PROPRES ET ESPACES PROPRES 25

Pour vérifier si f est diagonalisable, on calcule d’abord son polynôme caracté-


ristique :
RRR−1 − x 2 −1 RRRR
R
χf (x) = χA (x) = RRRRR −2 3 − x −2 RRRR = (1 − x)(x2 − x + 1).
R
RRR −1 1 −xRRRR
R
Or, ce polynôme n’est pas scindé, de manière que la matrice n’est pas diagona-
lisable : la condition a) du Théorème 3.1 n’est pas vérifiée.
Exemple 3.4. Soit f ∶ R3 → R3 l’application linéaire définie, dans la base
canonique de R3 , par la matrice
⎡ 0 1 −1⎤
⎢ ⎥
⎢ ⎥
A = ⎢−1 2 −1⎥ .
⎢ ⎥
⎢−1 1 0 ⎥
⎣ ⎦
Pour vérifier si f est diagonalisable, on calcule d’abord son polynôme caracté-
ristique :
RRR−x 1 −1 RRRR
R
χf (x) = χA (x) = RRRRR −1 2 − x −1 RRRR = x2 (2 − x) + 1 + 1 − (2 − x) − x − x =
R
RRR −1 1 −xRRRR
R
= x2 (2 − x) − x = −x(x2 − 2x + 1) = −x(x − 1)2 ,
qui est scindé (de manière que la condition a) est satisfaite) et qui a racines 0
et 1, avec m0 (χf (x)) = 1 et m1 (χf (x)) = 2. La dimension de l’espace propre
associé à 0 est forcement égale à 1, donc on doit juste vérifier si la dimension
de l’espace propre associé à 1 est égale à 1 (dans ce cas, l’endomorphisme ne
serait pas diagonalisable) ou 2. Si on veut seulement connaître la dimension de
l’espace propre, on peut utiliser le théorème du rang, qui nous dit que
dim ker(A − λI) = n − rang(A − λI).
Dans ce cas, A − I a clairement rang 1, de manière que la dimension de l’espace
propre associé à 1 est 2. Donc, la condition b) du Théorème 3.1 est satisfaite
aussi, de manière que l’endomorphisme f est diagonalisable.
On veut trouver une base de R3 formée de vecteurs propres de f . L’espace
propre associé à 1 est donné par les solutions au système
(A − I)v = 0,
i.e.
⎡−1 1 −1⎤ ⎡v ⎤ ⎡0⎤
⎢ ⎥ ⎢ 1⎥ ⎢ ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢−1 1 −1⎥ ⎢v2 ⎥ = ⎢0⎥ ,
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢−1 1 −1⎥ ⎢v3 ⎥ ⎢0⎥
⎣ ⎦⎣ ⎦ ⎣ ⎦
i.e. les vecteurs tels que v1 = v2 − v3 . Une base de tel espace est donnée par
⎡1⎤ ⎡1⎤
⎢ ⎥ ⎢ ⎥
(1) ⎢ ⎥ ⎢ ⎥
b ⎢1⎥ et b = ⎢0⎥ .
(2)
⎢ ⎥ ⎢ ⎥
⎢0⎥ ⎢1⎥
⎣ ⎦ ⎣ ⎦
26 CHAPITRE 3. DIAGONALISATION ET TRIANGULARISATION

L’espace propre associé à 0 est donné par les solutions au système


Av = 0,
i.e.
⎡ 0 1 −1⎤ ⎡v ⎤ ⎡0⎤
⎢ ⎥ ⎢ 1⎥ ⎢ ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢−1 2 −1⎥ ⎢v2 ⎥ = ⎢0⎥ ,
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢−1 1 0 ⎥ ⎢v3 ⎥ ⎢0⎥
⎣ ⎦⎣ ⎦ ⎣ ⎦
i.e. les vecteurs tels que v1 = v2 = v3 . Une base de tel espace est donnée par
⎡1⎤
⎢ ⎥
⎢ ⎥
b = ⎢1⎥ .
(3)
⎢ ⎥
⎢1⎥
⎣ ⎦
La matrice de l’endomorphisme f dans la base b(1) , b(2) , b(3) est donc
⎡1 0 0⎤
⎢ ⎥
⎢ ⎥
⎢0 1 0⎥ .
⎢ ⎥
⎢0 0 0⎥
⎣ ⎦
Exemple 3.5. Soit
⎡4 0 ⎤⎥
⎢ 0
⎢ ⎥
A = ⎢−1 4 2 ⎥.
⎢ ⎥
⎢ 4 −8 −4⎥
⎣ ⎦
Pour vérifier si A est diagonalisable, on calcule d’abord son polynôme caracté-
ristique :
RRR4 − x 0 0 RRRR
R
χA (x) = RRRRR −1 4 − x 2 RRRR = −x2 (x − 4),
R
RRR 4 −8 −4 − xRRRR
R
qui est scindé (de manière que la condition a) est satisfaite) et qui a racines 0
et 4, avec m0 (χA (x)) = 2 et m4 (χA (x)) = 1. La dimension de l’espace propre
associé à 4 est forcement égale à 1, donc on doit juste vérifier si la dimension
de l’espace propre associé à 0 est égale à 1 (dans ce cas, l’endomorphisme ne
serait pas diagonalisable) ou 2. Si on veut seulement connaître la dimension de
l’espace propre, on peut utiliser le théorème du rang, qui nous dit que
dim ker A = 3 − rangA.
Dans ce cas, det A = 0 et les deux premières colonnes sont clairement libres, de
manière que rangA = 2. Ainsi, la dimension de l’espace propre associé à 0 est 1.
Donc, la condition b) du Théorème 3.1 n’est pas satisfaite et donc A n’est pas
diagonalisable.
Exercice 3.7. Montrer que la matrice
⎡1 2 1⎤
⎢ ⎥
⎢ ⎥
A = ⎢0 2 0⎥ ∈ Mat3 (R)
⎢ ⎥
⎢1 −2 1⎥
⎣ ⎦
est diagonalisable. Donner une base de R3 formée de vecteurs propres de A.
3.2. TRIANGULARISATION 27

Exercice 3.8. Pour quelles valeurs k ∈ R la matrice


⎡−9 3 ⎤⎥
⎢ k
⎢ ⎥
A=⎢0 k 0 ⎥ ∈ Mat3 (R)
⎢ ⎥
⎢3 0 −1⎥⎦

est diagonalisable ?

Exercice 3.9. Soit f ∶ R3 → R3 l’endomorphisme

f (x, y, z) = (x + ay + 3z, 2y + az, 4y + 2az)

où a ∈ R. Pour quelles valeurs de a l’endomorphisme f est diagonalisable ?


Pour a = 0, donner une base de R3 formée de vecteurs propres de f .

3.2 Triangularisation
Si on ne peut pas diagonaliser un endomorphisme, on souhaite quand même
le réduire dans une forme simple.

Définition 3.7. On dit que f est triangularisable s’il existe une base B de
E tel que µB (f ) est triangulaire. Une matrice est triangularisable si elle est
semblable à une matrice diagonale.

Soit A = (ai,j ) une matrice triangulaire représentant un endomorphisme f .


Alors
χf (x) = det(A − xI) = (a1,1 − x)⋯(an,n − x)
est scindé. En particulier, les valeurs propres de f sont les coefficients de la
diagonale de A.

Remarque 3.1. Rappelons que si B = {b1 , . . . , bn } est une base telle que µB (f )
est triangulaire supérieure, alors µB′ (f ), avec B ′ = {bn , . . . , b1 }, est triangulaire
inférieure. Donc les problèmes de représenter une matrice en forme triangulaire
supérieure ou inférieure sont équivalents.

Théorème 3.2. Soit E un K-espace vectoriel de dimension finie n et f ∈ L(E).


L’endomorphisme f est triangularisable si et seulement si le polynôme χf (x)
est scindé dans K[x].

Démonstration. On a déjà observé ⇒].


Montrons ⇐] par récurrence sur n (le cas n = 1 est clairement vrai). Soit

χf (x) = (x − λ1 )⋯(x − λn )

la factorisation de χf (x) en polynôme de degré 1 dans K[x] (les valeurs propres


ne sont pas nécessairement distinctes). Soit v1 un vecteur propre associé à λ1 et
28 CHAPITRE 3. DIAGONALISATION ET TRIANGULARISATION

soit B = {λ1 , e2 , . . . , en } une base de E (une telle base existe d’après le théorème
de la base incomplète). On a
⎡λ1 a1,n ⎤⎥
⎢ a1,2 ...
⎢0 a2,n ⎥⎥
⎢ a2,2 ...
A = µB (f ) = ⎢ ⎥.
⎢ ⋮ ⋮ ⋮ ⎥⎥

⎢0 an,2 ... an,n ⎥⎦

Soit E ′ l’espace vectoriel avec base B ′ = {e2 , . . . , en } et f ′ l’endomorphisme tel
que
⎡a ⎤
⎢ 2,2 . . . a2,n ⎥
⎢ ⎥
A = µB′ (f ) = ⎢ ⋮
′ ′
⋮ ⎥.
⎢ ⎥
⎢an,2 . . . an,n ⎥
⎣ ⎦
Le polynôme χ′f (x) est scindé : en effet χf (x) = (x−λ1 )χ′f (x). Puisque dim E ′ =
n − 1, on a, par hypothèse de récurrence, que f ′ est triangularisable, i.e. il existe
une base B ′′ {v2 , . . . , vn } telle que µB′′ (f ′ ) est triangulaire supérieure. Ainsi,
{v1 , . . . , vn } est une base pour laquelle f est triangulaire supérieure.
En particulier, tout endomorphisme d’un C-espace vectoriel est triangulari-
sable. On remarque aussi que la forme triangulaire qu’on peut obtenir n’est pas
unique.
Exercice 3.10. Soit f ∶ R3 → R3 l’application linéaire définie, dans la base
canonique de R3 , par la matrice
⎡4 5 −2⎤⎥

⎢ ⎥
A = ⎢−1 0 1 ⎥.
⎢ ⎥
⎢2 2 −1⎥⎦

Trouver une base B de R3 telle que µB (f ) est triangulaire supérieure.

Définition 3.8. Un drapeau d’un espace vectoriel E de dimension finie


n est une suite finie strictement croissante de sous-espaces vectoriels de E,
commençant par l’espace nul {0} et se terminant par l’espace total E :

{0} = E0 ⊂ E1 ⊂ ⋯ ⊂ Ek = E.

Si k = n et dim Ei = i pour tout i, alors le drapeau est dit total ou complet. Si


f ∈ L(E), on dit que le drapeau est stable par f si chaque f (Ei ) ⊆ Ei pour tout
i.
Théorème 3.3. Soit E un espace vectoriel de dimension finie. Un endomor-
phisme f ∈ L(E) est triangularisable si et seulement s’il existe un drapeau total
de E stable par f .
Démonstration. Exercice.
3.3. POLYNÔMES ET MATRICES 29

Exercice 3.11. Construire une matrice 2×2 sur R qui n’est pas triangularisable.
Exercice 3.12. Montrer que pour toute valeurs k ∈ R la matrice
⎡ −1 −2 0⎤⎥

⎢ ⎥
A=⎢ 2 3 0⎥ ∈ Mat3 (R)
⎢ ⎥
⎢k − 1 0 k ⎥⎦

est triangularisable mais pas diagonalisable.

3.3 Polynômes et matrices


Soit K un corps, E un K-espace vectoriel de dimension finie n et L(E) ≃
Matn (K) l’espace des endomorphismes de E. On connaît déjà l’évaluation d’un
polynôme dans K[x] sur un élément de K : si

p(x) = a0 + a1 x + ⋯ + at xt ∈ K[x] et β ∈ K

on a
p(β) = a0 + a1 β + ⋯ + at β t ∈ K.
On peut aussi évaluer un polynôme sur un endomorphisme ou sur une matrice.
En effet, on peut faire la somme d’endomorphismes ou de matrices, et si f est
un endomorphisme on a f n = f ○ f ○ ⋯ ○ f . Donc
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
n fois

p(f ) = a0 I + a1 f + ⋯ + at f t ∈ L(E)

et, si A ∈ Matn (K)

p(A) = a0 I + a1 A + ⋯ + at At ∈ Matn (K).

On a un homomorphisme d’anneaux ϕf ∶ K[x] → L(E) défini par ϕf (x) = f .


Définition 3.9. On dit qu’un polynôme p(x) annule un endomorphisme f si
p(f ) = 0. Un tel polynôme est dit polynôme annulateur de f .
Soit
If ∶= {p(x) ∣ p(f ) = 0} ⊆ K[x]
On a que If = Kerϕf est un idéal de K[x].
Proposition 3.1. Il existe un polynôme g(x) ∈ K[x] qui engendre If , c’est-à-
dire tel que
If = ⟨g(x)⟩ = {a(x)g(x) ∣ a(x) ∈ K[x]}.
Si If ≠ {0}, on a que g(x) est un polynôme non nul de degré minimal parmi les
polynômes de If .
30 CHAPITRE 3. DIAGONALISATION ET TRIANGULARISATION

Démonstration. Si If ≠ {0}, on n’a rien à montrer. Si If ≠ {0}, soit g(x) un


polynôme non nul de degré minimal parmi les polynômes de If . On a ⟨g(x)⟩ =
{a(x)g(x) ∣ a(x) ∈ K[x]} ⊆ If par définition d’idéal. Montrons l’autre inclusion.
Soit p(x) un polynôme de If . On veut montrer que p(x) est un multiple de
g(x). Or,
p(x) = q(x)g(x) + r(x),
avec soit r(x) = 0 soit deg r(x) < deg g(x). Mais r(x) = p(x) − q(x)g(x) ∈ If , et
g(x) est de degré minimal. Ainsi r(x) est forcement nul et p(x) est un multiple
de g(x).
Remarque 3.3. Cela est un cas particulier d’un fait plus générale : K[x] est un
anneau principal, i.e. un anneau où tout idéal est principal, c’est-à-dire engendré
par un seul élément.
Définition 3.10. Le polynôme unitaire mf (x) qui engendre l’idéal If est appelé
polynôme minimal de f .
Le polynôme minimal est le polynôme unitaire de degré minimal parmi tous
les polynômes annulateurs non nuls de f .
Proposition 3.2. Soit E un espace vectoriel sur K de dimension n et f ∈ L(E).
a) Si f est diagonalisable, alors il existe un polynôme p(x) ∈ K[x] annula-
teur de f , scindé et n’ayant que des racines simples.
b) S’il existe p(x) ∈ K[x] tel que p(f ) = 0, alors p(λ) = 0 pour toute valeur
propre λ de f .
Démonstration. a) Soit B = {b1 , . . . , bn } une base de vecteurs propres et
{λ1 , . . . , λk } l’ensemble des valeurs propres distinctes de f . Soit

p(x) = (x − λ1 ) ⋅ ⋯ ⋅ (x − λk ). (3.2)

On a

p(f ) = ϕf (p(x)) = ϕf (x − λ1 ) ○ ⋯ ○ ϕf (x − λk ) = (f − λ1 I) ○ ⋯ ○ (f − λk I)

avec le produit à droite commutatif (en effet, ϕf est un homomorphisme


et K[x] est commutatif). En évaluant p(f ) sur tout vecteur propre, on
a que un facteur est nul (celui qui correspond à son valeur propre), de
manière que p(f )(bi ) = 0 pour tout i. Donc p(f ) = 0.
b) Soit p(x) = a0 + ⋯ + at xt un annulateur de f , λ une valeur propre de f et
v un vecteur propre de f associé à λ. On a

0 = p(f )(v) = (a0 I + ⋯ + at f t )(v) = (a0 + ⋯ + at λt )(v) = p(λ)(v).

Puisque v ≠ 0, on a p(λ) = 0.

Exercice 3.13. Soit f diagonalisable et {λ1 , . . . , λk } l’ensemble des valeurs


propres distinctes de f . Montrer que le polynôme p(x) = (x − λ1 ) ⋅ ⋯ ⋅ (x − λk )
(voir (3.2)) est le polynôme minimal de f .
3.3. POLYNÔMES ET MATRICES 31

Exercice 3.14. Quel est le polynôme minimal de l’endomorphisme f ∈ L(R3 )


tel que
⎡1 2 1⎤
⎢ ⎥
⎢ ⎥
µB (f ) = ⎢0 2 0⎥ ∈ Mat3 (R),
⎢ ⎥
⎢1 −2 1⎥
⎣ ⎦
pour une base B de R3 ?

Théorème 3.4 (Théorème des noyaux). Soit E un espace vectoriel sur K de


dimension finie et f ∈ L(E).
a) Supposons qu’il existe p(x) = s(x)t(x) ∈ K[x] annulateur de f , avec
(s(x), t(x)) = 1. Alors

E = Kers(f ) ⊕ Kert(f ).

b) Supposons qu’il existe p(x) = p1 (x) ⋅ ⋯ ⋅ pk (x) ∈ K[x] annulateur de f ,


avec (pi (x), pj (x)) = 1 si i ≠ j. Alors

E = Kerp1 (f ) ⊕ ⋯ ⊕ Kerpk (f ).

Démonstration. a) Puisque (s(x), t(x)) = 1, d’après l’identité de Bezout on


sait qu’il existe u(x), v(x) ∈ K[x] tels que

u(x)s(x) + v(x)t(x) = 1.

Montrons que Kers(f )∩Kert(f ) = {0} : si w ∈ Kers(f )∩Kert(f ), alors

w = I(v) = u(f )(s(f )(w)) + v(f )(t(f )(w)) = 0.

Montrons que Kers(f ) + Kert(f ) = E : si w ∈ E, alors

w = I(w) = u(f )(s(f )(w)) + v(f )(t(f )(w)),


´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
w1 w2

et t(f )(w1 ) = s(f )(w2 ) = 0 (exercice). Donc w2 ∈ Kers(f ) et w1 ∈


Kert(f ).
b) Exercice.

On peut donc montrer une condition suffisante de diagonalisabilité.

Proposition 3.3. Soit E un espace vectoriel sur K de dimension finie et f ∈


L(E). Si il existe un polynôme p(x) ∈ K[x] annulateur de f , scindé et n’ayant
que des racines simples, alors f est diagonalisable.

Démonstration. Soit p(x) = (x−λ1 )⋅⋯⋅(x−λk ). Puisque λi ≠ λj si i ≠ j, on peut


appliquer le Théorème des noyaux pour montrer que E est la somme directe des
noyaux des endomorphismes f − λi I (certains pouvant être nuls). Cela implique
que f est diagonalisable.
32 CHAPITRE 3. DIAGONALISATION ET TRIANGULARISATION

Donc, pour résumer, on a que

f diagonalisable

∃p(x) ∈ K[x] scindé et n’ayant que des racines simples tel que p(f ) = 0.

Définition 3.11. On appelle projection (ou projecteur) de E tout endomor-


phisme p de E tel que p2 = p.

Si E = E1 ⊕ E2 , de manière que tout u ∈ E s’écrit de façon unique comme


u = u1 + u2 avec u1 ∈ E1 et u2 ∈ E2 , alors u ↦ u1 et u ↦ u2 sont deux projections.

Exercice 3.15. Montrer que toute projection est diagonalisable.

Exercice 3.16. Soit A une matrice carrée de taille n × n, avec n > 1, telle que
(A − 2I)5 = 0 et (A − 2I)2 ≠ 0. A est-elle diagonalisable ?

Le résultat suivant nous permettra de caractériser ce polynôme scindé et


n’ayant que des racines simples.

Exercice 3.17. Soit A ∈ Matn (K),

Q(x) = C0 + C1 x + ⋯ + Cm xm ∈ Matn (K)[x]

et
P (x) = Q(x)(A − xI).
Montrer que P (A) = 0.

Théorème 3.5 (Cayley-Hamilton). Soit E un K-espace vectoriel de dimension


finie. Tout endomorphisme f ∈ L(E) est annulé par son polynôme caractéris-
tique.

Démonstration. Soit A la matrice de f dans une base quelconque de E et soit

Q(x) = (com(A − xI))T ∈ Matn (K)[x].

Soit P (x) = Q(X)(A − xI). On sait que

P (x) = det(A − xI)I = χf (x)I

et par l’Exercice 3.17 on a

0 = P (A) = χf (A)I,

de manière que χf (A) = 0.

Exercice 3.18. Montrer que le polynôme minimal mf (x) divise le polynôme


caractéristique χf (x) pour tout endomorphisme f .
3.3. POLYNÔMES ET MATRICES 33

Remarque 3.4. En résumant les résultats précédents par rapport au polynôme


minimal, étant donné un endomorphisme f tel que χf (x) est scindé, on a la
situation suivante : si

χf (x) = (λ1 − x)r1 ⋯(λk − x)rk ,

avec ri ∈ Z, ri ≥ 1, alors

mf (x) = (x − λ1 )t1 ⋯(x − λk )tk

avec ti ∈ Z, 1 ≤ ti ≤ ri .
En particulier t1 = . . . = tk = 1 ssi f est diagonalisable.
Exercice 3.19. Trouver le polynôme minimale de la matrice A de l’Exercice
3.12 pour k = 1.
On peut utiliser le Théorème de Cayley-Hamilton pour calculer l’inverse d’un
endomorphisme ou d’une matrice. En effet, soit A une matrice et

χA (x) = a0 + a1 x + . . . + an xn

son polynôme caractéristique. Puisque χA (A) = 0, on a

A(a1 I + a2 A + . . . + an An−1 ) = −a0 I.

Si A est inversible, alors a0 = χA (0) = det A ≠ 0, et

A−1 = −a−1
0 (a1 I + a2 A + . . . + an A
n−1
).

Exercice 3.20. Utiliser cette méthode pour calculer l’inverse de


⎡0 1⎤⎥
⎢ 0
⎢ ⎥
A = ⎢1 2 1⎥ .
⎢ ⎥
⎢1 0 2⎥⎦

34 CHAPITRE 3. DIAGONALISATION ET TRIANGULARISATION
Chapitre 4

Orthogonalité

4.1 Produit scalaire


Définition 4.1. Soient K un corps, E un K-espace vectoriel et
ϕ∶E×E →K
une application. On dit que ϕ est bilinéaire si pour tous u, u′ , v, v ′ ∈ E et tout
λ∈K :
● ϕ(u + u′ , v) = ϕ(u, v) + ϕ(u′ , v) ;
● ϕ(u, v + v ′ ) = ϕ(u, v) + ϕ(u, v ′ ) ;
● ϕ(λu, v) = λϕ(u, v) = ϕ(u, λv).
On dit que ϕ est symétrique si pour tous u, v ∈ E :
● ϕ(u, v) = ϕ(v, u).
Soit K = R et ϕ ∶ E × E → R une forme bilinéaire symétrique. On dit que ϕ est
définie positive si pour tout u ∈ E :
● ϕ(u, u) ≥ 0 et ϕ(u, u) = 0 ssi u = 0.
Définition 4.2. Soit E un R-espace vectoriel. Une forme bilinéaire symétrique
définie positive sur E est appelée produit scalaire. On notera ⟨u, v⟩ le produit
scalaire de deux vecteurs u, v ∈ E.
Un R-espace vectoriel muni d’un produit scalair est appelé espace euclidien
s’il est de dimension finie et espace préhilbertien réel autrement.
Exemple 4.1. Soit E = Rn (muni de sa base canonique). L’application
⟨u, v⟩ = u1 v1 + ⋯ + un vn ,
pour u = (u1 , . . . , un ), v = (v1 , . . . , vn ) ∈ Rn , est un produit scalaire.
Exemple 4.2. Soit E = Matn (R). L’application
⟨A, B⟩ = ∑ ai,j bi,j = Tr(A B),
T
1≤i,j≤n

pour A = (ai,j ), B = (bi,j ) ∈ Matn (R), est un produit scalaire.

35
36 CHAPITRE 4. ORTHOGONALITÉ

Exemple 4.3. Soient I un intervalle fermé borné de R et E = Cont(I, R)


l’espace des fonctions continues de I dans R. L’application

⟨f, g⟩ = ∫ f (t)g(t)dt,
I

pour f, g ∈ Cont(I, R), est un produit scalaire.


Définition 4.3. Dans un espace muni d’un produit scalaire ⟨⋅, ⋅⟩, deux vecteurs
u et v sont dits orthogonaux si ⟨u, v⟩ = 0.
Exercice 4.1. Donner des exemples de vecteurs, matrices et fonctions continues
orthogonaux, en se référant aux produits scalaires définis dans les exemples ci-
dessus.
Soit E un espace euclidien de dimension n et soit B = {e1 , . . . , en } une base
de E. Soient
n n
u = ∑ ui ei et v = ∑ vi e i
i=1 i=1
deux vecteurs de E. Grâce à la bilinéarité du produit scalaire, on a

⟨u, v⟩ = ∑ ui vj ⟨ei , ej ⟩
1≤i,j≤n

En posant ai,j = ⟨ei , ej ⟩ et en tenant compte de la symétrie on a

⟨u, v⟩ = ∑ ai,i ui vi + ∑ ai,j (ui vj + uj vi )


1≤i≤n 1≤i<j≤n

et
⟨u, u⟩ = ∑ ai,i u2i + 2 ∑ ai,j ui uj .
1≤i≤n 1≤i<j≤n

On appelle matrice associée au produit scalaire de E dans la base B la


matrice Φ = (ai,j ).
Proposition 4.1. La matrice Φ est symétrique, inversible et

⟨u, v⟩ = (u1 , . . . un )Φ(v1 , . . . , vn )T .

Démonstration. Exercice.
Exemple 4.4. La matrice associée au produit scalaire de l’Exemple 4.1 est
l’identité.
Remarque 4.1. Dans la définition de produit scalaire on veut que le produit
scalaire d’un vecteur avec lui-même soit positif. Cette propriété ne peut être de-
mandé que sur un corps qui donne un sens à la notion de signe (éventuellement
on pourrait donc étendre la définition à ces corps). Cela exclut les corps finis,
par exemple. Pourtant, dans certains contextes comme la théorie des codes ou la
cryptographie, on parle de produit scalaire sur des espace vectoriels définie sur
corps finis, signifiant simplement une forme bilinéaire symétrique telle que sa
matrice associée est inversible.
4.1. PRODUIT SCALAIRE 37

Soit B ′ = {e′1 , . . . , e′n } une autre base de E. Si Φ′ = (⟨e′i , e′j ⟩) est la matrice
associée au produit scalaire de E dans la base B ′ , alors
Φ′ = P T ΦP,
où P = µB′ ,B (I), la matrice de changement de base.

Méthode de Gauss : on va présenter une méthode pour reconnaître si une


application ϕ ∶ E × E → R
ϕ ∶ (u, v) ↦ ∑ ai,i ui vi + ∑ ai,j (ui vj + uj vi )
1≤i≤n 1≤i<j≤n

est un produit scalaire. La seule chose à vérifier est si ϕ est définie positive. Le
problème revient donc à étudier
ϕ(u, u) = ∑ ai,i u2i + 2 ∑ ai,j ui uj ,
1≤i≤n 1≤i<j≤n

qui s’appelle forme quadratique.


La méthode de Gauss consiste à examiner d’abord si ai,i > 0 pour tout i. Si ce
n’est pas le cas, alors ϕ n’est pas définie positive (exercice).
Puis, on écrit séparément les termes où u1 intervient :
2 2
n ⎛ n a
1,j ⎞ 1 ⎛n ⎞
a1,1 u21 + 2 ∑ a1,j u1 uj = a1,1 u1 + ∑ uj − ∑ a1,j uj .
j=2 ⎝ j=2 a1,1 ⎠ a1,1 ⎝j=2 ⎠
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
f1 (u)

Ainsi
ϕ(u, u) = a1,1 f1 (u)2 + ϕ1 (u, u)
où ϕ1 (u, u) est une forme quadratique où u1 n’apparaît pas. On applique la
même méthode avec les termes en u2 et on recommence jusqu’à ce qu’il ne reste
aucun terme. On obtient une décomposition
ϕ(u, u) = α1 f1 (u)2 + α2 f2 (u)2 + . . . + αp fp (u)2 ,
où apparaissent des carrés de formes linéaires.
Si p = n et αi > 0 pour tout i, alors ϕ est définie positive, car ϕ(u, u) = 0
équivaut aux système triangulaire

⎪ f (u) = 0

⎪ 1
⎨ ⋮



⎩ fn (u) = 0
qui admet u = 0 comme seule solution.
Si p < n, le système précédent, il y a des solutions non nulles, donc ϕ n’est
pas définie positive.
Si p = n, mais il existe au moins un j tel que αj < 0, alors il existe un vecteur
u solution des équations fi (u) = 0, pour i ≠ j, tel que fj (u) ≠ 0, de manière que
ϕ(u, u) < 0. Ainsi, ϕ n’est pas définie positive.
38 CHAPITRE 4. ORTHOGONALITÉ

Exemple 4.5. Considérons n = 3 et la forme ϕ définie par


ϕ(u, u) = 2u21 + u22 + 2u23 − 4u1 u2 + 4u1 u3 − 2u2 u3 .
On a
f1 (u) = u1 − u2 + u3
et
1
ϕ1 (u, u) = − (−2u2 + 2u3 )2 + u22 + 2u23 − 2u2 u3 = −u22 + 2u2 u3 .
2
Ensuite, on a
f2 (u) = u2 − u3
et
ϕ2 (u, u) = u23 ,
de manière que f3 (u) = u3 , ϕ3 (u) = 0 et
ϕ(u, u) = 2(u1 − u2 + u3 )2 − (u2 − u3 )2 + u23
Dans ce cas, p = n, mais α2 = −1. Donc la forme n’est pas définie positive. En
effet, si on pose

⎪ u − u2 + u3 = 0

⎪ 1
⎨ u2 − u3 = 1



⎩ u3 = 0
⎡1⎤
⎢ ⎥
⎢ ⎥
on trouve u = ⎢1⎥ et on a que ϕ(u, u) = 2 ⋅ 0 − 1 ⋅ 1 + 0 = −1.
⎢ ⎥
⎢0⎥
⎣ ⎦
Exercice 4.2. Montrer que
ϕ(u, v) = 2u1 v1 + u2 v2 + 2u3 v3 − 2(u1 v2 + u2 v1 ) + 2(u1 v3 + u3 v1 ) − (u2 v3 + u3 v2 )
n’est pas un produit scalaire sur un espace vectoriel de dimension 3.
Exercice 4.3. Montrer que
ϕ(u, v) = 2u1 v1 + 3u2 v2 + 2u3 v3 − 2(u1 v2 + u2 v1 ) − (u2 v3 + u3 v2 )
est un produit scalaire sur un espace vectoriel de dimension 3.

4.2 Norme et angle


D’abord, on observe que, dans un espace vectoriel E muni de produit scalaire,
pour tous u, v ∈ E, u ≠ 0,
⟨u, v⟩
v− u
⟨u, u⟩
est un vecteur orthogonal a u, de manière que
⟨u, v⟩
v′ = u
⟨u, u⟩
est la projection orthogonale de v sur u.
4.2. NORME ET ANGLE 39

Définition 4.4. Soit E un espace vectoriel√muni d’un produit scalaire. On


appelle norme du vecteur u le scalaire ∥u∥ = ⟨u, u⟩.
Théorème 4.1 (Inégalité de Cauchy-Schwarz). Pour tous u, v ∈ E on a

∣⟨u, v⟩∣ ≤ ∥u∥ ⋅ ∥v∥.

et on a l’égalité si et seulement si u et v sont colinéaires.


Démonstration. Si u = 0, alors le résultat est trivialement vrai.
Supposons donc u ≠ 0, de manière que ∥u∥2 > 0. On a
2
⟨u, v⟩ ∥u∥2 ∥v∥2 − ⟨u, v⟩2
0 ≤ ∥v − u∥ = ,
⟨u, u⟩ ∥u∥2
d’où l’inégalité cherchée. On a l’égalité si et seulement si v est égale à sa pro-
jection orthogonale sur u, i.e. si et seulement si u et v sont colinéaires.
Proposition 4.2. La norme ∥ ⋅ ∥ ∶ E → R définie ci-dessus a les propriétés
suivantes :
● Pour tout u ∈ E, on a ∥u∥ ≥ 0 et ∥u∥ = 0 ssi u = 0 ;
● Pour tout u ∈ E et tout λ ∈ R, on a ∥λu∥ = ∣λ∣ ⋅ ∥u∥ ;
● Pour tous u, v ∈ E, on a ∥u + v∥ ≤ ∥u∥ + ∥v∥ (inégalité triangulaire) et
on a l’égalité ssi u, v sont colinéaires.
Démonstration. Le deux premières propriétés sont faciles à vérifier (exercice).
L’inégalité triangulaire suit de l’inégalité de Cauchy-Schwarz :

∥u + v∥2 = ∥u∥2 + 2⟨u, v⟩ + ∥v∥2 ≤ ∥u∥2 + 2∥u∥ ⋅ ∥v∥ + ∥v∥2 = (∥u∥ + ∥v∥)2 .

Remarque 4.2. On appelle norme une fonction ∥⋅∥ ∶ E → R avec ces propriétés.
Si la norme provient d’un produit scalaire, on a une relation entre les deux :
1
⟨u, v⟩ ∶= (∥u + v∥2 − ∥u∥2 − ∥v∥2 ) ,
2
pour u, v ∈ E.
Théorème 4.2 (Théorème di Pythagore). Deux vecteurs u, v dans E sont or-
thogonaux si et seulement si

∥u + v∥2 = ∥u∥2 + ∥v∥2 .

Démonstration. Cela résulte de ∥u + v∥2 = ∥u∥2 + 2⟨u, v⟩ + ∥v∥2 .


À partir de l’inégalité de Cauchy-Schwarz, on a
⟨u, v⟩
−1 ≤ ≤1
∥u∥∥v∥
pour tous u, v ∈ E non nuls. Donc, la définition suivante est possibile.
40 CHAPITRE 4. ORTHOGONALITÉ

Définition 4.5. Dans un espace muni d’un produit scalaire, on définit l’angle
(non orienté) de deux vecteurs non nuls comme le nombre réel θ de [0, π] tel
que
⟨u, v⟩
cos θ = .
∥u∥∥v∥
Exercice 4.4. Soit E l’espace vectoriel des polynômes réels de degré au plus
1
2, muni du produit scalaire ⟨p(x), q(x)⟩ ∶= ∫−1 p(t)q(t)dt. Calculer l’angle entre
p(x) ∶= x2 − 3x et q(x) ∶= x + 5.

4.3 Bases orthogonales et orthonormée


Définition 4.6. Dans un espace vectoriel E muni d’un produit scalaire, une
famille de vecteurs {e1 , . . . , ek } est dite orthogonale si ⟨ei , ej ⟩ = 0 pour tous
i, j, i ≠ j.

Proposition 4.3. Une famille orthogonale de vecteurs non nuls {e1 , . . . , ek } est
une famille libre.

Démonstration. Supposons qu’on ait λ1 e1 +. . .+λk ek = 0. Pour tout i ∈ {1, . . . , k}


on a
0 = ⟨ei , λ1 e1 + . . . + λk ek ⟩ = λi ∥ei ∥2 ,
de manière que λi = 0.

Exercice 4.5. Montrer que, pour tout entier positif n, les fonctions ck ∶ x ↦
cos(kx), pour k ∈ {0, . . . , n}, et sk ∶ x ↦ sin(kx), pour k ∈ {1, . . . , n}, forment
une famille libre de Cont([0, 2π], R).

Définition 4.7. Une base d’un espace euclidien est dite orthogonale si elle est
une famille orthogonale. Une base est dite orthonormée si elle est orthogonale
et la norme de tous ses éléments est 1.

On exprime souvent cette dernière condition de la manière suivante : B =


{e1 , . . . , en } est une base orthonormée d’un espace euclidien de dimension n si
⟨ei , ej ⟩ = δij (symbole de Kronecker) pour tous i, j ∈ {1, . . . , n}.
On peut toujours réduire une base orthogonale à une base orthonormée en
divisant chaque vecteurs pour sa norme.
Les bases orthonormées sont particulièrement intéressantes parce que la
norme, le produit scalaire et sa matrice associée ont une forme simple dans
ces bases (exercice).

Procédé d’orthogonalisation de Gram-Schmidt. Cette méthode permet


de construire une base orthogonale d’un espace euclidien à partir d’une base
quelconque. Soit E un espace euclidien de dimension n et B = {e1 , . . . , en } une
base de E. Le procédé suit les pas suivantes :
1. ε1 ∶= e1 .
4.4. SOUS-ESPACES ORTHOGONALES 41

⟨e2 , ε1 ⟩
2. ε2 ∶= e2 − ε1 .
∥ε1 ∥2
⟨e3 , ε1 ⟩ ⟨e3 , ε2 ⟩
3. ε3 ∶= e3 − ε1 − ε2 .
∥ε1 ∥ 2 ∥ε2 ∥2

n−1
⟨en , εi ⟩
n. εn ∶= en − ∑ εi .
i=1 ∥εi ∥
2

Notons que ⟨ε2 , ε1 ⟩ = 0 (exercice : illustrer ce fait avec un dessin). Supposons


que la famille {ε1 , . . . , εk−1 } soit orthogonale et montrons que {ε1 , . . . , εk } l’est
aussi. Cela revient à monter que, pour j < k, on a
k−1
⟨ek , εi ⟩ k−1
⟨ek , εi ⟩
⟨εk , εj ⟩ = ⟨ek − ∑ εi , εj ⟩ = ⟨ek , εj ⟩ − ∑ ⟨εi , εj ⟩ =
i=1 ∥εi ∥ 2
i=1 ∥εi ∥
2
k−1
= ⟨ek , εj ⟩ − ∑ ⟨ek , εi ⟩δij = ⟨ek , εj ⟩ − ⟨ek , εj ⟩ = 0.
i=1

Donc B ′ = {ε1 , . . . , εn } est une base orthogonale par récurrence. Notons aussi que
Vect(ε1 , . . . , εk ) = Vect(e1 , . . . , ek ) pour tout k ∈ {1, . . . , n}, par construction.
Exemple 4.6. Soit E = R2 [x] = {ax2 + bx + c ∣ a, b, c ∈ R}, muni du produit sca-
1
laire ⟨p(x), q(x)⟩ = ∫0 p(t)q(t)dt. Une base pour cette espace est B = {1, x, x2 },
qui n’est pas orthogonale. On utilise le procédé d’orthogonalisation de Gram-
Schmidt pour obtenir une base orthogonale à partir de B.
1. ε1 ∶= 1.
1
∫0 tdt 1
2. ε2 ∶= x − 1
=x− .
∫0 1dt 2
1 2 1
∫0 t dt ∫0 t (t − 2 ) dt
2 1
1 1
3. ε3 ∶= x2 − 1
− (x − ) = x2 − x + .
1 1 2 2 6
∫0 1dt ∫0 (t − 2 ) dt
Ainsi, B ′ = {1, x − 12 , x2 − x + 61 } est une base orthogonale de l’espace euclidien
R2 [x] muni du produit scalaire indiqué.
Exercice 4.6. Appliquer le procédé de Gram-Schmidt à la base

1 0 1 0 0 1 1 0
B ∶= {[ ],[ ],[ ],[ ]}
0 0 0 1 1 0 1 0

de l’espace euclidien Mat2 (R) muni du produit scalaire ⟨A, B⟩ = Tr(AT B).

4.4 Sous-espaces orthogonales


Soit E un espace euclidien et soit F un sous-espace de E. L’ensemble

F ⊥ = {v ∈ E ∣ ⟨v, f ⟩ = 0, ∀f ∈ F }
42 CHAPITRE 4. ORTHOGONALITÉ

est un sous-espace de E (exercice) qui s’appelle sous-espace orthogonale à F .


On peut définir également le sous-espace orthogonale à un partie A de E comme
(Vect(A))⊥ . On vérifie facilement que (Vect(f1 , . . . , fk ))⊥ = {v ∈ E ∣ ⟨v, fi ⟩ =
0, ∀i ∈ {1, . . . , k}}
Proposition 4.4. Soit E un espace euclidien et F un sous-espace de E. On a
1. E = F ⊕ F ⊥ ;
2. dim F + dim F ⊥ = dim E ;
3. si F ′ un sous-espace vectoriel de E tel que F ′ ⊆ F , alors F ⊥ ⊆ (F ′ )⊥ ;
4. (F ⊥ )⊥ = F .
Démonstration. 1. Soit {ε1 , . . . , εn } une base orthonormée de E telle que
{ε1 , . . . , εk } est une base de F (exercice : montrer qu’une telle base existe).
Soit F ′ le sous-espace engendré par {εk+1 , . . . , εn }. On doit juste montrer
que F ⊥ ⊆ F ′ (le reste est trivial). Soit u = u1 ε1 + . . . + un εn ∈ F ⊥ . On a
ui = ⟨u, εi ⟩ = 0 pour tout i ∈ {1, . . . , k}. Ainsi u ∈ F ′ .
2. C’est une conséquence directe de 1..
3. C’est une conséquence directe de la définition.
4. On a facilement que F ⊆ (F ⊥ )⊥ . L’égalité suit de la propriété suivante :

dim F + dim F ⊥ = dim E = dim F ⊥ + dim(F ⊥ )⊥ ,

de manière que dim F = dim(F ⊥ )⊥ .

Remarque 4.3. Les trois dernières propriétés sont vraies (exercice) pour des
formes bilinéaires symétriques avec matrice associée inversible, sur n’importe
quel corps (fini aussi).
Soit E un espace euclidien et soit u un vecteur non nul de E. Notons ϕ ∶
E × E → R le produit scalaire. Pour u ∈ E, l’application

ϕu ∶ v ↦ ϕ(u, v)

est une application linéaire de E dans R. Elle appartient donc à l’espace E ∗ ,


dual de E (l’ensemble des applications linéaires de E dans R).
Exercice 4.7. Montrer que l’application u ↦ ϕu est un isomorphisme d’espace
vectoriels entre E et E ∗ .
Exercice 4.8. Montrer que, pour tout sous-espace F de E,

F ⊥ = ⋂ Kerϕu
u∈F

(qui est l’intersection des hyperplans orthogonaux aux vecteurs de F ).


Exercice 4.9. Soit F le sous-espace de R4 , muni avec le produit scalaire stan-
dard, engendré par (1, 2, 3, 4) et (1, −2, 1, −2). Déterminer une base de F ⊥ .
4.5. TRANSFORMATIONS ORTHOGONALES 43

Exercice 4.10. Soit E l’espace vectoriel des polynômes à coefficients réels de


degré ≤ 2 muni du produit scalaire
1
⟨p(x), q(x)⟩ = ∫ p(t)q(t)dt.
0

Soit F le sous-espace engendré par x2 − 1 et x + 3. Déterminer F ⊥ .

4.5 Transformations orthogonales


Soient E et E ′ deux espaces euclidiens avec produit scalaire ϕE et ϕE ′ res-
pectivement. Appelons ∥⋅∥E et ∥⋅∥E ′ les normes associées à ces produits scalaires.

Proposition 4.5. Soit f ∶ E → E ′ une application linéaire. Les conditions


suivantes sont équivalentes :
1. pour tous u, v ∈ E, on a ϕE ′ (f (u), f (v)) = ϕE (u, v) ;
2. pour tout u ∈ E, on a ∥f (u)∥E ′ = ∥u∥E .

Démonstration. Exercice.

Définition 4.8. Une application linéaire f ∶ E → E ′ qui vérifie l’une des condi-
tions ci-dessus est dite transformation orthogonale.

L’ensemble des transformations orthogonales de E dans lui-même et la com-


positions des applications forment un groupe (exercice) appelé groupe ortho-
gonale de E et noté O(E).

Proposition 4.6. Soit E un espace euclidien, B une base orthonormée de E


et f ∶ E → E une application linéaire. On pose A = µB (f ). Alors f est une
transformation orthogonale si et seulement si

AT A = AAT = I.

Démonstration. Exercice.

Une matrice carrée A telle que AT A = I est appelée matrice orthogonale.

Exercice 4.11. Montrer que les matrices suivantes sont orthogonales (pour tout
θ ∈ R) :
cos θ − sin θ cos θ sin θ
C=( ) et D = ( )
sin θ cos θ sin θ − cos θ

Soit E = R2 muni du produit scalaire standard. Quelle est la norme de

(3 cos θ − 4 sin θ, 3 sin θ + 4 cos θ)

pour θ ∈ R ?
44 CHAPITRE 4. ORTHOGONALITÉ

4.6 Endomorphisme adjoint et autoadjoint


Soit E un espace euclidien et f ∈ L(E). Il existe un unique endomorphisme,
noté f ∗ , appelé adjoint de f , tel que pour tous u, v ∈ E, on ait :

⟨f (u), v⟩ = ⟨u, f ∗ (v)⟩.

Si B est une base orthonormée de E, µB (f ∗ ) = (µB (f ))T .


Définition 4.9. Un endomorphisme f ∈ L(E) est dit autoadjoint ou symé-
trique si, pour tous u, v ∈ E, on a

⟨f (u), v⟩ = ⟨u, f (v)⟩,

i.e. si f ∗ = f .
Un endomorphisme est autoadjoint ssi (µB (f )) = (µB (f ))T (B base ortho-
normée), i.e. ssi sa matrice dans une base orthonormée est symétrique.

Théorème 4.3 (Théorème spectral en dimension finie). Tout endomorphisme


autoadjoint d’un espace euclidien est diagonalisable dans une base orthonormale
et ses valeurs propres sont toutes réelles.
Exercice 4.12. Soient E = R3 , muni du produit scalaire standard, et B sa base
canonique. Montrer que f ∈ L(E) tel que
⎡1 0⎤⎥
⎢ k
⎢ ⎥
µB (f ) = ⎢k 0 1⎥
⎢ ⎥
⎢0 1 k ⎥⎦

est diagonalisable pour tout k ∈ R.
Quel est le polynôme minimal de f pour k = 0 ?
Question difficile : en sachant que k + 1 est une valeur propre pour f , montrer
que le polynôme minimal de f est de degré 2 si et seulement si k = 0.
Exercice 4.13. Soit A une matrice symétrique réelle telle que An = I pour un
certain entier n ≥ 3. Montrer que A2 = I.
Bibliographie

[JPE] Jean-Pierre Escofier. Toute l’algèbre de la licence. 2006.

45

Vous aimerez peut-être aussi