0% ont trouvé ce document utile (0 vote)
66 vues124 pages

Algebre PC Enonces

Transféré par

Smail RCA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
66 vues124 pages

Algebre PC Enonces

Transféré par

Smail RCA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Collège Stanislas

PC

Cours d’Algèbre

 4 1 6
Multiplication par A  2 1 6
2 1 8

Alexandre CASAMAYOU-BOUCAU
Made in Béarn

Année scolaire 2011-2012 - Version 7.0


Table des matières

1 Structures algébriques 1
1 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2 Calcul dans un anneau et dans une algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Rappels d’algèbre linéaire 5


1 Exemples d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3 Foire aux questions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3 Espaces vectoriels, compléments 9


1 Somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2 Décomposition de E en somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4 Dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5 Trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4 Déterminants 22
1 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2 Déterminant de n vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5 Développement d’un déterminant suivant une rangée . . . . . . . . . . . . . . . . . . . . . . 35
6 Résolution des systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

5 Réduction des endomorphismes 40


1 Sous-espaces vectoriels stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2 Valeurs propres, vecteurs propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . 42
3 Valeurs propres, vecteurs propres d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . 46
4 Polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7 Applications de la réduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

6 Espaces préhilbertiens 64
1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

7 Espaces euclidiens 83
1 Résumé des épisodes précédents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2 Isomorphisme naturel (canonique) de E sur son dual . . . . . . . . . . . . . . . . . . . . . . 86
3 Endomorphismes symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4 Automorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6 Réduction des endomorphismes symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

8 Coniques et quadriques 108


1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
2 Recherche d’un centre éventuel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
3 Réduction de la forme quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4 Quadriques usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5 Les quadriques propres qui contiennent des droites . . . . . . . . . . . . . . . . . . . . . . . 115
6 Appendice : Formulaire sur les coniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

Index 119

Ce cours a été composé en LATEX à l’aide de l’éditeur de texte Vim sous système d’exploitation Linux Ubuntu.
Structures
algébriques 1
1 Rappels
1.1 Groupes
pG, q est un groupe si, et seulement si,
•  est une loi de composition interne, associative, avec un élément neutre noté e ;
• tout élément g P G admet un inverse (dans G) :

@g P G, Dt P G, g  t  t  g  e
Le groupe pG, q est commutatif ou abélien si, et seulement si, la loi de composition interne  est
commutative.
Une partie H € G est un sous-groupe de pG, q si, et seulement si,

• ePH;
• stable par * : @ph, h1 q P H 2 , h  h1 P H ;
• stabilité par passage à l’inverse : @h, h P H ùñ h1 P H.
Une application u : pG, q Ñ pG, q est un morphisme de groupes si, et seulement si,

@pg, g1 q P G2 , upg  g1 q  upgq  upg1 q


Quelques exemples de goupes commutatifs : pZ, q, pR, q,pC, q, . . . 
Quelques exemples de goupes non commutatifs : GLpE q,  , GLn pKq,  , . . .

Exemple 1.1. On note SL2 pZq l’ensemble des matrices carrées d’ordre 2, à coefficients dans Z
et de déterminant 1 ; autrement dit
"  *

SL2 pZq  P p q  bc  1
a b
M2 Z  ad
c d

Montrer que pSL2 pZq, q est un groupe.

1.2 Anneaux
pA, , q est un anneau si, et seulement si,
• pA, q est un groupe commutatif ;
•  est une loi de composition interne, associative, avec élément neutre et distri-
butive par rapport à .

L’anneau pA, , q est dit commutatif si, et seulement si, la loi  est commutative.
Une partie B € A est un sous-anneau de pA, , q si, et seulement si,

• pB, q est un sous-groupe de pA, q ;


•  est stable sur B et l’élément neutre e P B.
2 Cours d’algèbre - PC Collège Stanislas

Une application u : pA, , q Ñ pA, `, q est un morphisme d’anneaux si, et seulement si,

@pa, a1 q P A2 , upa a1 q  upaq ` upa1 q et upa  a1 q  upaq  upa1 q

Quelques exemples d’anneaux commutatifs : pZ, , q, pKrXs, , q, . . . 


Quelques exemples d’anneaux non commutatifs : LpE q, ,  , Mn pKq, ,  , . . .
! ? ?  )
Exemple 1.2. On note E  a c 4  pa, b, cq P Q3 . Montrer que E est un anneau.

b 2
3 3

1.3 Corps
pK, , q est un corps si, et seulement si,
• pK, , q est un anneau ;
• tout élément non nul de K admet un inverse pour la loi .
Le corps pK, , q est dit commutatif si, et seulement si, la loi  est commutative. 
Quelques exemples de corps commutatif : pQ, , q, pR, , q, pC, , q, KpX q, ,  le corps
des fractions rationnelles à coefficients dans le corps K, . . .
Exemple 1.3. On note
"   *
b 
E  M pa, bq  pa, bq P R2
a
b a 
Montrer que l’ensemble E est un corps.

1.4 Espace vectoriel


pE, , q est un K-espace vectoriel si, et seulement si,
• pE, q est un groupe commutatif ;
• @pu, u1 q P E 2 , @λ P K, λ  pu u1 q  pλ  uq pλ  u1 q
• @u P E, @pλ, µq P K2 , pλ µq  u  λ  u µ  u
• @u P E, @pλ, µq P K2 , pλ  µq  u  λ  pµ  uq
• @u P E, 1K  u  u
Une partie F € E est un K-sous-espace vectoriel de E si, et seulement si,
• 0E P F
• @pu, vq P F 2 , @pλ, µq P K2 , λ  u µ  v P F

1.5 Algèbre
pA, , , q est une K-algèbre si, et seulement si,
• pA, , q est un K-espace vectoriel ;
• pA, , q est un anneau ;
• @pa, a1 q P A2 , @λ P K, λ  pa  a1 q  pλ  aq  a1  a  pλ  a1 q
La K-algèbre pA, , , q est dite commutative si, et seulement si, la loi interne  est commutative.
Une partie B € A est une K-sous-algèbre de A si, et seulement si,
• pB, , q est un K-sous-espace vectoriel de pA, , q ;
•  est stable sur B et l’élément neutre e P B.
Une application u : pA, , , q Ñ pA, `, d, bq est un morphisme d’algèbres si, et seulement si,

@pa, a1 q P A2 , @λ P K, upλ  a a1 q  λ d upaq ` upa1 q, et upa  a1 q  upaq b upa1 q


Quelques exemples d’algèbres commutatives : pKrX s, , , q, . .. 
Quelques exemples d’algèbres non commutatives : LpE q, , ,  , Mn pKq, , ,  , . . .
Structures algébriques 3

Exemple 1.4. On note


"   *
b 
E  M pa, bq  pa, bq P R2
a
b a 

Montrer que l’ensemble E est une sous-algèbre de M2 pRq.

2 Calcul dans un anneau et dans une algèbre


2.1 Calcul dans un anneau
Dans la suite, pA, , q désigne un anneau.

Notation. Soit x P A et n P N. "


0x  0A
On définit par récurrence :
nx
@n P N , nx  pn  1qx x
"
x  1A
0
On définit xn par récurrence :
@n P N , xn  xn1  x
Proposition 1 (Formule du binôme de Newton).

Soit x et y deux éléments de A qui commutent (c.-à-d. x  y  y  x). Alors on a :


ņ  ņ 
x  y nk
n nk
@px, yq P A , @n P N, px
2
yq
n
 n k
k
 k
x  yk

k 0 k 0

Vocabulaire. Soit x P A.
x  u  1A
!
• On dit que x est inversible lorsqu’il existe u P A tel que
u  x  1A
Ñ
ã On note alors x1 u
• On dit que x est idempotent lorsque x2 x
 n
ãÑ On a alors @n P N , x  x

• On dit que x  0 est nilpotent lorsqu’il existe n P N tel que xn 


! 0n0
x 0
ãÑ On appelle alors indice de nilpotence de x l’entier n0 tel que
xn0 1  0
Exemples 1.5. Dans l’anneau pMn pKq, , q :

• Tout matrice carrée d’ordre n et de rang n est inversible.


• Les matrices idempotentes sont les matrices de projecteur.
• Toute matrice triangulaire stricte est nilpotente (réciproque fausse !).

Exemple 1.6. Soit x un élément d’un anneau A.


Montrer que x est idempotent ðñ 1A  x est idempotent.

Exemple 1.7. Soit x et y deux éléments idempotents d’un anneau A.


Montrer que x y est idempotent ðñ x  y  y  x  0

Exemple 1.8. Soit A un anneau.

a) Montrer que si x et y sont nilpotents et commutent, alors x y est nilpotent.


b) Montrer que si x est nilpotent et x  y  y  x, alors x  y est nilpotent.
c) Soit x P A nilpotent. Montrer que 1A  x est inversible et calculer son inverse.
4 Cours d’algèbre - PC Collège Stanislas

Exemple 1.9. Montrer que les matrices suivantes sont nilpotentes, et déterminer leur indice de
nilpotence :
   
0 1 0 0 0 1 0 0 0 1 0 0 0 1 1 1
0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 1
A
  B
  C
  D   
0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 1
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

2.2 Calcul polynomial dans une algèbre


Dans la suite, pA, , , q désigne une K-algèbre.

Notation. Soit x P A et P P KrX s. On note P  aj X j

j 0

On note P pxq  aj xj PA

j 0


Exemple 1.10. Soit A  a b
c d P M2 pKq et P  X 2  pa dqX pad  bcq. Calculer P pAq.

Proposition 2.
Soit x P A fixé. On définit
ϕx : KrX s ÝÑ A
P ÞÝÑ ϕx p P q  P p xq
Alors ϕx est un homomorphisme d’algèbres.

Remarque. Bien que A ne soit pas supposée commutative, on a pour tout x dans A et tous
polynômes P et Q :
P pxq  Qpxq  pP Qqpxq  pQP qpxq  Qpxq  P pxq

Définition 1.
Soit x P A et P P KrX s un polynôme non nul.
On dit que P est un polynôme annulateur de x lorsque P pxq  0.

Exemple 1.11.

• Soit p un projecteur d’un espace vectoriel E. Donner un polynôme annulateur de p.


• Soit s une symétrie d’un espace vectoriel E. Donner un polynôme annulateur de s.

• Donner un polynôme annulateur de A  ac db P M2 pKq.
• Donner un polynôme annulateur d’une matrice triangulaire stricte, carrée d’ordre n.

0 a a2
Exemple 1.12. Soit a P R . Donner un polynôme annulateur de la matrice A   1{a 0 a
1{a2 1{a 0

Exemple 1.13. Montrer que toute matrice carrée admet au moins un polynôme annulateur.

Exemple 1.14. Soit A une matrice carrée qui possède un polynôme annulateur P tel que
P p0q  0. Montrer que A est inversible.
Rappels
d’algèbre linéaire 2
Dans la suite K désigne R ou C.

1 Exemples d’espaces vectoriels


L’ensemble Kn .
L’ensemble des suites à valeurs dans K.
L’ensemble des fonctions définies sur un intervalle I € R, à valeurs réelles, complexes, ou à
valeurs dans Rn , dans Cn . Plus généralement, l’ensemble des fonctions définies sur un ensemble
quelconque X, à valeurs dans E, un K-espace vectoriel quelconque.

2 Applications linéaires
Soit E et F deux K-ev.
Une application u : E ÝÑ F est linéaire si, et seulement si,

@px, yq P E 2 , @pλ, µq P K2 , upλx µyq  λ upxq µ upyq


L’ensemble LpE, F q de toutes les applications linéaires de E vers F est un K-espace vectoriel.
L’image de u est un sev de E : Impuq  upE q  ty P F | Dx P E, y  upxqu
Le noyau de u est un sev de E : Kerpuq  tx P E | upxq  0u
Un isomorphisme de E sur F est une application linéaire et bijective.
Un endomorphisme de E est une application linéaire de E vers E. L’ensemble LpE q des endo-
morphismes de E muni de l’addition et de la composition des applications est une K-algèbre.
Un automorphisme de E est un endomorphisme bijectif de E. L’ensemble GLpE q des automor-
phismes de E muni de la composition des applications est un groupe non commutatif, appelé
groupe linéaire de E.

3 Foire aux questions


3.1 Comment montrer que F est K-espace vectoriel ?
En montrant l’une des propositions suivantes :

• F est un K-sous-espace vectoriel d’un K-espace vectoriel connu E, soit


 0PF;
 @pλ, µq P K2 , @px, yq, x P F et y P F ùñ λx µy P F ;
°pfamille pv1 , . . . , vp q de vecteurs,
• F est le sous-espace vectoriel engendré par une
c.-à-d. l’ensemble des combinaisons linéaires k1 λk xk avec pλ1 , . . . , λp q P Kp ;
• F est le noyau d’une certaine application linéaire ;
• F est l’image d’une certaine application linéaire.

Exemple 2.1. Soit pa1 , . . . , an q P Kn un n-uplet non nul.


Montrer que l’ensemble F  tx  px1 , . . . , xn q P Kn | a1 x1 ... a n xn  0u est un sev de Kn .
6 Cours d’algèbre - PC Collège Stanislas

3.2 Comment montrer l’égalité de deux sev F et G ?


En utilisant l’une des propositions suivantes :
• la double inclusion : F € G et G € F ;
• une inclusion suffit si on possède un renseignement sur la dimension :
*
F €G
dimpF q  dimpGq
ùñ F G
3.3 Comment montrer que la famille pv1 , . . . , vp q est une base de E ?
En utilisant l’une des propositions suivantes :
• la définition : la famille pv1 , . . . , vp q est une famille libre et génératrice de E ;
• une seule propriété suffit si on possède un renseignement sur la dimension :
*
dimpE q  p
la famille pv1 , . . . , vp q est libre
ùñ la famille pv1 , . . . , vp q est une base
*
dimpE q  p
la famille pv1 , . . . , vp q est génératrice
ùñ la famille pv1 , . . . , vp q est une base

Exemple 2.2. Soit n P N . Soit En l’ensemble des applications f : R ÝÑ R qui s’écrivent sous
la forme :

f pxq  a0 pak cospkxq bk sinpkxqq ,

k 1
où ak et bk sont des réels.
a) Montrer que En est un sev de RR .
b) Montrer que si f P En est l’application nulle, alors tous les coefficients ak et bk sont nuls.
rIndication : Considérer f 2 n2 f et raisonner par récurrences.
c) Montrer que la famille de p2n 1q fonctions
Fn  tx ÞÝÑ 1u Y tx ÞÝÑ cospkxq | 1 ¤ k ¤ nu Y tx ÞÝÑ sinpkxq | 1 ¤ k ¤ nu
forme une base de En .

3.4 Comment calculer la dimension d’un sous-espace vectoriel ?


En utilisant l’une des propriétés suivantes :
• la dimension de E est le cardinal, i.e. le nombre d’éléments, d’une base de E ;
• si E  F ` G, alors dim E  dim F dim G
• si E  F  G, alors dim E  dim F dim G
• si E  F G, alors dim E  dim F dim G  dim F XG (Formule de Grass-
mann)
• si E et F sont isomorphes, alors dim E  dim F
• si F est l’image ou le noyau d’une application linéaire u P LpE, Gq, on peut
utiliser :
dim E  dimpKer uq  dimpIm uq (Théorème du rang)

Exemple 2.3. Soit F et G deux sev d’un K-ev E de dimension finie.


On considère l’application linéaire f : F  G ÝÑ F G
px, yq ÞÝÑ x y
a) Déterminer le noyau et l’image de f .
b) En déduire la formule de Grassmann.
Rappels d’algèbre linéaire 7

3.5 Comment démontrer que E  F `G?


En utilisant l’une des propriétés suivantes :

• la définition :
@x P E, D!py, zq P F  G, x  y z
• la caractérisation : E  F G et F X G  t0u ;
• une seule propriété suffit si on possède un renseignement sur la dimension :
*
dimpE q  dimpF q dimpGq
EF G
ùñ E  F ` G;
*
dimpE q  dimpF q dimpGq
F X G  t0u
ùñ E  F ` G;

Exemple 2.4. a) Montrer que l’ensemble des fonctions paires et l’ensemble des fonctions
impaires sont deux sev supplémentaires de FpR, Rq.
b) Montrer que l’ensemble des matrices symétriques et l’ensemble des matrices antisymétriques
sont deux sev supplémentaires de Mn pKq.

3.6 Comment calculer le rang d’une famille de vecteurs, d’un système, d’une
matrice, d’une application linéaire ?
Ñ
ã En revenant aux définitions :

• le rang d’une famille de vecteurs est la dimension de l’espace vectoriel engendré


par cette famille, soit

rgpv1 , . . . , vp q  dim Vecttv1 , . . . , vp u

• le rang d’un système linéaire est le nombre de pivots après réduction sous forme
échelonnée en ligne.
• le rang d’une matrice est le rang de l’espace engendré par ses vecteurs colonnes.
• le rang d’une application linéaire est la dimension de son image :
rg f  dimpIm f q ¤ dim E

Ñ
ã Ou en utilisant l’une des propriétés suivantes :

• soit une famille pv1 , . . . , vp q de E et B une base de E. Alors

rgpv1 , . . . , vp q  rg prv1 sB , . . . , rvp sB q

De manière équivalente, le rang d’une famille de vecteurs pv1 , . . . , vp q est égal


au rang du système linéaire homogène associé à la matrice pru1 sB ; . . . ; rup sB |0q.
• si la famille pv1 , . . . , vp q est libre, alors rgpv1 , . . . , vp q  p
• si le vecteur vp est combinaison linéaire des vecteurs v1 , . . . , vp1 , alors
rgpv1 , . . . , vp q  rgpv1 , . . . , vp1 q
• les opérations élémentaires sur les lignes (resp. sur les colonnes) :

Li Ð Li λ  Lj avec i  j
Li Ð µ  Li avec µ  0
Li Ø Lj

ne modifient pas le rang d’une matrice.


• le rang d’une application linéaire est égal au rang de sa matrice (dans n’importe
quelles bases).

Exemple 2.5. Dans R3 rX s, quel est le rang de la famille p1 X X 2 , 7X, X  X 3q ?


8 Cours d’algèbre - PC Collège Stanislas

3.7 Comment déterminer l’image et le noyau d’une application linéaire ca-


noniquement associée à un matrice ?
Exemple 2.6. Soit f l’application linéaire canoniquement associée à la matrice A :

2 3 2 12 33
A
 6
 1 26 16 69 

 10 29 18 53 32
2 0 8 18 84

a) Déterminer le rang de f .
b) Déterminer une base de l’image de f .
c) Déterminer une base du noyau de f .

3.8 Comment calculer la matrice d’une application linéaire ?


Rappelons la définition de la matrice de l’application linéaire u P LpE, F q relativement aux bases
B  pe1 , . . . , ep q de E et C  pf1 , . . . , fn q de F : si Aj est la matrice colonne des composantes du
vecteur upej q relativement à la base C, alors

MatB,C puq  rai,j s1¤i¤n  pA1 , . . . , An q P Mn,p pKq


¤¤
1 j p

Si u P LpE q est un endomorphisme de E, on prend B  C et

MatB puq  rai,j s 1¤i¤n  pA1 , . . . , An q P Mn pKq


¤¤
1 j n

Comment calculer la matrice d’une application linéaire ? En utilisant l’une des propriétés sui-
vantes :
• la définition, voir ci-dessus ;
• si u  λv µw, alors MatB puq  λMatB pv q µMatB pv q ;
• si u  v  w, alors MatB puq  MatB pv q  MatB pwq ;
• utilisation d’une matrice de changement de bases P  PBÑB1  prv1 sB , . . . , rvp sB q :
MatB1 puq  A1  P 1 AP  PB1 ÑB MatB puqPBÑB1 (cas d’un endomorphisme)
• plus généralement, en posant P  PBÑB1 et Q  PCÑC1 , alors :

MatB1 ,C1 puq  A1  Q1 AP  PC1 ÑC MatB,C puqPBÑB1

Exemple 2.7. Soit f P LpRn rX sq l’endomorphisme défini par f pP pX qq  P pX 1q.


Déterminer la matrice représentant f dans la base p1, X, X 2 , ..., X n q.

Exemple 2.8. Soit f l’endomorphisme canoniquement associé à la matrice :


 
5 6 3
A 4 5 3
6 6 2
 
1 0 0
Déterminer une base B de R3 dans laquelle la matrice de f soit égale à D  0 1 0
0 0 2
et donner la matrice de passage entre la base canonique C de R3 et la base B.
Espaces vectoriels,
compléments 3
Sommaire
1 Somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1 Somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2 Somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 Supplémentaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Cas de la dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 Décomposition de E en somme directe . . . . . . . . . . . . . . . . . . . . . 12
2.1 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Cas de la dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.1 Isomorphisme de tout supplémentaire du noyau avec l’image . . . . . . . 14
3.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4 Dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.1 Espace dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.2 Hyperplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.3 Équation d’un hyperplan en dimension finie . . . . . . . . . . . . . . . . 19
5 Trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.1 Rappels sur la base canonique de Mn pKq . . . . . . . . . . . . . . . . . 19
5.2 Trace d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.3 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.4 Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . 21
10 Cours d’algèbre - PC Collège Stanislas

K désigne l’un des corps R ou C ; E et F sont des K-espaces vectoriels ; on note IdE (resp. IdF )
l’application identique de E (resp. de F ).

1 Somme directe
Dans ce paragraphe, q est un entier au moins égal à 2, et E1 , E2 , . . ., Eq désignent des K-sous-
espaces vectoriels de E.

1.1 Somme

Définition 2 (Somme de sous-espaces vectoriels).

On appelle somme des sous-espaces vectoriels E1 , . . . , Eq l’ensemble :

¸
q !¸
q  )
Ei  xi  px1 , . . . , xq q P E1      Eq


i 1 
i 1

Remarques.
°q
i1 Ei est l’image de l’application linéaire Φ : E1      Eq ÝÑ E
px1 , . . . , xq q ÞÝÑ x1  xq
°q
Ainsi,  Ei est un K-sous-espace vectoriel de E et
i 1
°q
Ψ : E1      Eq ÝÑ i 1 Ei
px1 , . . . , xq q ÞÝÑ x1  xq

est une application linéaire surjective.


”q °q
Si Gi est une famille génératrice de Ei , i 1  Gi est une famille génératrice de  Ei .
i 1

1.2 Somme directe

Définition 3 (Somme directe de sous-espaces vectoriels).


°q
On dit que la somme  Ei est une somme directe lorsque l’application linéaire Ψ
i 1

Ψ : px1 , . . . , xq q ÞÑ x1
   xq
°q
est un isomorphisme d’espaces vectoriels entre E1      Eq et i1 Ei .
à
q
Dans ce cas, la somme est notée Ei .

i 1

Théorème 1 (Caractérisation d’une somme directe).

Les propriétés suivantes sont équivalentes :


piq la somme °qi1 Ei est directe °q °q
piiq la seule décomposition de 0E dans i1 Ei est 0E  i1 0E
piiiq @x P °qi1 Ei , D!px1 , . . . , x q q P E1      Eq , x  °qi1 xi
i

pivq @k P J1, q  1K , °ki1 Ei X Ek 1  t0E u

Preuve. Puisque Ψ est une application linéaire surjective, Ψ est un isomorphisme si, et seule-
ment si, Ψ est une application injective.
i ðñ ii car piiq ðñ Ker Ψ  t0E u ðñ Ψ est injective ðñ Ψ est bijective ðñ piq
i ðñ iii car piiiq ðñ Ψ est bijective ðñ 
Ψ est injective ðñ piq
°k
i ùñ iv Soit k P J1, q  1K et x P i1 Ei X Ek 1
Espaces vectoriels, compléments 11

Il existe donc px1 , . . . , xk q P E1      Ek tel que x  x1  xk , i.e.


Ψpx1 , . . . , xk , 0Ek 1 , . . . , 0Eq q  Ψp0E1 , . . . , 0Ek , x, 0Ek 2 , . . . , 0Eq q
et, puisque Ψ est une application injective
px1 , . . . , xk , 0E , . . . , 0E q  p0E , . . . , 0E , x, 0E , . . . , 0E q
k 1 q 1 k k 2 q

ce qui montre que x  0E .


iv ùñ i Supposons l’application Ψ non injective ; il existe alors px1 , . . . , xq q P Ker Ψzt0E u,
i.e. x1    xq  0E avec pxi q1¤i¤q non tous nuls. On pose i0  maxti | xi  0u ; i0 est un
entier au moins égal à 2 et
1
i0¸
xi0  px1    xi0 1 q P Ei0 X Ei

i 1

ce qui est en contradiction avec l’hypothèse ; ainsi Ker Ψ est réduit à t0E u et Ψ est une application
injective. cqfd
Exemple 3.1. On se donne trois vecteurs u, v, w de Kn (avec n ¥ 4).
À quelle condition a-t-on K  u ` K  v ` K  w ?

Exemple 3.2. Soit pe1 , . . . , e2p q la base canonique de K2p .


à
p
Pour i P J1, pK, on note Fi le plan Fi  Vectpe2i1 , e2i q. A-t-on Fi ?

i 1

à
q 
Remarque. A-t-on Ei ùñ @pi, j q P J1, qK2 , ij ùñ Ei ` Ej ? Réciproque ?

i 1

Exemple 3.3. a) Calculer pour pk, lq P N2 les intégrales suivantes :


»π »π »π
sin kx sin lx dx ; cos kx cos lx dx ; cos kx sin lx dx
π π π
b) On se place dans E  CpR, Rq, le R-ev des fonctions continues sur R. Soit n P N fixé.
On note
f0 : x ÞÑ 1 et pour k P J1, nK , fk : x ÞÑ cos kx et gk : x ÞÑ sin kx
à
n
On note F0  Vectp1q et Fk  Vectpfk , gk q pour k P J1, nK. A-t-on Fk ?

k 1

1.3 Supplémentaire

Définition 4 (Sous-espace supplémentaire).

On dit que deux sous-espaces vectoriels V et W de E sont supplémentaires lorsque E est la


somme directe de V et W , soit
E V `W

Théorème 2 (Caractérisation des supplémentaires).

Les propriétés suivantes sont équivalentes


piq V et W sont supplémentaires (dans E) ;
piiq tout x de E s’écrit de manière unique x  v w avec pv, wq P V W ;
piiiq V W  E et V X W  t0E u.
12 Cours d’algèbre - PC Collège Stanislas

Preuve. C’est la démonstration précédente pour q  2 et V


 E. W cqfd
Exemple 3.4. Montrer que l’ensemble des matrices symétriques Sn pKq et l’ensemble des ma-
trices antisymétriques An pKq sont supplémentaires dans Mn pKq.

Exemple 3.5. Montrer que l’ensemble des l’ensemble des fonctions paires et l’ensemble des
fonctions impaires sont supplémentaires dans FpR, Kq.

Exemple 3.6. Si P est un polynôme de KrX s de degré n 1, l’ensemble pP q  tAP | A P KrX su


des multiples de P et l’ensemble Kn rX s des polynômes de degré au plus n, sont supplémentaires
dans KrX s.
KrX s  pP q ` Kn rX s avec deg P  n 1

1.4 Cas de la dimension finie

Théorème 3 (Somme directe et dimension).


°q
Si E est un K-ev de dimension finie, la somme  Ei est directe si, et seulement si,
i 1


q ¸
q
dim Ei  dim Ei

i 1 
i 1

°q
Preuve. Ψ : px1 , . . . , xq q P E1      Eq ÞÑ x1    xq P i1 Ei est une application
linéaire
°q et surjective ; Ψ est bijective si, et seulement°si les espaces vectoriels E1      Eq et
i1 i ont même dimension ; or dimpE1    Eq q  i1 dim Ei , ce qui démontre l’équivalence
q
E
annoncée. cqfd

Corollaire 1 (Cas des supplémentaires).

Soit E un K-ev de dimension finie n et V un sous-espace vectoriel de dimension p pp ¤ nq ;

piq tout supplémentaire de V est de dimension n  p ;


piiq soit W un sous-espace vectoriel de dimension n  p ; W est un supplémentaire de V si,
et seulement si, V X W  t0E u, ou bien si, et seulement si, V W  E.

Preuve.
piq E  V ` W ùñ dim E  dimpV ` W q  dim V dim W ;
piiq seules les réciproques méritent une démonstration. Si V X W  t0E u, dimpV Wq 
dim V dim W  n  dim E, et donc V W  E et V ` W  E. Si V W  E, dimpV Wq 
dim E  n  dim V dim W , ce qui montre que V ` W  E.
cqfd
Remarque. La connaissance d’un renseignement sur la dimension permet de diviser le travail par
deux !

2 Décomposition de E en somme directe


2.1 Applications linéaires

Théorème 4 (Construction d’applications linéaires).


Àq
Si E  i1 Ei et si, pour tout i P J1, qK, ui P LpEi , F q, il existe une unique application
linéaire u P LpE, F q telle que
@i P J1, qK , u|Ei  ui
Espaces vectoriels, compléments 13

Preuve.
Analyse Si x  x1  xq est la décomposition d’un vecteur x P E suivant les facteurs Ei ,

upxq  upx1 q    upxq q par linéarité (3.1)


 u1 px1 q    uq pxq q car u|Ei  ui (3.2)

ce qui montre l’unicité de u.


Synthèse Pour x P E, on pose upxq  u1 px1 q    uq pxq q, ce qui définit u puisque la
décomposition x  x1    xq est unique. Par construction u|Ei  ui et u est une application
linéaire car pour tout pλ, µq P K2

x  x1  xq , y  y1  yq ùñ λx µy  pλx1 µy1 q    pλxq µyq q

et

upλx µyq  u1 pλx1 µy1 q


   uq pλxq µyq q
 
 λu1 px1 q µu1 py1 q    λuq pxq q µuq pyq q
 
 λ u1 px1 q    uq pxq q µ u1 py1 q    uq pyq q
 λupxq µupyq
cqfd

2.1.1 Projecteur
Soit E V `W et x  v w la décomposition de x suivant V et W ; on pose

pV : x ÞÑ v et pW : x ÞÑ w

On a alors les propriétés suivantes :

pV  pV  pV , pV pW  IdE , pV  pW  pW  pV  0LpEq
Ker pV  W, Im pV  KerpIdE  pV q  V, pV |V  IV , pV |W  0LpV q

Réciproquement, si p est un endomorphisme de E qui vérifie p  p  p, on a

piq Im p  KerpIdE  pq ;
piiq Im p et Ker p sont supplémentaires (dans E) ;
piiiq p est le projecteur d’image Im p  KerpIdE  pq parallèlement à Ker p, i.e.
p|Im p  IIm p et p|Ker p  0

À retenir : pour tout x P E, on a

x  lopomo
pxoqn r  p qs
x px
loooomoooon
PIm p PKer p

2.1.2 Symétrie vectorielle


Si E  V ` W , la symétrie vectorielle par rapport à V et parallèlement à W est l’automorphisme
s de E tel que
spxq  v  w i.e. s  pV  pW  2pV  IdE
où x  v w est la décomposition de x suivant V ` W.
On a les propriétés suivantes :

s|V  IV ,  IW , s  pV  pW , IdE s  2pV


s|W
s  s  IdE , s1  s

Réciproquement, tout endomorphisme s de E qui vérifie s  s  IdE est la symétrie vectorielle


par rapport à Kerps  IdE q et parallèlement à KerpIdE sq.
14 Cours d’algèbre - PC Collège Stanislas

2.1.3 Affinité vectorielle


Si E  V ` W , l’affinité vectorielle de direction V , de rapport λ P K , parallèlement à W est
l’automorphisme a de E tel que
apxq  λv w
où x  v w est la décomposition de x suivant V ` W ; a est caractérisé par a|V  λIV et
a|W  IW et on peut encore écrire a  λpV pW .

2.1.4 Projecteurs associés à une décomposition en somme directe


Àq
Si E   Ei et si x
i 1  x1    xq est la décomposition de x suivant les facteurs Ei , on
pose :
pi : x ÞÑ xi
À
pi est le projecteur sur Ei parallèlement à  Ej et on a les propriétés suivantes
j i

¸
q
pi  pi  pi , ij ùñ pi  pj  pj  pi  0, pi  IdE ,

i 1
à
q
Im pi  Ei , Ker pi  Ej

j 1

j i

L’application linéaire de (3.2) s’écrit u  u1  p1  uq  pq .

2.2 Cas de la dimension finie

Définition 5 (Base adaptée à une somme directe).


Àq ”q
Si E  i1 Ei et si Bi est une base de Ei , la famille B   Bi est une base de E ; elle
i 1
est dite adaptée à la décomposition en somme directe de E.

°
Preuve. #B  i dim ” Ei  dim E ; °
il suffit de montrer que B est une famille génératrice, ce
qui est le cas puisque i Bi engendre i Ei . cqfd

Définition 6 (Base adaptée à un sous-espace vectoriel).

Si F est un sous-espace vectoriel de E, toute base de E dont les premiers éléments constituent
une base de F , est dite adaptée à F .

Remarques.
Le grand intérêt des bases adaptées, est de rendre « simple » la matrice d’un endomorphisme.
Quelles sont les matrices des projecteurs, des symétries et des affinités dans des bases adaptées ?
Si B est une base de E, B1 ,. . .,Bq une partition de B, Ei le sous-espace vectoriel engendré par
Bi , E est la somme directe des Ei et B est une base adaptée à cette décomposition.

3 Applications linéaires
3.1 Isomorphisme de tout supplémentaire du noyau avec l’image

Théorème 5 (Théorème du noyau et de l’image).

Si u P LpE, F q et V est un supplémentaire de Ker u, l’application

ū : x P V ÞÑ upxq P Im u
induit un isomorphisme de V sur Im u.
Espaces vectoriels, compléments 15

Preuve. ū est une application linéaire et

Ker ū  tx P V | upxq  0F u  Ker u X V  0E


ce qui montre l’injectivité de ū.
Pour tout y P Im u, il existe x P E tel que upxq  y ; puisque E  V ` Ker u, x se décompose en
v w avec pv, wq P V  Ker u, et

y  upxq  upvq upwq  upvq  ūpvq

et montre la surjectivité de ū. cqfd

Corollaire 2 (Théorème du rang).


Si E est de dimension finie, alors

dim E  rg u dimpKer uq

Preuve. ū est un isomorphisme donc conserve la dimension et dim V  dimpIm uq  rg u ;


d’autre part, V et Ker u sont supplémentaires dans E, donc dim E  dim V dimpKer uq. cqfd

Corollaire 3 (Caractérisation des isomorphismes en dimension finie).

Si E et F sont deux espaces vectoriels de même dimension finie n et u une application linéaire
de E vers F , alors

u est un isomorphisme ðñ u est injective ðñ dimpKer uq  0


ðñ u est surjective ðñ rg u  n

Preuve. C’est une conséquence immédiate de n  dim E  dim F  rg u dimpKer uq et des


équivalences
u est injective ðñ Ker u  t0E u ðñ dimpKer uq  0

ainsi que des équivalences

u est surjective ðñ Im u  F ðñ dimpIm uq  dim F

cqfd

Corollaire 4 (Caractérisation des automorphismes en dimension finie).

Si E est un espace vectoriel de dimension finie n et u un endomorphisme de E

u P GLpE q ðñ u est injective ðñ u est surjective ðñ dimpKer uq  0 ðñ rg u  n

3.2 Applications
3.2.1 Projection

Si V1 et V2 sont deux supplémentaires dans E du même sous-espace vectoriel W , la projection


pV1 de E sur V1 parallèlement à W induit un isomorphisme de V2 sur V1 .
C’est une application du théorème du noyau et de l’image : pV1 est une application linéaire
d’image V1 et de noyau W ; elle induit un isomorphisme de V2 , supplémentaire de W sur son
image. En classe de troisième, ce théorème porte le nom de « Théorème de Thalès ».
16 Cours d’algèbre - PC Collège Stanislas

3.2.2 Formule de Grassmann


Si V et W sont deux sous-espaces vectoriels de dimension finie, on a

dimpV
X W q dimpV W q  dim V dim W
L’application u : pv, wq P V  W ÞÑ v w P V W est linéaire et surjective. Son noyau vérifie

Ker u  tpv, wq P V  W | v w  0u  tpv, vq | v P V X W u

Ker u est donc isomorphe à V X W , ce qui donne

dimpKer uq  dimpV  W q  rg u  dim V dim W  dimpV W q

3.2.3 Interpolation polynomiale


Exemple 3.7 (Interpolation polynomiale et matrice de Vandermonde).

a) Soit a1 , . . . , an n réels deux à deux distincts et soit Ψ l’application définie par

Ψ : Rn1 rX sÝÑ Rn
P ÞÝÑ pP pa1 q, . . . , P pan qq
Montrer que Ψ est un isomorphisme de Rn1 rX s sur Rn . Conséquence ?
Écrire la matrice de Ψ dans les bases canoniques de Rn1 rX s et de Rn .
b) Soit pa1 , . . . , an q P Rn . On pose
 
1 a1 a21 . . . an1 1
1 a2 a22 . . . an2 1 
V pa1 , . . . , an q   .
 
.. .. .. 
 .. . . . 
1 an a2n ... ann1

Déduire de la question précédente que V pa1 , . . . , an q est inversible si, et seulement si, les
nombres ai sont deux à deux distincts.

3.2.4 Polynômes d’interpolation de Lagrange


Exemple 3.8. Soit a1 a2 . . . an n éléments deux à deux distincts de K (n P N )
±  X ak
Pour tout i P J1, nK on note Li pX q  ai ak
P
k J1,nK
k i 
a) Calculer Li paj q
b) Montrer que B  pL1 ; . . . ; Ln q est une base de Kn1 rX s
c) Soit pb1 ; . . . ; bn q P Kn .
Montrer qu’il existe un unique Q P Kn1 rX s tel que @k P J1, nK Qpak q  bk

Exemple 3.9. On se donne une famille pa1 , . . . , an q d’éléments de K, deux à deux distincts.
±n P P KrX s quelconque. Quel est le reste de la division euclidienne de P par le polynôme
Soit
i1 pX  ai q ?


0 a a2
Exemple 3.10 (Navale, PSI  Mines, MP). Soit a P R , et A   1{a 0 a
1{a2 1{a 0
Calculer A , pour n P N.
n
Espaces vectoriels, compléments 17

4 Dualité
E est un K-espace vectoriel, que l’on supposera non réduit à t0E u.

4.1 Espace dual

Définition 7 (Forme linéaire).

Une forme linéaire sur E est une application linéaire de E vers le corps des scalaires K.

Définition 8 (Espace dual ou dual).

Le dual de E est l’ensemble des formes linéaires sur E ; il est noté E  .

Remarques.
Rappelons que E   LpE, Kq est un K-espace vectoriel.
Toute forme linéaire non nulle sur E est de rang 1, donc surjective.
Si E est de dimension finie, E  l’est aussi et

dim E   dim LpE, Kq  dim E


Exemples 3.11.

• Les formes linéaires sur Kn sont du type



x1
 
ϕ : px1 , . . . , xn q P K n
ÞÑ a1 x1    an xn  a1 a2  an  ...
xn
³b
• δa : f ÞÑ f paq, f ÞÑ a f et δa1 : f ÞÑ f 1 paq sont des formes linéaires sur, respectivement,
CpRq, Cpra, bsq et C1 pRq.
°n
• Si E est de dimension finie n, si B  pe1 , . . . , en q est une base de E et x  j 1 xj ej la
décomposition de x suivant B, les applications

ϕj : x P E ÞÑ xj
qui au vecteur x associent sa composante suivant ej relativement à B, sont des formes
linéaires sur E ; on les appelle les formes linéaires coordonnées.

4.2 Hyperplan

Définition 9 (Hyperplan).

Un hyperplan de E est un sous-espace vectoriel qui admet une droite (vectorielle) pour
supplémentaire.

H est un hyperplan ðñ D e P E, E  H ` D  H ` Ke

Remarques.
Tous les supplémentaires d’un hyperplan sont des droites (vectorielles) puisqu’ils sont isomorphes.
Si E est de dimension finie n, les hyperplans de E sont les sous-espaces vectoriels de E de
dimension n  1.
18 Cours d’algèbre - PC Collège Stanislas

4.2.1 Caractérisation à l’aide des formes linéaires

Proposition 3.

H est un hyperplan si, et seulement si, H est le noyau d’une forme linéaire non nulle.

Preuve.
ùñ Soit e tel que H ` Ke  E ; ainsi @x P E, D!ph, λq P H  K, x  h λe et l’application
ϕ : x P E ÞÑ λ P K est une forme linéaire sur E dont le noyau est H.
En effet, en notant p la projection sur Ke parallèlement à H et i l’isomorphisme entre Ke et
K donné par x  λe ÞÑ λ, on a ϕ  i  p ; donc ϕ est linéaire comme composée d’applications
linéaires.
ðù Soit ϕ P E  zt0E u et e P E tel que ϕpeq  0 ; on cherche à décomposer tout vecteur x de
E comme somme d’un vecteur de Ke et d’un vecteur de H.
Pour tout x P E, on a x  looλe
moon px  λeq
PKe
Or,

x  λe P Ker ϕ ðñ 0  ϕpx  λeq  ϕpxq  λϕpeq ðñ λ  ϕϕppxeqq


ce qui montre que

D!ph, λq  x  λe, λ P H  K, x  λe px  λeq
En conclusion, E  Ker ϕ ` Ke, i.e. Ker ϕ est un hyperplan. cqfd

À retenir : pour tout x P E, on a


 
ϕpxq ϕpxq
x e x e
ϕpeq
looomooon ϕpeq
loooooooomoooooooon
PKe PH
Remarque. Si H est un hyperplan et ϕ une forme linéaire sur E de noyau H, on a

E  H ` Ke ðñ ϕpeq  0 ðñ e R H
Ainsi, toute droite (vectorielle) D non contenue dans l’hyperplan H est un supplémentaire de H.

4.2.2 Équation d’un hyperplan

Proposition 4.
Si H est un hyperplan noyau de la forme linéaire ϕ, toute autre forme linéaire ψ s’annule sur
H si, et seulement si, pϕ, ψ q est liée.

Preuve.
ðù Puisque la famille pϕ, ψq est liée et ϕ  0, il existe λ P K tel que ψ  λϕ ; ainsi Ker ψ 
Ker ϕ  H.
ùñ Si ψ est une forme linéaire dont le noyau contient H  Ker ϕ, ϕ|H  0  ψ|H . Si e R H ;
alors ψ peq  αϕpeq en posant α  ψ peq
ϕpeq , ce qui montre que ψ|Ke  αϕ|Ke . Par conséquent,
ψ  αϕ puisque cette égalité a lieu sur H et Ke supplémentaires dans E. cqfd

Remarque. ϕ est une équation de H ; cette équation est unique à un coefficient multiplicatif non
nul près.
Espaces vectoriels, compléments 19

4.3 Équation d’un hyperplan en dimension finie

On note px1 , . . . , xn q les coordonnées d’un vecteur x de E relatives à la base B  pe1 , . . . , en q.

Théorème 6.

H est un hyperplan de E si, et seulement si, il existe pa1 , . . . , an q P Kn zt0u tel que

xPH ðñ a1 x1  an xn 0

Preuve.
ùñ °Soit ϕ une forme linéaire non nulle sur E de noyau°n °naj  ϕpej q ce qui donne
H ; posons
ϕ  i1 ai ϕi et : x P H  Ker ϕ ðñ 0  ϕpxq  i1 ai ϕi pxq  i1 a°
n
i xi
ðù Si a1 x1    an xn  0 désigne une équation de H, posons ϕ  ni1 ai ϕi ; ϕ est une
forme linéaire non nulle puisque les coefficients ai ne sont pas tous nuls et H  Ker ϕ. cqfd
Remarque. L’équation a1 x1  an xn  0 est une équation de H, et toute autre équation
b1 x1    bn xn  0 vérifie

Dλ  0, pb1 , . . . , bn q  λpa1 , . . . , an q

5 Trace
5.1 Rappels sur la base canonique de Mn pKq
On rappelle la signification du symbole de Kronecker
"
1 si i  j
@pi, j q P N2 , δi,j  0 si i  j

On note pE1 , . . . , En q la base canonique de Kn , où Ej  rδi,j s1¤i¤n


On dispose alors de la relation t Ei Ej  δi,j P K
On pose
@pi, j q P Nn  Nn , E i,j  Ei t Ej  rδi,k δj,l s1¤k¤n P Mn pKq
¤¤
1 l n

Autrement dit, E i,j est la matrice de Mn pKq dont tous les éléments sont nuls excepté celui à
l’intersection de la ie ligne et de la j e colonne qui vaut 1.
La famille pE i,j q1¤i,j ¤n forme alors une base de Mn pKq appelée base canonique de Mn pKq.
La définition que l’on a donnée de E i,j permet de calculer le produit de deux matrices de la base
canonique. . . sans se noyer dans un déluge d’indices.
Exemple 3.12. Prouver la relation

@pi, j, k, lq P N4 , E i,j  E k,l  δj,k  E i,l

Exemple 3.13. Soit A P Mn pKq et pi, j, k, lq P N4 . Simplifier le produit E i,j  A  E k,l

5.2 Trace d’une matrice

Définition 10 (Trace d’une matrice carrée).

À toute matrice carrée A  raij s d’ordre n, on associe le nombre °ni1 aii que l’on nomme
trace de la matrice A.

tr A  aii

i 1
20 Cours d’algèbre - PC Collège Stanislas

Exemple 3.14. Quelle est la trace d’une matrice de la base canonique E i,j ?

Proposition 5 (Trace d’une combinaison linéaire de matrices).

L’application trace est une forme linéaire non nulle sur Mn pKq.

Preuve. Elle est laissée aux soins du lecteur. cqfd

Corollaire 5.

Le sev Kerptrq est un hyperplan de Mn pKq dont un supplémentaire est la droite (vectorielle)
des matrices scalaires, i.e. la droite dirigée par In .

Mn pKq  Kerptrq ` KIn

Preuve. Puisque tr est une forme linéaire non nulle, son noyau est un hyperplan ; puisque
tr In  n  0, la droite dirigée par In est un supplémentaire de Kerptrq. cqfd

Théorème 7 (Trace d’un produit de matrices).

Si A et B sont deux matrices, A de taille n  p et B de taille p  n, les traces de AB et BA


sont égales.
@pA, B q P Mn,p pKq  Mp,n pKq, tr AB  tr BA

Preuve. AB (resp. BA) est une matrice carrée d’ordre n (resp. p) et


ņ ņ ¸
p ¸
p ņ
tr AB  pAB qii  ais bsi  ais bsi
i 1 
i 1 s 1  
s 1i 1
¸
p ¸p  ņ ¸
p ņ
tr BA  pBAqjj  bjr arj  arj bjr
j 1  
j 1 r 1  
j 1r 1

cqfd
Exemple 3.15. Soit A, B et C trois matrices carrées d’ordre n. Parmi les scalaires suivants,
lesquels sont égaux ?

tr ABC ; tr BAC ; tr ACB ; tr BCA ; tr CBA ; tr CAB

Exemple 3.16. Existe-t-il deux matrices A et B, carrées d’ordre n, telles que AB  BA  In ?

5.3 Matrices semblables

Définition 11 (Matrices semblables).

Deux matrices carrées d’ordre n A et B sont semblables s’il existe une matrice carrée d’ordre
n et inversible P telle que B  P 1 AP .
A P Mn pKq et B P Mn pKq sont semblables ðñ DP P GLn pKq, B  P 1 AP

Remarques.
La matrice unité d’ordre n, In , n’est semblable qu’à elle-même.
La matrice nulle d’ordre n, 0n , n’est semblable qu’à elle-même.
La relation « être semblable à » est une relation d’équivalence.
Espaces vectoriels, compléments 21

Théorème 8 (Endomorphisme et matrices semblables).

Si u est un endomorphisme d’un espace vectoriel E de dimension finie et si B et B1 sont deux


bases de E, les matrices MatB puq et MatB1 puq sont semblables.

Preuve. Notons P la matrice de changement de bases de la base B à la base B1 , matrice dont


les colonnes sont les composantes des vecteurs de B1 relativement à B, soit P  MatB pB1 q. Dans
ce cas, on a :
MatB1 puq  MatB1 pBqMatB puqMatB pB1 q  P 1 MatB puqP
cqfd

Corollaire 6 (Trace de deux matrices semblables).

Deux matrices semblables ont même trace.

@pA, P q P Mn pKq  GLn pKq, trpP 1 AP q  tr A

Preuve.   
trpP 1 AP q  tr P 1 pAP q  tr pAP qP 1  tr ApP P 1 q  tr A cqfd
Remarque. trpABC q  trpBCAq mais trpABC q  trpBAC q en général. Voici un contre-exemple :

E 1,2 E 2,1 E 1,1  E 1,1 E 1,1  E 1,1 ùñ trpE 1,2 E 2,1 E 1,1 q  tr E 1,1  1
E 2,1 E 1,2 E 1,1  E 2,2 E 1,1  0 ùñ trpE 1,2 E 2,1 E 1,1 q  0

5.4 Trace d’un endomorphisme


Si u est un endomorphisme d’un espace vectoriel E de dimension finie et B et B1 deux bases de
E, les matrices MatB puq et MatB1 puq sont semblables et donc leurs traces sont égales, ce qui
permet la

Définition 12 (Trace d’un endomorphisme).

On appelle trace d’un endomorphisme la trace de l’une quelconque de ses matrices.



tr u  tr MatB puq

Remarque. tr est une forme linéaire non nulle sur LpE q et LpE q  Kerptrq ` KIdE

Proposition 6 (Trace d’un projecteur).

La trace d’un projecteur est égale à son rang.

Preuve. Si p est un projecteur et B une base adaptée à la décomposition E  KerpIdE  pq `


Ker p, la matrice de p relativement à cette base est

0r,nr
A  MatB puq 
Ir
0nr,r 0nr,nr
ce qui montre que tr p  r  rg p. cqfd

Cette proposition ne caractérise pas les projecteurs : A  01 12 a une trace et un rang égaux à
2, mais ne peut être un projecteur car tout projecteur de rang maximum est l’identité.
Exemple 3.17. Déterminer la trace d’une symétrie.
Déterminants 4
Sommaire
1 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.1 Rappels sur les applications bilinéaires . . . . . . . . . . . . . . . . . . . 23
1.2 Applications p-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2 Déterminant de n vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1 Caractérisation des bases . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Orientation d’un R-espace vectoriel . . . . . . . . . . . . . . . . . . . . . 28
3 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . 28
4 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . 30
4.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2 Opérations élémentaires sur les lignes et les colonnes d’une matrice . . . 31
4.3 Déterminant d’une matrice triangulaire par blocs . . . . . . . . . . . . . 34
5 Développement d’un déterminant suivant une rangée . . . . . . . . . . . . . 35
5.1 Mise en place . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.2 Matrice des cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6 Résolution des systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . 38
6.1 Quelques notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
6.2 Cas des systèmes de Cramer . . . . . . . . . . . . . . . . . . . . . . . . 38
6.3 Cas des systèmes homogènes . . . . . . . . . . . . . . . . . . . . . . . . 39
Déterminants 23

1 Applications multilinéaires
1.1 Rappels sur les applications bilinéaires

Définition 13 (Bilinéarité).

Soit E1 , E2 et F trois K-espaces vectoriels ; une application f de E1  E2 à valeurs dans F


est bilinéaire si

piq pour tout x P E1 , l’application y ÞÑ f px, yq est linéaire ;


piiq pour tout y P E2 , l’application x ÞÑ f px, yq est linéaire.

Si F  K, on parle de forme bilinéaire.

Exemples 4.1.
Le produit scalaire est une forme bilinéaire sur R3  R3 ; le produit vectoriel est une application
bilinéaire de R3  R3 sur R3 .
Soit A une K-algèbre (par exemple K, KrX s, Mn pKq, LpE q) ; les applications
f1 : px, y q ÞÑ x  y, f2 : px, y q ÞÑ x  y y  x, f3 : px, y q ÞÑ x  y  y  x
sont des applications bilinéaires de A  A vers A (le démontrer).
Si A  K ou KrX s, f2  2f1 et f3  0.
Si A  Mn pKq ou LpE q, f3 n’est pas l’application nulle.
³b
ϕ : pf, g q ÞÑ a f ptqg ptq dt est une forme bilinéaire sur Cpra, bs, Kq  Cpra, bs, Kq.
ψ : pA, B q ÞÑ trpt AB q est une forme bilinéaire sur Mn pKq  Mn pKq.

Définition 14 (Symétrie, antisymétrie, alternance).

Soit E et F deux K-ev vectoriels et f une application bilinéaire de E  E à valeurs dans F ;


on dit que
piq f est symétrique si @px, yq P E 2 , f px, yq  f py, xq ;
piiq f est antisymétrique si @px, yq P E 2 , f px, yq  f py, xq ;
piiiq f est alternée si @x P E, f px, xq  0F ;

Exemples 4.2.
Le produit scalaire est symétrique, le produit vectoriel est antisymétrique.
L’application f2 est symétrique, f3 est antisymétrique.
L’application f1 est symétrique si, et seulement si, A est une algèbre commutative.
ϕ est symétrique.
ψ est symétrique.

Théorème 9 (Antisymétrie et alternance).

Soit f est une application bilinéaire de E  E dans F .


Alors f est antisymétrique si, et seulement si, f est alternée.

Preuve.
ùñ Pour tout x P E, f px, xq  f px, xq puisque f est antisymétrique, donc f px, xq  0F .
ðù Pour tout px, yq P E 2 , on peut écrire
f px y, x yq  0F puisque f est alternée
 f px, x yq f py, x yq
 f px, xq f px, yq f py, xq f py, yq puisque f est bilinéaire
 f px, yq f py, xq puisque f est alternée
ce qui montre que f px, yq  f py, xq. cqfd
24 Cours d’algèbre - PC Collège Stanislas

1.2 Applications p-linéaires


p désigne un entier au moins égal à 2.

Définitions 15 (Application et forme p-linéaires).

Soit E et F deux K-espaces vectoriels ; une application f de E p à valeurs dans F est dite
p-linéaire si elle est linéaire par rapport à chacune de ses variables, i.e. si pour tout j P J1, pK
et pour tout ak P E, k P J1, pK ztj u, les applications

xPE ÞÑ f pa1 , . . . , aj1 , x, aj 1 , . . . , ap qPF


sont linéaires.
L’ensemble des applications p-linéaires de E dans F est noté Lp pE, F q.
Les applications p-linéaires de E vers le corps des scalaires K sont appelées formes p-linéaires
sur E.

Exemples 4.3.
piq Si ϕ1 ,. . .,ϕp sont des formes linéaires sur E, l’application

f : px1 , . . . , xp q P E p ÞÑ ϕ1 px1 q      ϕp pxp q


est une forme p-linéaire sur E.
piiq L’application déterminant

px, yq P K2  K2 ÞÑ x1
x2
y1
y2
 x1 y2  x2 y1

est une forme 2-linéaire (ou bilinéaire) sur K2 .


piiiq L’application déterminant

x1 y1 z1
px, y, zq P K3  K3  K3 ÞÑ x2 y2 z2
x3 y3 z3
 px1 y2 z3 x2 y3 z1 x3 y1 z2 q  px3 y2 z1 x1 y3 z2 x2 y1 z3 q

est une forme 3-linéaire (ou trilinéaire) sur K3 .

Proposition 7.

piq L’application nulle de E p vers F est à la fois p-linéaire et linéaire.


piiq Soit f est une application p-linéaire de E dans F ; si l’un des vecteurs xi est nul, alors
le vecteur f px1 , . . . , xp q est nul.
piiiq Lp pE, F q est un K-espace vectoriel.

Preuve.
piiq f est une application linéaire par rapport à sa ie variable, et l’image de 0E par une appli-
cation linéaire est 0F .
piiiq Lp pE, F q est un sous-espace vectoriel de l’espace de toutes les applications de E p vers F .
cqfd
Déterminants 25

Définitions 16 (Symétrie, antisymétrie et alternance).

Soit E et F deux K-ev vectoriels et f une application p-linéaire sur E à valeurs dans F ; on
dit que
• f est symétrique si @px1 , . . . , xp q P E p , @pi, j q P J1, pK ,
i j ùñ f p. . . , xi , . . . , xj , . . .q  f p. . . , xj , . . . , xi , . . .q

• f est antisymétrique si @px1 , . . . , xp q P E p , @pi, j q P J1, pK ,

i j ùñ f p. . . , xi , . . . , xj , . . .q  f p. . . , xj , . . . , xi , . . .q

• f est alternée si @px1 , . . . , xp q P E p , @pi, j q P J1, pK ,

i j et xi  xj ùñ f p. . . , xi , . . . , xj , . . .q  0F

Exemples 4.4. Parmi les formes de l’exemple 4.3, lesquelles sont symétriques ? antisymétriques ?
alternées ?

Proposition 8.
L’ensemble des applications p-linéaires symétriques et l’ensemble des applications p-linéaires
alternées de E à valeurs dans F sont des sous-espaces vectoriels de Lp pE, F q.

Théorème 10 (Antisymétrie et alternance).

Soit f une application p-linéaire de E vers F . Alors


f est alternée si, et seulement si, f est antisymétrique

Preuve.
Soit 1 ¤ i j ¤ p et l’application
gi,j : pxi , xj q P E 2 ÞÑ f p. . . , xi , . . . , xj , . . .q

gi,j est bilinéaire puisque f est p-linéaire ; donc gi,j est antisymétrique si, et seulement si, gi,j est
alternée, ce qui montre l’équivalence. cqfd

Théorème 11 (Règle de calcul).

On ne change pas la valeur prise par une application p-linéaire alternée sur un p-uplet de E p
en ajoutant à l’un des vecteurs une combinaison linéaire des autres vecteurs.
En particulier, toute application p-linéaire alternée prend la valeur 0F sur tout p-uplet qui
constitue une famille liée.

Preuve.
° Soit f une application p-linéaire alternée sur E. En ajoutant la combinaison linéaire
j k λ j xj au vecteur xk , on obtient
¸ ¸
f p. . . , xk λj xj , . . .q  f p. . . , xk , . . .q λj f p. . . , xj , . . . , xj , . . .q

j k 
j k

 f p. . . , xk , . . .q car f est alternée


26 Cours d’algèbre - PC Collège Stanislas

Si la famille px1 , . . . , xp q est liée, l’un des vecteurs, par exemple xk , est combinaison des autres
vecteurs, et
¸ ¸
f p. . . , xk , . . .q  f p. . . , λj xj , . . .q  λj f p. . . , xj , . . . , xj , . . .q  0F

j k 
j k

puisque f est alternée. cqfd

Remarques.
Si E est un espace vectoriel de dimension finie, la seule application p-linéaire alternée, avec
p ¡ dim E, est l’application nulle, car, dans ce cas, toute famille de p vecteurs est liée. Les
seuls cas intéressants sont ceux où p ¤ dim E. Le programme nous demande d’étudier le cas où
p  dim E  n.
Soit E un espace vectoriel de dimension 2, B  pe1 , e2 q une base de E et f une application
bilinéaire alternée sur E. Décomposons x  x1 e1 x2 e2 et y  y1 e1 y2 e2 sur la base B. On
obtient :

f px, yq  x1 y1 f pe1 , e1 q x1 y2 f pe1 , e2 q x2 y1 f pe2 , e1 q x2 y2 f pe2 , e2 q


 px1 y2  x2 y1 qf pe1 , e2 q car f est alternée

 xx21 yy21 f pe1 , e2 q


et on retrouve le déterminant des deux vecteurs x et y dans la base B.
Envisageons le cas d’un espace vectoriel E de dimension 3, muni d’une base B  pe1 , e2 , e3 q. Si
f est une application trilinéaire alternée sur E, on obtient, de manière analogue en ne notant
que les termes non nuls :

f px, y, zq  x1 y2 z3 f pe1 , e2 , e3 q x1 y3 z2 f pe1 , e3 , e2 q x2 y1 z3 f pe2 , e1 , e3 q


x2 y3 z1 f pe2 , e3 , e1 q x3 y1 z2 f pe3 , e1 , e2 q x3 y2 z1 f pe3 , e2 , e1 q

 px1 y2 z3 x2 y3 z1 x3 y1 z2 q  px3 y2 z1 x1 y3 z2 x2 y1 z3 q f pe1 , e2 , e3 q
x1 y1 z1
 x2 y2 z2 f pe1 , e2 , e3 q
x3 y3 z3

On retrouve le déterminant des trois vecteurs x, y et z dans la base B.

2 Déterminant de n vecteurs
Dans cette section, E désigne un K-espace vectoriel de dimension finie n, muni d’une base
B  pe1 , . . . , en q. Nous étudions l’ensemble λn pE q des formes n-linéaires alternées définies sur
E et f désigne une telle forme.

Théorème et définition 12 (Déterminant de n vecteurs dans une base).

Soit E un K-espace vectoriel de dimension finie n et B  pe1 , . . . , en q une base de E.


Il existe une unique forme n-linéaire alternée sur E qui prend la valeur 1 sur B.
On l’appelle déterminant dans la base B et on la note detB .

La preuve de ce théorème n’est pas exigible en filière PC. On admettra donc sa preuve.

Théorème 13 (Dimension de λn pE q).

L’espace vectoriel λn pE q des formes n-linéaires alternées sur un espace vectoriel E de dimen-
sion n est de dimension 1 ; il admet pour base pdetB q et

@f P λn pE q, f  f pe1 , . . . , en q detB  f pBq detB


Déterminants 27

Théorème 14 (Déterminant d’un système triangulaire de vecteurs).

Si chaque vecteur xj est combinaison linéaire des vecteurs pe1 , . . . , ej q, autrement dit, si
ai,j  0 pour i ¡ j, alors

a1,1 a1,2 ... a1,n


0 ¹
n
detB px1 , . . . , xn q  
a2,2 ... a2,n
ai,i
........ ... ....

i 1
0 0 ... an,n

Preuve. En utilisant des opérations élémentaires sur les colonnes et la p-linéarité du détermi-
nant, on obtient

detB px1 , . . . , xn q  detB pa1,1 e1 , x2 , . . . , xn q


 a1,1 detB pe1 , x2 , . . . , xn q êpar linéarité par rapport à x1
 a1,1 detB pe1 , a1,2 e1 a2,2 e2 , . . . , xn q êpar hyptohèse
 a1,1 detB pe1 , a2,2 e2 , . . . , xn q êC2 ÐC2 a2,2 C1
 a1,1 a2,2 detB pe1 , e2 , . . . , xn q êpar linéarité par rapport à x2
 ...
 a1,1 a2,2 . . . an,n looooooooooomooooooooooon
detB pe1 , e2 , . . . , en q
1

cqfd

2.1 Caractérisation des bases

Théorème 15 (Passage d’une base à une autre).

Si B et B1 sont deux bases de E et V un n-uplet de E n , on a

detB pB1 q  detB1 pBq  1


detB1 pVq  detB1 pBq  detB pVq

Preuve. detB1 est une forme n-linéaire alternée à qui on applique la formule 13, soit

detB1  detB1 pBq detB


En prenant la valeur de ces expressions en B1 et en V, on obtient les résultats. cqfd

Théorème 16 (Caractérisation des bases).

Si V  pv1 , . . . , vn q est une famille de n vecteurs d’un espace vectoriel de dimension n


et si B est une base de E,

V est une base de E ðñ detB pVq  0

Preuve.
ùñ Si V est une base de E, detB pVq n’est pas nul, car detB pVq  detV pBq  1.
ðù Par contraposée ; si V n’est pas une base de E, V est une famille liée (V est maximale) et
donc detB pVq  0 (image d’une famille liée par une forme n-linéaire alternée). cqfd

Exemples 4.5. Montrer les assertions suivantes.


piq p1, j q est une base du R-espace vectoriel C.
piiq Une famille de pn 1q polynômes de Kn rX s et échelonnés en degré est une base de Kn rX s.
28 Cours d’algèbre - PC Collège Stanislas

2.2 Orientation d’un R-espace vectoriel


Dans ce paragraphe, E est un espace vectoriel réel ; on ne peut orienter que des espaces sur le
corps des réels.

Définition 17 (Orientation de deux bases).

Deux bases ordonnées B et B1 du même R-espace vectoriel E ont même orientation si

detB pB1 q ¡ 0

Cette propriété définit une relation d’équivalence sur les bases de E :

• réflexivité : detB pBq  1 ¡ 0 ;


1
• symétrie : detB pB1 q ¡ 0 implique detB1 pBq  detB pB1 q ¡0
1
• transitivité : detB pB q ¡ 0 et detB1 pB q ¡ 0 ùñ detB pB q  detB pB1 q  detB1 pB2 q ¡ 0
2 2
Une base C de E étant choisie, cette relation d’équivalence définit une partition de l’ensemble
des bases de E en deux classes : C et C :

• C est l’ensemble des bases B de E de même orientation que C : detC pBq ¡ 0 ;


• C est l’ensemble des bases B de E ayant l’orientation opposée à celle de C : detC pBq 0.

Choisir une de ces classes, c’est, par définition, orienter l’espace vectoriel réel E : toutes les bases
appartenant à cette classe sont appelées directes ou positivement orientées, les bases appartenant
à l’autre classe sont appelées indirectes, rétrogrades ou négativement orientées.
Dans R2 , on décide que la base canonique pe1 , e2 q est directe et que la base pe2 , e1 q est rétrograde.
Dans R3 , on décide que la base canonique pe1 , e2 , e3 q est directe ; les bases pe2 , e3 , e1 q et pe3 , e1 , e2 q
sont directes ; les bases pe1 , e3 , e2 q, pe2 , e1 , e3 q et pe1 , e2 , e3 q sont rétrogrades.
Pour déterminer l’orientation d’une base px, y, zq, on peut utiliser :
• la règle de la main droite : le pouce, l’index et le majeur permettent de représenter les trois
vecteurs de la base. Les trois doigts forment alors un trièdre dans l’espace, c’est-à-dire un
triplet de trois demi-droites non coplanaires issues d’une même origine.
Si on peut placer x selon le pouce, y selon l’index et z selon le majeur, alors la base est
directe.

• la règle du tire-bouchon de Maxwell, technique bien connue de tous les amateurs de phy-
sique,. . . ou de Jurançon.

3 Déterminant d’un endomorphisme


Soit E un K-espace vectoriel de dimension finie n ¡ 0 muni d’une base B  pe1 , . . . , en q et u un
endomorphisme de E. À toute forme n-linéaire alternée f sur E, on associe l’application ϕu pf q
définie par 
ϕu pf q : px1 , . . . , xn q P E n ÞÑ f upx1 q, . . . , upxn q P K
L’application ϕu pf q est une forme n-linéaire, car u est linéaire et f est n-linéaire alternée. D’autre
part, l’application ϕu : f ÞÑ ϕu pf q est linéaire ; ϕu est donc un endomorphisme de la droite
vectorielle λn pE q, donc une homothétie, ce qui donne le
Déterminants 29

Lemme 1.
Si u est un endomorphisme d’un K-espace vectoriel E de dimension finie n, il existe un unique
scalaire λ tel que

@f P λn pE q, @px1 , . . . , xn q P E n , f upx1 q, . . . , upxn q  λf px1 , . . . , xn q

Définition 18 (Déterminant d’un endomorphisme).

Ce scalaire est appelé déterminant de u et noté det u.

Corollaire 7 (Expression du déterminant d’un endomorphisme).

Si B est une base (quelconque) de E, le déterminant de u se calcule par



det u  detB upe1 q, . . . , upen q

Preuve. On utilise f  detB et px1 , . . . , xn q  pe1 , . . . , en q  B dans la formule (1). cqfd

Remarque. L’expression du déterminant dans la formule précédente, est indépendante de la base


B choisie.

Théorème 17 (Propriétés du déterminant d’un endomorphisme).

Si E est un K-espace vectoriel de dimension n, on a

piq det IE  1 ;
piiq @u P LpE q, @λ P K, detpλuq  λn detpuq ;
piiiq @pu, vq P LpE q2 , detpu  vq  det u  det v.

Preuve. Utilisons l’expression du déterminant d’un endomorphisme relativement à une base ;


piq detpIE q  detB pBq  1 ;  
piiq detpλuq  detB λupe1 q, . . . , λupen q  λn det upe1 q, . . . , upen q  λn det u ;

piiiq la formule (1) appliquée à f  detB et px1 , . . . , xn q  vpe1 q, . . . , vpen q donne
  
detpu  v q  detB u v pe1 q , . . . , u v pen q

 det u detB vpe1 q, . . . , vpen q
 det u det v
cqfd

Exemple 4.6. Soit E un K-ev de dimension finie n. Soit f P LpE q.


On suppose que f est nilpotent. Que peut-on dire de son déterminant ?

Exemple 4.7. Soit E un K-ev de dimension finie n. Soit f P LpE q.


On suppose que f 2 IdE  0. Que peut-on dire de n ?

Exemple 4.8. Soit u et v deux endomorphismes d’un K-ev de dimension finie. A-t-on nécessai-
rement égalité entre detpu v q et det u det v ?
30 Cours d’algèbre - PC Collège Stanislas

Théorème 18 (Caractérisation des automorphismes).

Soit u est un endomorphisme d’un K-ev E de dimension finie n ¡ 0 ; u est inversible si, et
seulement si, son déterminant n’est pas nul, et, dans ce cas, det u1  pdet uq1 .

u P GLpE q ðñ det u  0 et, dans ce cas, detpu1 q  pdet uq1

Preuve. Soit B  pe1 , . . . , en q une base de E.



u est inversible ðñ n  rg u  rg upe1 q, . . . , upen q
ðñ upBq est une base de E
ðñ 0  detB upBq  det u
Si u est inversible, u1  u  IE ; on obtient 1  det IE  detpu  u1 q  detpu1 q  det u,
ce qui montre que det u1  pdet uq1 . cqfd

4 Déterminant d’une matrice carrée


Considérons une matrice carrée M d’ordre n ¥ 1 à coefficients dans K ; on note ai,j le terme
général de cette matrice et C1 ,. . .,Cn ses vecteurs colonnes ; on écrira indifféremment

M  rai,j s1¤i¤n  rC1 | . . . | Cn s


¤¤
1 j n

Appelons E  pE1 , . . . , En q la base canonique de Mn,1 pKq ; le scalaire ai,j s’interprète comme la
composante du vecteur colonne Cj suivant Ei relativement à la base canonique C, ce qui donne la

Définition 19 (Déterminant d’une matrice carrée).

On appelle déterminant de la matrice carrée M  rai,j s, et l’on note det M , le déterminant


detE pC1 , . . . , Cn q de la famille de ses vecteurs colonnes dans la base canonique de Mn,1 pKq.

4.1 Propriétés

Théorème 19 (Déterminant d’une matrice triangulaire).

Le déterminant d’une matrice triangulaire est le produit des éléments de sa diagonale prin-
cipale.

Preuve. Si M est une matrice triangulaire supérieure, on utilise l’expression du déterminant


d’un système triangulaire de vecteurs (cf. (14)).
Le raisonnement s’adapte sans souci au cas d’une matrice triangulaire inférieure. cqfd

Théorème 20 (Déterminant de la matrice d’un endomorphisme).

Si f est un endomorphisme d’un K-espace vectoriel E de dimension finie n ¥ 1, le déterminant


de f est le déterminant de la matrice de f dans une base quelconque de E.

Pour toute base B de E, det f  det MatB pf q

Preuve. Soit B  pu1 , . . . , un q une base de E ; les composantes du vecteur colonne Cj  de


MatB pf q sont les composantes de f puj q dans B, ce qui donne l’égalité det f pu1 q, . . . , f pun q 
detE pC1 , . . . , Cn q  det MatB pf q . cqfd
Déterminants 31

Théorème 21.
Si n est un entier positif, on a
piq det In  1 ;
piiq @M P Mn pKq, @λ P K, detpλM q  λn detpM q ;
piiiq @pM, N q P Mn pKq2 , detpM N q  det M  det N ;
pivq M P GLn pKq ðñ det M  0 et, dans ce cas, detpM 1 q  pdet M q1 .

Preuve. C’est la traduction matricielles des théorèmes 17 et 18 consacrés aux déterminants


d’endomorphismes. cqfd

Proposition 9 (Déterminant de matrices semblables).

Deux matrices semblables ont même déterminant.

Preuve. Si A et B sont semblables, il existe une matrice inversible P telle que B  P 1 AP et


donc detpP 1 AP q  detpP 1 q det A det P  det A. cqfd
Remarques.
Si M et N sont deux matrices carrées d’ordre n ¥ 2, detpM N q est (presque) toujours différent
de det M det N .
L’application det est une application continue sur l’espace vectoriel normé Mn pKq, car application
polynomiale en les composantes des matrices. On en déduit que GLn pKq est une partie ouverte
de Mn pKq comme image réciproque de la partie ouverte Kzt0u par l’application continue det.

4.2 Opérations élémentaires sur les lignes et les colonnes d’une matrice
Considérons une matrice carrée A d’ordre n ¥ 1 à coefficients dans K ; on note ai,j le terme
général de cette matrice, C1 ,. . .,Cn ses vecteurs colonnes, et L1 ,. . .,Ln ses vecteurs lignes. On
écrira indifféremment  
L1
A  rai,j s 1¤i¤n  rC1 | . . . | Cn s  ..
¤¤
1 j n .
Ln

Définition 20.
On appelle opérations élémentaires sur les lignes d’une matrice A une opération de l’une des
trois formes suivantes :
piq Li Ð Li λLj avec i  j : Ajouter à une ligne un multiple d’une autre ligne.
â

piiq Li Ø Lj : Échanger deux lignes.


piiiq Li Ð µ  Li avec µ  0 : Multiplier une ligne par un scalaire non nul.
â

On définit de manière analogue les opérations élémentaires sur les colonnes d’une matrice.

Définition 21.
On appelle matrice élémentaire toute matrice obtenue en effectuant sur la matrice identité
une opération élémentaire sur les lignes ou sur les colonnes.
Plus précisément, on appelle
piqmatrice de transvection toute matrice notée Bi,j pλq et obtenue en effectuant sur In
l’opération Li Ðâ Li λLj (resp. Cj Ðâ Cj λCi ), avec i  j.
piiq matrice de dilatation toute matrice notée Di pµq et obtenue en effectuant sur In l’opé-
ration Li Ðâ µ  Li (resp. Ci Ðâ µ  Ci ), avec µ  0.
piiiq matrice de permutation toute matrice notée Pi,j et obtenue en effectuant sur In l’opé-
ration Li Ø Lj (resp. Ci Ø Cj ), avec i  j.
32 Cours d’algèbre - PC Collège Stanislas

Exemple 4.9. Voici quelques exemples de matrices élémentaires d’ordre 3.


  
1 0 0 1 0 0 0 1 0
B3,2 p5q  0 1 0 D3 p5q  0 1 0 P1,2  1 0 0
0 5 1 0 0 5 0 0 1

Proposition 10 (Inversibilité des matrices élémentaires).

Soit i, j des entiers distincts, λ et µ des scalaires, µ étant non nul.



1
pBi,j pλqq1  Bi,j pλq pDi pµqq1  Di µ
pPi,j q1  Pi,j

Preuve. Ceci découle de pLi Ð Li λLj q1 


â Li Ð Li  λLj
â cqfd
pLi Ð µ  Li q1 
â Li Ð µ1  Li
â

pLi Ø Lj q1  Li Ø Lj
Proposition 11 (Déterminant d’une matrice élémentaire).

Soit i, j des entiers distincts, λ et µ des scalaires, µ étant non nul.

det pBi,j pλqq  1 det pDi pµqq  µ det pPi,j q  1

Preuve. Les deux premières propriétés découlent du théorème 19. La troisième découle de
l’antisymétrie du déterminant. cqfd

Théorème 22 (Opération élémentaire et multiplication par une matrice élémentaire).

piq Effectuer une opération élémentaire sur les lignes d’une matrice A a le même effet que
de multiplier, à gauche, la matrice A par la matrice élémentaire correspondante.
piiq Effectuer une opération élémentaire sur les colonnes d’une matrice A a le même effet
que de multiplier, à droite, la matrice A par la matrice élémentaire correspondante.


L1
Preuve. Soit une matrice A  .. d’ordre n. On remarque que Bi,j pλq  In λ  Ei,j .
.
Ln  L1
 .. 
.
Donc Bi,j pλq  A  pIn λ  Ei,j q  A  A λ  Ei  Ej AA λ  Ei  Lj 
t L  
 i λ Lj 
 ..
.
t L
Ln
E1
 ..
1

 ...
  
t . 
t
E1 L1

 ...   ...   Ej  L 
   j 
De même Di pµq  A   µ E i   A   µLi  et Pi,j A A
 t     ..   . 
 .  .  cqfd
 .  .  tE

  . 
.. ..  i   Li 
 .  .
t
En Ln .. ..
t
En Ln

Exemples 4.10. Soit une matrice A 
L1
L2 d’ordre 3. Alors, effectuer sur A. . .
L3

piq Ø L2 revient à effectuer le produit P1,2  A 
L2
l’opération L1 L1
L3

piiq Ð L3 5  L2 revient à effectuer le produit B3,2 p5q  A 
L1
l’opération L3 â L2

L3 5 L2
piiiq Ð 5  L3 revient à effectuer le produit D3 p5q  A 
L1
l’opération L3 â L2

5 L3
Déterminants 33

Opérer sur les lignes d’une matrice A revient donc à la multiplier à gauche par une matrice
inversible, produit de matrices élémentaires.
De même opérer sur les colonnes de A revient à la multiplier à droite par une matrice inversible.
1
a) Inverser la matrice A 
1 0
Exemples 4.11. 1 0 1
1 1 1    1 1 0
b) En déduire sans effectuer de calcul l’inverse des matrices B  1 1 0
0 1 1
 
11 1
et C  { {
1 3 0 1 3
1  
1 1

On en déduit le

Théorème 23 (Déterminant de la transposée d’une matrice).

Si M P Mn pKq, on a
det M  det tM
Preuve. (H.P.)
On remarque tout d’abord que le théorème est vrai dans le cas des matrices élémentaires ; en
effet, Di pµq et Pi,j sont symétriques ; de plus, det Bi,j pλq  det Bj,i pλq  1 donc det Bi,j pλq 
t t

1  det Bi,j pλq.


Soit M une matrice carrée d’ordre n. On distingue deux cas :
• Si rgpM q n, alors M et t M sont non inversibles, donc de déterminant nul. Donc dans ce
cas, det M  0  det tM .
• Si rgpM q  n, alors on réduit M par rapport aux lignes par une série d’opérations élé-
mentaires sur les lignes jusqu’à obtenir sa réduite d’Hermite M̃  E`p    E`2 E`1 M où
E`i sont les matrices élémentaires associées aux opérations élémentaires effectuées. Or
rg M  n, donc sa réduite d’Hermite n’est autre que la matrice identité M̃  In . Donc M
s’écrit
1
M  pE`p    E`1 In q In  E` 1
1    E`p
1

Donc

det t M  det t E`1 1    E`p1
 det t pE`p 1 q    t pE`11 q êla transposition inverse l’ordre des facteurs
 det t pE`p1 q    det t pE`1 1 q êpar multiplicativité du déterminant
 det E`p 1     det E`1 1  êE`j est encore une matrice élémentaire
 det E`1 1    det E`p 1 êpar commutativité du produit dans K
 det E`1 1    E`p 1 êpar multiplicativité du déterminant
 det M
cqfd
La proposition suivante décrit notamment l’effet qu’ont les opérations élémentaires sur un déter-
minant.

Proposition 12 (Effet des opérations élémentaires).

Le déterminant d’une matrice carrée est une application n-linéaire alternée des vecteurs
colonnes, et donc

• si on échange deux colonnes d’une matrice, le déterminant se change en son opposé ;


• le déterminant d’une matrice dépend linéairement de chacun de ses vecteurs colonnes ;
• on ne change pas la valeur du déterminant d’une matrice en ajoutant à l’un de ses
vecteurs colonnes, une combinaison linéaire des autres vecteurs colonnes ;
• le déterminant d’une matrice est nul si l’un des vecteurs colonnes est nul, ou si l’un des
vecteurs colonnes est combinaison linéaire des autres vecteurs colonnes.

Puisque le déterminant d’une matrice est égal au déterminant de sa transposée, on peut


remplacer « vecteur colonne » par « vecteur ligne » dans les propriétés précédentes.
34 Cours d’algèbre - PC Collège Stanislas

Conséquence. Pour calculer le déterminant d’une matrice, une méthode consiste à la réduire
sous forme échelonnée en lignes à l’aide d’opérations élémentaires sur les lignes et à appliquer
ensuite le théorème 19.
Exemples 4.12. Calculer les déterminants suivants
   

 1 4

2 

 2 8 6 8 


 3 1 2 5 


 2 8  9  ;

 3 9 5 10 
 ;

 0 5 3 6 


 1 7 0 

 3 0 1 2 


 6 7 7 4 
 1 4 0 6   5 8 0 9 

Remarque. Le calcul d’un déterminant d’ordre n par cette méthode nécessite environ 2n3 {3
opérations, contre n! dans le cas d’un développement suivant une rangée (cf. Th. 26). Dès lors
un ordinateur classique est capable de calculer par cette méthode un déterminant d’ordre 25 en
une fraction de secondes puisqu’il y a 10 000 opérations à effectuer (contre 1, 5  1025 opérations
dans le cas d’un développement « brutal »).
Exemples 4.13. Soit λ P R. Calculer les déterminants suivants
 λ3   
 λ3 2   
1 0 0   1 λ  1 11 
3  3  
D1 pλq  D2 pλq  D3 pλq 

 1 
λ 5 2  ;  4
 6
λ 1 0

0 
1 λ 2 1  ;  8 3 λ 54
  4 
1 3 λ
14 5 1 λ
 15 
4 3 λ
11λ
10 11

4.3 Déterminant d’une matrice triangulaire par blocs


Soit C  pε1 , . . . , εn q est la base canonique de Kn , E 1 le sous-espace vectoriel de Kn de base
C1  pε2 , . . . , εn q et E 2 le sous-espace vectoriel de Kn de base C2  pε1 , . . . , εn1 q. L’application

f : px1 , . . . , xn1 q ÞÑ detC pε1 , x1 , . . . , xn1 q

est une forme pn  1q-linéaire alternée sur E 1 ; elle est donc proportionnelle à detC1 , et comme
f pC1 q  detC pε1 , ε2 , . . . , εn q  1, on a l’égalité

@px1 , . . . , xn1 q P E 1 , detC pε1 , x1 , . . . , xn1 q  detC1 px1 , . . . , xn1 q


De même, en utilisant la pn  1q-forme linéaire alternée sur E 2

g : px1 , . . . , xn1 q ÞÑ detC px1 , . . . , xn1 , εn q

on obtient

@px1 , . . . , xn1 q P E 2 , detC px1 , . . . , xn1 , εn q  detC2 px1 , . . . , xn1 q

Nous venons de démontrer le

Lemme 2.
Si A P Mn1 pKq, alors
 
1 01,n1 0n1,1
det
0n1,1 A
 det A  det 01,n1
A
1

Lemme 3.
Si A P Mn1 pKq et B P M1,n1 pKq, alors
 
1 01,n1
det
0n1,1
B
A
 det A  det A
t
B 1
Déterminants 35

Preuve. On pose B  pb2 , . . . , bn q ; on effectue les transformations Cj Ðâ Cj  bj C1 pour


j P J2, nK ; ces transformations laissent le déterminant invariant et donnent :
 
1 1 01,n1
det
0n1,1
B
A
 det 0n1,1 A
 det A
De même, en effectuant les transformations Cj Ð Cj  bj Cn pour j P J1, n  1K, on obtient :
â

 
0n1,1 0n1,1
det
A
t
B 1
 det A
01,n1 1
 det A
cqfd

En utilisant ce lemme et une démonstration par récurrence, on retrouve le

Théorème 24 (Déterminant d’une matrice triangulaire).

Le déterminant d’une matrice triangulaire est le produit des éléments de sa diagonale prin-
cipale.

Lemme 4.
Soit A P Mq pKq, B P Mp,q pKq et C P Mp,q pKq ; alors
 
0
det
Ip
0
B
A
 det A  det A
C Ip

Preuve. La démonstration s’effectue par récurrence sur p (ou sur q) en utilisant le lemme
précédent. cqfd

Théorème 25 (Déterminant d’une matrice triangulaire par blocs).

Si A P Mp pKq, B P Mq pKq et C P Mp,q pKq, on a



det
A
0
C
B
 det A  det B

Preuve. On écrit la matrice dont on veut calculer le déterminant, comme un produit de deux
matrices du type précédent, en utilisant le produit matriciel par blocs
  
0
M  A
0
C
B
 Ip
0 B
A
0
C
Iq
 NR
Le lemme précédent et det M  det N  det R donnent le résultat. cqfd

5 Développement d’un déterminant suivant une rangée


5.1 Mise en place
Soit M  rai,j s  pC1 , . . . , Cn q une matrice carrée
°n d’ordre n ¥ 2, E  pE1 , . . . , En q la base
canonique de Mn,1 pKq ; pour j P J1, nK, Cj  i1 ai,j Ei . Le déterminant de M se développe
suivant son j e argument en utilisant la linéarité et l’on a
ņ ņ ņ
det M  detE pC1 , . . . , ak,j Ek , . . . , Cn q  ak,j detE pC1 , . . . , Ek , . . . , Cn q  ak,j Ak,j

k 1 k 1  
k 1
36 Cours d’algèbre - PC Collège Stanislas

où les déterminants Ak,j s’exprime par

a1,1    a1,j1 0 a1,j 1    a1,n


................................................
ak1,1    ak1,j 1 0 ak1,j 1    ak1,n
Ak,j  ak,1    ak,j1 1 ak,j 1    ak,n
ak 1,1    ak 1,j 1 0 ak 1,j 1    ak 1,n
................................................
an,1    an,j1 0 an,j 1    an,n
soit, en effectuant pj  1q transpositions de colonnes,

0 a1,1    a1,j1 a1,j 1    a1,n


................................................
0 ak1,1    ak1,j 1 ak1,j 1    ak1,n
Ak,j  p1qj1 1 ak,1    ak,j1 ak,j 1    ak,n
0 ak 1,1    ak 1,j 1 ak 1,j 1    ak 1,n
................................................
0 an,1    an,j1 an,j 1    an,n
ce qui donne, en effectuant pk  1q transpositions de lignes,

1 ak,1    ak,j1 ak,j 1    ak,n


0 a1,1    a1,j1 a1,j 1    a1,n
................................................
Ak,j  p1qpj1q pk1q 0 ak1,1    ak1,j 1 ak1,j 1    ak1,n
0 ak 1,1    ak 1,j 1 ak 1,j 1    ak 1,n
................................................
0 an,1    an,j1 an,j 1    an,n
a1,1    a1,j1 a1,j 1    a1,n
.............................................
ak1,1    ak1,j 1 ak1,j 1    ak1,n
 p1qj k
ak 1,1    ak 1,j 1 ak 1,j 1    ak 1,n
 p1qj k
det Mk,j
.............................................
an,1    an,j1 an,j 1    an,n
Ainsi Ak,j  p1qk j
det Mk,j où Mk,j est la matrice déduite de M par suppression de la k e ligne
et de la j e colonne.

Définitions 22 (Mineur, cofacteur).

Si M  rai,j s est une K-matrice carrée d’ordre n ¥ 2, on appelle


• mineur relatif à l’élément ai,j , le déterminant de la matrice carrée Mi,j d’ordre pn  1q
et déduite de M par la suppression de la ie ligne et de la j e colonne ;
• cofacteur de ai,j , le scalaire p1qi j det Mi,j .

Théorème 26 (Développement du déterminant suivant une rangée).

Si M  rai,j s est une K-matrice carrée d’ordre n ¥ 2 et Ai,j le cofacteur de ai,j , alors, pour
tout i et tout j dans J1, nK, on a

• det M  ak,j Ak,j , développement du déterminant suivant la j e colonne ;

k 1

• det M  ai,k Ai,k , développement du déterminant suivant la ie ligne.

k 1
Déterminants 37

Preuve. La première formule a été démontrée. Pour la seconde, on utilise l’égalité du détermi-
nant de M et de sa transposée, et le développement de det tM par rapport à la ie colonne de
t
M , i.e. la ie ligne de M . cqfd
Exemple 4.14. Calculer les déterminants des exemples 4.12 et 4.13 en utilisant la formule de
développement suivant une rangée.

5.2 Matrice des cofacteurs

Définition 23 (Matrice des cofacteurs).

Si M  rai,j s est une K-matrice carrée d’ordre n ¥ 2, on appelle matrice des cofacteurs ou
comatrice de M , et on note Com M , la matrice de terme général Ai,j , le cofacteur relatif
à ai,j .  
Com M  rAi,j s  p1qi j det Mi,j

Théorème 27 (Formule de la comatrice).

Pour toute K-matrice carrée M d’ordre n ¥ 2, on a

M tpCom M q  t
pCom M qM  pdet M qIn

Preuve. Si, dans°n M , on remplace la j colonne pak,j qk par pbk qk , le déterminant de cettee nouvelle
e

matrice s’écrit k1 bk Ak,j : c’est le développement du déterminant par rapport à sa j colonne.
Si la nouvelle colonne pbk q1¤k¤n est la ie colonne de M , le déterminant est nul si i  j, et vaut
det M si i  j, ce qui s’écrit

@pi, j q P J1, nK2 , ak,i Ak,j  δj,i pdet M q

k 1

ou encore, puisque p tpCom M q M qj,i  °nk1 Ak,j ak,i ,


t
pCom M q M  pdet M qIn
Par une méthode analogue, on montre que

@pi, j q P J1, nK2 , ai,k Aj,k  δi,j pdet M q

k 1

ce qui revient à écrire


M tpCom M q  pdet M qIn
cqfd
Remarque. M ÞÑ Com M est une application continue de Mn pKqdans Mn pKq, car les compo-
santes de Com M sont polynomiales en les coefficients de M .

Corollaire 8 (Inverse d’une matrice carrée).

Si M est une matrice carrée inversible d’ordre n ¥ 2, on a

M P GLn pKq ùñ M 1  det1M tpCom M q

Remarques. Exceptés les cas n  2 et n  3, cette formule ne peut servir au calcul numérique
de l’inverse car elle comporte trop d’opérations.
 
 a c
P GL2 pKq ùñ M 1 
1 d c
M
b d ad  bc b a
Par contre, elle est utile dans des questions théoriques ; par exemple, M ÞÑ M 1 est une bijection
continue de GLn pKq (c’est même une involution) car produit de deux applications continues.
38 Cours d’algèbre - PC Collège Stanislas

 b 0
Exemple 4.15. Déterminer à quelle condition la matrice A  a
b
0
a c
c a
est inversible et
calculer son inverse.

6 Résolution des systèmes linéaires


6.1 Quelques notations
Soit n et p deux entiers au moins égaux à 1, et E  pE1 , . . . , En q la base canonique de Mn,1 pKq.
À toute matrice M  rai,j s  pC1 , . . . , Cp q P Mn,p pKq, on associe l’application linéaire u de Kp
vers Kn telle que :
MatB,C puq  M

Pour j P J1, pK, on note cj  pa1,j , . . . , an,j q  tCj P Kn , b  pb1 , . . . , bn q  tB P Kn et


x  px1 , . . . , xp q  tX P Kp divers vecteurs.
Tout système linéaire pLq de n équations à p inconnues peut s’écrire de manière

$
'
'    a1,p xp  b1
a1,1 x1
a2,1 x1    a2,p xp  b2
&
• analytique :
'
' .............................
an,1 x1    an,p xp  bn
%

¸
p ¸
p
• vectorielle : x j cj  b ou encore xj Cj B

j 1 
j 1
• matricielle : M X  B ;
• fonctionnelle : upxq  b.

Les rangs de M , de u, de la famille de vecteurs pc1 , . . . , cp q ou de la famille pC1 , . . . , Cp q sont


égaux ; cet entier est noté r et appelé rang du système linéaire pLq.

6.2 Cas des systèmes de Cramer

Définition 24 (Systèmes de Cramer).

Un système linéaire pLq de n équations à n inconnues est appelé système de Cramer si, et
seulement si, l’une des conditions équivalentes suivantes est vérifiée
piq n  p  r ;
piiq M P GLn pKq ;
piiiq u est inversible.

Théorème 28 (Formules de Cramer).

Avec les notations précédentes, l’unique solution d’un système de Cramer est donnée par

@j P J1, nK , xj  det Mj
det M
où Mj est la matrice déduite de M en remplaçant le vecteur colonne Cj par le second
membre B.
Déterminants 39

Preuve. X  tpx1 , . . . , xn q est solution de pLq si, et seulement si, °nj1 xj Cj  B. On a donc
det Mj  detpC1 , . . . , Cj1 , B, Cj 1 , . . . , Cn q

 detpC1 , . . . , Cj1 , xk Ck , Cj 1 , . . . , Cn q

k 1

 xk detpC1 , . . . , Cj 1 , Ck , Cj 1 , . . . , Cn q (det est n-linéaire)

k 1
 xj detpC1 , . . . , Cj1 , Cj , Cj 1 , . . . , Cn q (det est alterné)
 xj det M
Puisque det M  0, on a le résultat annoncé. cqfd

6.3 Cas des systèmes homogènes


Un système linéaire est dit homogène si le second membre b est nul ; il admet toujours au moins
une solution : la solution nulle.
L’ensemble des solutions d’un système linéaire homogène est un sous-espace vectoriel de Kp de
dimension p  r, c’est Ker u ; il suffit d’en exhiber une base.
Réduction
des endomorphismes 5
Sommaire
1 Sous-espaces vectoriels stables . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.2 Cas de la dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.3 Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2 Valeurs propres, vecteurs propres d’un endomorphisme . . . . . . . . . . . . 42
2.1 Droite stable par un endomorphisme . . . . . . . . . . . . . . . . . . . . 43
2.2 Vecteur propre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3 Valeur propre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.4 Sous-espace propre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3 Valeurs propres, vecteurs propres d’une matrice carrée . . . . . . . . . . . . 46
3.1 Éléments propres d’une matrice carrée . . . . . . . . . . . . . . . . . . . 47
3.2 Lien avec les endomorphismes . . . . . . . . . . . . . . . . . . . . . . . 47
3.3 Cas de deux matrices semblables . . . . . . . . . . . . . . . . . . . . . . 48
3.4 Cas des matrices réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4 Polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.1 Puissance d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . 49
4.2 Polynômes d’un endomorphisme ou d’une matrice . . . . . . . . . . . . . 49
4.3 Polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.4 Éléments propres et polynôme d’endomorphisme . . . . . . . . . . . . . . 52
4.5 Polynôme minimal d’un endomorphisme . . . . . . . . . . . . . . . . . . 52
4.6 Polynôme caractéristique d’une matrice carrée . . . . . . . . . . . . . . . 54
4.7 Polynôme caractéristique d’un endomorphisme . . . . . . . . . . . . . . . 55
4.8 Propriétés du polynôme caractéristique . . . . . . . . . . . . . . . . . . . 55
4.9 Multiplicité d’une valeur propre . . . . . . . . . . . . . . . . . . . . . . . 57
5 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.1 Endomorphisme diagonalisable . . . . . . . . . . . . . . . . . . . . . . . 58
5.2 Caractérisation des endomorphismes diagonalisables . . . . . . . . . . . . 58
5.3 Endomorphisme diagonalisable, dimension des sous-espaces propres . . . 59
5.4 Endomorphisme diagonalisable et polynôme annulateur . . . . . . . . . . 59
5.5 Endomorphisme diagonalisable et sous-espace stable . . . . . . . . . . . 61
5.6 Cas des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7 Applications de la réduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
7.1 Résolution d’un système différentiel linéaire . . . . . . . . . . . . . . . . 63
7.2 Calcul de la puissance ne d’une matrice . . . . . . . . . . . . . . . . . . 63
7.3 Étude d’une famille de suites récurrentes linéaires . . . . . . . . . . . . . 63
7.4 Étude d’une suite récurrente linéaire d’ordre 3 . . . . . . . . . . . . . . . 63
Réduction des endomorphismes 41

Dans ce chapitre, K désigne R ou C et on identifie Mn,1 pKq à Kn .

1 Sous-espaces vectoriels stables


1.1 Généralités

Définition 25 (Sous-espace vectoriel stable).

Soit E un K-espace vectoriel et u un endomorphisme de E ; un sous-espace vectoriel F de E


est dit stable pour u si, et seulement si, upF q est inclus dans F .

F est stable par u ðñ p@x P F, upxq P F q

Proposition 13 (Stabilité et famille génératrice).

F est un sous-espace vectoriel stable par u si, et seulement si, l’image par u d’une famille
génératrice de F est contenue dans F .

Preuve. La condition est évidemment nécessaire : les éléments d’une famille génératrice de F
sont des éléments particuliers de F .
Réciproquement, si pf1 , . . . , fp q engendre F , alors pupf1 q, . . . , upfp qq engendre upF q, grâce à la
linéarité de u :
¸
p ¸
p
x λ j fj P F ùñ upxq  λj upfj q P upF q

j 1 
j 1

ce qui donne la condition suffisante. cqfd

Proposition 14 (Application induite sur un sous-espace vectoriel stable).

Soit u est un endomorphisme de E et F un sous-espace vectoriel stable par u.


Alors l’application
v : F ÝÑ F
x ÞÝÑ upxq
induite par u sur F , est un endomorphisme de F .

Preuve. L’application v est à valeurs dans F et est linéaire puisque u l’est. cqfd

Théorème 29 (Stabilité de l’image et du noyau).

Si u et v sont deux endomorphismes de E qui commutent, Im u et Ker u sont stables par v.


Preuve.
Soit y  upxq un vecteur quelconque de Im u, son image par v, v pyq  v upxq 
u v pxq reste dans Im u.
 
Si x est élément de Ker u, alors u v pxq  v upxq  v p0q  0, et v pxq reste dans Ker u. cqfd

1.2 Cas de la dimension finie


E est un K-espace vectoriel de dimension finie n ; rappelons que si F est un sous-espace vectoriel
de dimension p, toute base de E dont les p premiers vecteurs constituent une base de F , est
appelée base de E adaptée à F . Le théorème de la base incomplète montre l’existence de telle
base.
42 Cours d’algèbre - PC Collège Stanislas

Théorème 30 (Caractérisation des sous-espaces vectoriels stables).

Soit F est un sous-espace vectoriel de E, B une base de E adaptée à F et u un endomorphisme


de E ; alors F est stable par u si, et seulement si, la matrice de u relativement à B est
triangulaire supérieure par blocs, soit

MatB puq 
A B
0 C

Preuve. Soit B  pei , . . . , ep , ep 1 , . . . , en q une base de E telle que les p premiers vecteurs
pe1 , . . . , ep q constituent une base
°nde F ; F est stable par u si, et seulement si, pour tout j P J1, pK,
upej q est dans F . Or, upej q  i1 ai,j ei appartient à F si, et seulement si, ai,j  0 pour i ¡ p,
i.e. si, et seulement si, les p premières colonnes de la matrice de u ont des 0 à partir de la ligne
pp 1q. cqfd

1.3 Généralisation
 i`1 Fi , et si Bj est une base de Fj , alors B ”pj1 Bj est une base de E adaptée à cette
p
Si E
décomposition en somme directe.

Théorème 31.
Soit E un K-espace vectoriel de dimension finie, F1 ,. . . , Fp des sous-espaces vectoriels dont
E est la somme directe, B une base de E adaptée à cette décomposition et u un endomor-
phisme de E ; alors u stabilise chacun des sous-espaces Fj si, et seulement si, la matrice de
u relativement à B est diagonale par blocs, i.e.

A1 0 ... 0

 0 .. .. 
A2 . . 
MatB puq 
 
 . .. .. 
 .
 . . . 0 
0 ... 0 Ap

En appelant uj l’endomorphisme induit par u sur le sous-espace stable Fj , Aj est la matrice de


uj relativement à la base Bj et

det u  det A1      det Ap  det u1      det up


Si D est une droite vectorielle, tout endomorphisme de D est une homothétie ; ainsi, si D est une
droite vectorielle de E, stable par u, l’endomorphisme de D induit par u est une homothétie de
D ce qui donne le

Théorème 32 (Endomorphisme de matrice diagonale).

Soit E un K-espace vectoriel de dimension finie n, B  pe1 , . . . , en q une base de E et u un


endomorphisme de E ; alors, la matrice de u dans B est diagonale si, et seulement si, pour
tout j P J1, nK, la restriction uj de u à Kej est une homothétie.

2 Valeurs propres, vecteurs propres d’un endomorphisme


E est un K-espace vectoriel de dimension finie ou non et u un endomorphisme de E.
Réduction des endomorphismes 43

2.1 Droite stable par un endomorphisme


Si u est un endomorphisme de E et D une droite (vectorielle) stable par u, u|D est un endomor-
phisme de D, donc une homothétie de D ; il existe donc un unique scalaire λ, dépendant de D,
tel que
u|D  λID i.e. @x P D, upxq  λx

2.2 Vecteur propre

Définitions 26 (Vecteur propre, valeur propre associée).

Si u est un endomorphisme de E, tout vecteur e non nul qui dirige une droite vectorielle
stable par u est appelé un vecteur propre de u.
Le rapport de l’homothétie induite par u sur D  Ke est appelé valeur propre associée au
vecteur propre e.

e  0 est un vecteur propre pour u ðñ D  Ke est stable par u


ðñ D!λ P K, upeq  λe

Remarques.
La valeur propre associée à un vecteur propre est unique. 
Un vecteur non nul e est un vecteur propre si, et seulement si, la famille e, upeq est une famille
liée, autrement dit si, et seulement si, upeq est colinéaire à e.
Si e est un vecteur propre pour u, tous les vecteurs non nuls de la droite stable Ke sont des
vecteurs propres pour u et sont associés à la même valeur propre. Remarquons donc que, si e est
un vecteur propre de u associé à la valeur propre λ, pour tout α P K , αe est encore un vecteur
propre de u associée à la même valeur propre λ.

Exemples 5.1. Quels sont les vecteurs propres de IdE ? de 0LpE q ?

Exemples 5.2. Quels sont les vecteurs propres d’une rotation vectorielle du plan ? d’une rotation
vectorielle de l’espace ? d’une réflexion de l’espace ? d’un projecteur (non trivial) de l’espace ?

2.3 Valeur propre

Définitions 27 (Valeur propre, spectre).

Soit u est un endomorphisme de E ; on appelle valeur propre de u, tout scalaire λ tel qu’il
existe un vecteur x non nul de E vérifiant upxq  λx.
L’ensemble des valeurs propres d’un endomorphisme u est appelé le spectre de u et noté sp u.

λ P sp u ðñ Dx P E, x  0E et upxq  λx

Remarque. Le vecteur x de la définition précédente est un vecteur propre de u ; il est dit associé
à la valeur propre λ.

Exemples 5.3. Quel est le spectre de IdE ? de 0LpE q ?

Exemples 5.4. Quel est le spectre d’une rotation vectorielle du plan ? d’une rotation vectorielle
de l’espace ? d’une réflexion de l’espace ? d’un projecteur (non trivial) de l’espace ?
44 Cours d’algèbre - PC Collège Stanislas

Proposition 15 (Caractérisation des valeurs propres).

Si u un endomorphisme de E, alors

λ P sp u ðñ Kerpu  λIdE q  t0E u ðñ u  λIdE non injective


En particulier,
0 P sp u ðñ u non injective
Si u est un automorphisme de E, sppu1 q  tλ1 | λ P sp uu.

Preuve. Si λ est une valeur propre de u, il existe un vecteur (propre) non nul x P E tel que
upxq  λx, égalité que l’on peut encore écrire 0  upxq  λx  pu  λIdE qpxq ; ceci donne les
équivalences annoncées.
Si u est un automorphisme de E, toutes ses valeurs propres sont non nulles ; pour toute valeur
propre λ et tout vecteur propre x associé, on a :

1
upxq  λx ðñ x  u1 pλxq  λu1 pxq ðñ λ
x  u1 pxq

Ainsi λ est valeur propre de u si, et seulement si, λ1 et valeur propre de u1 et sppu1 q 
tλ1 | λ P sp uu. cqfd

Exemples 5.5. Quel est le spectre d’un endomorphisme nilpotent ?

Proposition 16 (Caractérisation de valeurs propres en dimension finie).

Si u est un endomorphisme d’un K-espace vectoriel de dimension finie n, alors

λ P sp u ðñ u  λIdE non injective ðñ u  λIdE non surjective


ðñ rgpu  λIdE q ¤ n  1 ðñ detpu  λIdE q  0
et aussi
λ R sp u ðñ pu  λIdE q est inversible

Preuve. Rappelons la caractérisations des automorphismes d’un K-espace vectoriel de dimen-


sion finie : si v est un endomorphisme de E, alors

v est inversible ðñ ðñ v est surjectif ðñ


v est injectif rg u  n ðñ det v 0
Ces caractérisations sont appliquées à v  u  λIdE . cqfd

Exemple 5.6. Déterminer le spectre de l’application linéaire f canoniquement associé à la


matrice 
4 1 6
A 2 1 6
2 1 8
Peut-on donner un polynôme annulateur de A ?

Exemple 5.7. On se place dans l’espace vectoriel réel E  FpR, Rq. Quelles sont les valeurs
propres de l’opérateur de dérivation D ? de D  D ?
Réduction des endomorphismes 45

2.4 Sous-espace propre

Définition 28 (Sous-espace propre).

Si u est un endomorphisme de E et λ une valeur propre de u, le sous-espace vectoriel

Eλ puq  Kerpu  λIdE q  tx P E | upxq  λxu

est appelé sous-espace vectoriel propre de u associé à λ.

Remarques.
Eλ puq est constitué de 0E et des vecteurs propres de u associés à λ. Si e est un vecteur propre
de u associé à λ, la droite Ke est contenue dans Eλ puq.
E0 puq  Ker u est le noyau de u.
E1 puq  Kerpu  IdE q  tx P E | upxq  xu est le sous-espace des vecteurs de E invariants par u.

Exemples 5.8. Quels sont les éléments propres d’une homothétie ? d’un projecteur ? d’une
symétrie ? d’une affinité ?

Proposition 17 (Stabilité des sous-espaces vectoriels propres).

Si les endomorphismes u et v commutent, tout sous-espace vectoriel propre relativement à u


est stable par v et réciproquement.

Preuve. Puisque u et v commutent, u  λIdE et v commutent, et donc, Kerpu  λIdE q  Eλ puq


est stable par v. De même Kerpv  λIdE q  Eλ pv q est stable par u. cqfd

Exemple 5.9. Soit E un K-ev de dimension finie. Soit u un endomorphisme de E qui commute
avec tous les endomorphismes de E. Montrer que pour tout vecteur x de E, la famille px, upxqq
est liée.

Théorème 33 (Somme directe de sous-espaces propres).

La somme d’une famille finie de sous-espaces propres associés à des valeurs propres distinctes
deux à deux, est directe.

Preuve. Montrons par récurrence sur le nombre k de sous-espaces vectoriels propres la propriété
suivante :
 à
k
pPk q : « @pλ1 , . . . , λk q P psp uqk , @pi, j q P J1, kK2 , i  j ùñ λi  λj ùñ Eλi »

i 1

• Soit λ1 et λ2 deux valeurs propres distinctes de u. Soit x P Eλ1 puq X Eλ2 puq. Alors

λ1  x  upxq  λ2  x ùñ pλ1  λ2 q  x  0 ùñ x  0q
Donc Eλ1 puq X Eλ2 puq  t0u Autrement dit, la propriété P2 est vraie.
• Supposons la propriété Pk vraie pour un certain entier k. Montrons Pk 1 . Soit λ1 ,. . . ,λk et
λk 1 des valeurs propres deux à deux distinctes de u. D’après le théorème 1, pour prouver
Pk 1 , il suffit de montrer

¸
j

@j P J1, kK , Eλj 1 X Eλi  t0E u

i 1
46 Cours d’algèbre - PC Collège Stanislas

Or les λ1 , . . . , λk sont deux à deux distincts, donc par hypothèse de récurrence, Eλ1 , . . . , Eλk
sont en somme directe, d’où (toujours d’après le théorème 1)

¸
j

@j P J1, k  1K , Eλj 1 X Eλi  t0E u

i 1

°k
Il reste donc à prouver que Eλk 1 puq X i1 Eλi puq  t0E u.
°k °k
Soit xk 1  i1 xi P Eλk 1 puq X i1 Eλi puq avec xi P Eλi ; alors


upxk 1 q  λk 1  xk 1  λk 1 xi

i 1
 ķ ķ ķ
et upxk 1 qu xi  upxi q  λi  xi

i 1 
i 1 i 1 

donc 0 pλk 1  λi q  xi

i 1

°k
ce qui montre que pλk 1  λi q xi  0 puisque la somme i1 Eλi puq est directe (la propriété
est vraie au rang k, puisque les valeurs propres sont distinctes deux à deux) et xi  0.
Ainsi xk 1  0 et la propriété est vraie au rang k 1.
Le théorème de récurrence montre que la propriété est vraie pour tout k.

cqfd

Corollaire 9 (Liberté d’une famille de vecteurs propres).

Toute famille de vecteurs propres, associés à des valeurs distinctes deux à deux, est une
famille libre.

Exemple 5.10. On se place dans l’espace vectoriel réel E  FpR, Rq. Soit n P N fixé. Les
familles suivantes sont-elles des familles libres ?

piq F1  peλ t , . . . , eλ t q pour pλ1 , . . . , λn q P Rn tels que les λi soient deux à deux distincts.
1 n

piiq F2  p1, cos x, cos 2x, . . . , cos nxq.

Corollaire 10 (Majoration du nombre de valeurs propres en dimension finie).

Soit E un K-ev de dimension finie n et u P LpE q.


Le nombre de valeurs propres de l’endomorphisme u est au plus égal à la dimension n de
l’espace E.

Preuve. Supposons par l’absurde que u possède au moins n 1 valeurs propres distinctes. Soit
λ1 , ..., λn 1 des valeurs propres de E, deux à deux distinctes. Pour chaque valeur propre λi , il
existe un vecteur propre xi de u associé à la valeur propre λi . Alors la famille px1 , . . . , xn 1 q est
une famille libre de E. Donc n 1 ¤ dim E  n. D’où la contradiction. cqfd

3 Valeurs propres, vecteurs propres d’une matrice carrée


Dans ce paragraphe, M est une matrice carrée d’ordre n ¥ 1, à coefficients dans K.
Réduction des endomorphismes 47

3.1 Éléments propres d’une matrice carrée

Définition 29 (Vecteur propre d’une matrice carrée).

Un élément non nul X de Kn est appelé vecteur propre de M s’il existe un scalaire λ tel
que M X  λX.
Ce scalaire est unique ; on l’appelle valeur propre associée à X.

Définition 30 (Valeur propre d’une matrice carrée).

Un scalaire λ est une valeur propre de M si M  λIn n’est pas inversible ; tout élément non
nul de KerpM  λIn q est appelé vecteur propre associé à λ.

Définition 31 (Sous-espace vectoriel propre d’une matrice carrée).

Si λ est une valeur propre de M , le sous-espace vectoriel KerpM  λIn q  tX P Kn | M X 


λX u est appelé sous-espace vectoriel propre associé à λ ; il est noté Eλ pM q.

Définition 32 (Spectre d’une matrice carrée).

L’ensemble des valeurs propres de M est le spectre de M ; il est noté spK M ou sp M si le


corps n’est pas ambigu.

spK M  tλ P K | M  λIn R GLn pKqu

Remarque. Rappelons les équivalences pour une matrice carrée

λ P spK M
ðñ M  λIn R GLn pKq ðñ detpM  λIn q  0
ðñ KerpM  λIn q  t0u ðñ rgpM  λIn q ¤ n  1

3.2 Lien avec les endomorphismes


Soit M une matrice carrée d’ordre n. On note uM l’endomorphisme canoniquement associé à M ,
c.-à-d.
u M : Kn ÝÑ Kn
X ÞÝÑ MX

Proposition 18 (Éléments propres d’une matrice et de son endomorphisme).

Les éléments propres de la matrice M sont les élément propres de l’endomorphisme uM


canoniquement associé à M .

Soit E un K-espace vectoriel de dimension finie n, B une base de E, u un endomorphisme de E


et M sa matrice relativement à B. Si x, vecteur de E, est de matrice X relativement à B, upxq
est de matrice M X relativement à B ; d’autre part, x et X sont simultanément nuls ou non, et

upxq  λx ðñ MX  λX
ce qui montre le
48 Cours d’algèbre - PC Collège Stanislas

Théorème 34 (Éléments propres d’un endomorphisme et de sa matrice).

Si u est un endomorphisme de E et M  MatB puq sa matrice relativement à une base B,


alors :

piq u et M ont le même spectre ;


piiq x est vecteur propre de u associé à λ si, et seulement si, sa matrice X  MatB pxq
relativement à B est vecteur propre de M associé à λ.

Corollaire 11 (Majoration du nombre de valeurs propres d’une matrice).

Le nombre de valeurs propres d’une matrice carrée est au plus égal à son ordre.

Exemple 5.11. Déterminer les sous-espaces propres de l’application linéaire canoniquement


associé à la matrice 
4 1 6
A 2 1 6
2 1 8

3.3 Cas de deux matrices semblables


Soit A et B deux matrices semblables d’ordre n, et P une matrice inversible telle que B 
P 1 AP ; on note uA l’endomorphisme canoniquement associé à A. La matrice P peut s’interpréter
comme la matrice de passage de la base naturelle (canonique) E de Kn à une base B constituée
des vecteurs colonnes de P . Relativement à cette base, la matrice de uA est B, d’où le

Théorème 35 (Matrices semblables et endomorphisme).

Deux matrices sont semblables si, et seulement si, elles représentent le même endomorphisme
(relativement à deux bases).

Exemple 5.12. Les matrices suivantes sont-elles semblables ?


 
2 1 0 0 2 0 0 0
 0 2 0 0   0 2 0 0 
A
 ; B
 
0 0 2 0 0 0 2 0
0 0 0 2 0 0 0 2

Corollaire 12 (Spectre de deux matrices semblables).

Deux matrices semblables ont le même spectre.

Preuve. C’est le spectre de l’unique endomorphisme qu’elle représente. cqfd

3.4 Cas des matrices réelles


Une matrice à coefficients réels est aussi une matrice à coefficients complexes. La notion de valeur
propre dépend du corps envisagé et on se gardera de confondre spR M et spC M ; mais on a le

Théorème 36 (Spectres réel et complexe d’une matrice réelle).

Si M est une matrice à coefficients réels, spR M est contenue dans spC M ; en général, les
deux spectres sont distincts.
Réduction des endomorphismes 49

Preuve. Si λ est un élément de spR M et X un vecteur propre associé, alors M X  λX, X est
non nul et appartient à M1,n pRq donc à M1,n pCq ; ainsi λ appartient à spC M .
Considérons la rotation plane d’angle π {2 ; sa matrice, dans une base orthonormale directe, est
A  10 01 et spR A est vide puisque cette rotation n’admet aucune 
droite stable. Par contre, i
 i 1
est une valeur propre complexe de A, puisque A  i I2  1  i n’est pas inversible. cqfd

Proposition 19 (Valeur propre complexe non réelle d’une matrice réelle).

Soit M une matrice carrée d’ordre n ¥ 2 et à coefficients réels ; si λ est une valeur propre
complexe non réelle de M et X un vecteur propre à coefficients complexes associé à λ, alors
λ est une valeur propre de M et X un vecteur propre associé à λ.

Preuve. M X  λX ùñ MX  MX  λ X
cqfd

4 Polynômes annulateurs
On rappelle les notions vues au § 2.2 et on les complète dans le cas particulier de la K-algèbre
des endomorphismes d’un K-ev et de la K-algèbre des matrices carrées d’ordre n.

4.1 Puissance d’un endomorphisme

Définition 33 (Puissance d’un endomorphisme).

Si u est un endomorphisme d’un K-espace vectoriel E, on définit, par récurrence sur k P N,


les puissances k e de u, notés uk , en posant

u0  IdE et @k P N, uk 1
 uk  u

Proposition 20.
Pour tout entier naturel p et q, on a up  uq  uq  up  up q
.

Preuve. Montrons que up  uq  up q


en effectuant une récurrence sur q. La formule est vraie
pour q  0 et

up  uq 1
 up  puq  uq  pup  uq q  u  up q  u  up q 1

La seconde égalité se montre en échangeant le rôle de p et q. cqfd

Remarque. Les endomorphismes up et uq commutent pour tout entier naturel p et q.

4.2 Polynômes d’un endomorphisme ou d’une matrice

Définition 34 (Polynôme d’un endomorphisme).

Si u est un endomorphisme d’un K-espace vectoriel E et P  a0 a1 X  ap X p un


polynôme à coefficients dans K, on pose

P puq  a0 IdE a1 u  ap up

P puq est un polynôme de l’endomorphisme u.


50 Cours d’algèbre - PC Collège Stanislas

Définition 35 (Polynôme d’une matrice).

De même, si M est une matrice carrée d’ordre n, on pose

P pM q  a0 In a1 M  ap M p

P pM q est un polynôme de la matrice M .

°
Remarque. Rappelons qu’un polynôme P peut s’écrire°P  i ai X i où la° suite pai qi est nulle à
partir d’un certain rang ; dans ces conditions, P puq  i ai ui et P pM q  i ai M i .

Proposition 21 (Règles de calcul, cas des endomorphismes).

L’application ϕu : PP KrX s ÞÑ P puq P LpE q est un morphisme d’algèbre ; en particulier



@u P LpE q, @pP, Qq P KrX s2 , P Q puq  P puq  Qpuq

Preuve. ° ° °
ϕu pλP µQq  i pλai µbi qui  λ i ai ui µ i bi ui  λϕu pP q µϕu pQq
ϕu p1q  IdE
Quant à l’égalité ϕu pP Qq  ϕu pP q  ϕu pQq, on commence par la démontrer pour Q  X k :
¸ ¸ 
ϕu pP X k q  ai ui k
 ai ui  uk  ϕu pP q  ϕu pX k q
i i
°
puis dans le cas général Q  k bk X
k
en utilisant la linéarité de ϕu :
¸ ¸ ¸
ϕu pP Qq  ϕu bk P X k  bk ϕu pP X k q  bk ϕu pP q  ϕu pX k q
k k k
¸ 
 ϕu pP q  bk ϕu pX k q  ϕu pP q  ϕu pQq
k

cqfd

Proposition 22 (Règles de calcul, cas des matrices).

L’application ϕM : PP KrX s ÞÑ P pM q P Mn pKq est un morphisme d’algèbre ; en particulier



@M P Mn pKq, @pP, Qq P KrX s2 , P Q pM q  P pM qQpM q

Preuve. Même démonstration que précédemment. cqfd


Puisque up commute avec uq , les endomorphismes u et P puq commutent, ainsi que P puq et Qpuq,
ce qui donne la

Proposition 23 (u-stabilité de Ker P puq et de Im P puq).

Pour tout polynôme P à coefficients dans K et tout endomorphisme u de E, Im P puq et


Ker P puq sont stables par u.

Proposition 24.
Soit une matrice triangulaire par blocs, M  A  , alors, pour tout polynôme Q, on a
0 B
QpM q  Qp0Aq Qp?B q .
Réduction des endomorphismes 51


Preuve. L’application Q ÞÝÑ QpM q  Qp0Aq Qp?Bq est linéaire ; donc il suffit de prouver la
propriété pour les monômes Q  X k où k décrit N, ce que l’on obtient par une récurrence laissée
en exercice au lecteur. cqfd

Proposition 25.
Si deux matrices A et B sont semblables, alors, pour tout polynôme Q, les matrices QpAq et
QpB q sont semblables.

Preuve. °Par hypothèse, il existe une matrice inversible P P GLn pKq telle que B  P 1 AP .
Soit Q  k0 ck X k P KrX s Alors
m

m̧ m̧ m̧
QpB q  ck B k  ck pP 1 AP qk  c k P 1 A k P
 
k 0 
k 0


k 0
m̧ m̧
 P 1 ck Ak P  P 1 ck Ak P  P 1 QpAqP

k 0 
k 0

cqfd

Exemple 5.13. Quel est le spectre des matrices suivantes ? Sont-elles semblables ?
 
2 1 0 0 2 1 0 0
 0 2 1 0   0 2 0 0 
A
 0
 ; B   
0 2 0  0 0 2 1
0 0 0 2 0 0 0 2

4.3 Polynômes annulateurs

Définition 36.
Soit M P Mn pKq et P P KrX s un polynôme non nul.
On dit que P est un polynôme annulateur de M lorsque P pM q  0.

Proposition 26.
Si P est un polynôme annulateur de la matrice M , alors tout multiple non nul de P est
encore un polynôme annulateur de M .

Remarque. Parmi les polynômes annulateurs d’une matrice, ce sont donc ceux qui sont de plus
bas degré qui sont les plus intéressants...

Théorème 37.
Toute matrice carrée admet au moins un polynôme annulateur.


Preuve. On a dim Mn pKq  n2 ; donc la famille In , A, A2 , . . . , An est nécessairement liée.
2

cqfd

Corollaire 13.
Tout endomorphisme d’un K-ev de dimension finie admet au moins un polynôme annulateur.
52 Cours d’algèbre - PC Collège Stanislas

4.4 Éléments propres et polynôme d’endomorphisme

Théorème 38 (Éléments propres d’un polynôme d’endomorphisme).

Si x est un vecteur propre de u associé à λ, pour tout polynôme P P KrX s, le vecteur x est
un vecteur propre de P puq associé à P pλq.

Preuve. x est non nul et


upxq  λx ùñ uk pxq  λk x (par récurrence sur k)
Si P  °k ak X k , on a :
¸ ¸ ¸
P puqpxq  ak uk pxq  ak uk pxq  ak λk x  P pλqx
k k k

cqfd

Corollaire 14 (Valeur propre et polynôme annulateur).

Toute valeur propre de u est racine de tout polynôme annulateur de u.

Preuve. Si λ est une valeur propre de u, P pλq est une valeur propre de P puq  0LpE q . Or, 0 est
la seule valeur propre de 0LpE q , d’où P pλq  0 et λ est racine de P . cqfd
Remarque. Que peut-on dire de la réciproque ?

Exemple 5.14. Existe-t-il des endomorphismes ne possédant pas de polynôme annulateur ?

4.5 Polynôme minimal (H.P. mais qu’est-ce que c’est utile !)



Soit E un K-ev de dimension finie n P N et u P LpE q. Alors la famille IdE , u, u2 , . . . , un est
2

une famille liée (puisque elle


 est de cardinal n 1 ¡ n  dim L(pE q).
2 2

L’ensemble K  k P N  IdE , u, u2 , . . . , uk est une famille liée est alors une partie non vide
de N , donc admet un plus petitélément m. Autrement dit, m le plus petit entier strictement
positif tel que IdE , u, u2 , . . . , um soit liée.
Donc il existe m 1 scalaires α0 , . . . , αm tels que
α0  IdE α1  u ... αm1  um1 αm  um  0LpEq
Supposons par l’absurde que αm  0 ; alors la famille pIdE , u, u2 , . . . , um1 q serait liée ; ce qui
contredit la définition de m.
Donc αm  0. En divisant la relation de dépendance linéaire précédente par αm , on en déduit
qu’il existe m scalaires a0 , . . . , am1 tels que
a0  IdE a1  u ... am1  um1 um  0LpEq
Le choix du m-uplet pa0 , . . . , am1 q est unique ; en effet, supposons qu’il existe un autre m-uplet
pb0 , . . . , bm1 q solution du problème, alors en soustrayant les deux égalités, on obtiendrait
a0  IdE a1  u . . . am1  um1 um  0LpEq
b0  IdE b1  u . . . bm1  um1 um  0LpEq
pa0  b0 q  IdE pa1  b1 q  u . . . pam1  bm1 q  um1 0LpEq  0LpEq
ce qui contredirait la minimalité de m !
Le polynôme
a0 a1 X ... am1 X m1 Xm
est appelé le polynôme minimal de u et noté µu ; c’est le polynôme annulateur de u, unitaire, de
plus bas degré.
Réduction des endomorphismes 53

Exemple 5.15. Déterminer le polynôme minimal de l’application linéaire canoniquement asso-


ciée à  0 0 0 0 3
 1 0 0 0 6 
A 0 1 0 0 0 
 0 0 1 0 0
0 0 0 1 0

Les deux propriétés suivantes sont utiles à mémoriser... bien qu’hors-programme : elles expliquent
en quoi le polynôme minimal est intéressant.

Théorème 39.
Soit E un K-ev de dimension finie n P N et u P LpE q.
Un polynôme est un polynôme annulateur de u si, et seulement si, il est multiple du polynôme
minimal de u.

Preuve. Notons µu le polynôme minimal de u.


ðù pQµu qpuq  Qpuq  µu puq  0LpEq
ùñ Soit P un polynôme annulateur de u. Alors d’après le théorème de division euclidienne, il
existe un unique couple de polynômes pQ, Rq tels que P  Q  µu R avec deg R deg µu .
Supposons par l’absurde R  0. Alors
0LpE q  P puq  Qpuq  loµoumo
puonq Rpuq  Rpuq
0LpE q

Donc R est un polynôme annulateur de u dont le degré est strictement inférieur à deg µu , ce qui
contredit la définition du polynôme minimal.
En conclusion R  0, c.-à-d. µu divise P . cqfd

Théorème 40.
Soit E un K-ev de dimension finie n P N et u P LpE q.
Les racines du polynôme minimal de u sont exactement les valeurs propres de u.

Preuve. ðù Le polynôme minimal µu est un polynôme annulateur de u. Donc, d’après le


corollaire 14, toute valeur propre de u est racine de µu .
ùñ Soit λ une racine du polynôme annulateur de u. Alors µu se factorise sous la forme µu 
pX  λq  Q. Sachant que µu est un polynôme annulateur de u, on a
pu  λ  IdE q  pQpuqq  0LpEq
Par ailleurs, Q ne peut être un polynôme annulateur de u (puisque deg Q deg µu ). Donc
Qpuq  0LpE q ; autrement dit, il existe x P E tel que Qpuqpxq  0. Posons y  Qpuqpxq. Alors
pu  λ  IdE qpyq  pu  λ  IdE q  pQpuqpxqq  0LpEq pxq  0
Donc y est valeur propre de u pour la valeur propre λ. cqfd
Remarque. La question se pose de trouver un algorithme pour le calcul du polynôme minimal
d’un endomorphisme u ou d’une matrice A. Bien que la réponse à cette question soit hors-
programme, on peut signaler l’algorithme suivant ; si l’on réduit la matrice λ  In  A sous forme
diagonale (et pas seulement triangulaire !) en utilisant des opérations élémentaires sur les lignes
et sur les colonnes, il est possible de faire apparaître sur la diagonale des polynômes qui sont
diviseurs de leur successeur (en descendant la diagonale) et que le polynôme qui apparaît en bas
de la diagonale est un polynôme annulateur de A : essayez et voyez ! (il paraît même que ce serait
le polynôme minimal, mais « motus »...).
Bien noter que quand on adapte la méthode du pivot à une matrice dont les coefficients sont
des polynômes en λ (ce qui est le cas de λ  In  A), il faut placer en première position la ligne
qui contient, sur la colonne à réduire, le polynôme de plus bas degré et effectuer des divisions
euclidiennes par ce polynôme sur les autres coefficients pour en diminuer le degré, puis de nouveau
placer en première position le polynôme de plus bas degré, jusqu’à annuler tous les coefficients
qui sont en dessous de la diagonale.
54 Cours d’algèbre - PC Collège Stanislas


1 3 3
Exemple 5.16. On considère la matrice A   3 5 3
3 3 1
Réduire la matrice λ  I3  A sous forme triangulaire à l’aide d’opérations élémentaires sur les
lignes. Le dernier polynôme en λ qui apparaît sur la diagonale est-il annulateur ?
Utiliser des opérations élémentaires sur les lignes et les colonnes pour réduire λ  I3  A sous
forme diagonale. Le dernier polynôme en λ qui apparaît sur la diagonale est-il annulateur ?


2 4 3
Exemple 5.17. On considère la matrice A   4 6 3
3 3 1
Réduire la matrice λ  I3  A sous forme triangulaire à l’aide d’opérations élémentaires sur les
lignes. Le dernier polynôme en λ qui apparaît sur la diagonale est-il annulateur ?
Utiliser des opérations élémentaires sur les lignes et les colonnes pour réduire λ  I3  A sous
forme diagonale. Le dernier polynôme en λ qui apparaît sur la diagonale est-il annulateur ?


1 4 2
Exemple 5.18. On considère la matrice A  3 4 0
3 1 3
Réduire la matrice λ  I3  A sous forme triangulaire à l’aide d’opérations élémentaires sur les
lignes. Le dernier polynôme en λ qui apparaît sur la diagonale est-il annulateur ?
Utiliser des opérations élémentaires sur les lignes et les colonnes pour réduire λ  I3  A sous
forme diagonale. Le dernier polynôme en λ qui apparaît sur la diagonale est-il annulateur ?

4.6 Polynôme caractéristique d’une matrice carrée


Si M est une matrice carrée d’ordre n ¥ 1 à coefficients dans K, XIn  M est une matrice à
coefficients dans KrX s sous-anneau du corps KpX q des fractions rationnelles. Le déterminant de
XIn  M est polynomial en les coefficients de cette matrice, il est donc élément de KrX s, ce qui
permet la

Définition 37 (Polynôme caractéristique d’une matrice carrée).

Si M  rai,j s est une matrice carrée d’ordre n ¥ 1, le polynôme caractéristique de M , que


l’on note χM , est le déterminant

 a1,1 a1,2    a1,n


X
χM pX q  detpXIn  M q 
 a2,1 X  a2,2    a2,n
...................................
an,1 an,2    X  an,n

Remarque. X est ici une indéterminée ; en cas d’indigestion, remplacer X par x ; le polynôme
devient une fonction polynôme ; servir chaud, accompagné d’un verre de Madiran.

Exemples 5.19. Donner le polynôme caractéristique de la matrice identité, la matrice nulle,


une matrice diagonale, une matrice triangulaire.


1 3 3
Exemple 5.20. Factoriser le polynôme caractéristique de A   3 5 3
3 3 1
Réduction des endomorphismes 55

Proposition 27 (Polynôme caractéristique et transposée).

Une matrice et sa transposée ont le même polynôme caractéristique.

Preuve. Rappelons qu’une matrice et sa transposée ont le même déterminant ; d’où



XIn  tM  tpXIn  M q ùñ detp tXIn  M q  det pXIn  M q  detpXIn  M q
t

cqfd

Proposition 28 (Polynôme caractéristique et matrices semblables).

Deux matrices semblables ont le même polynôme caractéristique.

Preuve. Rappelons que deux matrices semblables ont le même déterminant. Si A et B sont
deux matrices semblables, et P une matrice inversible telle que B  P 1 AP , alors

B  P 1 AP ùñ XIn  B  XIn  P 1 AP  P 1 pXIn  AqP


les matrices XIn  B et XIn  A sont semblables, d’où

χB  detpXIn  B q  det P 1 pXIn  AqP  detpXIn  Aq  χA
ce qui donne le résultat. cqfd

4.7 Polynôme caractéristique d’un endomorphisme


Soit u un endomorphisme de E, B et C deux bases de E ; les matrices MatB puq et MatC puq sont
des matrices semblables ; elles admettent donc le même polynôme caractéristique, ce qui permet
la

Définition 38 (Polynôme caractéristique d’un endomorphisme).

Si u est un endomorphisme d’un K-espace vectoriel E de dimension finie n ¥ 1, le polynôme


caractéristique de la matrice qui représente u dans une base donnée B de E, est indépendant
du choix de cette base ; on l’appelle polynôme caractéristique de l’endomorphisme u ; il est
noté χu . 
χu  det XIn  MatB puq où B est une base de E

Exemples 5.21. Donner le polynôme caractéristique de IdE , de 0LpE q .

4.8 Propriétés du polynôme caractéristique


Nous indiquerons, dans ce paragraphe, les propriétés du polynôme caractéristique d’une matrice ;
le lecteur, dans sa grande bonté, effectuera lui-même les modifications qu’il jugera utiles pour
exprimer les propriétés du polynôme caractéristique d’un endomorphisme.
Quelle est l’utilité du polynôme caractéristique ? Déterminer les valeurs propres d’une matrice,
ou d’un endomorphisme.

Théorème 41 (Polynôme caractéristique et valeurs propres).

Les valeurs propres d’une matrice sont les racines sur K de son polynôme caractéristique.

Preuve. λ P spK M ðñ M  λIn R GLn pKq ðñ 0  detpλIn  M q  χM pλq et λ P K. cqfd


56 Cours d’algèbre - PC Collège Stanislas

λ P sp u ðñ χu pλq  0
λ P sp *
u ðñ µu pλq  0
λ P sp u
À retenir :
P puq  0LpE q ùñ P pλq  0 (réciproque fausse !)

Corollaire 15 (Spectre d’une matrice complexe).

Toute matrice à coefficients complexes admet, au moins, une valeur propre (complexe).

Preuve. Tout polynôme à coefficients complexes admet une racine complexe, c’est le théorème
de d’Alembert. cqfd

Proposition 29 (Coefficients du polynôme caractéristique).

χM est un polynôme de degré n et

χM  X n  ptr M q X n1    p1qn det M

Preuve. L’égalité χM p0q  p1qn det M donne le coefficient constant.


Quant au coefficient de X n1 , on admet le résultat. cqfd

Exemple 5.22. Exprimer le polynôme caractéristique d’une matrice M carrée d’ordre 2. Montrer
que c’est un polynôme annulateur de M .

Corollaire 16 (Cas des polynômes caractéristiques scindés).

Si le polynôme caractéristique de M est scindé sur K, avec χM  ±ni1 pX  λi q, alors


ņ ¹
n
sp M  tλ1 , . . . , λn u, tr M  λi , det M  λi

i 1 
i 1

±n
Preuve. Il suffit de développer  pλi  X q et d’identifier ce polynôme avec celui de la formule
i 1
précédente. cqfd

Corollaire 17 (Cas des matrices réelles).

Tout matrice à coefficients réels et d’ordre impair admet, au moins, une valeur propre réelle.

Preuve. Si n est impair, χM est de degré impair et χM pxq  xn ; le théorème des valeurs
8
intermédiaires assure l’existence d’une racine réelle pour χM , et spR M n’est pas vide. cqfd

Théorème 42 (Cas d’une matrice triangulaire par blocs).

Le polynôme caractéristique d’une matrice triangulaire par blocs se calcule aisément :



M  A
0
B
C
, avec A P Mq pKq et C P Mq pKq ùñ χM  χA χC


XIp  A
Preuve. XIn  M  B
et le calcul du déterminant d’une matrice trian-
0 XIq  C
gulaire par blocs donne le résultat. cqfd
Réduction des endomorphismes 57

4.9 Multiplicité d’une valeur propre

Définition 39 (Multiplicité d’une valeur propre).

L’ordre de multiplicité d’une racine λ de χM est appelé multiplicité de la valeur propre λ de


M ; elle est noté mpλq.

Remarque. Si χM est scindé et si λ1 ,. . . ,λp sont les valeurs propres deux à deux distinctes de M ,
le polynôme caractéristique de M s’écrit

¹
p ¹
χM  pX  λj qmpλ q 
j
pX  λqmpλq

j 1 P
λ sp M

et la somme des multiplicités des valeurs propres de M est égale à son ordre.

Théorème 43 (Dimension d’un sous-espace vectoriel propre).

Soit λ une valeur propre de M , mpλq sa multiplicité et q pλq la dimension du sous-espace


propre associé ; alors

1 ¤ q pλq  dim Eλ pM q  n  rgpM  λIn q ¤ mpλq

Preuve. Soit u l’endomorphisme canoniquement associé à M . Pour λ P sp u  sp M , on a

• Eu pλq  Kerpu  λIdE q  t0u, donc q pλq ¥ 1 ;


• d’après le théorème du rang, on a

dim Eλ puq  dim Kerpu  λIdE q  n  rgpu  λIdE q

• Eλ puq est un sous-espace stable par u ; dans une base adaptée, la matrice de u est triangu-
laire (supérieure) par blocs, soit 
λIqpλq B
0 C
donc
χN  χu  χM  pX  λqppλq χC
Ceci montre que q pλq ¤ mpλq.

cqfd

Corollaire 18 (Cas des valeurs propres simples).

Le sous-espace propre associé à une valeur propre simple est une droite vectorielle.

Preuve. Les inégalités 1 ¤ q pλq ¤ mpλq  1 donnent le résultat. cqfd

Remarque. Un théorème célèbre (dû à Cayley et Hamilton) affirme que le polynôme caractéris-
tique d’un endomorphisme ou d’une matrice est un polynôme annulateur de cet endomorphisme
ou de cette matrice ; autrement dit

χM pM q  0Mn pKq et χu puq  0LpE q

Ce théorème étant hors programme, on ne fait que le citer pour mémoire ; il est illicite de
l’invoquer en colle ou en devoir ; mais il n’est pas inutile de l’avoir en tête...
À noter que le théorème 39 entraîne alors que le polynôme caractéristique de u est multiple du
polynôme minimal de u ; autrement dit
µu | χu
58 Cours d’algèbre - PC Collège Stanislas

5 Diagonalisation
On suppose ici que E est un K-espace vectoriel vectoriel de dimension finie n ¥ 1 et u un
endomorphisme de E.

5.1 Endomorphisme diagonalisable

Définition 40.
Un endomorphisme de E est dit diagonalisable si E est la somme directe de ses sous-espaces
propres.
u est diagonalisable ðñ E  ` Eλ puq
P
λ sp u

Remarque. La somme des sous-espaces propres de E est toujours directe, mais pas nécessairement
égale à E.

Exemples 5.23. Les homothéties, les projecteurs, les symétries et les affinités sont-ils diagona-
lisables ?

Exemple 5.24. Une rotation vectorielle de R2 , d’angle ϑ  0 rπ s est-elle diagonalisable ?

Exemple 5.25. Un endomorphisme nilpotent est-il diagonalisable ?

5.2 Caractérisation des endomorphismes diagonalisables

Théorème 44.
Si u est un endomorphisme d’un K-espace vectoriel E de dimension finie, alors les propositions
suivantes sont équivalentes :
piq u est diagonalisable ;
piiq E est la somme directe de sous-espaces stables sur lesquels u induit une homothétie ;
piiiq il existe une base de E constituée de vecteurs propres de u ;
pivq il existe une base de E sur laquelle la matrice de u est diagonale.

Preuve.
i ùñ ii Pour toute valeur propre λ de u, Eλ puq est un sous-espace vectoriel stable sur lequel
u induit une homothétie (de rapport λ).
ii ùñ iii Si F est un sous-espace stable sur lequel u induit une homothétie (de rapport k),
tous les vecteurs non nuls de F sont des vecteurs propres de u (associés à k). Une base de E
adaptée à la décomposition de E en somme directe est constituée de vecteurs propres de u.
iii ùñ iv Si B  pe1 , . . . , en q est une base constituée de vecteurs propres de u, la matrice de
u relativement à B est la matrice diagonale Diagpλ1 , . . . , λn q avec λi valeur propre de u associée
au vecteur propre ei (i.e. upei q  λi ei ).
iv ùñ i Quitte à réordonner la base de E sur laquelle la matrice de u est diagonale, on peut
supposer que cette matrice est diagonale par blocs : M  Diagpλj Impλj q qλj PJ1,pK . Le polynôme
±p
caractéristique de u est χu  χM  ij pX  λj qmpλj q , les λj sont les valeurs propres de u
et Eλj puq est de°dimension mpλj ° q de vecteurs de la base de E ; ainsi E est somme directe des
Eλj puq puisque j dim Eλj puq  j mpλj q  n.
cqfd
Réduction des endomorphismes 59

5.3 Endomorphisme diagonalisable, dimension des sous-espaces propres

Théorème 45.
Soit u un endomorphisme d’un K-espace vectoriel de dimension finie ; les propositions sui-
vantes sont équivalentes :
piq u est diagonalisable ;
piiq la somme des dimensions des sous-espaces propres est égale à la dimension de E ;
piiiq le polynôme caractéristique de u est scindé, et, pour toute valeur propre de u, la mul-
tiplicité est égale à la dimension du sous-espace propre associé.
Autrement dit,
¸
u est diagonalisable ðñ dim Eλ puq  n
P
λ sp u

ðñ χu est scindé et @λ P sp u, mpλq  dim Eλ puq

Preuve.
i ðñ ii La somme des sous-espaces vectoriels propres est directe ; cette somme est égale à
E si, et seulement si, sa dimension est la dimension de E ; ceci donne le résultat, puisque la
dimension d’une somme directe est égale à la somme des dimensions de chacun des facteurs.
i ùñ iii Puisque u est diagonalisable, ±il existe une base de E sur laquelle la matrice de u est
diagonale Diagpλ1 , . . . , λn q ; ainsi χu  i1 pX  λi q est un polynôme scindé.
n

On sait que pour toute valeur propre λ, q pλq  dim Eλ puq ¤ mpλq ; d’autre part
¸ ¸
mpλq  n  dim E  dim Eλ puq
P
λ sp u P
λ sp u

° 
ce qui implique que 0  λPsp u mpλq q pλq et chacun des termes de la somme est positif ; tous
les termes de cette somme sont donc nuls.
° °
iii ùñ ii Puisque χu est scindé, λPsp u mpλq  n ; ceci implique que λPsp u dim Eλ puq  n
et u est diagonalisable.
cqfd

Théorème 46 (Cas des valeurs propres simples).

Tout endomorphisme d’un K-espace vectoriel de dimension finie dont le polynôme caractéris-
tique est scindé et a toutes ses racines simples, est diagonalisable et ses sous-espaces propres
sont des droites vectorielles.

Preuve. Dans ce cas, mpλq  dim Eλ puq  1 pour toute valeur propre λ de u. cqfd

Corollaire 19.
Tout endomorphisme d’un K-espace vectoriel de dimension finie n dont le polynôme carac-
téristique admet n racines distinctes est diagonalisable et ses sous-espaces propres sont des
droites vectorielles.

Preuve. Dans ce cas, les racines du polynôme caractéristique sont simples. cqfd

5.4 Endomorphisme diagonalisable et polynôme annulateur


Un des critères les plus efficaces pour prouver qu’une matrice est diagonalisable est donné par le
60 Cours d’algèbre - PC Collège Stanislas

Théorème 47.
Soit u est un endomorphisme d’un K-espace vectoriel de dimension finie. Alors u est dia-
gonalisable si, et seulement si, u annule un polynôme scindé dont toutes les racines sont
simples.

Preuve.
ùñ Appelons λ1 ,. . .,λp les valeurs propres deux à deux distinctes de u. Dans une base adaptée à
la décomposition E  `pj1 Eλj puq, la matrice de u est diagonale par blocs M  Diagpλj Impλj q qj .
±p
Le polynôme P  j 1 pX  λj q est annulateur de M , car, par blocs,
P pM q  DiagpP pλj qImpλj q qj PJ1,pK 0 car λj est racine de P pour tout j P J1, pK
Ainsi le polynôme P est scindé, à racines simples et annulateur de u.
ðù Soit P  ±qk1 pX  λk q un polynôme scindé à racines simples. Les λk étant supposés
deux à deux distincts, on peut considérer la famille pLk q1¤k¤q des polynômes interpolateurs de
Lagrange associée au q-uplet pλk q1¤k¤q . On a alors @pk, lq P J1, qK , Lk pλl q  δj,k .
2

Posons à présent, pour tout k P J1, qK, pk  Lk puq.


On remarque que L2k  Lk est un polynôme qui possède au moins q racines, à savoir les λk ; or
les λk sont deux à deux distincts. Donc P  pX  λ1 q    pX  λq q divise L2k  Lk
Or P annule u ; donc L2k  Lk annule u
Donc 
p2k  pk  pLk puqq  Lk puq  L2k  Lk puq  0LpE q
2

Donc pk est un projecteur. °q


On remarque de même que 1  k1 Lk est un polynôme de degré au plus q  1 et qui possède
au moins q racines (à savoir les λk ) : c’est donc le polynôme nul. Donc
¸
q
Lk 1
k 1 
En passant aux endomorphismes, on en déduit
¸
q ¸
q
pk  Lk puq  IdE

k 1 k 1 
Nous venons de construire une
°q famille de projecteurs p1 , °
. . . , pq dont la somme est l’identité de
E. On a alors @x P E, x  k1 pk pxq. Par suite, E € k1 Imppk q. L’inclusion inverse étant
q

triviale, on en déduit
¸
q
E  Imppk q

k 1
De plus, en utilisant le fait que la trace d’un projecteur est égale à son rang, on a

¸
q ¸
q ¸
q
dimpE q  trpIdE q  tr pk  tr ppk q  dim Imppk q
k 1  
k 1 
k 1
En combinant les deux dernières égalités et le théorème 1, on en déduit

 k`1 Imppk q
q
E

Enfin, sachant que pX  λk qLk est un multiple de P , donc un polynôme annulateur de u, on a


@x P Impuk q, pu  λk IdE qpxq  rpu  λk IdE q  pk spxq
 rpu  λk IdE q  Lk puqspxq
 rpp X  λk q  Lk qpuqspxq  0
looooooooooomooooooooooon
0LpE q

Donc u induit sur Impuk q une homothétie.


D’après la propriété (ii) du théorème 44, l’endomorphisme u est diagonalisable. cqfd

Exemple 5.26. L’endomorphisme f canoniquement associé à la matrice A  13 35 33 est-il
3 3 1
diagonalisable ?
Réduction des endomorphismes 61

5.5 Endomorphisme diagonalisable et sous-espace stable

Théorème 48.
Si u est un endomorphisme diagonalisable de E et F un sous-espace stable par u, l’endomor-
phisme v, induit par u sur F , est diagonalisable.

Preuve. Soit P un polynôme annulateur de u, scindé et à racines simples. La restriction de


P puq à F est P pv q, et donc, P est annulateur de v. Ainsi v est diagonalisable. cqfd

5.6 Cas des matrices

Définition 41 (Matrice diagonalisable).

Une matrice carrée d’ordre n à coefficients dans K est diagonalisable si l’endomorphisme uM


de Kn associé est diagonalisable.

Théorème 49 (Caractérisation des matrices diagonalisables).

Pour une matrice carrée M d’ordre n et à coefficients dans K, les propriétés suivantes sont
équivalentes :

piq M est diagonalisable ;


piiq M est la matrice d’un endomorphisme diagonalisable ;
piiiq M est semblable à une matrice diagonale ;
pivq la somme des dimensions des sous-espaces propres de M est n ;
pvq χM est scindé sur K, et, pour toute valeur propre (de spK M ), la multiplicité est égale
à la dimension du sous-espace propre associé ;
pviq il existe une matrice inversible P P GLn pKq telle que P 1 M P  Diagpλ1 , . . . , λn q soit
diagonale, P étant la matrice de changement de base, de la base canonique à une base
constituée de vecteurs propres de M , le j e étant relatif à la valeur propre λj .

Preuve. Les cinq premières assertions sont la traduction au cas de uM des théorèmes qui
caractérisent les endomorphismes diagonalisables.
La sixième assertion est l’explication pratique : recherche d’une base de Kn constituée de vecteurs
propres de M et utilisation de cette base pour construire une matrice inversible P , la matrice de
passage de la base canonique à la base de vecteurs propres, qui diagonalise M . cqfd

Exemple 5.27. Les matrices suivantes sont-elles diagonalisables ? Si oui, les diagonaliser.
  
A
1 1
B  1 1
C  cos ϑ  sin ϑ
0 1 0 2 sin ϑ cos ϑ


1 3 3
Exemple 5.28. Diagonaliser la matrice A   3 5 3
3 3 1


2 4 3
Exemple 5.29. La matrice A   4 6 3 est-elle diagonalisable ?
3 3 1
62 Cours d’algèbre - PC Collège Stanislas

Exemple 5.30. Les matrices suivantes sont-elles semblables ?


 
2 1 0 0 2 1 0 0
 0 2 0 0   0 2 0 0 
A
 0
 ; B   
0 2 0  0 0 2 1
0 0 0 2 0 0 0 2


5 0 0 0
 0 5 0 0 
Exemple 5.31. La matrice A    est-elle diagonalisable ?
 1 4 3 0
1 2 0 3

6 Trigonalisation
Dans ce paragraphe, E désigne un K-ev de dimension finie n P N .

Définition 42.

piq Un endomorphisme u de E est dit trigonalisable s’il existe une base dans laquelle il est
représenté par une matrice triangulaire.
piiq Une matrice A est dite trigonalisable si elle est semblable à une matrice triangulaire.

On admet le

Théorème 50.
Tout endomorphisme (resp. toute matrice) dont le polynôme caractéristique est scindé est
trigonalisable.

Le théorème de d’Alembert-Gauss permet alors de prouver le

Corollaire 20.
Tout élément de Mn pCq est trigonalisable.

Exemple 5.32. Donner un contre-exemple dans Mn pRq, à savoir une matrice carrée d’ordre n
à coefficients réels qui ne soit pas trigonalisable.

Exemple 5.33. Soit f l’endomorphisme canoniquement associé à la matrice



2 4 3
A 4 6 3
3 3 1

Montrer qu’il existe une base dans laquelle f est représentée par une matrice de la forme

1 0 0
 0 2 1
0 0 2
Réduction des endomorphismes 63

7 Applications de la réduction
7.1 Résolution d’un système différentiel linéaire
Exemple 5.34. On considère les deux matrices carrées d’ordre 3 suivantes :
 
1 1 1 1 1 1
A 1 1 1 et J  1 1 1
1 1 1 1 1 1

On note f l’endomorphisme canoniquement associé à la matrice A.


a) Donner un polynôme annulateur de A.
b) Diagonaliser A.
c) Application : Résolution d’un système différentiel
On cherche les triplets px1 , x2 , x3 q de fonctions appartenant à C8 pR, Rq qui vérifient le
système d’équations différentielles suivant :
$
' 1 p q  x1 ptq x2 ptq x3 ptq
& x1 t
pS1 q : @t P R, ' x12 ptq x1 ptq  x2 ptq x3 ptq
%
x13 ptq x1 ptq x2 ptq  x3 ptq

i) Soit py1 , y2 , y3 q le triplet de fonctions défini par :


 
y1 ptq x1 ptq
@t P R, y2 ptq  P 1  x2 ptq
y3 ptq x3 ptq

où P désigne la matrice de passage utilisée pour diagonaliser A. Écrire le système S2


d’équations différentielles vérifié par les fonctions y1 , y2 et y3 .
ii) Trouver tous les triplets py1 , y2 , y3 q solutions du système S2 .
iii) Trouver tous les triplets px1 , x2 , x3 q solutions du système S1 .

7.2 Calcul de la puissance ne d’une matrice



1 3 3
n

Exemple 5.35. Calculer de deux manières  3 5 3 pour n P N.


3 3 1

7.3 Étude d’une famille de suites récurrentes linéaires


Exemple 5.36. On considère trois suites définies par
$
& un 1  un 3vn 3wn
pu0 , v0 , w0 q P R3 et @n P N vn 1  3un  5vn  3wn
%
wn 1  3un 3vn wn

Exprimer le terme général de un en fonction de u0 , v0 , w0 et n.

7.4 Étude d’une suite récurrente linéaire d’ordre 3


Exemple 5.37. Donner l’expression du terme général de la suite définie par
"
u0  4, u1  2, u2  1
@n P N, un 3  65 un 2 13 un 1  16 un
Espaces
préhilbertiens 6
Sommaire
1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
1.1 Produit scalaire sur un espace vectoriel réel . . . . . . . . . . . . . . . . 65
1.2 Produit scalaire sur un espace vectoriel complexe . . . . . . . . . . . . . 66
2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.1 Inégalité de Cauchy-Schwarz-Bunyakovski . . . . . . . . . . . . . . . . . 68
2.2 Familles orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.3 Relation de Pythagore . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.4 Procédé d’orthonormalisation de Gram-Schmidt . . . . . . . . . . . . . . 73
2.5 Base orthonormale d’un sous-espace vectoriel de dimension finie . . . . . 74
3 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.1 Orthogonal d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2 Supplémentaires orthogonaux, projecteurs orthogonaux . . . . . . . . . . 76
3.3 Projection orthogonale sur un sous-espace vectoriel de dimension finie . . 78
3.4 Distance d’un vecteur à un sous-espace de dimension finie . . . . . . . . 80
3.5 Les problèmes de moindres carrés . . . . . . . . . . . . . . . . . . . . . . 81
3.6 Inégalité de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.7 Séries de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Espaces préhilbertiens 65

Le but de chapitre est de généraliser l’espace ordinaire et son produit scalaire

• à la dimension n : espace euclidien ;


• à la dimension infinie : espace préhilbertien réel ;
• aux nombres complexes : espace préhilbertien complexe, espace hermitien.

La généralisation portera essentiellement sur les notions d’orthogonalité et de projection ortho-


gonale.

1 Produit scalaire
1.1 Produit scalaire sur un espace vectoriel réel
Dans cette sous-section, E désigne un R-espace vectoriel de dimension finie ou infinie, sauf avis
contraire.
Rappelons la définition d’un produit scalaire sur E.

Définition 43 (Produit scalaire).

On appelle produit scalaire sur E toute forme bilinéaire symétrique définie positive,
autrement dit, toute application ϕ de E  E dans R vérifiant
piq @x P E, ϕp, yq : y ÞÑ ϕpx, yq est linéaire linéarité à droite
piiq @px, yq P E 2 , ϕpy, xq  ϕpx, yq symétrie
piiiq @x P E, x  0 ùñ ϕpx, xq P R définie positive
On dit alors que E est un espace préhilbertien réel, et ϕpx, yq est noté xx | yy .
Si de plus E est de dimension finie, on dit que E est un espace euclidien.

Exemple 6.1 (Produit scalaire euclidien canonique sur Rn ).


Les produits scalaires canoniques sur Rn et Mn,1 pRq sont définis par

@x  px1 , . . . , xn q, @y  py1 , . . . , yn q, xx | yy  xk yk (6.1)

k 1

2
@pX, Y q P Mn,1 pRq , xX | Y y  tXY  xk yk (6.2)

k 1

Exemple 6.2 (Produit scalaire euclidien canonique sur Mn pRq).


Le produit scalaire canonique sur Mn pRq est défini par

@pA, B q P Mn pRq, xA | B y  tr t
AB

Pourquoi ?

Exemples 6.3. Montrer que les formes suivantes définissent bien des produits scalaires.

piq le produit scalaire sur l’espace f P L2C pI, Rq des fonctions à valeurs réelles, continues et de
carré sommable sur l’intervalle I :
»
2
@pf, gq P L2C pI, Rq , xf | gy  f ptqg ptq dt
I

piiq les produits scalaires sur l’espace des polynômes à coefficients réels ; si I est un intervalle
et w une fonction continue sur I et à valeurs réelles strictement positives, telle que, pour
tout entier n, t ÞÑ tn wptq soit intégrable sur I, l’application
»

pP, Qq P RrX s 2 ÞÑ xP | Qy  P ptqQptqwptq dt
I
66 Cours d’algèbre - PC Collège Stanislas

est un produit scalaire. Les cas classiques sont

»1
I  r1, 1s, wptq  1 et xP | Qy  P ptqQptq dt
1
»1
1 dt
I  s1, 1r, wptq  ? et xP | Qy  P ptqQptq ?
1  t2 1 1  t2
» 8
I  r0, 8r, wptq  et et xP | Qy  P ptqQptq et dt
0
» 8
I  s8, 8r, wptq  et et xP | Qy  P ptqQptq et dt
2 2

8

piiiq le produit scalaire sur l’espace ° des suites réelles de carré sommable `2N pRq, i.e. les suites
réelles pan qn telles que la série n a2n soit convergente.

2 8̧
@pa, bq P `2N pRq , xa | by  ak bk

k 0

Définition 44.

On appelle norme associée au produit scalaire x | y l’application de E dans R définie par


a
@x P E, kxk  xx | xy
On appelle distance associée au produit scalaire x | y l’application de E  E dans R définie
par a
@px, yq P E 2 , dpx, yq  ky  xk  xpy  xq | py  xqy

Les relations qui lient la norme euclidienne et le produit scalaire associé sont données par la

Proposition 30.
Pour x et y éléments de E, on a
piq kx yk2  kxk2 2 xx | yy kyk2
piiq kx yk2 kx  yk2  2kxk2 2kyk2  égalité du parallélogramme
piiiq xx | yy  21 kx yk2  kxk2  kyk2  identités de polarisation
 21 kxk2 kyk2  kx  yk

2

 41 kx yk  kx  yk
2 2

1.2 Produit scalaire sur un espace vectoriel complexe


Dans cette sous-section, E désigne un C-espace vectoriel de dimension finie ou infinie, sauf avis
contraire.
On généralise la notion de produit scalaire aux espaces vectoriels sur C de la manière suivante.
Espaces préhilbertiens 67

Définition 45 (Produit scalaire).

On appelle produit scalaire sur E toute forme sesquilinéaire , à symétrie hermitienne, définie
positive, autrement dit, toute application ϕ de E  E dans R vérifiant
"
piq @pλ, µq P C , @px, y, zq P E , ϕϕppx,
2 λx µy, zq  λϕpx, zq µϕpy, zq
3
λy µzq  λϕpx, yq µϕpx, zq
sesquilinéarité

piiq @px, yq P E 2 , ϕpy, xq  ϕpx, yq symétrie hermitienne


piiiq @x P E, x  0 ùñ ϕpx, xq P R  définie positive

On dit alors que E est un espace préhilbertien complexe, et ϕpx, yq est noté xx | yy .
Si de plus E est de dimension finie, on dit que E est un espace hermitien.

Définition 46 (Matrice adjointe).

Soit M une matrice à coefficients complexes.


On appelle matrice adjointe (ou encore transconjuguée) de M l’élément

M  t M  tM

Exemple 6.4 (Produit scalaire euclidien canonique sur Cn ).


Les produits scalaires canoniques sur Cn et Mn,1 pCq sont définis par


@x  px1 , . . . , xn q, @y  py1 , . . . , yn q, xx | yy  xk yk (6.3)

k 1

2
@pX, Y q P Mn,1 pRq , xX | Y y  tXY  X  Y  xk yk (6.4)
k 1 
Exemple 6.5 (Produit scalaire euclidien canonique sur Mn pCq).
Le produit scalaire canonique sur Mn pCq est défini par

@pA, B q P Mn pCq, xA | B y  tr p A B q
Pourquoi ?

Exemples 6.6. Montrer que les formes suivantes définissent bien des produits scalaires.

piq le produit scalaire sur l’espace L2C pI, Cq des fonctions à valeurs complexes, continues et de
carré intégrable sur l’intervalle I :
»
2
@pf, gq P L2C pI, Cq , xf | gy  f ptqg ptq dt
I

piiq les produits scalaires sur l’espace des polynômes à coefficients complexes ; si I est un inter-
valle et w une fonction continue sur I et à valeurs réelles strictement positives, telle que,
pour tout entier n, t ÞÑ tn wptq soit intégrable sur I, l’application
»

pP, Qq P CrX s 2 ÞÑ xP | Qy  P ptqQptqwptq dt
I

. Le préfixe sesqui peut se lire une fois et demi.


68 Cours d’algèbre - PC Collège Stanislas

est un produit scalaire. Les cas classiques sont


»1
I  r1, 1s, wptq  1 et xP | Qy  P ptqQptq dt
1
»1
1 dt
I  s1, 1r, wptq  ? et xP | Qy  P ptqQptq ?
1  t2 1 1  t2
» 8
I  r0, 8r, wptq  et et xP | Qy  P ptqQptq et dt
0
» 8
I  s8, 8r, wptq  et et xP | Qy  P ptqQptq et dt
2 2

8
piiiq le produit scalaire sur l’espace des suites
° complexes de carré sommable `2N pCq, i.e. les suites
complexes pan qn telles que la série n |an |2 soit convergente.

2 8̧
@pa, bq P `2N pCq , xa | by  a k bk

k 0

Définition 47.

On appelle norme associée au produit scalaire x | y l’application de E dans R définie par


a
@x P E, kxk  xx | xy
On appelle distance associée au produit scalaire x | y l’application de E  E dans R définie
par a
@px, yq P E 2 , dpx, yq  ky  xk  xpy  xq | py  xqy

Les relations qui lient la norme euclidienne et le produit scalaire associé sont données par la

Proposition 31.
Pour x et y éléments de E, on a

piq kx yk  kxk2 2 <e xx | yy kyk2 ;


2

piiq kx yk
2
kx  yk  2kxk
2 2
2kyk
2
égalité du parallélogramme
2 2
piiiq <e xx | yy  2 kx yk  kxk  kyk  4 kx yk  kx  yk
1 2 2 1 2

2 2
=m xx | yy  12 kx  i yk  kxk  kyk  41 kx  i yk  kx i yk
2 2 2
 
xx | yy  41 kx yk2  kx  yk2 4i kx  i yk2  kx i yk2

2 Orthogonalité
E désigne un espace préhilbertien réel ou complexe dont le produit scalaire est noté x | y .

2.1 Inégalité de Cauchy-Schwarz-Bunyakovski

Définition 48 (Vecteur unitaire).

Un vecteur unitaire (ou normé) est un vecteur x de norme 1, i.e. vérifiant xx | xy  1.


Espaces préhilbertiens 69

Définition 49 (Orthogonalité).

Deux vecteurs sont orthogonaux si leur produit scalaire est nul ; la relation d’orthogonalité
est notée K.
xKy ðñ xx | yy  0

Signalons dès à présent une décomposition d’usage constant, véritable « couteau suisse » des
espaces préhilbertiens.

Lemme 5.
Soit u un vecteur non nul de E.
Alors tout vecteur v de E se décompose de la manière suivante

v
x v | uy
 u
K
v
xv | uy  u
xu | uy
looooomooooon xu | uy
looooooooooomooooooooooon
colinéaire à u orthogonal à u

Preuve. On écrit v sous la forme v  λ  u pv  λ  uq.


On cherche un scalaire λ tel que les deux vecteurs de
cette somme soient orthogonaux.
v
v  xv|uy
xu|uy u λ  uKpv  λ  uq ðñ xu | v  λ  uy  0
u ðñ xu | vy  λ  xu | uy  0
u
ðñ λ  xxuu || uvyy
xv|uy
xu|uy

cqfd

Théorème 51 (de Pythagore).

Soit u et v sont deux vecteurs de E.

u Kv ùñ ku vk2  kuk2 kvk2

La réciproque est vraie dans un espace préhilbertien réel.

Preuve.

• Cas réel : ku vk2  kuk2 2 xu | vy kvk2  kuk2 kvk2 si, et seulement si, xu | vy  0.
*
ku vk2  kuk2 2 <e xu | vy kvk2
• Cas complexe :
et xu | vy  0
ùñ ku vk2  kuk2 kvk2
cqfd

En combinant les deux résultats précédents, on montre le

Théorème 52 (Inégalité de Cauchy-Schwarz-Bunyakovski).

@pu, vq P E 2 , | xu | vy | ¤ kuk kvk


avec égalité si, et seulement si, pu, vq est liée.

Preuve. • Si u  0, l’inégalité est vérifiée de manière évidente.


70 Cours d’algèbre - PC Collège Stanislas

• Si u  0, alors on écrit v sous la forme



v
xu | vy xu | vy  u
xu | uy  u v
x u | uy
looooooooooomooooooooooon
w

Sachant que uKw, on peut appliquer le théorème de Pythagore

 xxuu || uvyy  u
2
kvk2 w

 xxuu || uvyy  u
2
2
kwk
lo
omoon
¥0
¥ xxuu || uvyy  u
2

 | xu | vy |
2

kuk2
D’où l’inégalité demandée. De plus, on a égalité ssi w  0 ssi pv, uq est liée.
cqfd
Exemples 6.7. Voici quelques exemples d’application de l’inégalité de Cauchy-Schwarz dans le
cas réel :
piq cas de Rn :
ņ  ņ 1  ņ 1

| xx | y y |  ¤ kxk kyk  x2k yk2


2 2
xk yk
k 1  
k 1 
k 1

piiq cas de Mn,1 pRq :



 12  21  ņ 1  ņ 1

| xX | Y y |  | tXY |  ¤  x2k yk2


2 2
t t
xk yk XX YY
k 1  
k 1 k 1 
piiiq cas de f P L2C pI, Rq :
»  » 2 1 » 2 1

| xf | g y |   f ptqg ptq dt ¤ f p tq g ptq


 
dt dt
2 2

I I I

pivq cas de RrX s :


»  » 2 1 » 2 1

| xP | Qy |  pq pq pq ¤ P ptq wptq dt Qptq wptq dt


 
 P t Q t w t dt
2 2

I I I

Par exemple :
» 8  » 8 2 » 8 2
P ptqQptq et dt ¤ et dt et dt
1 1

P ptq Qptq
 2  2 2 2 2

8 8 8
pv q cas de `2N pRq :
 8̧   8̧ 1  8̧ 1

| xa | by |   ak bk  ¤
 
a2k b2k
2 2

k 0 
k 0 k 0 
Exemples 6.8. Voici quelques exemples d’application de l’inégalité de Cauchy-Schwarz dans le
cas complexe :
piq cas de Cn :
ņ  ņ 1  ņ 1

| xx | yy |  ¤ kxk kyk  |xk |2 |yk |2


2 2
xk yk
k 1  
k 1 
k 1

piiq cas de Mn,1 pCq :



 21  12  ņ 1  ņ 1

| xX | Y y |  |tXY |  ¤  |xk |2 |yk |2


2 2
t t
xk yk XX YY

k 1 k 1  
k 1
Espaces préhilbertiens 71

piiiq cas de f P L2C pI, Cq :


»  »   1 »   1

| xf | g y |   f ptqg ptq dt ¤ pq pq


  f t 2 dt 2
g t 2 dt 2

I I I

pivq cas de CrX s :


»  »   1 »   1

| xP | Qy |  pq pq pq ¤ pq pq pq pq
  P t 2 w t dt 2
Q t 2 w t dt 2
 P t Q t w t dt
I I I

Par exemple :
» 1  » 1  » 1 
p q p q ? dt 2  ¤ p q ? dt 2 p q ? dt 2
  1
 1

 P tQt P t 2 2
Q t 2 2

1 1t 1 1t 1 1t

pv q cas de `2N pCq :


 8̧   8̧ 1  8̧ 1

| xa | by |   ak bk  ¤
 
|ak |2 |bk |2
2 2

k 0  k 0  
k 0

2.2 Familles orthogonales

Définition 50 (Famille orthogonale).

Une famille de vecteurs pxk qkPΛ est une si les vecteurs de cette famille sont orthogonaux deux
à deux, i.e.
@pk, lq P Λ2 , k  l ùñ xxk | xl y  0
Une base orthogonale est une base qui est aussi une famille orthogonale.

Définition 51 (Famille orthonormale).

Une famille orthogonale de vecteurs unitaires est appelée une famille orthonormale (ou or-
thonormée), i.e. #
@pk, lq P Λ , xxk | xl y  δk,l  10 sisi kk  ll
2

Une base orthonormale est une base qui est aussi une famille orthonormale.

Remarque. Si pvk qk est une famille orthogonale de vecteurs non nuls, la famille p kv1 k vk qk est
k
orthonormale.
Exemples 6.9.
Justifier les affirmations suivantes.
piq Les bases naturelles (canoniques) de Rn , Cn , Mn pRq et Mn pCq sont des familles orthonor-
males pour le produit scalaire canonique des espaces considérés.
piiq La famille tek : t ÞÑ exppi ktq | k P Zu est une famille orthonormale de C2π .
piiiq La famille t1uYtt ÞÑ cos kt|k P N uYtt ÞÑ sin kt?|k P N u est une famille orthogonale
? de C2π ;
la famille orthonormale associée est t1uYtt ÞÑ 2 cos kt | k P N uYtt ÞÑ 2 sin kt | k P N u.
On rappelle que C2π désigne la C-algèbre des fonctions continues sur R, 2π-périodiques et à
valeurs complexes, muni du produit scalaire
» 2π »π
1 1
@pf, gq P C2π  C2π , xf | gy  2π
f ptqg ptq dt 

f ptqg ptq dt
0 π

Remarques. Les divers produits scalaires sur RrX s et CrX s donnent des familles orthogonales de
polynômes, encore appelées familles de polynômes orthogonaux :
72 Cours d’algèbre - PC Collège Stanislas

 dtd n pt2  1qn


n 
• les polynômes de Legendre Pn ptq constituent une famille de polynômes
»1
orthogonaux pour le produit scalaire xP | Qy  P ptqQptq dt.
1
• les polynômes de Chebychev Tn ptq  cospn arccos» tq constituent une famille de polynômes
1
dt
orthogonaux pour le produit scalaire xP | Qy  P ptqQptq ? .
1 1  t2
dn
• les polynômes de Laguerre Ln ptq  et n ptn et q constituent une famille de polynômes
dt » 8
orthogonaux pour le produit scalaire xP | Qy  P ptqQptq et dt.
0
dn t2
• les polynômes d’Hermite Hn ptq e t2
pe q constituent une famille de polynômes or-
dtn » 8
thogonaux pour le produit scalaire xP | Qy  P ptqQptq et dt.
2

8
L’étude de ces familles est régulièrement l’objet de sujets d’écrit ; nous en étudierons quelques-
unes au cours de problèmes.

2.3 Relation de Pythagore


Voici tout d’abord, deux règles de calcul :

Lemme 6.

¸
p ¸
q ¸
p ¸
q
piq x λk xk | µl yl y  λk µl xxk | yl y

k 1 l 1   
k 1l 1
¸p 2 ¸
p ¸
p
piiq λk xk  λk λl xxk | xl y

k 1  
k 1l 1

Preuve. En utilisant la sesquilinéarité, on obtient


¸
p ¸
q ¸
p ¸
q ¸
p ¸
q
piq x λk xk | µl yl y  λk xxk | µl yl y  λk µl xxk | yl y
k 1  
l 1 
k 1 
l 1  
k 1l 1
¸p 2 ¸
p ¸
p ¸
p ¸
p
piiq λk xk x λk xk | λl xl y  λk λl xxk | xl y

k 1 k 1  
l 1  
k 1l 1
cqfd
Remarque. En particulier, dans un espace préhilbertien réel :
kx y zk2  kxk2 kyk2 kzk2 2 xx | y y 2 xy | zy 2 xz | xy

Théorème 53 (Relation de Pythagore).

Si la famille pvk q1¤k¤p est une famille orthogonale, alors

¸p
2 ¸
p
 vk   kvk k2
k 1  
k 1

Preuve.
Puisque les vecteurs sont orthogonaux deux à deux, xvk | vl y  0 pour k  l et
¸
p 2 ¸ ¸
p ¸
p ¸
p
vk  xvk | vl y  kvk k2 xvk | vl y  kvk k2
k 1  k,l k 1 
k,l 1 
k 1

k l

cqfd
Espaces préhilbertiens 73

Théorème 54 (Famille orthogonale et famille libre).

Toute famille orthogonale de vecteurs non nuls est une famille libre.

Preuve. Soit°ppvk qk une famille orthogonale de vecteurs non nuls ; pour toute combinaison li-
néaire nulle k1 λk vk  0, on a, en utilisant la formule de Pythagore,

¸
p 2 ¸
p ¸
p
0 λk vk  kλk vk k2  |λk |2 kvk k2

k 1 
k 1 
k 1

ce qui montre que |λk |2 kvk k2  0 pour tout k P J1, pK, et λk  0 puisque les vecteurs vk sont
tous non nuls. cqfd

Exemple 6.10. La famille t1u Y tt ÞÑ cos kt | k P N u Y tt ÞÑ sin kt | k P N u est une famille


orthogonale d’éléments non nuls de C2π ; donc c’est une famille libre. (Comparer la concision de
cette démonstration avec celle utilisée dans l’exercice 2.2 au ch.2).

Corollaire 21.
Toute famille orthonormale est une famille libre.

2.4 Procédé d’orthonormalisation de Gram-Schmidt

Comment construire une famille orthonormale à partir d’une famille libre ? C’est l’objet du
procédé d’orthonormalisation de Gram-Schmidt  .

Théorème 55.
Si pfk qk¥1 est une suite libre d’un espace préhilbertien réel ou complexe, il existe une
unique suite orthonormale puk qk¥1 telle que, pour tout entier p ¥ 1,

piq les espaces engendrés par les familles pf1 , . . . , fp q et pu1 , . . . , up q sont identiques ;
piiq xfp | up y ¡ 0.

Preuve. Par récurrence sur p.


La propriété est vraie pour p  1. Posons u1  λf1 ; puisque 0 xf1 | u1 y  λ xf1 | f1 y , le
scalaire λ est ¡ 0, 1  ku1 k  λkf1 k ce qui détermine λ. Ainsi u1  kf11 k f1 .
La propriété est héréditaire.
Commençons par analyser la situation. Puisque les sous-espaces engendrés par pf1 , . . . , fp q et
pu1 , . . . , up q sont identiques, on peut poser
¸
p
up 1  λfp 1 αk uk

k 1

L’orthogonalité de uk avec up 1 pour tout k P J1, pK montre que


¸
p
0  xuk | up 1 y  λ xuk | fp 1 y αj xuk | uj y
j 1 
¸
p
 λ xuk | fp 1 y αj δk,j  λ xuk | fp 1 y αk (6.5)

j 1

 . Cette méthode a été nommée en hommage à Jørgen Pedersen Gram et Erhard Schmidt, mais elle est plus
ancienne et est retrouvée dans des travaux de Laplace et Cauchy.
74 Cours d’algèbre - PC Collège Stanislas

ce qui détermine αk : αk  λ xuk | fp 1 y et

¸
p
up 1  λfp 1  λ xuk | fp 1 y uk  λvp 1
k 1
où vp 1  fp 1  °pk1 xuk | fp 1 y uk . D’autre part,
¸
p
0 xfp 1 | up 1 y  xvp 1 xuk | fp 1 y uk | up 1 y  xvp 1 | up 1 y  λkvp 1k
2


k 1

Ainsi le scalaire λ est ¡ 0, λ  kvp1 1 k puisque up 1 est unitaire, et le vecteur up 1 est unique.
Reste à°montrer, et c’est la synthèse, que ce vecteur convient. En effet, le vecteur vp 1 
fp 1  k1 xuk | fp 1 y uk n’est pas nul, puisque la famille pu1 , . . . , up , fp 1 q est libre, et est
p

orthogonal, par construction, à u1 ,. . ., up . cqfd

Algorithme de calcul de l’orthonormalisée


Le calcul effectif de l’orthonormalisée puk qk d’une suite libre pfk qk s’effectue à l’aide de l’algo-
rithme suivant :

u1  kf1 k f1
1
¸
 kv 1
p
@p ¥ 1, vp 1  fp 1  xuk | fp 1 y uk et up 1 vp 1

k 1 p 1k

ou bien à l’aide de celui-ci, qui permet, en général, des calculs plus simples :

piq calcul de la suite orthogonale pvk qk :


orthoprojeté de fp1 sur vk
hkkkkkkkikkkkkkkj

v1  f1 et @p ¥ 1, vp  fp 1 
¸
p
xvk | fp 1 y v
1
kvk k2
k
1
loooooooooooooooomoooooooooooooooon
k

orthoprojeté de fp 1 p
sur Vect v1 ,...,vp q
piiq orthonormalisation de la suite pvk qk :

@k ¥ 1, uk  kv1 k vk
k

Exemples 6.11. À l’aide du procédé de Gram-Schmidt, orthogonaliser la famille des colonnes


des matrices suivantes.

  1 2 5
1 0 0 0 1 1 1 1
 1 1 0 0   0 1 1 1 

 1 1 4 

A
 1 1 1 0
 B
 0 0 1 1
 C  
 1 4 3 

1 1 1 1 0 0 0 1
 1 4 7
1 2 1

2.5 Base orthonormale d’un sous-espace vectoriel de dimension finie

Théorème 56 (Existence de base orthonormale).

Tout sous-espace vectoriel de dimension finie d’un espace préhilbertien réel ou complexe,
admet une base orthonormale.

Preuve. L’orthonormalisée d’une base de F répond à la question. cqfd


Espaces préhilbertiens 75

Corollaire 22.

Les espaces euclidien et hermitien admettent des bases orthonormales.

Dans un espace vectoriel de dimension finie rapporté à une base orthonormale pu1 , . . . , up q, les
expressions des coordonnées d’un vecteur, de sa norme, du produit scalaire et de la distance de
deux vecteurs, sont particulièrement simples :

Proposition 32 (Expression du produit scalaire dans une b.o.n.).

Soit E un espace préhilbertien muni d’une base orthonormale B  pu1 , . . . , up q.


Soit x et y deux vecteurs de E.
On note X  rxsB  px1 , . . . , xn q et Y  rysB  py1 , . . . , yn q leurs coordonnées dans B.
¸
p ¸
p
piq expression des coordonnées de x : x xuk | xy uk  xk uk
k 1  
k 1
¸
p ¸
p
piiq expression de la norme : kxk 2
 |xk | 2
 | xuk | xy |2  X X

k 1 
k 1
¸
p
piiiq expression du produit scalaire : xx | yy  xk yk  X Y
k 1 
¸
p
pivq expression de la distance : dpx, yq 2
 |yk  xk |2

k 1

Preuve. xuk | xy  xuk | °nj0 xj uj y  °nj0 xj loooomoooon


xuk | uj y  xk
δk,j
Les autres égalités se prouvent de même en utilisant la sesquilinéarité. cqfd

Exemple 6.12. Existe-t-il, sur Rn rX s, un produit scalaire tel que la base canonique de Rn rX s
soit orthonormée ? Si oui, y a-t-il unicité ?

3 Projection orthogonale
E désigne encore et toujours un espace préhilbertien réel ou complexe muni d’un produit scalaire
noté x | y ; le corps des scalaires est noté K.

3.1 Orthogonal d’une partie

Définition 52 (Orthogonal d’une partie).

L’orthogonal d’une partie non vide A de E est l’ensemble des vecteurs de E qui sont ortho-
gonaux à tous les vecteurs de A : on le note AK .

AK  tx P E | @a P A, xa | xy  0u
76 Cours d’algèbre - PC Collège Stanislas

Proposition 33 (Propriétés de l’orthogonal).

L’orthogonal d’une partie possède les propriétés suivantes :


piq l’orthogonal de t0E u est E et l’orthogonal de E est t0E u ;
piiq si a est un vecteur non nul, l’orthogonal de a est un hyperplan de E ;
piiiq pour toute partie A non vide, AK est un sous-espace vectoriel de E ;
pivq si F est un sous-espace de E, alors F X F K est réduit à t0u ;
pvq si F est un sous-espace vectoriel engendré par la famille pf1 , . . . , fp q, alors l’orthogonal
de F est caractérisé par :

x P FK ðñ p@k P J1, pK , xfk | xy  0q


pviq Si F et G sont deux sev de E, alors

F € G ùñ GK € FK

Remarque. En pratique, la propriété E K  t0u est souvent utilisée pour montrer qu’un vecteur
est nul ; en effet, d’après cette propriété, pour montrer qu’un vecteur est nul, il suffit de prouver
qu’il est orthogonal à tous les vecteurs de l’espace.
Preuve.
piq Pour tout x de E, xx | 0y  0, soit xK0. Ainsi E € t0uK et E  t0uK .
Si x est orthogonal à E, x est, en particulier, orthogonal à lui-même ; x est donc nul. Ainsi
E K € t0u et E K  t0u.
piiq Si a n’est pas nul, tauK  tx | xa | xy  0u  Kertx ÞÑ xa | xy u est le noyau d’une forme
linéaire non nulle ; c’est donc un hyperplan.
piiiq AK est l’intersection de tous les hyperplans tauK où a décrit A, c’est donc un sous-espace
vectoriel.
pivq x P F X F K ùñ xx | xy  0 ùñ x  0
pvq Les éléments de F sont des combinaisons linéaires des vecteurs fk , et
¸
p ¸
p
x P FK ðñ @pλ1 , . . . , λp q P Kp , 0  xx | λ k fk y  λk xx | fk y

k 1 
k 1
ðñ @k P J1, pK , xx | fk y  0
pviq laissé en exercice.
cqfd

3.2 Supplémentaires orthogonaux, projecteurs orthogonaux

Définition 53 (Sous-espaces orthogonaux).

Deux sous-espaces vectoriels F et G sont orthogonaux si tous les vecteurs de F sont or-
thogonaux à tous les vecteurs de G, i.e. si F € GK ou bien si tous les vecteurs de G sont
orthogonaux à tous les vecteurs de F , i.e. G € F K .

Théorème 57 (Caractérisation des supplémentaires orthogonaux).

Si F et G sont deux sous-espaces vectoriels supplémentaires dans E, les propositions sui-


vantes sont équivalentes :
piq F et G sont orthogonaux ;
piiq FK  G;
piiiq GK  F .
Espaces préhilbertiens 77

Preuve. (ii) et (iii) donnent (i).


Réciproquement, tout vecteur x de F K se décompose suivant F ` G en x  y z ; or xx | yy  0
(x P F K et y P F ) et xz | yy  0 (z P G € F K et y P F ), ce qui impose xy | yy  0 donc y  0,
et x  z P G. Donc (i) implique (ii).
De même que (i) implique (iii). cqfd

Théorème 58 (Existence du supplémentaire orthogonal pour un sev de dimension finie).

Soit E un espace préhilbertien.


Si F est un sev de dimension finie, alors F et F K sont supplémentaires.
Autrement dit,
dim F 8 ùñ E  F ` F K

Remarque. Dans ce cas, F K est appelé le supplémentaire orthogonal de F .

Preuve. Le sev F est de dimension finie ; donc il


admet une base orthonormale B  pu1 , . . . , up q.
Soit x un vecteur de E. Posons
x
z
¸
p
y xuk | xy uk et zxy

k 1

Il est clair que y P F . Montrons que z P F K . F y

¸
p
@j P J1, pK , xuj | zy  xuj | x  yy  xuj | x  xuk | xy uk y

k 1
¸
p
 xuj | xy  xuk | xy xuj | uk y

k 1
¸p
 xuj | xy  xuk | xy δk,j

k 1
 xuj | xy  xuj | xy  0
Donc z P F K
On a prouvé @x P E, Dpy, zq P F  F K , x  y z
Autrement dit, E € F F K . Donc E  F F K .
Or F KF K ùñ F ` F K . Donc E  F ` F K . cqfd

Corollaire 23 (Existence du supplémentaire orthogonal).

Tout sous-espace vectoriel de dimension finie de E admet un (et un seul) supplémentaire


orthogonal dans E.

Théorème 59.

Soit E un espace préhilbertien.


Si F est un sev de dimension finie, alors F et pF K qK sont égaux.
Autrement dit,
K
dim F 8 ùñ F  F K

K
Preuve. Montrons la double inclusion entre F et F K .
K
€ Soit x P F . Montrons x P FK .
78 Cours d’algèbre - PC Collège Stanislas

Soit y P F K . Alors y est orthogonal à tout vecteur de F , en particulier à x. Donc yKx.


K
Donc x est orthogonal à tout vecteur de F K , autrement dit x P F K
K
 Soit x P F K . Montrons x P F .
Par hypothèse, F est de dimension finie, donc E  F ` F K .
Donc il existe un unique couple de vecteurs py, zq P F  F K tel que x  y z.
Donc z  x  y .
,
K
or x P F K K
donc z P F K . Donc z P F K X F K K . Donc z  0. Donc x P FK
K
.
 K - loooooomoooooon
et y P F € F K t0u
cqfd
Remarque. Si F n’est pas de dimension finie, la somme directe F ` F K peut être différente de
E, et on peut avoir F  F KK , comme le prouve l’exemple suivant.
Exemple 6.13. Soit E  Cpr0, 1sq l’espace des fonctions à valeurs réelles, continues sur r0, 1s
muni du produit scalaire
»1
@pf, gq P E 2 , xf | gy  f ptqg ptq dt
0

On considère le sev H  tf P E | f p0q  0u. Déterminer H K et H KK .

3.3 Projection orthogonale sur un sous-espace vectoriel de dimension finie

Définition 54.

Soit E un espace préhilbertien.


piq Soit p un projecteur de E.
On dit que p est un projecteur orthogonal (ou orthoprojecteur) lorsque Ker pK Im p.
piiq Soit s une symétrie de E.
On dit que s est une symétrie orthogonale lorsque Kerps  IdE qK Kerps IdE q.

Définition 55.
Soit F un sev de dimension finie de E.
piq On appelle projecteur orthogonal sur F la projection sur F parallèlement à F K .
piiq On appelle symétrie orthogonale par rapport à F la symétrie par rapport à F parallè-
lement à F K .

Théorème 60 (Théorème de projection orthogonale).

Soit E un espace préhilbertien et F un sev de dimension finie p.


Soit pF l’orthoprojecteur sur F , et pu1 , . . . , up q est une base orthonormale de F .
¸
p
@x P E, pF pxq  xuk | xy uk

k 1

suffit de reprendre la preuve du théorème 58 : soit x un vecteur de E.


Preuve. Il °
Posons y  k1 xuk | xy uk et z  x  y. Il est clair que y P F . Nous avions prouvé z
p
P F K.
Donc y  pF pxq. cqfd
Remarque. Avec les mêmes notations, x  pF pxq est le projeté orthogonal de x sur F K , et
pF K  IE  pF .
Espaces préhilbertiens 79

3.3.1 Projection orthogonale sur une droite, sur un hyperplan


On peut à présent interpréter le lemme 5 en terme d’orthoprojecteur.
La projection orthogonale sur la droite (vectorielle) D dirigée par a, est donnée par :

pD : x P E ÞÑ xkak
a | xy
2
a

La projection orthogonale sur l’hyperplan H orthogonal à a, est donnée par

pH  IE  pD : x P E ÞÑ x  xkak
a | xy
2
a

La réflexion (ou symétrie orthogonale) rH par rapport à l’hyperplan H, est donnée par

rH  2pH  IE  IE  2pD : x P E ÞÑ x  2 xkak


a | xy
2
a

3.3.2 Interprétation géométrique de l’orthonormalisation de Schmidt


En notant Fp le sous-espace engendré par la famille pf1 , . . . , fp q, ou engendré par la famille
orthonormale pu1 , . . . , up q, on peut écrire
¸
p
vp 1  fp 1  xuk | fp 1 y uk  fp 1  pF pfp 1 q  pF K pfp 1 q
p

p
k 1

et vp 1 s’interprète comme la projection orthogonale de fp 1 sur FpK .

3.3.3 Exemples de projection


Pour déterminer le projeté orthogonal d’un vecteur x sur un sev F de dimension finie, on dispose
de deux méthodes :
• si on connaît une famille génératrice pf1 , . . . , fp q de F , alors on peut utiliser la caractérisation
de la proposition 33 :
" "
y  pF pxq ðñ yPF
x  y P FK
ðñ y@kPPFJ1, pK , xfk | x  yy  0
• soit on utilise la formule de l’orthoprojecteur donnée par le théorème 60, ce qui nécessite
de disposer d’une base orthonormée pu1 , . . . , up q de F (que l’on peut construire à l’aide du
procédé d’orthogonalisation de Gram-Schmidt) :
¸
p
@x P E, p F px q  xuk | xy uk

k 1

Exemple 6.14. On se place dans R4 muni de sa structure euclidienne canonique. Déterminer le


projeté orthogonal du vecteur y  p3, 4, 5, 6q sur l’espace engendré par la famille F  pu1 , u2 , u3 q
où u1  p1, 1, 0, 1q, u2  p1, 0, 1, 1q et u3  p0, 1, 1, 1q

Exemple 6.15. On se place dans R4 muni de sa structure euclidienne canonique. Déterminer


le projeté orthogonal du vecteur y  p1, 2, 3, 4q sur l’espace engendré par la famille F 
pu1 , u2 , u3 q où u1  p1, 3, 1, 1q, u2  p6, 8, 2, 4q et u3  p6, 3, 6, 3q

Exemple 6.16. On définit sur E  C2 pr0, 1s, Rq la forme


»1
@pf, gq P E 2 , xf | gy  pf g f 1 g1 q
0

a) Montrer que x | y définit sur E un produit scalaire.


b) Soit W  tf P E | f 2  f u. Montrer que W est un sev de dimension finie. Quel est le projeté
orthogonal d’un élément de E sur W ?
80 Cours d’algèbre - PC Collège Stanislas

3.4 Distance d’un vecteur à un sous-espace de dimension finie

Définition 56 (Distance à un sous-espace).

Si F est un sous-espace vectoriel de E et x un vecteur de E, on pose :

dpx, F q  inf dpx, yq  inf ky  xk


P
y F P
y F

Ce nombre existe puisqu’il est la borne inférieure d’une partie non vide de r0, 8r ; il est
appelé distance de x à F .

Théorème 61 (Expression de la distance à un sous-espace de dimension finie).

Si F est un sous-espace vectoriel de dimension finie de E,


piq l’application y ÞÑ dpx, yq  ky  xk admet un minimum global strict sur F , atteint
en pF pxq ;

piiq dpx, F q  d x, pF pxq et d2 px, F q  kxk2  kpF pxqk2  xx  pF pxq | xy .

x
x

y
pF pxq
pF pxq
y

Preuve.
piq Considérons un vecteur y de F distinct de pF pxq ; x  pF pxq est orthogonal à F , donc en
particulier à y  pF pxq et le théorème de Pythagore donne

d2 px, yq  d2 px, pF pxqq d2 ppF pxq, yq ¡ d2 px, pF pxqq


piiq La question précédente montre que tdpx, yq | y P F u possède un unique plus petit élément
à savoir dpx, pF pxqq ; on peut écrire :

d2 px, F q  kx  pF pxqk2 kxk2  kpF pxqk2 relation de Pythagore


 xx  pF pxq | x  pF pxqy  xx  pF pxq | xy car pF pxqKpx  pF pxqq
cqfd

Théorème 62 (Projection et application lipschitzienne).

pF est une application lipschitzienne de rapport 1, i.e.

@px, yq P E 2 , kpF pyq  pF pxqk ¤ ky  xk

Preuve. kpF pxqk2  kxk2  d2 px, F q ¤ kxk2 et la linéarité de pF donne le résultat. cqfd
Remarque. Les propriétés de ce paragraphe se généralisent à un sous-espace vectoriel F qui admet
un supplémentaire orthogonal dans E.
Espaces préhilbertiens 81

3.5 Les problèmes de moindres carrés


Le théorème 61 permet de résoudre des problèmes d’approximation au sens des moindres carrés.
Donnons quelques exemples.
»1
Exemple 6.17. Calculer min 2
pa,bqPR
px2  ax  bq2 dx
0

Exemple 6.18 (Approximation polynomiale du sinus sur rπ, π s). Déterminer, en s’aidant d’un
logiciel de calcul formel, le polynôme qui réalise le minimum suivant
"» π  *
α5  inf |sin x  pq 2
P x | dx  P P R 5 rX s

Exemple 6.19 (Droite de régression linéaire).


Soit n ¥ 2. Soit x  px1 , . . . , xn q P Rn et y  py1 , . . . , yn q P Rn . On suppose que les xi ne sont

pas tous identiques. Pour pa, bq P R2 , on pose ϕpa, bq  pyi  axi  bq2

i 1

a) Interpréter ϕpa, bq comme la distance d’un vecteur de Rn à un vecteur d’un sev de Rn .


b) Montrer que ϕ admet un minimum absolu et déterminer le couple pa, bq qui réalise le
minimum en fonction des moyennes de x et y, de la variance de x et de la covariance de x
et y.

3.6 Inégalité de Bessel

Théorème 63 (Inégalité de Bessel).

Si pu1 , . . . , up q est une famille orthonormale de E et x un vecteur de E, alors

¸
p
| xuk | xy |2 ¤ kxk2

k 1

Si puk qkPN est une suite libre de E et x un vecteur de E, alors :

 8
¸
xuk | xy k P `2N pCq et | xuk | xy |2 ¤ kxk2

k 0

Preuve. Notons Fp le sous-espace vectoriel engendré par pu1 , . . . , up q ; la projection de x sur


Fp donne
¸
p 2 ¸
p
kpFp pxqk2  xuk | xy uk  | xuk | xy |2 ¤ kxk2
k 1 
k 1
°
L’inégalité précédente montre que les sommes partielles de la série de terme général | xuk | xy |2
sont majorées par kxk2 ; la série est donc convergente (elle est à termes positifs) et sa somme est
majorée par kxk2 . cqfd

3.7 Séries de Fourier


La famille pek : t ÞÑ ei kt qkPZ est une famille orthonormale pour le³ produit scalaire hermitien de
l’espace C2π des fonctions continues 2π-périodiques xf | g y  2π 1 π
π f ptqgptq dt
Les coefficients exponentiels de Fourier ck pf q sont donnés par ck pf q  xek | f y .
L’espace Tn des polynômes trigonométriques de degré au plus n admet la famille des ek pour
k P Jn, nK pour base orthonormale. °n °n
La somme partielle de Fourier Sn pf q  kn ck pf qek  kn xek | f y ek s’interprète comme
la projection orthogonale de f sur Tn ; Sn pf q est donc le polynôme trigonométrique de degré au
plus n de meilleure approximation, et
82 Cours d’algèbre - PC Collège Stanislas

ņ 2 ņ
piq Sn pf q
2
 ck pf qek  |ck pf q|2 relation de Pythagore ;
k n kn
piiq f Sn pf q 2  f
2
 Sn pf q
2
relation de Pythagore ;
»π
 2π1

piiiq Sn pf q 
2
|ck |2 ¤ f
2
|f |2 inégalité de Bessel.
k n π
Le théorème d’approximation de Weierstrass trigonométrique permet de montrer que pSn pf qqn
tend vers f pour la norme de la convergence en moyenne quadratique (cf. le chapitre d’analyse
sur les séries de Fourier) ; autrement dit, la suite p f  Sn pf q qn tend vers 0, soit
2

f  Sn pf q 2  f
2
 Sn pf q
2
ÝÑ
n
0

ce qui donne l’égalité de Bessel-Parseval :


8̧ 1
»π
lim Sn pf q  p|ck | q
2 2 2 2 2
f , soit |c0 | |ck | |f |2
n
k 1  2π π
Espaces
euclidiens 7
Sommaire
1 Résumé des épisodes précédents . . . . . . . . . . . . . . . . . . . . . . . . 84
1.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
1.2 Base orthonormale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
1.3 Supplémentaires orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . 85
2 Isomorphisme naturel (canonique) de E sur son dual . . . . . . . . . . . . . 86
3 Endomorphismes symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.2 Projecteur orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.3 Symétrie orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.4 Endomorphisme symétrique positif, défini positif . . . . . . . . . . . . . . 92
4 Automorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.3 Groupe orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.2 Groupe orthogonal d’ordre n . . . . . . . . . . . . . . . . . . . . . . . . 99
5.3 Le groupe orthogonal d’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . 101
5.4 Le groupe orthogonal d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . 101
5.5 Le groupe orthogonal d’ordre 3 . . . . . . . . . . . . . . . . . . . . . . . 101
6 Réduction des endomorphismes symétriques . . . . . . . . . . . . . . . . . . 104
6.1 Valeurs propres d’un endomorphisme symétrique . . . . . . . . . . . . . . 104
6.2 Diagonalisation des endomorphismes symétriques (autoadjoints) . . . . . 104
6.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
84 Cours d’algèbre - PC Collège Stanislas

Dans tout ce chapitre, E désigne un espace euclidien  , autrement dit, un R-espace vectoriel de
dimension finie n, muni d’un produit scalaire (réel) qui est noté x | y .

1 Résumé des épisodes précédents


1.1 Produit scalaire
1.1.1 Son expression dans une base quelconque
Soit B  pe1 , . . . , en q une base quelconque de E. On note px1 , . . . , xn q (resp. py1 , . . . , yn q) les
composantes de x (resp. y) relativement à la base B. Ainsi,
ņ ņ
x xj ej et y yj ej

j 1 
j 1

ce qui donne
ņ ņ ņ ņ ¸
xx | yy  x xi ei | yj ej y  xi yj xei | ej y  gi,j xi yj

i 1 
j 1  
i 1j 1 i,j

avec gi,j  xei | ej y . Pour mémoire, dans le cas complexe, on a


ņ ņ ¸
xx | yy  xi yj xei | ej y  gi,j xi yj
 
i 1j 1 i,j

1.1.2 Expression matricielle du produit scalaire


Appelons G la matrice de terme général gi,j  xei | ej y ; G est une matrice carrée d’ordre n, à
coefficients réels et symétrique. L’expression du produit scalaire s’écrit à l’aide de G :
¸
xx | y y  gi,j xi yj  tXGY
i,j

où X  MatB pxq (resp. Y  MatB pyq) est la matrice-colonne des composantes de x (resp. y)
relativement à B.

1.1.3 Effet d’un changement de base


Soit B1  pe11 , . . . , e1n q une autre base de E et P la matrice de passage de la base B à la base B1 ,
i.e. la matrice P  MatB pB1 q dont la j e colonne est la colonne des composantes du vecteur e1j
relativement à B. Ainsi,

MatB pxq  MatB pB1 qMatB1 pxq, soit : X  P X1


et le produit scalaire devient :

xx | yy  tXGY  tpP X 1 qGpP Y 1 q  tX 1 p tP GP qY 1  tX 1 G1 Y 1


La matrice G1 du produit scalaire relativement à la base B1 s’écrit :

G1  tP GP
1.1.4 Cas d’une base orthonormale
Si U  pu1 , . . . , un q est une base orthonormale de E, alors xui | uj y  δi,j et la matrice du
produit scalaire relativement à la base orthonormale U est la matrice unité In .
Si V  pv1 , . . . , vn q est une base orthogonale de E, alors xvi | vj y  δi,j kvi k2 ; la matrice du pro-
duit scalaire relativement à la base orthogonale V est la matrice diagonale Diagpkv1 k2 , . . . , kvn k2 q.

. Rappelons qu’un C-espace vectoriel de dimension finie et muni d’un produit scalaire (complexe), est appelé
espace hermitien ; ce chapitre ne s’applique pas tel quel aux espaces hermitiens.
Espaces euclidiens 85

1.2 Base orthonormale


1.2.1 Leur existence
Tout espace euclidien (resp. hermitien) possède, au moins, une base orthonormale : le procédé
d’orthonormalisation de Gram-Schmidt appliqué à une base quelconque de E donne le résultat.

1.2.2 Diverses expressions dans une base orthonormale


Considérons une base orthonormale U  pε1 , . . . , εn q de E. La composante xj de x suivant εj
est xj  xεj | xy  xx | εj y et
ņ ņ
x xj εj  xεj | xy εj

j 1 
j 1
¸ ¸ ņ
xx | yy  xj yk xεj | εk y  xj yk δj,k  xk yk
¤ ¤
1 j,k n ¤ ¤
1 j,k n 
k 1

kxk2  xx | xy  x2k

k 1

d2 px, yq  ky  xk2  pyk  xk q2

k 1

1.2.3 Matrice d’un endomorphisme relativement à une base orthonormale


Soit u un endomorphisme de E et A  rai,j s  MatU puq sa matrice relativement à une base
orthonormale U de E ; le terme ai,j , ie composante du vecteur upεj q relativement à la base U, se
calcule par :
ai,j  xεi | upεj qy

1.3 Supplémentaires orthogonaux


1.3.1 Leur existence
Tout sous-espace vectoriel F de E admet un supplémentaire orthogonal F K , puisque F est de
K
dimension finie. D’autre part F K  F .

1.3.2 Leur dimension


dim F K  dim E  dim F
1.3.3 Leurs équations
Si pf1 , . . . , fp q est une base de F , ou plus généralement une famille génératrice de F , alors

x P FK  Vecttf1 , . . . , fp uK ðñ @j P J1, pK , xfj | xy  0


1.3.4 Base orthonormale adaptée à un sous-espace vectoriel
Puisque E  F ` F K , on peut construire une base orthonormale de E, en réunissant une base
orthonormale de F et une base orthonormale de F K ; une telle base est appelée base orthonormale
adaptée à F .

Théorème 64 (de la base orthonormale incomplète).

Toute famille orthonormale pu1 , . . . , up q d’un espace vectoriel euclidien E de dimension n,


peut être complétée en une base orthonormale pu1 , . . . , up , up 1 , . . . , un q de E.

Preuve. Il suffit d’appliquer la remarque précédente au sous-espace vectoriel F engendré par


pu1 , . . . , up q. cqfd
86 Cours d’algèbre - PC Collège Stanislas

2 Isomorphisme naturel (canonique) de E sur son dual

Théorème 65 (Isomorphisme naturel de E sur son dual).

L’application Φ : x P E ÞÑ xx | y est un isomorphisme de E sur son dual E  ; on le qualifie


de canonique.

Preuve.
Pour tout x P E, Φpxq  xx | y : y ÞÑ xx | yy est une application linéaire de E vers R, i.e. une
forme linéaire sur E, i.e. un élément de E  .
Donc Φ est une application de E dans E  . Montrons qu’elle est linéaire c.-à-d. que pour tout
x1 et x2 dans E, pour tout λ1 et λ2 dans R, on a l’égalité des applications xλ1 x1 λ2 x2 | y et
λ1 xx1 | y λ2 xx2 | y .
 
@y P E, Φpλ1 x1 λ2 x2 q pyq  xλ1 x1 λx2 | yy
 λ1 xx1 | yy λ2 xx2 | yy
 
 λ1 Φpx1 q λ2 Φpx2 q pyq

D’où la linéarité.
Montrons que Φ est injective

z P Ker Φ ðñ xz | y  0E ðñ @y P E, xz | yy  0, ðñ z P E K ðñ z  0
L’application linéaire Φ est donc injective.
De plus dim E   dim LpE, Rq  dim E  dim R  dim E, autrement dit E et E  sont deux
espaces vectoriels de même dimension finie ; l’application linéaire injective Φ est donc un isomor-
phisme de E sur E  . cqfd

Théorème 66 (de représentation d’une forme linéaire).

À toute forme linéaire ϕ sur E correspond un unique vecteur a de E tel que

@y P E, ϕpyq  xa | yy

Preuve. Utilisons l’isomorphisme canonique Φ et posons a  Φ1 pϕq. D’où ϕ  xa | y cqfd

Exemple 7.1.
À toute forme linéaire ϕ sur Mn pRq correspond une une unique matrice A P Mn pRq qui « repré-
sente » ϕ pour le produit scalaire naturel (canonique) de Mn pRq, soit

@M P Mn pRq, ϕpM q  trp tAM q


Produit vectoriel en dimension 3
Soit E un espace vectoriel euclidien de dimension 3, orienté par la donnée d’une base orthonormale
B  pi, j, kq. Le produit mixte
rx, y, zs  detpx, y, zq
est indépendant de la base orthonormale directe B choisie (il suffit d’utiliser le théorème 15
du chapitre sur les déterminants et la propriété detB1 pBq  1 pour un changement de bases
orthonormées directes). Pour x et y fixés dans E, l’application z ÞÑ rx, y, zs est une forme
linéaire que l’on peut représenter à l’aide d’un vecteur w que l’on note x ^ y, et l’on a :

@z P E, xx ^ y | zy  rx, y, zs  detpx, y, zq
À l’aide de cette définition, on retrouve les propriétés habituelles du produit vectoriel. Pouvez-
vous les démontrer ?
Espaces euclidiens 87

Adjoint d’un endomorphisme (H.P.)


Exemple 7.2. Soit E un espace euclidien.

a) Soit Ψ une forme bilinéaire sur E. Montrer qu’il existe un unique endomorphisme u de E
tel que
@px, yq P E, Ψpx, yq  xupxq | yy
Cet u est appelé endomorphisme naturel (canonique) associé à la forme bilinéaire Ψ.
b) Soit u un endomorphisme de E. Montrer qu’il existe un unique endomorphisme de E noté
u tel que
@px, yq P E 2 , xu pxq | yy  xx | upyqy
L’endomorphisme u est appelé l’adjoint de u.
c) Soit B est une base orthonormale de E. Montrer que

MatB pu q  tMatB puq

d) Soit u et v sont des endomorphismes de E et λ un réel. Montrer les propriétés suivantes :


i) pu v q  u v  ; pλuq  λ u ; pu q  u
ainsi u ÞÑ u est un automorphisme involutif de LpE q
ii) pu  v q  v   u ; pIdE q  IdE
iii) u P GLpE q ðñ u P GLpE q et, dans ce cas, pu q1  pu1 q
iv) trpu q  tr u et detpu q  det u
e) Soit u est un endomorphisme de E. Montrer les propriétés suivantes :
K K
i) Ker u  Im u , Im u  Ker u et rg u  rg u
ii) soit F un sous-espace vectoriel de E.
F est stable par u si, et seulement si, F K est stable par u .

3 Endomorphismes symétriques
3.1 Généralités
Exemple 7.3. Soit E un espace euclidien.
Une application f : E ÝÑ E est dite symétrique (resp. antisymétrique) lorsque

@px, yq P E 2 , xx | f pyqy  xf pxq | yy presp. xx | f pyqy   xf pxq | yy q


Montrer que si une application de E dans E est symétrique (resp. antisymétrique), alors elle est
nécessairement linéaire.

Définitions 57 (Endomorphisme autoadjoint ou symétrique, antisymétrique).

Soit u un endomorphisme d’un espace euclidien E. On dit que u est autoadjoint ou symétrique
lorsque
@px, yq P E 2 , xupxq | yy  xx | upyqy
On dit que u est antisymétrique lorsque

@px, yq P E 2 , xupxq | yy   xx | upyqy


On note SpE q l’ensemble des endomorphismes autoadjoints ou symétriques et ApE q l’en-
semble des endomorphismes antisymétriques.
88 Cours d’algèbre - PC Collège Stanislas

Théorème 67 (Caractérisation des endomorphismes symétriques).

Soit E un espace euclidien et B une base orthonormée de E.


Soit u un endomorphisme de E et A  MatB pf q. Alors on a

u P SpE q ðñ t
AA ðñ A P Sn pRq

Preuve. Soit B  pe1 , . . . , en q une base orthonormée de E. Alors

MatB pf q  A  pai,j q1¤i¤n avec @pi, j q P J1, nK2 , ai,j  xei | f pej qy
1¤j ¤n

On a alors

f symétrique ðñ @px, yq P E 2 , xx | f pyqy  xf pxq | yy


ðñ @pi, j q P J1, nK2 , xei | f pej qy  xf pei q | ej y
ðñ @pi, j q P J1, nK2 , ai,j  aj,i
ðñ t A  A
cqfd

Endomorphisme symétrique et matrice symétrique réelle

Si S est une matrice symétrique réelle d’ordre n, l’endomorphisme uS canoniquement associé


à S, est un endomorphisme symétrique (autoadjoint) de Rn muni de sa structure euclidienne
canonique. En effet :

xuS pX q | Y y  tpSX qY  tX tSY  tXSY  xX | SY y  xX | uS pY qy


Soit E un espace euclidien et B une base orthonormale de E ; à toute matrice symétrique réelle
d’ordre n, on associe l’endomorphisme uS de E, de matrice S relativement à B ; uS est un
endomorphisme symétrique (autoadjoint) de E car

xuS pxq | yy  tpSX qY  tXSY  xx | uS pyqy


Tout ceci donne la

Proposition 34.
Si B est une base orthonormale d’un espace euclidien E, l’application u ÞÑ MatB puq induit un
isomorphisme du R-espace vectoriel SpE q des endomorphismes symétriques (autoadjoints),
sur le R-espace vectoriel Sn pRq des matrices symétriques réelles d’ordre n, et

npn 1q
dim SpE q  dim Sn pRq 
2

Théorème 68 (Caractérisation des endomorphismes antisymétriques).

Soit E un espace euclidien et B une base orthonormée de E.


Soit u un endomorphisme de E et A  MatB pf q. Alors on a

u P ApE q ðñ t
A  A ðñ A P An pRq

Preuve. Même démonstration que dans le cas des endomorphismes symétriques. cqfd
Espaces euclidiens 89

Proposition 35.
Si B est une base orthonormale d’un espace euclidien E, l’application u ÞÑ MatB puq induit
un isomorphisme du R-espace vectoriel ApE q des endomorphismes antisymétriques, sur le
R-espace vectoriel An pRq des matrices antisymétriques réelles d’ordre n, et

npn  1q
dim ApE q  dim An pRq 
2

Exemple 7.4. Montrer que les endomorphismes antisymétriques de R3 sont les endomorphismes
de la forme x ÞÝÑ a ^ x où a P R3 .

3.2 Projecteur orthogonal

Définition 58 (Projecteur orthogonal).

Si F est un sous-espace vectoriel d’un espace euclidien E, le projecteur pF d’image F , paral-


lèlement à F K , est appelé projecteur orthogonal de E sur F .

Proposition 36 (Expression analytique d’un projecteur orthogonal).

Si pu1 , . . . , ur q est une base orthonormale de F , on a



@x P E, pF pxq  xuj | xy uj

j 1

Cas d’une droite D  Ra : pD : x ÞÑ


xa | xy a
kak2
Cas d’un hyperplan H  tauK : pH  IdE  pD : x ÞÑ x  xkak
a | xy
2
a

La propriété suivante est très utile en pratique pour déterminer la matrice d’une projection
orthogonale.

Proposition 37 (Expression matricielle d’un projecteur orthogonal).

Si B est une base orthonormale de E, si pu1 , . . . , ur q est une base orthonormale de F et si


Uj  MatB puj q est le vecteur-colonne des composantes de uj relativement à B, alors

MatB ppF q  Uj tUj

j 1

Preuve. °Appelons PF  MatB ppF q la matrice de pF relative °


à la base orthonormale
 B. L’égalité
pF pxq  j 1 xuj | xy uj s’écrit matriciellement PF X  j 1 tUj X Uj . Or, tUj X est un
r r

nombre réel ou plutôt une matrice de taille 1  1 qui commute avec toute matrice. Ainsi

 ŗ
  ŗ
PX  Uj tUj X  Uj tUj X  Uj tUj X

j 1 
j 1 
j 1

cqfd
Exemple 7.5. Soit E  R3 muni de sa structure euclidienne canonique. Déterminer les matrices
dans la base canonique des projections suivantes :
90 Cours d’algèbre - PC Collège Stanislas

a) la projection orthogonale p sur la droite d’équation x  y  z


b) la projection orthogonale q sur le plan d’équation 2x y  z  0

Exemple 7.6. On se place dans E  R4 muni du produit scalaire canonique. Déterminer la


matrice, dans la base canonique B, de la projection orthogonale sur le sev F défini par le système
d’équations :
pF q : xx11  xx22 xx33  xx44  00
!

Théorème 69 (Projecteurs orthogonaux et projecteurs).

Soit p un projecteur d’un espace euclidien E.


Alors p est un projecteur orthogonal si, et seulement si, il est symétrique (autoadjoint).

Preuve. Tout projecteur p est la projection de E sur Im p, parallèlement à Ker p.


ùñ On suppose Ker pK Im p. Montrons que p est symétrique.
Soit px, yq P E 2 . On décompose x sous la forme x  ppxq rx  ppxqs
Alors
PKer p hkPkIm
hkkkikkkj ikkpj
xx | ppyqy  xppxq | ppyqy x  p q | p q y  xppxq | ppyqy
x px py
looooooooooomooooooooooon
0
De même, on décompose y sous la forme y  ppyq ry  ppyqs et on obtient
hkPkIm PKer p
ikkpj hkkkikkkj
xppxq | yy  xppxq | ppyqy x p q |  p qy  xppxq | ppyqy
px y py
looooooooooomooooooooooon
0
On a donc prouvé @px, yq P E 2 , xx | ppyqy  xppxq | ppyqy  xppxq | yy
ðù Supposons p symétrique. Montrons Ker pK Im p.
Soit px, yq P Ker p  Im p. Alors y est point fixe de p. Donc

xx | yy  xx | ppyqy  xlopomo
pxoqn | yy  0
0E

cqfd

Proposition 38 (Interprétation matricielle).

Soit p un endomorphisme d’un espace euclidien E.


Soit B une base orthonormale de E et M  MatB ppq la matrice
! de p relative à B.
Alors, p est un projecteur orthogonal si, et seulement si, M P Sn p Rq
M2  M

3.3 Symétrie orthogonale

Définition 59 (Symétrie orthogonale).

Si F est un sous-espace vectoriel d’un espace euclidien E, la symétrie par rapport à F et


parallèlement à F K est appelée symétrie orthogonale par rapport à F .
Espaces euclidiens 91

Proposition 39 (Symétrie et projecteur orthogonaux).

Soit F un sous-espace vectoriel d’un espace euclidien, sF la symétrie orthogonale par rapport
à F et pF le projecteur orthogonal d’image F ; alors :

sF IdE  2pF
Cas d’une droite D  Ra : sD  2pD  IdE : x ÞÑ 2 xkak
a | xy
2
ax

Cas d’un hyperplan H  tauK : sH  2pH  IdE  sD : x ÞÑ x  2 xkak


a | xy
2
a

sD pxq pD pxq x

H pH pxq

 pD pxq
sH pxq

Théorème 70 (Caractérisation des symétries orthogonales parmi les symétries).

Soit s une symétrie d’un espace euclidien E.


Alors s est une symétrie orthogonale si, et seulement si, s est symétrique (autoadjoint).

Preuve. Toute symétrie, i.e. tout endomorphisme s de E vérifiant s  s  IdE , est la symétrie
par rapport à F  Kerps  IdE q (sev des vecteurs invariants) parallèlement à G  Kerps IdE q
(sev des vecteurs anti-invariants).
ùñ Supposons F KG. Montrons s symétrique. Soit px, yq P E 2 .
On écrit x  xF xG avec pxF , xG q P F  G et y  yF yG avec pyF , yG q P F  G. Alors

xx | spyqy  xxF xG | yF  yG y  xxF | yF y  xxG | yG y


puisque xG KyF et xF KyG . De même,

xspxq | yy  xxF  xG | yF yG y  xxF | yF y  xxG | yG y


En conclusion, @px, yq P E 2 , xx | spyqy  xspxq | yy . Autrement dit, s est symétrique.

xG x

F
xF

 xG
spxq
G
92 Cours d’algèbre - PC Collège Stanislas

ðù Supposons s symétrique. Montrons F KG.


Soit px, yq P F  G. Alors x est invariant par s et y est anti-invariant par s. Donc
*
xx | yy  xspxq | yy
xx | yy  xx | spyqy   xx | spyqy   xspxq | yy ùñ 2 xx | yy  0 ùñ xKy
cqfd

3.4 Endomorphisme symétrique positif, défini positif

Définition 60 (Endomorphisme symétrique positif, défini positif).

Soit u un endomorphisme symétrique (autoadjoint) d’un espace euclidien E.


L’endomorphisme u est dit positif lorsque

@x P E, xupxq | xy ¥ 0
L’endomorphisme u est dit défini positif lorsque

@x P E zt0u, xupxq | xy ¡ 0

Proposition 40 (Endomorphisme symétrique défini positif et automorphisme).

Tout endomorphisme symétrique défini positif est un automorphisme de E.

Preuve. Le noyau d’un endomorphisme u symétrique défini positif est réduit à t0u ; en effet
x  0 ùñ xupxq | xy ¡ 0, donc upxq  0. En dimension finie, ceci montre que u est application
linéaire inversible, i.e. un automorphisme. cqfd

Définition 61 (Matrice symétrique positive, définie positive).

Soit A P Sn pRq une matrice symétrique réelle d’ordre n.


La matrice A est dite positive lorsque

@ X P Rn , t
XAX ¥0
La matrice A est dite définie positive lorsque

@X P Rn zt0u, t
XAX ¡0

Notation. On note Sn l’ensemble des matrices symétriques positives et Sn l’ensemble des


matrices symétriques définies positives.

Proposition 41 (Matrice symétrique positive et endomorphisme associé).

Si A P Sn pRq est une matrice symétrique et uA : X ÞÑ AX l’endomorphisme symétrique


(autoadjoint) de Rn muni de son produit scalaire canonique, alors
piq A est positive ðñ uA est positif ;
piiq A est définie positive ðñ uA est défini positif.

Preuve. Remarquons que xuA pX q | X y  tpXAqX  tXAX, puisque A est symétrique. cqfd
Espaces euclidiens 93

Proposition 42 (Cas des matrices diagonales).

Si D  Diagpλ1 , . . . , λn q est une matrice diagonale à coefficients réels, alors


piq D est positive ðñ @i P J1, nK , λi ¥ 0
piiq D est définie positive ðñ @i P J1, nK , λi ¡ 0

Preuve. Soit X  tpx1 , . . . , xn q ; alors t


XDX  °ni1 λi x2i et

@ X P Rn , t
XDX  λi x2i ¥ 0 ðñ @i P J1, nK , λi ¥0

i 1

@X P Rn zt0u, t
XDX  λi x2i ¡ 0 ðñ @i P J1, nK , λi ¡0

i 1

cqfd
Exemple 7.7. Soit A P Mn,p pRq. Comparer rgpAq, rgpt A Aq et rgpA t Aq.

4 Automorphismes orthogonaux
E est soit un espace préhilbertien réel, soit un espace euclidien de dimension n ; son produit
scalaire est noté x | y .

4.1 Généralités
Le théorème qui suit est assez spectaculaire : il affirme que, dans un espace préhilbertien, une
application qui laisse le vecteur nul invariant et qui conserve les distances est nécessairement une
application linéaire, injective et qui conserve le produit scalaire (et donc aussi toutes les notions
qui en découlent : norme, orthogonalité, angles non orientés, aires, etc).

Théorème 71.
Soit E un espace préhilbertien et u une application de E de E.
On ne suppose pas que cette application est linéaire a priori.
On suppose que up0q  0 et que @px, yq P E 2 , kupxq  upyqk  kx  yk
Alors u est une application linéaire, injective, qui conserve le produit scalaire.

Preuve. • On commence par prouver que u conserve la norme.


@x P E, kupxqk  kupxq  0k  kupxq  up0qk  kx  0k  kxk
• On montre ensuite que u conserve le produit scalaire.
@px, yq P E 2 , 2 xupxq | upyqy  kupxqk2 kupyqk2  kupxq  upyqk2
 kxk2 kyk2  kx  yk2
 2 xx | yy
• On montre alors que u est linéaire. Pour tous scalaires λ et µ, et tous vecteurs x et y, on a
kupλx µyq  λupxq  µupyqk2
 kupλx µyqk2 λ2 kupxqk2 µ2 kupyqk2
 2λ xupλx µyq | upxqy  2µ xupλx µyq | upyqy 2λµ xupxq | upyqy
 kλx µyk λ kxk µ kyk
2 2 2 2 2
 2λ xλx µy | xy  2µ xλx µy | yy 2λµ xx | yy
 kpλx µyq  λx  µyk2
0
Donc upλx µyq  λupxq  µupyq  0.
94 Cours d’algèbre - PC Collège Stanislas

• On montre enfin que u est injective.

@x P E, x P Ker u ðñ upxq  0 ðñ kupxqk  0 ðñ kxk  0 ðñ x  0


cqfd
Exemple 7.8. Dans l’espace E! R2 muni de sa structure euclidienne canonique, on considère
x si x2  0
l’application u : x  px1 , x2 q ÞÑ
x si x2  0 . Cette application conserve-t-elle la norme ? Est-
elle linéaire ?

Dans le cas où E est de dimension finie, on peut préciser le résultat précédent.

Corollaire 24.
Soit E un espace euclidien et u une application de E de E.
On ne suppose pas que cette application est linéaire a priori.
On suppose que up0q  0 et que @px, yq P E 2 , kupxq  upyqk  kx  yk
Alors u est une application linéaire, bijective, qui conserve le produit scalaire.

Preuve. Tout endomorphisme injectif dans un espace vectoriel de dimension finie est bijectif,
donc un automorphisme. cqfd

Définitions 62 (Automorphisme orthogonal).

Soit u un endomorphisme d’un espace préhilbertien E.

piq On dit que u est un endomorphisme orthogonal lorsque u conserve le produit scalaire.
piiq On dit que u est une isométrie lorsque u conserve la norme.

En fait, ces deux notions sont équivalentes, comme le prouve le

Lemme 7 (Conservation de la norme, conservation du produit scalaire).

Si E est un espace préhilbertien réel et u une application de E vers E, les propriétés suivantes
sont équivalentes :
piq l’application u est linéaire et conserve la norme, i.e. @x P E, kupxqk  kxk ;
piiq l’application u conserve le produit scalaire, i.e. @px, yq P E, xupxq | upyqy  xx | yy .

Preuve.
i ùñ ii De l’identité 4 xu | vy  ku vk2  ku  vk2 , on tire que
4 xupxq | upyqy  kupxq upyqk2  kupxq  upyqk2
 kupx yqk2  kupx  yqk2 u est linéaire
 kx yk2  kx  yk2 u conserve la norme
 4 xx | yy
ii ùñ i Si u conserve le produit scalaire, u conserve la norme : faire y  x.
Pour montrer la linéarité de u, on procède comme dans la preuve du théorème 71.
cqfd
Notation. L’ensemble des automorphismes orthogonaux de E est noté OpE q.
L’ensemble des automorphismes orthogonaux de Rn (muni de son produit scalaire canonique)
est noté OpRn q  On pRq.

u P OpE q ðñ u P LpE q et @x P E, kupxqk  kxk


Espaces euclidiens 95

Théorème 72 (Caractérisation des automorphismes orthogonaux).

Soit E un espace euclidien et B une base orthonormée de E.


Soit u un endomorphisme de E et A  MatB pf q. Alors on a
!
u P OpE q ðñ A P GLn pRq ðñ t
A A  In ðñ A t A  In
A 1  t A

Preuve.

u P OpE q ðñ @ px, yq P E 2 , xupxq | upyqy  xx | yy


ðñ @pX, Y q P pRn q2 , t AX AY  t X Y
ðñ @pX, Y q P pRn q2 , t X t A AY  t X Y

ðñ @X P Rn , @Y P Rn , t X t A A Y  t X Y
ðñ @X P Rn , t X t A A  t X
ðñ t
A A  In

cqfd

Théorème 73.

Soit E un espace euclidien, B une base orthonormale de E et u un endomorphisme de E.


Alors u est un endomorphisme orthogonal si, et seulement si, l’image par u de B est une base
orthonormée de E.

Preuve. Soit B  pe1 , . . . , en q une base orthonormée de E.


ùñ Pour tout pi, j q P N2n , on a xupei q | upej qy  xei | ej y  δi,j
ðù Soit x P E. Alors B étant supposée orthonormée, on a
ņ ņ
x xx | ei y ei et kxk2  xx | ei y 2

i 1 
i 1

Donc, par linéarité de u, on a



upxq  xx | ei y upei q

i 1

Sachant que la famille upBq  pupe1 q, . . . , upen qq est supposée orthonormée, on a donc
ņ ņ ņ
kupxqk2  xx | ei y xx | ej y loooooooomoooooooon
xupei q | upej qy  xx | ei y 2  kxk2
 
i 1j 1
δi,j 
i 1

Donc l’endomorphisme u conserve la norme. Autrement dit, u P OpE q.


cqfd

4.2 Exemples
4.2.1 Symétrie orthogonale

Lemme 8.
Soit s une symétrie d’un espace euclidien E.
Alors s est un automorphisme orthogonal si, et seulement si, s est endomorphisme symétrique.
96 Cours d’algèbre - PC Collège Stanislas

Preuve. Soit s une symétrie de E.


ùñ Supposons s automorphisme orthogonal. Pour tous vecteurs x, y de E, on a
xspxq | yy  xlosomo
 sonpxq | spyqy  xx | spyqy
IdE

Donc s est symétrique.


ðù Supposons s symétrique. Pour tous vecteurs x, y de E, on a
xspxq | spyqy  xlosomo
 sonpxq | yy  xx | yy
IdE

Donc s est un automorphisme orthogonal. cqfd

Théorème 74 (Caractérisation des symétries orthogonales parmi les symétries).

Soit s une symétrie d’un espace euclidien E.


Alors s est une symétrie orthogonale si, et seulement si, s est un automorphisme orthogonal.

Preuve. En combinant le lemme précédent et le théorème 70, on a pour toute symétrie s de E


les équivalences

s est une symétrie orthogonal ðñ s est un endomorphisme symétrique


ðñ s est un automorphisme orthogonal

cqfd
Remarque. Un projecteur peut-il être un endomorphisme orthogonal ?

4.2.2 Réflexion

Lemme 9.
Si a et b sont deux vecteurs d’un espace préhilbertien E, alors a b et a  b sont orthogonaux
si, et seulement si, a et b ont même longueur.

Preuve. L’égalité xa b | a  by  kak2  kbk2 donne l’équivalence. cqfd

Corollaire 25 (Parallélogramme et losange).

Les diagonales d’un parallélogramme sont orthogonales si, et seulement si, ce parallélogramme
est un losange.

Corollaire 26 (Bissectrice(s) de deux vecteurs).

Soit a et b sont deux vecteurs non colinéaires.


Alors a b dirige la bissectrice des vecteurs a et b si, et seulement si, a et b sont de même
longueur.

Preuve. Si a et b sont non colinéaires, la quantité kak kbk  xa | by est strictement positive et
 
xa b | ay xa b | by kak kbk  xa | by kak  kbk
cospa b, aq  cospa b, bq   ka 
ka bk kak bk kbk ka bk kak kbk

Les anglespa b, aq et pa b, bq ont le même cosinus si, et seulement si, les vecteurs a et b sont
de même longueur. cqfd
Espaces euclidiens 97

Définition 63 (Réflexion).

Étant donnée deux vecteurs a et b de même norme, on appelle réflexion de a sur b, la symétrie
orthogonale par rapport à l’hyperplan médiateur de a et b, i.e. l’hyperplan orthogonal à
e  a  b.
Cette réflexion est notée sa,b et

sa,b : x P E ÞÑ x  2 xkek
e | xy
2
e avec e  a  b

Remarques.
Dans une base orthonormale adaptée à la décomposition E  Re `teuK , la matrice de sa,b est
par blocs Diagp1, In1 q et donc det sa,b  1.
sa,b et sa,b sont deux réflexions qui envoient la droite Ra sur la droite Rb.

Exemple 7.9. Soit E un espace euclidien et u un vecteur unitaire de E. Soit α P R. Pour quelles
valeurs de α, fα défini par fα pxq  x α xx | uy u est-il un automorphisme orthogonal de E ?
Pour ces valeurs, déterminer les éléments caractéristiques de fα .

4.3 Groupe orthogonal

Théorème 75 (Groupes orthogonal et spécial orthogonal de E).

Si E est un espace euclidien, alors :

piq OpE q, muni de la composition des applications, est un sous-groupe de GLpE q ; il est
appelé groupe orthogonal de E ;
piiq si u P OpE q, alors det u P t1, 1u ; la réciproque est fausse ;
piiiq SOpE q  tu P OpE q | det u  1u est un sous-groupe de OpE q appelé groupe spécial
orthogonal de E, ou encore groupe des rotations vectorielles de E ; il est encore noté
O pE q ;
pivq O pE q  OpE qzSOpE q  tu P OpE q | det u  1u n’est pas un groupe.

Preuve.
piq OpE q € GLpE q et IdE P OpE q ; 
stabilité par  : si u et v appartiennent à OpE q, alors @x P E, kv upxq k  kupxqk  kxk ;

stabilité de la prise d’inverse : si u P OpE q, ku1 pxqk  ku u1 pxq k  kxk et u1 P OpE q.
Ainsi, OpE q est un sous-groupe de GLpE q muni de la composition des applications.
piiq Soit B une base orthonormée de E et A  MatB puq. Alors

u P OpE q ðñ t
A A  In ùñ detpt A Aq  det In ùñ det t A  det A  1
ùñ pdet Aq2  1 ùñ det A  1
ùñ det u  1
 
Si A  11 01 , alors tAA  11 12  I2 , ce qui montre que la réciproque est fausse.
piiiq Si u P SOpE q, alors u1 P SOpE q puisque detpu1 q  1{ detpuq ; si u P SOpE q et v P SOpE q,
u  v P SOpE q puisque detpu  v q  detpuq detpv q ; enfin IdE P SOpE q. Ainsi, SOpE q est un
sous-groupe de OpE q pour la composition des applications.
pivq O pE q ne peut être un groupe, car la composition des applications n’est pas stable. Si s est
une réflexion de E, u ÞÑ u  s est une bijection de OpE q (c’est une involution) qui envoie O pE q
sur O pE q  SOpE q.
cqfd
98 Cours d’algèbre - PC Collège Stanislas

Théorème 76 (Éléments propres d’un automorphisme orthogonal).

Si u est un automorphisme orthogonal d’un espace euclidien, alors :


piq sp u € t1, 1u et les sous-espaces vectoriels propres sont orthogonaux ;
piiq u est diagonalisable si, et seulement si, u est une symétrie (vectorielle) orthogonale ;
piiiq si F est un sous-espace vectoriel stable par u, alors F K est aussi un sous-espace vectoriel
stable par u ; u induit sur F et F K des automorphismes orthogonaux ; en particulier,
upF q  F et upF K q  F K .

Preuve.
piq Si λ est une valeur propre de u et x un vecteur propre associé, alors upxq  λx et, puisque
u conserve la norme, kxk  kupxqk  |λ| kxk ; ainsi |λ|  1.
Si x P E1 puq et y P E1 puq alors, puisque u conserve le produit scalaire,

xx | yy  xupxq | upyqy  xx | yy   xx | yy


ce qui montre que xx | yy  0. Ainsi E1 puqKE1 puq.
piiq u est diagonalisable si, et seulement si, E  E1 puq ` E1 puq si, et seulement si, u est la
symétrie par rapport à E1 puq parallèlement à E1 puq, soit la symétrie orthogonale par rapport
à E1 puq
piiiq L’endomorphisme u|F induit par u sur le sous-espace vectoriel stable F , conserve la norme ;
c’est donc un automorphisme orthogonal de F , en particulier une bijection et upF q  F .
Soit x P F K ; pour tout y P F , il existe y1 P F tel que y  upy1 q ; alors

xupxq | yy  xupxq | upy1 qy


 xx | y 1 y êu conserve le produit scalaire
0 êxPF K et y1 PF

ce qui montre que upxq P F K , i.e. la stabilité de F K . u induit donc sur F K un automorphisme
orthogonal et upF K q  F K .
cqfd

Exemple 7.10. Soit u est un automorphisme orthogonal d’un espace euclidien. Montrer
K K
Kerpu  IdE q  Impu  IdE q et Kerpu IdE q  Impu IdE q

Exemple 7.11. Donner un exemple d’endomorphisme normal de Rn non diagonalisable.

5 Matrices orthogonales
5.1 Généralités

Définition 64 (Matrice orthogonale).

Une matrice A carrée d’ordre n à coefficients réels est dite orthogonale si tAA  In .
L’ensemble des matrices orthogonales d’ordre n est notée Opnq.

Exemple 7.12. Les matrices de permutation Pi,j sont des matrices orthogonales.
Espaces euclidiens 99

Théorème 77 (Caractérisation des matrices orthogonales).

Si E est un espace euclidien de dimension n et A P Mn pRq, alors les propriétés suivantes sont
équivalentes :
piq A P Opnq ;
piiq tAA  In ;
piiiq A tA  In ;
pivq A P GLn pRq et A1  tA ;
pvq A est la matrice relative à une base orthonormée d’un automorphisme orthogonal de E ;
pviq les colonnes de A forment une base orthonormée de Rn pour le produit scalaire cano-
nique ;
pviiq les lignes de A forment une base orthonormée de Rn pour le produit scalaire canonique ;
pviiiq A est la matrice de passage d’une base orthonormée de E à une base orthonormée de E.

Preuve.
L’égalité BA  In implique det B det A  1 ; ainsi det A  0, A est inversible et A1  B. Cette
remarque montre l’équivalence de (ii) et de (iii) avec (iv).
ii ðñ v Déjà vu lors de la caractérisation des automorphismes orthogonaux. 
ii ðñ vi Notons pC1 , . . . , Cn q les colonnes de A et remarquons que In i,j  δi,j . Alors
 
AA 
t t
Ci Cj ¤¤
1 i n  xCi | Cj y ¤¤
1 i n
¤¤
1 j n ¤¤
1 j n

où x | y représente le produit scalaire euclidien canonique de Rn . Ceci montre que

A A  In
t
ðñ @pi, j q P J1, nK2 , xCi | Cj y  δi,j
iii ðñ vii Notons pL1 , . . . , Ln q les lignes de A. Ainsi
 
t
A A  Li tLj ¤¤
1 i n  xLi | Lj y ¤¤
1 i n
¤¤
1 j n ¤¤
1 j n

ce qui montre que


A tA  In
ðñ @pi, j q P J1, nK2 , xLi | Lj y  δi,j
ii ðñ viii Soit B une base orthonormale de E, B1  pe11 , . . . , e1n q une autre base, a priori
quelconque, de E et A la matrice de passage de la base B à la base B1 ; ainsi la j e colonne Cj de
A est la matrice MatB pe1j q de e1j relative à B. Puisque B est une base orthonormale, on a :

xe1i | e1j y  tMatB pe1i q MatB pe1j q  tAi Aj  t
AA i,j

ce qui donne l’équivalence. cqfd

5.2 Groupe orthogonal d’ordre n

Théorème 78 (Groupe orthogonal et spécial orthogonal d’ordre n).

piq Opnq, muni de la multiplication des matrices, est un sous-groupe de GLn pRq ; il est
appelé groupe orthogonal d’ordre n ;
piiq si A P Opnq, alors det A P t1, 1u ; la réciproque est fausse ;
piiiq SOpnq  tA P Opnq | det A  1u est un sous-groupe de Opnq appelé groupe spécial
orthogonal d’ordre n, ou encore groupe des rotations vectorielles d’ordre n ; il est encore
noté O pnq ;
pivq O pnq  OpnqzSOpnq  tA P Opnq | det u  1u n’est pas un groupe.
100 Cours d’algèbre - PC Collège Stanislas

Preuve.
C’est la traduction matricielle du théorème correspondant des propriétés du groupe orthogonal
OpE q, où E est un espace euclidien de dimension n rapporté à une base orthonormale. Néanmoins,
on en redonne une preuve directe.
piq Opnq € GLn pRq et In P Opnq ;
stabilité par  : si A et B appartiennent à Opnq, alors tpAB qAB  tB tA AB  tBIn B  In ;
stabilité de la prise d’inverse : si A P Opnq, alors In  p tA Aq1  A1 p tAq1 et A1 P Opnq.
Ainsi Opnq est un sous-groupe de GLn pRq muni du produit des matrices.
piiq tA A  In ùñ 1  det In  detp tA Aq  det tA detA  pdet Aq2 ùñ det A P t1, 1u.
piiiq A ÞÑ det A est un morphisme du groupe Opnq,  sur le groupe t1, 1u,  ; le noyau
SOpnq de ce morphisme est un sous-groupe de Opnq ;
pivq O pnq ne peut être un groupe car la multiplication n’est pas stable : le produit de deux
matrices orthogonales de déterminant 1 est une matrice orthogonale de déterminant 1. Si
S  Diagp1, In1 q (matrice diagonale par blocs), A ÞÑ SA est une bijection de Opnq (c’est une
involution) qui envoie O pnq sur O pnq  SOpnq.
cqfd

Théorème 79 (Éléments propres d’une matrice orthogonale).

piq Toute propriété vraie pour les automorphismes orthogonaux, est encore vraie pour les
matrices orthogonales ; en particulier, le spectre d’une matrice orthogonale est inclus
dans t1, 1u ;
piiq si A P Opnq X Sn pRq, alors A est la matrice d’une symétrie orthogonale relativement à
une base orthonormale ;
piiiq si n est impair et A P SOpnq  O pnq, alors 1 est valeur propre de A ; donc t1u €
sp A € t 1; 1u
pivq si A P O pnq, alors 1 est valeur propre de A ; donc t1u € sp A € t 1; 1u

Preuve.
piq Toute matrice orthogonale est la matrice d’un automorphisme orthogonal relativement à une
base orthonormale. Toute les propriétés vraies pour les automorphismes orthogonaux, sont donc
vraies pour les matrices orthogonales ; en particulier le spectre d’une matrice orthogonale est
inclus dans t1, 1u.
Voici une démonstration directe de cette propriété. Si λ est une valeur propre de A et X un
vecteur propre associé, AX  λX et
λ2 kXk2  kAXk2  tpAX qAX  tX tAAX  tXX  kXk2
et λ2  1.
piiq Soit u l’endomorphisme de E représenté par la matrice A dans une base orthonormale B ;
alors
" "t "
A P Opnq A A  In A2  In
A P Sn pRq
ðñ ðñ
t
AA t
AA
"
u est une symétrie
ðñ u est une endomorphisme symétrique
ðñ u est une symétrie orthogonale
piiiq Montrer que 1 est valeur propre de A, c’est montrer la nullité de detpA  In q. Puisque
A P SOpnq, det A  1 et A  In  A  tA A  ApIn  tAq. Ainsi,

detpA  In q  det A detpIn  tAq  1  detpIn  Aq  detpIn  Aq  p1qn detpA  In q
t

Puisque n est impair, detpA  In q   detpA  In q et detpA  In q  0.


pivq Si A P O pnq, en utilisant la même transformation que ci-dessus, on obtient :

detpA In q  detpA A tAq  det A detpIn tAq  1  det tpIn Aq   detpA In q
Ainsi, detpA In q  0 et 1 est valeur propre de A.
cqfd
Espaces euclidiens 101

5.3 Le groupe orthogonal d’ordre 1


Op1q  t1, 1u, SOp1q  O p1q  t1u et O p1q  t1u.
Notons D un espace euclidien de dimension 1, i.e. une droite vectorielle euclidienne ; alors
OpDq  tID , ID u, SOpDq  O pDq  tID u et O pDq  tID u.

5.4 Le groupe orthogonal d’ordre 2


Démontrer le théorème suivant, vu en cours de première année.

Théorème 80.

"  * "  *
SOp2q  O p2q  cos ϑ  sin ϑ 
PR et O p2q 
cos ϑ sin ϑ 
 cos ϑ  ϑ P R

sin ϑ cos ϑ  sin ϑ

On en déduit aussitôt le

Théorème 81 (Classification des isométries vectorielles du plan).

Les automorphismes orthogonaux directs du plan sont les rotations et les automorphismes
orthogonaux indirects sont les réflexions.

Exemple 7.13. Déterminer la nature de la composée de deux automorphismes du plan.


En déduire que toute rotation du plan peut-être considérée comme le produit de deux réflexions
dont l’une peut être choisie arbitrairement.

5.5 Le groupe orthogonal d’ordre 3


Rappels sur les rotations de l’espace R3

Définition 65.
• On dit qu’une droite vectorielle est orientée lorsqu’on se fixe un vecteur directeur de
cette droite (qui indique le sens positif).
• On dit qu’un plan vectoriel est orientée lorsqu’on se fixe un vecteur normal de ce plan.

Définition 66 (Rotation de R3 ).

Soit a un vecteur unitaire de R3 et ϑ un nombre réel.


K
On note D  R  a et P  aK . On a donc R3  D ` P.
On oriente alors le plan P par a.
La rotation r d’axe dirigé et orienté par a et d’angle ϑ est l’unique application linéaire telle
que
r|D  IdD et r|P est la rotation plane d’angle ϑ
Autrement dit, dans une base orthonormée adaptée, la rotation r est représentée par la
matrice 
1 0 0
 0 cos ϑ  sin ϑ
0 sin ϑ cos ϑ
102 Cours d’algèbre - PC Collège Stanislas

Proposition 43 (Formule de la rotation).


Avec les notations de la définition précédente, on a

@x P E, rpxq  p1  cos ϑq xx | ay  a pcos ϑq  x psin ϑq  pa ^ xq pavec kak  1q


"
xD P D
Preuve. Soit x P R . On décompose x sous la forme x  xD
3
xP avec
xP P P
On a alors
rpxq  r pxD q r pxP q  xD r|P pxP q
Pour calculer r|P pxP q, on construit une base orthonormée du plan P à partir des vecteurs xP et
a ^ xP qui sont orthogonaux et de même norme ; plus précisément, on pose
1 1
B  pi, jq avec i  xP et j  a ^ xP
kxP k kxP k
On a alors
  
rxP sB  kxP k
et MatB pr|P q 
cos ϑ  sin ϑ ùñ rr pxP qs  kxP k  cos ϑ
0 sin ϑ cos ϑ B sin ϑ

Ainsi

r pxP q  kxP k pcos ϑ  i sin ϑ  jq


 cos ϑ  xP sin ϑ  a ^ xP
Finalement, en tenant compte de xD  xx | ay  a, on obtient

rpxq  xD cos ϑ  xP sin ϑ  a ^ xP


 xx | ay  a cos ϑ  px  xx | ay  aq sin ϑ  a ^ px  xx | ay  aq
 p1  cos ϑq xx | ay  a cos ϑ  x sin ϑ  a ^ x
cqfd
Exemple 7.14. Déterminer la matrice dans la base canonique de R3 de la rotation d’axe u
 
1 π
1 et d’angle .
1 3

La classification des isométries de l’espace

Théorème 82 (Classification des isométries vectorielles de l’espace).

• Les isométries directes de R3 sont les rotations.


• Les isométries indirectes de R3 sont :
– les réflexions ;
– les composées (commutatives) d’une rotation et de la réflexion par rapport au plan
orthogonal à l’axe de la rotation (appelées anti-rotations : ).

Preuve. Soit f une isométrie de R3 .


La dimension de R3 étant impaire, f admet au moins une valeur propre.
Or f est une isométrie donc sp f € t1; 1u.
On va distinguer deux cas :
:
. Les anti-rotations doivent leur nom au fait que ce sont les opposées des rotations. En effet, dans R3 , un
endomorphisme et son opposé ont des déterminants opposés (ce n’est pas vrai dans R2 ) et on a donc l’équivalence

suivante : f est une isométrie directe ssi f est une isométrie indirecte. En utilisant le présent théorème, ceci s’écrit :

f est une rotation ssi f est une anti-rotation.
Espaces euclidiens 103

• soit sp f  t1u et on note alors ε  1


• soit 1 P sp f et on note alors ε  1
Dans les deux cas :
Il existe un vecteur propre unitaire a tel que f paq  εa
On note D  R  a et P  aK . On oriente P par a.
La droite D est stable par l’automorphisme orthogonal f , donc d’après le théorème 76, le plan
P est stable par f .
On note fP l’endomorphisme induit par f sur P.
L’endomorphisme fP est alors une isométrie du plan P : c’est donc soit une rotation, soit une
réflexion.

• Premier cas sp f  t 1u
Alors fP ne peut être une réflexion du plan P, sinon 1 serait valeur propre de f .
Donc fP est une rotation du plan P ; on note ϑ l’angle de cette rotation.
L’endomorphisme f est alors la rotation d’axe dirigé et orienté par a et d’angle ϑ.
• Deuxième cas t1u € sp f € t1; 1u
– Si fP est une rotation du plan P, on note ϑ l’angle de cette rotation.
Alors f est la composée commutative de la rotation d’angle ϑ autour de la droite D
orientée par a et de la réflexion par rapport au plan P ; autrement dit, f est l’anti-
rotation d’axe D dirigé et orienté par a et d’angle ϑ.
Si on complète a en une base B orthonormée directe de R3 , on a
 1 0 0
 
1 0 0 10 cos0 ϑ  sin
0
1 0 0
 1
MatB pf q   loooomoooon ϑ 
00

0 cos ϑ sin ϑ 0 10 
0 cos ϑ sin ϑ 0 10
0 sin ϑ cos ϑ 0 0 1 loooooooomoooooooon
0 sin ϑ cos ϑ 0 sin ϑ cos ϑ 0 01
sP rpRa,ϑq

x
pD pxq rpxq

ϑ
pP pxq

P
r  sP pxq

sP pxq

– Si fP est une réflexion dans le plan P, on note ∆ l’axe de cette réflexion.


Soit u un vecteur unitaire de ∆ et v  a ^ u. Alors B  pu, v, aq est une base
orthonormée directe de R3 .
Dans cette base, on a 1 0 0
MatB pf q  0 1 0
0 0 1
Donc f est le demi-tour d’axe D

cqfd
104 Cours d’algèbre - PC Collège Stanislas

Exemple 7.15. a) Montrer que toute rotation peut s’écrire comme composée de deux ré-
flexions par rapport à deux plans sécants suivant l’axe de la rotation, l’angle formé par ces
deux plans étant la moitié de l’angle de la rotation ; de plus, l’un de ces deux plans peut
être choisi arbitrairement.
b) En déduire que toute isométrie de R3 est décomposable en produit d’au plus trois réflexions.

6 Réduction des endomorphismes symétriques


E est un espace euclidien de dimension n.

6.1 Réalité des valeurs propres et orthogonalité des sous-espaces vectoriels


propres d’un endomorphisme symétrique (autoadjoint)

Théorème 83 (Valeurs propres d’un endomorphisme symétrique).

Si u est un endomorphisme symétrique (autoadjoint) d’un espace euclidien E, alors


piq le polynôme caractéristique de u est scindé sur R ;
piiq les sous-espaces vectoriels propres de u associés à des valeurs propres distinctes sont
orthogonaux.

Preuve.
piq Soit B une base orthonormale de E et A  MatB puq la matrice de u relative à B. Puisque
u est symétrique, A est une matrice symétrique réelle et χA  χu .
χA est un polynôme à coefficients réels, donc scindé sur C ; si λ P spC pAq est une valeur propre
complexe de A et X P Cn un vecteur propre associé, λ P spC pAq est une valeur propre complexe
de A et X P Cn un vecteur propre associé, car
AX  λX ùñ AX  λX  λ X
 A X  AX
Ainsi
t
 tX pAX q  tX pλX q  λtXX  λkXk2
XAX
 ptXAqX  tp tAX qX  tpAX qX  tpλ X qX  λtXX  λkXk2
et, puisque X  0, kXk ¡ 0 et λ  λ. Ceci montre que toutes les valeurs propres complexes de
A, donc de u, sont en fait réelles et χA  χu est un polynôme scindé sur R.
piiq Si λ et µ sont deux valeurs propres distinctes de u, et x et y deux vecteurs propres associés,
alors
x | p qy  xx | µyy  µ xx | yy
x uy
looooomooooon

xupxq | yy  xλx | yy  λ xx | yy
Puisque λ  µ, xx | yy  0 et donc :
λ  µ ùñ @px, yq P Kerpu  λIdE q  Kerpu  µIdE q, xKy
et les sous-espaces vectoriels propres Kerpu  λIdE q et Kerpu  µIdE q sont orthogonaux.
cqfd

6.2 Diagonalisation des endomorphismes symétriques (autoadjoints)

Lemme 10.
Soit u un endomorphisme symétrique de E et F un sous-espace vectoriel de E.
Si F est stable par u, alors F K est stable par u.
Étude d’un endomorphisme orthogonal f de R3 euclidien canonique, donné par sa matrice A P Op3q dans la base canonique.

t t
Si A  A alors f est une symétrie orthogonale Si A  A alors f est soit une rotation d’angle ϑ  0 rπ s
soit une anti-rotation, d’angle ϑ  0 rπ s

ãÑ tr A P t3, 1, 1, 3u ã
Ñ det A P t1, 1u
Si tr A  3 Si tr A  1 Si tr A  1 Si tr A  3 Si det A  1 Si det A  1

alors f  IdR 3 alors f est une réflexion alors f est un demi-tour alors f  IdR 3 alors f est une rotation alors f est une anti-rotation
(la symétrie centrale)

par rapport au plan d’axe la droite d’axe la droite d’axe la droite


P  Kerpf  IdR3 q D  Kerpf  IdR3 q D  Kerpf  IdR3 q D  Kerpf IdR3 q
 aK avec kak  1  Ra avec kak  1  Ra avec kak  1  Ra avec kak  1

tr A  1 2 cos ϑ tr A  1 2 cos ϑ

sin ϑ est du signe de sin ϑ est du signe de


ra, x, f pxqs pour x R Ra ra, x, f pxqs pour x R Ra
Espaces euclidiens

On complète a en une b.o.n. directe B1  pa, b, a ^ bq de R3 . Dans une telle base, f est représentée par
     
1 0 0 1 0 0 1 0 0 1 0 0 1 0 0 1 0 0
0 1 0 0 1 0 0 1 0 0 1 0 0 cos ϑ  sin ϑ 0 cos ϑ  sin ϑ
0 0 1 0 0 1 0 0 1 0 0 1 0 sin ϑ cos ϑ 0 sin ϑ cos ϑ

f px q  p1  cos ϑq xx | ay a f px q  p1  cos ϑq xx | ay a


f px q  x f pxq  x  2 xx | ay a f pxq  2 xx | ay a  x f p x q  x pcos ϑqx pcos ϑqx
psin ϑqpa ^ xq psin ϑqpa ^ xq
f P O p R3 q f P O pR3 q f P O pR3 q f P O  p R3 q f P O pR3 q f P O  p R3 q
105
106 Cours d’algèbre - PC Collège Stanislas

Preuve. Soit x P F K . Montrons upxq P F K c.-à-d. @y P F, upxqKy


On a
@y P F, xupxq | yy  xloomo x on | louomo
pyoqny  0
PF K PF
cqfd

Théorème 84 (spectral).

Tout endomorphisme symétrique u d’un espace euclidien E est diagonalisable ; plus précisé-
ment, E admet une base orthonormale constituée de vecteurs propres de u.

Preuve. Par récurrence sur la dimension n de E.

• Initialisation : n  1. Dans ce cas E est une droite vectorielle et u est une homothétie ; si
1
a est un vecteur non nul de E, kak a est une base orthonormale qui convient.
• Hérédité : n ùñ n 1. Supposons l’existence d’une base orthonormale constituée de
vecteurs propres pour tout endomorphisme symétrique d’un espace euclidien de dimension
n. Soit E un espace euclidien de dimension n 1 et u un endomorphisme symétrique de
E. Puisque χu est scindé sur R, prenons λ une valeur propre (réelle) de u et a un vecteur
propre (non nul) associé. La droite D  Ra est stable par u, donc d’après le lemme pré-
cédent, l’hyperplan H  DK est stable par u. Ainsi, u induit sur H un endomorphisme
symétrique et, puisque H est un R-espace vectoriel de dimension n, l’hypothèse de récur-
rence montre l’existence d’une base orthonormale de H constituée de vecteurs propres de
1
u. En complétant cette base par kak a, on obtient le résultat.

cqfd

Théorème 85 (Traduction matricielle).

Toute matrice symétrique réelle A est diagonalisable (sur R) ; plus précisément, il existe une
matrice orthogonale P P Opnq et une matrice diagonale D telles que :

P 1 AP  tP AP  D  Diagpλ1 , . . . , λn q
Les colonnes de P constituent une base orthonormale de vecteurs propres de A et λj est la
valeur propre associé à la j e colonne.

Preuve. L’endomorphisme uA : X ÞÑ AX associé à A est un endomorphisme symétrique de Rn


muni de son produit scalaire naturel ; il existe donc une base orthonormale B de Rn , constituée
de vecteurs propres de uA , i.e. de vecteurs propres de A. La matrice de passage P de la base
canonique, qui est orthonormale, à B est une matrice orthogonale et donne le résultat. cqfd
 3 2 4
Exemple 7.16. La matrice A  2 6 2 est-elle diagonalisable ? Si oui, la diagonaliser.
4 2 3


Exemple 7.17. La matrice A 
322
232 est-elle diagonalisable ? Si oui, la diagonaliser.
223

Exemple 7.18. Montrer


ptr Aq2 ¤ rg A
@A P Sn pRqzt0u, tr pA2 q
Étudier le cas d’égalité.
Espaces euclidiens 107

6.3 Applications

Proposition 44 (Spectre d’un endomorphisme positif, défini positif).

Soit u un endomorphisme symétrique d’un espace euclidien E ; alors


piq u est positif, i.e. @x P E, xupxq | xy ¥ 0 ðñ sp u € R  r0, 8r ;
piiq u est défini positif, i.e. @x P E zt0u, xupxq | xy ¡ 0 ðñ sp u € R  s0, 8r ;

Preuve. Soit B  pe1 , . . . , en q une base orthonormale de E constituée de vecteurs propres de


u ; on appelle λj la valeur propre associée au vecteur propre ej et px1 , . . . , xn q les composantes
de x relatives à B. Ainsi, pour tout x P E,
 ņ ņ ņ
upxq  u xj ej  xj upej q  xj λj ej

j 1 
j 1 
j 1

et
ņ ņ ¸ ņ
xupxq | xy  x xj λj ej | xk e k y  λj xj xk xej | ek y  λj x2j

j 1 
k 1 j,k 
j 1

On obtient donc

@x P E, 0 ¤ xupxq | xy  λj x2j ðñ @j P J1, nK , λj ¥ 0 ðñ sp u € R

j 1

@x P E zt0u, 0 xupxq | xy  λj x2j ðñ @j P J1, nK , λj ¡ 0 ðñ sp u € R

j 1

cqfd

Proposition 45 (Spectre de tAA).

Si A P Mp,n pRq, alors tA A P Sn pRq et spp tAAq € R .

Preuve. tA A est une matrice carrée d’ordre n, symétrique réelle ; l’endomorphisme de Rn


associé est positif, car

@X P Rn , xuA pX q | X y  tX p tA AqX  tpAX qAX  kAXk2 ¥ 0


cqfd

Exemple 7.19. Montrer


@S P Sn , D!R P Sn , S  R2
On dit que R est la racine carrée de S dans Sn .
Coniques
et quadriques 8
Sommaire
1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
2 Recherche d’un centre éventuel . . . . . . . . . . . . . . . . . . . . . . . . . 109
2.1 Effet d’une translation du repère sur l’équation d’une quadrique . . . . . 109
2.2 Une condition suffisante pour l’existence du centre . . . . . . . . . . . . 110
3 Réduction de la forme quadratique . . . . . . . . . . . . . . . . . . . . . . . 110
3.1 Effet d’un changement de repère orthonormé . . . . . . . . . . . . . . . 110
3.2 Recherche des axes principaux d’une quadrique . . . . . . . . . . . . . . 111
4 Quadriques usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.1 Cas où la matrice A est de rang 3 . . . . . . . . . . . . . . . . . . . . . 112
4.2 Cas où la matrice A est de rang 2 . . . . . . . . . . . . . . . . . . . . . 113
4.3 Cas où la matrice A est de rang 1 . . . . . . . . . . . . . . . . . . . . . 115
5 Les quadriques propres qui contiennent des droites . . . . . . . . . . . . . . 115
5.1 Hyperboloïde à une nappe . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.2 Paraboloïde hyperbolique . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.3 Surfaces réglées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6 Appendice : Formulaire sur les coniques . . . . . . . . . . . . . . . . . . . . 117
Coniques et quadriques 109

Dans ce chapitre, P désigne le plan euclidien rapporté à un repère orthonormé direct R  pO; i, jq ;
et E désigne l’espace euclidien rapporté à un repère orthonormé direct R  pO; i, j, kq.
On note B  pi, j, kq la base correspondante.

1 Définitions

Définition 67.

piq On appelle conique du plan P, un ensemble de points M px, y q vérifiant une équation
du type
partie quadratique
hkkkkkkkkkkkkkkkkikkkkkkkkkkkkkkkkj partie affine
hkkkkkkkkikkkkkkkkj
f pM q  ax 2
a1 y 2 2bxy
loomoon 2cx 2c1 y
loooomoooon d0
terme rectangle partie linéaire

avec pa, a1 , b, b1 , c, c1 , dq P R6 et pa, a1 , bq  p0, 0, 0q.


piiq On appelle quadrique de l’espace E, un ensemble de points M px, y, zq vérifiant une
équation du type
partie quadratique
hkkkkkkkkkkkkkkkkkkkkkkkkkkkikkkkkkkkkkkkkkkkkkkkkkkkkkkj partie affine
hkkkkkkkkkkkkikkkkkkkkkkkkj
f pM q  ax 2
a1 y 2 a2 z 2 2bxy 2b1 yz 2b2 zx loooooooooomoooooooooon
loooooooooooomoooooooooooon 2cx 2c1 y 2c2 z d  0
terme rectangle partie linéaire

avec pa, a1 , a2 , b, b1 , b2 , c, c1 , c2 , dq P R10 et pa, a1 , a2 , b, b1 , b2 q  p0, 0, 0, 0, 0, 0q.

Dans tout ce qui suit, nous nous énoncerons les résultats dans le cas des quadriques, mais il va
sans dire que tous les énoncés se transposent au cas des coniques en supprimant une composante.

Proposition 46 (Écriture matricielle de l’équation d’une quadrique).

t  
a1 y 2 a2 z 2 2bxy 2b1 yz 2b2 zx 2cx 2c1 y 2c2 z d 
2 X A C X
ax
1 t
C d 1
loooooomoooooon

 
a b b2 c
avec A b a1 b1 P S3 pRq et C   c1
b2 b1 a2 c2

Remarque. C’est l’étude de la matrice Ω et en particulier de la matrice A de la forme quadratique


qui va permettre de déterminer la nature de la quadrique.
On dit que la quadrique est propre lorsque rg Ω  4.

2 Recherche d’un centre éventuel


On cherche à simplifier l’équation de la quadrique. Si le vecteur C est nul, alors l’origine du repère
est centre de symétrie de la quadrique. Certaines quadriques (mais non pas toutes) possèdent
un centre se symétrie ; dans ce cas, il est possible d’effectuer une translation du repère pour
« annuler » le vecteur C, ce qui réalise une première simplification de l’équation de la quadrique.

2.1 Effet d’une translation du repère sur l’équation d’une quadrique


On effectue une translation de repère de vecteur u ; on note O1  O u l’origine du nouveau
repère R1  pO; i, j, kq. Alors les formules de changement de repère s’écrivent

X  X1 U où X  rM sR ; X1  rM sR1 ; U  rusB
110 Cours d’algèbre - PC Collège Stanislas

autrement dit,   
X1
X
1
 0I3 U1 1
1,3
looooooomooooooon
P

Dans le nouveau repère l’équation de la quadrique devient alors


t  t 
X1 X1
0  f pM q  
X X
Ω t
P ΩP
loomoon
1 1 1 1
Ω1

La matrice Ω1 de la quadrique dans le nouveau repère vaut alors


   
03,1
Ω1  t P ΩP  
I3 A C I3 U A AU C
t
U 1 t
C d 01,3 1
t
pAU C q t
U AU 2 t U C d

On en conclut que, dans le nouveau repère R1 , la partie linéaire est nulle si, et seulement si,
AU C  03,1 si, et seulement si, AU  C.

2.2 Une condition suffisante pour l’existence du centre

Proposition 47.

Si la matrice A de la partie quadratique de f est inversible, alors la quadrique admet un


centre de symétrie O1 dont les coordonnées dans R sont données par

U  A1 C
Le point O1 est alors appelé le centre de la quadrique.

Remarque. Un moyen mnémotechnique simple de retenir cette condition est de l’exprimer en


fonction du gradient de f . En effet,
  
a b b2 u1 c
AU  C ðñ b a1 b1 u2    c1 ðñ ∇f pu1 , u2 , u3 q  0
b2 b1 a2 loomo
u3on c2
U

Exemple 8.1. On considère la quadrique Q d’équation

7x2 4xy  4xz 4y 2  2yz 4z 2  2x 8y  14z 16  0

Cette quadrique possède-t-elle un centre ? Si oui, effectuer une translation du repère pour annuler
la partie linéaire dans son équation.

3 Réduction de la forme quadratique


On suppose dorénavant avoir centré le repère au centre de la quadrique si elle en admet un, et
pour alléger les notations, on note encore O ce centre.
On cherche à présent à simplifier l’expression de la forme quadratique q pM q  t X AX en sup-
primant les « termes rectangles ». Pour cela il suffit de diagonaliser orthogonalement la matrice
A, ce qui est toujours possible puisque A est une matrice symétrique.

3.1 Effet d’un changement de repère orthonormé sur l’équation d’une qua-
drique
On effectue donc un changement de base orthonormée ; on note B1  pi1 , j1 , k1 q la nouvelle base
et R1  pO; B1 q le nouveau repère. Alors les formules de changement de repère s’écrivent

X  RX 1 où X  rM sR ; X1  rM sR1 et R  PBÑB1 P O3 pRq


Coniques et quadriques 111

autrement dit,   
X1
X
1
 0R 03,1 1 1
1,3
loooooooomoooooooon
P

Dans le nouveau repère l’équation de la quadrique devient alors


t  t 
X1 X1
0  f pM q  
X X
Ω t
P ΩP
loomoon
1 1 1 1
Ω1

La matrice Ω1 de la quadrique dans le nouveau repère vaut alors


   
t
0 0 t t
Ω1  t P ΩP  
R A C R R AR RC
(8.1)
0 1 t
C d 0 1 t
CR d

On en conclut que si on prend pour B1 une base orthonormée de vecteurs propres de A, les termes
rectangles auront été annulés dans l’équation de la quadrique dans le nouveau repère R1 .

3.2 Recherche des axes principaux d’une quadrique


La matrice A de la forme quadratique étant symétrique (réelle), est orthogonalement diagonali-
sable : si on note pλ1 , λ2 , λ3 q les valeurs propres de A (comptées avec leur multiplicité), alors il
existe une matrice orthogonale R telle que

λ1 0 0
t
R AR  R1 AR   0 λ2 0
0 0 λ3

D’après la formule 8.1, on a


t  
M P Q ðñ X
1
A
t
C
C
d
X
1
0
t  
X1 t t
X1
ðñ 1
R AR
t
CR
RC
d 1
0
ðñ λ 1 x 12 λ 2 y 12 λ3 z 12 1
µ1 x µ2 y µ3 z
loooooooooomoooooooooon
1 1 d0
déjà annulé dans le cas
d’une conique à centre

Remarque. On appelle axes principaux de la quadrique les droites (propres) engendrées par les
colonnes de R (qui sont des vecteurs propres de a).
Exemple 8.2. Achever la réduction de la quadrique Q de l’exemple 8.1, d’équation

7x2 4xy  4xz 4y 2  2yz 4z 2  2x 8y  14z 16  0

Exemple 8.3. Réduire la quadrique Q d’équation

2 px y q py  z q  3 x  0

Remarque. Résumons les étapes de réduction d’une quadrique.

• Si la matrice A de la forme quadratique est inversible, alors on centre le repère par


translation au centre de la quadrique : on élimine ainsi la partie linéaire.
• Par changement de base orthonormale, on élimine les termes rectangles.
• Enfin, si la matrice A de la forme quadratique n’est pas inversible, on élimine, lorsque
c’est possible, la partie linéaire par translation du repère.
112 Cours d’algèbre - PC Collège Stanislas

Remarque. Discriminant d’une conique.


On considère une conique d’équation P px, y q  0 et on note ∆ le déterminant de la matrice de
la partie quadratique de P (que l’on appelle parfois le discriminant de la partie quadratique, et
par abus, le discriminant de la conique). Alors on a les implications suivantes.

• Si la conique est une ellipse, alors ∆ est strictement positif.


• Si la conique est une parabole, alors ∆ est nul.
• Si la conique est une hyperbole, alors ∆ est strictement négatif.

Justifier ces implications. Qu’en est-il des réciproques ?

4 Quadriques usuelles
Pour effectuer une classification détaillée des quadriques, il faut s’intéresser aux quatre invariants
suivants
   
card sppΩq X R , card sppΩq X R , card sppAq X R , card sppAq X R

On donne ci-dessous la liste des principales quadriques non dégénérées.

Remarque. Pour se faire une idée de la forme d’une quadrique à partir de son équation réduite,
on effectue des sections planes de la quadrique par des plans d’équations x  α, y  α et
z  α.

Remarque.

• Si l’équation réduite est de la forme g px2 y 2 , z q  0, alors la quadrique est une surface
de révolution d’axe pOz q.
• Si l’équation réduite vérifie g px, y, z q  g px, y, z q, alors la quadrique admet O comme
centre de symétrie.
• Si l’équation réduite vérifie g px, y, z q  g px, y, z q, alors la quadrique admet pOz q comme
axe de symétrie.
• Si l’équation réduite vérifie g px, y, z q  g px, y, z q, alors la quadrique admet pyOz q comme
plan de symétrie.

4.1 Cas où la matrice A est de rang 3


Dans ce cas, la quadrique admet un unique centre de symétrie.

L’ellipsoïde
0

x2 y2 z2
2

a2 b2 c2
1
4

0
0.5
1
0.0
2
0.5
Coniques et quadriques 113

30
20
10 L’hyperboloïde à une nappe
0
x2 y2 2
10
20 a2 b2
 zc2  1
30

30
20
10
30 0
20 10
10
0 20
10
20 30
30

30
20
10 L’hyperboloïde à deux nappes
0
x2 y2 2
10
a2 b2
 zc2  1
20
30

30
20
10
30 20 0
10 10
0 10 20
20 30 30

15
10
5 Le cône de base elliptique
0
x2 y2 2
5
10 a2 b2
 zc2  0
15

15
10
5
15 0
10 5 5
0 5 10
10 15 15

4.2 Cas où la matrice A est de rang 2

a) Les paraboloïdes, dont l’équation réduite ne contient pas de terme en z 2 , mais un terme en
z (si Oz désigne l’axe principal associé à la valeur propre 0).
114 Cours d’algèbre - PC Collège Stanislas

35
30
25
20 Le paraboloïde elliptique
15
x2 y2
10
a2 b2
 zc  0
5

15
10
5
0
5
15 10 10
5 0 15
5 10 15

20

10
Le paraboloïde hyperbolique
0
x2 2

a2
 yb2  zc  0
10

20

4
4 2
2 0
0 2
2 4
4

b) Les cylindres, dont l’équation réduite ne contient pas de terme en z 2 , ni de terme en z (si
Oz désigne l’axe principal associé à la valeur propre 0).

20
10
Le cylindre elliptique
0
x2 y2
10
a2 b2
1
20

5
5

0 0

5 5
Coniques et quadriques 115

15
10
5
0
Le cylindre hyperbolique
5
10
x2 2
15
a2
 yb2  1
30
20
10
0
10
30
20 20
10
0
10 30
20
30

4.3 Cas où la matrice A est de rang 1

15
10
5 Le cylindre parabolique
0
5 x2  2py 0
10
15

15
5 10
10 5
15 0
20 5
25 10
30
35 15

5 Les quadriques propres qui contiennent des droites


5.1 Hyperboloïde à une nappe
y1
!
Exemple 8.4. On considère la droite ∆0 d’équation (avec α P R fixé).
x  αz
Donner l’équation de la surface Q engendrée par la rotation de ∆0 autour de la droite pOz q.

y1
!
Remarque. En faisant pivoter la droite ∆10 d’équation autour de pOz q, on obtient la
x  αz
même quadrique.

5.2 Paraboloïde hyperbolique


$
&x t λ
Exemple 8.5. Soit la famille de droites p∆t qtPR définie par yλ , λPR
z  t2 {2  λt
%
Quelle est la surface Q engendrée par cette famille ?
116 Cours d’algèbre - PC Collège Stanislas

5.3 Surfaces réglées

Une surface réglée est une surface qui est réunion de droites, appelées ses génératrices. On lui
associe son cône directeur, réunion des droites passant par un point donné et parallèles aux
génératrices.

Parmi les quadriques qui sont des surfaces réglées, citons

• les cylindres ;
• les cônes ;
• le paraboloïde hyperbolique ;
• l’hyperboloïde à une nappe.

Notons que le paraboloïde hyperbolique et l’hyperboloïde à une nappe sont des surfaces double-
ment réglées (c.-à-d. qui sont réunion de deux familles de droites distinctes).

15
10
5
0
5
10
15

20
10
0
10 10 20
20 10 0
20

10

10

2 2 4
1 0 2 0
1 2 4
Coniques et quadriques 117

6 Appendice : Formulaire sur les coniques

Ellipse Hyperbole Parabole

Définition par foyer F MF  e  dpM, ∆q


et directrice ∆
e 1 e¡1 e1

x2 y2 x2 2
Équation réduite
a2 b2
1  yb2  1
a2
y2  2px
0 b a a ¡ 0 et b ¡ 0 p¡0
? ?
Expression de c c a2  b2 c  a2 b2

e e e1
c c
Excentricité
a a

Paramètre p  e  dpF, ∆q

Centre de la conique O (origine du repère) O (origine du repère) pas de centre


p
Foyer(s) F pc, 0q et F 1 pc, 0q F pc, 0q et F 1 pc, 0q F ,0
2

a2 a2
x x x
p
Directrice(s)
c c 2
Sommet(s) Apa, 0q et A1 pa, 0q Apa, 0q et A1 pa, 0q O (origine du repère)

Asymptotes
x
a
 yb  0
Définition bifocale MF MF 1  2a |M F  M F 1 |  2a
Tangentes en M0 px0 , y0 q 1  yyb20  1  pp x x0 q
xx0 yy0 xx0
yy0
a2 b2 a2
" " "
x  a cos t x  εa cosh t x  t2 {p2pq
y  b sin t y  b sinh t yt
Paramétrisation usuelle
avec ε  1

Remarque. a) Dans le cas de l’ellipse, les foyers F et F 1 sont à l’intersection du cercle de


centre B p0, bq et de rayon a avec l’axe des abscisses.
Dans le cas de l’hyperbole, les asymptotes sont les diagonales du rectangle défini par
les points pa, bq. De plus les foyers F et F 1 sont à l’intersection du cercle de centre O
passant par les sommets du rectangle, avec l’axe des abscisses.
b) Dans le cas de l’ellipse et de l’hyperbole, c’est la même homothétie de centre O de rapport
c qui permet de passer du foyer au sommet, puis du sommet au point d’intersection entre
a

la directrice et l’axe des abscisses.

y
Parabole
x2  2py

F p
b b
K
p {2
O b

x
p {2
∆ H b
118 Cours d’algèbre - PC Collège Stanislas

y
∆1 ∆

B a
Hyperbole b b b

?
x2 y2 c a2 b2
a 2
 b2
1 b c

F 1 A1 K1 K A F x
b b b b b b b

Apa,0q
O hpO, a q
c

F pc,0q
K pa2 {c,0q
B p0,bq
b b b

B1

y
∆1 Ellipse ? ∆
x2 y2 c a2  b 2
a 2 b2
1
b
B b b

a
b
K1 A1 F1 c F A K
b b b b b b b

O hpO, a q x
c

b b b

B1
Apa,0q
F pc,0q
K pa2 {c,0q
B p0,bq
Index

A d’un endomorphisme, 29
affinité vectorielle, 14 d’une matrice carrée, 30
K-algèbre, 2 d’une matrice triangulaire, 30
morphisme de —s, 2 d’une matrice triangulaire par blocs, 35
sous-algèbre, 2 d’une transposée, 33
algorithme développement suivant une rangée, 36
de Gram-Schmidt, 74 de n vecteurs, 26
anneau, 1 déterminant d’une matrice élémentaire, 32
morphisme d’—x, 2 diagonalisable
sous-anneau, 1 endomorphisme —, 58
anti-rotation, 102 matrice —, 61
application distance, 68
bilinéaire, 23 à un s.e.v., 80
induite sur un sev stable, 41 à un s.e.v. de dimension finie, 80
linéaire, 5 droite de régression linéaire, 81
p-linéaire, 24
p-linéaire alternée, 25 E
p-linéaire anti-symétrique, 25 élément
p-linéaire symétrique, 25 idempotent, 3
automorphisme inversible, 3
orthogonal, 94 nilpotent, 3
ellipsoïde, 112
B elliptique
cône de base — , 113
base
orthogonale, 71 cylindre —, 114
orthonormée, 71 paraboloïde —, 113
orthonormale, 71 endomorphisme
Bessel adjoint d’un —, 87
antisymétrique, 87
inégalité de —, 81
autoadjoint, 87
déterminant d’un —, 29
C diagonalisable, 58
Cauchy-Schwarz-Bunyakovski orthogonal, 94
inégalité de —, 69 puissance d’un —, 49
Cayley-Hamilton symétrique, 87
théorème de —, 57 symétrique défini positif, 92
Chebychev symétrique positif, 92
polynômes de —, 72 trace d’un —, 21
comatrice, 37 trigonalisable, 62
formule de la —, 37 espace
cône de base elliptique, 113 euclidien, 65
conique hermitien, 66
axes principaux d’une —, 111 préhilbertien complexe, 66
centre d’une —, 110 préhilbertien réel, 65
définition, 109 espace vectoriel, 2
formulaire, 117 dual, 17
corps, 2 orientation d’un —, 28
Cramer sous-espace vectoriel, 2
formules de —, 38
système de —, 38
cylindre
F
famille
elliptique, 114 orthogonale, 71
hyperbolique, 114 orthonormée, 71
parabolique, 115 orthonormale, 71
forme linéaire, 17
D formule
déterminant de Grassmann, 6, 16
120 Cours d’algèbre - PC Collège Stanislas

de la comatrice, 37 des cofacteurs, 37


de la rotation, 101 diagonalisable, 61
formules inverse d’une — carrée, 37
de Cramer, 38 mineur d’une —, 36
Fourier orthogonale, 98
séries de —, 81 racine carrée d’une — positive, 107
symétrique défini positif, 92
G symétrique positif, 92
trace d’une —, 19
génératrice d’une surface réglée, 116
Gram-Schmidt transconjuguée, 67
algorithme de, 74 trigonalisable, 62
procédé d’orthonormalisation de —, 73 morphisme
Grassmann d’algèbres, 2
formule de —, 6, 16 d’anneaux, 2
groupe, 1 de groupes, 1
morphisme de —s, 1
orthogonal, 97 N
orthogonal d’ordre n, 99 Newton
sous-groupe, 1 formule du binôme de —, 3
spécial orthogonal, 97 norme, 68
spécial orthogonal d’ordre n, 99
O
H opérations élémentaires
Hermite sur les colonnes d’une matrice, 31
polynômes d’—, 72 sur les lignes d’une matrice, 31
hyperbolique orthogonal
cylindre —, 114 automorphisme —, 94
paraboloïde —, 114, 115 d’une partie, 75
hyperboloïde endomorphisme —, 94
à deux nappes, 113 groupe —, 97
à une nappe, 112, 115 groupe — d’ordre n, 99
hyperplan, 17 groupe spécial —, 97
groupe spécial — d’ordre n, 99
I projecteur —, 78, 89
projection —e, 78, 89
identité
s.e.v. orthogonaux, 76
—s de polarisation, 66, 68
supplémentaire —, 76
du parallélogramme, 66, 68
orthogonale
inégalité
matrice, 98
de Bessel, 81
symétrie, 95
de Cauchy-Schwarz-Bunyakovski, 69
symétrie —, 90
interpolation polynomiale, 16
orthonormalisation de Gram-Schmidt, 73
isométrie, 94
orthoprojecteur, 78, 89
classification des —s de l’espace, 102

K P
parabolique
Kronecker
cylindre —, 115
symbole de —, 19
paraboloïde
elliptique, 113
L hyperbolique, 114, 115
Laguerre polynôme
polynômes de —, 72 —s d’Hermite, 72
Legendre —s d’interpolation de Lagrange, 16
polynômes de —, 71 —s de Chebychev, 72
—s de Laguerre, 72
M —s de Legendre, 71
méthode annulateur, 4, 51
des moindres carrés, 81 caractéristique d’un endomorphisme, 55
matrice caractéristique d’une matrice carrée, 54
—s semblables, 20, 48 d’endomorphisme, 49
élémentaire, 31 d’une matrice, 50
adjointe, 67 minimal d’un endomorphisme, 52
cofacteur d’une —, 36 produit scalaire
déterminant d’une — carrée, 30 expression matricielle du —, 84
de Vandermonde, 16 sur un C-e.v., 66
INDEX 121

sur un R-e.v., 65 T
produit vectoriel, 86 théorème
projecteur, 13 d’isomorphisme de E sur son dual, 86
orthogonal, 78, 89 de projection orthogonale, 78
trace d’un —, 21 de Pythagore, 69
projection de représentation d’une forme linéaire, 86
orthogonale, 78, 89 du noyau et de l’image, 14
Pythagore du rang, 6, 15
relation de —, 72 spectral, 106
théorème de —, 69 trace
d’un endomorphisme, 21
Q d’un projecteur, 21
quadrique d’une matrice carrée, 19
—s usuelles, 112 trigonalisable
axes principaux d’une —, 111 endomorphisme —, 62
centre d’une —, 110 matrice —, 62
définition, 109
V
R valeur propre
racine carrée d’une matrice positive, 107 d’un endomorphisme, 43
rang d’une matrice carrée, 47
définitions du —, 7 multiplicité, 57
théorème du —, 6, 15 Vandermonde
réflexion, 96 matrice de —, 16
relation vecteur
de Pythagore, 72 —s orthogonaux, 68
rotation normé, 68
de l’espace, 101 unitaire, 68
formule de la —, 101 vecteur propre
plane, 101 d’un endomorphisme, 43
d’une matrice carrée, 47
S
séries
de Fourier, 81
sesquilinéarité, 66
s.e.v.
hyperplan, 17
orthogonaux, 76
somme de —, 10
somme directe de —, 10
sous-espace propre, 45, 47
stable, 41
supplémentaires, 11
somme directe
base adaptée à une —, 14
caractérisation, 10
définition, 10
projecteurs associés à une —, 14
sous-espaces
orthogonaux, 76
spectre
d’un endomorphisme, 43
d’un endomorphisme défini positif, 107
d’un endomorphisme positif, 107
d’une matrice carrée, 47
supplémentaire orthogonal, 76
surface réglée, 116
génératrice d’une —, 116
symétrie
hermitienne, 66
orthogonale, 90
othogonale, 95
vectorielle, 13
système
de Cramer, 38

Vous aimerez peut-être aussi