Algebre PC Enonces
Algebre PC Enonces
PC
Cours d’Algèbre
4 1 6
Multiplication par A 2 1 6
2 1 8
Alexandre CASAMAYOU-BOUCAU
Made in Béarn
1 Structures algébriques 1
1 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2 Calcul dans un anneau et dans une algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
4 Déterminants 22
1 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2 Déterminant de n vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5 Développement d’un déterminant suivant une rangée . . . . . . . . . . . . . . . . . . . . . . 35
6 Résolution des systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
6 Espaces préhilbertiens 64
1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7 Espaces euclidiens 83
1 Résumé des épisodes précédents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2 Isomorphisme naturel (canonique) de E sur son dual . . . . . . . . . . . . . . . . . . . . . . 86
3 Endomorphismes symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4 Automorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6 Réduction des endomorphismes symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
Index 119
Ce cours a été composé en LATEX à l’aide de l’éditeur de texte Vim sous système d’exploitation Linux Ubuntu.
Structures
algébriques 1
1 Rappels
1.1 Groupes
pG, q est un groupe si, et seulement si,
• est une loi de composition interne, associative, avec un élément neutre noté e ;
• tout élément g P G admet un inverse (dans G) :
@g P G, Dt P G, g t t g e
Le groupe pG, q est commutatif ou abélien si, et seulement si, la loi de composition interne est
commutative.
Une partie H G est un sous-groupe de pG, q si, et seulement si,
• ePH;
• stable par * : @ph, h1 q P H 2 , h h1 P H ;
• stabilité par passage à l’inverse : @h, h P H ùñ h1 P H.
Une application u : pG, q Ñ pG, q est un morphisme de groupes si, et seulement si,
Exemple 1.1. On note SL2 pZq l’ensemble des matrices carrées d’ordre 2, à coefficients dans Z
et de déterminant 1 ; autrement dit
" *
SL2 pZq P p q bc 1
a b
M2 Z ad
c d
1.2 Anneaux
pA, , q est un anneau si, et seulement si,
• pA, q est un groupe commutatif ;
• est une loi de composition interne, associative, avec élément neutre et distri-
butive par rapport à .
L’anneau pA, , q est dit commutatif si, et seulement si, la loi est commutative.
Une partie B A est un sous-anneau de pA, , q si, et seulement si,
Une application u : pA, , q Ñ pA, `, q est un morphisme d’anneaux si, et seulement si,
1.3 Corps
pK, , q est un corps si, et seulement si,
• pK, , q est un anneau ;
• tout élément non nul de K admet un inverse pour la loi .
Le corps pK, , q est dit commutatif si, et seulement si, la loi est commutative.
Quelques exemples de corps commutatif : pQ, , q, pR, , q, pC, , q, KpX q, , le corps
des fractions rationnelles à coefficients dans le corps K, . . .
Exemple 1.3. On note
" *
b
E M pa, bq pa, bq P R2
a
b a
Montrer que l’ensemble E est un corps.
1.5 Algèbre
pA, , , q est une K-algèbre si, et seulement si,
• pA, , q est un K-espace vectoriel ;
• pA, , q est un anneau ;
• @pa, a1 q P A2 , @λ P K, λ pa a1 q pλ aq a1 a pλ a1 q
La K-algèbre pA, , , q est dite commutative si, et seulement si, la loi interne est commutative.
Une partie B A est une K-sous-algèbre de A si, et seulement si,
• pB, , q est un K-sous-espace vectoriel de pA, , q ;
• est stable sur B et l’élément neutre e P B.
Une application u : pA, , , q Ñ pA, `, d, bq est un morphisme d’algèbres si, et seulement si,
Vocabulaire. Soit x P A.
x u 1A
!
• On dit que x est inversible lorsqu’il existe u P A tel que
u x 1A
Ñ
ã On note alors x1 u
• On dit que x est idempotent lorsque x2 x
n
ãÑ On a alors @n P N , x x
Exemple 1.9. Montrer que les matrices suivantes sont nilpotentes, et déterminer leur indice de
nilpotence :
0 1 0 0 0 1 0 0 0 1 0 0 0 1 1 1
0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 1
A
B
C
D
0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 1
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
Exemple 1.10. Soit A a b
c d P M2 pKq et P X 2 pa dqX pad bcq. Calculer P pAq.
Proposition 2.
Soit x P A fixé. On définit
ϕx : KrX s ÝÑ A
P ÞÝÑ ϕx p P q P p xq
Alors ϕx est un homomorphisme d’algèbres.
Remarque. Bien que A ne soit pas supposée commutative, on a pour tout x dans A et tous
polynômes P et Q :
P pxq Qpxq pP Qqpxq pQP qpxq Qpxq P pxq
Définition 1.
Soit x P A et P P KrX s un polynôme non nul.
On dit que P est un polynôme annulateur de x lorsque P pxq 0.
Exemple 1.11.
Exemple 1.13. Montrer que toute matrice carrée admet au moins un polynôme annulateur.
Exemple 1.14. Soit A une matrice carrée qui possède un polynôme annulateur P tel que
P p0q 0. Montrer que A est inversible.
Rappels
d’algèbre linéaire 2
Dans la suite K désigne R ou C.
2 Applications linéaires
Soit E et F deux K-ev.
Une application u : E ÝÑ F est linéaire si, et seulement si,
Exemple 2.2. Soit n P N . Soit En l’ensemble des applications f : R ÝÑ R qui s’écrivent sous
la forme :
ņ
f pxq a0 pak cospkxq bk sinpkxqq ,
k 1
où ak et bk sont des réels.
a) Montrer que En est un sev de RR .
b) Montrer que si f P En est l’application nulle, alors tous les coefficients ak et bk sont nuls.
rIndication : Considérer f 2 n2 f et raisonner par récurrences.
c) Montrer que la famille de p2n 1q fonctions
Fn tx ÞÝÑ 1u Y tx ÞÝÑ cospkxq | 1 ¤ k ¤ nu Y tx ÞÝÑ sinpkxq | 1 ¤ k ¤ nu
forme une base de En .
• la définition :
@x P E, D!py, zq P F G, x y z
• la caractérisation : E F G et F X G t0u ;
• une seule propriété suffit si on possède un renseignement sur la dimension :
*
dimpE q dimpF q dimpGq
EF G
ùñ E F ` G;
*
dimpE q dimpF q dimpGq
F X G t0u
ùñ E F ` G;
Exemple 2.4. a) Montrer que l’ensemble des fonctions paires et l’ensemble des fonctions
impaires sont deux sev supplémentaires de FpR, Rq.
b) Montrer que l’ensemble des matrices symétriques et l’ensemble des matrices antisymétriques
sont deux sev supplémentaires de Mn pKq.
3.6 Comment calculer le rang d’une famille de vecteurs, d’un système, d’une
matrice, d’une application linéaire ?
Ñ
ã En revenant aux définitions :
• le rang d’un système linéaire est le nombre de pivots après réduction sous forme
échelonnée en ligne.
• le rang d’une matrice est le rang de l’espace engendré par ses vecteurs colonnes.
• le rang d’une application linéaire est la dimension de son image :
rg f dimpIm f q ¤ dim E
Ñ
ã Ou en utilisant l’une des propriétés suivantes :
Li Ð Li λ Lj avec i j
Li Ð µ Li avec µ 0
Li Ø Lj
a) Déterminer le rang de f .
b) Déterminer une base de l’image de f .
c) Déterminer une base du noyau de f .
Comment calculer la matrice d’une application linéaire ? En utilisant l’une des propriétés sui-
vantes :
• la définition, voir ci-dessus ;
• si u λv µw, alors MatB puq λMatB pv q µMatB pv q ;
• si u v w, alors MatB puq MatB pv q MatB pwq ;
• utilisation d’une matrice de changement de bases P PBÑB1 prv1 sB , . . . , rvp sB q :
MatB1 puq A1 P 1 AP PB1 ÑB MatB puqPBÑB1 (cas d’un endomorphisme)
• plus généralement, en posant P PBÑB1 et Q PCÑC1 , alors :
K désigne l’un des corps R ou C ; E et F sont des K-espaces vectoriels ; on note IdE (resp. IdF )
l’application identique de E (resp. de F ).
1 Somme directe
Dans ce paragraphe, q est un entier au moins égal à 2, et E1 , E2 , . . ., Eq désignent des K-sous-
espaces vectoriels de E.
1.1 Somme
¸
q !¸
q )
Ei xi px1 , . . . , xq q P E1 Eq
i 1
i 1
Remarques.
°q
i1 Ei est l’image de l’application linéaire Φ : E1 Eq ÝÑ E
px1 , . . . , xq q ÞÝÑ x1 xq
°q
Ainsi, Ei est un K-sous-espace vectoriel de E et
i 1
°q
Ψ : E1 Eq ÝÑ i 1 Ei
px1 , . . . , xq q ÞÝÑ x1 xq
Ψ : px1 , . . . , xq q ÞÑ x1
xq
°q
est un isomorphisme d’espaces vectoriels entre E1 Eq et i1 Ei .
à
q
Dans ce cas, la somme est notée Ei .
i 1
Preuve. Puisque Ψ est une application linéaire surjective, Ψ est un isomorphisme si, et seule-
ment si, Ψ est une application injective.
i ðñ ii car piiq ðñ Ker Ψ t0E u ðñ Ψ est injective ðñ Ψ est bijective ðñ piq
i ðñ iii car piiiq ðñ Ψ est bijective ðñ
Ψ est injective ðñ piq
°k
i ùñ iv Soit k P J1, q 1K et x P i1 Ei X Ek 1
Espaces vectoriels, compléments 11
ce qui est en contradiction avec l’hypothèse ; ainsi Ker Ψ est réduit à t0E u et Ψ est une application
injective. cqfd
Exemple 3.1. On se donne trois vecteurs u, v, w de Kn (avec n ¥ 4).
À quelle condition a-t-on K u ` K v ` K w ?
à
q
Remarque. A-t-on Ei ùñ @pi, j q P J1, qK2 , ij ùñ Ei ` Ej ? Réciproque ?
i 1
1.3 Supplémentaire
Exemple 3.5. Montrer que l’ensemble des l’ensemble des fonctions paires et l’ensemble des
fonctions impaires sont supplémentaires dans FpR, Kq.
¸
q ¸
q
dim Ei dim Ei
i 1
i 1
°q
Preuve. Ψ : px1 , . . . , xq q P E1 Eq ÞÑ x1 xq P i1 Ei est une application
linéaire
°q et surjective ; Ψ est bijective si, et seulement°si les espaces vectoriels E1 Eq et
i1 i ont même dimension ; or dimpE1 Eq q i1 dim Ei , ce qui démontre l’équivalence
q
E
annoncée. cqfd
Preuve.
piq E V ` W ùñ dim E dimpV ` W q dim V dim W ;
piiq seules les réciproques méritent une démonstration. Si V X W t0E u, dimpV Wq
dim V dim W n dim E, et donc V W E et V ` W E. Si V W E, dimpV Wq
dim E n dim V dim W , ce qui montre que V ` W E.
cqfd
Remarque. La connaissance d’un renseignement sur la dimension permet de diviser le travail par
deux !
Preuve.
Analyse Si x x1 xq est la décomposition d’un vecteur x P E suivant les facteurs Ei ,
et
2.1.1 Projecteur
Soit E V `W et x v w la décomposition de x suivant V et W ; on pose
pV : x ÞÑ v et pW : x ÞÑ w
pV pV pV , pV pW IdE , pV pW pW pV 0LpEq
Ker pV W, Im pV KerpIdE pV q V, pV |V IV , pV |W 0LpV q
piq Im p KerpIdE pq ;
piiq Im p et Ker p sont supplémentaires (dans E) ;
piiiq p est le projecteur d’image Im p KerpIdE pq parallèlement à Ker p, i.e.
p|Im p IIm p et p|Ker p 0
x lopomo
pxoqn r p qs
x px
loooomoooon
PIm p PKer p
¸
q
pi pi pi , ij ùñ pi pj pj pi 0, pi IdE ,
i 1
à
q
Im pi Ei , Ker pi Ej
j 1
j i
°
Preuve. #B i dim Ei dim E ; °
il suffit de montrer que B est une famille génératrice, ce
qui est le cas puisque i Bi engendre i Ei . cqfd
Si F est un sous-espace vectoriel de E, toute base de E dont les premiers éléments constituent
une base de F , est dite adaptée à F .
Remarques.
Le grand intérêt des bases adaptées, est de rendre « simple » la matrice d’un endomorphisme.
Quelles sont les matrices des projecteurs, des symétries et des affinités dans des bases adaptées ?
Si B est une base de E, B1 ,. . .,Bq une partition de B, Ei le sous-espace vectoriel engendré par
Bi , E est la somme directe des Ei et B est une base adaptée à cette décomposition.
3 Applications linéaires
3.1 Isomorphisme de tout supplémentaire du noyau avec l’image
ū : x P V ÞÑ upxq P Im u
induit un isomorphisme de V sur Im u.
Espaces vectoriels, compléments 15
dim E rg u dimpKer uq
Si E et F sont deux espaces vectoriels de même dimension finie n et u une application linéaire
de E vers F , alors
cqfd
3.2 Applications
3.2.1 Projection
dimpV
X W q dimpV W q dim V dim W
L’application u : pv, wq P V W ÞÑ v w P V W est linéaire et surjective. Son noyau vérifie
Ψ : Rn1 rX sÝÑ Rn
P ÞÝÑ pP pa1 q, . . . , P pan qq
Montrer que Ψ est un isomorphisme de Rn1 rX s sur Rn . Conséquence ?
Écrire la matrice de Ψ dans les bases canoniques de Rn1 rX s et de Rn .
b) Soit pa1 , . . . , an q P Rn . On pose
1 a1 a21 . . . an1 1
1 a2 a22 . . . an2 1
V pa1 , . . . , an q .
.. .. ..
.. . . .
1 an a2n ... ann1
Déduire de la question précédente que V pa1 , . . . , an q est inversible si, et seulement si, les
nombres ai sont deux à deux distincts.
Exemple 3.9. On se donne une famille pa1 , . . . , an q d’éléments de K, deux à deux distincts.
±n P P KrX s quelconque. Quel est le reste de la division euclidienne de P par le polynôme
Soit
i1 pX ai q ?
0 a a2
Exemple 3.10 (Navale, PSI Mines, MP). Soit a P R , et A 1{a 0 a
1{a2 1{a 0
Calculer A , pour n P N.
n
Espaces vectoriels, compléments 17
4 Dualité
E est un K-espace vectoriel, que l’on supposera non réduit à t0E u.
Une forme linéaire sur E est une application linéaire de E vers le corps des scalaires K.
Remarques.
Rappelons que E LpE, Kq est un K-espace vectoriel.
Toute forme linéaire non nulle sur E est de rang 1, donc surjective.
Si E est de dimension finie, E l’est aussi et
ϕj : x P E ÞÑ xj
qui au vecteur x associent sa composante suivant ej relativement à B, sont des formes
linéaires sur E ; on les appelle les formes linéaires coordonnées.
4.2 Hyperplan
Définition 9 (Hyperplan).
Un hyperplan de E est un sous-espace vectoriel qui admet une droite (vectorielle) pour
supplémentaire.
H est un hyperplan ðñ D e P E, E H ` D H ` Ke
Remarques.
Tous les supplémentaires d’un hyperplan sont des droites (vectorielles) puisqu’ils sont isomorphes.
Si E est de dimension finie n, les hyperplans de E sont les sous-espaces vectoriels de E de
dimension n 1.
18 Cours d’algèbre - PC Collège Stanislas
Proposition 3.
H est un hyperplan si, et seulement si, H est le noyau d’une forme linéaire non nulle.
Preuve.
ùñ Soit e tel que H ` Ke E ; ainsi @x P E, D!ph, λq P H K, x h λe et l’application
ϕ : x P E ÞÑ λ P K est une forme linéaire sur E dont le noyau est H.
En effet, en notant p la projection sur Ke parallèlement à H et i l’isomorphisme entre Ke et
K donné par x λe ÞÑ λ, on a ϕ i p ; donc ϕ est linéaire comme composée d’applications
linéaires.
ðù Soit ϕ P E zt0E u et e P E tel que ϕpeq 0 ; on cherche à décomposer tout vecteur x de
E comme somme d’un vecteur de Ke et d’un vecteur de H.
Pour tout x P E, on a x looλe
moon px λeq
PKe
Or,
E H ` Ke ðñ ϕpeq 0 ðñ e R H
Ainsi, toute droite (vectorielle) D non contenue dans l’hyperplan H est un supplémentaire de H.
Proposition 4.
Si H est un hyperplan noyau de la forme linéaire ϕ, toute autre forme linéaire ψ s’annule sur
H si, et seulement si, pϕ, ψ q est liée.
Preuve.
ðù Puisque la famille pϕ, ψq est liée et ϕ 0, il existe λ P K tel que ψ λϕ ; ainsi Ker ψ
Ker ϕ H.
ùñ Si ψ est une forme linéaire dont le noyau contient H Ker ϕ, ϕ|H 0 ψ|H . Si e R H ;
alors ψ peq αϕpeq en posant α ψ peq
ϕpeq , ce qui montre que ψ|Ke αϕ|Ke . Par conséquent,
ψ αϕ puisque cette égalité a lieu sur H et Ke supplémentaires dans E. cqfd
Remarque. ϕ est une équation de H ; cette équation est unique à un coefficient multiplicatif non
nul près.
Espaces vectoriels, compléments 19
Théorème 6.
H est un hyperplan de E si, et seulement si, il existe pa1 , . . . , an q P Kn zt0u tel que
xPH ðñ a1 x1 an xn 0
Preuve.
ùñ °Soit ϕ une forme linéaire non nulle sur E de noyau°n °naj ϕpej q ce qui donne
H ; posons
ϕ i1 ai ϕi et : x P H Ker ϕ ðñ 0 ϕpxq i1 ai ϕi pxq i1 a°
n
i xi
ðù Si a1 x1 an xn 0 désigne une équation de H, posons ϕ ni1 ai ϕi ; ϕ est une
forme linéaire non nulle puisque les coefficients ai ne sont pas tous nuls et H Ker ϕ. cqfd
Remarque. L’équation a1 x1 an xn 0 est une équation de H, et toute autre équation
b1 x1 bn xn 0 vérifie
Dλ 0, pb1 , . . . , bn q λpa1 , . . . , an q
5 Trace
5.1 Rappels sur la base canonique de Mn pKq
On rappelle la signification du symbole de Kronecker
"
1 si i j
@pi, j q P N2 , δi,j 0 si i j
Autrement dit, E i,j est la matrice de Mn pKq dont tous les éléments sont nuls excepté celui à
l’intersection de la ie ligne et de la j e colonne qui vaut 1.
La famille pE i,j q1¤i,j ¤n forme alors une base de Mn pKq appelée base canonique de Mn pKq.
La définition que l’on a donnée de E i,j permet de calculer le produit de deux matrices de la base
canonique. . . sans se noyer dans un déluge d’indices.
Exemple 3.12. Prouver la relation
À toute matrice carrée A raij s d’ordre n, on associe le nombre °ni1 aii que l’on nomme
trace de la matrice A.
ņ
tr A aii
i 1
20 Cours d’algèbre - PC Collège Stanislas
Exemple 3.14. Quelle est la trace d’une matrice de la base canonique E i,j ?
L’application trace est une forme linéaire non nulle sur Mn pKq.
Corollaire 5.
Le sev Kerptrq est un hyperplan de Mn pKq dont un supplémentaire est la droite (vectorielle)
des matrices scalaires, i.e. la droite dirigée par In .
Preuve. Puisque tr est une forme linéaire non nulle, son noyau est un hyperplan ; puisque
tr In n 0, la droite dirigée par In est un supplémentaire de Kerptrq. cqfd
cqfd
Exemple 3.15. Soit A, B et C trois matrices carrées d’ordre n. Parmi les scalaires suivants,
lesquels sont égaux ?
Deux matrices carrées d’ordre n A et B sont semblables s’il existe une matrice carrée d’ordre
n et inversible P telle que B P 1 AP .
A P Mn pKq et B P Mn pKq sont semblables ðñ DP P GLn pKq, B P 1 AP
Remarques.
La matrice unité d’ordre n, In , n’est semblable qu’à elle-même.
La matrice nulle d’ordre n, 0n , n’est semblable qu’à elle-même.
La relation « être semblable à » est une relation d’équivalence.
Espaces vectoriels, compléments 21
Preuve.
trpP 1 AP q tr P 1 pAP q tr pAP qP 1 tr ApP P 1 q tr A cqfd
Remarque. trpABC q trpBCAq mais trpABC q trpBAC q en général. Voici un contre-exemple :
E 1,2 E 2,1 E 1,1 E 1,1 E 1,1 E 1,1 ùñ trpE 1,2 E 2,1 E 1,1 q tr E 1,1 1
E 2,1 E 1,2 E 1,1 E 2,2 E 1,1 0 ùñ trpE 1,2 E 2,1 E 1,1 q 0
Remarque. tr est une forme linéaire non nulle sur LpE q et LpE q Kerptrq ` KIdE
1 Applications multilinéaires
1.1 Rappels sur les applications bilinéaires
Définition 13 (Bilinéarité).
Exemples 4.1.
Le produit scalaire est une forme bilinéaire sur R3 R3 ; le produit vectoriel est une application
bilinéaire de R3 R3 sur R3 .
Soit A une K-algèbre (par exemple K, KrX s, Mn pKq, LpE q) ; les applications
f1 : px, y q ÞÑ x y, f2 : px, y q ÞÑ x y y x, f3 : px, y q ÞÑ x y y x
sont des applications bilinéaires de A A vers A (le démontrer).
Si A K ou KrX s, f2 2f1 et f3 0.
Si A Mn pKq ou LpE q, f3 n’est pas l’application nulle.
³b
ϕ : pf, g q ÞÑ a f ptqg ptq dt est une forme bilinéaire sur Cpra, bs, Kq Cpra, bs, Kq.
ψ : pA, B q ÞÑ trpt AB q est une forme bilinéaire sur Mn pKq Mn pKq.
Exemples 4.2.
Le produit scalaire est symétrique, le produit vectoriel est antisymétrique.
L’application f2 est symétrique, f3 est antisymétrique.
L’application f1 est symétrique si, et seulement si, A est une algèbre commutative.
ϕ est symétrique.
ψ est symétrique.
Preuve.
ùñ Pour tout x P E, f px, xq f px, xq puisque f est antisymétrique, donc f px, xq 0F .
ðù Pour tout px, yq P E 2 , on peut écrire
f px y, x yq 0F puisque f est alternée
f px, x yq f py, x yq
f px, xq f px, yq f py, xq f py, yq puisque f est bilinéaire
f px, yq f py, xq puisque f est alternée
ce qui montre que f px, yq f py, xq. cqfd
24 Cours d’algèbre - PC Collège Stanislas
Soit E et F deux K-espaces vectoriels ; une application f de E p à valeurs dans F est dite
p-linéaire si elle est linéaire par rapport à chacune de ses variables, i.e. si pour tout j P J1, pK
et pour tout ak P E, k P J1, pK ztj u, les applications
Exemples 4.3.
piq Si ϕ1 ,. . .,ϕp sont des formes linéaires sur E, l’application
px, yq P K2 K2 ÞÑ x1
x2
y1
y2
x1 y2 x2 y1
x1 y1 z1
px, y, zq P K3 K3 K3 ÞÑ x2 y2 z2
x3 y3 z3
px1 y2 z3 x2 y3 z1 x3 y1 z2 q px3 y2 z1 x1 y3 z2 x2 y1 z3 q
Proposition 7.
Preuve.
piiq f est une application linéaire par rapport à sa ie variable, et l’image de 0E par une appli-
cation linéaire est 0F .
piiiq Lp pE, F q est un sous-espace vectoriel de l’espace de toutes les applications de E p vers F .
cqfd
Déterminants 25
Soit E et F deux K-ev vectoriels et f une application p-linéaire sur E à valeurs dans F ; on
dit que
• f est symétrique si @px1 , . . . , xp q P E p , @pi, j q P J1, pK ,
i j ùñ f p. . . , xi , . . . , xj , . . .q f p. . . , xj , . . . , xi , . . .q
i j ùñ f p. . . , xi , . . . , xj , . . .q f p. . . , xj , . . . , xi , . . .q
i j et xi xj ùñ f p. . . , xi , . . . , xj , . . .q 0F
Exemples 4.4. Parmi les formes de l’exemple 4.3, lesquelles sont symétriques ? antisymétriques ?
alternées ?
Proposition 8.
L’ensemble des applications p-linéaires symétriques et l’ensemble des applications p-linéaires
alternées de E à valeurs dans F sont des sous-espaces vectoriels de Lp pE, F q.
Preuve.
Soit 1 ¤ i j ¤ p et l’application
gi,j : pxi , xj q P E 2 ÞÑ f p. . . , xi , . . . , xj , . . .q
gi,j est bilinéaire puisque f est p-linéaire ; donc gi,j est antisymétrique si, et seulement si, gi,j est
alternée, ce qui montre l’équivalence. cqfd
On ne change pas la valeur prise par une application p-linéaire alternée sur un p-uplet de E p
en ajoutant à l’un des vecteurs une combinaison linéaire des autres vecteurs.
En particulier, toute application p-linéaire alternée prend la valeur 0F sur tout p-uplet qui
constitue une famille liée.
Preuve.
° Soit f une application p-linéaire alternée sur E. En ajoutant la combinaison linéaire
j k λ j xj au vecteur xk , on obtient
¸ ¸
f p. . . , xk λj xj , . . .q f p. . . , xk , . . .q λj f p. . . , xj , . . . , xj , . . .q
j k
j k
Si la famille px1 , . . . , xp q est liée, l’un des vecteurs, par exemple xk , est combinaison des autres
vecteurs, et
¸ ¸
f p. . . , xk , . . .q f p. . . , λj xj , . . .q λj f p. . . , xj , . . . , xj , . . .q 0F
j k
j k
Remarques.
Si E est un espace vectoriel de dimension finie, la seule application p-linéaire alternée, avec
p ¡ dim E, est l’application nulle, car, dans ce cas, toute famille de p vecteurs est liée. Les
seuls cas intéressants sont ceux où p ¤ dim E. Le programme nous demande d’étudier le cas où
p dim E n.
Soit E un espace vectoriel de dimension 2, B pe1 , e2 q une base de E et f une application
bilinéaire alternée sur E. Décomposons x x1 e1 x2 e2 et y y1 e1 y2 e2 sur la base B. On
obtient :
2 Déterminant de n vecteurs
Dans cette section, E désigne un K-espace vectoriel de dimension finie n, muni d’une base
B pe1 , . . . , en q. Nous étudions l’ensemble λn pE q des formes n-linéaires alternées définies sur
E et f désigne une telle forme.
La preuve de ce théorème n’est pas exigible en filière PC. On admettra donc sa preuve.
L’espace vectoriel λn pE q des formes n-linéaires alternées sur un espace vectoriel E de dimen-
sion n est de dimension 1 ; il admet pour base pdetB q et
Si chaque vecteur xj est combinaison linéaire des vecteurs pe1 , . . . , ej q, autrement dit, si
ai,j 0 pour i ¡ j, alors
Preuve. En utilisant des opérations élémentaires sur les colonnes et la p-linéarité du détermi-
nant, on obtient
cqfd
Preuve. detB1 est une forme n-linéaire alternée à qui on applique la formule 13, soit
Preuve.
ùñ Si V est une base de E, detB pVq n’est pas nul, car detB pVq detV pBq 1.
ðù Par contraposée ; si V n’est pas une base de E, V est une famille liée (V est maximale) et
donc detB pVq 0 (image d’une famille liée par une forme n-linéaire alternée). cqfd
detB pB1 q ¡ 0
Choisir une de ces classes, c’est, par définition, orienter l’espace vectoriel réel E : toutes les bases
appartenant à cette classe sont appelées directes ou positivement orientées, les bases appartenant
à l’autre classe sont appelées indirectes, rétrogrades ou négativement orientées.
Dans R2 , on décide que la base canonique pe1 , e2 q est directe et que la base pe2 , e1 q est rétrograde.
Dans R3 , on décide que la base canonique pe1 , e2 , e3 q est directe ; les bases pe2 , e3 , e1 q et pe3 , e1 , e2 q
sont directes ; les bases pe1 , e3 , e2 q, pe2 , e1 , e3 q et pe1 , e2 , e3 q sont rétrogrades.
Pour déterminer l’orientation d’une base px, y, zq, on peut utiliser :
• la règle de la main droite : le pouce, l’index et le majeur permettent de représenter les trois
vecteurs de la base. Les trois doigts forment alors un trièdre dans l’espace, c’est-à-dire un
triplet de trois demi-droites non coplanaires issues d’une même origine.
Si on peut placer x selon le pouce, y selon l’index et z selon le majeur, alors la base est
directe.
• la règle du tire-bouchon de Maxwell, technique bien connue de tous les amateurs de phy-
sique,. . . ou de Jurançon.
Lemme 1.
Si u est un endomorphisme d’un K-espace vectoriel E de dimension finie n, il existe un unique
scalaire λ tel que
@f P λn pE q, @px1 , . . . , xn q P E n , f upx1 q, . . . , upxn q λf px1 , . . . , xn q
piq det IE 1 ;
piiq @u P LpE q, @λ P K, detpλuq λn detpuq ;
piiiq @pu, vq P LpE q2 , detpu vq det u det v.
Exemple 4.8. Soit u et v deux endomorphismes d’un K-ev de dimension finie. A-t-on nécessai-
rement égalité entre detpu v q et det u det v ?
30 Cours d’algèbre - PC Collège Stanislas
Soit u est un endomorphisme d’un K-ev E de dimension finie n ¡ 0 ; u est inversible si, et
seulement si, son déterminant n’est pas nul, et, dans ce cas, det u1 pdet uq1 .
Appelons E pE1 , . . . , En q la base canonique de Mn,1 pKq ; le scalaire ai,j s’interprète comme la
composante du vecteur colonne Cj suivant Ei relativement à la base canonique C, ce qui donne la
4.1 Propriétés
Le déterminant d’une matrice triangulaire est le produit des éléments de sa diagonale prin-
cipale.
Théorème 21.
Si n est un entier positif, on a
piq det In 1 ;
piiq @M P Mn pKq, @λ P K, detpλM q λn detpM q ;
piiiq @pM, N q P Mn pKq2 , detpM N q det M det N ;
pivq M P GLn pKq ðñ det M 0 et, dans ce cas, detpM 1 q pdet M q1 .
4.2 Opérations élémentaires sur les lignes et les colonnes d’une matrice
Considérons une matrice carrée A d’ordre n ¥ 1 à coefficients dans K ; on note ai,j le terme
général de cette matrice, C1 ,. . .,Cn ses vecteurs colonnes, et L1 ,. . .,Ln ses vecteurs lignes. On
écrira indifféremment
L1
A rai,j s 1¤i¤n rC1 | . . . | Cn s ..
¤¤
1 j n .
Ln
Définition 20.
On appelle opérations élémentaires sur les lignes d’une matrice A une opération de l’une des
trois formes suivantes :
piq Li Ð Li λLj avec i j : Ajouter à une ligne un multiple d’une autre ligne.
â
On définit de manière analogue les opérations élémentaires sur les colonnes d’une matrice.
Définition 21.
On appelle matrice élémentaire toute matrice obtenue en effectuant sur la matrice identité
une opération élémentaire sur les lignes ou sur les colonnes.
Plus précisément, on appelle
piqmatrice de transvection toute matrice notée Bi,j pλq et obtenue en effectuant sur In
l’opération Li Ðâ Li λLj (resp. Cj Ðâ Cj λCi ), avec i j.
piiq matrice de dilatation toute matrice notée Di pµq et obtenue en effectuant sur In l’opé-
ration Li Ðâ µ Li (resp. Ci Ðâ µ Ci ), avec µ 0.
piiiq matrice de permutation toute matrice notée Pi,j et obtenue en effectuant sur In l’opé-
ration Li Ø Lj (resp. Ci Ø Cj ), avec i j.
32 Cours d’algèbre - PC Collège Stanislas
pLi Ø Lj q1 Li Ø Lj
Proposition 11 (Déterminant d’une matrice élémentaire).
Preuve. Les deux premières propriétés découlent du théorème 19. La troisième découle de
l’antisymétrie du déterminant. cqfd
piq Effectuer une opération élémentaire sur les lignes d’une matrice A a le même effet que
de multiplier, à gauche, la matrice A par la matrice élémentaire correspondante.
piiq Effectuer une opération élémentaire sur les colonnes d’une matrice A a le même effet
que de multiplier, à droite, la matrice A par la matrice élémentaire correspondante.
L1
Preuve. Soit une matrice A .. d’ordre n. On remarque que Bi,j pλq In λ Ei,j .
.
Ln L1
..
.
Donc Bi,j pλq A pIn λ Ei,j q A A λ Ei Ej AA λ Ei Lj
t L
i λ Lj
..
.
t L
Ln
E1
..
1
...
t .
t
E1 L1
... ... Ej L
j
De même Di pµq A µ E i A µLi et Pi,j A A
t .. .
. . cqfd
. . tE
.
.. .. i Li
. .
t
En Ln .. ..
t
En Ln
Exemples 4.10. Soit une matrice A
L1
L2 d’ordre 3. Alors, effectuer sur A. . .
L3
piq Ø L2 revient à effectuer le produit P1,2 A
L2
l’opération L1 L1
L3
piiq Ð L3 5 L2 revient à effectuer le produit B3,2 p5q A
L1
l’opération L3 â L2
L3 5 L2
piiiq Ð 5 L3 revient à effectuer le produit D3 p5q A
L1
l’opération L3 â L2
5 L3
Déterminants 33
Opérer sur les lignes d’une matrice A revient donc à la multiplier à gauche par une matrice
inversible, produit de matrices élémentaires.
De même opérer sur les colonnes de A revient à la multiplier à droite par une matrice inversible.
1
a) Inverser la matrice A
1 0
Exemples 4.11. 1 0 1
1 1 1 1 1 0
b) En déduire sans effectuer de calcul l’inverse des matrices B 1 1 0
0 1 1
11 1
et C { {
1 3 0 1 3
1
1 1
On en déduit le
Si M P Mn pKq, on a
det M det tM
Preuve. (H.P.)
On remarque tout d’abord que le théorème est vrai dans le cas des matrices élémentaires ; en
effet, Di pµq et Pi,j sont symétriques ; de plus, det Bi,j pλq det Bj,i pλq 1 donc det Bi,j pλq
t t
Donc
det t M det t E`1 1 E`p1
det t pE`p 1 q t pE`11 q êla transposition inverse l’ordre des facteurs
det t pE`p1 q det t pE`1 1 q êpar multiplicativité du déterminant
det E`p 1 det E`1 1 êE`j est encore une matrice élémentaire
det E`1 1 det E`p 1 êpar commutativité du produit dans K
det E`1 1 E`p 1 êpar multiplicativité du déterminant
det M
cqfd
La proposition suivante décrit notamment l’effet qu’ont les opérations élémentaires sur un déter-
minant.
Le déterminant d’une matrice carrée est une application n-linéaire alternée des vecteurs
colonnes, et donc
Conséquence. Pour calculer le déterminant d’une matrice, une méthode consiste à la réduire
sous forme échelonnée en lignes à l’aide d’opérations élémentaires sur les lignes et à appliquer
ensuite le théorème 19.
Exemples 4.12. Calculer les déterminants suivants
1 4
2
2 8 6 8
3 1 2 5
2 8 9 ;
3 9 5 10
;
0 5 3 6
1 7 0
3 0 1 2
6 7 7 4
1 4 0 6 5 8 0 9
Remarque. Le calcul d’un déterminant d’ordre n par cette méthode nécessite environ 2n3 {3
opérations, contre n! dans le cas d’un développement suivant une rangée (cf. Th. 26). Dès lors
un ordinateur classique est capable de calculer par cette méthode un déterminant d’ordre 25 en
une fraction de secondes puisqu’il y a 10 000 opérations à effectuer (contre 1, 5 1025 opérations
dans le cas d’un développement « brutal »).
Exemples 4.13. Soit λ P R. Calculer les déterminants suivants
λ3
λ3 2
1 0 0 1 λ 1 11
3 3
D1 pλq D2 pλq D3 pλq
1
λ 5 2 ; 4
6
λ 1 0
0
1 λ 2 1 ; 8 3 λ 54
4
1 3 λ
14 5 1 λ
15
4 3 λ
11λ
10 11
est une forme pn 1q-linéaire alternée sur E 1 ; elle est donc proportionnelle à detC1 , et comme
f pC1 q detC pε1 , ε2 , . . . , εn q 1, on a l’égalité
on obtient
Lemme 2.
Si A P Mn1 pKq, alors
1 01,n1 0n1,1
det
0n1,1 A
det A det 01,n1
A
1
Lemme 3.
Si A P Mn1 pKq et B P M1,n1 pKq, alors
1 01,n1
det
0n1,1
B
A
det A det A
t
B 1
Déterminants 35
0n1,1 0n1,1
det
A
t
B 1
det A
01,n1 1
det A
cqfd
Le déterminant d’une matrice triangulaire est le produit des éléments de sa diagonale prin-
cipale.
Lemme 4.
Soit A P Mq pKq, B P Mp,q pKq et C P Mp,q pKq ; alors
0
det
Ip
0
B
A
det A det A
C Ip
Preuve. La démonstration s’effectue par récurrence sur p (ou sur q) en utilisant le lemme
précédent. cqfd
Preuve. On écrit la matrice dont on veut calculer le déterminant, comme un produit de deux
matrices du type précédent, en utilisant le produit matriciel par blocs
0
M A
0
C
B
Ip
0 B
A
0
C
Iq
NR
Le lemme précédent et det M det N det R donnent le résultat. cqfd
Si M rai,j s est une K-matrice carrée d’ordre n ¥ 2 et Ai,j le cofacteur de ai,j , alors, pour
tout i et tout j dans J1, nK, on a
ņ
• det M ak,j Ak,j , développement du déterminant suivant la j e colonne ;
k 1
ņ
• det M ai,k Ai,k , développement du déterminant suivant la ie ligne.
k 1
Déterminants 37
Preuve. La première formule a été démontrée. Pour la seconde, on utilise l’égalité du détermi-
nant de M et de sa transposée, et le développement de det tM par rapport à la ie colonne de
t
M , i.e. la ie ligne de M . cqfd
Exemple 4.14. Calculer les déterminants des exemples 4.12 et 4.13 en utilisant la formule de
développement suivant une rangée.
Si M rai,j s est une K-matrice carrée d’ordre n ¥ 2, on appelle matrice des cofacteurs ou
comatrice de M , et on note Com M , la matrice de terme général Ai,j , le cofacteur relatif
à ai,j .
Com M rAi,j s p1qi j det Mi,j
M tpCom M q t
pCom M qM pdet M qIn
Preuve. Si, dans°n M , on remplace la j colonne pak,j qk par pbk qk , le déterminant de cettee nouvelle
e
matrice s’écrit k1 bk Ak,j : c’est le développement du déterminant par rapport à sa j colonne.
Si la nouvelle colonne pbk q1¤k¤n est la ie colonne de M , le déterminant est nul si i j, et vaut
det M si i j, ce qui s’écrit
ņ
@pi, j q P J1, nK2 , ak,i Ak,j δj,i pdet M q
k 1
Remarques. Exceptés les cas n 2 et n 3, cette formule ne peut servir au calcul numérique
de l’inverse car elle comporte trop d’opérations.
a c
P GL2 pKq ùñ M 1
1 d c
M
b d ad bc b a
Par contre, elle est utile dans des questions théoriques ; par exemple, M ÞÑ M 1 est une bijection
continue de GLn pKq (c’est même une involution) car produit de deux applications continues.
38 Cours d’algèbre - PC Collège Stanislas
b 0
Exemple 4.15. Déterminer à quelle condition la matrice A a
b
0
a c
c a
est inversible et
calculer son inverse.
$
'
' a1,p xp b1
a1,1 x1
a2,1 x1 a2,p xp b2
&
• analytique :
'
' .............................
an,1 x1 an,p xp bn
%
¸
p ¸
p
• vectorielle : x j cj b ou encore xj Cj B
j 1
j 1
• matricielle : M X B ;
• fonctionnelle : upxq b.
Un système linéaire pLq de n équations à n inconnues est appelé système de Cramer si, et
seulement si, l’une des conditions équivalentes suivantes est vérifiée
piq n p r ;
piiq M P GLn pKq ;
piiiq u est inversible.
Avec les notations précédentes, l’unique solution d’un système de Cramer est donnée par
@j P J1, nK , xj det Mj
det M
où Mj est la matrice déduite de M en remplaçant le vecteur colonne Cj par le second
membre B.
Déterminants 39
Preuve. X tpx1 , . . . , xn q est solution de pLq si, et seulement si, °nj1 xj Cj B. On a donc
det Mj detpC1 , . . . , Cj1 , B, Cj 1 , . . . , Cn q
ņ
detpC1 , . . . , Cj1 , xk Ck , Cj 1 , . . . , Cn q
k 1
ņ
xk detpC1 , . . . , Cj 1 , Ck , Cj 1 , . . . , Cn q (det est n-linéaire)
k 1
xj detpC1 , . . . , Cj1 , Cj , Cj 1 , . . . , Cn q (det est alterné)
xj det M
Puisque det M 0, on a le résultat annoncé. cqfd
F est un sous-espace vectoriel stable par u si, et seulement si, l’image par u d’une famille
génératrice de F est contenue dans F .
Preuve. La condition est évidemment nécessaire : les éléments d’une famille génératrice de F
sont des éléments particuliers de F .
Réciproquement, si pf1 , . . . , fp q engendre F , alors pupf1 q, . . . , upfp qq engendre upF q, grâce à la
linéarité de u :
¸
p ¸
p
x λ j fj P F ùñ upxq λj upfj q P upF q
j 1
j 1
Preuve. L’application v est à valeurs dans F et est linéaire puisque u l’est. cqfd
Preuve.
Soit y upxq un vecteur quelconque de Im u, son image par v, v pyq v upxq
u v pxq reste dans Im u.
Si x est élément de Ker u, alors u v pxq v upxq v p0q 0, et v pxq reste dans Ker u. cqfd
Preuve. Soit B pei , . . . , ep , ep 1 , . . . , en q une base de E telle que les p premiers vecteurs
pe1 , . . . , ep q constituent une base
°nde F ; F est stable par u si, et seulement si, pour tout j P J1, pK,
upej q est dans F . Or, upej q i1 ai,j ei appartient à F si, et seulement si, ai,j 0 pour i ¡ p,
i.e. si, et seulement si, les p premières colonnes de la matrice de u ont des 0 à partir de la ligne
pp 1q. cqfd
1.3 Généralisation
i`1 Fi , et si Bj est une base de Fj , alors B pj1 Bj est une base de E adaptée à cette
p
Si E
décomposition en somme directe.
Théorème 31.
Soit E un K-espace vectoriel de dimension finie, F1 ,. . . , Fp des sous-espaces vectoriels dont
E est la somme directe, B une base de E adaptée à cette décomposition et u un endomor-
phisme de E ; alors u stabilise chacun des sous-espaces Fj si, et seulement si, la matrice de
u relativement à B est diagonale par blocs, i.e.
A1 0 ... 0
0 .. ..
A2 . .
MatB puq
. .. ..
.
. . . 0
0 ... 0 Ap
Si u est un endomorphisme de E, tout vecteur e non nul qui dirige une droite vectorielle
stable par u est appelé un vecteur propre de u.
Le rapport de l’homothétie induite par u sur D Ke est appelé valeur propre associée au
vecteur propre e.
Remarques.
La valeur propre associée à un vecteur propre est unique.
Un vecteur non nul e est un vecteur propre si, et seulement si, la famille e, upeq est une famille
liée, autrement dit si, et seulement si, upeq est colinéaire à e.
Si e est un vecteur propre pour u, tous les vecteurs non nuls de la droite stable Ke sont des
vecteurs propres pour u et sont associés à la même valeur propre. Remarquons donc que, si e est
un vecteur propre de u associé à la valeur propre λ, pour tout α P K , αe est encore un vecteur
propre de u associée à la même valeur propre λ.
Exemples 5.2. Quels sont les vecteurs propres d’une rotation vectorielle du plan ? d’une rotation
vectorielle de l’espace ? d’une réflexion de l’espace ? d’un projecteur (non trivial) de l’espace ?
Soit u est un endomorphisme de E ; on appelle valeur propre de u, tout scalaire λ tel qu’il
existe un vecteur x non nul de E vérifiant upxq λx.
L’ensemble des valeurs propres d’un endomorphisme u est appelé le spectre de u et noté sp u.
λ P sp u ðñ Dx P E, x 0E et upxq λx
Remarque. Le vecteur x de la définition précédente est un vecteur propre de u ; il est dit associé
à la valeur propre λ.
Exemples 5.4. Quel est le spectre d’une rotation vectorielle du plan ? d’une rotation vectorielle
de l’espace ? d’une réflexion de l’espace ? d’un projecteur (non trivial) de l’espace ?
44 Cours d’algèbre - PC Collège Stanislas
Si u un endomorphisme de E, alors
Preuve. Si λ est une valeur propre de u, il existe un vecteur (propre) non nul x P E tel que
upxq λx, égalité que l’on peut encore écrire 0 upxq λx pu λIdE qpxq ; ceci donne les
équivalences annoncées.
Si u est un automorphisme de E, toutes ses valeurs propres sont non nulles ; pour toute valeur
propre λ et tout vecteur propre x associé, on a :
1
upxq λx ðñ x u1 pλxq λu1 pxq ðñ λ
x u1 pxq
Ainsi λ est valeur propre de u si, et seulement si, λ1 et valeur propre de u1 et sppu1 q
tλ1 | λ P sp uu. cqfd
Exemple 5.7. On se place dans l’espace vectoriel réel E FpR, Rq. Quelles sont les valeurs
propres de l’opérateur de dérivation D ? de D D ?
Réduction des endomorphismes 45
Remarques.
Eλ puq est constitué de 0E et des vecteurs propres de u associés à λ. Si e est un vecteur propre
de u associé à λ, la droite Ke est contenue dans Eλ puq.
E0 puq Ker u est le noyau de u.
E1 puq Kerpu IdE q tx P E | upxq xu est le sous-espace des vecteurs de E invariants par u.
Exemples 5.8. Quels sont les éléments propres d’une homothétie ? d’un projecteur ? d’une
symétrie ? d’une affinité ?
Exemple 5.9. Soit E un K-ev de dimension finie. Soit u un endomorphisme de E qui commute
avec tous les endomorphismes de E. Montrer que pour tout vecteur x de E, la famille px, upxqq
est liée.
La somme d’une famille finie de sous-espaces propres associés à des valeurs propres distinctes
deux à deux, est directe.
Preuve. Montrons par récurrence sur le nombre k de sous-espaces vectoriels propres la propriété
suivante :
à
k
pPk q : « @pλ1 , . . . , λk q P psp uqk , @pi, j q P J1, kK2 , i j ùñ λi λj ùñ Eλi »
i 1
• Soit λ1 et λ2 deux valeurs propres distinctes de u. Soit x P Eλ1 puq X Eλ2 puq. Alors
λ1 x upxq λ2 x ùñ pλ1 λ2 q x 0 ùñ x 0q
Donc Eλ1 puq X Eλ2 puq t0u Autrement dit, la propriété P2 est vraie.
• Supposons la propriété Pk vraie pour un certain entier k. Montrons Pk 1 . Soit λ1 ,. . . ,λk et
λk 1 des valeurs propres deux à deux distinctes de u. D’après le théorème 1, pour prouver
Pk 1 , il suffit de montrer
¸
j
@j P J1, kK , Eλj 1 X Eλi t0E u
i 1
46 Cours d’algèbre - PC Collège Stanislas
Or les λ1 , . . . , λk sont deux à deux distincts, donc par hypothèse de récurrence, Eλ1 , . . . , Eλk
sont en somme directe, d’où (toujours d’après le théorème 1)
¸
j
@j P J1, k 1K , Eλj 1 X Eλi t0E u
i 1
°k
Il reste donc à prouver que Eλk 1 puq X i1 Eλi puq t0E u.
°k °k
Soit xk 1 i1 xi P Eλk 1 puq X i1 Eλi puq avec xi P Eλi ; alors
ķ
upxk 1 q λk 1 xk 1 λk 1 xi
i 1
ķ ķ ķ
et upxk 1 qu xi upxi q λi xi
i 1
i 1 i 1
ķ
donc 0 pλk 1 λi q xi
i 1
°k
ce qui montre que pλk 1 λi q xi 0 puisque la somme i1 Eλi puq est directe (la propriété
est vraie au rang k, puisque les valeurs propres sont distinctes deux à deux) et xi 0.
Ainsi xk 1 0 et la propriété est vraie au rang k 1.
Le théorème de récurrence montre que la propriété est vraie pour tout k.
cqfd
Toute famille de vecteurs propres, associés à des valeurs distinctes deux à deux, est une
famille libre.
Exemple 5.10. On se place dans l’espace vectoriel réel E FpR, Rq. Soit n P N fixé. Les
familles suivantes sont-elles des familles libres ?
piq F1 peλ t , . . . , eλ t q pour pλ1 , . . . , λn q P Rn tels que les λi soient deux à deux distincts.
1 n
Preuve. Supposons par l’absurde que u possède au moins n 1 valeurs propres distinctes. Soit
λ1 , ..., λn 1 des valeurs propres de E, deux à deux distinctes. Pour chaque valeur propre λi , il
existe un vecteur propre xi de u associé à la valeur propre λi . Alors la famille px1 , . . . , xn 1 q est
une famille libre de E. Donc n 1 ¤ dim E n. D’où la contradiction. cqfd
Un élément non nul X de Kn est appelé vecteur propre de M s’il existe un scalaire λ tel
que M X λX.
Ce scalaire est unique ; on l’appelle valeur propre associée à X.
Un scalaire λ est une valeur propre de M si M λIn n’est pas inversible ; tout élément non
nul de KerpM λIn q est appelé vecteur propre associé à λ.
λ P spK M
ðñ M λIn R GLn pKq ðñ detpM λIn q 0
ðñ KerpM λIn q t0u ðñ rgpM λIn q ¤ n 1
upxq λx ðñ MX λX
ce qui montre le
48 Cours d’algèbre - PC Collège Stanislas
Le nombre de valeurs propres d’une matrice carrée est au plus égal à son ordre.
Deux matrices sont semblables si, et seulement si, elles représentent le même endomorphisme
(relativement à deux bases).
Si M est une matrice à coefficients réels, spR M est contenue dans spC M ; en général, les
deux spectres sont distincts.
Réduction des endomorphismes 49
Preuve. Si λ est un élément de spR M et X un vecteur propre associé, alors M X λX, X est
non nul et appartient à M1,n pRq donc à M1,n pCq ; ainsi λ appartient à spC M .
Considérons la rotation plane d’angle π {2 ; sa matrice, dans une base orthonormale directe, est
A 10 01 et spR A est vide puisque cette rotation n’admet aucune
droite stable. Par contre, i
i 1
est une valeur propre complexe de A, puisque A i I2 1 i n’est pas inversible. cqfd
Soit M une matrice carrée d’ordre n ¥ 2 et à coefficients réels ; si λ est une valeur propre
complexe non réelle de M et X un vecteur propre à coefficients complexes associé à λ, alors
λ est une valeur propre de M et X un vecteur propre associé à λ.
Preuve. M X λX ùñ MX MX λ X
cqfd
4 Polynômes annulateurs
On rappelle les notions vues au § 2.2 et on les complète dans le cas particulier de la K-algèbre
des endomorphismes d’un K-ev et de la K-algèbre des matrices carrées d’ordre n.
u0 IdE et @k P N, uk 1
uk u
Proposition 20.
Pour tout entier naturel p et q, on a up uq uq up up q
.
up uq 1
up puq uq pup uq q u up q u up q 1
P pM q a0 In a1 M ap M p
°
Remarque. Rappelons qu’un polynôme P peut s’écrire°P i ai X i où la° suite pai qi est nulle à
partir d’un certain rang ; dans ces conditions, P puq i ai ui et P pM q i ai M i .
Preuve. ° ° °
ϕu pλP µQq i pλai µbi qui λ i ai ui µ i bi ui λϕu pP q µϕu pQq
ϕu p1q IdE
Quant à l’égalité ϕu pP Qq ϕu pP q ϕu pQq, on commence par la démontrer pour Q X k :
¸ ¸
ϕu pP X k q ai ui k
ai ui uk ϕu pP q ϕu pX k q
i i
°
puis dans le cas général Q k bk X
k
en utilisant la linéarité de ϕu :
¸ ¸ ¸
ϕu pP Qq ϕu bk P X k bk ϕu pP X k q bk ϕu pP q ϕu pX k q
k k k
¸
ϕu pP q bk ϕu pX k q ϕu pP q ϕu pQq
k
cqfd
Proposition 24.
Soit une matrice triangulaire par blocs, M A , alors, pour tout polynôme Q, on a
0 B
QpM q Qp0Aq Qp?B q .
Réduction des endomorphismes 51
Preuve. L’application Q ÞÝÑ QpM q Qp0Aq Qp?Bq est linéaire ; donc il suffit de prouver la
propriété pour les monômes Q X k où k décrit N, ce que l’on obtient par une récurrence laissée
en exercice au lecteur. cqfd
Proposition 25.
Si deux matrices A et B sont semblables, alors, pour tout polynôme Q, les matrices QpAq et
QpB q sont semblables.
Preuve. °Par hypothèse, il existe une matrice inversible P P GLn pKq telle que B P 1 AP .
Soit Q k0 ck X k P KrX s Alors
m
m̧ m̧ m̧
QpB q ck B k ck pP 1 AP qk c k P 1 A k P
k 0
k 0
k 0
m̧ m̧
P 1 ck Ak P P 1 ck Ak P P 1 QpAqP
k 0
k 0
cqfd
Exemple 5.13. Quel est le spectre des matrices suivantes ? Sont-elles semblables ?
2 1 0 0 2 1 0 0
0 2 1 0 0 2 0 0
A
0
; B
0 2 0 0 0 2 1
0 0 0 2 0 0 0 2
Définition 36.
Soit M P Mn pKq et P P KrX s un polynôme non nul.
On dit que P est un polynôme annulateur de M lorsque P pM q 0.
Proposition 26.
Si P est un polynôme annulateur de la matrice M , alors tout multiple non nul de P est
encore un polynôme annulateur de M .
Remarque. Parmi les polynômes annulateurs d’une matrice, ce sont donc ceux qui sont de plus
bas degré qui sont les plus intéressants...
Théorème 37.
Toute matrice carrée admet au moins un polynôme annulateur.
Preuve. On a dim Mn pKq n2 ; donc la famille In , A, A2 , . . . , An est nécessairement liée.
2
cqfd
Corollaire 13.
Tout endomorphisme d’un K-ev de dimension finie admet au moins un polynôme annulateur.
52 Cours d’algèbre - PC Collège Stanislas
Si x est un vecteur propre de u associé à λ, pour tout polynôme P P KrX s, le vecteur x est
un vecteur propre de P puq associé à P pλq.
cqfd
Preuve. Si λ est une valeur propre de u, P pλq est une valeur propre de P puq 0LpE q . Or, 0 est
la seule valeur propre de 0LpE q , d’où P pλq 0 et λ est racine de P . cqfd
Remarque. Que peut-on dire de la réciproque ?
L’ensemble K k P N IdE , u, u2 , . . . , uk est une famille liée est alors une partie non vide
de N , donc admet un plus petitélément m. Autrement dit, m le plus petit entier strictement
positif tel que IdE , u, u2 , . . . , um soit liée.
Donc il existe m 1 scalaires α0 , . . . , αm tels que
α0 IdE α1 u ... αm1 um1 αm um 0LpEq
Supposons par l’absurde que αm 0 ; alors la famille pIdE , u, u2 , . . . , um1 q serait liée ; ce qui
contredit la définition de m.
Donc αm 0. En divisant la relation de dépendance linéaire précédente par αm , on en déduit
qu’il existe m scalaires a0 , . . . , am1 tels que
a0 IdE a1 u ... am1 um1 um 0LpEq
Le choix du m-uplet pa0 , . . . , am1 q est unique ; en effet, supposons qu’il existe un autre m-uplet
pb0 , . . . , bm1 q solution du problème, alors en soustrayant les deux égalités, on obtiendrait
a0 IdE a1 u . . . am1 um1 um 0LpEq
b0 IdE b1 u . . . bm1 um1 um 0LpEq
pa0 b0 q IdE pa1 b1 q u . . . pam1 bm1 q um1 0LpEq 0LpEq
ce qui contredirait la minimalité de m !
Le polynôme
a0 a1 X ... am1 X m1 Xm
est appelé le polynôme minimal de u et noté µu ; c’est le polynôme annulateur de u, unitaire, de
plus bas degré.
Réduction des endomorphismes 53
Les deux propriétés suivantes sont utiles à mémoriser... bien qu’hors-programme : elles expliquent
en quoi le polynôme minimal est intéressant.
Théorème 39.
Soit E un K-ev de dimension finie n P N et u P LpE q.
Un polynôme est un polynôme annulateur de u si, et seulement si, il est multiple du polynôme
minimal de u.
Donc R est un polynôme annulateur de u dont le degré est strictement inférieur à deg µu , ce qui
contredit la définition du polynôme minimal.
En conclusion R 0, c.-à-d. µu divise P . cqfd
Théorème 40.
Soit E un K-ev de dimension finie n P N et u P LpE q.
Les racines du polynôme minimal de u sont exactement les valeurs propres de u.
1 3 3
Exemple 5.16. On considère la matrice A 3 5 3
3 3 1
Réduire la matrice λ I3 A sous forme triangulaire à l’aide d’opérations élémentaires sur les
lignes. Le dernier polynôme en λ qui apparaît sur la diagonale est-il annulateur ?
Utiliser des opérations élémentaires sur les lignes et les colonnes pour réduire λ I3 A sous
forme diagonale. Le dernier polynôme en λ qui apparaît sur la diagonale est-il annulateur ?
2 4 3
Exemple 5.17. On considère la matrice A 4 6 3
3 3 1
Réduire la matrice λ I3 A sous forme triangulaire à l’aide d’opérations élémentaires sur les
lignes. Le dernier polynôme en λ qui apparaît sur la diagonale est-il annulateur ?
Utiliser des opérations élémentaires sur les lignes et les colonnes pour réduire λ I3 A sous
forme diagonale. Le dernier polynôme en λ qui apparaît sur la diagonale est-il annulateur ?
1 4 2
Exemple 5.18. On considère la matrice A 3 4 0
3 1 3
Réduire la matrice λ I3 A sous forme triangulaire à l’aide d’opérations élémentaires sur les
lignes. Le dernier polynôme en λ qui apparaît sur la diagonale est-il annulateur ?
Utiliser des opérations élémentaires sur les lignes et les colonnes pour réduire λ I3 A sous
forme diagonale. Le dernier polynôme en λ qui apparaît sur la diagonale est-il annulateur ?
Remarque. X est ici une indéterminée ; en cas d’indigestion, remplacer X par x ; le polynôme
devient une fonction polynôme ; servir chaud, accompagné d’un verre de Madiran.
1 3 3
Exemple 5.20. Factoriser le polynôme caractéristique de A 3 5 3
3 3 1
Réduction des endomorphismes 55
cqfd
Preuve. Rappelons que deux matrices semblables ont le même déterminant. Si A et B sont
deux matrices semblables, et P une matrice inversible telle que B P 1 AP , alors
Les valeurs propres d’une matrice sont les racines sur K de son polynôme caractéristique.
λ P sp u ðñ χu pλq 0
λ P sp *
u ðñ µu pλq 0
λ P sp u
À retenir :
P puq 0LpE q ùñ P pλq 0 (réciproque fausse !)
Toute matrice à coefficients complexes admet, au moins, une valeur propre (complexe).
Preuve. Tout polynôme à coefficients complexes admet une racine complexe, c’est le théorème
de d’Alembert. cqfd
Exemple 5.22. Exprimer le polynôme caractéristique d’une matrice M carrée d’ordre 2. Montrer
que c’est un polynôme annulateur de M .
±n
Preuve. Il suffit de développer pλi X q et d’identifier ce polynôme avec celui de la formule
i 1
précédente. cqfd
Tout matrice à coefficients réels et d’ordre impair admet, au moins, une valeur propre réelle.
Preuve. Si n est impair, χM est de degré impair et χM pxq xn ; le théorème des valeurs
8
intermédiaires assure l’existence d’une racine réelle pour χM , et spR M n’est pas vide. cqfd
XIp A
Preuve. XIn M B
et le calcul du déterminant d’une matrice trian-
0 XIq C
gulaire par blocs donne le résultat. cqfd
Réduction des endomorphismes 57
Remarque. Si χM est scindé et si λ1 ,. . . ,λp sont les valeurs propres deux à deux distinctes de M ,
le polynôme caractéristique de M s’écrit
¹
p ¹
χM pX λj qmpλ q
j
pX λqmpλq
j 1 P
λ sp M
et la somme des multiplicités des valeurs propres de M est égale à son ordre.
• Eλ puq est un sous-espace stable par u ; dans une base adaptée, la matrice de u est triangu-
laire (supérieure) par blocs, soit
λIqpλq B
0 C
donc
χN χu χM pX λqppλq χC
Ceci montre que q pλq ¤ mpλq.
cqfd
Le sous-espace propre associé à une valeur propre simple est une droite vectorielle.
Remarque. Un théorème célèbre (dû à Cayley et Hamilton) affirme que le polynôme caractéris-
tique d’un endomorphisme ou d’une matrice est un polynôme annulateur de cet endomorphisme
ou de cette matrice ; autrement dit
Ce théorème étant hors programme, on ne fait que le citer pour mémoire ; il est illicite de
l’invoquer en colle ou en devoir ; mais il n’est pas inutile de l’avoir en tête...
À noter que le théorème 39 entraîne alors que le polynôme caractéristique de u est multiple du
polynôme minimal de u ; autrement dit
µu | χu
58 Cours d’algèbre - PC Collège Stanislas
5 Diagonalisation
On suppose ici que E est un K-espace vectoriel vectoriel de dimension finie n ¥ 1 et u un
endomorphisme de E.
Définition 40.
Un endomorphisme de E est dit diagonalisable si E est la somme directe de ses sous-espaces
propres.
u est diagonalisable ðñ E ` Eλ puq
P
λ sp u
Remarque. La somme des sous-espaces propres de E est toujours directe, mais pas nécessairement
égale à E.
Exemples 5.23. Les homothéties, les projecteurs, les symétries et les affinités sont-ils diagona-
lisables ?
Théorème 44.
Si u est un endomorphisme d’un K-espace vectoriel E de dimension finie, alors les propositions
suivantes sont équivalentes :
piq u est diagonalisable ;
piiq E est la somme directe de sous-espaces stables sur lesquels u induit une homothétie ;
piiiq il existe une base de E constituée de vecteurs propres de u ;
pivq il existe une base de E sur laquelle la matrice de u est diagonale.
Preuve.
i ùñ ii Pour toute valeur propre λ de u, Eλ puq est un sous-espace vectoriel stable sur lequel
u induit une homothétie (de rapport λ).
ii ùñ iii Si F est un sous-espace stable sur lequel u induit une homothétie (de rapport k),
tous les vecteurs non nuls de F sont des vecteurs propres de u (associés à k). Une base de E
adaptée à la décomposition de E en somme directe est constituée de vecteurs propres de u.
iii ùñ iv Si B pe1 , . . . , en q est une base constituée de vecteurs propres de u, la matrice de
u relativement à B est la matrice diagonale Diagpλ1 , . . . , λn q avec λi valeur propre de u associée
au vecteur propre ei (i.e. upei q λi ei ).
iv ùñ i Quitte à réordonner la base de E sur laquelle la matrice de u est diagonale, on peut
supposer que cette matrice est diagonale par blocs : M Diagpλj Impλj q qλj PJ1,pK . Le polynôme
±p
caractéristique de u est χu χM ij pX λj qmpλj q , les λj sont les valeurs propres de u
et Eλj puq est de°dimension mpλj ° q de vecteurs de la base de E ; ainsi E est somme directe des
Eλj puq puisque j dim Eλj puq j mpλj q n.
cqfd
Réduction des endomorphismes 59
Théorème 45.
Soit u un endomorphisme d’un K-espace vectoriel de dimension finie ; les propositions sui-
vantes sont équivalentes :
piq u est diagonalisable ;
piiq la somme des dimensions des sous-espaces propres est égale à la dimension de E ;
piiiq le polynôme caractéristique de u est scindé, et, pour toute valeur propre de u, la mul-
tiplicité est égale à la dimension du sous-espace propre associé.
Autrement dit,
¸
u est diagonalisable ðñ dim Eλ puq n
P
λ sp u
Preuve.
i ðñ ii La somme des sous-espaces vectoriels propres est directe ; cette somme est égale à
E si, et seulement si, sa dimension est la dimension de E ; ceci donne le résultat, puisque la
dimension d’une somme directe est égale à la somme des dimensions de chacun des facteurs.
i ùñ iii Puisque u est diagonalisable, ±il existe une base de E sur laquelle la matrice de u est
diagonale Diagpλ1 , . . . , λn q ; ainsi χu i1 pX λi q est un polynôme scindé.
n
On sait que pour toute valeur propre λ, q pλq dim Eλ puq ¤ mpλq ; d’autre part
¸ ¸
mpλq n dim E dim Eλ puq
P
λ sp u P
λ sp u
°
ce qui implique que 0 λPsp u mpλq q pλq et chacun des termes de la somme est positif ; tous
les termes de cette somme sont donc nuls.
° °
iii ùñ ii Puisque χu est scindé, λPsp u mpλq n ; ceci implique que λPsp u dim Eλ puq n
et u est diagonalisable.
cqfd
Tout endomorphisme d’un K-espace vectoriel de dimension finie dont le polynôme caractéris-
tique est scindé et a toutes ses racines simples, est diagonalisable et ses sous-espaces propres
sont des droites vectorielles.
Preuve. Dans ce cas, mpλq dim Eλ puq 1 pour toute valeur propre λ de u. cqfd
Corollaire 19.
Tout endomorphisme d’un K-espace vectoriel de dimension finie n dont le polynôme carac-
téristique admet n racines distinctes est diagonalisable et ses sous-espaces propres sont des
droites vectorielles.
Preuve. Dans ce cas, les racines du polynôme caractéristique sont simples. cqfd
Théorème 47.
Soit u est un endomorphisme d’un K-espace vectoriel de dimension finie. Alors u est dia-
gonalisable si, et seulement si, u annule un polynôme scindé dont toutes les racines sont
simples.
Preuve.
ùñ Appelons λ1 ,. . .,λp les valeurs propres deux à deux distinctes de u. Dans une base adaptée à
la décomposition E `pj1 Eλj puq, la matrice de u est diagonale par blocs M Diagpλj Impλj q qj .
±p
Le polynôme P j 1 pX λj q est annulateur de M , car, par blocs,
P pM q DiagpP pλj qImpλj q qj PJ1,pK 0 car λj est racine de P pour tout j P J1, pK
Ainsi le polynôme P est scindé, à racines simples et annulateur de u.
ðù Soit P ±qk1 pX λk q un polynôme scindé à racines simples. Les λk étant supposés
deux à deux distincts, on peut considérer la famille pLk q1¤k¤q des polynômes interpolateurs de
Lagrange associée au q-uplet pλk q1¤k¤q . On a alors @pk, lq P J1, qK , Lk pλl q δj,k .
2
triviale, on en déduit
¸
q
E Imppk q
k 1
De plus, en utilisant le fait que la trace d’un projecteur est égale à son rang, on a
¸
q ¸
q ¸
q
dimpE q trpIdE q tr pk tr ppk q dim Imppk q
k 1
k 1
k 1
En combinant les deux dernières égalités et le théorème 1, on en déduit
k`1 Imppk q
q
E
Théorème 48.
Si u est un endomorphisme diagonalisable de E et F un sous-espace stable par u, l’endomor-
phisme v, induit par u sur F , est diagonalisable.
Pour une matrice carrée M d’ordre n et à coefficients dans K, les propriétés suivantes sont
équivalentes :
Preuve. Les cinq premières assertions sont la traduction au cas de uM des théorèmes qui
caractérisent les endomorphismes diagonalisables.
La sixième assertion est l’explication pratique : recherche d’une base de Kn constituée de vecteurs
propres de M et utilisation de cette base pour construire une matrice inversible P , la matrice de
passage de la base canonique à la base de vecteurs propres, qui diagonalise M . cqfd
Exemple 5.27. Les matrices suivantes sont-elles diagonalisables ? Si oui, les diagonaliser.
A
1 1
B 1 1
C cos ϑ sin ϑ
0 1 0 2 sin ϑ cos ϑ
1 3 3
Exemple 5.28. Diagonaliser la matrice A 3 5 3
3 3 1
2 4 3
Exemple 5.29. La matrice A 4 6 3 est-elle diagonalisable ?
3 3 1
62 Cours d’algèbre - PC Collège Stanislas
5 0 0 0
0 5 0 0
Exemple 5.31. La matrice A est-elle diagonalisable ?
1 4 3 0
1 2 0 3
6 Trigonalisation
Dans ce paragraphe, E désigne un K-ev de dimension finie n P N .
Définition 42.
piq Un endomorphisme u de E est dit trigonalisable s’il existe une base dans laquelle il est
représenté par une matrice triangulaire.
piiq Une matrice A est dite trigonalisable si elle est semblable à une matrice triangulaire.
On admet le
Théorème 50.
Tout endomorphisme (resp. toute matrice) dont le polynôme caractéristique est scindé est
trigonalisable.
Corollaire 20.
Tout élément de Mn pCq est trigonalisable.
Exemple 5.32. Donner un contre-exemple dans Mn pRq, à savoir une matrice carrée d’ordre n
à coefficients réels qui ne soit pas trigonalisable.
Montrer qu’il existe une base dans laquelle f est représentée par une matrice de la forme
1 0 0
0 2 1
0 0 2
Réduction des endomorphismes 63
7 Applications de la réduction
7.1 Résolution d’un système différentiel linéaire
Exemple 5.34. On considère les deux matrices carrées d’ordre 3 suivantes :
1 1 1 1 1 1
A 1 1 1 et J 1 1 1
1 1 1 1 1 1
1 Produit scalaire
1.1 Produit scalaire sur un espace vectoriel réel
Dans cette sous-section, E désigne un R-espace vectoriel de dimension finie ou infinie, sauf avis
contraire.
Rappelons la définition d’un produit scalaire sur E.
On appelle produit scalaire sur E toute forme bilinéaire symétrique définie positive,
autrement dit, toute application ϕ de E E dans R vérifiant
piq @x P E, ϕp, yq : y ÞÑ ϕpx, yq est linéaire linéarité à droite
piiq @px, yq P E 2 , ϕpy, xq ϕpx, yq symétrie
piiiq @x P E, x 0 ùñ ϕpx, xq P R définie positive
On dit alors que E est un espace préhilbertien réel, et ϕpx, yq est noté xx | yy .
Si de plus E est de dimension finie, on dit que E est un espace euclidien.
Pourquoi ?
Exemples 6.3. Montrer que les formes suivantes définissent bien des produits scalaires.
piq le produit scalaire sur l’espace f P L2C pI, Rq des fonctions à valeurs réelles, continues et de
carré sommable sur l’intervalle I :
»
2
@pf, gq P L2C pI, Rq , xf | gy f ptqg ptq dt
I
piiq les produits scalaires sur l’espace des polynômes à coefficients réels ; si I est un intervalle
et w une fonction continue sur I et à valeurs réelles strictement positives, telle que, pour
tout entier n, t ÞÑ tn wptq soit intégrable sur I, l’application
»
pP, Qq P RrX s 2 ÞÑ xP | Qy P ptqQptqwptq dt
I
66 Cours d’algèbre - PC Collège Stanislas
»1
I r1, 1s, wptq 1 et xP | Qy P ptqQptq dt
1
»1
1 dt
I s1, 1r, wptq ? et xP | Qy P ptqQptq ?
1 t2 1 1 t2
» 8
I r0, 8r, wptq et et xP | Qy P ptqQptq et dt
0
» 8
I s8, 8r, wptq et et xP | Qy P ptqQptq et dt
2 2
8
piiiq le produit scalaire sur l’espace ° des suites réelles de carré sommable `2N pRq, i.e. les suites
réelles pan qn telles que la série n a2n soit convergente.
2 8̧
@pa, bq P `2N pRq , xa | by ak bk
k 0
Définition 44.
Les relations qui lient la norme euclidienne et le produit scalaire associé sont données par la
Proposition 30.
Pour x et y éléments de E, on a
piq kx yk2 kxk2 2 xx | yy kyk2
piiq kx yk2 kx yk2 2kxk2 2kyk2 égalité du parallélogramme
piiiq xx | yy 21 kx yk2 kxk2 kyk2 identités de polarisation
21 kxk2 kyk2 kx yk
2
41 kx yk kx yk
2 2
On appelle produit scalaire sur E toute forme sesquilinéaire , à symétrie hermitienne, définie
positive, autrement dit, toute application ϕ de E E dans R vérifiant
"
piq @pλ, µq P C , @px, y, zq P E , ϕϕppx,
2 λx µy, zq λϕpx, zq µϕpy, zq
3
λy µzq λϕpx, yq µϕpx, zq
sesquilinéarité
On dit alors que E est un espace préhilbertien complexe, et ϕpx, yq est noté xx | yy .
Si de plus E est de dimension finie, on dit que E est un espace hermitien.
M t M tM
ņ
@x px1 , . . . , xn q, @y py1 , . . . , yn q, xx | yy xk yk (6.3)
k 1
ņ
2
@pX, Y q P Mn,1 pRq , xX | Y y tXY X Y xk yk (6.4)
k 1
Exemple 6.5 (Produit scalaire euclidien canonique sur Mn pCq).
Le produit scalaire canonique sur Mn pCq est défini par
@pA, B q P Mn pCq, xA | B y tr p A B q
Pourquoi ?
Exemples 6.6. Montrer que les formes suivantes définissent bien des produits scalaires.
piq le produit scalaire sur l’espace L2C pI, Cq des fonctions à valeurs complexes, continues et de
carré intégrable sur l’intervalle I :
»
2
@pf, gq P L2C pI, Cq , xf | gy f ptqg ptq dt
I
piiq les produits scalaires sur l’espace des polynômes à coefficients complexes ; si I est un inter-
valle et w une fonction continue sur I et à valeurs réelles strictement positives, telle que,
pour tout entier n, t ÞÑ tn wptq soit intégrable sur I, l’application
»
pP, Qq P CrX s 2 ÞÑ xP | Qy P ptqQptqwptq dt
I
8
piiiq le produit scalaire sur l’espace des suites
° complexes de carré sommable `2N pCq, i.e. les suites
complexes pan qn telles que la série n |an |2 soit convergente.
2 8̧
@pa, bq P `2N pCq , xa | by a k bk
k 0
Définition 47.
Les relations qui lient la norme euclidienne et le produit scalaire associé sont données par la
Proposition 31.
Pour x et y éléments de E, on a
piiq kx yk
2
kx yk 2kxk
2 2
2kyk
2
égalité du parallélogramme
2 2
piiiq <e xx | yy 2 kx yk kxk kyk 4 kx yk kx yk
1 2 2 1 2
2 2
=m xx | yy 12 kx i yk kxk kyk 41 kx i yk kx i yk
2 2 2
xx | yy 41 kx yk2 kx yk2 4i kx i yk2 kx i yk2
2 Orthogonalité
E désigne un espace préhilbertien réel ou complexe dont le produit scalaire est noté x | y .
Définition 49 (Orthogonalité).
Deux vecteurs sont orthogonaux si leur produit scalaire est nul ; la relation d’orthogonalité
est notée K.
xKy ðñ xx | yy 0
Signalons dès à présent une décomposition d’usage constant, véritable « couteau suisse » des
espaces préhilbertiens.
Lemme 5.
Soit u un vecteur non nul de E.
Alors tout vecteur v de E se décompose de la manière suivante
v
x v | uy
u
K
v
xv | uy u
xu | uy
looooomooooon xu | uy
looooooooooomooooooooooon
colinéaire à u orthogonal à u
cqfd
Preuve.
• Cas réel : ku vk2 kuk2 2 xu | vy kvk2 kuk2 kvk2 si, et seulement si, xu | vy 0.
*
ku vk2 kuk2 2 <e xu | vy kvk2
• Cas complexe :
et xu | vy 0
ùñ ku vk2 kuk2 kvk2
cqfd
xxuu || uvyy u
2
kvk2 w
xxuu || uvyy u
2
2
kwk
lo
omoon
¥0
¥ xxuu || uvyy u
2
| xu | vy |
2
kuk2
D’où l’inégalité demandée. De plus, on a égalité ssi w 0 ssi pv, uq est liée.
cqfd
Exemples 6.7. Voici quelques exemples d’application de l’inégalité de Cauchy-Schwarz dans le
cas réel :
piq cas de Rn :
ņ ņ 1 ņ 1
I I I
I I I
Par exemple :
» 8 » 8 2 » 8 2
P ptqQptq et dt ¤ et dt et dt
1 1
P ptq Qptq
2 2 2 2 2
8 8 8
pv q cas de `2N pRq :
8̧ 8̧ 1 8̧ 1
| xa | by | ak bk ¤
a2k b2k
2 2
k 0
k 0 k 0
Exemples 6.8. Voici quelques exemples d’application de l’inégalité de Cauchy-Schwarz dans le
cas complexe :
piq cas de Cn :
ņ ņ 1 ņ 1
I I I
| xP | Qy | pq pq pq ¤ pq pq pq pq
P t 2 w t dt 2
Q t 2 w t dt 2
P t Q t w t dt
I I I
Par exemple :
» 1 » 1 » 1
p q p q ? dt 2 ¤ p q ? dt 2 p q ? dt 2
1
1
P tQt P t 2 2
Q t 2 2
| xa | by | ak bk ¤
|ak |2 |bk |2
2 2
k 0 k 0
k 0
Une famille de vecteurs pxk qkPΛ est une si les vecteurs de cette famille sont orthogonaux deux
à deux, i.e.
@pk, lq P Λ2 , k l ùñ xxk | xl y 0
Une base orthogonale est une base qui est aussi une famille orthogonale.
Une famille orthogonale de vecteurs unitaires est appelée une famille orthonormale (ou or-
thonormée), i.e. #
@pk, lq P Λ , xxk | xl y δk,l 10 sisi kk ll
2
Une base orthonormale est une base qui est aussi une famille orthonormale.
Remarque. Si pvk qk est une famille orthogonale de vecteurs non nuls, la famille p kv1 k vk qk est
k
orthonormale.
Exemples 6.9.
Justifier les affirmations suivantes.
piq Les bases naturelles (canoniques) de Rn , Cn , Mn pRq et Mn pCq sont des familles orthonor-
males pour le produit scalaire canonique des espaces considérés.
piiq La famille tek : t ÞÑ exppi ktq | k P Zu est une famille orthonormale de C2π .
piiiq La famille t1uYtt ÞÑ cos kt|k P N uYtt ÞÑ sin kt?|k P N u est une famille orthogonale
? de C2π ;
la famille orthonormale associée est t1uYtt ÞÑ 2 cos kt | k P N uYtt ÞÑ 2 sin kt | k P N u.
On rappelle que C2π désigne la C-algèbre des fonctions continues sur R, 2π-périodiques et à
valeurs complexes, muni du produit scalaire
» 2π »π
1 1
@pf, gq P C2π C2π , xf | gy 2π
f ptqg ptq dt
2π
f ptqg ptq dt
0 π
Remarques. Les divers produits scalaires sur RrX s et CrX s donnent des familles orthogonales de
polynômes, encore appelées familles de polynômes orthogonaux :
72 Cours d’algèbre - PC Collège Stanislas
8
L’étude de ces familles est régulièrement l’objet de sujets d’écrit ; nous en étudierons quelques-
unes au cours de problèmes.
Lemme 6.
¸
p ¸
q ¸
p ¸
q
piq x λk xk | µl yl y λk µl xxk | yl y
k 1 l 1
k 1l 1
¸p 2 ¸
p ¸
p
piiq λk xk λk λl xxk | xl y
k 1
k 1l 1
¸p
2 ¸
p
vk kvk k2
k 1
k 1
Preuve.
Puisque les vecteurs sont orthogonaux deux à deux, xvk | vl y 0 pour k l et
¸
p 2 ¸ ¸
p ¸
p ¸
p
vk xvk | vl y kvk k2 xvk | vl y kvk k2
k 1 k,l k 1
k,l 1
k 1
k l
cqfd
Espaces préhilbertiens 73
Toute famille orthogonale de vecteurs non nuls est une famille libre.
Preuve. Soit°ppvk qk une famille orthogonale de vecteurs non nuls ; pour toute combinaison li-
néaire nulle k1 λk vk 0, on a, en utilisant la formule de Pythagore,
¸
p 2 ¸
p ¸
p
0 λk vk kλk vk k2 |λk |2 kvk k2
k 1
k 1
k 1
ce qui montre que |λk |2 kvk k2 0 pour tout k P J1, pK, et λk 0 puisque les vecteurs vk sont
tous non nuls. cqfd
Corollaire 21.
Toute famille orthonormale est une famille libre.
Comment construire une famille orthonormale à partir d’une famille libre ? C’est l’objet du
procédé d’orthonormalisation de Gram-Schmidt .
Théorème 55.
Si pfk qk¥1 est une suite libre d’un espace préhilbertien réel ou complexe, il existe une
unique suite orthonormale puk qk¥1 telle que, pour tout entier p ¥ 1,
piq les espaces engendrés par les familles pf1 , . . . , fp q et pu1 , . . . , up q sont identiques ;
piiq xfp | up y ¡ 0.
. Cette méthode a été nommée en hommage à Jørgen Pedersen Gram et Erhard Schmidt, mais elle est plus
ancienne et est retrouvée dans des travaux de Laplace et Cauchy.
74 Cours d’algèbre - PC Collège Stanislas
¸
p
up 1 λfp 1 λ xuk | fp 1 y uk λvp 1
k 1
où vp 1 fp 1 °pk1 xuk | fp 1 y uk . D’autre part,
¸
p
0 xfp 1 | up 1 y xvp 1 xuk | fp 1 y uk | up 1 y xvp 1 | up 1 y λkvp 1k
2
k 1
Ainsi le scalaire λ est ¡ 0, λ kvp1 1 k puisque up 1 est unitaire, et le vecteur up 1 est unique.
Reste à°montrer, et c’est la synthèse, que ce vecteur convient. En effet, le vecteur vp 1
fp 1 k1 xuk | fp 1 y uk n’est pas nul, puisque la famille pu1 , . . . , up , fp 1 q est libre, et est
p
u1 kf1 k f1
1
¸
kv 1
p
@p ¥ 1, vp 1 fp 1 xuk | fp 1 y uk et up 1 vp 1
k 1 p 1k
ou bien à l’aide de celui-ci, qui permet, en général, des calculs plus simples :
v1 f1 et @p ¥ 1, vp fp 1
¸
p
xvk | fp 1 y v
1
kvk k2
k
1
loooooooooooooooomoooooooooooooooon
k
orthoprojeté de fp 1 p
sur Vect v1 ,...,vp q
piiq orthonormalisation de la suite pvk qk :
@k ¥ 1, uk kv1 k vk
k
Tout sous-espace vectoriel de dimension finie d’un espace préhilbertien réel ou complexe,
admet une base orthonormale.
Corollaire 22.
Dans un espace vectoriel de dimension finie rapporté à une base orthonormale pu1 , . . . , up q, les
expressions des coordonnées d’un vecteur, de sa norme, du produit scalaire et de la distance de
deux vecteurs, sont particulièrement simples :
Exemple 6.12. Existe-t-il, sur Rn rX s, un produit scalaire tel que la base canonique de Rn rX s
soit orthonormée ? Si oui, y a-t-il unicité ?
3 Projection orthogonale
E désigne encore et toujours un espace préhilbertien réel ou complexe muni d’un produit scalaire
noté x | y ; le corps des scalaires est noté K.
L’orthogonal d’une partie non vide A de E est l’ensemble des vecteurs de E qui sont ortho-
gonaux à tous les vecteurs de A : on le note AK .
AK tx P E | @a P A, xa | xy 0u
76 Cours d’algèbre - PC Collège Stanislas
F G ùñ GK FK
Remarque. En pratique, la propriété E K t0u est souvent utilisée pour montrer qu’un vecteur
est nul ; en effet, d’après cette propriété, pour montrer qu’un vecteur est nul, il suffit de prouver
qu’il est orthogonal à tous les vecteurs de l’espace.
Preuve.
piq Pour tout x de E, xx | 0y 0, soit xK0. Ainsi E t0uK et E t0uK .
Si x est orthogonal à E, x est, en particulier, orthogonal à lui-même ; x est donc nul. Ainsi
E K t0u et E K t0u.
piiq Si a n’est pas nul, tauK tx | xa | xy 0u Kertx ÞÑ xa | xy u est le noyau d’une forme
linéaire non nulle ; c’est donc un hyperplan.
piiiq AK est l’intersection de tous les hyperplans tauK où a décrit A, c’est donc un sous-espace
vectoriel.
pivq x P F X F K ùñ xx | xy 0 ùñ x 0
pvq Les éléments de F sont des combinaisons linéaires des vecteurs fk , et
¸
p ¸
p
x P FK ðñ @pλ1 , . . . , λp q P Kp , 0 xx | λ k fk y λk xx | fk y
k 1
k 1
ðñ @k P J1, pK , xx | fk y 0
pviq laissé en exercice.
cqfd
Deux sous-espaces vectoriels F et G sont orthogonaux si tous les vecteurs de F sont or-
thogonaux à tous les vecteurs de G, i.e. si F GK ou bien si tous les vecteurs de G sont
orthogonaux à tous les vecteurs de F , i.e. G F K .
¸
p
@j P J1, pK , xuj | zy xuj | x yy xuj | x xuk | xy uk y
k 1
¸
p
xuj | xy xuk | xy xuj | uk y
k 1
¸p
xuj | xy xuk | xy δk,j
k 1
xuj | xy xuj | xy 0
Donc z P F K
On a prouvé @x P E, Dpy, zq P F F K , x y z
Autrement dit, E F F K . Donc E F F K .
Or F KF K ùñ F ` F K . Donc E F ` F K . cqfd
Théorème 59.
K
Preuve. Montrons la double inclusion entre F et F K .
K
Soit x P F . Montrons x P FK .
78 Cours d’algèbre - PC Collège Stanislas
Définition 54.
Définition 55.
Soit F un sev de dimension finie de E.
piq On appelle projecteur orthogonal sur F la projection sur F parallèlement à F K .
piiq On appelle symétrie orthogonale par rapport à F la symétrie par rapport à F parallè-
lement à F K .
pD : x P E ÞÑ xkak
a | xy
2
a
pH IE pD : x P E ÞÑ x xkak
a | xy
2
a
La réflexion (ou symétrie orthogonale) rH par rapport à l’hyperplan H, est donnée par
Ce nombre existe puisqu’il est la borne inférieure d’une partie non vide de r0, 8r ; il est
appelé distance de x à F .
x
x
y
pF pxq
pF pxq
y
Preuve.
piq Considérons un vecteur y de F distinct de pF pxq ; x pF pxq est orthogonal à F , donc en
particulier à y pF pxq et le théorème de Pythagore donne
Preuve. kpF pxqk2 kxk2 d2 px, F q ¤ kxk2 et la linéarité de pF donne le résultat. cqfd
Remarque. Les propriétés de ce paragraphe se généralisent à un sous-espace vectoriel F qui admet
un supplémentaire orthogonal dans E.
Espaces préhilbertiens 81
Exemple 6.18 (Approximation polynomiale du sinus sur rπ, π s). Déterminer, en s’aidant d’un
logiciel de calcul formel, le polynôme qui réalise le minimum suivant
"» π *
α5 inf |sin x pq 2
P x | dx P P R 5 rX s
π
¸
p
| xuk | xy |2 ¤ kxk2
k 1
8
¸
xuk | xy k P `2N pCq et | xuk | xy |2 ¤ kxk2
k 0
ņ 2 ņ
piq Sn pf q
2
ck pf qek |ck pf q|2 relation de Pythagore ;
k n kn
piiq f Sn pf q 2 f
2
Sn pf q
2
relation de Pythagore ;
»π
2π1
ņ
piiiq Sn pf q
2
|ck |2 ¤ f
2
|f |2 inégalité de Bessel.
k n π
Le théorème d’approximation de Weierstrass trigonométrique permet de montrer que pSn pf qqn
tend vers f pour la norme de la convergence en moyenne quadratique (cf. le chapitre d’analyse
sur les séries de Fourier) ; autrement dit, la suite p f Sn pf q qn tend vers 0, soit
2
f Sn pf q 2 f
2
Sn pf q
2
ÝÑ
n
0
Dans tout ce chapitre, E désigne un espace euclidien , autrement dit, un R-espace vectoriel de
dimension finie n, muni d’un produit scalaire (réel) qui est noté x | y .
ce qui donne
ņ ņ ņ ņ ¸
xx | yy x xi ei | yj ej y xi yj xei | ej y gi,j xi yj
i 1
j 1
i 1j 1 i,j
où X MatB pxq (resp. Y MatB pyq) est la matrice-colonne des composantes de x (resp. y)
relativement à B.
G1 tP GP
1.1.4 Cas d’une base orthonormale
Si U pu1 , . . . , un q est une base orthonormale de E, alors xui | uj y δi,j et la matrice du
produit scalaire relativement à la base orthonormale U est la matrice unité In .
Si V pv1 , . . . , vn q est une base orthogonale de E, alors xvi | vj y δi,j kvi k2 ; la matrice du pro-
duit scalaire relativement à la base orthogonale V est la matrice diagonale Diagpkv1 k2 , . . . , kvn k2 q.
. Rappelons qu’un C-espace vectoriel de dimension finie et muni d’un produit scalaire (complexe), est appelé
espace hermitien ; ce chapitre ne s’applique pas tel quel aux espaces hermitiens.
Espaces euclidiens 85
Preuve.
Pour tout x P E, Φpxq xx | y : y ÞÑ xx | yy est une application linéaire de E vers R, i.e. une
forme linéaire sur E, i.e. un élément de E .
Donc Φ est une application de E dans E . Montrons qu’elle est linéaire c.-à-d. que pour tout
x1 et x2 dans E, pour tout λ1 et λ2 dans R, on a l’égalité des applications xλ1 x1 λ2 x2 | y et
λ1 xx1 | y λ2 xx2 | y .
@y P E, Φpλ1 x1 λ2 x2 q pyq xλ1 x1 λx2 | yy
λ1 xx1 | yy λ2 xx2 | yy
λ1 Φpx1 q λ2 Φpx2 q pyq
D’où la linéarité.
Montrons que Φ est injective
z P Ker Φ ðñ xz | y 0E ðñ @y P E, xz | yy 0, ðñ z P E K ðñ z 0
L’application linéaire Φ est donc injective.
De plus dim E dim LpE, Rq dim E dim R dim E, autrement dit E et E sont deux
espaces vectoriels de même dimension finie ; l’application linéaire injective Φ est donc un isomor-
phisme de E sur E . cqfd
@y P E, ϕpyq xa | yy
Exemple 7.1.
À toute forme linéaire ϕ sur Mn pRq correspond une une unique matrice A P Mn pRq qui « repré-
sente » ϕ pour le produit scalaire naturel (canonique) de Mn pRq, soit
@z P E, xx ^ y | zy rx, y, zs detpx, y, zq
À l’aide de cette définition, on retrouve les propriétés habituelles du produit vectoriel. Pouvez-
vous les démontrer ?
Espaces euclidiens 87
a) Soit Ψ une forme bilinéaire sur E. Montrer qu’il existe un unique endomorphisme u de E
tel que
@px, yq P E, Ψpx, yq xupxq | yy
Cet u est appelé endomorphisme naturel (canonique) associé à la forme bilinéaire Ψ.
b) Soit u un endomorphisme de E. Montrer qu’il existe un unique endomorphisme de E noté
u tel que
@px, yq P E 2 , xu pxq | yy xx | upyqy
L’endomorphisme u est appelé l’adjoint de u.
c) Soit B est une base orthonormale de E. Montrer que
3 Endomorphismes symétriques
3.1 Généralités
Exemple 7.3. Soit E un espace euclidien.
Une application f : E ÝÑ E est dite symétrique (resp. antisymétrique) lorsque
Soit u un endomorphisme d’un espace euclidien E. On dit que u est autoadjoint ou symétrique
lorsque
@px, yq P E 2 , xupxq | yy xx | upyqy
On dit que u est antisymétrique lorsque
u P SpE q ðñ t
AA ðñ A P Sn pRq
MatB pf q A pai,j q1¤i¤n avec @pi, j q P J1, nK2 , ai,j xei | f pej qy
1¤j ¤n
On a alors
Proposition 34.
Si B est une base orthonormale d’un espace euclidien E, l’application u ÞÑ MatB puq induit un
isomorphisme du R-espace vectoriel SpE q des endomorphismes symétriques (autoadjoints),
sur le R-espace vectoriel Sn pRq des matrices symétriques réelles d’ordre n, et
npn 1q
dim SpE q dim Sn pRq
2
u P ApE q ðñ t
A A ðñ A P An pRq
Preuve. Même démonstration que dans le cas des endomorphismes symétriques. cqfd
Espaces euclidiens 89
Proposition 35.
Si B est une base orthonormale d’un espace euclidien E, l’application u ÞÑ MatB puq induit
un isomorphisme du R-espace vectoriel ApE q des endomorphismes antisymétriques, sur le
R-espace vectoriel An pRq des matrices antisymétriques réelles d’ordre n, et
npn 1q
dim ApE q dim An pRq
2
Exemple 7.4. Montrer que les endomorphismes antisymétriques de R3 sont les endomorphismes
de la forme x ÞÝÑ a ^ x où a P R3 .
La propriété suivante est très utile en pratique pour déterminer la matrice d’une projection
orthogonale.
nombre réel ou plutôt une matrice de taille 1 1 qui commute avec toute matrice. Ainsi
ŗ
ŗ
ŗ
PX Uj tUj X Uj tUj X Uj tUj X
j 1
j 1
j 1
cqfd
Exemple 7.5. Soit E R3 muni de sa structure euclidienne canonique. Déterminer les matrices
dans la base canonique des projections suivantes :
90 Cours d’algèbre - PC Collège Stanislas
xx | yy xx | ppyqy xlopomo
pxoqn | yy 0
0E
cqfd
Soit F un sous-espace vectoriel d’un espace euclidien, sF la symétrie orthogonale par rapport
à F et pF le projecteur orthogonal d’image F ; alors :
sF IdE 2pF
Cas d’une droite D Ra : sD 2pD IdE : x ÞÑ 2 xkak
a | xy
2
ax
sD pxq pD pxq x
H pH pxq
pD pxq
sH pxq
Preuve. Toute symétrie, i.e. tout endomorphisme s de E vérifiant s s IdE , est la symétrie
par rapport à F Kerps IdE q (sev des vecteurs invariants) parallèlement à G Kerps IdE q
(sev des vecteurs anti-invariants).
ùñ Supposons F KG. Montrons s symétrique. Soit px, yq P E 2 .
On écrit x xF xG avec pxF , xG q P F G et y yF yG avec pyF , yG q P F G. Alors
xG x
F
xF
xG
spxq
G
92 Cours d’algèbre - PC Collège Stanislas
@x P E, xupxq | xy ¥ 0
L’endomorphisme u est dit défini positif lorsque
@x P E zt0u, xupxq | xy ¡ 0
Preuve. Le noyau d’un endomorphisme u symétrique défini positif est réduit à t0u ; en effet
x 0 ùñ xupxq | xy ¡ 0, donc upxq 0. En dimension finie, ceci montre que u est application
linéaire inversible, i.e. un automorphisme. cqfd
@ X P Rn , t
XAX ¥0
La matrice A est dite définie positive lorsque
@X P Rn zt0u, t
XAX ¡0
Preuve. Remarquons que xuA pX q | X y tpXAqX tXAX, puisque A est symétrique. cqfd
Espaces euclidiens 93
cqfd
Exemple 7.7. Soit A P Mn,p pRq. Comparer rgpAq, rgpt A Aq et rgpA t Aq.
4 Automorphismes orthogonaux
E est soit un espace préhilbertien réel, soit un espace euclidien de dimension n ; son produit
scalaire est noté x | y .
4.1 Généralités
Le théorème qui suit est assez spectaculaire : il affirme que, dans un espace préhilbertien, une
application qui laisse le vecteur nul invariant et qui conserve les distances est nécessairement une
application linéaire, injective et qui conserve le produit scalaire (et donc aussi toutes les notions
qui en découlent : norme, orthogonalité, angles non orientés, aires, etc).
Théorème 71.
Soit E un espace préhilbertien et u une application de E de E.
On ne suppose pas que cette application est linéaire a priori.
On suppose que up0q 0 et que @px, yq P E 2 , kupxq upyqk kx yk
Alors u est une application linéaire, injective, qui conserve le produit scalaire.
Corollaire 24.
Soit E un espace euclidien et u une application de E de E.
On ne suppose pas que cette application est linéaire a priori.
On suppose que up0q 0 et que @px, yq P E 2 , kupxq upyqk kx yk
Alors u est une application linéaire, bijective, qui conserve le produit scalaire.
Preuve. Tout endomorphisme injectif dans un espace vectoriel de dimension finie est bijectif,
donc un automorphisme. cqfd
piq On dit que u est un endomorphisme orthogonal lorsque u conserve le produit scalaire.
piiq On dit que u est une isométrie lorsque u conserve la norme.
Si E est un espace préhilbertien réel et u une application de E vers E, les propriétés suivantes
sont équivalentes :
piq l’application u est linéaire et conserve la norme, i.e. @x P E, kupxqk kxk ;
piiq l’application u conserve le produit scalaire, i.e. @px, yq P E, xupxq | upyqy xx | yy .
Preuve.
i ùñ ii De l’identité 4 xu | vy ku vk2 ku vk2 , on tire que
4 xupxq | upyqy kupxq upyqk2 kupxq upyqk2
kupx yqk2 kupx yqk2 u est linéaire
kx yk2 kx yk2 u conserve la norme
4 xx | yy
ii ùñ i Si u conserve le produit scalaire, u conserve la norme : faire y x.
Pour montrer la linéarité de u, on procède comme dans la preuve du théorème 71.
cqfd
Notation. L’ensemble des automorphismes orthogonaux de E est noté OpE q.
L’ensemble des automorphismes orthogonaux de Rn (muni de son produit scalaire canonique)
est noté OpRn q On pRq.
Preuve.
cqfd
Théorème 73.
Sachant que la famille upBq pupe1 q, . . . , upen qq est supposée orthonormée, on a donc
ņ ņ ņ
kupxqk2 xx | ei y xx | ej y loooooooomoooooooon
xupei q | upej qy xx | ei y 2 kxk2
i 1j 1
δi,j
i 1
4.2 Exemples
4.2.1 Symétrie orthogonale
Lemme 8.
Soit s une symétrie d’un espace euclidien E.
Alors s est un automorphisme orthogonal si, et seulement si, s est endomorphisme symétrique.
96 Cours d’algèbre - PC Collège Stanislas
cqfd
Remarque. Un projecteur peut-il être un endomorphisme orthogonal ?
4.2.2 Réflexion
Lemme 9.
Si a et b sont deux vecteurs d’un espace préhilbertien E, alors a b et a b sont orthogonaux
si, et seulement si, a et b ont même longueur.
Les diagonales d’un parallélogramme sont orthogonales si, et seulement si, ce parallélogramme
est un losange.
Preuve. Si a et b sont non colinéaires, la quantité kak kbk xa | by est strictement positive et
xa b | ay xa b | by kak kbk xa | by kak kbk
cospa b, aq cospa b, bq ka
ka bk kak bk kbk ka bk kak kbk
Les anglespa b, aq et pa b, bq ont le même cosinus si, et seulement si, les vecteurs a et b sont
de même longueur. cqfd
Espaces euclidiens 97
Définition 63 (Réflexion).
Étant donnée deux vecteurs a et b de même norme, on appelle réflexion de a sur b, la symétrie
orthogonale par rapport à l’hyperplan médiateur de a et b, i.e. l’hyperplan orthogonal à
e a b.
Cette réflexion est notée sa,b et
sa,b : x P E ÞÑ x 2 xkek
e | xy
2
e avec e a b
Remarques.
Dans une base orthonormale adaptée à la décomposition E Re `teuK , la matrice de sa,b est
par blocs Diagp1, In1 q et donc det sa,b 1.
sa,b et sa,b sont deux réflexions qui envoient la droite Ra sur la droite Rb.
Exemple 7.9. Soit E un espace euclidien et u un vecteur unitaire de E. Soit α P R. Pour quelles
valeurs de α, fα défini par fα pxq x α xx | uy u est-il un automorphisme orthogonal de E ?
Pour ces valeurs, déterminer les éléments caractéristiques de fα .
piq OpE q, muni de la composition des applications, est un sous-groupe de GLpE q ; il est
appelé groupe orthogonal de E ;
piiq si u P OpE q, alors det u P t1, 1u ; la réciproque est fausse ;
piiiq SOpE q tu P OpE q | det u 1u est un sous-groupe de OpE q appelé groupe spécial
orthogonal de E, ou encore groupe des rotations vectorielles de E ; il est encore noté
O pE q ;
pivq O pE q OpE qzSOpE q tu P OpE q | det u 1u n’est pas un groupe.
Preuve.
piq OpE q GLpE q et IdE P OpE q ;
stabilité par : si u et v appartiennent à OpE q, alors @x P E, kv upxq k kupxqk kxk ;
stabilité de la prise d’inverse : si u P OpE q, ku1 pxqk ku u1 pxq k kxk et u1 P OpE q.
Ainsi, OpE q est un sous-groupe de GLpE q muni de la composition des applications.
piiq Soit B une base orthonormée de E et A MatB puq. Alors
u P OpE q ðñ t
A A In ùñ detpt A Aq det In ùñ det t A det A 1
ùñ pdet Aq2 1 ùñ det A 1
ùñ det u 1
Si A 11 01 , alors tAA 11 12 I2 , ce qui montre que la réciproque est fausse.
piiiq Si u P SOpE q, alors u1 P SOpE q puisque detpu1 q 1{ detpuq ; si u P SOpE q et v P SOpE q,
u v P SOpE q puisque detpu v q detpuq detpv q ; enfin IdE P SOpE q. Ainsi, SOpE q est un
sous-groupe de OpE q pour la composition des applications.
pivq O pE q ne peut être un groupe, car la composition des applications n’est pas stable. Si s est
une réflexion de E, u ÞÑ u s est une bijection de OpE q (c’est une involution) qui envoie O pE q
sur O pE q SOpE q.
cqfd
98 Cours d’algèbre - PC Collège Stanislas
Preuve.
piq Si λ est une valeur propre de u et x un vecteur propre associé, alors upxq λx et, puisque
u conserve la norme, kxk kupxqk |λ| kxk ; ainsi |λ| 1.
Si x P E1 puq et y P E1 puq alors, puisque u conserve le produit scalaire,
ce qui montre que upxq P F K , i.e. la stabilité de F K . u induit donc sur F K un automorphisme
orthogonal et upF K q F K .
cqfd
Exemple 7.10. Soit u est un automorphisme orthogonal d’un espace euclidien. Montrer
K K
Kerpu IdE q Impu IdE q et Kerpu IdE q Impu IdE q
5 Matrices orthogonales
5.1 Généralités
Une matrice A carrée d’ordre n à coefficients réels est dite orthogonale si tAA In .
L’ensemble des matrices orthogonales d’ordre n est notée Opnq.
Exemple 7.12. Les matrices de permutation Pi,j sont des matrices orthogonales.
Espaces euclidiens 99
Si E est un espace euclidien de dimension n et A P Mn pRq, alors les propriétés suivantes sont
équivalentes :
piq A P Opnq ;
piiq tAA In ;
piiiq A tA In ;
pivq A P GLn pRq et A1 tA ;
pvq A est la matrice relative à une base orthonormée d’un automorphisme orthogonal de E ;
pviq les colonnes de A forment une base orthonormée de Rn pour le produit scalaire cano-
nique ;
pviiq les lignes de A forment une base orthonormée de Rn pour le produit scalaire canonique ;
pviiiq A est la matrice de passage d’une base orthonormée de E à une base orthonormée de E.
Preuve.
L’égalité BA In implique det B det A 1 ; ainsi det A 0, A est inversible et A1 B. Cette
remarque montre l’équivalence de (ii) et de (iii) avec (iv).
ii ðñ v Déjà vu lors de la caractérisation des automorphismes orthogonaux.
ii ðñ vi Notons pC1 , . . . , Cn q les colonnes de A et remarquons que In i,j δi,j . Alors
AA
t t
Ci Cj ¤¤
1 i n xCi | Cj y ¤¤
1 i n
¤¤
1 j n ¤¤
1 j n
A A In
t
ðñ @pi, j q P J1, nK2 , xCi | Cj y δi,j
iii ðñ vii Notons pL1 , . . . , Ln q les lignes de A. Ainsi
t
A A Li tLj ¤¤
1 i n xLi | Lj y ¤¤
1 i n
¤¤
1 j n ¤¤
1 j n
piq Opnq, muni de la multiplication des matrices, est un sous-groupe de GLn pRq ; il est
appelé groupe orthogonal d’ordre n ;
piiq si A P Opnq, alors det A P t1, 1u ; la réciproque est fausse ;
piiiq SOpnq tA P Opnq | det A 1u est un sous-groupe de Opnq appelé groupe spécial
orthogonal d’ordre n, ou encore groupe des rotations vectorielles d’ordre n ; il est encore
noté O pnq ;
pivq O pnq OpnqzSOpnq tA P Opnq | det u 1u n’est pas un groupe.
100 Cours d’algèbre - PC Collège Stanislas
Preuve.
C’est la traduction matricielle du théorème correspondant des propriétés du groupe orthogonal
OpE q, où E est un espace euclidien de dimension n rapporté à une base orthonormale. Néanmoins,
on en redonne une preuve directe.
piq Opnq GLn pRq et In P Opnq ;
stabilité par : si A et B appartiennent à Opnq, alors tpAB qAB tB tA AB tBIn B In ;
stabilité de la prise d’inverse : si A P Opnq, alors In p tA Aq1 A1 p tAq1 et A1 P Opnq.
Ainsi Opnq est un sous-groupe de GLn pRq muni du produit des matrices.
piiq tA A In ùñ 1 det In detp tA Aq det tA detA pdet Aq2 ùñ det A P t1, 1u.
piiiq A ÞÑ det A est un morphisme du groupe Opnq, sur le groupe t1, 1u, ; le noyau
SOpnq de ce morphisme est un sous-groupe de Opnq ;
pivq O pnq ne peut être un groupe car la multiplication n’est pas stable : le produit de deux
matrices orthogonales de déterminant 1 est une matrice orthogonale de déterminant 1. Si
S Diagp1, In1 q (matrice diagonale par blocs), A ÞÑ SA est une bijection de Opnq (c’est une
involution) qui envoie O pnq sur O pnq SOpnq.
cqfd
piq Toute propriété vraie pour les automorphismes orthogonaux, est encore vraie pour les
matrices orthogonales ; en particulier, le spectre d’une matrice orthogonale est inclus
dans t1, 1u ;
piiq si A P Opnq X Sn pRq, alors A est la matrice d’une symétrie orthogonale relativement à
une base orthonormale ;
piiiq si n est impair et A P SOpnq O pnq, alors 1 est valeur propre de A ; donc t1u
sp A t 1; 1u
pivq si A P O pnq, alors 1 est valeur propre de A ; donc t1u sp A t 1; 1u
Preuve.
piq Toute matrice orthogonale est la matrice d’un automorphisme orthogonal relativement à une
base orthonormale. Toute les propriétés vraies pour les automorphismes orthogonaux, sont donc
vraies pour les matrices orthogonales ; en particulier le spectre d’une matrice orthogonale est
inclus dans t1, 1u.
Voici une démonstration directe de cette propriété. Si λ est une valeur propre de A et X un
vecteur propre associé, AX λX et
λ2 kXk2 kAXk2 tpAX qAX tX tAAX tXX kXk2
et λ2 1.
piiq Soit u l’endomorphisme de E représenté par la matrice A dans une base orthonormale B ;
alors
" "t "
A P Opnq A A In A2 In
A P Sn pRq
ðñ ðñ
t
AA t
AA
"
u est une symétrie
ðñ u est une endomorphisme symétrique
ðñ u est une symétrie orthogonale
piiiq Montrer que 1 est valeur propre de A, c’est montrer la nullité de detpA In q. Puisque
A P SOpnq, det A 1 et A In A tA A ApIn tAq. Ainsi,
detpA In q det A detpIn tAq 1 detpIn Aq detpIn Aq p1qn detpA In q
t
Théorème 80.
" * " *
SOp2q O p2q cos ϑ sin ϑ
PR et O p2q
cos ϑ sin ϑ
cos ϑ ϑ P R
ϑ
sin ϑ cos ϑ sin ϑ
On en déduit aussitôt le
Les automorphismes orthogonaux directs du plan sont les rotations et les automorphismes
orthogonaux indirects sont les réflexions.
Définition 65.
• On dit qu’une droite vectorielle est orientée lorsqu’on se fixe un vecteur directeur de
cette droite (qui indique le sens positif).
• On dit qu’un plan vectoriel est orientée lorsqu’on se fixe un vecteur normal de ce plan.
Définition 66 (Rotation de R3 ).
Ainsi
• Premier cas sp f t 1u
Alors fP ne peut être une réflexion du plan P, sinon 1 serait valeur propre de f .
Donc fP est une rotation du plan P ; on note ϑ l’angle de cette rotation.
L’endomorphisme f est alors la rotation d’axe dirigé et orienté par a et d’angle ϑ.
• Deuxième cas t1u sp f t1; 1u
– Si fP est une rotation du plan P, on note ϑ l’angle de cette rotation.
Alors f est la composée commutative de la rotation d’angle ϑ autour de la droite D
orientée par a et de la réflexion par rapport au plan P ; autrement dit, f est l’anti-
rotation d’axe D dirigé et orienté par a et d’angle ϑ.
Si on complète a en une base B orthonormée directe de R3 , on a
1 0 0
1 0 0 10 cos0 ϑ sin
0
1 0 0
1
MatB pf q loooomoooon ϑ
00
0 cos ϑ sin ϑ 0 10
0 cos ϑ sin ϑ 0 10
0 sin ϑ cos ϑ 0 0 1 loooooooomoooooooon
0 sin ϑ cos ϑ 0 sin ϑ cos ϑ 0 01
sP rpRa,ϑq
x
pD pxq rpxq
ϑ
pP pxq
P
r sP pxq
sP pxq
cqfd
104 Cours d’algèbre - PC Collège Stanislas
Exemple 7.15. a) Montrer que toute rotation peut s’écrire comme composée de deux ré-
flexions par rapport à deux plans sécants suivant l’axe de la rotation, l’angle formé par ces
deux plans étant la moitié de l’angle de la rotation ; de plus, l’un de ces deux plans peut
être choisi arbitrairement.
b) En déduire que toute isométrie de R3 est décomposable en produit d’au plus trois réflexions.
Preuve.
piq Soit B une base orthonormale de E et A MatB puq la matrice de u relative à B. Puisque
u est symétrique, A est une matrice symétrique réelle et χA χu .
χA est un polynôme à coefficients réels, donc scindé sur C ; si λ P spC pAq est une valeur propre
complexe de A et X P Cn un vecteur propre associé, λ P spC pAq est une valeur propre complexe
de A et X P Cn un vecteur propre associé, car
AX λX ùñ AX λX λ X
A X AX
Ainsi
t
tX pAX q tX pλX q λtXX λkXk2
XAX
ptXAqX tp tAX qX tpAX qX tpλ X qX λtXX λkXk2
et, puisque X 0, kXk ¡ 0 et λ λ. Ceci montre que toutes les valeurs propres complexes de
A, donc de u, sont en fait réelles et χA χu est un polynôme scindé sur R.
piiq Si λ et µ sont deux valeurs propres distinctes de u, et x et y deux vecteurs propres associés,
alors
x | p qy xx | µyy µ xx | yy
x uy
looooomooooon
xupxq | yy xλx | yy λ xx | yy
Puisque λ µ, xx | yy 0 et donc :
λ µ ùñ @px, yq P Kerpu λIdE q Kerpu µIdE q, xKy
et les sous-espaces vectoriels propres Kerpu λIdE q et Kerpu µIdE q sont orthogonaux.
cqfd
Lemme 10.
Soit u un endomorphisme symétrique de E et F un sous-espace vectoriel de E.
Si F est stable par u, alors F K est stable par u.
Étude d’un endomorphisme orthogonal f de R3 euclidien canonique, donné par sa matrice A P Op3q dans la base canonique.
t t
Si A A alors f est une symétrie orthogonale Si A A alors f est soit une rotation d’angle ϑ 0 rπ s
soit une anti-rotation, d’angle ϑ 0 rπ s
ãÑ tr A P t3, 1, 1, 3u ã
Ñ det A P t1, 1u
Si tr A 3 Si tr A 1 Si tr A 1 Si tr A 3 Si det A 1 Si det A 1
alors f IdR 3 alors f est une réflexion alors f est un demi-tour alors f IdR 3 alors f est une rotation alors f est une anti-rotation
(la symétrie centrale)
tr A 1 2 cos ϑ tr A 1 2 cos ϑ
On complète a en une b.o.n. directe B1 pa, b, a ^ bq de R3 . Dans une telle base, f est représentée par
1 0 0 1 0 0 1 0 0 1 0 0 1 0 0 1 0 0
0 1 0 0 1 0 0 1 0 0 1 0 0 cos ϑ sin ϑ 0 cos ϑ sin ϑ
0 0 1 0 0 1 0 0 1 0 0 1 0 sin ϑ cos ϑ 0 sin ϑ cos ϑ
Théorème 84 (spectral).
Tout endomorphisme symétrique u d’un espace euclidien E est diagonalisable ; plus précisé-
ment, E admet une base orthonormale constituée de vecteurs propres de u.
• Initialisation : n 1. Dans ce cas E est une droite vectorielle et u est une homothétie ; si
1
a est un vecteur non nul de E, kak a est une base orthonormale qui convient.
• Hérédité : n ùñ n 1. Supposons l’existence d’une base orthonormale constituée de
vecteurs propres pour tout endomorphisme symétrique d’un espace euclidien de dimension
n. Soit E un espace euclidien de dimension n 1 et u un endomorphisme symétrique de
E. Puisque χu est scindé sur R, prenons λ une valeur propre (réelle) de u et a un vecteur
propre (non nul) associé. La droite D Ra est stable par u, donc d’après le lemme pré-
cédent, l’hyperplan H DK est stable par u. Ainsi, u induit sur H un endomorphisme
symétrique et, puisque H est un R-espace vectoriel de dimension n, l’hypothèse de récur-
rence montre l’existence d’une base orthonormale de H constituée de vecteurs propres de
1
u. En complétant cette base par kak a, on obtient le résultat.
cqfd
Toute matrice symétrique réelle A est diagonalisable (sur R) ; plus précisément, il existe une
matrice orthogonale P P Opnq et une matrice diagonale D telles que :
P 1 AP tP AP D Diagpλ1 , . . . , λn q
Les colonnes de P constituent une base orthonormale de vecteurs propres de A et λj est la
valeur propre associé à la j e colonne.
Exemple 7.17. La matrice A
322
232 est-elle diagonalisable ? Si oui, la diagonaliser.
223
6.3 Applications
et
ņ ņ ¸ ņ
xupxq | xy x xj λj ej | xk e k y λj xj xk xej | ek y λj x2j
j 1
k 1 j,k
j 1
On obtient donc
ņ
@x P E, 0 ¤ xupxq | xy λj x2j ðñ @j P J1, nK , λj ¥ 0 ðñ sp u R
j 1
ņ
@x P E zt0u, 0 xupxq | xy λj x2j ðñ @j P J1, nK , λj ¡ 0 ðñ sp u R
j 1
cqfd
Dans ce chapitre, P désigne le plan euclidien rapporté à un repère orthonormé direct R pO; i, jq ;
et E désigne l’espace euclidien rapporté à un repère orthonormé direct R pO; i, j, kq.
On note B pi, j, kq la base correspondante.
1 Définitions
Définition 67.
piq On appelle conique du plan P, un ensemble de points M px, y q vérifiant une équation
du type
partie quadratique
hkkkkkkkkkkkkkkkkikkkkkkkkkkkkkkkkj partie affine
hkkkkkkkkikkkkkkkkj
f pM q ax 2
a1 y 2 2bxy
loomoon 2cx 2c1 y
loooomoooon d0
terme rectangle partie linéaire
Dans tout ce qui suit, nous nous énoncerons les résultats dans le cas des quadriques, mais il va
sans dire que tous les énoncés se transposent au cas des coniques en supprimant une composante.
t
a1 y 2 a2 z 2 2bxy 2b1 yz 2b2 zx 2cx 2c1 y 2c2 z d
2 X A C X
ax
1 t
C d 1
loooooomoooooon
Ω
a b b2 c
avec A b a1 b1 P S3 pRq et C c1
b2 b1 a2 c2
X X1 U où X rM sR ; X1 rM sR1 ; U rusB
110 Cours d’algèbre - PC Collège Stanislas
autrement dit,
X1
X
1
0I3 U1 1
1,3
looooooomooooooon
P
On en conclut que, dans le nouveau repère R1 , la partie linéaire est nulle si, et seulement si,
AU C 03,1 si, et seulement si, AU C.
Proposition 47.
U A1 C
Le point O1 est alors appelé le centre de la quadrique.
Cette quadrique possède-t-elle un centre ? Si oui, effectuer une translation du repère pour annuler
la partie linéaire dans son équation.
3.1 Effet d’un changement de repère orthonormé sur l’équation d’une qua-
drique
On effectue donc un changement de base orthonormée ; on note B1 pi1 , j1 , k1 q la nouvelle base
et R1 pO; B1 q le nouveau repère. Alors les formules de changement de repère s’écrivent
autrement dit,
X1
X
1
0R 03,1 1 1
1,3
loooooooomoooooooon
P
On en conclut que si on prend pour B1 une base orthonormée de vecteurs propres de A, les termes
rectangles auront été annulés dans l’équation de la quadrique dans le nouveau repère R1 .
Remarque. On appelle axes principaux de la quadrique les droites (propres) engendrées par les
colonnes de R (qui sont des vecteurs propres de a).
Exemple 8.2. Achever la réduction de la quadrique Q de l’exemple 8.1, d’équation
2 px y q py z q 3 x 0
4 Quadriques usuelles
Pour effectuer une classification détaillée des quadriques, il faut s’intéresser aux quatre invariants
suivants
card sppΩq X R , card sppΩq X R , card sppAq X R , card sppAq X R
Remarque. Pour se faire une idée de la forme d’une quadrique à partir de son équation réduite,
on effectue des sections planes de la quadrique par des plans d’équations x α, y α et
z α.
Remarque.
• Si l’équation réduite est de la forme g px2 y 2 , z q 0, alors la quadrique est une surface
de révolution d’axe pOz q.
• Si l’équation réduite vérifie g px, y, z q g px, y, z q, alors la quadrique admet O comme
centre de symétrie.
• Si l’équation réduite vérifie g px, y, z q g px, y, z q, alors la quadrique admet pOz q comme
axe de symétrie.
• Si l’équation réduite vérifie g px, y, z q g px, y, z q, alors la quadrique admet pyOz q comme
plan de symétrie.
L’ellipsoïde
0
x2 y2 z2
2
a2 b2 c2
1
4
0
0.5
1
0.0
2
0.5
Coniques et quadriques 113
30
20
10 L’hyperboloïde à une nappe
0
x2 y2 2
10
20 a2 b2
zc2 1
30
30
20
10
30 0
20 10
10
0 20
10
20 30
30
30
20
10 L’hyperboloïde à deux nappes
0
x2 y2 2
10
a2 b2
zc2 1
20
30
30
20
10
30 20 0
10 10
0 10 20
20 30 30
15
10
5 Le cône de base elliptique
0
x2 y2 2
5
10 a2 b2
zc2 0
15
15
10
5
15 0
10 5 5
0 5 10
10 15 15
a) Les paraboloïdes, dont l’équation réduite ne contient pas de terme en z 2 , mais un terme en
z (si Oz désigne l’axe principal associé à la valeur propre 0).
114 Cours d’algèbre - PC Collège Stanislas
35
30
25
20 Le paraboloïde elliptique
15
x2 y2
10
a2 b2
zc 0
5
15
10
5
0
5
15 10 10
5 0 15
5 10 15
20
10
Le paraboloïde hyperbolique
0
x2 2
a2
yb2 zc 0
10
20
4
4 2
2 0
0 2
2 4
4
b) Les cylindres, dont l’équation réduite ne contient pas de terme en z 2 , ni de terme en z (si
Oz désigne l’axe principal associé à la valeur propre 0).
20
10
Le cylindre elliptique
0
x2 y2
10
a2 b2
1
20
5
5
0 0
5 5
Coniques et quadriques 115
15
10
5
0
Le cylindre hyperbolique
5
10
x2 2
15
a2
yb2 1
30
20
10
0
10
30
20 20
10
0
10 30
20
30
15
10
5 Le cylindre parabolique
0
5 x2 2py 0
10
15
15
5 10
10 5
15 0
20 5
25 10
30
35 15
y1
!
Remarque. En faisant pivoter la droite ∆10 d’équation autour de pOz q, on obtient la
x αz
même quadrique.
Une surface réglée est une surface qui est réunion de droites, appelées ses génératrices. On lui
associe son cône directeur, réunion des droites passant par un point donné et parallèles aux
génératrices.
• les cylindres ;
• les cônes ;
• le paraboloïde hyperbolique ;
• l’hyperboloïde à une nappe.
Notons que le paraboloïde hyperbolique et l’hyperboloïde à une nappe sont des surfaces double-
ment réglées (c.-à-d. qui sont réunion de deux familles de droites distinctes).
15
10
5
0
5
10
15
20
10
0
10 10 20
20 10 0
20
10
10
2 2 4
1 0 2 0
1 2 4
Coniques et quadriques 117
x2 y2 x2 2
Équation réduite
a2 b2
1 yb2 1
a2
y2 2px
0 b a a ¡ 0 et b ¡ 0 p¡0
? ?
Expression de c c a2 b2 c a2 b2
e e e1
c c
Excentricité
a a
Paramètre p e dpF, ∆q
a2 a2
x x x
p
Directrice(s)
c c 2
Sommet(s) Apa, 0q et A1 pa, 0q Apa, 0q et A1 pa, 0q O (origine du repère)
Asymptotes
x
a
yb 0
Définition bifocale MF MF 1 2a |M F M F 1 | 2a
Tangentes en M0 px0 , y0 q 1 yyb20 1 pp x x0 q
xx0 yy0 xx0
yy0
a2 b2 a2
" " "
x a cos t x εa cosh t x t2 {p2pq
y b sin t y b sinh t yt
Paramétrisation usuelle
avec ε 1
y
Parabole
x2 2py
F p
b b
K
p {2
O b
x
p {2
∆ H b
118 Cours d’algèbre - PC Collège Stanislas
y
∆1 ∆
B a
Hyperbole b b b
?
x2 y2 c a2 b2
a 2
b2
1 b c
F 1 A1 K1 K A F x
b b b b b b b
Apa,0q
O hpO, a q
c
F pc,0q
K pa2 {c,0q
B p0,bq
b b b
B1
y
∆1 Ellipse ? ∆
x2 y2 c a2 b 2
a 2 b2
1
b
B b b
a
b
K1 A1 F1 c F A K
b b b b b b b
O hpO, a q x
c
b b b
B1
Apa,0q
F pc,0q
K pa2 {c,0q
B p0,bq
Index
A d’un endomorphisme, 29
affinité vectorielle, 14 d’une matrice carrée, 30
K-algèbre, 2 d’une matrice triangulaire, 30
morphisme de —s, 2 d’une matrice triangulaire par blocs, 35
sous-algèbre, 2 d’une transposée, 33
algorithme développement suivant une rangée, 36
de Gram-Schmidt, 74 de n vecteurs, 26
anneau, 1 déterminant d’une matrice élémentaire, 32
morphisme d’—x, 2 diagonalisable
sous-anneau, 1 endomorphisme —, 58
anti-rotation, 102 matrice —, 61
application distance, 68
bilinéaire, 23 à un s.e.v., 80
induite sur un sev stable, 41 à un s.e.v. de dimension finie, 80
linéaire, 5 droite de régression linéaire, 81
p-linéaire, 24
p-linéaire alternée, 25 E
p-linéaire anti-symétrique, 25 élément
p-linéaire symétrique, 25 idempotent, 3
automorphisme inversible, 3
orthogonal, 94 nilpotent, 3
ellipsoïde, 112
B elliptique
cône de base — , 113
base
orthogonale, 71 cylindre —, 114
orthonormée, 71 paraboloïde —, 113
orthonormale, 71 endomorphisme
Bessel adjoint d’un —, 87
antisymétrique, 87
inégalité de —, 81
autoadjoint, 87
déterminant d’un —, 29
C diagonalisable, 58
Cauchy-Schwarz-Bunyakovski orthogonal, 94
inégalité de —, 69 puissance d’un —, 49
Cayley-Hamilton symétrique, 87
théorème de —, 57 symétrique défini positif, 92
Chebychev symétrique positif, 92
polynômes de —, 72 trace d’un —, 21
comatrice, 37 trigonalisable, 62
formule de la —, 37 espace
cône de base elliptique, 113 euclidien, 65
conique hermitien, 66
axes principaux d’une —, 111 préhilbertien complexe, 66
centre d’une —, 110 préhilbertien réel, 65
définition, 109 espace vectoriel, 2
formulaire, 117 dual, 17
corps, 2 orientation d’un —, 28
Cramer sous-espace vectoriel, 2
formules de —, 38
système de —, 38
cylindre
F
famille
elliptique, 114 orthogonale, 71
hyperbolique, 114 orthonormée, 71
parabolique, 115 orthonormale, 71
forme linéaire, 17
D formule
déterminant de Grassmann, 6, 16
120 Cours d’algèbre - PC Collège Stanislas
K P
parabolique
Kronecker
cylindre —, 115
symbole de —, 19
paraboloïde
elliptique, 113
L hyperbolique, 114, 115
Laguerre polynôme
polynômes de —, 72 —s d’Hermite, 72
Legendre —s d’interpolation de Lagrange, 16
polynômes de —, 71 —s de Chebychev, 72
—s de Laguerre, 72
M —s de Legendre, 71
méthode annulateur, 4, 51
des moindres carrés, 81 caractéristique d’un endomorphisme, 55
matrice caractéristique d’une matrice carrée, 54
—s semblables, 20, 48 d’endomorphisme, 49
élémentaire, 31 d’une matrice, 50
adjointe, 67 minimal d’un endomorphisme, 52
cofacteur d’une —, 36 produit scalaire
déterminant d’une — carrée, 30 expression matricielle du —, 84
de Vandermonde, 16 sur un C-e.v., 66
INDEX 121
sur un R-e.v., 65 T
produit vectoriel, 86 théorème
projecteur, 13 d’isomorphisme de E sur son dual, 86
orthogonal, 78, 89 de projection orthogonale, 78
trace d’un —, 21 de Pythagore, 69
projection de représentation d’une forme linéaire, 86
orthogonale, 78, 89 du noyau et de l’image, 14
Pythagore du rang, 6, 15
relation de —, 72 spectral, 106
théorème de —, 69 trace
d’un endomorphisme, 21
Q d’un projecteur, 21
quadrique d’une matrice carrée, 19
—s usuelles, 112 trigonalisable
axes principaux d’une —, 111 endomorphisme —, 62
centre d’une —, 110 matrice —, 62
définition, 109
V
R valeur propre
racine carrée d’une matrice positive, 107 d’un endomorphisme, 43
rang d’une matrice carrée, 47
définitions du —, 7 multiplicité, 57
théorème du —, 6, 15 Vandermonde
réflexion, 96 matrice de —, 16
relation vecteur
de Pythagore, 72 —s orthogonaux, 68
rotation normé, 68
de l’espace, 101 unitaire, 68
formule de la —, 101 vecteur propre
plane, 101 d’un endomorphisme, 43
d’une matrice carrée, 47
S
séries
de Fourier, 81
sesquilinéarité, 66
s.e.v.
hyperplan, 17
orthogonaux, 76
somme de —, 10
somme directe de —, 10
sous-espace propre, 45, 47
stable, 41
supplémentaires, 11
somme directe
base adaptée à une —, 14
caractérisation, 10
définition, 10
projecteurs associés à une —, 14
sous-espaces
orthogonaux, 76
spectre
d’un endomorphisme, 43
d’un endomorphisme défini positif, 107
d’un endomorphisme positif, 107
d’une matrice carrée, 47
supplémentaire orthogonal, 76
surface réglée, 116
génératrice d’une —, 116
symétrie
hermitienne, 66
orthogonale, 90
othogonale, 95
vectorielle, 13
système
de Cramer, 38