Book Alg Lin
Book Alg Lin
Bernard Le Stum
Copyright c 2015 Bernard Le Stum
Table des matières
I Première partie
1 Structures algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1 Ensemble 9
1.2 Monoïde, groupe 14
1.3 Anneau, corps 17
1.4 Module, espace vectoriel 19
1.5 Algèbre 21
1.6 Opérations élémentaires 22
1.7 Exercices 24
2 Algèbre linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1 Espace vectoriel 27
2.2 Image, noyau 28
2.3 Produit 29
2.4 Dual (début) 33
2.5 Orthogonal 35
2.6 Quotient 37
2.7 Exercices 42
II Seconde partie
4 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.1 Dimension 63
4.2 Rang 66
4.3 Changement de base 69
4.4 Dual (fin) 72
4.5 Exercices 76
5 Trace et déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.1 Application multilinéaire 79
5.2 Produit tensoriel 83
5.3 Trace 86
5.4 Puissance extérieure 88
5.5 Déterminant 92
5.6 Exercices 96
IV Compléments
Solutions des exercices 159
Références
Références 169
I
Première partie
1 Structures algébriques . . . . . . . . . . . . . . . . 9
1.1 Ensemble
1.2 Monoïde, groupe
1.3 Anneau, corps
1.4 Module, espace vectoriel
1.5 Algèbre
1.6 Opérations élémentaires
1.7 Exercices
2 Algèbre linéaire . . . . . . . . . . . . . . . . . . . . . 27
2.1 Espace vectoriel
2.2 Image, noyau
2.3 Produit
2.4 Dual (début)
2.5 Orthogonal
2.6 Quotient
2.7 Exercices
1.1 Ensemble
Nous ne faisons qu’effleurer la Théorie des Ensembles et nous renvoyons le lecteur intéressé
vers l’ouvrage éponyme de Jean-Louis Krivine ([4]) par exemple. Ici, nous voulons surtout rappeler
le vocabulaire et fixer les notations.
Ensemble, élément
Définition 1.1.1 Un ensemble est une « collection » X d’objets x, appelés les éléments de X, qui
satisfont tous une même propriété P. C’est un nouvel objet.
Exemple On définit par récurrence l’entier naturel n := {0, 1, . . . , n − 1} (c’est donc aussi un
ensemble) et l’ensemble des entiers naturels N := {0, 1, 2, . . .} (c’est donc aussi un objet).
Mathématiques ←→ Logique
Objet ←→ Concept
Ensemble ←→ Propriété
{x / P(x)} ←→ x∈X
Égalité ←→ Équivalence
Inclusion ←→ Implication
Complémentaire ←→ Négation
Intersection ←→ Conjonction
Union ←→ Disjonction
Vide ←→ Impossible
Disjoint ←→ Incompatible
10 Chapitre 1. Structures algébriques
On décrit un ensemble X en donnant une liste des ses éléments (en extension) ou en donnant
une propriété qui le caractérise (en compréhension).
Produit, famille
Définition 1.1.2 Soit S un ensemble. Pour chaque s ∈ S, soit Xs un ensemble. Si on se donne
pour tout s ∈ S, un élément xs ∈ Xs , on dit que (xs )s∈S est une famille indexée par S. Le produit
des ensembles Xs est l’ensemble
∏ Xs := {(xs )s∈S , xs ∈ Xs }
s∈S
On parle alors de puissance (au lieu de produit) et on dit que (xs )s∈S est une famille d’éléments de
X. Au lieu de famille, on dit n-uple (singleton, couple, triplet) si S = n, suite si S = N et matrice si
S = m × n.
mais les égalités analogues sont fausses pour les familles (l’ordre compte et on peut répéter).
Cependant, on peut jongler entre ces deux notions : si on se donne un ensemble X, il suffit de
prendre S := X et de considérer la famille (x)x∈Y ; et réciproquement, si on se donne une famille
d’éléments (xs )s∈S d’un ensemble X, on peut regarder l’ensemble {xs , s ∈ S} ⊂ X.
C’est plus anecdotique mais on peut aussi définir la l’union disjointe (appelée aussi somme ou
coproduit) :
ts∈S Xs = {(s, xs ), s ∈ S, xs ∈ Xs }.
Application
1.1 Ensemble 11
Définition 1.1.3 Une application est une « méthode » f qui permet d’associer à tout élément x
d’un ensemble (de départ, source) X, un élément f (x) d’un autre ensemble (d’arrivée, but) Y .
Une application s’appelle aussi un opérateur.
On écrit
f: X /Y
x / f (x),
Exemple Si
f : R2 → R2 , (x, y) 7→ (x − y, x + y)
et ∆ désigne la diagonale, on a
y = f (x) ⇔ f −1 (y) = x.
Application ←→ Famille
f :X →Y ←→ (yx )x∈X
f (x) = yx
Nous n’hésiterons pas à utiliser cette bijection pour appliquer à F (X,Y ) certains résultats
concernant les produits.
Cardinal
Définition 1.1.5 Le cardinal d’un ensemble X est le « nombre d’éléments » de cet ensemble :
c’est l’ensemble X vu à bijection près. On le notera ultérieurement card(X), mais on utilise ici
la notation |X| plus pratique.
Par définition, on a donc |X| = |Y | si et seulement si il existe une bijection X ' Y . On écrira
|X| ≤ |Y | s’il existe seulement une injection X ,→ Y . Si (Xs )s∈S est une famille d’ensembles, on
pose
G
∏ |Xs | := ∏ Xs et ∑ |xs | := Xs
s∈S s∈S s∈S s∈S
3. On peut montrer que |X| < 2|X| si X 6= 0/ et qu’il existe donc une infinité de cardinaux infinis.
4. Comme exemple, on peut voir que |N| = |Q| < |R| = |C|.
5. Dans le cas des opérations finies sur les cardinaux finis, on retrouve l’arithmétique habituelle
des entiers naturels (ordre, multiplication, addition).
6. La définition de l’ordre, du produit et de la somme des cardinaux a vraiment un sens. En
effet, celle-ci est invariante si on remplace un des ensemble par un autre ensemble de même
cardinal.
Composition, identité
Définition 1.1.6 L’identité de X est l’application IdX : X → X définie par IdX (x) = x. La
composée des applications f : X → Y et g : Y → Z est l’application g ◦ f : X → Z donnée par
(g ◦ f )(x) = g( f (x)).
Démonstration Exercice.
Proposition 1.1.8 Soient (Xs )s∈S une famille d’ensembles, X := ∏s∈S Xs , et pour tout s ∈ S,
ps : X → Xs , x := (xt )t∈S 7→ xs .
Démonstration Exercice.
On résume cette propriété dans le diagramme commutatif
∃! f
Y /X
fs
ps
&
Xs .
Définition 1.1.9 On dit que ps est la projection de X sur Xs et que fs est la s-ème composante
de f .
Loi de composition
Définition 1.1.10 Une loi (de composition) est une application Φ : X ×Y → Z. On dit loi de
composition interne sur X si X = Y = Z (et externe sinon). Une loi de composition s’appelle
aussi une opération.
En pratique, on fait disparaître Φ des notations et on écrit tout simplement xy := Φ(x, y).
Notons aussi qu’il revient au même de se donner une telle loi ou une application ρ : X 7→ F (Y, Z),
l’équivalence étant donnée par ρ(x)(y) = xy. Nous utiliserons alternativement les deux approches.
C’est la donnée d’un certain nombre d’opérations sur un ensemble, satisfaisant un certain
nombre de propriétés, qui constitue ce qu’on appelle une structure algébrique. Nous allons en
passer un certain nombre en revue.
G×G /G
(g, h) / gh
qui est
1. associative : ∀g, h, k ∈ G, (gh)k = g(hk)
2. avec élément neutre : ∃1 ∈ G, g1 = 1g = g.
On définit alors le produit ∏ni=1 gi := g1 · · · gn et la puissance gn := g · · · g, n fois.
Remarque 1. Rappelons que la notation gh (ainsi que 1) qui rappelle la multiplication est
arbitraire. Parfois la loi sera une loi de composition (et l’unité devient alors l’identité) ou
d’addition (et l’unité devient alors le zéro).
2. On écrira parfois 1G pour l’unité de G afin de la différentier de l’unité d’un autre monoïde.
3. Le produit de n éléments est plus précisément défini par récurrence en stipulant que le produit
vide vaut 1. La puissance est un cas particulier du produit si bien que l’on a toujours g0 = 1.
4. On rencontre aussi les notions plus pauvres que celle de monoïde comme celles de magma
(aucune condition) et de semi-groupe (seulement la première condition).
Exemple 1. Si X est un ensemble, alors l’ensemble G := F (X) des opérateurs sur X est un
monoïde pour ◦ (avec IdX comme élément neutre).
2. Si G est un monoïde et X est un ensemble quelconque, alors F (X, G) est un monoïde pour
la loi
∀x ∈ X, ( f g)(x) := f (x)g(x)
avec ∀x ∈ X, 1(x) = 1 (dans le cas, X = G, on voit donc que F (G) est muni de deux lois
distinctes).
3. Si (Gs )s∈S est une famille de monoïdes, alors ∏s∈S Gs est un monoïde pour la loi (dite terme
à terme)
(gs )s∈S (hs )s∈S = (gs hs )s∈S
4. Si A est un anneau (voir plus bas), alors Mn (A) est un monoïde pour la loi
" #
[ai, j ][bi, j ] = ∑ ai,k bk, j
k
avec la matrice unité I comme unité (on dispose aussi de la multiplication terme à terme
qu’on utilisera jamais).
5. Les ensembles de nombres comme N, Z, R, Z/nZ, . . . sont des monoïdes pour la multiplica-
tion mais aussi pour l’addition (avec 0 comme élément neutre).
Démonstration 1. Exercice.
2. Rappelons la définition de l’application réciproque : f (x) = y ⇔ x = f −1 (y). Comme f est
un morphisme de monoïdes, si g, h ∈ H, on a
f ( f −1 (g) · f −1 (h)) = f ( f −1 (g)) · f ( f −1 (h)) = g · h
et donc f −1 (g) · f −1 (h) = f −1 (g · h). De même, comme f (1) = 1, on aura 1 = f −1 (1).
16 Chapitre 1. Structures algébriques
Définition 1.2.4 Un monoïde H est un sous-monoïde d’un monoïde G s’il est contenu dans G
et si l’inclusion est un morphisme.
Démonstration Exercice.
im f := f (X) ⊂ Y,
Définition 1.2.7 Soit G un monoïde. On dit que g, h ∈ G commutent si gh = hg. On dit que G
est commutatif si tous ses éléments commutent.
Si on utilise la notation additive (et 0 pour l’élément neutre), on dit en fait que le monoïde est
abélien au lieu de commutatif. En d’autres termes, M est un monoïde abélien s’il est muni d’une loi
M×M /M
(x, y) / x+y
telle que
1. ∀x, y ∈ M, x + y = y + x,
2. ∀x, y, z ∈ M, (x + y) + z = x + (y + z),
3. ∃0 ∈ A, ∀x ∈ A, x + 0 = x.
On considère alors les notions de somme ∑ni=1 xi := x1 + · · · + xn ainsi que de multiple nx :=
x + · · · + x, n fois (au lieu de produit et puissance).
Définition 1.2.8 Soit G un monoïde. On dit que g−1 est un inverse pour g ∈ G si gg−1 = g−1 g =
1. On dit G est un groupe si tous ses éléments sont inversibles.
1.3 Anneau, corps 17
On note G× l’ensemble de tous les éléments inversibles d’un monoïde G. C’est un sous-monoïde
qui est un groupe. On écrit parfois g/h := gh−1 (attention tout de même si G n’est pas commutatif).
Si M est un monoïde abélien, on parle d’opposé et on écrit −x si bien que la condition devient
x + (−x) = 0. On écrit alors x − y := x + (−y).
Remarque 1. On devrait dire monoïde inversif au lieu de groupe. En effet, un groupe est tout
simplement un monoïde qui satisfait une propriété en plus.
2. En particulier, on dira (iso-) morphisme de groupes pour (iso-) morphisme de monoïdes
f : G → H entre deux groupes. Notons que la seconde condition f (1G ) = 1H est alors
conséquence de la première et que l’on a toujours f (g−1 ) = f (g)−1 .
3. De même, un sous-groupe H d’un groupe G est un sous-monoïde qui est lui-même un groupe :
il faut donc penser à s’assurer que si h ∈ H, on a bien h−1 ∈ H.
4. On dit qu’un monoïde G est intègre si
Un groupe est toujours intègre. Notons que dans un monoïde abélien M, la condition s’écrit
∀x, y, z ∈ M, x + y = x + z ⇒ y = z.
La notion suivante est très importante bien que nous ne la rencontrerons pas dans cet ouvrage :
Définition 1.2.9 Si G est un monoïde, alors un G-ensemble est un ensemble X muni d’un
morphisme de monoïdes
G / F (X)
g / (x 7→ gx).
G×X /X
g / x 7→ gx
telle que
1. ∀g, h ∈ G, ∀x ∈ X, (gh)x = g(hx)
2. ∀x ∈ G, 1x = x.
Définition 1.3.1 Un anneau (associatif unitaire) est un groupe abélien A muni d’une application
A / End(M)
a / (x 7→ ax).
qui en fait un monoïde. On dit que l’anneau est commutatif si la multiplication aussi est
commutative.
Alternativement, cela revient à munir A de deux lois internes
A×A /A et A×A /A
(a, b) / a+b (a, b) / ab
Définition 1.3.3 Un corps est un anneau commutatif K tel que K \ {0} soit un groupe. Un
morphisme d’anneau entre deux corps s’appelle une extension de corps.
Cela veut donc dire que M est muni d’une loi interne et d’une action de A
M×M /M et A×M /M
(x, y) / x+y (a, x) / ax
Exemple 1. Un Z-module est tout simplement un groupe abélien : l’action de Z est automati-
quement l’action naturelle donnée par
nx = x + · · · + x et (−n)x = −x − · · · − x pour n ∈ N.
X +Y := {x + y, x ∈ X, y ∈ Y } et SX = {ax, a ∈ S, x ∈ X}.
Définition 1.4.2 Une application A-linéaire u : M → N entre deux A-modules est un morphisme
de groupes abéliens qui commute avec la multiplication par les éléments de A.
En d’autres termes, on a
1. ∀x, y ∈ M, u(x + y) = u(x) + u(y),
20 Chapitre 1. Structures algébriques
2. ∀a ∈ A, ∀x ∈ M, u(ax) = au(x).
Alternativement, on peut demander que u préserve toutes les combinaisons linéaires :
!
n n
∀x1 , . . . , xn ∈ M, ∀a1 , . . . , an ∈ A, u ∑ ai xi = ∑ ai u(xi )
i=1 i=1
Démonstration Exercice.
Définition 1.4.4 Un sous-module N d’un A-module M est un A-module N qui est contenu dans
M et tel que l’inclusion N ,→ M soit linéaire. Lorsque M = A, on dit idéal.
Exemple 1. Si M et N sont des A-modules, alors L(M, N) est un sous-module de F (M, N).
2. On a un isomorphisme de A-modules Mn×m (A) ' L(Am , An ) et on identifie parfois les deux.
3. La transposition [ai, j ] 7→ [a j,i ] est un isomorphisme Mn×m (A) ' Mm×n (A) de A-modules.
4. Lorsque l’anneau A est un corps K, un sous-module est un sous-espace vectoriel.
5. Un anneau commutatif est un corps si et seulement si il a exactement deux idéaux : {0} et lui
même (penser à la définition d’un nombre premier).
6. Si a ∈ A, alors (a) := Aa := {ca, c ∈ A} est un idéal de A (dit principal).
7. Les idéaux de K[T ] sont tous principaux : ce sont donc les parties de la forme
Tous les résultats à venir dans le chapitre 2 et la première moitié du chapitre 3 qui seront
énoncés pour des espaces vectoriels sur un corps sont en fait encore valides pour des modules
sur un anneau quelconque. La majeure partie des notions et résultats étudiés ensuite ont aussi un
analogue pour les modules.
1.5 Algèbre 21
1.5 Algèbre
Nous ne parlerons pas ici de la notion générale d’algèbre mais seulement de celle d’algèbre
associative unitaire que nous abrégerons en disant tout simplement « algèbre ».
On fixe un corps K (ou plus généralement un anneau commutatif et il faut alors lire module au
lieu d’espace vectoriel).
Définition 1.5.1 Une K-algèbre (associative unitaire) est un anneau L muni d’un morphisme
d’anneau K → L.
Cela signifie en fait que L est est muni d’une structure de K-espace vectoriel telle que
L×L /L , L×L /L et K ×L /L
(x, y) / x+y (x, y) / xy (a, x) / ax
Remarque On définit plus généralement une algèbre comme étant un espace vectoriel L muni
d’une application bilinéaire (voir plus bas) L × L → L. On dit alors que L est associative unitaire si
L est un monoïde pour cette nouvelle loi.
Définition 1.5.2 1. Un morphisme de K-algèbres est une application qui est simultanément
un morphisme d’anneaux et d’espaces vectoriels. C’est un isomorphisme s’il est bijectif.
2. Une sous-algèbre d’une K-algèbre A est une K-algèbre qui est contenue dans A et telle
que l’inclusion soit un morphisme de K-algèbres.
Réciproquement, il faut montrer qu’on obtient bien ainsi un morphisme d’algèbres (exercice) :
1. ∀P, Q ∈ K[T ], (P + Q)(u) = P(u) + Q(u)
2. ∀a ∈ K, ∀P ∈ K[T ], (aP)(u) = aP(u)
3. ∀P, Q ∈ K[T ], (PQ)(u) = P(u)Q(u)
4. 1(u) = 1L .
P(u)(Q(u)(x)) = Q(u)(P(u)(x)).
an,l
Définition 1.6.2 Une opération élémentaire sur les lignes d’une matrice A ∈ Mn×m (K) est une
transformation du type suivant
1. Échange : on échange la ligne k et la ligne l,
2. Dilatation : on multiplie la ligne k par une constante non nulle a,
3. Transvection : on ajoute à la ligne k un multiple par une constante a d’une autre ligne l.
Définition 1.6.3 Une matrice élémentaire est une matrice obtenue en effectuant une opération
élémentaire sur I.
Proposition 1.6.4 1. Une matrice élémentaire est inversible et son inverse est une matrice
élémentaire du même type.
2. Faire une opération élémentaire sur les lignes d’une matrice revient à multiplier à gauche
par la matrice élémentaire correspondante.
Démonstration Exercice.
Définition 1.6.5 Une matrice est échelonnée si le nombre de zéros précédent le premier coeffi-
cient non nul (appelé pivot) augmente effectivement à chaque ligne. Elle est échelonnée réduite
si les pivots valent tous 1 et que les autres coefficients sur la même colonne sont nuls.
Théoreme 1.6.6 — du pivot de Gauss (-Jordan). Il existe toujours une suite finie d’opérations
élémentaires sur les lignes d’une matrice qui la transforme en une matrice échelonnée (réduite).
Exemple
0 0 0 1 1 0 2 0 0 2
0 2 0 0 2 → 0 0 0 1 1 →
0 3 0 0 3 0 3 0 0 3
0 1 0 0 1 0 1 0 0 1
0 0 0 1 1 → 0 0 0 1 1 .
0 3 0 0 3 0 0 0 0 0
Corollaire 1.6.7 Une matrice est inversible si et seulement si c’est un produit de matrices
élémentaires. Si A est une matrice quelconque, il existe une matrice inversible P telle que PA soit
échelonnée (réduite).
Démonstration Exercice.
24 Chapitre 1. Structures algébriques
1.7 Exercices
et donner des contre exemples lorsque l’égalité ou l’équivalence n’est pas satisfaite.
Exercice 1.7.6 Soient X := {a, b} et G := F (X) l’ensemble des application de X dans lui
même. On désigne par 1 l’identité de X, s la permutation des deux éléments de X et p, q les
deux autres éléments de G. Établir un tableau représentant la loi de composition sur G et vérifier
que G est bien un monoïde. Est-il commutatif ? Est-ce un groupe ? Sinon, expliciter G× .
Exercice 1.7.7 Soient G et H deux monoïdes. Montrer que si H est commutatif, alors Hom(G, H)
est un sous-monoïde de F (G, H), mais que c’est faux par exemple si G est le groupe additif du
corps F2 à 2 éléments et H est le groupe des permutations S3 de l’ensemble {1, 2, 3}.
Exercice 1.7.9 Montrer que si M est un groupe abélien (noté additivement), alors l’ensemble
End(M) des endomorphismes de M est un anneau pour + et ◦. Montrer qu’il n’est pas commu-
tatif si par exemple M = Z2 .
Exercice 1.7.10 Soient (Gs )s∈S une famille de monoïdes et G := ∏s∈S Gs (muni de sa loi de
monoïde). Montrer que si H est un monoïde quelconque, alors une application f : H → G est un
morphisme si et seulement si ses composantes fs le sont. En déduire que toutes les projections
ps : G → Gs sont des morphismes.
1.7 Exercices 25
Exercice 1.7.11 Montrer qu’un groupe est toujours un monoïde intègre. Montrer qu’il existe
des monoïdes qui ne sont pas intègres. Montrer que si A est un anneau intègre, alors A \ {0} est
un monoïde intègre.
∀x ∈ M, 0A x = 0M et ∀a ∈ A, a0M = 0M .
Exercice 1.7.15 Montrer que si A est un anneau et a ∈ A, alors (a) := Aa := {ca, c ∈ A} est
un idéal de A (dit principal).
Exercice 1.7.16 Montrer qu’un anneau commutatif est un corps si et seulement si il a exacte-
ment deux idéaux : {0} et lui même.
Exercice 1.7.17 1. Utiliser la division euclidienne pour montrer que tous les idéaux de Z
sont de la forme (n) pour un unique n ∈ N.
2. Utiliser la division euclidienne pour montrer que, si K est un corps, les idéaux de K[T ]
sont de la forme (P) pour un unique P unitaire.
Exercice 1.7.18 Vérifier que si E est un espace vectoriel sur un corps K, alors L(E) est une
K-algèbre pour (+, ◦, ·) (on fera simplement la liste des propriétés).
En déduire que si ad − bc est inversible, alors M aussi, et exprimer dans ce cas M −1 en fonction
de M et de ses coefficients. Calculer M −1 .
Exercice 1.7.23 — TP. On considère les matrices
a a 2 a3
1 1 1 1 1
0 1 a a2 1 1+a 1 1 ∈ Q4 .
et
0 0 1 a 1 1 1+b 1
0 0 0 1 1 1 1 1+c
Exercice 1.7.24 — TP. Effectuez l’algorithme du pivot de Gauss sur les matrices
3 2 −3 0 1 −1 −2 −3 3
5 −1 −2 , −1 −4 5 et −3 3 5 ∈ M3 (Q),
1 1 −1 11 −5 2 −5 −2 4
On fixe un corps de base K, appelé par la suite le corps des scalaires (penser à K = R). Tous les
espaces vectoriels sont des K-espaces vectoriels et toutes les applications linéaires sont K-linéaires.
Remarque Tous les résultats qui suivent sont en fait valides pour des modules sur un anneau
quelconque. En d’autres termes, on peut remplacer le corps K par n’importe quel anneau A et les
K-espaces vectoriels E, F, . . . par des A-modules M, N, . . . En prenant A = Z, on voit que l’on peut
aussi remplacer partout « espace vectoriel » par « groupe abélien » et « application linéaire » par
« morphisme de groupes ».
Cela veut donc dire que E est muni d’une loi interne et d’une loi externe satisfaisant les
propriétés suivantes
1. (a) ∀x, y ∈ E, x + y = y + x,
(b) ∀x, y, z ∈ E, (x + y) + z = x + (y + z),
(c) ∃0 ∈ E, ∀x ∈ E, x + 0 = x,
(d) ∀x ∈ E, ∃ − x ∈ E, x + (−x) = 0,
2. (a) ∀x ∈ E, 1x = x,
(b) ∀a ∈ K, ∀x, y ∈ E, a(x + y) = ax + ay,
(c) ∀a, b ∈ K, ∀x ∈ E, (a + b)x = ax + bx,
(d) ∀a, b ∈ K, ∀x ∈ E, (ab)x = a(bx).
28 Chapitre 2. Algèbre linéaire
Définition 2.1.2 Une application linéaire u : E → F entre deux espace vectoriels est un mor-
phisme de groupes abéliens qui commute avec la multiplication par les éléments de K.
Démonstration Exercice.
Définition 2.1.4 Un sous-espace vectoriel F d’un espace vectoriel E est un espace vectoriel F
qui est contenu dans E et tel que l’inclusion F ,→ E soit linéaire.
Démonstration Exercice.
Démonstration 1. Exercice.
2.3 Produit 29
2. Comme u(0) = 0, on sait déjà que {0E } ⊂ ker u. Si x ∈ ker u, alors u(x) = 0 = u(0). Donc, si
u est injective, on a x = 0. Réciproquement, si u(x) = u(y) alors u(x − y) = u(x) − u(y) = 0
si bien que x − y ∈ ker u. Donc, si on suppose que ker u = {0}, on voit que x − y = 0 si bien
que x = y.
Remarque L’analogue de ce résultat est faux pour les monoïdes en général mais il est toujours
valide pour les groupes ou les anneaux par exemple (et bien sûr aussi pour les A-modules). La
première assertion est même valide pour n’importe quelle application entre deux ensembles.
Proposition 2.2.6 Soit u : E → F une application linéaire. Alors, u et u−1 induisent des bijections
réciproques
Démonstration On montre d’abord que les flèches sont bien définies. On sait que si E 0 est un
sous-espace vectoriel de E alors u(E 0 ) est un sous-espace vectoriel de F, et comme E 0 ⊂ E, on aura
u(E 0 ) ⊂ u(E) = im u. De même, on sait que si F 0 est un sous-espace vectoriel de F alors u−1 (F 0 )
est un sous-espace vectoriel de E, et comme {0F } ⊂ F 0 , on aura ker u = u−1 ({0F }} ⊂ u−1 (F 0 ).
Pour conclure, il suffit de montrer que si ker u ⊂ E 0 , alors u−1 (u(E 0 )) = E 0 et si F 0 ⊂ im u, alors
u(u−1 (F 0 )) = F 0 . Cela résulte du lemme 2.2.5 : en effet, si ker u ⊂ E 0 , on a E 0 + ker u = E 0 et si
F 0 ⊂ im u, on a F 0 ∩ im u = F 0 .
2.3 Produit
30 Chapitre 2. Algèbre linéaire
E := ∏ Es := {(xs )s∈S , xs ∈ E s } .
s∈S
Il existe alors une unique structure d’espace vectoriel sur E telle que toutes les projections sur
les Es soient linéaires.
(xs )s∈S + (ys )s∈S = (xs + ys )s∈S et a(xs )s∈S = (axs )s∈S .
On vérifie que cela définit bien une structure d’espace vectoriel (exercice).
Remarque Si E1 , . . . , En sont des espaces vectoriels, alors E1 × · · · × En sera donc muni de l’addi-
tion et de la multiplication terme à terme :
et
a(x1 , . . . , xn ) := (ax1 , . . . , axn ).
Exemple 1. K 0 = {0}, K 1 = K, K 2 = K × K, . . . , K n = K × · · · × K, . . .
2. Dans K n , si on pose 1i := (0, . . . , 1, . . . , 0) avec 1 à la i-ème place, on a
(x1 , . . . , xn ) = x1 11 + · · · + xn 1n .
Corollaire 2.3.2 Si E est un espace vectoriel et X un ensemble quelconque, alors il existe une
unique structure d’espace vectoriel sur F (X, E) telle que toutes les applications d’évaluation
f 7→ f (x) soient linéaires.
( f + g) ◦ h = f ◦ h + g ◦ h et (a f ) ◦ h = a( f ◦ h)
par définition (on ne demande pas que les applications soient linéaires).
Exemple Si E est un espace vectoriel normé (voir plus loin) et X est un espace topologique, alors
les applications continues f : X → E forment un sous-espace vectoriel C (X, E) ⊂ F (X, E).
2.3 Produit 31
Proposition 2.3.3 Soient (Es )s∈S une famille d’espaces vectoriels et E := ∏s∈S Es . Si F est un
espace vectoriel, alors une application u : F → E est linéaire si et seulement si ses composantes
us le sont.
Remarque Comme conséquence de la proposition, on voit que si on se donne une famille d’appli-
cations linéaires us : Es → Fs , alors l’application produit
Proposition 2.3.4 Si E et F sont des espace vectoriels, alors L(E, F) est un sous-espace vectoriel
de F (E, F).
L(K, E)
' /E
u / u(1).
La réciproque envoie x ∈ E sur l’application ix : a 7→ ax. On identifiera souvent ces deux espaces.
En particulier, on a L(K) ' K (un endomorphisme de K est la multiplication par une constante).
'
L(K m , K n ) Mn×m (K)
uo /A
donné par
Démonstration Exercice.
32 Chapitre 2. Algèbre linéaire
Remarque 1. On utilisera aussi la suite d’isomorphismes K n ' L(K, K n ) ' Mn×1 (K) pour
voir les vecteurs de K n comme des vecteurs colonnes et on écrira :
x1
[x] := [ix ] := ... .
xn
Kl
v / Km u / Kn ,
alors on a [u ◦ v] = [u][v].
Démonstration Exercice.
Remarque 1. L’image (resp. le noyau) d’une matrice A ∈ Mn×m (K) est l’image (resp. le
noyau) de l’application u ∈ L(K m , K n ) correspondant. Plus généralement, nous appliquerons
systématiquement aux matrices le vocabulaire des endomorphismes.
2. Pour calculer le noyau et l’image d’une matrice A, on peut utiliser la méthode suivante : on
effectue une suite d’opérations élémentaires sur les colonnes
A C1 · · · Cr 0 · · · 0
−→ .
I ? · · · ? D1 · · · Dt
Alors, {C1 , . . . ,Cr } sera une base de im A et {D1 , . . . , Dt } sera une base de ker A (voir plus
loin pour les bases).
3. On peut justifier la méthode ci-dessus comme suit : faire une suite d’opérations sur les
colonnes revient à multiplier à droite par une matrice inversible P (celle obtenue en faisant
les mêmes opérations sur I). On aura donc
A C1 · · · Cr 0 · · · 0
P= ,
I ? · · · ? D1 · · · Dt
c’est à dire
AP = [C1 · · ·Cr 0 · · · 0] et P = IP = [? · · · ? D1 · · · Dt ]
2.4 Dual (début) 33
si bien que
A[? · · · ? D1 · · · Dt ] = [C1 · · ·Cr 0 · · · 0].
Autrement dit, on aura A? = C1 , . . . , A? = Cr (image) et AD1 = · · · = ADt = 0 (noyau). C’est
le théorème du rang (voir plus loin) qui nous permet de conclure qu’il s’agit bien d’une base
dans chaque cas.
Exemple Pour
1 2 3 4
A := 1 3 6 6 ,
3 8 15 16
on fait
1 2 3 4 1 0 0 0 1 0 0 0
1 3 6 6 1 1
3 2
1 1 0 0
3 8 15 16 3 2
6 4
3 2 0 0
1 0 0 0 → 1 −2 −3 −4 → 1 −2 3 .
0
0 1 0 0 0 1
0 0
0 1 −3 −2
0 0 1 0 0 0 1 0 0 0 1 0
0 0 0 1 0 0 0 1 0 0 0 1
si bien que {(1, 1, 3), (0, 1, 2)} est une base de im A et {(3, −3, 1, 0), (0, −2, 0, 1)} est une base de
ker A.
donné par
ϕ(x1 , . . . , xn ) = a1 x1 + · · · + an xn ⇔ [ϕ] = [a1 · · · an ]
Une forme linéaire sur K n sera donc vue comme un vecteur ligne.
2. Les projections pi : K n → K sont des formes linéaires et toute forme linéaire sur K n s’écrit
de manière unique
ϕ = a1 p1 + · · · + an pn avec a1 , . . . , an ∈ K.
Plus précisément, on a
ϕ = ϕ(11 )p1 + · · · + ϕ(1n )pn .
3. On dispose du diagramme commutatif suivant :
t Kn × Kn /K
' '
×
M1×n (K) × Mn×1 (K) / M1 (K)
34 Chapitre 2. Algèbre linéaire
xn
en bas. En d’autres termes, on a [ϕ(x)] = [ϕ][x].
4. Un hyperplan de K n est une partie de la forme
H := {(x1 , . . . , xn ) ∈ K n / a1 x1 + · · · + an xn = 0}
avec a1 , . . . , an ∈ K non tous nuls.
5. On dispose d’un isomorphisme d’espaces vectoriels
Kn
' / t Kn
(a1 , . . . , an ) / a1 p1 + · · · + an pn
(ϕ(1i ), . . . , ϕ(1n )) o ϕ
Remarque 1. Bien que t K n soit isomorphe à K n , il est faut en général que t E soit isomorphe à
E. En fait, le théorème d’Erdos-Kaplansky nous dit que si E est de dimension infinie, alors
dim t E > dim E (voir plus loin pour la notion de dimension).
2. Sur un anneau quelconque, il faut renforcer l’hypothèse non nulle en surjective dans la
définition d’un hyperplan (sur un corps, les deux conditions sont équivalentes).
E → tt E, x 7→ (ϕ 7→ ϕ(x))
est linéaire.
Définition 2.4.3 Soit u : E → F une application linéaire. Alors, l’application duale de u est
l’application t u définie par
tF / tE
ψ / t u(ψ) := ψ ◦ u.
est linéaire.
3. Si u : E → F et v : F → G sont deux applications linéaires, alors t (v ◦ u) = t u ◦ t v.
2.5 Orthogonal
Définition 2.5.1 Soit E un espace vectoriel. La partie orthogonale à U ⊂ t E est
U ◦ = {x ∈ E / ∀ϕ ∈ U, ϕ(x) = 0}.
Exemple 1. Une partie H de E est un hyperplan si et seulement si H = {ϕ}◦ avec ϕ non nulle.
2. En général, U ◦ = ∩ϕ∈U ker ϕ est toujours une intersection d’hyperplans.
3. Considérons un système linéaire homogène à m équations et n inconnues :
a1,1 x1 · · · + a1,m xm = 0
S := ..
.
an,1 x1 · · · + an,m xn = 0.
Remarque 1. On peut aussi considérer la partie orthogonale à X ⊂ E qui est par définition
◦
X = {ϕ ∈ t E / ∀x ∈ X, ϕ(x) = 0} = {ϕ ∈ t E, X ⊂ ker ϕ}.
Les analogues pour ◦ X sont plus faciles à démontrer que ceux pour U ◦ en général.
36 Chapitre 2. Algèbre linéaire
∀ϕ ∈ U, ∀x ∈ X, ϕ(x) = 0.
Autrement dit, on a
U ◦ X ⇔ U ⊂ ◦X ⇔ X ⊂ U ◦.
En fait, pour cette variante de l’orthogonalité, on peut démontrer quelques propriétés de plus
comme nous l’allons voir maintenant.
Proposition 2.5.3 Si E est un espace vectoriel, on a ◦ E = {0t E } et ◦ {0E } = t E.
ϕ ∈ ◦ E ⇔ ∀x ∈ E, ϕ(x) = 0 ⇔ ϕ = 0.
En ce qui concerne la seconde, il suffit de rappeler que si ϕ ∈ t E, alors ϕ est linéaire si bien que
ϕ(0) = 0. On a donc ϕ ∈ ◦ {0}.
2.6 Quotient 37
◦
im u = ker t u.
Corollaire 2.5.5 Si u : E → F est une application linéaire surjective, alors t u est injective.
◦
F = ker t ι.
2.6 Quotient
On rappelle qu’on utilise la notation de Minkowski si bien que, si F est un sous-espace vectoriel
d’un espace vectoriel E, alors
x + F := {x + y, y ∈ F}
désigne le sous-espace affine parallèle à F et passant par l’extrémité de x (faire un dessin), c’est à
dire le translaté de F par x.
x2 + z = x1 + (y + z) ∈ x1 + F,
Définition 2.6.2 Si F est un sous-espace vectoriel d’un espace vectoriel E, le quotient de E par
F est l’ensemble
E/F := {x + F, x ∈ E}
de tous les sous-espaces affines parallèles à F.
Remarque On définit généralement le quotient d’un ensemble par une relation d’équivalence
(hors programme). Dans notre cas, la relation serait x1 ≡ x2 ⇔ x2 − x1 ∈ F.
38 Chapitre 2. Algèbre linéaire
Proposition 2.6.3 Si F est un sous-espace vectoriel d’un espace vectoriel E, alors il existe une
unique structure d’espace vectoriel sur E/F telle que la projection
E
π / / E/F
x / x + F.
∀x, y ∈ E, (x + F) + (y + F) = (x + y) + F
et
∀x ∈ E, ∀a ∈ K, a(x + F) = ax + F
(attention : la seconde formule n’est pas toujours compatible avec la notation de Minkowski qui
donnerait ax + aF). On vérifie immédiatement qu’on obtient ainsi un espace vectoriel, que π est
linéaire et que ker π = F (exercice).
Il faut tout de même s’assurer que les lois sont bien définies. Montrons le pour la seconde,
l’argument étant le même dans les deux cas (exercice). On suppose donc que x1 + F = x2 + F et on
doit montrer que ax1 + F = ax2 + F. Grâce au lemme 2.6.1, il suffit de remarquer que si x2 − x1 ∈ F,
alors ax2 − ax1 = a(x2 − x1 ) ∈ F.
x ∈ F ⇔ x = 0.
5. Si au lieu de travailler sur K, nous travaillons sur Z, nous obtenons la notion de quotient d’un
groupe abélien par un sous-groupe, par exemple Z/nZ.
6. On peut faire la même chose sur un anneau quelconque. On peut même montrer que si I est
un idéal d’un anneau commutatif, il existe une unique structure d’anneau sur A/I qui fait de
la projection un morphisme d’anneaux. Par exemple, cela fait de Z/nZ ou de K[T ]/(P) un
anneau.
π u
ker u/F / E/F
Démonstration L’unicité est immédiate et u sera donné par la formule u(x) = u(x). La linéarité
de u résulte alors de celle de u et on aura bien sûr F ⊂ ker u et ker u = ker u/F (exercice).
Il reste à s’assurer que l’application est bien définie lorsque F ⊂ ker u. Or, si x1 = x2 , le lemme
2.6.1 nous dit que x2 − x1 ∈ F ⊂ ker u et on aura donc u(x2 − x1 ) = 0 si bien que u(x1 ) = u(x2 ).
E/ ker u ' im u.
Démonstration C’est le cas F = ker u du théorème. On aura donc ker u = {0} si bien que u est
injective. D’autre part, on a im u = im u car la projection E → E/F est surjective.
(x1 , . . . , xm ) ↔ (x1 , . . . , xm , 0, . . . , 0)
On a alors un isomorphisme
'
#
K n−m / Kn / / K n /K m
%
K[T ]<d / K[T ] / / K[T ]/(P)
R / R + (P),
Remarque 1. Il suit qu’un sous-espace vectoriel H d’un espace vectoriel E est un hyperplan si
et seulement si E/H ' K. Notons que ce résultat nécessite que K soit un corps et qu’il est
faux pour les A-modules en général.
2. Comme nous l’avons déjà dit, on peut travailler avec des groupes abéliens par exemple, à
la place des espaces vectoriels. Si on applique le théorème de Noether au morphisme de
groupes abéliens R → C× , θ 7→ eiθ , on obtient un isomorphisme R/2πZ ' S1 dont l’inverse
est exactement l’application qui associe son argument à un nombre complexe de module 1.
40 Chapitre 2. Algèbre linéaire
t
(E/F) ' ◦ F.
Démonstration Comme la projection π : E → E/F est une application linéaire surjective, il résulte
du corollaire 2.5.5 que l’on dispose d’une application linéaire injective t π : t (E/F) ,→ t E. Et on a
ψ ∈ im t π ⇔ ∃ψ ∈ t (E/F), ψ = t π(ψ)
⇔ ∃ψ ∈ E/F → K, ψ = ψ ◦π
⇔ F ⊂ ker ψ
⇔ ψ ∈ ◦F
u0 u u00
F 0 /F / / F/F 0 .
Démonstration L’unicité est claire dans les deux cas et l’existence de u0 est immédiate. Pour
obtenir u00 , on applique le théorème à l’application composée
E → F → F/F 0 , x 7→ u(x).
Il faut montrer que son noyau contient E 0 mais si x ∈ E 0 , on a u(x) ∈ F 0 et donc u(x) = 0.
On dispose alors des matrices A, A0 et A00 de u, u0 et u00 (en utilisant l’identification de droite
pour u00 ) et on a 0
A ?
A=
0 A00
2.6 Quotient 41
qui est une matrice triangulaire par blocs. Si A0 et A00 sont des matrices inversibles, alors
A aussi comme conséquence de la remarque (nous verrons plus tard que la réciproque est
vraie).
2. Par récurrence, on voit qu’une matrice triangulaire
a1 ? · · · ?
.
0 . . . . . . ..
.. ..
. . ?
0 · · · 0 an
2.7 Exercices
Exercice 2.7.1 Montrer que l’ensemble l∞ (R) des suites réelles bornées est un sous-espace
vectoriel de RN et que l’ensemble C (I, R) des fonctions continues sur un intervalle I à valeur
dans R est un sous-espace vectoriel de F (I, R).
Exercice 2.7.2 Dire dans chaque cas si ces fonctions forment un sous-espace vectoriel de
l’espace F (R) des applications de R dans lui même.
1. Les fonctions dérivables.
2. Les fonctions paires.
3. Les fonctions croissantes.
4. Les fonctions monotones.
Exercice 2.7.3 Démontrer les propositions 2.1.3 et 2.2.1.
Exercice 2.7.5 Montrer qu’un espace vectoriel E est une droite (c’est à dire, isomorphe à K) si
et seulement si E a exactement deux sous-espaces vectoriels.
Exercice 2.7.6 Montrer que si E est un espace vectoriel, alors l’application d’évaluation
L(K, E) /E
/ u(1)
u
est un isomorphisme dont on déterminera l’inverse. En déduire un isomorphisme Mn×1 (K) ' K n
que l’on explicitera.
Exercice 2.7.7 Montrer (en calculant le second membre) que si on pose 11 := (1, 0, 0), 12 :=
(0, 1, 0) et 13 := (0, 0, 1), on a
Généraliser.
ou les pi désignent les projections sur les axes. En déduire un isomorphisme entre K n et
t Kn.
pi : K[T ] → K, ∑ c j T j 7→ ci
j
est une forme linéaire sur K[T ]. En déduire un isomorphisme entre K N et t K[T ].
Exercice 2.7.10 Montrer que si A est la matrice d’une application linéaire u : K m → K n (dans
les bases usuelles), alors la matrice du dual de u est la transposée de A (en identifiant K n et K m
avec leurs espaces duaux comme ci-dessus).
2.7 Exercices 43
Exercice 2.7.11 On se donne pour tout i = 1, . . . , n, une forme linéaire
ϕi := ai,1 p1 + · · · + ai,m pm
Exercice 2.7.14 Établir un isomorphisme K n−m ' K n /K m lorsque m ≤ n (on voit K m comme
sous-espace de K n en identifiant (x1 , . . . , xm ) et (x1 , . . . , xm , 0, . . . , 0)).
Exercice 2.7.15 On rappelle que les multiples d’un polynôme P forment un sous-espace
vectoriel F de l’espace E de tous les polynômes sur K. Montrer que E/F est isomorphe à
l’espace En des polynômes de degré strictement plus petit que n = deg P.
∀ε > 0, ∃N ∈ N, |xn | ≤ ε
et qu’elle de de Cauchy si
Montrer que les suites de Cauchy forment un sous-espace vectoriel E de l’espace de toutes les
suites et que les suites qui tendent vers 0 forment un sous-espace vectoriel F de E. Établir un
isomorphisme E/F ' R.
Exercice 2.7.17 Soit F un sous-espace vectoriel d’un espace vectoriel E. Établir une bijection
entre l’ensemble de tous les sous-espaces vectoriels de E/F et celui des sous-espaces vectoriels
de E contenant F.
Exercice 2.7.18 Montrer qu’un sous-espace vectoriel H d’un espace vectoriel E est un hy-
perplan si et seulement si E/H est une droite si et seulement si H est maximum parmi les
sous-espaces vectoriels de E distinct de E.
Remarque Tout ce qui précède le théorème de la base incomplète (section 3.4) est encore valable
pour des A-modules où A est un anneau quelconque, et en particulier pour des groupes abéliens (cas
A = Z). Par contre, ce qui suit l’énoncé de ce théorème est faux sur un anneau quelconque, même
si on se limite aux modules libres (c’est à dire qui admettent une base) sur un anneau commutatif.
L
Remarque 1. On dit aussi que les éléments de s∈S Es sont les familles presque toujours
nulles (c’est à dire toujours sauf un nombre fini).
2. Lorsque S est fini, il n’y a pas de différence entre somme directe (externe) et produit :
E1 ⊕ · · · ⊕ En = E1 × · · · × En .
et l’ensemble
F f (X, E) = { f : X → E / |supp( f )| < +∞}
des applications à support fini ( c’est à dire presque toujours nulles). On a bien sûr F f (X, E) '
E (X) .
et si x ∈ ∏s∈S Es et a ∈ K, alors
supp(ax) ⊂ supp(x).
L
Proposition 3.1.3 Si (Es )s∈S est une famille d’espaces vectoriels, alors s∈S Es est un sous-
espace vectoriel de ∏s∈S Es .
ps : E → Es ,
px : F f (X, E) → E, f 7→ f (x)
sont linéaires.
De même que les projections sont associées aux produits, ce sont les injections qui sont liées
aux sommes directes :
Lemme 3.1.4 Si E := ⊕s∈S Es , alors il existe pour tout s ∈ S une unique application (linéaire
injective) is : Es ,→ E telle que pour tout t ∈ S, on ait
Id si s = t
pt ◦ is =
0 sinon.
On aura alors
∀x ∈ E, x = ∑ (is ◦ ps )(x).
s∈S
Démonstration La propriété universelle du produit nous dit qu’il existe une telle application is à
valeurs dans le produit, et il faut juste s’assurer qu’on tombe dans la somme directe. Or, si xs ∈ Es ,
on aura supp(is (xs )) = {s} qui est bien fini.
Pour démontrer la dernière assertion, il suffit de remarquer que pour tout t ∈ S, on a bien
!
pt ∑ (is ◦ ps )(x) = ∑ (pt ◦ is ◦ ps )(x) = pt (x).
s∈S s∈S
3.1 Somme directe (externe) 47
Remarque Comme toujours, nous en déduisons que si E est un espace vectoriel et X un ensemble
quelconque, alors il existe pour tout x ∈ X une unique application (injective)
ix : E ,→ F f (X, E)
telle que
Id si x = y
∀x, y ∈ X, py ◦ ix =
0 sinon.
E1 o
i1
/ E o p2 / E (3.1)
2
p1 i2
avec
i1 (x) = (x, 0), p1 (x, y) = x, i2 (y) = (0, y) et p2 (x, y) = y,
et des formules
(ax )x∈X = ∑ ax 1x .
x∈X
d’où l’unicité. Et on vérifie que l’application ainsi définie répond bien à la question (exercice).
48 Chapitre 3. Somme directe, base
Remarque 1. Dans la situation ci-dessus, on dit parfois que les applications is sont les injec-
tions et que les us sont les applications partielles (à l’origine).
2. Les injections sont donc les applications partielles correspondant au cas u = Id.
3. Par un calcul direct, ou en utilisant la propriété universelle, on montre facilement que si E, F
et G sont trois espaces vectoriels, on a
(a) E ⊕ F ' F ⊕ E (commutativité),
(b) (E ⊕ F) ⊕ G ' E ⊕ (F ⊕ G) (associativité),
(c) E ⊕ {0} ' E (neutre)
Ceci se généralise à des sommes directes quelconques.
4. Comme conséquence de la propriété universelle, si on se donne une famille d’applications
linéaires us : Es → Fs , on dispose alors d’une application linéaire
Exemple 1. Dans le cas d’un nombre fini d’espaces vectoriels E1 , . . . , En , les injections sont
les applications
Ei 7→ E1 × · · · × En , xi 7→ (0, . . . , 0, xi , 0 . . . , 0),
et les applications partielles associées à u : E1 × · · · × En → F, sont les applications
ui : Ei 7→ F, xi 7→ u(0, . . . , 0, xi , 0 . . . , 0).
E1 _
i1
i2 u1
E2 / E1 ⊕ E2
∃!u
#
u2 /F
∃! f˜ '/
1x K (X) E.
ux : K → E, a 7→ a f (x)
Démonstration 1. Il suffit de montrer que ∩s∈S Es est un sous-espace vectoriel, ce qui est
immédiat (exercice).
2. On se donne un sous-espace vectoriel F ⊂ E qui contient tous les Es . Par construction,
l’application
⊕Es → F, (xs )s∈S 7→ ∑ xs
s∈S
a même image que celle de la proposition, qui est donc contenue dans F. Et nous savons que
cette image est un sous-espace vectoriel.
Remarque 1. Plus grand (resp. plus petit) signifie que tous les autres sont contenus dedans
(resp. le contiennent).
2. L’existence de l’application (3.3) résulte de la propriété universelle de la somme directe (et
de même dans la démonstration).
3. Par définition, la somme des sous-espaces est donc
( )
∑ E s = ∑ xs , xs ∈ Es .
s∈S finie
4. Dans le cas d’un nombre fini de sous-espaces, on écrira E1 + · · · + En pour désigner la somme
des sous-espaces.
5. Attention : une union de sous-espaces vectoriels n’en est pas un en général !
Définition 3.2.2 Si l’application (3.3) est bijective, on dit (Es )s∈S est une famille de sous-espace
vectoriels supplémentaires dans E. On dit aussi que E est somme directe interne de la famille.
Remarque 1. Cela signifie donc que tout élément de E s’écrit de manière unique comme
somme d’éléments de Es .
2. L’application (3.3) étant linéaire, on obtient alors un isomorphisme ⊕s∈S Es ' E.
3. Pour mémoriser la différence entre somme directe externe et interne, on peut noter que R2 est
somme directe externe de R par lui même (R2 = R ⊕ R) : c’est une opération. Par contre R2
est somme directe interne de l’axe des x par l’axe des y ( R2 ' Ox ⊕ Oy) : c’est une propriété.
Proposition 3.2.3 Soient E un espace vectoriel et (Es )s∈S une famille de sous-espaces vectoriels
de E. Alors, les conditions suivantes sont équivalentes :
1. Les sous-espaces sont supplémentaires (c’est à dire ⊕s∈S Es ' E).
2. On a
(a) ∑s∈S Es = E,
(b) ∀s ∈ S, Es ∩ ∑t6=s Et = {0}.
50 Chapitre 3. Somme directe, base
Démonstration Bien sûr la première condition n’est autre que la surjectivité de l’application (3.3),
que nous désignerons ici par Φ, et il suffit donc de montrer que l’autre correspond à l’injectivité.
Supposons qu’elle est satisfaite et prenons un (xs )s∈S ∈ ker Φ. On a donc ∑s∈S xs = 0 si bien que
pour tout s ∈ S, on a
xs = − ∑ xt ∈ Es ∩ ∑ Et = {0}.
t6=s t6=s
Remarque 1. Comme cas particulier, on voit que si E1 et E2 sont deux sous-espaces vectoriels
de E, on a
E1 + E2 = E
E1 ⊕ E2 ' E ⇔
E1 ∩ E2 = {0}.
2. Attention, la seconde condition n’est pas aussi simple en général : il ne suffit pas que
E1 + E2 + E3 = E et E1 ∩ E2 = E2 ∩ E3 = E1 ∩ E3 = {0}
4. L’associativité de la somme directe externe permet de construire les sommes directes finies
internes par récurrence : si E1 , . . . , En sont des sous-espaces vectoriels de E et qu’on pose
F = E1 + · · · + En−1 , alors
E1 ⊕ · · · ⊕ En−1 ' F
E1 ⊕ · · · ⊕ En ' E ⇔
F ⊕ En ' E.
est bijective.
Démonstration Cette application a pour noyau F ∩ G et pour image (F + G)/F. Elle est donc
bijective si et seulement si F ∩ G = {0} et F + G/F = E/F. Cette dernière condition est équivalente
à F + G = E. Les détails sont laissés en exercice.
K m ⊕ K n−m ' K n
Remarque La proposition implique qu’un sous-espace vectoriel H d’un espace vectoriel E est un
hyperplan si et seulement si c’est le supplémentaire d’une droite (d’un sous-espace isomorphe à K).
Ce résultat nécessite que K soit un corps il est faux pour les A-modules en général.
ker p = im q et ker q = im p.
Démonstration Exercice.
Proposition 3.2.7 On suppose que 2 est inversible dans K. Soient E un espace vectoriel et
s ∈ L(E).
1. Si s est une symétrie, alors
Démonstration Exercice.
3.3 Base
Proposition 3.3.1 Si X est une partie d’un espace vectoriel E, il existe un plus petit sous-espace
vectoriel Vect(X) de E contenant X.
Définition 3.3.2 Si X est une partie d’un espace vectoriel E, alors Vect(X) est le sous-espace
vectoriel de E engendré par X.
Remarque Cette démarche est très générale et on peut définir de même le sous-monoïde ou le
sous groupe engendré par une partie (bien sûr, ça fonctionne aussi pour la notion de module et en
particulier celle d’idéal). Par exemple, un idéal principal est un idéal engendré par un seul élément.
52 Chapitre 3. Somme directe, base
Proposition 3.3.3 Si X est une partie d’un espace vectoriel E, alors Vect(X) est l’image de
l’application
Vect(∪s∈S Xs ) = ∑ Vect(Xs ).
s∈S
Il est parfois nécessaire de travailler avec des familles plutôt que des ensembles :
Définition 3.3.4 Le sous-espace vectoriel engendré par une famille (xs )s∈S ∈ E S est l’image
Vect((xs )s∈S ) de l’application
Exemple Les colonnes d’une matrice A engendrent im A : en effet, ce sont les images des vecteurs
de la base usuelle (voir plus bas).
Définition 3.3.6 Une partie X d’un espace vectoriel E est une partie libre (resp. partie généra-
trice, resp. une base) si l’application (3.4) est injective (resp. surjective, resp. bijective). On dit
que X est liée si elle n’est pas libre.
∑ ax x = 0 ⇒ ∀x ∈ X, ax = 0.
x∈X
3.3 Base 53
∀y ∈ E, y= ∑ ax x avec ax ∈ K.
x∈X
∀y ∈ E, y= ∑ ax x avec ax ∈ K uniques.
x∈X
L’application réciproque est donc celle qui envoie un vecteur sur ses composantes dans
la base B.
3. X est liée s’il existe un nombre fini d’éléments non tous nuls ax ∈ K tels que ∑x∈X ax x = 0.
De manière équivalente, un des vecteurs est combinaison linéaire des autres : x = ∑y6=x ay y
(faux sur un anneau quelconque).
Ici encore, on aura parfois besoin de travailler avec des familles plutôt que des ensembles.
Définition 3.3.7 Soit E un espace vectoriel.
1. Une famille (xs )s∈S ∈ E S est une famille libre (resp. famille génératrice, resp. une base
ordonnée) si l’application (3.5) est injective (resp. surjective, resp. bijective). On dit que
X est famille liée si elle n’est pas libre.
2. Des vecteurs x1 , . . . , xn sont linéairement indépendants si la famille (x1 , . . . , xn ) est libre.
Sinon, on dit linéairement dépendants.
Proposition 3.3.9 On se donne un espace vectoriel E et, pour tout s ∈ S, un sous-espace vectoriel
Es ⊂ E et une partie Xs ⊂ X. Les conditions suivantes sont alors équivalentes
1. Les Xs sont disjoints deux à deux et X := ∪s∈S Xs est une base de E,
2. (a) E ' ⊕s∈S Es et
(b) pour tout s ∈ S, Xs est une base de Es .
⊕s∈S Es /E
et on vérifie que les Xs sont disjoints deux a deux si et seulement si la flèche du haut est bijective
(exercice). L’assertion résulte alors immédiatement des définitions (exercice encore).
Proposition 3.3.10 Soient E et F deux espace vectoriels et B une base de E. Alors, toute
application B → F se prolonge de manière unique en une application linéaire u : E → F. De plus,
on a
1. u injective ⇔ u(B) est une famille libre de F,
2. u surjective ⇔ u(B) est une partie génératrice de F,
3. u bijective ⇔ u(B) est une base de F.
Démonstration Si {Ls }s∈S est une famille totalement ordonnée de parties libres de E telles que
L ⊂ Ls ⊂ G, alors M := ∪s∈S Ls est une partie libre de E avec L ⊂ M ⊂ G (exercice). On peut donc
appliquer le lemme de Zorn qui nous dit qu’il existe une partie libre B de E maximale pour la
propriété L ⊂ B ⊂ G. Il reste à montrer que B est une partie génératrice. Et pour cela, il suffit de
montrer que G ⊂ Vect(B). Or si x ∈ G \ B, on peut considérer X := B ∪ {x} qui est nécessairement
liée par maximalité de B. On peut donc écrire une relation a1 x1 + · · · + an xn + ax = 0. On a a 6= 0
car B est libre et donc
a1 an
x = − x1 − · · · − xn ∈ Vect(B).
a a
Remarque 1. (a) {Ls }s∈S totalement ordonnée signifie que si s,t ∈ S, alors nécessairement
Ls ⊂ Lt ou Lt ⊂ Ls .
3.5 Dual (suite) 55
(b) M maximal signifie que si X est une partie libre telle que M ⊂ X ⊂ G, alors X = M.
(c) Le lemme de Zorn dit exactement que si toute famille totalement ordonnée de parties
libres de E telles que L ⊂ Ls ⊂ G a un élément maximal, alors il existe une partie libre
B de E maximale pour la propriété L ⊂ B ⊂ G.
2. En théorie des ensembles, le théorème de la base incomplète est en fait équivalent au lemme
de Zorn qui est lui même équivalent à l’axiome du choix (ou même au théorème de Tychonov
en topologie) ou plus simplement au théorème qui dit qu’un produit d’ensembles non vides
est non vide.
3. Le théorème de la base incomplète est faux pour les A-modules en général : on a utilisé le
fait que si a 6= 0, alors a est inversible. Un module qui possède une base est dit libre. Par
exemple, Z/2Z n’est pas un groupe abélien libre.
4. L’existence d’une base est purement théorique et on ne peut pas toujours en exhiber une (cas
de l’espace des suites E = K (N) par exemple).
Démonstration Soit C une base de F. C’est une partie libre et on peut donc la prolonger en une
base B de E et poser G := Vect(B \C). On utilise alors la proposition 3.3.9.
◦
(E1 ∩ E2 ) = ◦ E1 + ◦ E2 .
F 7−→ ◦ F
{sous-espaces vectoriels de E} →{sous-espaces vectoriels de t E}
im t u = ◦ ker u.
ϕ
/K
On calcule alors
t
u(ψ) = ψ ◦ u = ψ ◦ ι ◦ v ◦ π = ϕ ◦ π = ϕ.
Démonstration Seule l’inclusion nécessite une démonstration. On choisit une base de E/F qui est
donnée par un isomorphisme v := K (S) ' E/F. On considère alors, pour s ∈ S fixé, l’application
composée
−1
ϕs : E
π / E/F v / K (S) ps /K
Corollaire 3.5.6 Une partie F d’un espace vectoriel E est un sous-espace vectoriel si et seule-
ment si c’est une intersection d’hyperplans.
Exemple Tout sous-espace vectoriel de K n est l’ensemble des solutions d’un système linéaire
homogène (et réciproquement).
Corollaire 3.5.8 Si E est un espace vectoriel, alors l’application canonique E → tt E est injective.
Φ : x 7→ (ϕ 7→ ϕ(x))
On aura donc Φ(x) = 0 ⇔ ∀ϕ ∈ t E, ϕ(x) = 0, ce qui signifie que ker Φ = (t E)◦ = {0E }.
58 Chapitre 3. Somme directe, base
3.6 Exercices
Exercice 3.6.1 Soient E1 et E2 deux espaces vectoriels, p1 , p2 les deux projections de E1 ⊕ E2
sur E1 et E2 , et i1 , i2 les deux injections de E1 et E2 dans E1 ⊕ E2 . Montrer que
E1 ∩ E2 = E1 ∩ E3 = E2 ∩ E3 = {0},
Exercice 3.6.7 1. Montrer que l’application de transposition A 7→ tA est une symétrie vec-
torielle sur Mn (K).
2. (2 6= 0 dans K) En déduire que les matrices symétriques (tA = A) ainsi que les matrices
antisymétriques (tA = −A) forment des sous-espaces vectoriel SMn (K) et AMn (K) res-
pectivement de Mn (K), et que
Exercice 3.6.8 Soient F, P et I les ensembles de toutes les fonctions R → R, des fonctions
paires et des fonctions impaires, respectivement. Montrer que P et I sont des sous-espaces
vectoriels de F et que F ' P ⊕ I en exhibant une symétrie de F.
Exercice 3.6.10 Montrer que Vect est un opérateur de clôture : on a toujours X ⊂ Vect(X) =
Vect(Vect(X)) et si X1 ⊂ X2 , alors Vect(X1 ) ⊂ Vect(X2 ).
Exercice 3.6.13 1. Montrer que si L est une partie libre de E et S ⊂ L, alors S est aussi
libre.
2. Montrer que si G est une partie génératrice de E et G ⊂ S, alors S est aussi une partie
génératrice de E.
3.6 Exercices 59
Exercice 3.6.15 Donner une base de C comme espace vectoriel sur R, puis de son dual, puis
du quotient C/R.
Exercice 3.6.17 1. Établir un isomorphisme entre K (N) et K[T ] afin de montrer que {T d }d∈N
est une base de K[T ].
2. Soit S un ensemble de polynômes non nuls. Montrer que si pour tout d ∈ N, il existe au
plus (resp. au moins, resp. exactement) un P ∈ S avec deg P = d, alors S est libre (resp.
générateur, resp. une base).
3. Dire dans chaque cas si la condition nécessaire.
4. Énoncer les résultats analogues pour le sous-espace K[T ]≤n des polynômes de degré au
plus n.
Exercice 3.6.18 Soit K un corps à q éléments. Combien y a-t-il d’éléments dans K n ? Montrer
qu’il existe exactement
familles libres de r vecteurs dans K n pour r ≤ n. Combien y a-t-il de bases ordonnées dans K n ?
Explicitez les cas n, q ≤ 3 (un corps a au moins 2 éléments).
Exercice 3.6.20 Montrer que la famille (v1 , v2 ), avec v1 := (1, 1, 1) et v2 := (1, 2, 3), est libre
et compléter en une base de R3 .
4 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.1 Dimension
4.2 Rang
4.3 Changement de base
4.4 Dual (fin)
4.5 Exercices
5 Trace et déterminant . . . . . . . . . . . . . . . . 79
5.1 Application multilinéaire
5.2 Produit tensoriel
5.3 Trace
5.4 Puissance extérieure
5.5 Déterminant
5.6 Exercices
Remarque On pourra généraliser certaines notions et certains résultats aux modules sur un anneau
mais la plupart des énoncés ne sont valides que sur un corps.
4.1 Dimension
Théoreme 4.1.1 Soit E un espace vectoriel. Si L (resp. G) une partie libre (resp. génératrice) de
E, alors card(L) ≤ card(G).
Démonstration Supposons pour commencer que card(L) = m et card(G) = n sont finis, et écrivons
L = {x1 , . . . , xm } et G = {y1 , . . . , yn }.
xr+1 = a1 y1 + · · · + ar yr = a1 x1 + · · · + ar xr ,
ce qui est impossible car L est libre. On considère alors G0 := {y01 , . . . , y0n } avec
xi si 1 ≤ i ≤ r + 1
y0i = yi−1 si r + 1 < i < k
yi si k < i ≤ n
On a
ai 1
yk = ∑ − yi + xr+1 ∈ Vect(G0 )
i6=k ak ak
si bien que G ⊂ Vect(G0 ) et G0 est donc aussi générateur. On peut alors remplacer G par G0 , et donc
r par r + 1, et ainsi de suite jusqu’à arriver à r = m si bien que m ≤ n.
64 Chapitre 4. Dimension
Si on suppose maintenant que G est fini mais que L est infini, on arrive à une contradiction : en
effet, il suffit de considérer une partie finie de L qui a plus d’éléments que G.
Il reste à traiter le cas ou G est infini. Pour tout x ∈ L, il existe une partie finie Sx ⊂ G telle que
x ∈ Vect(Sx ). Maintenant, si S est une partie finie de G, on pose LS := {x ∈ L, Sx = S} ⊂ Vect(S).
Puisque S et LS sont finis et que LS est libre, on a card(LS ≤ card(S). D’autre part, on a aussi
L = ∪S LS . On conclut alors par la suite d’inégalités
Corollaire 4.1.2 Deux bases d’un même espace vectoriel E ont même cardinal.
Définition 4.1.3 Soit E un espace vectoriel. Si B est une base de E, alors la dimension de E est
dim E := card(B).
On dit que E est une droite (resp. un plan) si dim E = 1 (resp. = 2). Si F est un sous-espace
vectoriel de E, la codimension de F dans E est
Remarque 1. Deux espaces vectoriels sont isomorphes si et seulement si ils ont même dimen-
sion :
E ' F ⇔ dim E = dim F
Attention cependant, K[T ] et K N , bien que tous deux de dimension infinie, ne sont pas
isomorphes.
2. Un sous-espace vectoriel H de E est un hyperplan si et seulement si codimE (H) = 1.
3. Si A est un anneau, alors un A-module est dit de type fini (resp. libre de rang fini) s’il existe
une partie génératrice (resp. une base) finie.
4. Lorsque A est commutatif, le corollaire 4.1.2 est toujours valide mais on parle alors de rang
(au lieu de dimension).
Exemple 1. Les vecteurs (2, 3, 5, 7), (3, 5, 7, 11), (5, 7, 11, 13), (7, 11, 13, 17), (11, 13, 17, 19) sont
liés dans R4 .
2. Les polynômes X 3 − 1, X 3 − X et X 3 − X 2 n’engendrent pas R[X]≤3 .
Démonstration Grâce au théorème de la base incomplète, si X est libre (resp. générateur), il est
contenu dans (resp. contient) une base B qui a même nombre d’éléments que X et on a donc X = B
(car ce sont des ensembles finis). .
Si u est injective, on a en fait card(B) = card(u(B)) et on sait aussi que u(B) est libre si bien
que
dim E = card(B) = card(u(B)) ≤ dim F.
2. Si dim E = dim F, on obtient dans les deux cas une suite d’égalités
Remarque 1. Comme cas particulier important, on voit que si E un espace vectoriel de dimen-
sion finie et u ∈ L(E), on a la suite d’équivalences de la seconde partie de la proposition
4.1.6.
2. Par contre, ce n’est plus vrai en dimension infinie.
Remarque 1. Rappelons que dans un monoïde G, un élément g est inversible s’il existe un autre
élément h (que l’on note ensuite g−1 ) tel que gh = hg = 1. La condition gh = 1 n’implique
pas forcément la condition symétrique hg = 1. Ce corollaire nous dit que c’est cependant le
cas pour les matrices.
2. Même dans le cas n = 2, le fait que AB = I implique BA = I est loin d’être immédiat.
3. Ce corollaire illustre le fait que l’on peut obtenir des propriétés fondamentales des matrices
grâce à la théorie des applications linéaires.
4. Plus généralement, si on a u ◦ v = Id dans L(E) alors u ∈ GL(E) lorsque en dimension finie.
5. Ce dernier énoncé est faux en dimension infinie.
Corollaire 4.1.8 Soient E un espace vectoriel de dimension finie et u ∈ L(E). Soit E 0 un sous-
espace vectoriel de E stable par u. Soient u0 ∈ L(E 0 ) et u00 ∈ L(E/E 0 ) les application induites.
On a alors
u ∈ GL(E) ⇔ u0 ∈ GL(E 0 ) et u00 ∈ GL(E/E 0 ).
Démonstration Puisque les espaces sont de dimension finie, les notions d’injectivité, surjectivité
et bijectivité coïncident et l’assertion est alors une conséquence immédiate de la remarque suivant
la proposition 2.6.7.
on voit que A est inversible si et seulement si A0 et A00 sont inversibles (quoi qu’il y ait en
haut à droite).
4.2 Rang
Proposition 4.2.1 Si (Es )s∈S est une famille d’espaces vectoriels sur K, on a
M
dim Es = ∑ dim Es .
s∈S s∈S
2. Si les Es sont supplémentaires dans un espace vectoriel E, alors dim E = ∑s∈S dim Es .
Remarque 1. Une suite exacte courte est une suite d’applications linéaires
E 0 → E → E 00
ι π
2. Plus généralement, une suite exacte longue est une suite d’applications linéaires ui : Ei → Ei+1
telles que im ui = ker ui+1 . Si les espaces Ei sont de dimension finie et presque tous nuls, on
aura
∑ (−1)i dim Ei = 0.
i∈N
rang(u) := dim im u.
rang(A) = rang(X).
Pour A ∈ Mn (K), on a
rang(A) = n ⇔ A ∈ GLn (K).
5. Le rang du système linéaire
a1,1 x1 · · · + a1,m xm = 0
S := ..
.
an,1 x1 · · · + an,m xm = 0.
ϕi := ai,1 p1 + · · · + ai,m pm ∈ t K m
rang(S ) = rang(U).
Proposition 4.2.6 1. Si X est une partie d’un espace vectoriel E, on a rang(X) ≤ card(X) et
rang(X) ≤ dim E. De plus,
(a) Si X est libre, alors rang(X) = card(X).
(b) Si X est générateur, alors rang(X) = dim E.
Dans les deux cas, la réciproque est vraie si rang(X) est fini, et en particulier, si X ou
dim E est fini.
2. Si u : E → F est une application linéaire, alors rang(u) ≤ dim F et rang(u) ≤ dim E. De
plus,
(a) Si u est surjective, alors rang(u) = dim F et la réciproque est vraie si F est de
dimension finie.
(b) Si u est injective, alors rang(u) = dim E et la réciproque est vraie si E est de dimen-
sion finie.
(a) On sait que u est surjective si et seulement si Y est générateur auquel cas rang(Y ) =
dim F, et que la réciproque est vraie si ce nombre est fini.
(b) On sait aussi que u est injective si et seulement si Y est libre et u induit une bijection
entre B et Y (ceci exprime le fait que la famille est libre). Cela implique que rang(Y ) =
card(Y ) = card(B) = dim E et la réciproque est vraie si ce nombre est fini.
Démonstration En effet, si u est surjective, alors im(v ◦ u) = im(v) et si v est injective, alors
im(v ◦ u) = v(im u) ' im u (exercice).
Remarque 1. Comme conséquence, on voit que si A ∈ Mn×m (K) et P ∈ GLn (K) (resp. P ∈
GLm (K)), alors
2. En particulier, une suite d’opérations élémentaires ne change pas le rang d’une matrice. En
effet, opérer sur les lignes (resp. colonnes) revient à multiplier à gauche (resp. droite) par une
matrice inversible (celle obtenue en faisant les mêmes opérations sur la matrice unité I).
Remarque Le contenu de cette section (à part le dernier résultat qui s’appuie sur l’algorithme
du pivot de Gauss) s’applique mutatis mutandis aux modules libres de rang fini sur un anneau
commutatif.
On rappelle qu’une base ordonnée d’un espace vectoriel (de dimension finie) E sur K est une
famille B := (e1 , . . . , en ) de vecteurs de E telle que l’unique application linéaire Φ : K n → E, 1i 7→ ei
soit bijective. L’application réciproque Φ−1 : E → K n est celle qui envoie un vecteur x sur ses
composantes (x1 , . . . , xn ) dans la base B.
Définition 4.3.1 Soient u : E → F une application linéaire, B (resp. C ) une base ordonnée de
E (resp. F) et Φ : K m ' E (resp. Ψ : K n ' F) l’isomorphisme associé. Alors, la matrice de u
dans les base B et C est
[u]B
C := Mat B
C (u) := [Ψ−1 ◦ u ◦ Φ].
Remarque 1. Lorsque E = F et B = C , on écrira [u]B (ou MatB (u)) tout simplement si bien
que
[u]B = [Φ−1 ◦ u ◦ Φ].
et on dira que c’est la matrice de u dans la base B.
2. Si on utilise comme d’habitude l’isomorphisme canonique L(K, E) ' E pour voir n’importe
quel x ∈ E comme une application linéaire ix : K → E, et qu’on munit K de sa base canonique,
la matrice de x dans la base B est est donc le vecteur colonne
−1
[x]B := [ix ]can
B = [Φ (x)]
70 Chapitre 4. Dimension
xn
Autrement dit, la matrice de x est le vecteur colonne des composantes de x dans la base B.
4. On en déduit que, si on note B = (e1 , . . . , em ) et C = ( f1 , . . . , fn ) des bases de E et F
respectivement, alors
[u]B
C = [[u(e1 )]C · · · [u(em ]C ] .
Autrement dit, les colonnes de la matrice de u sont les matrices dans la base C des images
par u des vecteurs de la base B. On a donc
[u]B
C = [ai, j ] ⇔ ∀ j = 1, . . . , m, u(e j ) = a1, j f 1 + · · · + an, j f n .
[v ◦ u]B C B
D = [v]D [u]C .
Remarque 1. On voit donc que le choix des bases nous fournit un isomorphisme d’espaces
vectoriels
L(E, F) ' Mn×m (K)
et que la composition des applications correspond à la multiplication des matrices.
2. À toute une base ordonnée B d’un espace vectoriel E de dimension n, on peut donc associer,
grâce à la proposition, un isomorphisme d’algèbres
[u(x)]C = [u]B
C [x]B .
Autrement dit, si les composantes de x sont (x1 , . . . , xm ), alors celles de u(x) seront
Définition 4.3.3 Soient B et B 0 deux bases d’un même espace vectoriel E. La matrice de
passage de B à B 0 est la matrice
P := [IdE ]B
0
B.
P = [e01 ]B · · · [e0n ]B .
On écrit donc les vecteurs de la nouvelle base en colonnes en les exprimant dans l’ancienne
base.
2. Lorsque E = K n est muni de sa base canonique et qu’on considère une autre base B =
(e1 , . . . , en ), la matrice de passage sera donc naturellement P = [[e1 ] · · · [en ]] .
Proposition 4.3.4 Soient B et B 0 deux bases d’un même espace vectoriel E de dimension n, et
P la matrice de passage de B à B 0 . Alors,
1. On a P ∈ GLn (K) et P−1 est la matrice de passage de B 0 à B
2. Soient u : E → F une application linéaire, C et C 0 deux bases de F et Q la matrice de
passage de C à C 0 . Soient A (resp. A0 ) la matrice de u dans les bases B et C (resp. B 0 et
C 0 ). On a alors
A0 = Q−1 AP.
[IdE ]B B B
0
B [IdE ]B 0 = [IdE ◦ IdE ]B = [IdE ]B = I
(et inversement).
2. Ici encore, il suffit de calculer
Remarque 1. S’il existe deux matrices inversibles P, Q telles que A0 = Q−1 AP, on dit que A et
0
A sont équivalentes. On voit donc que les matrices d’une même application linéaires dans
différentes bases sont toujours équivalentes (à défaut d’être égales).
2. La réciproque aussi est vraie : si A = [u]B 0
C avec u ∈0 L(E, F) et A est équivalente à A, alors il
0 0 0 B
existe d’autres bases B et C telles que A = [u]C 0 .
72 Chapitre 4. Dimension
4. S’il existe une matrice inversible P telles que A0 = P−1 AP, on dit que A et A0 sont semblables.
On voit donc que les matrices d’un même endomorphisme dans deux bases différentes sont
toujours semblables.
5. La réciproque aussi est vraie : si A = [u]B avec u ∈ L(E) et A0 est semblable à A, alors il
existe une autre base B 0 de E telle que A0 = [u]B0 .
Proposition 4.3.5 Deux matrices sont équivalentes si et seulement si elles ont même rang.
Démonstration On a vu dans la remarque suivant la proposition 4.2.7 que le rang ne change pas
quand on multiplie à droite ou à gauche par une matrice inversible. Inversement, si on se donne une
matrice quelconque A, la méthode du pivot de Gauss nous permet d’opérer sur les lignes et sur les
colonnes de A pour obtenir la matrice par blocs
Ir 0
.
0 0
Or une opération élémentaire n’est rien d’autre qu’une multiplication par une matrice élémentaire,
qui est toujours inversible. Deux matrices de rang r seront donc équivalentes à la même matrice, et
donc équivalentes entre elles. .
x = ∑ t ei (x)ei . (4.1)
i∈I
ϕ = ∑ ϕ(ei )t ei . (4.2)
i∈I
Remarque Si on désigne par Φ : K (I) ' E l’isomorphisme donné par la base B, alors les formes
linéaires t ei sont les composantes de l’application Φ−1 : E → K (I) .
dim t E = dim E.
En fait, si B est une base de E, alors t B est une base de t E. De plus, l’application canonique
E → tt E est un isomorphisme.
Démonstration Si B est une base de E, alors t B est libre comme on l’a vu dans le lemme en 2)
et engendre t E grâce à l’assertion 4) du même lemme. C’est donc bien une base. Pour montrer la
dernière assertion, on utilise d’abord la première partie qui nous dite que dim tt E = dim t E = dim E.
Comme on sait que l’application canonique E → tt E est linéaire et injective par le corollaire 3.5.8,
c’est un isomorphisme grâce à la partie 2) de la proposition 4.1.6.
Proposition 4.4.3 Soient u : E → F une application linéaire entre espaces vectoriels de dimen-
sion finies et B, C des bases de E et F respectivement. Si A est la matrice de u dans les bases B
et C , alors la matrice t u dans les bases t C et t B est t A.
Remarque 1. L’égalité (4.2) nous montre que si B est une base d’un espace vectoriel de
dimension finie E et que ϕ ∈ t E, on a
[ϕ]t B = t [ϕ]B
can ,
2. Si B et B 0 := (e0i )ni=1 sont deux bases d’un même espace vectoriel de dimension finie E, la
matrice de passage de B 0 à B est
[t e01 ]B
can
P−1 = ..
.
.
t 0
[ en ]can B
3. Dans le cas ou on passe de la base canonique de K n à une nouvelle base B := (ei )ni=1 , la
formule devient t
[ e1 ]
P−1 = ... .
[t en ]
ϕ ∈ ◦ (U ◦ ) ⇔ ∀x ∈ U ◦ , ϕ(x) = 0
◦
⇔ ∀x ∈ U , Φ(x)(ϕ) = 0
◦
⇔ ∀u ∈ U u(ϕ) = 0
◦ ◦
⇔ ϕ ∈ ( U) .
Théoreme 4.4.6 Si E est un espace vectoriel de dimension finie, on dispose d’une bijection
F 7−→ ◦ F
{sous-espaces vectoriels de E} {sous-espaces vectoriels de t E}
U ◦ →−7 U
Démonstration Grâce à la proposition 4.4, il faut juste s’assurer que les deux applications sont
réciproques l’une de l’autre. Or, on a vu dans la proposition 3.5.5 que si F est un sous-espace
vectoriel de E, alors (◦ F)◦ = F. En appliquant cela à U ⊂ t E et en utilisant le lemme, on obtient
aussi U = ◦ (U ◦ ).
4.4 Dual (fin) 75
Nous avons vu dans la proposition 2.5.4 et dans la seconde partie de la proposition que si
u : E → F est une application linéaire, on a
ker t u = ◦ im u et im t u = ◦ ker u.
On en déduit alors :
Corollaire 4.4.7 Si u : E → F est une application linéaire entre espaces vectoriels de dimension
finie, on a
ker u = (im t u)◦ et im u = (ker t u)◦ .
Corollaire 4.4.8 Soit u : E → F une application linéaire entre espaces vectoriels de dimension
finie. On a alors
1. u injective ⇔ t u surjective.
2. u surjective ⇔ t u injective.
3. u bijective ⇔ t u bijective.
Corollaire 4.4.9 Si u : E → F est une application linéaire entre espaces vectoriels de dimension
finie, on a
rang t u = rang u.
Remarque Comme cas particulier, on voit que si A est une matrice quelconque, alors
rang t A = rang A
Autrement dit, le nombre maximum de lignes indépendantes est égal au nombre maximal de
colonnes indépendantes. Voici encore un résultat qui est loin d’être évident, et que nous déduisons
du formalisme général.
Exemple Si S est un système linéaire homogène de rang r à n variables, alors Sol(S ) est un
espace vectoriel de dimension n − r.
76 Chapitre 4. Dimension
4.5 Exercices
Exercice 4.5.1 1. Quelle est la dimension de K n ?
2. Quelle est la dimension de t K n ?
3. Quelle est la dimension de K[T ] ?
4. Quelle est la dimension de K[T ]≤n ?
5. Quelle est la dimension de K[T ]/(P) si P est un polynôme de degré n ?
6. Quelle est la dimension de Mn×m (K) ?
7. Quelle est la dimension de K n /K m ?
(2, 3, 5, 7), (3, 5, 7, 11), (5, 7, 11, 13), (7, 11, 13, 17), (11, 13, 17, 19)
Exercice 4.5.5 1. Montrer que la dérivation sur R[T ] est linéaire et surjective. Est-elle
bijective ?
2. Montrer que l’intégration sur R[T ] (à partir de 0) est linéaire et injective. Est-elle bijective ?
Exercice 4.5.10 Soient A ∈ Mn×m (K) et C1 , . . . ,Cm les vecteurs colonnes de A. Montrer que
Exercice 4.5.13 1. Quelle est la matrice de la dérivation K[T ]≤n → K[T ]≤n−1 , P 7→ P0 dans
les bases canoniques ?
2. Quelle est la matrice de la conjugaison complexe dans la base canonique de C, vu comme
espace vectoriel sur R ?
Exercice 4.5.14 Pour a ∈ K, on désigne par ua : K[T ] → K[T ] l’unique morphisme d’algèbres
tel que ua (T ) = T − a.
1. Montrer que l’on a toujours ua ◦ ub = ua+b et que u0 = IdK[T ] .
2. En déduire que ua est un automorphisme de l’algèbre K[T ].
3. En déduire un morphisme de groupes K → GL(K[T ]).
4. Montrer que K[T ]≤n est stable par ua et en déduire que l’application induite ua,n est un
automorphisme de l’espace vectoriel K[T ]≤n .
5. Montrer que la matrice de ua,n dans la base canonique est inversible et retrouver le résultat
précédent.
Exercice 4.5.16 Soient A ∈ Mn×m (K) et L1 , . . . , Ln les vecteurs lignes de A. Montrer que
Exercice 4.5.17 Montrer que des vecteurs x1 , . . . , xn de K n forment une base si et seulement
si la matrice dont les colonnes (resp. les lignes) sont les vecteurs x1 , . . . , xn est inversible. En
déduire le cardinal de GLn (K) lorsque K est un corps à q éléments.
Exercice 4.5.18 Soient E un espace vectoriel de dimension finie et F, G deux sous espaces
vectoriels de E tels que E = F ⊕ G. Montrer que t E = ◦ F ⊕ ◦ G.
Exercice 4.5.19 Montrer que si S est un système linéaire homogène de rang r à m variables,
alors Sol(S ) est un espace vectoriel de dimension m − r.
78 Chapitre 4. Dimension
Exercice 4.5.20 — TP. On considère la matrice
9 0 −3
Q := 0 10 0 ∈ Q3 .
−3 0 1
1
1. Montrer que P := 10 Q est une projection.
2. Déterminer le noyau et l’image de P.
3. Vérifiez que Q3 = ker P ⊕ im P.
et on pose
v1 := (1, 2, −3), v2 := (2, 3, −2), v3 := (−1, −4, 12).
1. Quelle est la matrice A de u (dans les bases canoniques) ? Déterminer le rang de u, donner
une base de ker u ainsi que de im u. Finalement, donner une équation de im u.
2. Montrer que (v1 , v2 , v3 ) est une nouvelle base de Q3 . Quelle est la matrice de passage P.
Calculer P−1 .
3. Quelle est la matrice de u dans la nouvelle base ?
x1 := (2, 1, 0, 2, −1, −2, −1, −1), x2 := (2, 2, 4, 1, −2, −2, −1, −3),
x3 := (1, 0, −2, 0, −3, 0, −1, −3), x4 := (0, 1, 2, −1, −1, −3, 1, 0),
x5 := (−1, 1, 1, 0, −1, −1, −1, 0), x6 := (4, 5, 5, 2, −8, −8, −3, −7),
x7 := (2, 2, −1, 2, −5, −3, −3, −4), y1 := (2, 2, 2, 1, −2, −5, 0, −1),
y2 := (1, 3, 5, 1, −3, −3, −2, −3) et y3 := (3, 3, 4, 0, −6, −5, −1, −6) ∈ Q8 .
1. Vérifier que les vecteurs y1 , y2 , y3 sont linéairement indépendants.
2. Montrer qu’ils sont tous dans F = Vect({x1 , . . . , x7 }).
3. Compléter y1 , y2 , y3 en une base de F (en utilisant les vecteurs x1 , . . . , x7 ).
5. Trace et déterminant
Remarque Tout ce qui suit reste valable sur un anneau commutatif quelconque, quitte à remplacer
la notion d’espace vectoriel par celle de module et celle de dimension par celle de rang.
alors, l’application
Xi → Y, xi 7→ Φ(x1 , . . . , xn )
est dite partielle.
Φ : E1 × · · · × En → F
80 Chapitre 5. Trace et déterminant
alors l’application
Ei → F, xi 7→ Φ(x1 , . . . , xn )
est linéaire.
2. Bien sûr, dans le cas ou n = 1, on retrouve la définition d’une application linéaire.
3. On dit que Φ est multilinéaire si on ne veut pas préciser n, bilinéaire lorsque n = 2.
4. On dit forme multilinéaire lorsque F = K.
5. Si E1 = · · · = En = E, on dit que Φ est une forme multilinéaire sur E.
K ×E → E (a, x) 7→ ax
est bilinéaire.
2. Si L est une K-algèbre, alors la multiplication
L × L → L, (u, v) 7→ uv
E × t E → K, (x, ϕ) 7→ ϕ(x)
((x1 , . . . , xn ), (y1 , . . . , yn )) → x1 y1 + · · · + xn yn
est une forme bilinéaire sur K n . Plus généralement, on peut remplacer le second membre par
n’importe quelle expression ∑ ai, j xi y j (voir plus loin).
7. Le produit vectoriel
K3 × K3 / K3
((x1 , x2 , x3 ), (y1 , y2 , y3 )) / (x2 y3 − x3 y2 , x3 y1 − x1 y3 , x1 y2 − x2 y1 )
Proposition 5.1.3 Si E1 , . . . , En et F sont des espaces vectoriels, alors les applications multili-
néaires E1 × · · · × En → F forment un sous espace vectoriel
L(E1 , . . . , En , F) ⊂ F (E1 × · · · × En , F)
et les applications L(E1 , . . . , En , F) → L(Ei , F) qui envoient Φ sur une application partielle, sont
toutes linéaires.
Démonstration Par définition d’une somme ou d’un multiple d’une application, on voit déjà que
l’application F E1 ×···×En → F Ei qui envoie Φ sur une application partielle est automatiquement
linéaire. Et la première assertion résulte alors immédiatement de l’assertion analogue pour les
applications linéaires.
L(F, L(E, G)) ' L(E, F, G) ' L(E, L(F, G)), l↔Φ↔r
donnés par
∀x ∈ E, y ∈ F, l(y)(x) = Φ(x, y) = r(x)(y)
E10 × · · · × En0 /F
est multilinéaire.
2. Si u : F → F 0 est linéaire, alors l’application composée
E1 × · · · × En /F
(x1 , . . . , xn ) / u(Φ(x1 , . . . , xn ))
est multilinéaire.
Démonstration Résulte encore des résultats analogues pour les applications linéaires (exercice).
82 Chapitre 5. Trace et déterminant
Exemple Comme C 0 ([0, 1], R) est une R-algèbre (c’est une sous-algèbre de R[0,1] ), la multipli-
cation dans C 0 ([0, 1], R) est une application bilinéaire. D’autre part, on sait que l’intégration est
linéaire. On en déduit (sans calcul) que l’application
Z 1
( f , g) 7→ ( f g)(t)dt (5.1)
0
Remarque Avant d’aller plus loin, il est nécessaire de faire quelques rappels sur les permutations.
1. Une inversion de σ ∈ Sn est un couple (i, j) avec 1 ≤ i < j ≤ n mais σ (i) > σ ( j).
2. La signature est l’application
qui vaut 1 (resp. −1) s’il y a un nombre pair (resp. impair) d’inversions dans σ .
3. La signature est en fait l’unique morphisme de groupes surjectif (pour n ≥ 2).
4. La transposition τ := (i j) est la permutation qui échange i et j. Toute permutation est un
produit (c’est à dire, composé) de transpositions. On peut même se limiter aux transpositions
de la forme (i i + 1) avec 1 ≤ i < n ou bien de la forme (1 i) avec 1 < i ≤ n si on veut.
5. Si Φ : X × · · · × X → Y est une application quelconque et σ ∈ Sn , on écrira
Φσ (x1 , . . . , xn ) := Φ xσ (1) , . . . , xσ (n) .
Définition 5.1.6 Soit Φ : E × · · · × E → F une application multilinéaire sur E. Alors, on dit que
1. Φ est symétrique si
∀σ ∈ Sn , Φσ = Φ,
2. Φ est antisymétrique si
∀σ ∈ Sn , Φσ = (−1)σ Φ
(et il suffit de considérer les transpositions).
(∃i 6= j, xi = x j ) ⇒ Φ(x1 , . . . , xn ) = 0.
Démonstration Supposons pour commencer que Φ est alternée et donnons nous une transposition
τ := (i j) avec 0 ≤ i < j ≤ n. Pour x1 , . . . , xn ∈ E, on a alors par linéarité,
Proposition 5.1.9 Les applications n-linéaires symétriques (resp. antisymétriques, resp. alter-
nées) sur E à valeurs dans F forment un sous-espace vectoriel Sn (E, F) (resp. An (E, F), resp.
Vn
(E, F)) de Ln (E, F) := L(E, . . . , E, F).
Remarque 1. On peut montrer que, dans la proposition 5.1.5, si Φ est une application multili-
néaire symétrique (resp. antisymétrique, resp. alternée), il en va de même des applications
composées.
2. Comme cas particulier, on voit que si E 0 ⊂ E est un sous-espace vectoriel et Φ : E × · · · ×
E → F est une application multilinéaire (resp. multilinéaire symétrique, resp. multilinéaire
antisymétrique, resp. multilinéaire alternée) sur E, alors il en va de même de l’application
induite E 0 × · · · × E 0 → F.
1x+x0 ,y − 1x,y − 1x0 ,y , 1x,y+y0 − 1x,y − 1x,y0 , a1x,y − 1ax,y et a1x,y − 1x,ay ,
Remarque 1. On rappelle que K (E×F) est un espace vectoriel dont une base est donnée par les
1x,y avec x ∈ E et y ∈ F. Autrement dit, tout élément de K (E×F) s’écrit de manière unique
sous la forme a1 1x1 ,y1 + · · · + an 1xn ,yn avec x1 , . . . , xn ∈ E, y1 , . . . , yn ∈ F et a1 , . . . , an ∈ K.
84 Chapitre 5. Trace et déterminant
x ⊗ (y + y0 ) = x ⊗ y + x ⊗ y0 ,
a(x ⊗ y) = ax ⊗ y = x ⊗ ay
lorsque x, x0 ∈ E, y, y0 ∈ F et a ∈ K.
3. Comme E ⊗ F est un quotient de K (E×F) , les tenseurs x ⊗ y := 1x,y engendrent E ⊗ F.
Cela veut dire que tout élément de E ⊗ F s’écrit (de plusieurs manières) sous la forme
a1 x1 ⊗ y1 + · · · + an xn ⊗ yn avec x1 , . . . , xn ∈ E, y1 , . . . , yn ∈ F et a1 , . . . , an ∈ K.
4. On voit en fait que tout élément de E ⊗ F s’écrit comme somme de tenseurs (de plusieurs
manières).
5. Même si on s’intéresse uniquement aux espaces vectoriels de dimension finie, on voit
intervenir l’espace K (E×F) qui est toujours de dimension infinie si K est infini (à moins que
E = F = {0}).
6. On peut définir plus généralement E1 ⊗ · · · ⊗ En comme quotient de K E1 ×···×En .
E × F → E ⊗ F, (x, y) 7→ x ⊗ y
est bilinéaire. De plus, si Φ : E × F → G est une application bilinéaire, alors il existe une unique
application linéaire Φe : E ⊗ F → G telle que
∀x ∈ E, y ∈ F, e ⊗ y) :
Φ(x, y) = Φ(x
6/= G
Φ
E ×F
Φ
e
K (E×F)
Φ
e
E ⊗ F.
3. Par un argument direct, ou en utilisant les propriétés universelles, on peut vérifier que, si E,
F et G sont des espaces vectoriels, on a
(a) E ⊗ F ' F ⊗ E (commutativité)
(b) (E ⊗ F) ⊗ G ' E ⊗ (F ⊗ G) (associativité)
(c) E ⊗ K ' K ⊗ E ' E (élément neutre)
(d) (E ⊕ F) ⊗ G ' (E ⊗ G) ⊕ (F ⊗ G) (distributivité)
4. La proposition se généralise à un nombre fini d’espaces vectoriels et on en déduit formelle-
ment
E1 ⊗ · · · ⊗ En ' (E1 ⊗ · · · ⊗ En−1 ) ⊗ En .
C’est d’ailleurs souvent cette dernière expression qui est utilisée pour définir par récurrence
le produit tensoriel d’un nombre fini d’espaces vectoriels.
Proposition 5.2.4 Si E et F sont deux espaces vectoriels de base (ei )i∈I et ( f j ) j∈J respectivement,
alors (ei ⊗ f j )i∈I, j∈J est une base de E ⊗ F.
On vérifie aisément que c’est bien un inverse par un argument direct ou, si on préfère, en utilisant
les propriétés universelles (exercice).
5.3 Trace
Proposition 5.3.1 Soient E et F deux espaces vectoriels.
1. Si ϕ ∈ t E et y ∈ F, alors l’application
u : E → F, x 7→ ϕ(x)y
est linéaire.
2. L’application
F × t E → L(E, F), (y, ϕ) 7→ (u : x 7→ ϕ(x)y)
est bilinéaire
3. Si E est de dimension finie, celle-ci induit un isomorphisme
Démonstration 1. Exercice.
2. Exercice.
3. On exhibe un un inverse à notre application lorsque E possède une base finie (e1 , . . . , en ) en
considérant
L(E, F) → F ⊗ t E, u 7→ u(e1 ) ⊗ t e1 + · · · + u(en ) ⊗ t en .
Il faut s’assurer que c’est bien un inverse (exercice encore).
Mn×1 (K) ⊗ M1×m (K) ' K n ⊗ t K m ' L(K m , K n ) ' Mn×m (K), 1i,1 ⊗ 11, j ↔ 1i, j
ei, j (x) = x j fi si x = x1 e1 + · · · + xm em ∈ E.
(v,u)7→v◦u
L(F, G) × L(E, F) / L(E, G)
O O
G ×tF × F ×tE / G ⊗ t E.
(z,ψ,y,ϕ)7→ψ(y)(z,ϕ)
Définition 5.3.2 Si E est un espace vectoriel de dimension finie, l’unique forme linéaire tr :
5.3 Trace 87
(x,ϕ)7→ϕ(x)
E ×tE /7 K
?
E ⊗tE tr
'
L(E).
est la trace.
Remarque Cette définition nous donne deux propriétés classiques de la trace d’un endomor-
phisme :
1. La trace de u ne dépend pas du choix de la base de E,
2. La trace est linéaire en u,
mais il faut tout de même s’assurer que l’on retrouve bien la définition classique.
Proposition 5.3.3 Soit E un espace vectoriel de dimension finie. Si A := [ai, j ] est la matrice de
u ∈ L(E) dans une base B := (e1 , . . . , en ), alors tr(u) = a1,1 + · · · + an,n .
Et par définition, on a
t 1 si i = j
tr(ei, j ) = e j (ei ) =
0 sinon
On conclut par linéarité puisque u = ∑ ai, j ei, j .
E ×tE × E ×tE / tE ⊗ E
(y,ψ,x,ϕ)7→ψ(x)(y,ϕ)
qui nous donne tr(v ◦ u) = ϕ(y)ψ(x) quand u et v proviennent de (x, ϕ) et (y, ψ) respectivement.
Le cas général s’obtient par linéarité.
88 Chapitre 5. Trace et déterminant
si bien que
n n n
tr(AB) = ∑ ci,i = ∑ ∑ ai, j b j,i
i=1 i=1 j=1
⊗k E := E ⊗ · · · ⊗ E, k fois.
E × · · · × E → ⊗k E, (x1 , . . . , xk ) 7→ x1 ⊗ · · · ⊗ xk .
3. Comme conséquence de la proposition 5.2.4 (base d’un produit tensoriel), on voit que si
B := (ei )i∈I est une base de E, alors la famille des e f (1) ⊗ · · · ⊗ e f (k) avec f : k → I, est
une base de ⊗k E. On préfère travailler ici avec des applications k := {1, . . . , k} → I plutôt
qu’avec des k-uples d’éléments de I pour des raisons qui devraient être claires plus tard.
4. Si on a, pour tout i = 1, . . . , k, xi = ∑ j∈I ai, j e j , on peut même écrire explicitement
x1 ⊗ · · · ⊗ xk = ∑ a1, j e j ⊗ · · · ⊗ ∑ ak, j e j
j∈I j∈I
Définition 5.4.2 Soit E un espace vectoriel. La k-ème puissance extérieure de E est le quotient
Vk k
E de ⊗ E par le sous-espace vectoriel engendré par tous les tenseurs x1 ⊗ · · · ⊗ xk pour
lesquels il existe i 6= j avec xi = x j .
On posera
k
^
x1 ∧ · · · ∧ xk := x1 ⊗ · · · ⊗ xk ∈ E.
x1 . . . xk := x1 ⊗ · · · ⊗ xk ∈ Sk E
k
^
E ×···×E → E, (x1 , . . . , xk ) 7→ x1 ∧ · · · ∧ xk
E ×···×E
Φ /6 F
Vk
E.
Remarque 1. On voit de même que les puissances symétriques sont universelles pour les
applications multilinéaires symétriques.
2. On a en fait un isomorphisme
k
^ k
^
(E, F) ' L( E, F)
qui permet d’utiliser un espace d’applications multilinéaires alternées à la place de celui des
puissances extérieures.
5. Comme conséquence de la propriété universelle, on voit que toute application linéaire
u : E → F fournit une application linéaire
k
^ k
^ k
^
u: E→ F, x1 ∧ · · · ∧ xk 7→ u(x1 ) ∧ · · · ∧ u(xk ).
Démonstration Par hypothèse, il existe i ∈ {1, . . . , k} tels que xi = ∑ j6=i a j x j et on aura donc
x1 ∧ · · · ∧ xk = x1 ∧ · · · ∧ xi−1 ∧ ∑ a j x j ∧ xi+1 ∧ · · · ∧ xk
j6=i
= ∑ a j x1 ∧ · · · ∧ xi−1 ∧ x j ∧ xi+1 ∧ · · · ∧ xk
j6=i
= 0.
Remarque Afin de démontrer le prochain lemme, rappelons que l’on dispose du groupe alterné
An qui est le sous-groupe de Sn formé des permutations paires (c’est le noyau de la signature). De
plus, si τ est une transposition, on a une union disjointe
Sn = An ∪ An τ
(autrement dit, An τ est exactement l’ensemble des permutations impaires).
Lemme 5.4.5 Si (e1 , . . . , en ) est une base d’un espace vectoriel E, alors le noyau de l’application
canonique π : ⊗n E → ∧n E a pour base
— les e f (1) ⊗ · · · ⊗ e f (n) avec f 6∈ Sn et
— les eσ (1) ⊗ · · · ⊗ eσ (n) − (−1)σ e1 ⊗ · · · ⊗ en avec σ ∈ Sn \ {Id}.
une application alternée est antisymétrique, on a aussi eσ − (−1)σ eId ∈ ker π si σ ∈ Sn . On voit
aussi aisément que les e f avec f non injective et les eσ − (−1)σ eId avec σ 6= 1 sont linéairement
indépendants (exercice).
Donnons nous mutinement x1 ⊗ · · · ⊗ xn ∈ ⊗n E et supposons qu’il existe i < j tel que xi = x j .
On écrit pour tout u = 1, . . . , n, xu = ∑nv=1 au,v ev si bien que
x1 ⊗ · · · ⊗ xn = ∑ a1, f (1) . . . an, f (n) e f + ∑ a1,σ (1) . . . an,σ (n) eσ .
f 6∈Sn σ ∈Sn
En effet, si u 6= i, j, on a au,σ (u) = au,σ (τ(u)) et d’autre part ai,σ (i) = a j,σ (τ( j)) (et symétriquement)
puisque xi = x j . Puisque l’on dispose d’une union disjointe Sn = An ∪ An τ, on voit donc que
Remarque Plus généralement, on montre exactement de la même façon que le noyau de l’ap-
plication canonique π : ⊗k E → ∧k E a pour base les e f (1) ⊗ · · · ⊗ e f (k) avec f non injective et les
e f (σ (1)) ⊗ · · · ⊗ e f (σ (k)) − (−1)σ e f (1) ⊗ · · · ⊗ e f (k) avec f strictement croissante et σ ∈ Sk \ {Id}.
5.4 Puissance extérieure 91
Vdim E
Théoreme 5.4.6 Si E est un espace vectoriel de dimension finie, alors E est une droite.
Plus précisément, si (e1 , . . . , en ) est une base de E, alors e1 ∧ · · · ∧ en est une base de n E.
V
Démonstration Il suffit de remarquer que, grâce au lemme, e1 ⊗ · · · ⊗ en est une base d’un supplé-
mentaire du noyau de π : ⊗n E → n E.
V
3. On peut aussi montrer que les ek11 . . . eknn avec k1 , . . . , kn ∈ N et k1 + · · · + kn = k forment une
base de Sk (E) (penser aux polynômes en n variables de degré total k).
Démonstration On se donne une base B := (e1 , . . . , en ) de E. Dire que u n’est pas injective
signifie que u(e1 ), . . . , u(en ) sont liés si bien que, par la proposition 5.4.4, on aura
n
^
u(e1 ∧ · · · ∧ en ) = u(e1 ) ∧ · · · ∧ u(en ) = 0.
Démonstration Il faut s’assurer que cette application est bien définie (la linéarité étant immédiate).
Or si xk ∈ E 0 pour k > n0 , alors x1 , . . . , xn0 , xk sont tous dans E 0 , et donc liés car dim E 0 = n0 , et on a
alors nécessairement x1 ∧ · · · ∧ xn = 0. Cela implique que l’image d’un élément ne dépend que de
xk et pas de xk en général. Il faut aussi s’assurer que cette application est bien un isomorphisme. Or,
on peut toujours compléter une base (e1 , . . . , en0 ) de E 0 en une base (e1 , . . . , en ) de E et on voit alors
V 0 V 0
que notre application envoie la base (e1 ∧ · · · ∧ en0 ) ⊗ (en0 +1 ∧ · · · ∧ en ) de n E 0 ⊗ n−n E/E 0 sur
Vn
la base e1 ∧ · · · ∧ en de E.
5.5 Déterminant
Définition 5.5.1 Soit E un espace de vectoriel de dimension finie et B une base de E. Alors, le
déterminant associé à la base B est l’application composée
dim
^E
det : E × · · · × E → E ' K,
B
Proposition 5.5.2 Si E est un espace vectoriel de dimension finie et B une base de E, alors detB
est une une forme multilinéaire alternée. De plus, si B := (e1 , . . . , en ) et pour tout i = 1, . . . , n,
xi = ai,1 e1 + · · · + ai,n en , on a
Démonstration Pour obtenir la première assertion, il suffit de rappeler que le déterminant est la
composée d’une application multilinéaire alternée et d’une application linéaire. Pour démontrer la
seconde, on rappelle d’abord que, par multilinéarité, on a
Remarque On en déduit immédiatement l’effet des opérations élémentaires sur les déterminants :
1. Multiplier un vecteur par un scalaire revient à multiplier le déterminant par ce même scalaire,
2. Échanger deux vecteurs revient à changer le signe du déterminant,
3. Ajouter à un vecteur un multiple d’un autre vecteur ne change pas le déterminant.
Définition 5.5.3 Soit E un espace vectoriel de dimension finie et u ∈ L(E). Alors, le déterminant
Vdim E Vdim E
de u est la composante det(u) de u dans la base canonique de E.
Remarque 1. Par définition, det(u) est l’unique élément de K tel que si x1 , . . . , xn ∈ E, alors
2. Comme ce fut le cas pour sa trace, nous voyons donc que le déterminant d’un endomorphisme
ne dépend pas du choix de la base (contrairement au déterminant d’une famille de vecteurs).
3. Si B est une base de E, on aura
det(u) = det(u(B)).
B
5.5 Déterminant 93
1
det(u−1 ) = .
det(u)
Remarque 1. On dispose donc d’un morphisme multiplicatif det : L(E) → K, qui induit un
morphisme de groupes GL(E) → K × , dont le noyau est le sous-groupe
2. Si on travaille sur un anneau, il faut remplacer la condition det(u) 6= 0 par la condition det(u)
inversible. Et de même ci-dessous pour les matrices.
Corollaire 5.5.6 Soit E un espace vectoriel de dimension n muni d’une base B. Alors, x1 , . . . , xn ∈
E forment une base de E si et seulement si detB (x1 , . . . , xn ) 6= 0.
Démonstration Résulte facilement de la proposition 5.4.8. Les détails sont laissés en exercice.
= det(A ) det(A00 ).
0
3. Comme conséquence, on voit que le déterminant d’une matrice triangulaire est égal au
produit des éléments diagonaux :
a1 ? ··· ?
.. .. ..
0 . . .
= a1 · · · an .
det
.. .. ..
. . . ?
0 ··· 0 an
det(t u) = det(u).
Remarque 1. Comme cas particulier, on voit que si A est une matrice carrée, alors
det(t A) = det(A).
Démonstration Exercice.
Remarque 1. Si on pose A := [ai, j ] et A0 := [a0i, j ], alors les formules de Laplace disent que
∀i ∈ {1, . . . , n}, ai,1 a0i,1 + · · · + ai,n a0i,n = a1,i a01,i + · · · + an,i a0n,i = det(A)
et
∀i 6= j ∈ {1, . . . , n}, ai,1 a0j,1 + · · · + ai,n a0j,n = a1,i a01, j + · · · + an,i a0n, j = 0.
2. En particulier, les formules de Laplace permettent de développer un déterminant le long
d’une ligne ou d’une colonne.
3. Si A ∈ GLn (K) et A0 désigne sa comatrice, alors
1 t 0
A−1 = A.
det(A)
96 Chapitre 5. Trace et déterminant
5.6 Exercices
Exercice 5.6.1 1. Montrer que si E est un espace vectoriel, alors l’application canonique
E ×tE → K est une forme bilinéaire.
2. Montrer que le produit scalaire usuel est une forme bilinéaire symétrique sur K n .
3. Montrer que le produit vectoriel est une application bilinéaire alternée sur K 3 .
4. Montrer que le produit est bilinéaire sur une algèbre, et qu’il est symétrique si et seulement
si l’algèbre est commutative.
5. Montrer que la composition des applications linéaires est bilinéaire.
Montrer que l’application ( f , g) 7→ 01 f (t)g(t)dt est une forme bilinéaire symétrique sur
R
6.
C ([0, 1], R).
Exercice 5.6.5 On rappelle qu’une extension L du corps K est une K-algèbre qui est un corps.
1. Montrer que si E est un K-espace vectoriel, il existe une unique structure de L-espace
vectoriel sur L ⊗K E telle que α(β ⊗ x) = αβ ⊗ x si α, β ∈ L et x ∈ E.
2. Montrer que si (ei )i∈I est une base de E sur K, alors (1 ⊗ ei )i∈I est une base de L ⊗K E
sur L.
3. En déduire que dimL (L ⊗K E) = dimK E.
Exercice 5.6.7 Soit E un espace vectoriel de dimension finie n. Que valent Tr(IdE ) ? Quelle
5.6 Exercices 97
est la trace d’une projection sur un sous-espace F de dimension m ? d’une symétrie par rapport
à F ? d’une transvection ? Mêmes questions à propos du déterminant.
Exercice 5.6.8 Quelle est la trace d’une rotation d’angle θ dans R2 ? d’une rotation d’angle θ
et d’axe ∆ dans R3 ? Mêmes questions à propos du déterminant.
Exercice 5.6.10 Montrer par un exemple qu’on a pas toujours tr(u ◦ v) = tr(u)tr(v) ni det(u +
v) = det u + det v.
λ1 b ··· b
.. .. ..
a . . .
∆ := .. .. ..
. . . b
a ··· a λn
Lemme 6.1.2 Si L est une algèbre de dimension finie et u ∈ L, alors il existe un polynôme
annulateur non nul pour u.
Proposition 6.1.3 Si L est une K-algèbre et u ∈ L, il existe un unique polynôme unitaire µu tel
que les polynômes annulateurs de u soient les multiples de µu . Si L est de dimension finie, alors
µu est le polynôme unitaire annulateur non nul de plus bas degré.
Démonstration En effet, tout idéal non nul de K[T ] est de la forme (M) pour un unique M unitaire.
Et M est le polynôme unitaire non nul de plus bas degré dans l’idéal si ce dernier n’est pas nul.
Définition 6.1.5 Si E est un espace vectoriel de dimension finie et u ∈ L(E), alors le polynôme
caractéristique de u est
χu := det(T IdE − u) ∈ K[T ].
Remarque 1. Plus précisément, il faut remarquer que K[T ] ⊗ E est naturellement un K[T ]-
module et poser χu := detK[T ] (T IdK[T ] ⊗ IdE − IdK[T ] ⊗ u).
2. Si K est infini, on peut procéder autrement : poser pour chaque a ∈ K, χu (a) := det(aIdE −
u) ∈ K et montrer que l’application ainsi obtenue est polynomiale.
3. On peut aussi choisir une base B de E et poser brutalement
χu := ∑ (−1)σ ∏ (−ai,σ (i) ) ∏ (T − ai,σ (i) )
σ ∈Sn σ (i)6=i σ (i)=i
si [u]B = [ai, j ]ni, j=1 . Il faut alors s’assurer que la définition est indépendante de la base.
4. Bien sûr, comme d’habitude, le polynôme caractéristique d’une matrice carrée A est par
définition le polynôme caractéristique de l’endomorphisme u de K n associé à A.
5. Attention, on rencontre aussi parfois la définition χu := det(u − T IdE ) qui diffère de la notre
par un signe en dimension impaire.
6. En développant, on voit que l’on a (avec notre définition)
χu = T n − tr(u)T n−1 + · · · + (−1)n det(u).
Démonstration On choisit une base afin de se ramener à l’énoncé analogue avec des matrices.
Soient donc A une matrice carrée d’ordre n et χ(T ) son polynôme caractéristique. Si on désigne
par B(T ) la transposée de la comatrice de T I − A, on a
B(T )(T I − A) = χ(T )I. (6.2)
Il suffit alors de substituer A à T .
Remarque 1. Remarquons que l’égalité (6.2) a lieu dans l’anneau de matrices Mn (K[T ]),
que l’on identifie avec l’anneau des polynômes Mn (K)[T ]. On utilise ensuite la propriété
universelle de l’anneau des polynômes (qui est aussi valide sur l’anneau non commutatif
Mn (K)).
2. Alternativement, si on pose B(T ) = ∑ Bi T i et χ(T ) = ∑ ai T i , et qu’on développe le premier
terme de l’égalité (6.2), on obtient pour chaque indice i, Bi−1 − Bi A = ai I. Ensuite, si on
multiplie par Ai , qu’on additionne et qu’on factorise, on obtient B(A)(A − A) = χ(A).
6.1 Polynôme annulateur 101
Lemme 6.1.8 — des noyaux. Soient P1 , . . . , Pr ∈ K[T ] premiers entre eux deux à deux et
P := P1 . . . Pr . Si E est un espace vectoriel de dimension finie et u ∈ L(E), alors
2. Comme K[T ] est factoriel, si P est un polynôme quelconque, on peut toujours écrire P =
P1m1 · · · Prmr avec P1 , . . . , Pr irréductibles, et on aura donc
3. Si P et Q sont deux polynômes quelconques, alors ker P(u) est toujours stable par Q(u)
puisque K[T ] est commutatif. En particulier, on voit que dans le lemme, aussi bien ker P(u)
que tous les ker Pi (u) sont stables par u.
4. Cette dernière remarque peut être reformulée en disant que le lemme des noyaux donne une
décomposition en somme directe de K[T ]-modules (et pas seulement d’espaces vectoriels).
Exemple Si p est une projection (resp. s est une symétrie), on peut considérer le polynôme
T − T 2 = T (1 − T ) (resp. 1 − T 2 = (1 − T )(1 + T )) et on retrouve la décomposition en somme
directe
E = ker p ⊕ ker(Id − p) (resp. E = ker(Id − s) ⊕ ker(Id + s)).
6.2 Diagonalisation
Définition 6.2.1 1. Une matrice carrée A := [ai, j ] est diagonale si ai, j = 0 pour i 6= j.
2. Un endomorphisme u d’un espace vectoriel E de dimension finie est diagonalisable dans
une base B de E si [u]B est diagonale.
Exemple 1. Si B est une base formée de vecteurs propres e1 , . . . , en de u, on peut écrire pour
tout i = 1, . . . , n, u(ei ) = ai ei et la matrice de u dans la base B est diagonale :
a1 0 · · · 0
.
0 . . . . . . ..
A= . .
.
.. .. ... 0
0 · · · 0 an
2. Si A est une matrice diagonale, on peut réorganiser la diagonale (quitte à permuter les vecteurs
de la base canonique) pour écrire
a1 Im1 0 · · · 0
.. .. ..
0 . . .
A= .
.. ..
..
. . 0
0 · · · 0 ar Imr
En particulier, on a
Proposition 6.2.3 Soit u un endomorphisme d’un espace vectoriel de dimension finie E. Pour
a ∈ K, les conditions suivantes sont équivalentes :
1. a est une valeur propre pour u,
2. Ea 6= {0},
3. χu (a) = 0,
4. µu (a) = 0.
Dans ce cas, si x ∈ E, les condition suivantes sont équivalentes :
1. x est un vecteur propre pour a,
2. x ∈ Ea \ {0}.
Démonstration Dire que x est un vecteur propre pour a signifie que x 6= 0 et que u(x) = ax. Et
cette dernière condition signifie que x ∈ Ea . On voit donc que les deux première assertions sont
équivalentes et on obtient aussi la dernière propriété.
D’autre part, on sait que χu (a) est non nul si et seulement si aIdE − u est bijectif, c’est à dire
injectif, ce qui signifie que son noyau est nul. La troisième assertion est donc aussi équivalente aux
deux premières. Et elles sont toutes impliquées par la dernière puisque µu | χu .
Enfin, comme T − a est un polynôme annulateur de ua sur Ea , on voit que si Ea 6= 0, alors
T − a = µua | µu , et on a donc donc µu (a) = 0. Cela montre que les premières assertions impliquent
aussi la dernière.
Remarque La proposition nous dit que le polynôme minimal et le polynôme caractéristique ont
les mêmes racines et que ces racines sont exactement les valeurs propres de u.
Théoreme 6.2.4 Soient E un espace vectoriel de dimension finie et u ∈ L(E). Alors, les condi-
tions suivantes sont équivalentes
1. u est diagonalisable,
2. E est somme directe des sous-espaces propres pour u,
3. µu est scindé à racines simples,
4. χu est scindé et, si a est une valeur propre pour u, alors
P := (T − a1 ) · · · (T − ar ) ∈ K[T ],
on voit que
ker P(u) ' E1 ⊕ · · · ⊕ Er .
et on en déduit que E est somme directe de ses sous-espaces propres si et seulement ker P(u) = E,
ce qui signifie que P est un polynôme annulateur de u. On a alors obligatoirement µu = P grâce à la
proposition 6.2.3 et il suit que les conditions du milieu sont équivalentes.
Si u est diagonalisable dans une base B, on sait alors que la dernière condition est satisfaite.
On sait aussi, dans ce cas, que E est somme directe de sous-espaces propres. Réciproquement, si
cette hypothèse est satisfaite, il existe une base formée de vecteurs propres et u est diagonalisable
dans cette base.
Enfin, supposons que la dernière assertion soit satisfaite si bien que
χu = (T − a1 )m1 · · · (T − ar )mr
et il suit que E1 ⊕ · · · ⊕ Er = E.
Proposition 6.2.5 Soit E un espace vectoriel de dimension finie. Si u ∈ L(E) est diagonalisable
et E 0 est un sous-espace stable par u, alors les endomorphismes induits u0 ∈ L(E 0 ) et u00 ∈ L(E/E 0 )
sont aussi diagonalisables.
Démonstration On remarque d’abord que, si a est une valeur propre pour u, alors Ea := ker(aId(E)−
u) est stable par v car u et v commutent. De plus, la restriction va de v à Ea est diagonalisable grâce
à la proposition. On choisit alors une base Ba de Ea dans laquelle la matrice de v est diagonale et
on pose B = ∪Ba . Comme c’est une base formée de vecteurs propres pour u, sa matrice aussi sera
diagonale dans B.
Définition 6.3.1 Un élément u d’un anneau L est nilpotent s’il existe m ∈ N tel que um = 0. On
dit que u est unipotent si u − 1 est nilpotent.
0 1 1 1
Exemple Dans M2 (K), est nilpotent et est unipotent.
0 0 0 1
Proposition 6.3.2 Soient E un espace vectoriel de dimension n et u ∈ L(E). Alors, les propriétés
suivantes sont équivalentes
1. u est nilpotent,
2. Il existe m ∈ N tel que T m soit un polynôme annulateur de u,
3. Il existe m ∈ N tel que µu = T m ,
4. χu = T n .
Démonstration Si um = 0, on a
En considérant les déterminants, on voit donc que χu := det (T IdE − u) divise T mn = det(T m IdE ).
Et comme deg χu = n, on a nécessairement χu = T n . Le reste, très facile, est laissé en exercice.
Exemple La matrice
0 0 1 1
1 0 1 1
0 0 0 0
0 0 1 0
est nilpotente.
Théoreme 6.3.4 Soient E un espace vectoriel de dimension finie et u ∈ L(E) nilpotent. Alors,
il existe une base (e1 , . . . , en ) de E telle que
ei−1 ou
∀i = 1, . . . , n, u(ei ) =
0.
Démonstration Si u = 0, n’importe quelle base fait l’affaire. Sinon, il existe m > 0 et x ∈ E tel
que um = 0 et um−1 (x) 6= 0 : il suffit de prendre le plus petit m tel que um = 0. On pose alors
∀i = 1, . . . , m, ei := um−i (x).
6.4 Trigonalisation
Théoreme 6.4.1 — de Jordan. Soient E un espace vectoriel de dimension finie et u ∈ L(E) à
polynôme caractéristique scindé. Alors, il existe une base (e1 , . . . , en ) de E telle que
ai ei + ei−1 ou
∀i = 1, . . . , n, u(ei ) =
ai ei
6.4 Trigonalisation 107
Démonstration Supposons d’abord qu’il existe a ∈ K tel que u − aIdE soit nilpotent sur E. Grâce
au théorème 6.3.4, il existe donc une base (e1 , . . . , en ) de E telle que
ei−1 ou
∀i = 1, . . . , n, u(ei ) − aei =
0,
et on a fini.
En général, on écrit
χu = (T − a1 )m1 · · · (T − ar )mr ,
et le lemme des noyaux nous fournit une décomposition en somme directe
E ' E1 ⊕ · · · ⊕ Er avec Ei = ker(u − ai IdE )mi .
Chaque Ei est stable par u et u − ai IdE est nilpotent sur Er . On est donc ramené au cas précédent.
Remarque 1. Le théorème de Jordan nous dit donc que si on pose, pour tout a ∈ K et r ∈ N,
a 1 0 ··· 0
.. . . . . . . ..
.
. . . .
.. . .
.. .. 0
Ja,r := aIr + Nr = . ∈ Mr (K)
..
..
. . 1
0 ··· ··· ··· a
(on appelle ça un bloc de Jordan), alors toute matrice dont le polynôme caractéristique est
scindé est semblable à une matrice diagonale par blocs
Ja,r 0 · · · 0
..
0 ... ...
.
.. . . . .
. . . 0
0 · · · 0 Jb,s
(on appelle ça une matrice de Jordan).
2. Les sous-espaces Ei = ker(u − ai IdE )mi qui apparaissent dans la décomposition de E ne sont
pas les sous-espaces propres mais les sous-espaces caractéristiques.
3. On obtient ainsi une décomposition, dite de Dunford, u = d + n avec d diagonalisable, n
nilpotent et nd = dn. Nous aurons besoin plus tard du fait que d et n sont polynomiales en u :
cela résulte du fait que, dans le lemme des noyaux, les projections sont polynomiales en u.
Démonstration Nous connaissons déjà l’existence d’une telle décomposition et nous pouvons
même supposer que d et n sont polynomiale en u. On voit aussi aisément que la décomposition est
unique dans le cas u = 0 car on a alors n = −d et qu’une matrice diagonale nilpotente est néces-
sairement nulle. Revenons au cas général et supposons qu’il existe une autre telle décomposition
u = d 0 + n0 . Comme d 0 commute avec lui même et avec n0 , il commute avec u, et donc aussi avec d
qui est un polynôme en u. Il existe alors une base dans laquelle les matrices de d et d 0 sont toutes
les deux diagonales. Il suit que la matrice de d − d 0 est diagonale. Mais on sait aussi que n0 − n est
0 0
nilpotent (si nr = 0 et n0r = 0, alors (n − n0 )rr = 0). On est donc ramenés au cas u = 0.
108 Chapitre 6. Classification des endomorphismes
Remarque Lorsque K = C, tout polynôme est scindé et tous les résultats précédents s’appliquent
donc sans restriction.
6.5 Exercices 109
6.5 Exercices
Exercice 6.5.2 Soient E un espace vectoriel de dimension finie et u ∈ L(E). Montrer que
u ∈ GL(E) si et seulement 0 n’est pas une valeur propre pour u. En déduire que u ∈ GL(E) si et
seulement si χ(0) 6= 0 si et seulement si µ(0) 6= 0.
Exercice 6.5.3 Montrer que si E un espace vectoriel de dimension finie et u ∈ L(E), alors
Exercice 6.5.6 Soient E un espace vectoriel de dimension n sur K, u ∈ L(E), µ son polynôme
minimal et χ son polynôme caractéristique.
1. Montrer que si x ∈ E, il existe un unique µx ∈ K[T ] unitaire tel que P(u)(x) = 0 ⇔ µx | P.
2. En déduire un isomorphisme K[T ]/(µx ) ' Ex := Vect(uk (x), k ∈ N), puis que dim Ex =
deg µx .
3. En déduire aussi que µx | µ | χ, puis que E = Ex si et seulement si µx = µ = χ. On dit
alors que x est un vecteur cyclique pour u.
4. Montrer que si E = E1 ⊕ · · · ⊕ Er , avec les Ei stables par u, et si x = x1 + · · · + xr est la
décomposition correspondante de x ∈ E, alors µxi | µx pour tout i = 1, . . . , r.
5. Montrer, grâce au lemme des noyaux, qu’il existe x ∈ E tel que µx = µ (on pourra traiter
d’abord le cas µ = Pm avec P irréductible).
6. En déduire que χ = µ si et seulement si il existe un vecteur cyclique.
4 −1
Exercice 6.5.7 1. Déterminer la forme de Jordan J de A := .
4 0
2. Jn
Calculer pour tout n ∈ N.
3. Déterminer une matrice de passage P pour A et calculer son inverse.
4. Rappeler la formule pour An et effectuer le calcul.
5. Déterminer le reste dans la division euclidienne de T n par le polynôme caractéristique de
A, puis subsitutuer A afin de retrouver le résutlat précédent par une autre méthode.
110 Chapitre 6. Classification des endomorphismes
Exercice 6.5.8 Résoudre la suite de Fibonacci xn+2 = xn + xn+1 en termes de x0 et x1 .
Exercice 6.5.14 — TP. Déterminer la forme de Jordan J ainsi qu’une matrice de passage P pour
−3 2 3
A := −6 4 4 .
−2 1 3
Exercice 6.5.15 — TP. Déterminer la forme de Jordan J ainsi qu’une matrice de passage P pour
les matrices
3 2 4 8 −1 −5
−1 3 −1 , −2 3 1 ,
−2 −1 −3 4 −1 −1
0 0 0 −1 2 1 0 0
1 1 −1 −1 −2 0 0
0 0 0 , −1 1 −1 et 0
.
0 1 0 −2 1 0 0 2
1 0 2
0 0 1 0 0 1 −1 2
112 Chapitre 6. Classification des endomorphismes
−2 0 1 −2 −1 3 1 2 −1 −5 2 5 −2 3 0 5
−9 7 −5 −5 −4 6 4 −1 −1 −3 1 4 1 0 0 1
0 0 −2 0 0 0 0 0 −4 6 −4 −3 7 10 −3 −6
−9 7 −3 −5 −4 6 4 −1 −2 3 −2 0 4 5 −2 −3
A := , B := ,
−4 1 −3 0 0 3 3 −3 −4 2 −2 1 5 11 −3 −2
−13 14 −6 −9 −8 7 8 −5 0 −1 1 1 −1 1 0 1
5 −11 6 5 5 1 −2 4 −2 3 0 0 2 10 −2 −3
−1 1 0 −1 −1 1 1 1 1 −9 4 7 −4 −6 2 7
−1 0 −2 2 0 0 0 0 4 −1 1 −2 −2 1 0 −1
−3 0 −3 2 1 1 0 0 6 −1 1 −5 −3 2 0 0
6 0 8 −6 −3 0 3 −3 10 −5 −1 −8 −5 3 2 5
6 0 7 −5 −3 0 3 −3 3 −1 1 −1 −2 1 0 −1
C := , D :=
−7 −1 −7 6 4 1 −2 2 16 −8 −2 −12 −7 4 4 6
−5 −1 −4 4 2 2 −1 1 14 −6 −1 −11 −7 5 2 4
−3 −1 −2 2 2 1 0 1 9 −4 −2 −7 −4 2 3 4
4 0 5 −4 −3 0 3 −2 10 −5 0 −8 −5 3 2 4
1 1 −1 1 1 0 −1 −1
0 1 0 0 3 1 −3 0
0 0 1 0 1 1 −1 0
0 1 −1 2 1 0 −1 −1
et E := .
0 1 −1 1 2 1 −2 −1
1 1 −1 0 2 1 −3 0
0 1 −1 1 3 1 −3 −1
1 1 −1 0 0 0 −1 1
Φ : E ×E → K
telle que
1. ∀x, y, z ∈ E, Φ(x + y, z) = Φ(x, z) + Φ(y, z) et Φ(x, y + z) = Φ(x, y) + Φ(x, z)
2. ∀x, y ∈ E, ∀a ∈ K, Φ(ax, y) = Φ(x, ay) = aΦ(x, y)
Remarque 1. Bien sûr, il s’agit d’une spécialisation de la définition 5.1.2 d’une application
multilinéaire.
2. Comme nous l’avons montré dans la proposition 5.1.4, nous avons alors à notre disposition
un isomorphisme
L2 (E, K) ' L(E, t E), Φ ↔ l
entre l’espace des formes bilinéaires sur E celui des applications linéaires de E vers son dual,
et qui est donné par
Φ(x, y) = l(y)(x).
5. Si E est de dimension finie, on définit de même la matrice de la forme bilinéaire Φ dans une
base B := (e1 , . . . , en ) :
[Φ]B := [lΦ ]tBB = [Φ(ei , e j )]
On pourra aussi écrire MatB (Φ). On voit donc que, par définition, le noyau (resp. le rang) de
la forme bilinéaire Φ est le noyau (resp. le rang) de la matrice [Φ]B .
6. Si J := [ci, j ] ∈ Mn (K), alors la forme bilinéaire associée est donnée par
n
Φ((x1 , . . . , xn ), (y1 , . . . , yn )) = ∑ ci, j xi y j .
i, j=1
Proposition 7.1.2 Soit Φ une forme bilinéaire sur un espace vectoriel E, u, v : F → E deux
applications linéaires et Ψ := Φ ◦ (u × v) la forme bilinéaire composée sur F. On aura alors
lΨ = t u ◦ lΦ ◦ v.
Remarque Comme cas particulier, on peut considérer le cas ou u et v désignent tous les deux
l’inclusion d’un sous-espace vectoriel E 0 . On obtient alors la restriction Φ|E 0 de Φ à E 0 . Si B 0 est
une base de E 0 et qu’on la prolonge en une base B de E et si J, J 0 désignent les bases de Φ et Φ|E 0 ,
aura 0
J ?
J=
? ?
Corollaire 7.1.4 Soit Φ une forme bilinéaire sur un espace vectoriel E de dimension finie et
x, y ∈ E. Si J, X et Y désignent les matrices de Φ, x et y respectivement dans une base B de E,
on a
Φ(x, y) = t XJY.
Corollaire 7.1.5 Soit Φ une forme bilinéaire sur un espace de dimension finie E et J sa matrice
dans une base B. Alors, Φ est symétrique (resp. antisymétrique) si et seulement si J l’est.
Corollaire 7.1.6 Soit Φ une forme bilinéaire sur un espace de dimension finie E, J sa matrice
dans une base B, J 0 sa matrice dans une base B 0 et P la matrice de passage. On a alors
J 0 = t PJP.
Remarque S’il existe une matrice inversible P telle que J 0 = t PJP, on dit que J et J 0 sont
congruentes. Attention, ne pas confondre avec semblables A0 = P−1 AP.
Remarque 1. Cela signifie que donc l’on a une application injective lΦ : E ,→ t E. Fixer Φ
revient donc à voir E comme contenu dans t E. En dimension infinie, cette inclusion sera
toujours stricte (on aura pas égalité).
2. Lorsque E est de dimension finie, on peut utiliser le théorème du rang et la condition de la
définition est donc équivalente à rang(Φ) = dim E. Cela revient aussi à dire que la matrice J
de Φ est inversible ou encore que det(J) 6= 0.
3. C’est redondant avec ce qui précède, mais il est important de remarquer que se donner une
forme bilinéaire non dégénérée sur un espace vectoriel E de dimension finie est équivalent à
se donner un isomorphisme entre E et t E. Fixer Φ revient donc à identifier E et son dual.
118 Chapitre 7. Forme quadratique
Exemple 1. La forme bilinéaire canonique sur K n est non dégénérée et fournit l’identification
habituelle entre K n et son dual :
(a1 , . . . , an ) ↔ ϕ ⇔ ϕ(x1 , . . . , xn ) = a1 x1 + · · · + an xn .
2. La forme bilinéaire (z1 , z2 ) 7→ ℜ(z1 z2 ) est non dégénérée et permet d’identifier C avec son
dual via 1 ↔ ℜ et i ↔ −ℑ.
3. L’application
Z 1
( f , g) 7→ ( f g)(t)dt
0
est non dégénérée.
Définition 7.2.2 Soit Φ une forme bilinéaire non dégénérée sur un espace vectoriel E de
dimension finie. L’opérateur adjoint à u ∈ L(E) relativement à Φ est
u∗ = lΦ
−1 t
◦ u ◦ lΦ .
Proposition 7.2.3 Soit Φ une forme bilinéaire non dégénérée sur un espace vectoriel E de
dimension finie. Si u ∈ L(E), alors son adjoint u∗ est l’unique opérateur tel que
c’est à dire
∀y ∈ E, lΦ (y) ◦ u = (lΦ ◦ u∗ )(y)
−1 t
et donc finalement t u ◦ lΦ = lΦ ◦ u∗ , c’est à dire u∗ = lΦ ◦ u ◦ lΦ comme annoncé.
Corollaire 7.2.4 Sous les mêmes hypothèses si on désigne par J et A les matrices de Φ et u
respectivement dans une base B, alors la matrice de u∗ est A∗ := J −1t AJ.
Remarque On on définit bien sûr la matrice adjointe à A ∈ Mn (K) relativement à J ∈ GLn (K)
comme étant A∗ := J −1t AJ.
7.3 Orthogonal
Définition 7.3.1 Soit Φ une forme bilinéaire symétrique sur un espace vectoriel E de dimension
finie. On dit que A ⊂ E est orthogonale à B ⊂ E relativement à Φ, et on écrit A ⊥ B, si
∀x ∈ A, ∀y ∈ B, Φ(x, y) = 0.
Proposition 7.3.2 Si Φ est une forme bilinéaire symétrique sur un espace vectoriel E de dimen-
sion finie, elle induit une forme bilinéaire symétrique non dégénérée
E/ ker Φ × E/ ker Φ
Φ /K
/ Φ(x, y)
(x, y)
Démonstration On a toujours une telle forme bilinéaire (exercice) et elle est bien sûr symétrique
lorsque Φ l’est. Il reste à montrer qu’elle est non dégénérée. Mais on a
Remarque 1. Soit C une base de ker Φ, B une base de E qui prolonge C et B la base induite
sur E/ ker Φ. Alors, si on désigne par J (resp. J) la matrice de Φ (resp Φ) dans la base B
(resp. B), on a
0 0
J=
0 J
Théoreme 7.3.3 Si Φ est une forme bilinéaire symétrique non dégénérée sur un espace vectoriel
E de dimension finie, alors l’application F 7→ F ⊥ , sur l’ensemble des sous-espaces vectoriels
de E, est une symétrie qui renverse l’inclusion et échange somme et intersection. De plus, on a
toujours
dim F + dim F ⊥ = dim E.
Corollaire 7.3.4 Soit Φ est une forme bilinéaire symétrique non dégénérée sur un espace
vectoriel E de dimension finie et F un sous-espace vectoriel de E. Alors, les conditions suivantes
sont équivalentes
1. Φ|F est non dégénérée,
2. F ∩ F ⊥ = {0},
3. E = F ⊕ F ⊥ .
Démonstration En effet, par définition, le noyau de Φ|F est F ∩ F ⊥ et le reste suit (exercice).
E ×E
Φ /K
/ 1
(x, y) 2 (Q(x + y) − Q(x) − Q(y))
Proposition 7.4.2 Si Φ est une forme bilinéaire symétrique sur un espace vectoriel de dimension
finie E, alors l’application
Q
E /K
x / Φ(x, x)
Proposition 7.4.3 Soit Q une forme quadratique sur un espace vectoriel de dimension finie E.
Alors,
1. ∀a ∈ K, ∀x ∈ E, Q(ax) = a2 Q(x)
2. ∀x, y ∈ E, Q(x + y) + Q(x − y) = 2Q(x) + 2Q(y)
3. ∀x, y ∈ E, x ⊥ y ⇔ Q(x + y) = Q(x) + Q(y)
et donc aussi
et il suffit d’additionner.
3. On a
1
x ⊥ y ⇔ Φ(x, y) = 0 ⇔ (Q(x + y) − Q(x) − Q(y)) = 0 ⇔ Q(x + y) = Q(x) + Q(y).
2
Remarque 1. La première propriété est la quadraticité Q(ax) = a2 Q(x), à comparer avec la
linéarité u(ax) = au(x).
2. La seconde propriété est la règle du parallélogramme qui dit classiquement que la somme
des carrés des diagonales d’un parallélogramme est égale à la somme des carrés des cotés
(faire un dessin). On peut réécrire notre égalité sous la forme
x−y 1 1 x+y
Q = Q(x) + Q(y) − Q
2 2 2 2
et on retrouve alors la règle de la médiane qui dit classiquement que le carré de la médiane
est égal à la demi-somme de la somme des carrés des cotés à laquelle on retranche le carré de
du demi coté opposé (faire un dessin).
3. La troisième propriété est le théorème de Pythagore qui dit classiquement qu’un triangle est
rectangle en un sommet si et seulement si le carré du coté opposé (alors appelé hypoténuse)
est la somme des carrés des deux autres cotés (faire un dessin aussi).
Définition 7.4.4 Soit Q une forme quadratique sur E. Un vecteur x ∈ E est isotrope pour Q si
Q(x) = 0. Plus généralement, un ensemble A de vecteurs de E est isotrope pour Q si Q|A = 0.
Remarque 1. Dire qu’une partie est isotrope signifie donc tout simplement qu’elle est compo-
sée de vecteurs isotropes.
2. Si x ∈ ker Q, alors x est isotrope. Mais la réciproque est complètement fausse. Par exemple,
si Q(x, y) = 2xy sur K 2 , alors le vecteur (1, 0) est isotrope bien que Q soit non dégénérée.
Définition 7.4.5 Soit Q une forme quadratique sur un espace vectoriel de dimension finie E.
On dit que u ∈ GL(E) est orthogonal relativement à Q si
u ◦ Q = Q ◦ u.
Le groupe orthogonal de Q est l’ensemble O(Q) de toutes les opérateurs orthogonaux relative-
ment à Q.
∀x ∈ E, u(Q(x)) = Q(u(x)).
2. On dit aussi que u est orthogonal relativement à une forme bilinéaire symétrique Φ si et
seulement si
∀x, y ∈ E, Φ(u(x), u(y)) = Φ(x, y).
3. Un opérateur est orthogonal relativement à une forme quadratique Q si et seulement si il est
orthogonal relativement à sa polaire Φ. En particulier, on voit que x ⊥ y ⇒ u(x) ⊥ u(y), ce
qui justifie la terminologie.
122 Chapitre 7. Forme quadratique
4. Si J ∈ SMn (K), on dira que qu’une matrice A ∈ Mn (K) est orthogonale par rapport à J si
t AJA = J et que
Proposition 7.4.6 Si Q est une forme quadratique non dégénérée sur E et u ∈ GL(E), alors
u ∈ O(Q) ⇔ u−1 = u∗ .
4. En général, on écrira SO(Q) := O(Q) ∩ SL(E). On voit donc que SO(2) est le groupe des
rotations su plan.
∀x 6= y ∈ X, x ⊥ y.
7.5 Décomposition d’une forme quadratique 123
∀x ∈ X, Q(x) = 1.
Remarque 1. On peut aussi considérer la notion de famille orthogonale (xi )i∈I avec la condi-
tion
∀i 6= j ∈ I, xi ⊥ x j ,
et de famille orthonormale avec la condition supplémentaire
∀i ∈ I, Q(xi ) = 1.
2. Une partie orthogonale n’est pas automatiquement libre : prendre Q(x, y) = 2xy sur K 2 et
x1 = (1, 0) et x2 = (2, 0).
3. Une partie B est une base orthogonale (resp. orthonormale) pour Q si et seulement si la
matrice J de Q dans B est diagonale (resp. si J = I).
4. Lorsque E = K n , dire que J est diagonale (resp. que J = I) signifie que Q(x1 , . . . , xn ) = ∑ ai xi2
(resp. = ∑ xi2 ).
5. S’il existe une base orthonormale pour Q, alors O(Q) ' O(n).
Proposition 7.5.3 Si Q est une forme quadratique sur un espace vectoriel de dimension finie E,
il existe une base orthogonale pour Q.
Démonstration On peut supposer que Q 6= 0 et choisir en ∈ E tel que Q(en ) 6= 0. On peut alors
considérer la polaire Φ de Q et la forme linéaire sur E définie par ϕ(x) = Φ(x, en ). Comme
ϕ(en ) 6= 0, on voit que H := ker ϕ est un hyperplan, et pas récurrence, il existe une base orthogonale
(e1 , . . . , en−1 ) pour Q|H . Par construction, (e1 , . . . , en ) est une base orthogonale pour Q.
Remarque 1. Cela signifie que toute matrice symétrique est congruente à une matrice diago-
nale, ce qui contraste avec le cas des matrices semblables.
2. Si la matrice de Q dans l’ancienne base B est J et que sa matrice dans la nouvelle base B 0
est D, on aura donc
D = t PJP et J = t P−1 DP−1 ,
où P désigne matrice de passage de B à B 0 .
Corollaire 7.5.4 Si Q est une forme quadratique sur E, il existe ϕ1 , . . . , ϕn ∈ t E tels que
Démonstration Il suffit bien sûr de choisir une base orthonormale (e1 , . . . , en ) et de poser ϕi := t ei .
2. Si on part de J ∈ SMn (K), on obtient une matrice diagonale D et une matrice de passage P.
On aura alors
c1 0 · · · 0
. . . [ϕ1 ]
0 . . . . ..
et P−1 = .
D= .. . . . . .. .
. . . 0 [ϕn ]
0 · · · 0 cn
(et il faudra inverser cette dernière matrice pour trouver P).
3. Voici un algorithme dû à Gauss pour décomposer une forme quadratique en en somme de
carrés. On part de
n
Q(x1 , . . . , xn ) = ∑ ci xi2 + 2 ∑ ci, j xi x j ,
i=1 i< j
et on fait une récurrence sur n. S’il existe k ∈ {1, . . . , n} tel que ck 6= 0, on écrit
!2
ck, j
Q(x) = ck xk + ∑ xj + Q0 (x1 , . . . , xk−1 , xk+1 , . . . , xn ),
j6=k ck
Sinon, on a
Q(x1 , . . . , xn ) = 2 ∑ ci, j xi x j ,
i< j
xy + xz + yz = (x + z)(y + z) − z2
x+z+y+z 2 x+z−y−z 2 2
= − −z
2 2
2
x−y 2 2
x+y
= +z − −z .
2 2
0 21 21
1 1
1 0 0 2 2 1
J = 12 0 12 , D = 0 −1 0 et P−1 = 12 − 12 0 .
1 1
2 2 0 0 0 −1 0 0 1
Démonstration Après avoir choisi une base orthogonale (e1 , . . . , en ), on peut supposer que E = Cn
(resp. E = Rn ) et que
Q(x) = a1 x12 + · · · + an xn2 .
Il suffit alors de faire un changement de base xi 7→ bi xi avec b2i = ai (resp. b2i = |ai |), puis de
réordonner les vecteurs. Les détails sont laissés en exercice.
Remarque 1. Cette proposition est en fait valide pour n’importe quel corps algébriquement
clos (resp. réel clos).
2. La proposition implique que, lorsque K = C (resp K = R), on a un isomorphisme de groupes
Théoreme 7.6.2 — d’inertie de Sylvester. Si Q est une forme quadratique réelle, il existe p, q
uniques telle que la matrice J de Q dans une base (e1 , . . . , en ) soit
Ip 0 0
J = 0 −Iq 0 .
0 0 0
Démonstration Grâce au corollaire 7.6.1, il suffit de montrer l’unicité. Supposons donc que la
matrice J 0 de Q dans une base (e01 , . . . , e0n ) soit
Ip0 0 0
J 0 = 0 −Iq0 0 .
0 0 0
Q(x) = (−1)2 b21 Q(e0p0 +1 ) + · · · + (−1)2 b2q0 Q(e0p0 +q0 ) = −b21 − · · · − b2q0 ≤ 0.
Cela implique que a1 = · · · = a p = a0p0 +1 = · · · = a0p0 +q0 = 0 et nous voyons que la famille est bien
libre. Il suit que p + q0 ≤ r := rang(Q) = p + q et donc q0 ≤ q. Symétriquement, on aura q ≤ q0 si
bien que q = q0 . Et on conclut avec p0 + q0 = rang(Q) = r.
126 Chapitre 7. Forme quadratique
Corollaire 7.6.4 Deux formes quadratiques complexes (resp. réelles) sont congruentes si et
seulement si elles ont même rang (resp. même signature).
Définition 7.6.5 Une forme quadratique réelle Q sur E est positive (resp. négative) si
Proposition 7.6.6 Soit Q une forme quadratique sur un espace vectoriel réel de dimension n. On
a alors
1. Q est positive ⇔ sign(Q) = (p, 0),
2. Q est négative ⇔ sign(Q) = (0, q),
3. Q est définie positive ⇔ sign(Q) = (n, 0),
4. Q est définie négative ⇔ sign(Q) = (0, n).
Proposition 7.6.7 Une forme quadratique réelle Q sur E est définie positive (resp. définie
négative) si et seulement si
7.7 Exercices
Exercice 7.7.1 Vérifiez que les formules suivantes définissent des formes bilinéaires. Détermi-
ner à chaque fois le noyau et le rang - ainsi que la matrice le cas échéant.
1. ((x1 , . . . , xn ), (y1 , . . . , yn )) 7→ x1 y1 + · · · + xn yn sur K n .
2. detB lorsque B est une base ordonnée d’un plan H.
3. Φ((a, b), R(c, d)) = a2 − 2bc + d 2 sur K 2 .
4. ( f , g) 7→ 01 ( f g)(t)dt sur C 0 ([0, 1], R).
5. (z1 , z2 ) 7→ ℜ(z1 z2 ) sur C (vu comme espace vectoriel sur R)
Exercice 7.7.2 Montrer que (u, v) 7→ tr(u◦v) est une forme bilinéaire symétrique non dégénérée
sur L(E) lorsque E est un espace vectoriel de dimension finie.
1 1 1
Exercice 7.7.3 Soit Φ la forme bilinéaire symétrique donnée par 1 2 3 .
1 3 5
1. Expliciter Φ ainsi que la forme quadratique Q associée.
2. Déterminer son rang et son noyau. Est-ce une forme non dégénérée ?
3. Quel est l’orthogonal de H : Vect((1, 0, 0), (1, 0, 1)) ? A-t-on dim H + dim H ⊥ = 3 ?
4. Mêmes questions avec Vect((0, 1, 0), (1, 0, 1)). Expliquer pourquoi ceci peut arriver.
Exercice 7.7.4 Quelle est la matrice de la forme quadratique y2 − 2xz (dans la base canonique) ?
Et dans la base ((1, 1, 0), (0, 1, 1), (1, 1, 1)) ?
Exercice 7.7.5 1. Montrer que Φ(P, Q) := P(1)Q(−1) + P(−1)Q(1) définit une forme
bilinéaire symétrique sur E := K[T ]≤2 dont on déterminera la matrice dans la base
canonique B. Quelle est la forme quadratique associée ?
2. Montrer que B 0 := (1 − T 2 , T, T 2 ) est une base de E et déterminer la matrice de Φ dans
la base B 0 .
3. Déterminer le rang et le noyau de Φ. Est-ce une forme bilinéaire symétrique non dégéné-
rée ?
Exercice 7.7.7 Soit E un espace vectoriel de dimension finie muni d’une forme quadratique Q
de noyau N.
1. Soient F un sous-espace vectoriel de E et G := F + N. Montrer que N ⊂ F ⊥ et que
(G/N)⊥ = F ⊥ /N. En déduire que F ⊥⊥ = G.
2. Vérifiez ces résultats dans le cas ou Q est x2 − z2 + 2xy + 2yz et F = Vect(1, 1, 1).
Exercice
7.7.9 1. Déterminer le groupe orthogonal O(2) en résolvant t AA = I avec A :=
a b
. On examinera plus particulièrement le cas K = R.
c d
t AJA 1 0
2. Mêmes question avec O(1, 1) en résolvant = J lorsque J := .
0 −1
Exercice 7.7.11 Décomposer en carrés la forme quadratique xy + yz + xz. Quelle est sa signa-
ture ? Quel est son rang ? Écrire une base orthogonale pour cette forme quadratique. On désigne
par D l’axe des x. Déterminer D⊥ . Est-ce que D et D⊥ sont supplémentaires ?
Exercice 7.7.12 On considère la forme quadratique x2 + 3y2 − 8z2 − 4xy + 2xz − 10yz. Déter-
miner son noyau. Montrer que l’ensemble des vecteurs isotropes est la réunion de deux plans
dont on donnera des équations. Donner aussi la signature de cette forme quadratique. Enfin, quel
est l’orthogonal de (1, 1, 1) ?
Exercice 7.7.13 Montrer que pour une forme quadratique Q sur un plan vectoriel H, les
conditions suivantes sont équivalentes :
1. Q est non dégénérée et il existe un vecteur isotrope non nul.
0 1
2. Il existe une base de H dans laquelle la matrice de Q est .
1 0
1 0
3. Il existe une base de H dans laquelle la matrice de Q est .
0 −1
8.1 Topologie
On rappelle ici le vocabulaire de base en topologie en renvoyant l’étudiant curieux vers des
ouvrages plus savants, comme par exemple, celui de Gilles Christol, Anne Cot et Charles-Michel
Marle ([1]).
Définition 8.1.1 Un espace topologique est un ensemble X muni d’un ensemble non vide de
parties U ⊂ X, qui seront dites ouvertes, qui est stable par union quelconque et intersection finie.
Le complémentaire F d’une partie ouverte U est dite fermée.
Remarque 1. On demande donc que si (Ui )i∈I est une famille d’ouverts de X, alors ∪i∈I Ui
est ouvert et que si (U1 , . . . ,Un ) est une famille finie d’ouverts, alors U1 ∩ · · · ∩Un soit aussi
ouvert.
2. De manière équivalente, on pourrait demander que les fermés soient stables par intersection
quelconque et par union finie.
3. Comme cas particulier, on voit que 0, / qui est l’union vide, de même que X, qui est l’intersec-
tion vide sont tous les deux ouvert et fermé.
4. Attention, il y a en général des parties de X qui ne sont ni ouverte, ni fermée.
Définition 8.1.2 1. Une application f : X → Y entre deux espaces topologiques est continue
si l’image inverse d’un ouvert est toujours ouvert. C’est un homéomorphisme si f est
bijective et f −1 est continue.
2. Un sous-espace d’un espace topologique X est un espace topologique Y qui est contenu
dans X et tel que l’inclusion soit continue.
Remarque 1. Pour qu’une application soit continue, on demande donc que si V ⊂ Y est un
ouvert quelconque, alors f −1 (V ) ⊂ X soit aussi ouvert.
2. De manière équivalente, on pourrait demander la propriété analogue pour les fermés.
3. Attention : une application continue et bijective n’est pas nécessairement un homéomor-
phisme.
130 Chapitre 8. Espace vectoriel normé
Définition 8.1.3 Une distance sur un ensemble X est une application d : X × X → R≥0 telle que
1. ∀x, y ∈ X, d(x, y) = 0 ⇔ x = y,
2. ∀x, y ∈ X, d(x, y) = d(y, x),
3. ∀x, y, z ∈ X, d(x, z) ≤ d(x, y) + d(y, z).
Un ensemble muni d’une distance est un espace métrique. La boule ouverte (resp. fermée) de
centre x ∈ X et de rayon r ∈ R≥0 est alors
∀x ∈ X, ∃r > 0, B(x, r− ) ⊂ U.
Remarque 1. Les ouverts d’un espace métrique X définissent une topologie sur X et les boules
ouvertes (resp. fermées) sont bien des parties ouvertes (resp. fermées).
2. Attention : des distances distinctes peuvent donner naissance à la même topologie. Il y a
aussi des espaces topologiques qui ne sont aucunement des espaces métriques.
3. Attention : en général, dans un espace métrique, il y a d’autres ouverts que les boules
ouvertes.
4. On dit qu’une partie Y ⊂ X d’un espace métrique est bornée si Y est contenu dans une boule.
Plus généralement, on dit qu’une application Y → X est bornée si f (Y ) est bornée.
Définition 8.1.4 Une application f : X → Y entre deux espaces métriques est continue en x ∈ X
si
∀ε > 0, ∃η ≥ 0, ∀y ∈ X, d(x, y) ≤ η ⇒ d( f (x), f (y)) ≤ ε.
Elle est uniformément continue si
5. Si Y est une partie d’un espace métrique X, la restriction à Y de la distance est encore une
distance et la topologie de Y est la topologie induite.
6. La distance produit sur un produit fini X1 × · · · × Xn d’espaces métriques est définie par
n
d((x1 , . . . , xn ), (y1 , . . . yn )) = max d(xi , yi ).
i=1
Définition 8.1.5 Soit X un espace métrique. Une suite (xn )n∈N ∈ X N converge vers x ∈ X si
∀ε > 0, ∃M ∈ R, ∀n ≥ M, d(xn , x) ≤ ε.
Remarque 1. Une application est continue (en x) si et seulement si l’image d’une suite conver-
gente (vers x) est une suite convergente (vers f (x)).
2. Une partie Y d’un espace métrique X est fermée si et seulement si toute suite dans Y et qui
converge dans X, converge en fait dans Y .
3. En conséquence, si Y est complet, alors il est fermé.
Exemple 1. |a|
√ := max{a, −a} définit une valeur absolue archimédienne sur R ou Q.
2. |a + ib| := a2 + b2 définit une valeur absolue archimédienne sur C.
3. |a| = 21v si a = 2v qp avec p, q impairs, définit une valeur absolue ultramétrique sur Q.
P(T )
4. |R(T )| = e−v si R(T ) = T v Q(T ) avec P(0) 6= 0 et Q(0) 6= 0 impairs, définit une valeur absolue
ultramétrique sur le corps k(T ) si k est un corps quelconque.
Proposition 8.2.2 Une valeur absolue est ultramétrique si et seulement si elle n’est pas archimé-
dienne.
Démonstration Nous avons déjà remarqué que les entiers naturels sont bornés par 1 lorsque la
valeur absolue est ultramétrique. Inversement, supposons que les entiers naturels soient bornés. Si
n ∈ N satisfait |n| > 1, on a alors |nk | = |n|k → +∞. Contradiction. On voit donc que les entiers
naturels sont en fait bornés par 1. Maintenant, si a, b ∈ K, on a pour tout n ∈ N,
n
n n k n−k
(a + b) = ∑ ab
k=1 k
et donc
n
n n
|a + b| ≤ ∑ |a|k |b|n−k ≤ (n + 1) max{|a|, |b|}n .
k=1 k
1 1
si bien que |a + b| ≤ (n + 1) n max{|a|, |b|}. Or (n + 1) n → 1 quand n → +∞.
8.3 Norme
On fixe un corps K muni d’une valeur absolue non triviale (penser à R ou C).
Définition 8.3.1 Une norme sur un espace vectoriel E est une application k k : K → R≥0 telle
que
1. ∀x ∈ E, kxk = 0 ⇔ x = 0,
2. ∀a ∈ K, ∀x ∈ E, kaxk = |a|kxk
3. ∀x, y ∈ E, kx + yk ≤ kxk + kyk|.
4. Plus généralement, si on se donne une famille d’espace vectoriels normés (Es )s∈S , alors les
familles bornées de ∏s∈S Es forment un espace vectoriel ∏bs∈S Es normé pour la norme sup.
5. De même, les fonctions bornées f : X → E définies sur un ensemble X et à valeurs dans un
espace vectoriel normé, forment un espace vectoriel normé F b (X, E) pour la norme sup.
8.3 Norme 133
pour p ≥ 1.
7. On peut munir C ([0, 1], R) de
Z 1 1p
p
k f k p := f (t) dt pour p ≥ 1 ou k f k∞ := sup | f (t)|.
0 0≤t≤1
Remarque 1. Si F est un sous-espace vectoriel d’un espace vectoriel normé, alors k k|F est
une norme sur F.
2. Si E est un espace vectoriel normé, alors d(x, y) := ky − xk définit une distance sur E.
E ×E /E et E ×E /E
(x, y) / x+y (x, y) / x+y
sont continues.
Proposition 8.3.3 Si F est un sous-espace vectoriel fermé d’un espace vectoriel normé E, alors
la formule
kx + Fk := d(x, F) := inf d(x, y)
y∈F
Remarque La topologie sur E/F est la topologie quotient : Une application E/F → X est continue
si et seulement si la composée E E/F → X est continue.
134 Chapitre 8. Espace vectoriel normé
Proposition 8.3.4 Soit u : E → F une application linéaire entre deux espaces vectoriels normés.
Alors, les conditions suivantes sont équivalentes :
1. u est continue en 0,
2. ∃M ∈ R, ∀x ∈ E, ku(x)k ≤ Mkxk,
3. u est lipschitzienne,
4. u est uniformément continue,
5. u est continue.
3. On voit aussi aisément qu’une application linéaire u : E → F est une isométrie si et seulement
si
∀x ∈ E, ku(x)k = kxk.
Exemple Toute application linéaire u : K m → K n est continue (si on munit les espaces de la norme
max) : si A := [ai, j ] désigne la matrice de u, on a
ku(x)k ≤ Mkxk avec M = ∑ |ai, j |.
i, j
Proposition 8.3.5 Si E et F sont deux espaces vectoriels normés, alors l’ensemble L (E, F) ⊂
L(E, F) des applications linéaires continues est un sous-espace vectoriel et la formule
ku(x)k
kuk := sup
x6=0 kxk
Proposition 8.3.6 Soit ϕ : E → K une forme linéaire non nulle et H = ker ϕ. Alors, ϕ est
continue si et seulement si H est fermé.
Démonstration Comme {0} ⊂ K est fermé, on voit immédiatement que, si ϕ est continue, alors
H := ϕ −1 ({0}) est nécessairement fermé. Pour montrer l’implication réciproque, on peut considérer
le diagramme commutatif
E
ϕ
/7 K ,
ϕ
π
'
E/H
Puisque H set fermé, E/H est un espace vectoriel normé et π est continue (contractante). Il suffit
donc de montrer que ϕ est continue. Autrement dit, on peut supposer que ϕ est un isomorphisme,
c’est à dire que E est une droite. On choisit une base e de E et on pose M := kϕ(e)k
kek . Si x = ae ∈ E,
on aura
kϕ(x)k = |a|kϕ(e)k = |a|Mkek = Mkxk.
Définition 8.4.2 Soit (xn )n∈N une suite dans un espace vectoriel normé E. Si la suite ∑n≤N xn
est convergente, on dit que la série ∑ xn est convergente et on désigne par ∑∞
0 xn la limite. On dit
que la série est absolument convergente si la série ∑ kxn k est convergente dans R.
136 Chapitre 8. Espace vectoriel normé
Proposition 8.4.3 Si une série ∑ xn est absolument convergente dans un espace de Banach E,
alors elle est convergente.
Démonstration On a toujours ∑NN21 un ≤ ∑NN21 kun k. Il suit que si la suite ∑n≤N kxn k est de Cauchy,
il en va de même de la suite ∑n≤N xn .
Définition 8.4.4 Un isomorphisme d’espaces vectoriels normés u : E ' F est une applica-
tion linéaire qui est un homéomorphisme. Deux normes sur un même espace vectoriel sont
équivalentes si l’identité est un isomorphisme (d’espaces vectoriels normés).
Lemme 8.4.5 Si (e1 , . . . , en ) est une base d’un espace vectoriel normé E, alors l’application
associée
Φ : K n → E, (a1 , . . . , an ) 7→ a1 e1 + · · · an en ,
est un isomorphisme d’espaces vectoriels normés. En particulier, E est complet.
Démonstration Rappelons que l’on munit K n par défaut de la norme max (ce qui n’aura a pos-
teriori aucune importance). On sait que Φ est linéaire et bijective et on voit aisément qu’elle est
continue :
n
kΦ(a1 , . . . , an )k ≤ M max |ai |,
i=1
Théoreme 8.4.6 1. Tout espace vectoriel normé de dimension finie est complet.
2. Toute application linéaire entre espaces vectoriels de dimension finie est continue.
Corollaire 8.4.7 Sur espace vectoriel de dimension finie, toutes les normes sont équivalentes.
Définition 8.5.1 Une algèbre normée sur K est une algèbre L munie d’une norme qui satisfait
1. ∀u, v ∈ L, kuvk ≤ kukkvk
2. k1L k ≤ 1.
Exemple 1. Si E est un espace vectoriel normé, alors L (E) est une algèbre normée pour la
norme
ku(x)k
kuk = sup
x6=0 kxk
quand N → ∞. Puisque la multiplication est continue, la première assertion est démontrée. De plus,
on a ∞ ∞
1 − (1 − h)−1 = − ∑ hn = −h ∑ hn ,
n=1 n=0
si bien que
∞
khk
k1 − (1 − h)−1 k ≤ khk ∑ khkn = .
n=0 1 − khk
Proposition 8.5.3 Si L est une algèbre de Banach, alors L× ⊂ L est ouvert et l’application
u 7→ u−1 est continue sur L× .
Démonstration Si u ∈ L× , la multiplication par u est continue sur L et son inverse aussi (c’est la
multiplication par u−1 ). C’est donc un homéomorphisme et il suit que
Vu := {u(1 − h), h ∈ L et khk ≤ 1} = uB− (1, 1)
est ouvert dans L. De plus, il résulte du lemme que Vu ⊂ L× . Il suit que L× = ∪u∈L× Vu est aussi
ouvert. Toujours grâce au lemme, l’application u 7→ u−1 est continue en 1 ∈ L× . Pour conclure, il
suffit de remarquer que (u + h)−1 = u−1 (1 + hu−1 )−1 → u−1 quand h → 0.
138 Chapitre 8. Espace vectoriel normé
Remarque 1. Comme conséquence, on voit que si K est complet, alors GLn (K) est ouvert
dans Mn (K) et que l’application A 7→ A−1 est continue.
2. On peut démontrer directement ce dernier résultat en rappelant d’abord que
GLn (K) = {A ∈ Mn (K), det(A) 6= 0}
et que det est une application continue car polynomiale. Pour la deuxième partie, on utilise la
formule
1 t 0
A−1 = A
det(A)
ou A0 est la comatrice de A dont les coefficients sont aussi polynomiaux.
8.6 Exponentielle
On suppose ici que K est un corps valué complet archimédien (et même, pour simplifier, que
K = R ou C).
un
Lemme 8.6.1 Si L est une algèbre normée et u ∈ L, alors la série ∑ est absolument conver-
n!
gente.
Démonstration Exercice.
Remarque 1. C’est manifestement faux sur un corps ultramétrique où l’on a toujours k n!1 k ≥ 1
(si bien que l’exponentielle aura un rayon de convergence inférieur à 1).
2. Il suit du lemme que, lorsque L est complet, la série converge.
3. Cela s’appliquera en particulier lorsque L est de dimension finie, par exemple si L = L(E)
avec E un espace vectoriel de dimension finie, ou si L = Mn (K).
un
∞
exp(u) := ∑ .
n=0 n!
Exemple On a
0 t cost sint
exp = .
−t 0 − sint cost
On en déduit que
∞
(u + h)n ∞
un ∞
(kuk + khk)n ∞
kukn
∑ n! − ∑ ≤ ∑ − ∑
n=0 n=0 n! n=0 n! n=0 n!
et on est donc ramené au cas ou L = R (qui est bien sûr laissé en exercice).
Proposition 8.6.6 Si L est une algèbre de Banach, alors l’application exp : L → L× est continue.
exp(t u) = t exp(u)
Démonstration Exercice.
Remarque Soit E un espace vectoriel de dimension finie et u ∈ L(E). Soit B une base de E et A la
matrice de u dans E. Alors, la matrice de exp(u) sera exp(A) : en effet, la bijection Mn (K) ' L(E)
induite par B est un isomorphisme d’algèbre normées.
satisfaisant
1. Si A, B ∈ Mn (K), alors exp(A + B) = exp(A) exp(B) lorsque AB = BA.
2. Si A ∈ Mn (K), alors exp(t A) = t exp(A).
3. Si A ∈ Mn (K) et P ∈ GLn (K), alors exp(P−1 AP) = P−1 exp(A)P.
140 Chapitre 8. Espace vectoriel normé
det(exp(u)) = exp(tr(u)).
Démonstration On se ramène à l’énoncé analogue pour une matrice. On peut supposer en fait que
K = C, et donc que la matrice est triangulaire, auquel cas c’est immédiat. .
Remarque Soient X,Y deux espaces métriques et x0 ∈ X. On dit que f : X \ {x0 } → Y a pour
limite ` ∈ Y en x0 si f se prolonge de manière unique en une application fe qui est continue en x0 et
que ` = fe(x0 ). On écrit alors
` = lim f (x).
x→x0
Notons que fe est unique si et seulement si x n’est pas isolé dans X (isolé signifie qu’il existe une
boule ouverte qui ne contient que x).
θ (t) − θ (t0 )
θ 0 (t0 ) := lim
t→t0 t − t0
(θ1 θ2 )(t) = (θ1 θ2 )(t0 ) + (θ10 (t0 )θ2 (t0 ) + θ1 (t0 )θ20 (t0 ))(t − t0 )
Démonstration Il suffit bien sûr de montrer la dernière assertion. En développant de chaque coté,
on a la majoration
k exp(tu) − 1 − tuk ≤ exp(|t|kuk) − 1 − |t|kuk.
et on en déduit que
exp(tu) − 1 exp(|t|kuk) − 1
k − uk ≤ − kuk.
t |t|
Il suit donc immédiatement du cas L = R que l’application t 7→ exp(tu) est dérivable en 0 et que sa
dérivée vaut u. Pour le cas général, il suffit de rappeler que
exp(tu) = exp(t0 u) exp((t − t0 )u).
8.8 Exercices
Exercice 8.8.1 1. Montrer que |a| := max(a, −a) définit une valeur absolue archimédienne
sur Q ou R. √
2. Montrer que |a + ib| := a2 + b2 définit une valeur absolue absolue archimédienne sur C.
3. Montrer que |r| := 21v si r = 2v × impair
impair définit une valeur absolue ultramétrique sur Q (on
pose aussi |0| = 0).
T v P(T )
4. Montrer que |R| := e−v si R(T ) = avec P(0) 6= 0 et Q(0) 6= 0, définit une valeur
Q(T )
absolue ultramétrique sur Q(T ) (on pose aussi |0| = 0).
Exercice 8.8.2 Montrer que si K est un corps valué, alors l’application a 7→ a−1 est continue
sur K × .
Exercice 8.8.3 1. Montrer que si E1 , . . . , En sont des espaces vectoriels normés, alors
k(x1 , . . . , xn )k∞ := maxni=1 kxi k définit une norme sur ⊕ni=1 Ei .
2. Montrer que k(xi )i∈N k∞ := supi∈N kxi k définit une norme sur l’espace l∞ (K) des suites
bornées.
3. Montrer que k f k∞ := sup1[0,1] | f (t)| définit une norme sur C ([0, 1], R).
4. Montrer que si E est est un espace vectoriel normé et X un ensemble, alors
F := { f : X → E, ∃M ∈ R, ∀x ∈ S, k f (x)k ≤ M}
est un sous-espace vectoriel et que k f k∞ := supx∈S k f (x)k définit une norme sur F.
1
dans R≥0 . On appliquera l’inégalité précédente avec A := ui /α où α := (∑ni=1 uip ) p
1
et B = vi /β où β := (∑ni=1 vqi ) q .
2. On se donne p ∈ R>0 .
(a) Montrer l’inégalité de Minkowski :
! 1p
n n 1
n 1
∑ |ai + bi | p ≤ ( ∑ |ai | p ) p + ( ∑ |bi | p ) p .
i=1 i=1 i=1
Exercice 8.8.6 Dire dans chaque cas s’il s’agit d’une norme d’algèbre sur Mn (K) :
1. kAk := maxi, j |ai j | (on traitera séparément le cas archimédien et le cas ultramétrique).
2. kAk := max j ∑i |ai j | (on pourra munir K n de k − k1 ).
3. kAk := maxi ∑ j |ai j | (on pourra munir K n de k − k∞ ).
Exercice 8.8.7 On fixe une norme sur Cn . Soient A ∈ GLn (C) et B ∈ Cn \ 0. On pose c(A) =
kAk · kA−1 k. Montrer que si AX = B, alors
kδ (X)k kδ (B)k
1. si A(X + δ (X)) = B + δ (B), on a ≤ c(A) .
kXk kBk
kδ (X)k kδ (A)k
2. si (A + δ (A))(X + δ (X)) = B, on a ≤ c(A) .
kX + δ (X)k kAk
0 π 0 0
Exercice 8.8.8 On pose A := , B := et C := A + B.
0 0 −π 0
1. Calculer les matrices exp(A) et exp(B) puis faire leur produit.
2. Diagonaliser C sur C. En déduire exp(C).
3. A-t-on exp(C) = exp(A) exp(B) ? Que peux-t-on en déduire sur A et B ?
0 t
Exercice 8.8.9 On pose A := . Montrer par récurrence sur k ∈ N que
−t 0
En déduire exp(A).
21 17 6
Exercice 8.8.10 Calculer exp −5 −1 −6 .
4 4 16
2 −1 1
Exercice 8.8.11 On pose M := 0 3 −1 .
2 1 3
1. Calculer exp(tM). 0
x = 2x − y + z
2. En déduire les solutions du système différentiel y0 = 3y − z .
0
z = 2x + y + 3z
9. Espace vectoriel euclidien
h(x1 , . . . , xn ), (y1 , . . . , yn )i = x1 y1 + · · · + xn yn .
Si a ∈ R, on a
si bien que P(a) ≥ 0. Ceci étant vrai pout tout a ∈ R, le discriminant de P est nécessairement
négatif :
4hx, yi2 − 4kxk2 kyk2 ≤ 0.
En d’autre termes, on a hx, yi2 ≤ kxk2 kyk2 et on sait que deux nombres positifs sont dans le même
ordre que leurs carrés. L’inégalité de Cauchy-Schwarz est donc bien satisfaite. De plus, on a égalité
si et seulement si le discriminant est nul (ou positif, ce qui est équivalent ici), ce qui signifie que P
a une racine a ∈ R et donc que ax + y = 0, c’est à dire que x et y sont liés puisque x 6= 0.
Définition 9.1.3 Soit E un espace vectoriel muni d’un produit scalaire et x, y ∈ E, l’angle (non
orienté) entre x et y est
[ hx, yi
(x, y) := arccos .
kxkkyk
Remarque 1. Cette définition a un sens grâce à l’inégalité de Cauchy-Schwarz qui nous dit
que
hx, yi
−1 ≤ ≤ 1.
kxkkyk
2. On peut réécrire la définition sous la forme
[
hx, yi = kxkkyk cos (x, y).
[
3. Le cas d’égalité dans la proposition nous dit que x et y sont liés si et seulement si (x, y) = 0
[ [
ou (x, y) = π. Et on voit aussi que x et y sont orthogonaux si et seulement si (x, y) = π/2. On
en sera pas surpris.
Définition 9.2.1 Un espace vectoriel euclidien est un espace vectoriel réel de dimension finie
muni d’un produit scalaire h , i. La norme associée est dite euclidienne.
h(x1 , . . . , xn ), (y1 , . . . , yn )i = x1 y1 + · · · + xn yn .
Remarque 1. La forme quadratique associée au produit scalaire est donc x 7→ kxk2 . On voit en
particulier qu’un u ∈ L(E) est une isométrie pour la distance associée à k k si et seulement
si c’est un opérateur orthogonal relativement à la forme quadratique. Ces deux termes sont
donc interchangeables.
2. On a une bijection entre produits scalaires et normes euclidiennes sur E donnée par
p 1
kxk = hx, xi et hx, yi = (kx + yk2 − kxk2 − kyk2 ).
2
3. On peut montrer qu’une norme est euclidienne si et seulement si elle satisfait la règle du
parallélogramme
kx + yk2 + kx − yk2 = 2 kxk2 + kyk2 ,
Théoreme 9.2.2 Soit E un espace vectoriel euclidien. Alors, l’application F 7→ F ⊥ induit une
bijection de l’ensemble des sous-espaces vectoriels de E sur lui même, qui est est symétrique
(F ⊥⊥ = F), qui renverse l’inclusion (F ⊂ G ⇒ G⊥ ⊂ F ⊥ ) et échange intersection et produit
((F + G)⊥ = F ⊥ ∩ G⊥ et (F ∩ G)⊥ = F ⊥ + G⊥ ). De plus, on a toujours E ' F ⊕ F ⊥ .
Démonstration À part la dernière, toutes les assertions ont déjà été vues dans le théorème 7.3.3.
Et la dernière assertion résulte du corollaire de ce même théorème : en effet, la restriction du produit
scalaire à F est toujours un produit scalaire qui est donc non dégénéré. .
Proposition 9.2.4 Si F est un sous-espace vectoriel d’un espace vectoriel euclidien E, alors la
projection orthogonale sur F est l’unique application telle que
p(x) ∈ F
∀x ∈ E,
∀y ∈ F, hp(x), yi = hx, yi.
Corollaire 9.2.5 Si F est un sous-espace vectoriel d’un espace vectoriel euclidien E et (y1 , . . . , yr )
une base orthogonale de F, alors la projection orthogonale sur F est donnée par
hx, y1 i hx, yr i
∀x ∈ E, p(x) = 2
y1 + · · · + yr .
ky1 k kyr k2
Proposition 9.2.6 Si E un espace vectoriel euclidien, alors E possède une base orthonormée B.
De plus, si u ∈ L(E), les conditions suivantes sont équivalentes :
1. u est orthogonal (c’est à dire une isométrie),
2. Si B est une base orthonormée de E, alors u(B) est aussi une base orthonormée,
3. Il existe une base orthonormée B de E telle que u(B) soit aussi une base orthonormée.
Démonstration Si E est de dimension n, la signature du produit scalaire est (n, 0) et il suit qu’il
existe une base dans laquelle la matrice est I. Par définition, c’est une base orthonormée. Si u
est orthogonal, alors u commute avec le produit scalaire. On voit donc que si hei , e j i = δi, j , on
aura aussi hu(ei ), u(e j )i = δi, j . Réciproquement, supposons que B := (e1 , . . . , en ) et u(B) :=
(u(e1 ), . . . , u(en )) soient des bases orthonormées et soit x = ∑ ai ei ∈ E. On aura alors u(x) =
∑ ai u(ei ) si bien que
kxk2 = ∑ a2i = k(u(x)k2 .
Corollaire 9.2.7 Soit A ∈ Mn (R). Alors, A ∈ O(n) si et seulement si ses colonnes forment une
base orthonormée.
Démonstration On peut bien sûr supposer que E = Fr . En procédant par récurrence sur r, on voit
qu’il existe y1 , . . . , yr−1 uniques tels que, pour i < r, (y1 , . . . , yi ) soit une base orthonormée de Fi
et que hxi , yi i > 0. Et il existe alors un unique yr ∈ Fr−1 ⊥ , qui est une droite, tel que ky k = 1 et
r
hxr , yr i > 0.
et
hu2 , v01 i 0
1 1 1
v02 := u2 − 0 2
v1 = (1, 0, −1) − (1, −1, 0) = , , −1 .
kv1 k 2 2 2
On en déduit que
√ √ !
v0 1 2 2
v1 := 10 = √ (1, −1, 0) = ,− ,0
kv1 k 2 2 2
et √ √ √ !
v0
1 1 1 6 6 6
v2 := 02 = q , , −1 = , ,− .
kv2 k 3 2 2 6 6 3
2
2. On munit R[X]≤2 de
Z 1
hP, Qi = P(t)Q(t)dt
−1
et on applique le procédé d’orthogonalisation de Gram-Schmidt à la base canonique. On
part donc P0 = 1, P1 = X, P2 = X 2 pour construire Q0 , Q1 , Q2 . On commence par poser
Q00 := P0 = 1 puis on calcule
Z 1
kQ00 k2 = dt = [t]1−1 = 2
−1
si bien que √
Q00 1 2
Q0 := 0 =√ = .
kQ0 k 2 2
On pose ensuite
Q01 := P1 − hP1 , Q0 iQ0 .
et on calcule Z 1 √
2
hP1 , Q0 i = tdt = 0
−1 2
(fonction impaire) si bien que Q01 := P1 = X. On calcule alors
3 1
Z 1
t 2
kQ01 k2 2
= kP1 k − hP1 , Q0 i = 2
t dt = 2
=
−1 3 −1 3
si bien que √
Q01 X 6
Q1 := 0 =q = X.
kQ1 k 2 2
3
Enfin, on pose
Q02 := P2 − hP2 , Q0 iQ0 − hP2 , Q1 iQ1 .
On calcule alors
Z 1 √ √ 3 1 √
2 2 2 t 2
hP2 , Q0 i = t dt = =
−1 2 2 3 −1 3
150 Chapitre 9. Espace vectoriel euclidien
ainsi que
Z 1 √
6
hP2 , Q1 i = t 3 dt = 0.
−1 2
On a donc √ √
2 2 1
Q02 2
:= X − = X2 −
3 2 3
et on veut connaître
kQ02 k2 = kP2 k2 − hP2 , Q0 i2 − hP2 , Q1 i2 .
On calcule 5 1
Z 1
2 4t 2
kP2 k = t dt = =
−1 5 −1 5
si bien que
√ !2
2 2 8
kQ02 k2 = − =
5 3 45
et finalement √ √
Q02 X 2 − 13 10 2 10
Q2 := 0 = q =3 X − .
kQ2 k 8 4 4
45
Remarque Il est peut-être utile der rappeler que nous avons défini l’adjoint u∗ d’un opérateur u
par la formule
∀x, y ∈ E, hu(x), yi = hx, u∗ (y)i.
Rappelons aussi que u est dit orthogonal si u∗ ◦ u = IdE . Cela signifie que u est bijectif et que
u∗ = u−1 et s’exprime aussi par la condition
2. Si on fixe une base orthonormée B de E et qu’on désigne par A la matrice de u dans la base
B, on voit alors que u est autoadjoint si et seulement si A est symétrique.
donné par
∀x, y ∈ E, Φ(x, y) = hx, u(y)i.
De plus, Φ est symétrique si et seulement si u est autoadjoint.
9.3 Réduction des matrices symétriques 151
Démonstration Par composition, si u ∈ L(E), alors la formule définit bien une forme bilinéaire
sur E. De plus, si A := [ai, j ] est la matrice de u dans une base orthonormée B := (e1 , . . . , en ), on
aura pour tout i, j = 1, . . . , n,
si bien que la matrice de ϕ dans B est aussi A. La conclusion est alors immédiate.
Proposition 9.3.4 Si u est un opérateur autoadjoint sur E, ses sous-espaces propres sont ortho-
gonaux deux à deux.
Lemme 9.3.6 Si V est un espace vectoriel de dimension finie sur R et u ∈ L(V ) est non nul,
alors il existe une droite ou un plan dans V qui est stable par u.
Démonstration Puisque u est non nul, il existe une valeur propre complexe non nulle λ pour u
dans C. On écrit donc λ = a + ib avec a, b ∈ R et b 6= 0. Si z := x + iy est un vecteur propre de u
pour λ , on aura
u(x) + iu(y) = u(x + iy) = u(z) = λ z = (a + ib)(x + iy) = (ax − by) + i(ay + bx).
si bien que
u(x) = ax − by et u(y) = ay + bx.
et Vect(x, y) répond à la question.
Remarque Pour être tout à fait rigoureux, il faudrait travailler dans C ⊗R V ou alors travailler avec
des matrices et utiliser le fait que Mn (R) est contenu dans Mn (C).
152 Chapitre 9. Espace vectoriel euclidien
Théoreme 9.3.7 Si u est un opérateur autoadjoint sur E, alors il est diagonalisable dans une
base orthonormée.
Démonstration On procède par récurrence sur n = dim E. Lorsque n = 1, il n’y a rien à faire.
Supposons maintenant que n = 2. Si
a b
A :=
b c
est la matrice de u dans une base quelconque, on aura
χu := T 2 − (a + c)T + (ac − b2 ).
Il suit que u possède une valeur propre a1 . Soit e1 un vecteur propre de norme 1 pour a1 et
F := Vect(e1 ). Soit e2 un vecteur de norme 1 dans F ⊥ . On utilise alors la proposition 9.3.3 qui nous
dit que comme F est stable par u, il en va de même pour F ⊥ si bien que u(e2 ) = a2 e2 avec a2 ∈ R.
Cela veut dire que e2 est aussi un vecteur propre pour u et on obtient ainsi une base orthonormée
dans laquelle la matrice de u est diagonale.
Dans le cas général, on sait grâce au lemme qu’il existe un sous-espace vectoriel F de dimension
1 ou 2 dans E qui est stable par u. De nouveau, grâce au lemme 9.3.3, on sait que F ⊥ est stable par
u. On conclut alors aisément (exercice).
Corollaire 9.3.8 Si A est une matrice réelle symétrique, elle est diagonalisable dans une base
orthonormée : il existe une matrice orthogonale P et une matrice diagonale D telles que A =
PDP−1 .
Exemple Diagonaliser
1 1 1
A := 1 1 1
1 1 1
dans une base orthonormée :
— Première méthode : on écrit la forme quadratique associée comme (somme de) carré(s) :
On réalise alors qu’on peut réécrire cette somme comme combinaison linéaire de carrés de
formes linéaires qui forment une base orthonormée :
√ √ √ √ √ √ √ √
3 3 3 2 2 2 2 6 6 6 2
Q = 3( x+ y+ z) + 0( x− y) + 0( x+ y− z)
3 3 3 2 2 6 6 3
Pour obtenir ça, on regarde d’abord
√
la forme
√
linéaire
√
x + y + z qui a pour composantes (1, 1, 1)
3 3 3
et on la normalise pour trouver 3 x + 3 y + 3 z. Ensuite, on regarde le plan orthogonal au
vecteur (1, 1, 1) qui a pourÎquation
√
x +√y + z =√ 0 dont√
on cherche une base orthonormée
(calcul) et on obtient ainsi 22 x − 22 y et 66 x + 66 y − 36 z. Il suffit ensuite de poser
√ √ √ √ √ √
3 3 3 3 2 6
3 0 0
√3 3√ 3
√3 2√ √6
D := 0 0 0 , P−1 := 22 − 22 et P = t P−1 = 33 − 22 6 .
√ √
0√
√ 6√
0 0 0 6 6
− 63 3
0 − 63
6 6 3
9.4 Espace préhilbertien 153
ce qui nous donne x = y = z. On peut prendre (1, 1, 1) comme vecteur propre qu’on normalise
pour trouver la première colonne de P. On cherche ensuite le sous-espace propre associé à
la valeur propre 0, c’est le noyau de A qui a pour équation x + y + z = 0. On cherche alors
une base orthonormée pour obtenir les deux dernières colonnes de P. Finalement, on sait que
P−1 = t P.
[· · · ]
154 Chapitre 9. Espace vectoriel euclidien
9.5 Exercices
Exercice 9.5.1 On se place dans un espace euclidien E et on illustrera chaque résultat par un
dessin dans le plan. Soient x, y ∈ E.
1. Montrer le théorème de Pythagore : x ⊥ y ⇔ kx − yk2 = kxk2 + kyk2 .
2. Montrer la règle du parallélogramme : kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2 .
x + y 2 kxk2 kyk2 kx − yk2
3. En déduire l’identité de la médiane : k k = + − .
2 2 2 4
Exercice 9.5.2 On se place dans un espace euclidien E et on illustrera chaque résultat par un
dessin dans le plan. Soient x, y ∈ E \ {0}.
[
1. Montrer que x et y sont orthogonaux si et seulement (x, y) = π/2.
[
2. Montrer que x et y sont linéairement dépendants si et seulement si (x, [
y) = 0 ou (x, y) = π.
3. Montrer le théorème de Pythagore généralisé :
Exercice 9.5.3 Montrer que, dans un espace euclidien, deux vecteurs x et y sont colinéaires
si et seulement si kx + yk = |kxk ± kyk|. L’implication est-elle toujours vrai pour une norme
quelconque ? Et pour un espace vectoriel sur C ? Et la réciproque ?
Exercice 9.5.4 Soient x1 , . . . , xn tous distincts de norme 1 dans un espace vectoriel euclidien
E et a1 , . . . , an ∈ R≥0 tels que ∑ni=1 ai = 1 et k ∑ni=1 ai xi k = 1. Montrer que tous les ai sont nuls
sauf un (qui vaut 1).
Exercice 9.5.5 Montrer que tout vecteur de norme 1 dans R3 se met sous la forme u =
(cos ϕ, sin ϕ cos ψ, sin ϕ sin ψ) et compléter en une base orthonormée.
Exercice 9.5.6 Montrer que la projection orthogonale sur la diagonale de R2 est donnée par
x+y x+y
∀x, y ∈ E, p(x, y) = ( , ).
2 2
Exercice 9.5.7 Soient H un hyperplan d’un espace vectoriel euclidien E et v un vecteur normal
(c’est à dire orthogonal) à H. Soient p la projection orthogonale sur H et s la réflexion (c’est à
dire symétrie) orthogonale par rapport à H. Montrer que pour tout x ∈ E, on a
hx, vi hx, vi
p(x) = x − v et s(x) = x − 2 v
kvk2 kvk2
Exercice 9.5.8 Quelle est l’image de v := (−1, 2, 6) par la projection orthogonale sur le plan
H := Vect((−1, 1, 0), (1, 1, 0)) ? et avec H := Vect((3, −1, 2), (1, −1, −2)) ?
Exercice 9.5.11 On va montrer que si E est un espace euclidien et u ∈ L(E), alors ku∗ ◦ uk =
kuk2 . On pose v = u∗ ◦ u.
9.5 Exercices 155
Exercice 9.5.12 Si E est un espace vectoriel euclidien, on définit le rayon spectral de u ∈ L(E)
comme étant ρ(u) := max |λ | lorsque λ parcourt les valeurs propres de u.
1. Montrer que si u est un opérateur autoadjoint,
p alors kuk = ρ(u).
∗
2. En déduire qu’en général, on a kuk := ρ(u ◦ u).
Exercice 9.5.13 Déterminer une matrice orthogonale P telle que P−1 AP soit diagonale dans
les cas suivants :
√ 0 1 1 1
2
√ 6 1 0 0 0
1) A := 2) A :=
1
6 1 0 0 0
1 0 0 0
Exercice 9.5.14 Montrer que si S est une matrice réelle symétrique définie positive, alors il
existe T tel que S = T 2 .
2. De même avec
1 1 1 2 2 0
1 1 1 et 2 0 2 .
1 1 1 0 2 2
Exercice 9.5.17 Montrer que l’application Φ : (A, B) 7→ tr(AB) est une forme bilinéaire symé-
trique sur Mn (R). Montrer que la restriction au sous-espace SMn (R) des matrices symétriques est
définie positive. Montrer que l’orthogonal de SMn (R) est le sous-espace AMn (R) des matrices
antisymétriques (on pourra s’aider de la formule tr(AE ji ) = ai j ).
Exercice 9.5.18 Montrer que l’application (A, B) 7→ hA, Bi := tr(t AB) est un produit scalaire
sur Mn (R) et que la base canonique est une base orthonormée (on pourra s’aider de la formule
tr(t AEi j ) = ai j ). Quel est l’adjoint de l’endomorphisme M 7→ AM pour A fixé.
IV
Compléments
Remarque Certains exercices font usage d’un logiciel de calcul formel. Le code proposé peut être
rentré en ligne sur
[Link]
Corrigé de l’exercice 1.7.11 : Supposons que dans un groupe G, on ait gh = gh0 . Puisque l’on
a toujours g−1 (gh) = (g−1 g)h = 1h = h, on voit qu’il suffit de multiplier par g−1 à gauche pour
obtenir h = h0 . On montre de même que si gh = g0 h, alors g = g0 .
Bien sûr, le monoïde {0, 1}, muni de la multiplication, n’est pas intègre car 0 × 0 = 0 = 0 × 1
bien que 0 6= 1.
Soit A un anneau et a, b, c 6= 0 dans A. Si on suppose que ab = ac, on voit immédiatement que
a(b − c) = 0. Si A est intègre, cela implique que b − c = 0 et donc que b = c. De même, si ac = bc,
on aura a = b.
Corrigé de l’exercice 1.7.17 :
1.
2. Remarquons pour commencer que {0} = (0). Maintenant, si I est un idéal non nul de K[T ], il
existe un polynôme M ∈ I \ {0} de plus petit degré d. Quitte à le multiplier par une constante,
on peut supposer qu’il est unitaire. Si P ∈ I, on peut écrire AP = MQ + R avec deg R < deg M.
On a alors R = P − MQ ∈ I et comme deg R < deg M, on doit avoir R = 0 si bien que
P = MQ ∈ (M). Cela montre l’existence de M et aussi que deg P = deg Q + deg M ≥ deg M
avec égalité si et seulement si Q est constant, c’est à dire si P = aM avec a ∈ K. Si (M) = (P),
on peut écrire M = SP si bien que deg M ≥ deg P, et donc obligatoirement deg M = deg P
et P = aM. Si on suppose de plus P unitaire, on a a = 0 et il suit que P = M. Cela montre
l’unicité.
Corrigé de l’exercice 1.7.22 :
On montre que M 2 − (a + d)M + (ad − bc)I = 0 en tapant :
160
a=var(’a’)
b=var(’b’)
c=var(’c’)
d=var(’d’)
M=matrix(2,2,[a,b,c,d])
I=matrix(2,2,[1,0,0,1])
N=M^2-(a+d)*M+(a*d-b*c)*I
[Link]()
On en déduit que
On voit donc que si ad − bc est inversible, alors M aussi et on obtient son inverse en calculant :
(1/(a*d-b*c))*((a+d)*I-M)
def Gau(A):
U=copy(A)
m=[Link]()
n=[Link]()
k=0
l=0
while (k < m and l < n):
i=k
while U[i,l]==0:
if i==m-1:
if l==n-1:
return
161
l=l+1
i=k
else:
i=i+1
if i!=k:
Ech(U,k,i)
print U
if U[k,l] != 1:
Dil(U,k,1/U[k,l])
print U
for i in [k+1..m-1]:
if U[i,l]!=0:
Tra(U,i,k,-U[i,l])
print U
k=k+1
l=l+1
Il suffit ensuite d’appliquer cette dernière fonction aux différentes matrices en rentrant par
exemple :
M=matrix(QQ,3,3,[3,2,-3,5,-1,-2,1,1,-1])
M
Gau(M)
fait, ϕ ∈ ker f , on aura pour tout i = 0, . . . , d − 1, ϕ(T i ) = 0 et donc ϕ(P) = 0. Cela montre que f
est injective.
Inversement, si on se donne (c0 , . . . , cd−1 ) ∈ K d et P = ∑ni=0 ai T i ∈ K[T ], on peut poser ϕ(P) =
d−1
∑i=0 ai ci . Supposons pour l’instant que l’on sache que ϕ est linéaire. Comme clairement, ϕ(P) = 0
pour P ∈ (T d ), on aura ϕ ∈ (T d )◦ . Et comme, pour tout i = 0, . . . , d − 1, on a fi (ϕ) = ϕ(T i ) = ci ,
on aura f (ϕ) = (c0 , . . . , cd−1 ). D’où la surjectivité. Il ne reste donc qu’à montrer que ϕ est linéaire.
On se donne λ , µ ∈ K et P = ∑ ai T i , Q = ∑ bi T i ∈ K[T ] si bien que λ P + µQ = ∑(λ ai + µbi )T i .
On calcule alors ϕ(λ P + µQ) = ∑(λ ai + µbi )ci = λ (∑ ai ci ) + µ ∑ bi )ci = λ ϕ(P) + µϕ(Q).
Corrigé de l’exercice 3.6.6 :
1. Si q = IdE − p, on a q ◦ q = (IdE − p) ◦ (IdE − p) = IdE − 2p + p ◦ p. Donc, si p est une
projection, on a q ◦ q = IdE − 2p + p = IdE − p = q. Et on voit donc que q est aussi une
projection. Comme on a q = IdE − p si et seulement p = IdE − q, la réciproque est aussi
vraie.
Si p et q sont des projections complémentaires comme ci-dessus, on a IdE = p + q et donc
l’identité x = p(x) + q(x) sur E. On en déduit immédiatement que E = im p + im q mais aussi
que ker q ∩ ker p = 0 car si p(x) = q(x) = 0, alors x = 0. On voit aussi que ker p ⊂ im q car
si p(x) = 0, alors x = q(x). Pour montrer l’inclusion réciproque, on utilise enfin le fait que
p est une projection si bien que p ◦ q = p ◦ (IdE − p) = p − p ◦ p = 0. Cela signifie que si
x ∈ E, alors p(q(x)) = 0 et donc qu’on a bien im q ⊂ ker p. Bien sûr, par symétrie, on a aussi
im p = ker q. On obtient donc les décompositions en somme directe annoncées.
162
2.
Corrigé de l’exercice 4.5.2 :
1. C’est 1 (la dimension de K n sur K est toujours n et ici c’est le cas K = C et n = 1).
2. C’est 2 car tout complexe s’écrit de manière unique x1 + yi avec x, y réels.
3. C’est ∞ car {π i }i∈N , par exemple, est une famille libre infinie de C : sinon, on pourrait écrire
une somme finie ∑ ai π i = 0 et π ne serait pas transcendant. Plus précisément, la dimension
de C sur Q est la puissance du continu car si E est un espace vectoriel de dimension infinie
sur Q, alors dim E = |E|.
Corrigé de l’exercice 5.6.4 : Les énoncés de cet exercice sont toujours valables pour des
modules sur un anneau quelconque. Dans ce cas, on doit utiliser la propriété universelle du produit
tensoriel pour construire des applications linéaires dans les deux sens et montrer qu’elles sont
inverses l’une de l’autre. Pour des espaces vectoriels sur un corps K, c’est bien plus simple : il suffit
d’utiliser la propriété universelle des bases (toute bijection entre deux bases se prolonge alors de
manière unique en un isomorphisme). Par contre cette seconde méthode laisse sous-entendre que
l’isomorphisme dépend du choix de la base alors qu’il est naturel.
1. On sait que K a pour base 1. Donc si E a pour base (ei )i∈I , on en déduit que K ⊗ E a pour
base (1 ⊗ ei )i∈I . La bijection 1 ⊗ ei ↔ ei se prolonge de manière unique en un isomorphisme
K ⊗ E ' E. Voyons maintenant la démonstration qui n’utilise pas les bases. On considère
l’unique application bilinéaire K × E → E, (a, x) 7→ ax. Elle induit une application linéaire
u : a ⊗ x 7→ ax (propriété universelle du produit tensoriel). On dispose aussi dans l’autre sens
de l’application linéaire v : x 7→ 1 ⊗ x. On voit immédiatement que u ◦ v = Id. Dans l’autre
sens, il suffit de remarquer que (v ◦ u)(a ⊗ x) = 1 ⊗ ax = a ⊗ x et d’utiliser de nouveau la
propriété universelle du produit tensoriel (ou le fait que tout élément du produit tensoriel est
somme de tenseurs).
Les deux autres isomorphismes s’obtiennent exactement de la même façon.
2.
3.
4. Si on se donne ϕ ∈ t E et ψ ∈ t F, on peut considérer la composée du produit ϕ × ψ : E × F →
K × K et de la multiplication K × K → K. C’est une application bilinéaire qui induit donc
une application linéaire
u(ϕ, ψ) : E ⊗ F → K, x ⊗ y 7→ ϕ(x)ψ(y)
u : t E × t F → t (E ⊗ F)
et on veut s’assurer qu’elle est bilinéaire. Par symétrie, on ne le fait que d’un coté : si on se
donne ϕ1 , ϕ2 ∈ t E, ψ ∈ t F et a1 , a2 ∈ K, on aura bien pour x ∈ E et y ∈ F,
Remarquons que ce dernier argument suffit pour définir un tel isomorphisme, mais une fois
encore, on ne saura pas qu’il est naturel, c’est à dire, indépendant du choix des bases.
163
M.jordan_form(transformation=true)
1. Avec
M = matrix(QQ,3,3,[3,2,4,-1,3,-1,-2,-1,-3])
on obtient
−1 0 0 1 −1 1
J= 0 2 1 et P = 0 − 12 0 .
1 1
0 0 2 −1 2 −2
2. Avec
M = matrix(QQ,3,3,[8,-1,-5,-2,3,1,4,-1,-1])
on obtient
3
2 0 0 1 2 1
J= 0 4 1 et P = 1 − 32 0 .
3 1
0 0 4 1 2 2
3. Avec
M = matrix(QQbar,4,4,[0,0,0,-1,1,0,0,0,0,1,0,-2,0,0,1,0])
on obtient
−i 1 0 0 −i 1 i 1
0 −i 0 0 1 0 1 0
J= et P =
−i 3 i
.
0 0 i 1 3
0 0 0 i 1 2i 1 −2i
4. Avec
M = matrix(QQ,3,3,[1,-1,-1,-1,1,-1,1,0,2])
on obtient
2 0 0 0 −1 1
J= 0 1 1 et P = 1 −1 1 .
0 0 1 −1 1 0
5. Avec
M = matrix(QQbar,4,4,[2,1,0,0,-2,0,0,0,1,0,0,2,0,1,-1,2])
on obtient
1−i 1 0 0 0 1 0 1
0 1−i 0 0 0 −1 − i 0 −1 + i
J= et P =
3−3i 3+3i
.
0 0 1+i 1 2 0 2 0
0 0 0 1+i − 3i2 1−3i
4
3i
2
1+3i
4
2. On a
!n
n n n n n n n
kAXk1 = ∑ ai j x j =∑ ∑ ai j x j ≤ ∑ ∑ |ai j ||x j | = ∑ ∑ |ai j ||x j |
j=1 i=1 1 i=1 j=1 i=1 j=1 j=1 i=1
!
n n n n n
n n n
≤ ∑ max ∑ |aik ||x j | = max ∑ |aik | ∑ |x j | = max ∑ |ai j | kXk1 ,
j=1 k=1 i=1 k=1 i=1 j=1 j=1 i=1
Cela montre que notre formule définit la norme subordonnée à k−k1 qui est automatiquement
une norme d’algèbre.
3. On a !n
n n n
n n
kAXk∞ = ∑ ai j x j = max ∑ ai j x j ≤ max ∑ |ai j ||x j |
j=1 i=1 j=1 i=1 j=1
i=∞ ∞
!
n n
n n n
≤ max ∑ |ai j | max |xk | = max ∑ |ai j | kXk∞ .
i=1 j=1 k=1 i=1 j=1
D’autre part, il existe k tels que maxni=1 ∑nj=1 |ai j | = ∑nj=1 |ak j |. On pose alors E = ∑nj=1 ε j E j
ou ε j est le signe de ak j , et on a
!n
n n
n
kAEk∞ = ∑ ai j ε j = max ∑ ai j ε j
j=1 i=1 j=1
i=∞ 1
!
n n n
n n
= ∑ |ak j | = max
i=1
∑ |ai j | = max ∑ |ai j | kXk∞ .
i=1 j=1
j=1 j=1
2.
Références
169