0% ont trouvé ce document utile (0 vote)
19 vues52 pages

ALGLINDG

Le document traite de l'algèbre linéaire, en particulier de la diagonalisation et des sous-espaces vectoriels. Il aborde des concepts tels que la somme de sous-espaces, les applications linéaires, et la diagonalisation, avec des exemples et des propriétés associées. Des annexes fournissent des informations supplémentaires sur des théorèmes et des applications en physique et en mathématiques.

Transféré par

mnoeldychrist
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
19 vues52 pages

ALGLINDG

Le document traite de l'algèbre linéaire, en particulier de la diagonalisation et des sous-espaces vectoriels. Il aborde des concepts tels que la somme de sous-espaces, les applications linéaires, et la diagonalisation, avec des exemples et des propriétés associées. Des annexes fournissent des informations supplémentaires sur des théorèmes et des applications en physique et en mathématiques.

Transféré par

mnoeldychrist
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

© 2011 - Gérard Lavau - http://lavau.pagesperso-orange.fr/index.

htm
Vous avez toute liberté pour télécharger, imprimer, photocopier ce cours et le diffuser gratuitement. Toute diffusion à
titre onéreux ou utilisation commerciale est interdite sans accord de l'auteur.
Si vous êtes le gestionnaire d'un site sur Internet, vous avez le droit de créer un lien de votre site vers mon site, à
condition que ce lien soit accessible librement et gratuitement. Vous ne pouvez pas télécharger les fichiers de mon site
pour les installer sur le vôtre.

ALGEBRE LINEAIRE - DIAGONALISATION


Plan
I : Somme de sous-espaces vectoriels
1) Somme de deux sous-espaces vectoriels
2) Supplémentaires
3) Somme de n sous-espaces vectoriels
II : Applications linéaires
1) Formes linéaires, dual
2) Trace
3) Sous-espaces stables
4) Polynômes annulateurs d'un endomorphisme
III : Diagonalisation
1) Exemples de problèmes
2) Valeurs propres, vecteurs propres, sous-espaces propres
3) Méthode pratique
4) Propriétés des sous-espaces propres
5) Propriétés du polynôme caractéristique
6) Conditions de diagonalisation
Annexe I : d'autres exemples de dualité
Annexe II : une application du théorème du rang en S.I. et en physique
a) Cycles indépendants, nombre cyclomatique
b) Utilisation du nombre cyclomatique
Annexe III : Trigonalisation des matrices (Complément de cours MP)
Annexe IV : Le théorème de Cayley-Hamilton

I : Somme de sous-espaces vectoriels

1– Somme de deux sous–espaces vectoriels


Soit E un espace vectoriel et F et G deux sous-espaces de E. On rappelle qu'on appelle F + G le
sous-espace vectoriel engendré par F ∪ G, et défini par { z | ∃ x ∈ F, ∃ y ∈ G, z = x + y}. C'est le
plus petit sous–espace vectoriel contenant F et G.

On dit que la somme est directe si l'une des conditions équivalentes suivantes est vérifiée :
i) F ∩ G = {0}
ii) x + y = 0 et x ∈ F, y ∈ G ⇒ x = y = 0
iii) Tout z de F + G s'écrit de manière unique x + y, x ∈ F, y ∈ G.
On note alors la somme F ⊕ G et non F + G

2– Supplémentaires
Si E = F ⊕ G, on dit que F et G sont supplémentaires. On peut définir alors le projecteur p de E sur
F parallèlement à G :
-1-
E → E
z = x + y → p(z) = x
∈F ∈G

EXEMPLE : Soit E = K[X], P un polynôme de degré n+1, F = Kn[X] et G = {QP | Q ∈ E}. Alors
E = F ⊕ G. Il faut montrer que, pour tout A de E, il existe Q unique et R unique de degré inférieur
ou égal à n tel que A = PQ + R. On reconnaît la division euclidienne de A par P.
Voici quelques propriétés des supplémentaires :

❑ Soit u une application linéaire de E dans F. Si E est de dimension finie, on dispose du théorème du
rang (voir L(E-F).PDF dans le cours de première année) :
dim E = dim Ker u + dim Im u

L'analogue de cette propriété en dimension infinie est la suivante :


Tous les supplémentaires de Ker u sont isomorphes à Im u
Soit E' un supplémentaire de Ker u et considérons la restriction de u à E'.
Montrons que u : E' → Im u est un isomorphisme.
Cette restriction est injective. En effet :
x ∈ Ker u|E ' ⇒ x ∈ E' et u(x) = 0 ⇒ x ∈ Ker u ∩ E' = {0} ⇒ x = 0
Elle est également surjective. En effet :
y ∈ Im u ⇒ ∃ x ∈ E, y = u(x)
or x peut s'écrire v + w avec v dans Ker u et w dans E', de sorte que y = u(w) et y appartient à Im u|E'.

Cette proposition ne signifie nullement que Im u et Ker u sont en somme directe.

0 1 1 1
EXEMPLE 1 : Soit u de 3
dans 3
de matrice   0 0 1  0
R R
. Alors Ker u est la droite engendrée par  
0 0 0 0
   
1 0
alors que Im u est le plan engendré par  0  et  1 . Le noyau est inclus dans l'image. Ils ne sont pas
0 0
en somme directe. Cependant, tout supplémentaire du noyau est un plan, isomorphe au plan de
l'image.

0 0 1 1
EXEMPLE 2 : Soit u de R
3
dans
R
3
de matrice  0 0 0 . Alors Ker u est le plan engendré par  0 
 
0 0 0 0
0 1
et  1  et Im u est la droite engendrée par  0 . Le noyau contient l'image. Ils ne sont pas en somme
0 0
directe. Cependant, tout supplémentaire du noyau est une droite, isomorphe à la droite de l'image.

EXEMPLE 3 : Les polynômes d'interpolation de Lagrange. Soit a0, a1, ..., an n+1 éléments distincts
de K (K = R ou C). On considère l'application u de K[X] dans Kn+1 définie par :

-2-
P(a1) 
 P(a0)

u(P) =  ... 
 P(an) 
Le noyau de u est constitué des polynômes P qui s'annulent en a0, a1, ..., an. Il s'agit donc des
multiples de (X – a0)(X – a1) ... (X – an), polynôme de degré n+1. Nous avons vu qu'un
K K
supplémentaire de ce noyau est n[X]. Il en résulte que u : n[X] → Im u est un isomorphisme et
K K
qu'en particulier, dim Im u = dim n[X] = n+1 donc Im u = n+1 et u est surjective.

K
Cela peut se montrer également avec le théorème du rang, en notant u' la restriction de u à n[X] :
K
u' : n[X] → n+1 K
u' est injective car P ∈ Ker u ⇒ deg P ≤ n et P est un multiple de (X – a0)(X – a1) ... (X – an) ⇒
K
P = 0. On a donc n+1 = dim n[X] = dim Ker u' + dim Im u' = dim Im u' = dim n+1 ⇒ K
K
Im u' = n+1.

 yy01 
Ainsi, pour tout  ... , il existe un unique polynôme P de degré inférieur ou égal à n tel que :
 yn 
P(a0) = y0, P(a1) = y1, ..., P(an) = yn
On peut exprimer explicitement P. Pour tout i, considérons le polynôme
(X – a0)...(X – ai–1)(X – ai+1)...(X – an)
Qi =
(ai – a0)...(ai – ai–1)(ai – ai+1)...(ai – an)
n
On a Qi(ai) = 1 et Qi(aj) = 0 pour i ≠ j. P = ∑ yi Qi répond alors à la question.
i=0

Ces polynômes servent à approximer les fonctions en particulier dans le calcul intégral. Soient des
points a < a0 < a1 < ... < an < b et P un polynôme de degré inférieur ou égal à n. On a :
n
P = ∑ P(ai) Qi
i=0

b n b
⌠ ⌠
⇒  P(t) dt = ∑ αi P(ai) où αi =  Qi(t) dt
⌡a i=0 ⌡a
Si on se fixe les valeurs de ai, on peut calculer une fois pour toutes les valeurs αi. On peut alors
n
utiliser l'expression ∑ αi P(ai) pour calculer, non seulement l'intégrale d'un polynôme de degré n
i=0

(calcul exact dans ce cas), mais aussi une valeur approchée de l'intégrale d'une fonction f au moyen
n
de la formule ∑ αi f(ai). Cela est intéressant dans le cas où le calcul d'une primitive est difficile ou
i=0

impossible, ou bien dans le cas où f n'est connue qu'en un nombre fini de points (résultant d'une
mesure d'un échantillonage par exemple). On peut aussi choisir les ai pour tenter de minimiser
l'erreur commise.

-3-
3– Somme de n sous–espaces vectoriels
DEFINITION :
Soit E un espace vectoriel, de dimension finie ou non, E1, E2, ..., Ep p sous–espaces vectoriels de E.
On appelle somme des Ei l'ensemble défini par :
E1 + E2 + ... + Ep = { z | ∃ xi ∈ Ei, z = x1 + x2 + ... + xp}.

E1 + E2 + ... + Ep est le sous–espace vectoriel engendré par la réunion des Ei. C'est le plus petit sous–
espace vectoriel contenant les Ei.

On dit que la somme est directe si l'une des trois conditions équivalentes suivantes est vérifiée :
i) x1 + x2 + ... + xp = 0 et ∀ i, xi ∈ Ei ⇒ ∀ i, xi = 0
ii) Tout z de E1 + ... + Ep s'écrit de manière unique x1 + ... + xp, xi ∈ Ei.
iii) ∀ i, (E1 + E2 + ... + Ei–1) ∩ Ei = {0}

Démonstration :
i) ⇒ ii)
Si z = x1 + ... + xp = y1 + ... + yp avec x1 ∈ E1, y1 ∈ E1, ..., xp ∈ Ep, yp ∈ Ep
alors (x1 – y1) + ... + (xp – yp) = 0 avec xi – yi ∈ Ei donc xi – yi = 0.

ii) ⇒ iii)
Si z ∈ (E1 + E2 + ... + Ei–1) ∩ Ei , alors :
z = x1 + x2 + ... + xi–1 = yi avec x1 ∈ E1, ..., xi–1 ∈ Ei–1 et yi ∈ Ei
L'unicité de la décomposition impose que x1 = ... = xi–1 = yi = 0

iii) ⇒ i)
x1 + x2 + ... + xp = 0 ⇒ xp = – x1 – ... – xp–1 élément de (E1 + E2 + ... + Ep–1) ∩ Ep. Donc xp = 0. On
procède de même par récurrence descendante pour les autres composantes.

On note cette somme E1 ⊕ E2 ⊕ ... ⊕ Ep. Dans le cas de la dimension finie, on a :


i) Une base de la somme directe s'obtient en réunissant les bases de tous les sous–espaces
vectoriels Ei.
ii) dim (E1 ⊕ ... ⊕ Ep) = dim E1 + ... + dim Ep.
iii) Inversement, si on scinde une base de E en p systèmes disjoints, ces systèmes engendrent
des sous–espaces vectoriels en somme directe.
K K
iv) En particulier, si (V1, ..., Vn) est une base, on a la somme directe : V1 ⊕ ... ⊕ Vn où
K
l'on note V le sous–espace vectoriel engendré par V.
v) Si les Fi sont des sous-espaces tels que dim(∑ Fi) = ∑ dim(Fi), alors les Fi sont en somme
directe. En effet, le système de vecteurs obtenus en réunissant des bases de chaque Fi est un système
générateur de ∑ Fi et il possède ∑ dim(Fi) vecteurs. Si ce nombre est égal à dim(∑ Fi), cela signifie
que le nombre de vecteurs du système générateur est égal à la dimension du sous-espace vectoriel
qu'il engendre, donc que ce système en est une base. La décomposition d'un vecteur de ∑ Fi en
somme de vecteurs de Fi sera donc unique.

Si E = E1 ⊕ ... ⊕ Ep, pour définir une application linéaire u de E dans un espace vectoriel F, il suffit
de définir des applications linéaires ui de Ei dans F. On pose alors :
u(x1 + ... + xp) = u1(x1) + ... + up(xp).
Réciproquement, ui est la restriction de u à Ei.

-4-
On peut également définir le projecteur pi sur Ei parallèlement à la somme des autres sous-espaces.
On vérifiera aisément que pi2 = pi, pipj = 0 pour i ≠ j et Id = ∑ pi . Ces projecteurs caractérisent les
i

Ei. En effet, si on se donne des applications vérifiant les relations précédentes, posons Ei = Im pi.
Alors la relation Id = ∑ pi montre que E = ∑ Ei. En effet, tout x de E s'écrira :
i i

x = Id(x) = ∑ pi(x) avec pi(x) ∈ Ei


i

Les relation pipj = 0 pour i ≠ j et pi2 = pi prouvent que pi s'annule sur Ej = Im pj, est égale à Id sur Ei
= Im pi, et montrent que la somme est directe. En effet :
x1 + x2 + ... + xp = 0 avec xi ∈ Ei = Im pi ⇒ 0 = pj(x1 + x2 + ... + xp) = pj(xj) = xj

II : Applications linéaires

1- Formes linéaires, dual


K K
L'espace L(E, ) des formes linéaires de E dans est noté E* et appelé espace dual de E. La raison
de ce vocabulaire repose sur le fait que, si x est élément de E et ϕ élément de E*, alors ϕ(x) est un
scalaire qu'on peut voir de deux façons, dites duales : ou bien on applique la forme linéaire ϕ sur le
vecteur x, ou bien on applique le vecteur x sur l'application linéaire ϕ. Autrement dit, dans le dernier
cas, c'est ϕ la variable et x la fonction. Voici un autre exemple. Considérons l'équation :
ax + by + cz = 0
La manière usuelle de voir les choses est de dire qu'il s'agit de l'équation du plan vectoriel défini par
les coefficients (a,b,c). Dans ce cas, x, y et z sont considérés comme variables et sont les
composantes d'un vecteur quelconque du plan. Mais on peut aussi considérer que x, y et z sont fixés
et que a, b et c sont variables, auquel cas l'équation permet de définir les plans passant par le vecteur
(x,y,z). D'ailleurs, on trouve parfois la notation <ϕ,x> ou <x,ϕ> (comme un produit scalaire) au lieu
de ϕ(x), afin de faire ressortir la symétrie des rôles joués par ϕ et x vis-à-vis l'un de l'autre. Cette
symétrie ressort également clairement si on écrit ax + by + cz sous la forme du produit matriciel de la
x
ligne (a b c) par la colonne  y . Dans cette notation, le vecteur est noté en colonne et la forme
z
linéaire en ligne, mais ligne et colonne jouent vis-à-vis l'un de l'autre des rôles symétriques.

a) La notion de forme linéaire est liée à celle d'hyperplan :

PROPOSITION
Soit H un sous-espace vectoriel d'un espace vectoriel E, de dimension finie ou non. Il y a
équivalence entre :
(i) H admet un supplémentaire de dimension 1
(ii) H est le noyau d'un forme linéaire non nulle ϕ
H s'appelle un hyperplan. Les formes linéaires ϕ dont H est le noyau sont définies à une constante
multiplicative près.

Démonstration :
(ii) ⇒ (i)
-5-
Soit u est un vecteur n'appartenant pas à H (et donc tel que ϕ(u) ≠ 0). Notons D la droite engendrée
par u et montrons que E = D ⊕ H.
ϕ(x) ϕ(x) ϕ(x) ϕ(x)
Pour tout x de E : x = u + (x – u) avec u ∈ D et x – u ∈ H.
ϕ(u) ϕ(u) ϕ(u) ϕ(u)
On vérifiera aisément que la somme est directe.

Encore plus rapide : on peut aussi dire que tout supplémentaire de H (noyau de ϕ) est isomorphe à
K (image de ϕ) et est donc une droite. Cependant, cette méthode expéditive ne donne pas de
décomposition de x.

(i) ⇒ (ii)
Réciproquement, un sous-espace vectoriel H admettant comme supplémentaire une droite D de
vecteur directeur n est le noyau d'un forme linéaire. En effet, si x = xH + λn, il suffit de définir
ϕ(x) = λ. ϕ(x) = 0 est une équation de H (on généralise l'équation ax + by + cz = 0 d'un plan en
dimension 3).

Si ϕ(x) = 0 est une équation de H, toute autre équation de H est proportionnelle à celle-ci. En effet,
soit ψ est une autre forme linéaire, nulle sur H, et soit u un vecteur n'appartenant pas à H et D la
droite vectorielle engendrée par u. La décomposition donnée plus haut
ϕ(x) ϕ(x)
x= u + (x – u)
ϕ(u) ϕ(u)

élément élément
de D de H
permet de conclure que ::
ψ(u)
ψ(x) = ϕ(x) = Cte × ϕ(x)
ϕ(u)

Plusieurs remarques :
En dimension finie, le theorème du rang permet de dire que dim Ker ϕ = dim E – 1, montrant de
nouveau l'équivalence entre (i) et (ii).

Si u est choisi de façon que ϕ(u) = 1, alors la décomposition se simplifie en :


x = ϕ(x) u + (x – ϕ(x) u)

La décomposition ci-dessus généralise le cas de E, espace euclidien : si n est unitaire et orthogonal à


l'hyperplan H, on a :
ϕ(x) = <x,n>
et x = <x,n>n + x – <x,n>n

De même que la décomposition x = <x,n>n + x – <x,n>n permet de trouver facilement l'expression


de la projection orthogonale sur une droite de vecteur directeur unitaire n (à savoir <x,n> n), de
même la décomposition x = ϕ(x)u + [x – ϕ(x)u] permet de trouver rapidement l'expression de la
projection parallèlement à l'hyperplan d'équation ϕ(x) = 0, sur la droite de vecteur directeur u tel que
ϕ(u) = 1, (à savoir ϕ(x)u)

EXEMPLES :

-6-
 1 
❑ Expression de la projection sur la droite de vecteur directeur  2  parallèlement au plan
 –1 
 1 
2x + y – z  2 
d'équation 2x + y – z = 0. Cette expression vaut  .
5  –1 

❑ Soit E l'espace vectoriel des fonctions continues sur [–1,1] et H le sous-espace vectoriel des
R
fonctions s'annulant en 0. H est un hyperplan. En effet, soit ϕ : E → définie pour f dans E par ϕ(f)
= f(0). ϕ est une forme linéaire, et H = Ker ϕ.
Soit u une fonction de E n'appartenant pas à H, par exemple la fonction constante égale à 1. Alors u
endendre une droite D supplémentaire de H. Toute fonction f se décompose sous la forme :
ϕ(f) ϕ(f)
f= u + (f – u) = f(0) + (f – f(0))
ϕ(u) ϕ(u)

b) Base duale
Début de partie réservée aux PSI/PSI*
Voici un exemple d'énoncé dual
Soit ϕ une forme linéaire telle que, pour tout x de E, ϕ(x) = 0, alors ϕ = 0 (ce qui est la définition
même d'une application nulle).
L'énoncé dual est :
Soit x un élément de E tel que, pour tout ϕ de E*, ϕ(x) = 0, alors x = 0
énoncé qui lui, ne découle pas d'une définition, mais exige une démonstration : nous prenons plutôt
la contraposée. Si x est non nul, il existe une forme linéaire ϕ telle que ϕ(x) ≠ 0. La démonstration se
fait en dimension finie (en dimension quelconque, cela est un axiome). x étant non nul, on peut le
compléter par e2, ..., en de façon à former une base de E. On définit alors ϕ sur cette base en posant :
ϕ(x) = 1, ϕ(e2) = 0, ..., ϕ(en) = 0 par exemple.
n
Soit E de dimension finie, de base (e1, e2, ..., en). Tout x de E s'écrit ∑ xi ei. Une forme linéaire ϕ est
i=1

définie à partir du moment où l'on s'est donné les valeurs ϕ(ei) = ai. On a alors :
n n
ϕ(x) = ∑ xi ϕ(ei) = ∑ xi ai
i=1 i=1

Notons en particulier ϕi la ième application composante, autrement dit la forme linéaire qui, à x
associe sa composante xi = ϕi(x). On a alors :
n n
ϕ(x) = ∑ ai ϕi(x) ⇒ ϕ = ∑ ai ϕi
i=1 i=1

ce qui signifie que les ϕi engendrent E*. Ils forment également en système libre puisque :
n n
∑ ai ϕi = 0 ⇒ ∀ x, ∑ ai ϕi(x) = 0
i=1 i=1

appliquons l'égalité précédente en particulier sur ej, on obtient aj = 0, et ceci, quel que soit j.

Les ϕi forment une base de E*, appelée base duale de (e1, e2, ..., en). On a donc dim E* = dim E. Ce
qui caractérise la base duale, ce sont les conditions suivantes :

-7-
ϕi(ei) = 1 et ϕi(ej) = 0 pour i ≠ j.
j
ce qu'on résume sous la forme ϕi(ej) = δij ou δi, appelé symbole de Kronecker, et valant 0 si les deux
indices i et j sont différents et 1 s'ils sont égaux. (Le symbole de Kronecker intervient dans d'autres
j
contextes, par exemple la matrice identité est définie par son terme général δi). ϕi est donc la forme
linéaire qui s'annule sur tous les vecteurs de base, sauf sur le ième où elle prend la valeur 1.
Au lieu de ϕ1, ϕ2, ..., ϕn, on note parfois ces formes linéaires de la façon suivante : e1*, e2*, ..., en*.
j
Ainsi, ei*(x) = xi et ei*(ej) = δi. Si B désigne la base (e , e , ..., e ), on notera B* la base duale
1 2 n

(e1*, e2*, ..., en*).

Nous avons là aussi l'occasion de présenter deux notations duales.


xi = ϕi(x) ième composante de x dans la base (ei)
ai = ϕ(ei) ième composante de ϕ dans la base (ϕi)
Ces deux relations sont bâties sur le même schéma :
ième composante d'un vecteur dans une base = <vecteur, ième vecteur de la base duale>
où l'on note indifféremment ϕ(x) par <ϕ, x> ou <x, ϕ>.
On peut aussi écrire :
n
x = ∑ ϕi(x) ei
k=1

n
ϕ = ∑ ϕ(ei) ϕi
k=1

Autrement dit, on dispose de la formule commune :


n
vecteur = ∑ <vecteur, ième vecteur de la base duale> ième vecteur de base
k=1

le vecteur pouvant désignant au choix un élément de E ou de E*.

EXEMPLE :
R
Soit E = n[X] et a0 < a1 < ... < an n réels distincs. Considérons ϕi la forme linéaire définie sur E par
ϕi(P) = P(ai). Nous voulons montrer que les ϕi forment une base du dual. Une démonstration directe
est possible, mais il est plus simple de trouver une base (Q0, ..., Qn) de E dont (ϕ0, ϕ1, ..., ϕn) forme
la base duale. Cela revient donc à déterminer Qi tel que Qi(aj) = 1 si i = j et 0 sinon. Ce ne sont que
les polynômes interpolateurs de Lagrange :
(X – a0)...(X – ai–1)(X – ai+1)...(X – an)
Qi =
(ai – a0)...(ai – ai–1)(ai – ai+1)...(ai – an)
n
Tout polynôme P de E s'écrit P = ∑ P(ak)Qk.
k=0

Toute forme linéaire étant combinaison linéaire des ϕi, c'est donc le cas de l'intégrale. Il existe donc
n 1 n
α0, ..., αn tel que I(P) = ∑ αk ϕk, autrement dit (par exemple) : ⌠ ∑ αk P(ak).
 P = k=0
k=0
⌡0

-8-
n 1
La relation P = ∑ P(ak)Qk permet d'ailleurs de voir que αk = ⌠
 Qk.
k=0
⌡0

c) Détermination pratique de la base duale


K
Le plus souvent, on travaille dans n. Les vecteurs e1, ..., en sont alors des vecteurs colonnes (pas
nécessairement ceux de la base canonique). Ecrites l'une à côté de l'autre, elles forment une matrice P
inversible (qui n'est autre que la matrice de passage de la base canonique à la base (e1, ..., en), mais
peu importe ici).
Une forme linéaire ϕ, quant à elle, est donnée par les coefficients (a1, ..., an) tels que :
 x1 
ϕ(x) = ∑ ai xi où x =  ... 
n

i=1  xn 
Quels sont les coefficients de chaque forme linéaire constituant la base duale (e1*, ..., en*) ? On
trouve ces coefficients dans les lignes de P–1. Considérons en effet la ième ligne de P–1. Comme
P–1P = In, il en résulte que le produit de cette ligne par chaque colonne de P donnera 0, sauf pour la
ième colonne avec laquelle on obtiendra la valeur 1. Opérant ainsi, on ne fait que dire que la forme
linéaire définie par les coefficients de la ième ligne est précisément ei*.

EXEMPLE :
 5   2   0   5 2 0   1 –2 –2 
 3   3   –1  
Soit e1 =  , e2 =   et e3 =  . On a P =  3 3 –1  –1  –2 5 5 . On a alors :
 et P =  
 –1   –2   1   –1 –2 1   –3 8 9 
e1*(x) = x1 – 2x2 – 2x3
e2*(x) = – 2x1 + 5x2 + 5x3
e3*(x) = – 3x1 + 8x2 + 9x3

d) Base anté-duale
Dans les paragraphes précédents, on part d'une base (e1, e2, ..., en) de E, et on en déduit l'existence
j
d'une base duale (e1*, e2*, ..., en*) de E*, donc telle que ei*(ej) = δi.
Le caractère dual de la situation doit nous permettre d'énoncer qu'inversement, si on part d'une base
(ϕ1, ϕ2, ..., ϕn) de E*, il doit exister une base de E telle que (ϕ1, ϕ2, ..., ϕn) en soit la base duale.
Cette base de E que nous cherchons s'appelle la base anté-duale de (ϕ1, ϕ2, ..., ϕn). C'est d'ailleurs ce
que nous avons fait dans l'exemple final du b).

PROPOSITION
L
Soit = (ϕ1, ϕ2, ..., ϕn) une base de E*. Alors il existe une base B de E telle que L = B*.
Démonstration 1
 ϕϕ1(x) 
Considérons l'application Φ : x ∈ E →
 2(x) 
∈ Kn et montrons que Φ est bijective. L'espace de
 ... 
 ϕn(x) 
départ et l'espace d'arrivée ayant la même dimension n, il suffit de montrer que Φ est injective. Or :
x ∈ Ker Φ
⇔ ∀ i, ϕi(x) = 0
-9-
⇔ ∀ ϕ ∈ E*, ϕ(x) = 0 car tout élément ϕ de E* est combinaison linéaire de ϕ1, ..., ϕn.
⇔ x = 0 (cf II-1-b)
La base anté-duale cherchée n'est autre que l'image réciproque par Φ de la base canonique de K.n

Démonstration 2
Soit (e1, e2, ..., en) une base quelconque de E et (e1*, e2*, ..., en*) sa base duale. Soit Q la matrice de
passage de la base (e1*, e2*, ..., en*) à la base (ϕ1, ϕ2, ..., ϕn). Q est une matrice inversible.
Considérons la relation tQ × tQ–1 = Id. La ième ligne de tQ est constituée des composantes de ϕi.
j
Appliquée sur la jème colonne de tQ–1, on obtient comme résultat δi. Les colonnes de tQ–1 sont donc
les composantes des vecteurs de E que l'on cherche.

EXEMPLE :
R
Considérons les trois formes linéaires de 3 :
ϕ1(x) = x1 – 2x2 – 2x3
ϕ2(x) = – 2x1 + 5x2 + 5x3
ϕ3(x) = – 3x1 + 8x2 + 9x3
R
Prenons la base canonique de 3. La base duale est constituée des applications composantes
 x1   1 –2 –3 
 x2  → x . Les composantes des ϕ dans cette base donne donc Q =  –2 5 8 . L'inverse de sa
  i i
 
 x3   –2 5 9 
 5 2 0   5   2   0 
R
transposée est  3 3 –1  ce qui donne les vecteurs de 3 voulus :  3 ,  3  et  –1 .
 –1 –2 1   –1   –2   1 
Nous avons fait ici l'exercice inverse de celui effectué à la fin du c).

Démonstration 3
Cette deuxième démonstration, bien qu'en théorie lisible par les MP et PSI, est, dans son esprit,
plutôt adaptée à la filière MP.
Soit (ϕ1, ϕ2, ..., ϕn) une base de E*, et notons F = E*.
Chaque vecteur x de E permet de définir une forme linéaire F → K
par : ϕ → ϕ(x). Nous noterons
cette forme linéaire –x. On associe donc à chaque élément x de E un élément de F* que nous noterons
–x. Ainsi, –x(ϕ) = ϕ(x).
–-
Il n'est pas difficile de voir que cette association est linéaire, par exemple λx est la forme linéaire sur
F définie par ϕ → ϕ(λx). Elle est identique à la forme linéaire ϕ → λϕ(x) qui n'est autre que λ–x.
–-
Ainsi, λx = λ–x. On procèdera de même pour la somme.
Cette association est injective. En effet, –x = 0 signifie que, pour tout ϕ, ϕ(x) = 0, ce qui implique que
x est nul, comme on l'a vu au début du paragraphe II-1-b).
Cette association est surjective. Compte tenu de l'injectivité , il suffit pour cela de comparer les
dimensions. Or on sait que le dual d'un espace vectoriel a même dimension que l'espace, de sorte
que :
 dim(E) = dim(E*) = dim(F)

 dim(F) = dim(F*)
⇒ dim(E) = dim(F*)

- 10 -
La démarche précédente justifie pleinement la notation <ϕ, x> pour désigner ϕ(x) = –x(ϕ) sans
chercher à savoir si c'est ϕ qui s'applique sur x ou x qui s'applique sur ϕ.
Concluons : (ϕ1, ϕ2, ..., ϕn) est une base de F. Il existe (ϕ1*, ϕ2*, ..., ϕn*) base de F*, égale à la base
j
duale de (ϕ1, ϕ2, ..., ϕn), donc telle que ϕi*(ϕj) = δi. Par l'isomorphisme entre F* et E, il existe une
j
base (x1, x2, ..., xn) telle que ϕi* = x–i. On a donc δi = x–i(ϕj) = ϕj(xi) et (x1, x2, ..., xn) est bien la base
anté-duale cherchée.
Fin de la partie réservée aux PSI/PSI*. Retour à la partie commune PSI/PC

2- Trace
On appelle trace d'une matrice carrée la somme de ses éléments diagonaux :
n
Tr(A) = ∑ aii
i=1

Tr est une application linéaire de M (K) dans K. On dispose également de la propriété suivante :
n
Tr(AB) = Tr(BA)
En effet :
n n n
Tr(AB) = ∑ (AB)ii = ∑ ∑ aijbji
i=1 i=1 j=1

alors que :
n n n
Tr(BA) = ∑ (BA)ii = ∑ ∑ bijaji
i=1 i=1 j=1

Il suffit d'intervertir les notations i ↔ j pour obtenir la même expression. On en déduit en particulier
que :
Tr(P–1MP) = Tr(MPP–1) = Tr(M)
Or si M représente la matrice d'un endomorphisme u dans une base donnée et si P représente la
matrice de passage de cette base à une autre base, P–1MP représente la matrice de u dans la nouvelle
base. Les deux matrices, bien que différentes, ont la même trace. Elles ont d'ailleurs aussi le même
rang et le même déterminant. Cette trace est appelée trace de u indépendamment de la base choisie.

EXEMPLE :
La trace d'un projecteur est égale à son rang.
La trace d'une rotation d'angle θ en dimension 3 est égale à 1 + 2cosθ.

3- Sous-espaces stables
a) Définition
Soit u un endomorphisme d'un espace vectoriel E. Un sous-espace vectoriel F de E est dit stable par
u si u(F) ⊂ F. La restriction u|F de l'endomorphisme u à F définit alors un endomorphisme de F,
appelé endomorphisme sur F induit par u.

On rencontre usuellement les cas suivants en dimension finie :

- 11 -
❑ F stable : si on choisit une base de F que l'on complète en une base de E, la matrice de u a la forme
suivante  O C  où A est une matrice carrée de dimension la dimension de F, O une matrice nulle, B
AB
 
et C des matrices quelconques.

❑ Plus généralement, F1 ⊂ F2 ⊂ ... ⊂ Fp = E suite croissante de sous-espaces vectoriels stables,


donne, dans une base adaptée une matrice de la forme

... * 
 AO1 A*2 ... *

 ... ... 
 O O ... Ap 
❑ En particulier si dim Fi = i, la matrice est triangulaire :
 a01 a*2 ...
... * 
*

 ... ... 
 0 0 ... ap 
On dit que l'endomorphisme est trigonalisable.

❑ E = F ⊕ G avec F et G stables :
A O
La matrice de u dans une base adaptée est alors  O B . L'intérêt est de scinder l'étude d'une
 
application linéaire en deux études sur deux sous-espaces plus petits, et peut-être plus maniables.

❑ On peut tenter d'itérer le procéder en décomposant E, si c'est possible, sous la forme :


E = E1 ⊕ E2 ⊕ ... ⊕ Ep, tous stables. La matrice de u dans une base adaptée est alors de la forme
 AO1 AO2 ...
... O 
O
 ... ... .
 O O ... Ap 
Inversement, un endomorphisme ayant cette matrice stabilise chacun des Ei.

❑ L'idéal est d'obtenir une matrice diagonale, pour laquelle u|Ei est une homothétie. On dit que
l'endomorphisme est diagonalisable, de matrice
 a01 a02 ...
... 0 
0

 ... ... .
 0 0 ... ap 
(les ai étant distincts ou non).

On a vu apparaître ci-dessus des matrices par blocs. Nous donnons ci-dessous un exemple de produit
de matrices par blocs : il suffit pour cela de réfléchir à ce qu'est la définition du produit de deux
matrices, l'ordre dans lequel se font les choses, les dimensions de chaque bloc pour rendre possible
les produits :
A est une matrice p × q E est une matrice q × t
B est une matrice p × r F est une matrice q × u
C est une matrice s × q G est une matrice r × t
D est une matrice s × r H est une matrice r × u

- 12 -
 A B   E F  =  AE+BG AF+BH 
 C D   G H   CE+DG CF+DH 
avec AE+BG matrice p × t
AF+BH matrice p × u
CE+DG matrice s × t
CF+DH matrice s × u

b) Obtention de sous-espaces vectoriels stables


On dispose de la proposition suivante :

PROPOSITION
Soit v un endomorphisme commutant avec l'endomorphisme u. Alors Ker(v) et Im(v) sont stables
par u.

En effet :
x ∈ Ker(v) ⇒ v(x) = 0 ⇒ u(v(x)) = 0 = v(u(x)) ⇒ u(x) ∈ Ker(v)
x ∈ Im(v) ⇒ ∃ z, x = v(z) ⇒ ∃ z, u(x) = u(v(z)) = v(u(z)) ⇒ u(x) ∈ Im(v)

Pour trouver des sous-espaces stables par u, il suffit donc de trouver des endomorphismes v
commutant avec u. Il y a par exemple u lui-même, mais aussi u2, u3, ... et leurs combinaisons linéaires

∑ ai ui. On est ainsi amené à introduire les polynômes d'endomorphismes.


i≥0

Soit P un polynôme quelconque de K[X] et u un endomorphisme. Si P = ∑ ai Xi, on pose


i

P(u) = ∑ ai ui avec la convention u0 = Id. On définit de même P(M) = ∑ ai Mi pour une matrice
i i

K
carrée M. On vérifie aisément que l'application [X] → L(E), qui à P associe P(u) est un morphisme
d'anneau, autrement dit, les opérations sont compatibles. Ainsi, en notant +, . et × la somme de
polynômes, le produit par un scalaire et le produit de polynômes, par +, ., et o la somme
d'endomorphismes, le produit par un scalaire et le produit de composition des endomorphismes, nous
avons :
(P+Q)(u) = P(u) + Q(u)
(λ.P)(u) = λ.P(u)
(P×Q)(u) = P(u) o Q(u). Cette dernière égalité se vérifie en effet comme suit :

Si P = ∑ an Xn et Q = ∑ an Xn alors :
n≥0 n≥0

n
PQ = ∑ (∑ akbn–k) Xn
n ≥ 0 k=0

P(u) = ∑ an un
n≥0

- 13 -
Q(u) = ∑ bn un
n≥0

n
(PQ)(u) = ∑ (∑ akbn–k) un
n ≥ 0 k=0

P(u) o Q(u) = ( ∑ an un) o ( ∑ bn un) = (PQ)(u) en développant et en regroupant les termes.


n≥0 n≥0

En particulier, on a P(u) o Q(u) = Q(u) o P(u) puisque PQ = QP.

Comme, pour tout polynôme P, P(u) commute avec u, on en déduit que, pour tout polynôme P,
Ker P(u) et Im P(u) sont stables par u.

Malheureusement, si on prend n'importe quel polynôme P, il y a toutes les chances que l'on obtienne
des sous-espaces stables triviaux, à savoir Im P(u) = E et Ker P(u) = {0} ou l'inverse. Le cas Im P(u)
= E et Ker P(u) = {0} s'obtient lorsque P(u) est un endomorphisme inversible. Le cas Im P(u) = {0}
et Ker P(u) = E s'obtient lorsque P(u) = 0. On dit alors que P est un polynôme annulateur de u. Ce
second cas peut cependant parfois donner des situations intéressantes.

4- Polynômes annulateurs d'un endomorphisme


Début de partie réservée aux PSI/PSI*
a) Définition
Soit u un endomorphisme de E de dimension finie n. L(E) est lui-même de dimension finie n2. Il en
2
résulte que (Id, u, u2, ..., un ), constitué de n2 + 1 éléments d'un espace de dimension n2 forme un

système lié. Il existe donc des ak non tous nuls tels que ∑ ak uk = 0. Autrement dit, il existe au moins
k

un polynôme P non nul tel que P(u) = 0. Nous admettrons qu'il existe d'ailleurs un tel polynôme de
degré n seulement, à savoir P(X) = det(u – XI), ce qui constitue le :

THEOREME DE CAYLEY-HAMILTON
Soit u un endomorphisme. Le polynôme P(X) = det(u – XI) s'appelle polynôme caractéristique de u.
Il s'agit d'un polynôme annulateur de u.

Ce théorème est admis. Deux démonstrations en sont données dans l'annexe IV.

EXEMPLE : Soit M =  –1 3 . Son polynôme caractéristique est : X2 – 4X + 5, et on vérifie que l'on
1 2

a effectivement M2 – 4M + 5I = 0.

Considérons maintenant I = {P | P(u) = 0}. I vérifie les propriétés suivantes :


K
I est un sous-groupe de ( [X],+)
K
Pour tout P de I et tout Q de [X], PQ est élément de I
Cette dernière phrase signifie en effet que P(u) = 0 ⇒ P(u) o Q(u) = 0 ce qui est vrai.
K
Une telle partie s'appelle un idéal de [X].

- 14 -
b) Idéal
PROPOSITION
Soit I une partie de K[X]. Il y a équivalence entre :
i) I est un sous-groupe de (K[X],+) et pour tout P de I et tout Q de K[X], PQ est élément
de I
ii) Il existe un polynôme P0 tel que I = {P0Q | Q ∈ K[X]}
Démonstration :
ii) ⇒ i) est trivial à vérifier.
i) ⇒ ii) Si I = {0}, il suffit de prendre P0 = 0. Supposons donc I ≠ {0}. Soit P0 un polynôme non nul
de I, de degré minimal. Nous allons montrer que tout élément P de I est un multiple de P0. Il suffit
pour cela d'effectuer la division euclidienne de P par P0. On a P = P0Q + R avec deg R < deg P0. Or
R = P – P0Q avec P ∈ I, P0 ∈ I ⇒ P0Q ∈ I ⇒ R ∈ I. Mais P0 est un polynôme non nul de degré
minimal de I et R est un polynôme de I de degré strictement inférieur à celui de P0. Il en résulte que
K
R = 0 et que P est bien multiple de P0. (La notion d'idéal n'est pas propre à [X]. Elle s'applique
Z
également à , où les idéaux sont les parties m ).Z
Une telle partie I est appelée idéal de K[X]. Ainsi, l'ensemble des des éléments d'un idéal sont les
multiples d'un même élément particulier P0 de I. On dit que P0 engendre l'idéal I. L'ensemble des
polynômes annulateurs d'un endomorphisme u vérifiant i), il en résulte que tous ces polynômes sont
multiples d'un même polynôme annulateur, celui qui est de degré minimal (parfois appelé polynôme
minimal pour abréger). En vertu du théorème de Cayley-Hamilton, le polynôme annulateur minimal
est un diviseur du polynôme caractéristique.

EXEMPLE 1 :
 5 –1   22 –6 
Soit M =  3 1 . Alors M2 =  18 –2  et on a M2 – 6M + 8I = 0. Comme aucun polynôme de degré
1 ne s'annule sur M, le polynôme annulateur minimal est X2 – 6X + 8. Tout polynôme s'annulant sur
M est un multiple de celui-ci.

EXEMPLE 2 :
2 0 0
Soit M =  0 2 0 . Son polynôme caractéristique vaut (X–2)2(X–1). Mais on peut remarquer que
0 0 1
(M–2I)(M–I) = 0, donc (X–2)(X–1) annule aussi M. Aucun polynôme de degré 1 n'annulant M, il
s'agit du polynôme annulateur de degré minimal.

c) Utilisation du polynôme minimal pour rechercher des sous-espaces stables


Soit P le polynôme annulateur minimal de l'endomorphisme u. Supposons que ce polynôme se
factorise en deux facteurs P = P1P2 avec deg P1 ≥ 1 et deg P2 ≥ 1. P étant de degré minimal, et P1 et
P2 étant de degré strictement inférieur à celui de P, on a P1(u) ≠ 0 et P2(u) ≠ 0. Donc Ker P1(u) ≠ E
et Im P1(u) ≠ {0}, et de même pour P2.

- 15 -
En outre, P1(u) ne peut être inversible, sinon on aurait 0 = P(u) = P1(u) o P2(u) ⇒ P2(u) = 0 en
composant à gauche par l'inverse de P1(u). Et de même, P2(u) n'est pas inversible. Donc
Ker P1(u) ≠ {0} et Im P1(u) ≠ E, et de même pour P2.

On peut donc trouver des sous-espaces vectoriels stables par u si le polynôme annulateur minimal de
u se factorise en facteurs non constants. Il suffit de prendre les noyaux et les images des Pi(u) où Pi
est un facteur du polynôme annulateur minimal.

Dans l'exemple 1, X2 – 6X + 8 = (X – 2)(X – 4) donc on pourra chercher par exemple Ker(u – 2I)
ou Ker(u – 4I). Ce type de recherche intervient de manière plus systématique dans la diagonalisation
des endomorphismes.
Fin de la partie réservée aux PSI/PSI*. Retour à la partie commune PSI/PC

III : Diagonalisation

1– Exemples de problèmes
Considérons les problèmes suivants :
i) Calculer Mn, où M est une matrice carrée, par exemple :
 8 0 9 
M =  –3 –1 –3 
 –6 0 –7 
ii) Trouver les suites vérifiant les relations suivantes :
x0, y0 et z0 sont donnés
 xk+1 = 8xk + 9zk
pour tout k :  yk+1 = –3xk – yk – 3zk
 zk+1 = – 6xk – 7zk
iii) Trouver les fonctions vérifiant le système différentiel suivant :
x(0), y(0) et z(0) sont donnés
 x'(t) = 8x(t) + 9z(t)
pour tout t réel :  y'(t) = –3x(t) – y(t) – 3z(t)
 z'(t) = –6x(t) – 7z(t)

Les problèmes i) et ii) sont équivalents. En effet, dans ii), on peut poser :
 xk 
R
vk =  yk  élément de 3.
 zk 
On a alors la relation de récurrence suivante entre vk+1 et vk :
vk+1 = Mvk, M étant la matrice du i),
d'où il est facile de tirer, par récurrence, que : vk = Mkv0.

La difficulté de ces problèmes tient au fait que la matrice utilisée n'est pas diagonale. Comparons en
effet les trois problèmes précédents aux trois problèmes suivants :
ibis) Calculer Dk, où D est une matrice diagonale, par exemple :
 –1 0 0 
D =  0 –1 0 
 0 0 2
iibis) Trouver les suites vérifiant les relations suivantes :
x0, y0 et z0 sont donnés ;

- 16 -
 xk+1 = –xk
pour tout k :  yk+1 = – yk
 zk+1 = 2zk
iiibis) Trouver les fonctions vérifiant le système différentiel suivant :
x(0), y(0) et z(0) sont donnés ;
 x'(t) = –x(t)
pour tout t réel :  y'(t) = – y(t)
 z'(t) = 2z(t)
La résolution est immédiate ; on a respectivement :
k k –t
 (–1) 0 0   xk = (–1) x0  x(t) = e .x(0)
Dk =  0 (–1) 0   yk = (–1) y0  y(t) = e .y(0)
k k –t

 0 0 2k   zk = 2kz0  z(t) = e2t.z(0)

Le principe de la diagonalisation consiste à passer, si possible d'une matrice quelconque (et d'un
problème général) à une matrice diagonale (et à un problème plus simple).

2- Valeurs propres, vecteurs propres, sous-espaces propres


DEFINITION :
Un endomorphisme u d'un espace vectoriel E est dit diagonalisable s'il existe une base de E dans
laquelle la matrice de u est diagonale.
Une matrice carrée M est dite diagonalisable si elle est semblable à une matrice diagonale D.

M est semblable à D s'il existe P inversible telle que M = PDP–1. M et D représentent le même
endomorphisme dans des bases différentes, la matrice de passage de l'une à l'autre étant P. En
pratique, M est donnée, et on cherche D, si c'est possible. Si (e1, e2, ..., en) est la base (si elle existe)
dans laquelle la matrice de u est D, diagonale, de la forme
 λ01 λ0 00 ... 
D=
 2 ... 
 ... ... 
 ... 0 λn 
on a u(ei) = λiei. On est donc amené à s'intéresser aux vecteurs transformés en un multiple d'eux-
même par u.

DEFINITION
Soit u un endomorphisme d'un espace vectoriel E. On appelle vecteur propre V de u tout vecteur
non nul de E pour lequel il existe un scalaire λ tel que :
u(V) = λV
λ s'appelle valeur propre relative au vecteur propre V. λ est une valeur propre de u.
λ étant une valeur propre, on appelle sous-espace propre associé à λ le sous-espace
Eλ = { V ∈ E | u(V) = λV }

Si V est vecteur propre, λ est unique. En effet :


u(V) = λV et u(V) = λ'V ⇒ λV = λ'V ⇒ λ = λ' car V est non nul.

L'ensemble des valeurs propres d'un endomorphisme u s'appelle le spectre de u, noté Sp(u).
Eλ est bien un sous-espace vectoriel. Il suffit de constater que Eλ = Ker(u – λId)

- 17 -
On remarque que l'ensemble des vecteurs propres associés à λ n'est autre que Eλ – {0}. λ est donc
une valeur propre associée à un vecteur propre non nul si et seulement si Ker(u – λId) ≠ {0}, ce qui
est vérifié si et seulement si u – λId est non inversible, et donc si et seulement si det(u – λId) = 0. On
peut facilement vérifier que cette dernière quantité est un polynôme en λ de degré n = dimE. Ainsi,
les valeurs propres se trouvent en cherchant les racines du polynôme det(u – XId) :

PROPOSITION
det(u – XId) = Πu(X) s'appelle polynôme caractéristique de l'endomorphisme u. Ses racines sont les
valeurs propres de u. L'ordre de multiplicité de cette valeur en tant que racine de P s'appelle ordre
de multiplicité d'une valeur propre.

EXEMPLES :
Cherchons les valeurs propres de quelques applications classiques :

❑ Les homothéties λId : La seule valeur propre est λ. L'espace tout entier est sous-espace propre.

❑ Les projecteurs : Les valeurs propres sont 0 et 1, le sous-espace propre associé à la valeur propre
0 étant le noyau du projecteur (la direction parallélement à laquelle on projette). Le sous-espace
propre associé à la valeur propre 1 est l'image du projecteur (le sous-espace sur lequel on projette).

❑ Les symétries : Les valeurs propres sont –1 et 1, le sous-espace propre associé à la valeur propre
–1 étant la direction parallèlement à laquelle on effectue la symétrie. Le sous-espace propre associé à
la valeur propre 1 est le sous-espace par rapport auquel s'effectue la symétrie.

❑ Les affinités : elles généralisent projecteurs et symétries. Elles disposent de deux valeurs propres,
1 et λ. Les vecteurs du premier sous-espace propre sont invariants, ceux du second se voient
multipliés par λ. Si λ = 0, on retrouve les projecteurs, si λ = –1, on retrouve les symétries.

3– Méthode pratique
Pour diagonaliser une matrice ou un endomorphisme, on procède comme suit :

a) Recherche des valeurs propres


On calcule Πu(X) = det(u – XId) puis on cherche les racines de ce polynôme. Ce sont les valeurs
propres. Pour une matrice M, on calcule det(M – XI).

 8 0 9 
EXEMPLE : M =  –3 –1 –3 
 –6 0 –7 
 8–X 0 9 
det(M – XI) =  –3 –1–X –3  = – (X–2)(X+1)2

 –6 0 –7–X 
Les valeurs propres sont –1 valeur propre double, et 2 valeur propre simple.

b) Recherche des sous–espaces propres


Pour chaque valeur propre λ trouvée, on résout le système (u – λId)V = 0. L'ensemble des vecteurs
V solutions est le sous–espace propre Eλ associé à λ.

- 18 -
 8 0 9 
EXEMPLE : M =  –3 –1 –3 
 –6 0 –7 
• Sous–espace propre associé à la valeur propre –1. On résout le système :
 9x + 9z = 0
(M+I)V = 0 ⇔  –3x – 3z = 0 ⇔ x + z = 0
 –6x – 6z = 0
 1  0
Il s'agit du plan vectoriel engendré par  0  et  1 
 –1   0 
• Sous–espace propre associé à la valeur propre 2. On résout le système :
 6x + 9z = 0  x = 3t
(M–2I).V = 0 ⇔  –3x – 3y – 3z = 0 ⇔  y = –t
 –6x – 9z = 0  z = –2t
 3 
Il s'agit de la droite vectorielle engendrée par  –1 
 –2 

c) Recherche d'un base de vecteurs propres


Dans chaque Eλ, on choisit une base. Nous verrons dans le paragraphe suivant que la réunion des
vecteurs ainsi obtenus forme un système libre (les sous-espaces propres sont en somme directe).
Dans le cas précédent, les trois vecteurs trouvés forment notre base de vecteurs propres. Donc M est
 –1 0 0 
diagonalisable, semblable à la matrice diagonale D =  0 –1 0 .
 0 0 2
 1 0 3   –2 0 –3 
La matrice de passage est P =  0 1 –1 . On a M = PDP avec P =  1 1 1 .
  –1 –1

 –1 0 –2   1 0 1 

On peut maintenant résoudre les questions du III-1).


 8 0 9 
i) Calculer Mk avec M =  –3 –1 –3 
 –6 0 –7 
 –1 0 0   1 0 3   –2 0 –3 
Comme M = PDP , avec D =  0 –1 0 , P =  0 1 –1  et P =  1 1 1 , on a :
–1     –1

 0 0 2  –1 0 –2   1 0 1 
k k –1
M = PD P . D'où :
k k+1 k k+1 k
 1 0 3  (–1) 0 0  –2 0 –3   2(–1) + 3.2 0 3(–1) + 3.2 
k    k    
M =  0 1 –1  0 (–1) 0  1 1 1  =  (–1) – 2
k k
(–1)k
(–1) – 2 
k k

 –1 0 –2  0 0 2k  1 0 1   2(–1)k – 2k+1 0 3(–1)k – 2k+1 
On vérifie que, pour k = 0, on trouve bien Mk = I, et pour n = 1, on trouve Mk = M.

ii) Les solutions du problème I–1–ii) sont :


xk = (2(–1)k+1 + 3.2k) x0 + (3(–1)k+1 + 3.2k) z0
yk = ((–1)k – 2k) x0 + (–1)k.y0 + ((–1)k – 2k) z0
zk = (2(–1)k – 2k+1) x0 + (3(–1)k – 2n+1) .z0

- 19 -
 x(t) 
iii) Résolvons le problème du III–1–iii). Soit V(t) =  y(t) .
 z(t) 
V'(t) = MV(t)
⇔ V'(t) = PDP–1.V(t)
⇔ P–1V'(t) = DP–1.V(t)
⇔ W'(t) = DW(t) où l'on a posé W(t) = P–1V(t)
 –2 0 –3  x(0)   –2x(0) – 3z(0)   X0 
On a donc W(0) = P V(0) =  1 1 1  y(0)  =  x(0) + y(0) + z(0)  =  Y0 
–1

 1 0 1  z(0)   x(0) + z(0)   Z0 


 X(t)   X' = –X
En outre, si on pose W(t) =  Y(t) , l'équation W' = DW conduit au système  Y' = –Y qui conduit
 Z(t)   Z' = 2Z
–t –t –t 2t
 e X0   1 0 3  e X0   e X0 + 3e Z0 
aux solutions W(t) =  e Y0 . D'où V(t) = PW(t) =  0 1 –1  e Y0  =  e .Y0 – e Z0 
–t –t –t 2t

 e Z0   –1 0 –2  e Z0   –e X0 – 2e Z0 
2t 2t –t 2t

D'où :
x(t) = (–2e–t + 3e2t) x(0) + (–3e–t + 3e2t) z(0)
y(t) = (e–t – e2t) x(0) + e–t y(0) + (e–t – e2t) z(0)
z(t) = (2e–t – 2e2t) x(0) + (3e–t – 2e2t) z(0)

4- Propriétés des sous-espaces propres


PROPOSITION :
Soient λ1, λ2,... , λm m valeurs propres distinctes. Alors la somme des sous–espaces vectoriels
Eλ1 + Eλ2 +... + Eλm est directe.

Démonstration 1 :
Elle se fait par récurrence sur m.
Montrons cette proposition pour m = 2. Il suffit de montrer que Eλ1 ∩ Eλ2= {0}. Soit V élément de
Eλ1 ∩ Eλ2. On a alors :
u(V) = λ1V et u(V) = λ2V ⇒ λ1V = λ2V
⇒ (λ1 – λ2)V =0
⇒ V = 0 car λ1 et λ2 sont distincts.

Supposons la propriété vraie pour m–1, montrons la pour m.


Il suffit de montrer que 0 se décompose de manière unique en somme d'éléments de Eλi, autrement
dit, que l'on a :
∀ i, Vi ∈ Eλi et 0 = V1 +... + Vm ⇒ pour tout i, Vi = 0

En effet, on applique u. On obtient :


0 = u(V1) +... + u(Vm)
⇒ 0 = λ1V1 +... + λmVm (*)

On a, par ailleurs, en multipliant par λm :


0 = V1 +... + Vm
⇒ 0 = λmV1 +... + λmVm (**)

- 20 -
En retranchant (*) et (**), on obtient :
0 = (λ1 – λm)V1 +... + (λm–1 – λm)Vm–1
⇒ ∀ i ∈ {1,...,m–1} (λ1 – λi)Vi = 0 car les m–1 sous–espaces Eλi sont en somme directe
(hypothèse de récurrence)
⇒ ∀ i ∈ {1,...,m–1} Vi = 0 car les valeurs propres sont distinctes.

En reportant dans (*), on en tire aussi que Vm = 0

Démonstration 2 :
Considérons une relation
0 = V1 +... + Vm
avec Vi élément de Eλi. Si on applique m–1 fois l'endomorphisme u, on obtient :
0 = λ1V1 + ... + λmVm
0 = λ12 V1 + ... + λm2 Vm
0 = λ13 V1 + ... + λm3 Vm
...
0 = λ1m–1 V1 + ... + λmm–1 Vm

Cherchons les valeurs possibles des Vi en raisonnant composante par composante sur une base
 λ11 ...
... λm
1

quelconque. Les coefficients du système sont  ... ...  qui est de rang m. (Remarquer que
 λ1 ... λmm–1 
m–1

les lignes sont indépendantes en écrivant qu'une relation de liaison entre ces lignes correspond à
l'écriture d'un polynôme de degré au plus m–1 s'annulant en λ1, ..., λm, ou bien utiliser un déterminant
de Vandermonde). Les seules solutions au système sont donc les solutions nulles, et tous les Vi sont
nuls.

Démonstration 3 :
La démonstration commence comme la démonstration 2, mais on applique indéfiniment
l'endomorphisme u de sorte que, pour tout k :
0 = λ1k V1 + ... + λmk Vm
En effectuant des combinaisons linéaires entre ces lignes, on obtient que, pour tout polynôme P :
0 = P(λ1) V1 + ... + P(λm) Vm
Il suffit alors d'utiliser successivement les m polynômes interpolateurs de Lagrange, le ième polynôme
s'annulant λ1, ..., λi–1, λi+1, ..., λm et valant 1 sur λi pour obtenir directement 0 = Vi

Démonstration 4 :
Considérons une relation
0 = V1 +... + Vm
avec Vi élément de Eλi Appliquons l'endomorphisme (u – λ2Id) o (u – λ3Id) o ... o (u – λmId).
Compte tenu du fait que u(Vi) = λiVi, on a :
(u – λ2Id) o (u – λ3Id) o ... o (u – λmId)(V1) = (λ1 – λ2)(λ1 – λ3)...(λ1 – λm)V1
(u – λ2Id) o (u – λ3Id) o ... o (u – λmId)(V2) = 0
...
(u – λ2Id) o (u – λ3Id) o ... o (u – λmId)(Vm) = 0
⇒ 0 = (u – λ2Id) o (u – λ3Id) o ... o (u – λmId)(V1 + V2 + ... + Vm)
- 21 -
= (λ1 – λ2)(λ1 – λ3)...(λ1 – λm)V1
Comme les λi sont distincts entre eux, on a (λ1 – λ2)(λ1 – λ3)...(λ1 – λm) ≠ 0 et donc V1 = 0.
On procèdera de même pour montrer que V2 = ... = Vm = 0.

Le théorème n'affirme pas que la somme des sous-espaces propres donne E tout entier. C'est
d'ailleurs un obstacle à la diagonalisation. Les conditions de diagonalisation sont étudiées au
III-6.

COROLLAIRE
Toute famille de m vecteurs propres associés à m valeurs propres deux à deux distinctes forme une
famille libre.

EXEMPLE : Pour tout n, la famille (1, cosx, cos(2x), ..., cos(nx)) forme une famille libre. En effet,
chaque fonction est vecteur propre de l'opérateur D2 (dérivée seconde) avec des valeurs propres
distinctes.

PROPOSITION
Tout sous-espace propre Eλ d'un endomorphisme u est stable par u. Si v commute avec u, alors Eλ
est stable également par v.

Démonstration :
Eλ est stable par u :
V ∈ Eλ ⇒ u(V) = λV et λV ∈ Eλ (stabilité de Eλ par le produit externe)
⇒ u(V) ∈ Eλ

Eλ est stable par v si v o u = u o v :


V ∈ Eλ ⇒ u(V) = λV
⇒ v(u(V)) = λv(V) = u(v(V))
⇒ v(V) ∈ Eλ

5- Propriétés du polynôme caractéristique


On a appelé polynôme caractéristique d'un endomorphisme u le polynôme Πu(X) = det(u – XId). Le
polynôme caractéristique d'une matrice M est ΠM(X) = det(M – XI). Les racines de ces polynômes
sont les valeurs propres de u ou de M. Deux matrices semblables ont évidemment mêmes valeurs
propres, puisque le déterminant de deux matrices semblables est le même. Si M est semblable à N, on
a:
det(M – XI) = det(P(N – XI)P–1) = det(P) det(N – XI) det(P–1) = det(N – XI)

Le déterminant d'une matrice étant égal à celui de sa transposée, on déduit également de la méthode
utilisée la proposition suivante :
PROPOSITION :
La transposée d'une matrice possède les mêmes valeurs propres que la matrice elle–même.

Il y a un rapport entre l'ordre de multiplicité des valeurs propres en tant que racine du polynôme
caractéristique et la dimension du sous-espace propre correspondant :
PROPOSITION
L'ordre de multiplicité de la valeur propre λ est supérieur ou égal à la dimension q du sous–espace
propre.

- 22 -
En effet, si on choisit une base de E en prenant une base du sous–espace propre complétée en une
base de E, la matrice de u possèdera q λ sur la diagonale. On aura, par blocs :
 λIq B 
M= 
 O C
Le polynôme caractéristique est alors égal à (λ – X)q det(C – XI). Il se peut que λ soit également
racine de det(C – XI), de sorte que son ordre de multiplicité est au moins q.

PROPOSITION
Si F est un sous-espace vectoriel stable par u, alors le polynôme caractéristique de la restriction de
u à F divise le polynôme caractéristique de u.

En effet, si on prend une base de F que l'on complète en une base de E, la matrice de u dans cette
base est triangulaire par blocs, de la forme M =  O C . Le polynôme caractéristique de u est
AB

det(M – XI), celui de u|F est det(A – XI) et ce dernier divise le premier puisque :
det(M – XI) = det(A – XI)det(C – XI)

Outre le fait d'être le polynôme dont les racines sont les valeurs propres de u, le polynôme
caractérisque jouit d'une autre propriété. C'est un polynôme annulateur de u (Cayley-Hamilton,
énoncé plus haut). Inversement, tout polynôme annulateur de u permet d'avoir une idée des valeurs
propres de u :
PROPOSITION :
Soit u un endomorphisme (ou M une matrice carrée) et P un polynôme tel que P(u) = 0 (ou
P(M) = 0). Alors les valeurs propres λ de u (ou de M) vérifient nécessairement P(λ) = 0.

Démonstration :
Soit λ une valeur propre de u, de vecteur propre V. On a donc :
u(V) = λV
Par récurrence, il est facile de montrer que uk(V) = λkV. On en déduit, en prenant des combinaisons
linéaires de puissances de u, que si P est un polynôme, alors : P(u)(V) = P(λ)V. Si P(u) = 0 alors
P(λ)V = 0 et V étant non nul, P(λ) = 0.

EXEMPLE : si u2 – 3u + 2Id = 0, alors les valeurs propres de u sont racines du polynôme


X2 – 3X + 2 = 0 et appartiennent à l'ensemble {1,2}. Il est possible cependant qu'une seule de ces
deux valeurs soit valeur propre de u (par exemple, si u = Id).

Ainsi, si un polynôme s'annule sur u, il s'annule aussi sur toutes les valeurs propres de u.

6– Conditions de diagonalisation
Nous étudions dans ce chapitre des conditions nécessaires et/ou suffisantes pour qu'un
endomorphisme soit diagonalisable.

PROPOSITION
Soit u un endomorphisme de E. Il y a équivalence entre :
(i) u est diagonalisable
(ii) E est la somme des sous–espaces propres
(iii) Le polynôme caractéristique est scindé, et l'ordre de multiplicité de chaque valeur
propre est égale à la dimension du sous-espace propre.
- 23 -
(iv) Il existe un polynôme annulateur de u, scindé à racines simples.
(v) Le polynôme Π (X – λ) où λ décrit le spectre de u, est un polynôme annulateur de u.
(vi) Le polynôme annulateur de degré minimal est scindé à racines simples.

Un polynôme est scindé s'il se factorise en facteurs du premier degré (éventuellement avec
multiplicité des racines).

Démonstration :
Supposons u diagonalisable. Alors il existe une base de vecteurs propres. Si l'on regroupe côte à côte
les vecteurs propres ayant même valeur propre, et si la valeur propre λi apparaît ki fois, la matrice de
 λ1Ik1 0 ... 0 
u dans cette base est diagonale par blocs de la forme
 0 λ2Ik2 ... 0  où Ik est une matrice
 ... ...  i

 0 0 ... λpIkp 
identité ki × ki. On peut alors vérifier par le calcul les points suivants :
❑ La recherche du sous-espace propre Ker(u – λiId) correspond précisément au sous-espace
vectoriel engendré par les vecteurs de base de valeur propre λi. Cet espace est donc de dimension ki,
et comme k1 + k2 + ... + kp est égal à l'ordre de la matrice et donc à la dimension de E, on a :
dim(E) = dim(Eλ1) + dim(Eλ2) + ... + dim(Eλp)
et donc E = Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλp
k k k
❑ Le polynôme caractéristique vaut det(XId – u) = (X – λ1) 1(X – λ2) 2...(X – λp) p, donc le
polynôme caractéristique est scindé et l'ordre de multiplicité ki de la valeur propre λi est égal à la
dimension du sous-espace propre.
p
❑ On vérifiera enfin que ∏ (X – λi) est un polynôme annulateur de l'endomorphisme. En effet,
i=1

chaque matrice M – λiIn possède des 0 à la place des λi. Ce polynôme annulateur est scindé à racines
simples. Il s'agit d'ailleurs du polynôme annulateur minimal, puisque, si on enlève un facteur (X – λi),
les éléments situés sur la diagonale à la place des λi ne pourront s'annuler.
On a ainsi montré que (i) ⇒ (ii) et (iii) et (v) et (iv) et (vi)

Réciproquement :
(ii) ⇒ (i) Si E est somme des sous–espaces propres, il suffit de prendre dans chaque sous-espace
propre une base pour obtenir ainsi une base de E.
k k
(iii) ⇒ (i) Si n est la dimension de E et si le polynôme caractéristique s'écrit (X – λ1) 1...(X – λp) p,
on a n = k1 + ... + kp car le degré de det(u – XId) est égal au nombre de X sur la diagonale du
déterminant et est donc égal à la dimension de l'espace E. Si on suppose en outre que dim Eλi = ki
alors dim(E) = dim(Eλ1) + dim(Eλ2) + ... + dim(Eλp) donc E = Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλp et on obtient (ii)
et donc (i).

(iv) ⇒ (i) Montrons d'abord le lemme suivant : soit A un polynôme annulateur de u de la forme (X –
λ)B(X) avec B(λ) ≠ 0, alors E = Ker(u – λId) ⊕ Ker B(u).
La somme est en effet directe : si x appartient à Ker(u – λId) ∩ Ker B(u) alors u(x) = λx et, en
écrivant B(u) comme combinaison linéaire de puissance de u, on vérifiera que B(u)(x) = B(λ)x, et par
ailleurs x appartient à Ker B(u) donc B(u)(x) = 0 donc B(λ)x = 0, et puisque B(λ) ≠ 0, x = 0.
- 24 -
La somme est égale à E. En effet, la division euclidienne de B(X) par X – λ donne
B(X) = (X – λ)Q(X) + B(λ), donc, B(u) = (u – λId) o Q(u) + B(λ)Id. Pour tout vecteur x, on a donc
:
B(u)(x) = (u – λId)Q(u)(x) + B(λ)x
1
⇒ x= (B(u)(x) – (u – λId)Q(u)(x))
B(λ)
Or on a P(u) = 0 = (u – λId) o B(u). Il n'est pas difficile alors de vérifier que B(u)(x) appartient à
Ker(u – λId), et que (u – λId)Q(u)(x) appartient à Ker B(u). Donc E = Ker(u – λId) ⊕ Ker B(u).

Revenons maintenant à notre polynôme P = (X – λ1)...(X – λp) annulateur de u et procédons par


récurrence sur p. Si p = 1, alors X – λ1 est un polynôme annulateur de u, donc u = λ1Id et u est
diagonalisable. Supposons la propriété de diagonalisabilité de u vraie pour les endomorphismes dont
le polynôme annulateur est scindé à p–1 racines simples. Considérons P scindé avec p racines
simples. Ecrivons P = (X – λ1)B(X), où B(X) = (X – λ2)...(X – λp). Le lemme précédent permet de
dire que E = Ker(u – λ1) ⊕ Ker B(u). Ker B(u) est stable par u et B(X) est évidemment un polynôme
annulateur de la restriction de u à ce sous-espace. Or B(X) est scindé à p–1 racines simples.
L'hypothèse de récurrence s'applique et la restriction de u à Ker B(u) est diagonalisable. En
adjoignant une base de Ker B(u) dans laquelle la matrice de cette restriction est diagonale avec une
base de Ker(u – λ1), on obtient une base de E dans laquelle la matrice de u est diagonalisable.

Voici une autre démonstration de cette réciproque. On remarque que, u et v étant deux
endomorphismes, dim Ker (v o u) ≤ dim Ker u + dim Ker v. En effet, notons F = Ker(v o u). Le
théorème du rang donne :
dim F = dim Im(u|F) + dim Ker(u|F)
où u|F désigne la restriction de u à F. Or Im(u|F) est inclus dans Ker(v), et Ker(u|F) est inclus dans
Ker(u), d'où le résultat. Par récurrence, on a :
dim Ker(f1 o f2 o ... o fp) ≤ dim Ker(f1 o f2 o ... o fp–1) + dim Ker(fp)
≤ dim Ker f1 + ... + dim Ker fp
Appliquons ce résultat à (u – λ1Id) o ... o (u – λpId) = 0. On a alors :
dim Ker((u – λ1Id) o ... o (u – λpId)) ≤ dim Ker(u – λ1Id) + ... + dim Ker(u – λpId)
mais comme (u – λ1Id) o ... o (u – λpId) = 0, Ker((u – λ1Id) o ... o (u – λpId)) = E, et par ailleurs,
les Ker(u – λiId) sont les sous-espaces propres Eλi. On obtient donc :
dim E ≤ dim Eλ1 + ... + dim Eλp
mais on sait par ailleurs que ces sous–espaces propres sont en somme directe, et donc leur somme
est de dimension inférieure ou égale à dim E. Les deux membres sont donc égaux, et u est
diagonalisable.

(v) ⇒ (i) est une conséquence directe de (iv) ⇒ (i), puisque ∏ (X – λ) est scindé à racines
λ ∈ Sp(u)

simples.

(vi) ⇒ (iv) est trivial.

La propriété (iv) est très puissante. Soit u un endomorphisme tel que u3 – 7u + 6Id = 0. u annule le
polynôme X3 – 7X + 6 qui se factorise sous la forme (X–2)(X–1)(X+3). On sait donc que u est
diagonalisable, l'ensemble des valeurs propres étant une partie de {–3,1,2}.

- 25 -
 8 0 9 
EXEMPLE : M =  –3 –1 –3 . On pourra vérifier que M annule le polynôme (X–2)(X+1). Donc M
 –6 0 –7 
est diagonalisable.

On insistera sur le fait que la propriété (iv) exige que le polynôme soit scindé à racines simples. Si le
polynôme est seulement scindé, on dispose seulement du résultat suivant :

PROPOSITION
Soit u un endomorphisme et P un polynôme annulateur de u, scindé. Alors u est trigonalisable.

i.e. il existe une base dans laquelle la matrice de u est triangulaire. Ce théorème est admis. Une
démonstration est donnée dans l'annexe III. En particulier, sur C, tout polynôme est scindé, donc
tout endomorphisme sur un espace vectoriel complexe est trigonalisable.

La négation de la propriété (iii) indique pour quelles raisons un endomorphisme n'est pas
diagonalisable :

❑ Sur R, il se peut que u ait des valeurs propres complexes et non réelles, autrement dit, le
polynôme caractéristique n'est pas scindé. Par exemple, si u2 + Id = 0, alors les valeurs propres
vérifient nécessairement λ2 + 1 = 0, ce qui prouve qu'il n'y a pas de valeurs propres réelles. Si on se
place sur C, alors il y a deux valeurs propres potentielles : i et –i. u est d'ailleurs diagonalisable sur C
puisqu'il y possède un polynôme annulateur scindé à racines simples. Ainsi, la possibilité de
diagonalisation dépend du corps de base sur lequel on se place. Il est clair que le spectre de u dans
R, ensemble des solutions dans R du polynôme det(u – XI) = 0, est inclus dans le spectre de u dans
C, ensemble des solutions dans C du même polynôme.
 cosθ –sinθ 
EXEMPLE 1 : Diagonaliser M =  , avec θ ≠ kπ.
 sinθ cosθ 
Le polynôme caractéristique vaut X2 – 2cosθX + 1. Il ne possède pas de racine sur R. Il n'est donc
pas diagonalisable sur R. Si on se place sur C, les racines sont e±iθ. Le sous-espace propre associé à

la valeur propre eiθ est la droite de vecteur directeur  –i . Le sous-espace propre associé à la valeur
1

e 0 

propre e–iθ est la droite de vecteur directeur  i . M est diagonalisable sur C, semblable à 
1

 0 e–iθ 
et la matrice de passage est  –i i .
1 1

1 0 1
EXEMPLE 2 : Diagonaliser la matrice M =  1 1 0 
0 1 1
Le polynôme caractéristique vaut det(M – XI) = – X3 + 3X2 – 3X + 2 = – (X – 2)(X2 – X + 1)

Si le corps de base est R, alors seule 2 est valeur propre, avec seulement une droite de vecteurs
propres. M n'est donc pas diagonalisable.

- 26 -
Si on se place sur C, les valeurs propres sont 2, 12 – i 23 ou 12
i 3
2
+
donnant chacune une droite
comme sous-espace propre. Disposant de trois vecteurs propres, l'endomorphisme est diagonalisable
sur C.

❑ Supposons maintenant que le polynôme caractéristique soit scindé, et admette donc n valeurs
propres comptées avec leur ordre de multiplicité, où n = dim E. Cet ordre est supérieur ou égal à la
dimension du sous-espace propre correspondant. Il est possible qu'il lui soit strictement supérieur,
auquel cas u n'est pas diagonalisable. Ainsi, si λ est valeur propre double, on s'attend à trouver un
plan de vecteurs propres. Si on ne trouve qu'une droite, il manquera au moins un vecteur pour
former une base de vecteurs propres.
 7 –11 –2 
EXEMPLE : Diagonaliser la matrice M =  –3 –1 –6 
 –1 1 6 
Le polynôme caractéristique vaut : det(M – XI) = –X3 + 12X2 – 256 = – (X + 4)(X – 8)2

• Sous–espace propre associé à la valeur propre 8. On résout le système :

 –x – 11y – 2z = 0  x + 11y + 2z = 0 y=0


(M–8I).V = 0 ⇔  –3x – 9y – 6z = 0 ⇔  y = 0 ⇔  x + 2z = 0
 –x + y – 2z = 0 
 x + 2z = 0
 2 
Il s'agit de la droite vectorielle engendrée par  0 . La valeur propre étant double, il manquera un
 –1 
vecteur.

• Sous–espace propre associé à la valeur propre –4. On résout le système :


 11x – 11y – 2z = 0 x=y
(M + 4I).V = 0 ⇔  –3x + 3y – 6z =0 ⇔z=0
 –x + y + 10z = 0 

1
Il s'agit de la droite vectorielle engendrée par  1 
0

La somme des sous–espaces propres étant de dimension 2, la matrice n'est pas diagonalisable.

Voici, pour terminer ce paragraphe des conditions suffisantes (et non plus nécessaires et suffisantes)
pour qu'un endomorphisme soit diagonalisable.
PROPOSITION :
Soit u un endomorphisme d'un espace vectoriel E de dimension n. Si u admet n valeurs propres
distinctes, alors u est diagonalisable.

Démonstration :
Il existe n sous–espaces propres, tous de dimension supérieure ou égale à 1. La dimension de la
somme est donc supérieure ou égale à n. Comme elle ne peut excéder celle de E, la dimension de la
somme est exactement égale à n, chaque sous–espace étant de dimension 1. La somme est donc bien
égale à E et u est diagonalisable.

- 27 -
La formulation de la proposition précédente est évidemment équivalente à la suivante :
PROPOSITION :
Si le polynôme caractéristique de u est scindé et ne possède que des racines simples, alors u est
diagonalisable.

On a enfin :
PROPOSITION
Soit u diagonalisable et F un sous-espace vectoriel de E stable par u. Alors la restriction de u à F
est diagonalisable.

Démonstration :
u annule un polynôme scindé dont toutes les racines sont simples. Il en est a fortiori de même de u|F
qui annule le même polynôme.

Annexe I : d'autres exemples de dualité


Il y a dualité lorsque deux catégories d'objets jouent des rôles analogues l'une envers l'autre. Dans le
chapitre ci-dessus, les formes linéaires jouaient envers les vecteurs des rôles identiques au rôle que
jouent les vecteurs envers les formes linéaires. Si un énoncé est vrai dans une catégorie, il sera
également vrai dans la catégorie duale. Voici d'autres exemples de dualité qu'on peut rencontrer, en
théorie des ensembles, en topologie, en géométrie, en cristallographie, en théorie des graphes et
enfin, en électrocinétique. Il existe ainsi des énoncés que l'on a historiquement démontrés
indépendamment, avant de s'apercevoir qu'ils étaient duaux l'un de l'autre et qu'UNE SEULE
démonstration suffisait pour démontrer simultanément les DEUX résultats. Là réside l'intérêt de la
dualité. Dans ce qui suit, nous ne donnerons pas de démonstrations. Nous nous contentons de
donner des exemples d'énoncés duaux, afin d'illustrer ce qu'est la dualité.

EN THEORIE DES ENSEMBLES :


∪ et ∩ sont des notions duales au moyen du passage au complémentaire. Considérons un théorème
de la théorie des ensembles, dans un ensemble E, et opérons les substitutions suivantes :
∪ ↔ ∩
∅ ↔ E
⊂ ↔ ⊃
A ↔ CA = A'
Alors on obtient un autre théorème. Par exemple :
A ∩ CA = ∅
devient CA ∪ A = E

ou encore :
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
devientA' ∪ (B' ∩ C') = (A' ∪ B') ∩ (A' ∪ C')

Cette dualité résulte de la relation C(A ∩ B) = CA ∪ CB, équivalente à C(A ∪ B) = CA ∩ CB

EN GEOMETRIE
Il existe une dualité en géométrie plane entre :
point ↔ droite
point intersection de deux droites ↔ droite passant par deux points
- 28 -
points alignés ↔ droites concourantes
point appartenant à une conique ↔ droite tangente à une conique
Cette dualité est très proche de celle que nous avons vue dans les espaces vectoriels, un point
correspondant à un vecteur et une droite à une forme linéaire, mais la justification profonde de cette
dualité fait intervenir la notion de polarité en géométrie projective (où les droites parallèles sont des
cas particuliers de droites concourantes) et dépasse le cadre de ce cours. Donnons simplement des
exemples de théorèmes duaux utilisant la conversion exposée ci-dessus :

❑ Le théorème de Pappus :
Soient trois points alignés A1, B1, C1 (respectivement A2, B2, C2). Alors les trois points d'intersection
des droites (A1B2) et (A2B1), (A1C2) et (A2C1), (B1C2) et (B2C1) sont alignés.

A B C
1 1 1

I
K

A
2 B
2 C
2

Le dual de ce théorème est :


Soient trois droites concourantes a1, b1, c1 (respectivement a2, b2, c2). Alors les trois droites passant
par les points a1 ∩ b2 et a2 ∩ b1, a1 ∩ c2 et a2 ∩ c1, b1 ∩ c2 et b2 ∩ c1 sont concourantes.
b1

b2
c2
a1
a2

c1

- 29 -
On remarque en outre que la configuration du dessin est identique dans les deux cas. Cette
configuration est auto-duale.

❑ Le théorème de Desargues :
Soient A, A', B, B', C, C' six points tels que les droites (AA'), (BB') et (CC') soient concourantes.
Alors les trois points intersections de (AB) et (A'B'), (BC) et (B'C'), (CA) et (C'A'), sont alignés.
I

A'
B'
C'

J
K
B C L

Le dual de cet énoncé est :


Soient a, a', b, b', c, c' six droites telles que les points a ∩ a', b ∩ b' et c ∩ c' soient alignés. Alors les
trois droites passant par a ∩ b et a' ∩ b', b ∩ c et b' ∩ c', c ∩ a et c' ∩ a', sont concourantes.

a
c

c'

b'
b

a'
On remarque là aussi, que la configuration est identique dans les deux énoncés. Le théorème de
Desargues est lui aussi auto-dual.

- 30 -
Le théorème de Desargues est un théorème de géométrie projective. On peut en donner une
démonstration rapide en visualisant la figure comme le projeté sur le plan d'une figure de l'espace.
I

A'

B'
C'

J
K
B C L

Le plan ABC est un plan rouge formant un tétraèdre avec le sommet I. Ce tétraèdre est coupé par un
plan jaune A'B'C'. Les points J, K, L appartiennent à la fois au plan rouge ABC et jaune A'B'C'. Ils
sont donc alignés puisqu'ils appartiennent à la droite intersection des deux plans.

❑ Voici deux théorèmes duaux l'un de l'autre :


Le theorème de Pascal :
Soit un hexagone inscrit dans une conique. Les trois points d'intersection des côtés opposés de
l'hexagone sont alignés.

V
J K
U
L

I M

- 31 -
Le dual de cet énoncé est le suivant. Il s'agit du théorème de Brianchon :
Soit un hexagone circonscrit à une conique. Les trois droites passant par les points diamétralement
opposés de l'hexagone sont concourantes.

EN CRISTALLOGRAPHIE :
En cristallographie, on est amené à étudier les polyèdres et les groupes laissant globalement invariant
ces polyèdres. Il existe une notion de dual dans les polyèdres. Etant donné un polyèdre, on appelle
polyèdre dual le polyèdre construit de la façon suivante : à chaque face du premier polyèdre
correspond un sommet du second. On relie deux sommets du second polyèdre si les faces du premier
possèdent une arête commune. On montre alors que le dual du second polyèdre n'est autre que le
premier polyèdre. Ainsi, le cube et l'octaèdre sont duaux, le dodécaèdre et l'icosaèdre sont duaux, le
tétraèdre est son propre dual.

L'intérêt de cette notion réside dans le fait que deux polyèdres duaux possèdent le même groupe
d'isométries les laissant invariants. Ainsi, le groupe des isométries laissant invariant le cube possède
48 éléments (le cube est donné par un sommet et trois arêtes issues de ce sommet. Il y a 48 images
possibles = 8 sommets × 3! arêtes). Le groupe des isométries laissant invariant l'octaèdre est
identique. Ce groupe ne permet pas de discerner le cube de l'octaèdre. Toute propriété de ce groupe
s'appliquera donc aussi bien au cube qu'à l'octaèdre. Suivant le cas, on préfèrera raisonner sur le cube
ou sur l'octaèdre. Ainsi, le groupe de 48 éléments possède :
❑ 24 isométries directes, à savoir :
l'identité
3 demi-tours autour d'axe passant par des centres de faces opposées du cube (ou passant par
deux sommets opposés de l'octaèdre)
6 rotations d'angle ± π autour des mêmes axes
2

- 32 -

8 rotations d'angle ± autour d'axes passant par des sommets diamétralement opposés du
3
cube (ou par les centres de faces opposées de l'octaèdre)
6 demi-tours autour d'axe passant par les milieux de deux côtés opposés du cube (ou par les
milieux de deux côtés opposés de l'octaèdre)

❑ 24 isométries indirectes, à savoir :


une symétrie centrale par rapport au centre du cube (ou de l'octaèdre)
3 reflexions par rapport à des plans médiateurs de côtés du cube (ou par rapport aux trois
bases carrées de l'octaèdre)
6 reflexions par rapport à des plans passant par deux côtés opposés du cube (ou deux côtés
opposés de l'octaèdre)
π
6 rotations d'angle ± autour des axes passant par les centres de faces opposées du cube (ou
2
par deux somments opposés de l'octaèdre), composées avec une reflexion par rapport au plan
orthogonal à ces axes et passant par le centre du cube (ou de l'octaèdre)
8 rotations d'angle ± π (un sixième de tour) autour d'axes passant par deux sommets opposés
3
du cube (ou par les centres de deux faces opposées de l'octaèdre), composées avec une reflexion par
rapport au plan orthogonal à ces axes et passant par le centre du cube (ou de l'octaèdre). Si on place
son oeil selon l'un des axes de rotation, on verra comme profil du polyèdre un hexagone, que ce
polyèdre soit un cube ou un octaèdre.

EN THEORIE DES GRAPHES :


Un graphe est un ensemble de sommets reliés par des arêtes. La dualité des polyèdres s'applique aux
graphes de la même façon. Une face, limitée par des arêtes, du premier graphe sera associée à un
sommet du second graphe. Deux faces adjacentes, séparées par une arête, dans le premier graphe
correspondront à deux sommets du second graphe que l'on reliera par une arête. Le dual du second
graphe n'est autre que le premier. On compte comme face le domaine extérieur à toutes les arêtes.
Ainsi, ci-dessous, le graphe rouge est le dual du graphe noir, et le graphe noir est le dual du graphe
rouge.

- 33 -
Voici un exemple d'utilisation de cette dualité dans un exercice de dénombrement. On considère
d'une part les arbres binaires ayant n feuilles. Voici un exemple d'arbre binaire à 6 feuilles :

racine
feuille

noeud

branche

Une racine se divise en deux branches. Chaque branche arrive soit à une feuille, soit à un noeud où
elle se divise encore en deux. Le nombre d'arbres binaires à n feuilles est le nème nombre de Catalan.
Pour n = 6, il y a 42 arbres binaires.
On considère d'autre part des polygones à n+1 côtés et les triangulations de ces polygones. Voici par
exemple un polygone à sept côtés et une de ses triangulations :
6
0

4
2
3
Si l'on dénombre le nombre de triangulations d'un heptagone, on en trouve également 42. En fait, le
nombre de triangulation d'un polygone à n+1 côtés est également le nème nombre de Catalan.
Pourquoi ? Voici une explication trouvée il y a quelques années par l'un de mes étudiants.
Considérons un arbre binaire, que l'on enclot dans un rectangle. Cela définit un graphe dont les
sommets sont les noeuds et les feuilles, et les arêtes les branches. Le graphe dual est une
triangulation du polygone (on ne tient pas compte de la face extérieure au rectangle). Voici un
exemple, où l'on a numéroté les faces du graphe obtenu :

- 34 -
6
0
5
1
L'arbre binaire est enclos de cette façon : 4
2 3

6
0
5
1
Le graphe dual est le suivant : 4
2 3
Dans le graphe initial, qui comporte n+1 zones, les noeuds seront les centres des faces du graphe
dual. Chaque noeud de l'arbre étant relié à trois branches, et chacune de ces trois branches définissant
une frontière commune entre deux zones du graphe initial, le graphe dual aura des faces triangulaires.
On peut retrouver le graphe initial en prenant le dual du graphe dual. Ainsi, n'importe quelle
triangulation de polygone peut être considérée comme provenant d'un arbre binaire.

EN PHYSIQUE :
En électrocinétique, la représentation d'un circuit est un graphe. Les sommets de ce graphe sont les
noeuds du circuit, les arêtes sont les branches du circuit. La dualité des graphes vue ci-dessus permet
d'établir une dualité physique entre :
tension ↔ intensité de courant
Volt ↔ Ampère
circuit série ↔ circuit parallèle
1
résistance R ↔ conductance = G
R
Toute formule de l'électrocinétique possède une formule duale.

Voyons quelques exemples :


❑ La loi d'Ohm est autoduale. U = RI devient en effet I = GU qui est la même formule. Il en est de
même de la puissance dissipée par effet Joule P = RI2 = GU2.

❑ Un circuit en série vérifie U = U1 + U2 et I1 = I2 = I, U1 = R1I, U2 = R2I

U1 U2
Il aura pour dual le circuit en parallèle suivant (dont les branches traversent les branches du circuit
précédent) :
avec I = I1 + I2, U1 = U2 = U, I1 = G1U, I2 = G2U.

- 35 -
I1 I2

En particulier, la loi R = R1 + R2 pour des résistances en série a pour duale la loi G = G1 + G2, c'est-
1 1 1
à-dire = + pour des résistances en parallèles.
R R1 R2

❑ Les théorèmes de Norton et Thévenin sont duaux :


Théorème de Thévenin : soient deux points A et B d'un réseau. Ces points sont réunis par une
branche supplémentaire. L'intensité qui parcourt la nouvelle branche peut se calculer en remplaçant le
réseau primitif par le montage en série équivalent suivant constitué :
d'un générateur de tension Eeq égale à la tension qu'on obtiendrait entre A et B si la branche
supplémentaire était constituée d'une résistance infinie (et était donc parcourue par un courant
d'intensité nulle)
d'une résistance Req équivalente à la résistance du réseau primitif.
de la nouvelle branche.
Par exemple, si la branche supplémentaire est une résistance r, l'intensité parcourant cette branche est
Eeq
I= et la tension entre A et B est U = Eeq – ReqI = rI.
Req + r

Théorème de Norton : soient deux points A et B d'un réseau. Ces points sont réunis par une branche
supplémentaire. La tension aux bornes de la nouvelle branche peut se calculer en remplaçant le
réseau primitif par le montage en parallèle constitué :
d'un générateur de courant Ieq égal à l'intensité qu'on obtiendrait entre A et B si la branche
supplémentaire était constituée d'une résistance nulle (et était donc sans différence de potentiel entre
A et B)
d'une conductance Geq équivalente à la conductance du réseau primitif.
de la nouvelle branche.
Par exemple, si la branche supplémentaire est une conductance g, la différence de potentiel entre A et
Ieq
B est U = et l'intensité dans la nouvelle branche I = Ieq – GeqU = gU.
Geq + g

❑ Les lois de Kirchoff


la loi des noeuds est duale de la loi des mailles :

- 36 -
I1
U1

I2 U2
Un
I3 U3
... ...
In

n n
∑ Ik = 0 ∑ Uk = 0
k=1 k=1

❑ Le théorème de Kennely
La conversion triangle → étoile énonce que le réseau en triangle peut être remplacé par une étoile

R1
r3

R2

r2 r1

R3

r2r3
avec R1 = (et des formules comparables pour R2 et R3)
r1 + r2 + r3
G2G3
Le dual de ce théorème est la conversion étoile → triangle avec g1 = , autrement dit,
G1 + G2 + G3
R2R3 + R1R3 + R1R2
r1 =
R1

❑ Le diviseur de tension
Considérons le réseau suivant :

- 37 -
R2 R1 U

R1
La tension U, mesurée par un voltmètre de résistance infinie, vaut U = E.
R1 + R2
Le dual de ce montage est le suivant. C'est le diviseur de courant :

G1
G2
G1 I
G2

I0 ou bien
I I0

G1
L'intensité I, mesurée par un ampèremètre de résistance nulle, vaut I = I0
G1 + G2

❑ Le circuit série RLC


Des dualités supplémentaires apparaissent dans cette situation. Un générateur de tension E est en
série avec une résistance R, une capacité C, une inductance L. Si Q est la charge du condensateur,
alors :
d2Q dQ Q
L 2 +R + = E (1)
dt dt C

Le dual de cette situation est constitué d'un générateur de courant I0 en parallèle avec une
conductance G, une capacité C' et une inductance L'. Si U est la tension commune aux bornes de
chacune de ses branches, on a en effet :
dU
I1 = C' intensité dans la branche du condensateur
dt
I2 = GU intensité dans la conductance G
dI
U = L' 3, où I3 est l'intensité parcourue par l'inductance.
dt
I0 = I1 + I2 + I3
Prenons donc Φ = L'I3 flux dans l'inductance comme variable du temps. On obtient :
d2Φ dΦ 1
C' 2 + G + Φ = I0 (2)
dt dt L'
Cette équation est la duale de l'équation (1) à condition d'échanger charge et flux, capacité et
inductance, tension et intensité. Ainsi :

- 38 -
Q = CU (charge dans un condensateur) a pour dual Φ = LI (flux dans une bobine)
dQ dΦ
I= a pour dual U =
dt dt
P = UI est autoduale
1 1
W = CU2 (énergie électrique emmagasinée dans un condensateur) a pour dual W = LI2
2 2
(énergie magnétique emmagasinée dans une bobine).

Ainsi, nous disposons également des formes duales suivantes :


capacité C ↔ inductance L
Farad ↔ Henry
charge électrique ↔ flux magnétique
Coulomb ↔ Weber

Tous les changements d'unité se déduisent du simple échange Volt ↔ Ampère. Les unités de temps
(s = seconde), de longueur (m = mètre), de force (N = Newton), de travail (J = joule), de puissance
(W = watt), de masse (kg = kilogramme) ne sont pas affectées par ces transformations. Résumons
toutes ces formules, et découvrons-en encore d'autres !!
Volt ↔ Ampère
tension ↔ intensité de courant

Coulomb C = A.s ↔ V.s = J.A–1 = Wb (Weber)


Charge électrique ↔ Flux magnétique

Ohm Ω = V.A–1 ↔ Ω –1 = A.V–1


1
Résistance R ↔ Conductance =G
R

Farad F = C.V–1 ↔ Wb.A–1 = H (Henry)


Capacité ↔ Inductance

F.m–1 = C.V–1.m–1 ↔ H.m–1


Permittivité ε0 ↔ Perméabilité µ0

Tesla T = Wb.m–2 ↔ C.m–2


Champ magnétique B ↔ Induction électrique D = εE

V.m–1 ↔ A.m–1
1
Champ électrique E ↔ Excitation magnétique H = B
µ

N = ATm ↔ N = VCm–1
(apparaissant dans la (apparaissant dans F = qE)
formule F = Idl ∧ B)

EN TOPOLOGIE

- 39 -
De la même façon, il y a dualité entre point intérieur et point adhérent, et entre ouverts et fermés
dans les ensembles topologiques, en utilisant le fait que le complémentaire d'un ouvert est un fermé.
Appelons intérieur d'une partie l'ensemble des points intérieurs, et adhérence l'ensemble des points
adhérents. Alors le complémentaire de l'intérieur est égal à l'adhérence du complémentaire. En effet :
x appartient au complémentaire de l'intérieur d'une partie A
⇔ x n'est pas intérieur à A
⇔ non (∃ r > 0, B(x,r) ⊂ A)
⇔ ∀ r > 0, B(x,r) ⊄ A
⇔ ∀ r > 0, B(x,r) ∩ CA ≠ ∅
⇔ x appartient à l'adhérence du complémentaire de A.

Cela se traduit par exemple par les deux formules duales :


l'intérieur de A est la réunion des ouverts inclus dans A
l'adhérence de A est l'intersection des fermés contenant A.
ou bien :
l'intérieur de A est le plus grand des ouverts inclus dans A
l'adhérence de A est le plus petit des fermés contenant A.
Les notions duales ont même couleur. Le passage au complémentaire permet de transposer l'une en
l'autre.

Annexe II : une application du théorème du rang en S.I. ou en physique


a) Cycles indépendants, nombre cyclomatique
En Sciences Industrielles, un mécanisme est modélisé par des solides indéformables S1, S2, ..., Sn
ayant entre eux des liaisons, traduisant les mouvements possibles entre les pièces. Notons Lij une
liaison entre le solide Si et le solide Sj. Il n'existe bien évidemment pas des liaisons entre tous les
solides du mécanisme, de sorte que Lij n'est pas nécessairement défini pour tout i et j. On a par
ailleurs Lij = Lji lorsqu'une telle liaison existe.

Le mécanisme est symbolisé par un graphe de structure, ayant des sommets et des arêtes. Il y a
autant de sommets que de solides (soit s ce nombre), et une arête relie le sommet Si et Sj si et
seulement si une liaison Lij existe. Autrement dit, les arêtes représentent les liaisons entre solides. Il y
a donc autant d'arêtes que de liaisons (soit a ce nombre). Voici un exemple fictif de graphe de
structure, où les sommets (ou solides) sont numérotés de 1 à 8 :
1 2

5 6

8 7

4 3
Nous supposerons toujours un graphe de structure connexe, c'est-à-dire qu'on peut se rendre d'un
sommet quelconque à un autre sommet en suivant un chemin du graphe (sinon, cela voudrait dire
que l'on dispose de deux mécanismes disjoints !!).

- 40 -
De tels graphes de structures se trouvent également en électrocinétique, comme modélisation de
circuits électrique, où les arêtes sont plutôt appelées branches du circuit et les sommets sont appelés
noeuds.

Un cycle est un chemin fermé, i.e. commençant et finissant au même sommet. Nous supposerons en
outre qu'un tel chemin ne passe pas deux fois par la même arête. Par ailleurs, nous ne définissons pas
de sens de parcours privilégié d'un circuit : il peut se parcourir dans un sens ou dans l'autre.

En S.I., un tel cycle est parfois appelé boucle de solides, et en électrocinétique, un cycle est appelé
maille du circuit. Voici des exemples de cycles définis dans le graphe de structure précédent : 1-4-8-
5-1 ou 1-4-8-7-3-2-1. On peut définir la notion de cycles indépendants, et de nombre cyclomatique.
Mathématiquement, cette notion d'indépendance est rigoureusement identique à la notion de système
de vecteurs indépendants dans un espace vectoriel. Précisons cela.

Le corps de base utilisé sera inhabituel. Il s'agit du corps constitué des deux éléments 0 et 1, avec
comme règle de la somme 1 + 1 = 0. Ce corps est noté Z/2Z. On peut le voir aussi comme le corps
des deux éléments {pair, impair} avec les règles d'opérations usuelles sur les nombres pairs et
impairs. La caractéristique essentielle de ce corps est que :
∀ x ∈ Z/2Z, x + x = 0

Considérons maintenant F espace vectoriel de dimension s (le nombre de sommets) sur Z/2Z, dont
une base sera notée (S1, ..., Ss). Autrement dit, les sommets désignent les vecteurs d'une base de F.
Un vecteur quelconque de F s'écrit Si1 + Si2 + ... + Sik où les indices i1, i2, ..., ik sont distincts (car s'il
y a deux indices identiques, on a Si + Si = (1 + 1) Si = 0 Si = 0).

Considérons également E espace vectoriel de dimension a (le nombre d'arêtes) sur Z/2Z, dont une
base sont les vecteurs Lij.Un vecteur quelconque de E s'écrit ∑ Lij où les indices sont également
distincts.

Définissons enfin une application linéaire δ de E dans F, appelée bord en donnant les images des
vecteurs de base de E. Si Lij est une liaison entre Si et Sj alors δ(Lij) = Si + Sj. Par exemple, dans le
graphe de structure dessiné ci-dessus :
δ(L56) = S5 + S6
δ(L56 + L67 + L73) = δ(L56) + δ(L67) + δ(L73) = S5 + S6 + S6 + S7 + S7 + S3
= S5 + S3 puisque S6 + S6 = 0 = S7 + S7
On comprend pourquoi δ s'appelle bord. On a calculé le bord (i.e. les extrémités) du chemin 5-6-7-3.

Quelle est l'image de δ ? Un sommet isolé ne peut être dans cette image, car δ(Lij) fait intervenir
deux sommets et il en résulte que δ(∑ Lij) est combinaison linéaire d'un nombre pair de sommets
(même après simplification). L'application δ ne peut être surjective. Montrons que son rang est s–1
(un de moins que le nombre de sommets). Il suffit de montrer que, par exemple, le système libre
(S1 + S2, S1 + S3, ..., S1 + Ss) est constitué de vecteurs de Im δ. Or nous avons supposé le graphe
connexe, ce qui signifie que, pour tout i, il existe un chemin allant de S1 à Si. Cela ne signifie rien
d'autre que le bord de ce chemin est S1 + Si qui est donc bien dans Im δ.

Quel est le noyau de δ ? Les éléments du noyau ne sont autres que les cycles. En effet, un chemin est
dans le noyau si et seulement si son bord et nul, et donc si et seulement si le chemin commence et

- 41 -
finit au même sommet : il s'agit bien des cycles. C'est le cas par exemple de L14 + L48 + L85 + L51,
dont l'image par δ est nul. Les cycles dits indépendants sont précisément ceux qui sont linéairement
indépendants au sens mathématique du terme dans l'espace vectoriel E. Le nombre de cycles
indépendants est la dimension de Ker δ. Or le théorème du rang nous donne la dimension de Ker δ.
C'est µ = a – rg δ = a – (s – 1) = a – s + 1. Ce nombre est dit nombre cyclomatique du graphe. C'est
le nombre maximal de cycles indépendants. Dans l'exemple précédent, µ = 12 – 8 + 1 = 5. Il y a cinq
cycles indépendants, par exemple :
C1 = L15 + L58 + L84 + L41
C2 = L12 + L26 + L65 + L51
C3 = L26 + L67 + L73 + L32
C4 = L37 + L78 + L84 + L43
C5 = L14 + L43 + L32 + L21
1 2

5 6

8 7

4 3
Tout autre cycle est combinaison linéaire de ces cycles, par exemple :
L56 + L67 + L78 + L85 = C1 + C2 + C3 + C4 + C5
L15 + L56 + L67 + L73 + L32 + L21 = C2 + C3

On peut montrer que le nombre cyclomatique s'interprête aussi comme le nombre minimal d'arêtes à
supprimer pour qu'il n'y ait plus de cycles. Dans l'exemple précédent, où µ = 5, il suffit d'enlever 5
arêtes bien choisies pour ne plus avoir de cycles, par exemple les arêtes L12, L23, L34, L45 et L87.
1 2

5 6

8 7

4 3
Le graphe final obtenu s'appelle un arbre.

b) Utilisation du nombre cyclomatique


En S.I., le nombre cyclomatique intervient dans l'analyse géométrique ou cinématique du mécanisme.
Chaque liaison fait intervenir un ou plusieurs paramètres géométriques (respectivement cinématique),
par exemple l'angle formé entre deux solides dans le cas d'une liaison pivot, ou la distance entre deux
solides dans le cas d'une liaison glissière (respectivement la vitesse angulaire ou la vitesse linéaire).
Dans le cas d'un cycle (ou boucle de solides), il existe nécessairement une relation entre les
différentes paramètres de chaque liaison pour pouvoir refermer la boucle. Il convient donc d'écrire
- 42 -
toutes les relations entre paramètres afin d'éliminer les paramètres superflus. Pour cela, il est inutile
d'établir une telle relation pour chaque cycle du graphe : il suffit de le faire pour les cycles
indépendants. Le nombre cyclomatique indique combien il y a de tels cycles indépendants et donc
combien il y a de relations à établir entre paramètres.

En électrocinétique, on dispose d'un circuit constitué de a branches (ou arêtes) et de s noeuds (ou
sommets), chaque branche étant constituée de générateurs et de résistances. Le problème est d'établir
les valeurs de l'intensité du courant dans chaque branche, ou la différence de potentiel entre deux
noeuds.

❑ La méthode brute consiste à dire que l'on dispose de 2a inconnues élémentaires, à savoir les a
intensités dans chacune des branches et les a différences de potentiels aux bornes de chacune des
branches. Pour résoudre le système, il convient donc d'établir 2a équations indépendantes qui sont :
• Les a relations entre tensions et intensité dans chaque branche résultant de la loi d'Ohm (du type
U = RI – E, avec U tension aux bornes de la branche, I intensité du courant dans la branche, E
force électromotrice dans la branche)

• Les s–1 relations résultant de la loi des noeuds ∑ Iij = 0 pour chaque noeud i du circuit sauf un,
j

où Iij désigne l'intensité du courant allant de i vers j. On notera qu'il n'y a que s–1 équations car les

s équations ∑ Iij = 0 écrites pour chaque sommet i sont liées entre elles. La somme de ces s
j

équations est en effet nulle : ∑ ∑ Iij = ∑ Iij + Iji = 0 car Iij + Iji = 0. Il suffit donc d'écrire s–1 lois
i j i<j

des noeuds pour que la dernière soit automatiquement vérifiée.


• Il reste encore a – s + 1 équations à écrire. On reconnaît là le nombre cyclomatique. Les dernières
relations consistent en la loi des mailles appliquée sur chaque cycle indépendant : ∑ U = 0, où l'on
fait la somme des tensions de chaque branche constituant la maille. La somme est nulle puisqu'on
revient au point de départ. Toute autre loi des mailles appliquée à un autre cycle se déduira par
combinaison linéaire de la loi des mailles appliquée aux cycles indépendants. Il est donc inutile de
l'écrire.

❑ La méthode des tensions indépendantes consiste à partir des s – 1 tensions inconnues s'appliquant
à chacune des branches de l'arbre qu'on obtiendrait à partir du circuit initial si on enlevait a – s + 1
branches bien choisies. Ces s – 1 tensions sont appelées les tensions indépendantes du circuit. Les
tensions s'appliquant sur les a – s + 1 autres branches s'en déduisent en appliquant la loi des mailles ∑
U = 0 à chacune des a – s + 1 maille indépendante. Pour chaque branche on en déduit l'intensité du
courant qui la parcourt, exprimée en fonction des tensions indépendantes. Il suffit d'écrire ensuite les
s – 1 relations données par la loi des noeuds pour avoir à résoudre un système de s – 1 équations
indépendantes (les lois des noeuds) à s – 1 inconnues (les tensions indépendantes).

❑ La méthode des intensités indépendantes consiste à attribuer à chacune des a – s + 1 mailles


indépendantes une intensité fictive. Ces a – s + 1 intensités sont appelées intensités indépendantes.
Le courant réel parcourant une branche est la somme algébrique des intensités indépendantes des
mailles auxquelles appartient la branche. On en déduit l'expression de la tension appliquée aux bornes
de chaque branche en fonction des intensités indépentantes. La loi des noeuds est automatiquement
vérifiée. Il suffit d'écrire ensuite la loi des mailles ∑ U = 0 pour chaque maille indépendante pour
- 43 -
avoir à résoudre un système de a – s + 1 équations (la loi des mailles) à a – s + 1 inconnues (les
intensités indépendantes).

EXEMPLE :
Considérons un circuit électrique en forme d'armature cubique, chaque arête du cube étant une
branche de résistance R. On place dans l'une des branches un générateur de tension E. On demande
l'intensité du courant dans chacune des branches.
1 2

5 6

8 7

4 3
La première méthode de résolution donne le système suivant de 24 équations à 24 inconnues (on
note Iij l'intensité de courant du sommet i vers le sommet j, et Uij la différence de potentiel entre le
sommet i et le sommet j) :


U12 = RI12 – E


U15 = RI15
U14 = RI14
 U23 = RI23
U26 = RI26
 U34 = RI34


U37 = RI37
U48 = RI48
 U56 = RI56
U58 = RI58
 U67 = RI67


U78 = RI78
U12 + U26 – U56 – U15 = 0
 U23 + U37 – U67 – U26 = 0
U34 + U48 – U78 – U37 = 0
 U15 + U58 – U48 – U14 = 0


U12 + U23 + U34 – U14 = 0
I12 + I15 + I14 = 0
 – I12 + I23 + I26 = 0
– I23 + I34 + I37 = 0
 – I14 – I34 + I48 = 0


– I15 + I56 + I58 = 0
– I26 – I56 + I67 = 0
– I37 – I67 + I78 = 0
Les 12 premières équations expriment la loi d'Ohm, les 5 suivantes la loi des mailles, les 7 dernières
la loi des noeuds. Les courageux trouveront que :
5E E E 5E E
I15 = I14 = – I23 = – I26 = – , I67 = I37 = – I48 = – I58 = , I34 = – I56 = , I12 = , I78 =
24R 24R 6R 12R 12R

- 44 -
La deuxième méthode consiste à prendre comme inconnues les tensions indépendantes U15, U56, U26,
U67, U37, U58 et U48, correspondant à l'arbre :
1 2

5 6

8 7

4 3

Les sept équations à écrire résultent des sept lois des noeuds, exprimées en fonction des tensions
indépendantes :
I12 + I15 + I14 = 0 ⇔ E + U15 + U56 – U26 + 2U15 + U58 – U48 = 0
– I12 + I23 + I26 = 0 ⇔ – E – U15 – U56 + 3U26 + U67 – U37 = 0
– I23 + I34 + I37 = 0 ⇔ – U26 – 2U67 + 3U37 – U56 + U58 – U48 = 0
– I14 – I34 + I48 = 0 ⇔ – U15 – 2U58 + 3U48 – U37 + U67 + U56 = 0
– I15 + I56 + I58 = 0 ⇔ – U15 + U56 + U58 = 0
– I26 – I56 + I67 = 0 ⇔ – U26 – U56 + U67 = 0
– I37 – I67 + I78 = 0 ⇔ – U37 – 2U67 – U56 + U58 = 0
Le système conduit à la solution :
5E E E
U15 = – U26 = – , U58 = – U37 = U48 = – U67 = – , U56 = –
24 24 6
à partir de laquelle on peut déduire les autres tensions, puis les intensités des courants.

La troisième méthode consiste à attribuer un courant de maille inconnu à chacune des cinq mailles
indépendantes que nous avons notées C1, C2, C3, C4 et C5 dans le a), à savoir :
C1 = L15 + L58 + L84 + L41
C2 = L12 + L26 + L65 + L51
C3 = L26 + L67 + L73 + L32
C4 = L37 + L78 + L84 + L43
C5 = L14 + L43 + L32 + L21
i5

1 2
i2
5 6
i1 i3
8 7
i4
4 3

- 45 -
Notons ces cinq courants de maille i1, i2, i3, i4 et i5, comptés positivement dans le sens
trigonométrique. Le courant réel I12 par exemple est égal à – i2 – i5. Le courant I37 est égal à i4 – i3,
etc... Les cinq équations à écrire sont les lois des mailles le long précisément des cinq cycles
indépendants choisis, exprimés en fonction des courants de maille :
E
U12 + U26 – U56 – U15 = 0 ⇔ – 4i2 – i5 – + i3 + i1 = 0
R
U23 + U37 – U67 – U26 = 0 ⇔ – 4i3 – i5 + i4 + i2 = 0
U34 + U48 – U78 – U37 = 0 ⇔ – 4i4 – i5 + i1 + i3 = 0
U15 + U58 – U48 – U14 = 0 ⇔ – 4i1 + i2 + i4 – i5 = 0
E
U12 + U23 + U34 – U14 = 0 ⇔ – i2 – 4i5 – – i3 – i4 – i1 = 0
R
Le système conduit à la solution :
E E E E E
i1 = , i2 = – , i3 = , i4 = , i5 = –
24R 6R 24R 12R 4R
On en déduit alors toutes les autres intensités, par exemple :
5E
I12 = – i2 – i5 =
12R
E
I37 = i4 – i3 =
24R

Annexe III : Trigonalisation des matrices (Complément de cours MP/MP*)


a) Polynômes premiers entre eux et identité de Bezout
Voici un nouvel exemple d'idéal.
K K
Soient P et Q deux polynômes et considérons I = {AP + BQ | A ∈ [X], B ∈ [X]}. Là aussi, les
propriétés i) d'un idéal sont vérifiées. I s'appelle idéal engendré par P et Q. Mais étant un idéal, il est
en fait engendré par un seul polynôme D, élément de I de degré minimal. Ainsi :
I = {AP + BQ | A ∈ K[X], B ∈ K[X]} = {QD | Q ∈ K[X]}
Mais quel rapport entre P, Q et D ?
• D étant élément de I est lui-même de la forme D = AP + BQ.
• Inversement, P et Q étant eux-mêmes des éléments de I sont des multiples de D. D est un
polynôme diviseur commun de P et Q.
• Montrons qu'il s'agit du plus grand diviseur commun. Soit U un autre polynôme diviseur commun
de P et Q. Cela signifie que P et Q vont se factoriser par U, P = UP0 et Q = UQ0 et qu'il en est de
même de D = AP + BQ = (AP0 + BQ0)U. Ainsi, tout diviseur commun de P et Q divise D. D est
le PGCD de P et Q.

EXEMPLE : P = (X–2)2(X–1) et Q = (X+3)(X–2)(X–1). Le PGCD de P et Q est D = (X–2)(X–1).


Il existe A et B tel que :
D = AP + BQ
⇔ (X–2)(X–1) = (X–2)2(X–1)A + (X+3)(X–2)(X–1)B
⇔ 1 = (X–2)A + (X+3)B
1 1
Il suffit de prendre A = – et B =
5 5

- 46 -
Deux polynômes P et Q sont premiers entre eux si leur PGCD D vaut 1. On note P ∧ Q = 1. Il existe
alors A et B tels que AP + BQ = 1 (identité de Bézout). Inversement, deux polynômes P et Q
vérifiant cette relation sont premiers entre eux, puisque leur PGCD D devra diviser 1 = AP + BQ
donc être égal à 1.

Voici un exemple d'utilisation de l'identité de Bezout, le théorème de Gauss :


Si R divise PQ et si R ∧ P = 1 alors R | Q
En effet, il existe A et B tels que 1 = AR + BP ⇒ Q = RAQ + BPQ mais PQ se factorise par R, par
exemple PQ = RS. Donc Q = R(AQ + BS) et R divise Q.

b) Théorème de décomposition des noyaux


Revenons à nos sous-espaces stables. Nous avons vu que, pour tout polynôme P, Ker P(u) est stable
par u. Si P se factorise sous la forme P = P1P2 avec P1 et P2 premiers entre eux, nous allons montrer
que Ker P(u) = Ker P1(u) ⊕ Ker P2(u). On utilise pour cela l'identité de Bézout. Il existe A et B tels
que 1 = AP1 + BP2. Il est aisé de vérifier que Ker P1(u) et Ker P2(u) sont inclus dans Ker P(u).
• La somme est directe :
Si x est élément de Ker P1(u) ∩ Ker P2(u). L'identité de Bézout, appliquée à u donne :
Id = (AP1)(u) + (BP2)(u) = A(u) o P1(u) + B(u) o P2(u)
Puis appliquée à x, on obtient :
x = A(u)(P1(u)(x)) + B(u)(P2(u)(x)) = 0 car P1(u)(x) = P2(u)(x) = 0
• La somme vaut Ker P(u).
Soit x élément de Ker P(u). L'égalité Id = A(u) o P1(u) + B(u) o P2(u) donne cette fois :
x = A(u)(P1(u)(x)) + B(u)(P2(u)(x))
avec A(u)(P1(u)(x)) élément de Ker P2(u) et B(u)(P2(u)(x)) élément de Ker P1(u). En effet :
P2(u)(A(u)(P1(u)(x))) = A(u)((P1P2)(u)(x)) = A(u)(P(u)(x)) = 0 car P(u)(x) = 0

Ce théorème est particulièrement intéressant lorsqu'on l'applique à un polynôme annulateur de u


puisque Ker P(u) donne alors E tout entier.

EXEMPLE 1 : M =  3 1  associé à u dans la base canonique de 2.



5 –1

K
Soit P = X2 – 6X + 8 = (X – 2)(X – 4).
Ker P(u) = E
Ker (u – 2Id) est la droite engendrée par  3 
1

Ker (u – 4Id) est la droite engendrée par  1 


1
 
Les deux sous-espaces sont en somme directe. Dans la base  3  1 , la matrice de u est  0 4 .
1 1 20

 –7 3 –2 
EXEMPLE 2 : M =  –13 6 –3  et P = X3 – 4X2 + 5X – 2 = (X – 2)(X – 1)2.
 14 –5 5 
Ker P(u) = E
x
Ker (u – 2Id) est l'ensemble des  y  vérifiant :
z

- 47 -
 – 9x + 3y – 2z = 0  z = – 3x
 – 13x + 4y – 3z = 0 ⇔  x = y
 14x – 5y + 3z = 0 

 1   1   1 
Il s'agit de la droite engendrée par  1 . On a M 1  = 2 1 
 –3   –3   –3 
1 0
Ker (u – Id) est le plan d'équation –3x + y – z = 0, de base  3   1 . On a :
2

0 1
1  2  1 0
M 3  =  5  = 2 3  –  1 
 0   –1  0 1
0 1
M 1  =  3 
1 0
 1  1   0  2 0 0
La matrice de u dans la base  1  3   1  est  0 2 1 .
 –3  0   1   0 –1 0 

Le théorème de décomposition s'étend de proche en proche au produit P = P1P2...Pk de polynômes


premiers entre eux deux à deux. En effet :
Ker P(u) = Ker P1(u) ⊕ Ker P2...Pk(u)
= Ker P1(u) ⊕ Ker P2(u) ⊕ KerP3...Pk(u)
= ...
= Ker P1(u) ⊕ Ker P2(u) ⊕ ... ⊕ Ker Pk(u)
Le raisonnement repose sur le fait que P1 ∧ P2...Pk = 1. Cela résulte du fait que les identités de
Bezout donnent respectivement :
P1 ∧ P2 = 1 ⇒ ∃ A2 et B2, B2P2 = 1 – A2P1
P1 ∧ P3 = 1 ⇒ ∃ A3 et B3, B3P3 = 1 – A3P1
...
P1 ∧ Pk = 1 ⇒ ∃ Ak et Bk, BkPk = 1 – AkP1
⇒ B2...BkP2...Pk = (1 – A2P1)...(1 – AkP1) de la forme 1 – AP1 en développant
⇒ P1 ∧ P2...Pk = 1

c) Décomposition de E en sous-espaces stables


Ainsi, la méthode pour décomposer E en sous-espaces stables est la suivante :
i) Déterminer un polynôme P annulateur de l'endomorphisme u, par exemple en calculant
P(X) = det(u – XI) (théorème de Cayley-Hamilton, admis)
ii) Factoriser ce polynôme en produit de facteurs irréductibles distincts R1, ..., Rm de sorte
p p p
que P = R1 1 × R2 2 × ... Rm m
p p p
iii) Poser P1 = R1 1, P2 = R2 2, ... Pm = Rm m. Les Pi sont premiers entre eux deux à deux, et
E = Ker P(u) = Ker P1(u)P2(u)... Pm(u) de sorte que E = E1 ⊕ ... ⊕ Em avec Ei = Ker Pi(u).

Cette méthode échoue si m = 1, autrement dit si P est puissance d'un facteur irréductible. C'est par
exemple le cas des endomorphismes nilpotents, pour lesquels il existe une puissance p telle que
up = 0.

d) Diagonalisation
- 48 -
Nous donnons un premier résultat sur la diagonalisation. S'il existe un polynôme annulateur de u
scindé à racines simples, P = (X – λ1)...(X – λk), alors u est diagonalisable. En effet, la méthode
précédente conduit à :
E = Ker (u – λ1I) ⊕ Ker (u – λ2I) ⊕ ... ⊕ Ker (u – λmI)
et si on prend une base de chacun de ces sous-espaces vectoriels, alors la matrice de u sera de la
 ΛO1 ΛO ... O

forme
 2 ... O 
où les Λk sont des blocs ayant des λk sur la diagonale.
 ... ... 
 O ... O Λm 
e) Cas des endomorphismes nilpotents
Un endomorphisme nilpotent v vérifie vp = 0 pour une certaine puissance de p. Un polynôme
annulateur est donc Xp. La méthode du c) ne permet donc pas de décomposer E en somme directe de
sous-espaces vectoriels stables. Cependant, il existe une suite croissante de sous-espaces vectoriels
stables. Soit p la plus petite puissance de v qui s'annule. On vérifiera facilement que :
{0} ⊂ Ker v ⊂ Ker v2 ⊂ ... ⊂ Ker vp = E
En fait, les inclusions précédentes sont strictes. En effet, si jamais on a :
Ker vk = Ker vk+1 avec k < p
alors, x ∈ Ker vk+2 ⇒ vk+2(x) = 0 ⇒ vk+1(v(x)) = 0 ⇒ v(x) ∈ Ker vk+1 ⇒ v(x) ∈ Ker vk ⇒ vk+1(x) = 0
⇒ x ∈ Ker vk+1 donc Ker vk+2 = Ker vk+1 et par récurrence = Ker vp, ce qui contredit la définition de
p.

On prend alors une base de Ker v, complétée en une base de Ker v2, ... complétée en une base de
Ker vp. Du fait que, si x appartient à Ker vk, son image appartient à Ker vk–1, on obtient donc une
matrice par blocs ayant la forme suivante :
 OO AO ...B ... 
 ... ... 
 O ... O C 
 O O ... O 
Inversement, on vérifie facilement que toute matrice de cette forme est nilpotente.

f) Trigonalisation
Supposons qu'un polynôme annulateur de u (par exemple son polynôme caractéristique) soit scindé,
p
∏ (X – λi) i, où les λi sont distincts.
k
mais pas à racines simples, c'est-à-dire de la forme P(X) =
i=1
ki
Posons Pi = (X – λi) et Ei = Ker Pi(u). Les Pi étant premiers entre eux deux et le produit des Pi
s'annulant sur E, on en déduit que E est la somme directe des Ei, comme vu dans le b).
k
Si on se restreint à l'un de ces sous–espaces Ei, v = u – λiId vérifie v i = 0, donc v est nilpotent. Or
nous avons vu dans le e) qu'il existe une base de Ei dans laquelle la matrice de v est triangulaire
supérieure, avec des 0 sur la diagonale. Il en résulte que la matrice de u restreinte à Ei, est
triangulaire supérieure avec des λi sur la diagonale. Quand on regroupe les bases des divers Ei pour
obtenir une base de E, on obtient une base dans laquelle la matrice de u est triangulaire supérieure.

Ainsi, tout endomorphisme ayant un polynôme annulateur scindé est trigonalisable.

- 49 -
C'est en particulier le cas de tout endomorphisme lorsque le corps de base est C, puisque tout
polynôme sur C est scindé (Théorème de d'Alembert)

Annexe IV : Le théorème de Cayley-Hamilton


Nous donnons dans cette annexe deux démonstrations du théorème de Cayley-Hamilton :
Si Πu(X) = det(u – XId) désigne le polynôme caractéristique de u, alors Πu(u) = 0.

a b
Ce théorème est facile à vérifier en dimension 2. En effet, si A =  c d  est la matrice de u, alors :
 
 a–X b 
Πu(X) =  c d–X  = X2 – (a+d)X + ad – bc
 
Il est alors facile de vérifier que A2 – (a+d)A + (ad–bc)I = 0.

Le cas général est plus délicat. Il convient d'abord de prendre conscience que, si on définit le
polynôme Π(X) = det(A – XI), il est incorrect de dire que :
Π(A) = det(A – AI) = det(A – A) = det(0) = 0
ne serait-ce que parce que le résultat final 0 est le scalaire 0, alors que le membre de gauche Π(A) est
une matrice. Mais il y a une erreur plus profonde. Dans det(A – XI), le produit de X par I est un
 X0 X0 ...
... 0 
0
K
produit externe de la matrice I par l'élément X de [X]. Il représente donc la matrice  ... ... .
 0 ... 0 X 
Remplacer X par A ne revient donc absolument pas à calculer AI qui est un produit interne de deux
matrices de M (K). Le remplacement de X par A dans XI pourrait à la rigueur s'interpréter comme
n

 A0 A0 ...
... 0 
0
définissant une matrice par blocs  ... ... , mais cette dernière matrice est un élément de
 0 ... 0 A 
M (K) et non de M (K). Comment alors la retrancher de la matrice A = (a ) qui, elle, est dans
M (K) ? On peut enfin remarquer que A et A ont le même polynôme caractéristique (car le
n2 n ij
t
n

déterminant est le même pour une matrice et sa transposée) et donc qu'on a aussi bien Π(A) = 0 que
Π(tA) = 0. Or si on calcule Π(tA) en remplaçant de façon erronée X par tA dans det(A – XI), on
obtient non pas Π(tA) = 0, mais det(A – tA) qui est non nul en général.

Dans tous les cas, ces tentatives ne traduisent pas ce que veut dire le théorème de Cayley-Hamilton.
Celui-ci énonce que l'on calcule d'abord le déterminant det(A – XI), puis, ayant obtenu une
expression polynomiale, que l'on remplace X par A. Le calcul matriciel que l'on effectue alors
conduit à la matrice nulle.

Démonstration 1 :
Soit A la matrice de u. Considérons la matrice B(X) = A – XI, à coefficients polynomiaux ou même,
K
si on le souhaite à coefficients dans le corps (X) des fractions rationnelles. Considérons également
la transposée de la comatrice de A–XI, que nous appellerons C(X), de sorte que B(X)C(X) =
det(B(X))I, où det(B(X)) n'est autre que Πu(X). Rappelons que les coefficients de C(X) étant formés
à partir de sous–déterminants n–1 × n–1 de B(X), ces coefficients sont donc des polynômes en X.
Ainsi :

- 50 -
B(X)C(X) = Πu(X)I
Lorsque l'on calcule chaque terme de la matrice produit, on peut regrouper dans C(X) les termes
constants, puis les termes en X, etc..., ce qui revient à écrire C(X) sous forme de combinaison
linéaire de matrices Ci :
C(X) = C0 + XC1 + ... + Xn–1Cn–1
On a alors :
Πu(X)I = (A–XI)(C0 + XC1 + ... + Xn–1Cn–1)
= AC0 + X(AC1–C0) + ... + Xn–1(ACn–1–Cn–2) – XnCn–1

Justifions maintenant le résultat suivant :


Si T0 + XT1 + ... + XnTn = U0 + XU1 + ... + XnUn, où les Ti et les Ui sont des matrices carrés, alors
pour tout i, Ti = Ui. En effet, l'égalité précédente implique l'égalité formelle des polynômes
constituant les termes (i,j) de chacun des deux membres. Les coefficients de ces polynômes sont
donc égaux, ce qui signifie que T0 = U0, ... Tn = Un.
Supposons que Πu(X) = a0 + a1X + ... + anXn. On a donc, d'après l'identification ci-dessus entre les
coefficients de Πu(X)I et ceux du second membre :
a0I = AC0
a1I = AC1 – C0
...
an–1I = ACn–1–Cn–2
anI = – Cn–1
Si on multiplie a1I par A, a2I par A2, ..., anI par An et si on ajoute membre à membre, on obtient :
a0I + a1A + ... + anAn = 0
ce qui est le résultat cherché

Démonstration 2 :
Il existe un polynôme annulateur de A. En effet, M (R) est de dimension n , donc (I, A, A , ..., A )
n
2 2 n2

n2
est une famille liée. La relation de liaison, de la forme ∑ ai Ai = 0 donne comme polynôme
k=0

n2
annulateur de A le polynôme ∑ ai Xi. Ce polynôme étant scindé sur C, nous avons montré dans
k=0

l'annexe III que la matrice A est semblable à une matrice triangulaire complexe, c'est à dire qu'il
existe une matrice inversible P complexe et une matrice triangulaire complexe T telle que M = PTP–1.
On a :
 TO1 TO2 ...
... O 
O
T =  ... ... 
 O ... O Tm 
 λ0i λ* ... *

avec Ti de la forme
 i ... * 
, matrice d'ordre ki. Le polynôme caractéristique de T, et donc de
 ... ... 
 0 ... 0 λi 
k1 k k
A, est (X – λ1) (X – λ2) 2...(X – λm) m. Il s'agit donc de montrer que :
k k k
(A – λ1I) 1(A – λ2I) 2...(A – λmI) m = 0
k k k
⇔ P(T – λ1I) 1(T – λ2I) 2...(T – λmI) mP–1 = 0
- 51 -
k k k
⇔ (T – λ1I) 1(T – λ2I) 2...(T – λmI) m = 0.

... * 
 00 *0 ... *
Or Ti – λiI =  ... ...  est une matrice nilpotente, chaque puissance décalant le triangle
 0 ... 0 0 
k
supérieur d'un rang. Il en résulte que (Ti – λiI) i = O. On en déduit que :

 O O ... O

 
k1
k1 O (T2 – λ1I) ... O
(T – λ1I) est de la forme ...
 ... 
 O ... O (Tm – λ1I)k1 
 
k
(T1 – λ2I) 2 O ... O
k2
(T – λ2I) est de la forme
 O O ... O 
 ... ... 
 O ... O (Tm – λ2I)k2 
...
 (T1 – λmI) ... O 
km
O
km
(T – λmI) est de la forme
 O (T2 – λmI) ... O 
km

 ... ... 
 O ... O O
Quand on multiplie ces matrices, on obtient la matrice nulle.

 8 0 9 
EXEMPLE : Pour M =  –3 –1 –3 , le polynôme caractéristique vaut – (X–2)(X+1)2. On vérifiera
 –6 0 –7 
2
que (M – 2I)(M + I) = 0.

- 52 -

Vous aimerez peut-être aussi