0% ont trouvé ce document utile (0 vote)
66 vues29 pages

Algèbre Bac1

Ce document est un support de cours d'algèbre linéaire destiné aux étudiants de Bac I, rédigé par le Prof. Dr J. Navez. Il couvre des concepts fondamentaux tels que les vecteurs, les opérateurs linéaires, les matrices, les valeurs propres, et la diagonalisation, tout en s'inspirant d'ouvrages académiques. Les notes soulignent l'importance de l'assistance aux cours et fournissent des références pour des explications plus détaillées.

Transféré par

Jonathan Okonda
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
66 vues29 pages

Algèbre Bac1

Ce document est un support de cours d'algèbre linéaire destiné aux étudiants de Bac I, rédigé par le Prof. Dr J. Navez. Il couvre des concepts fondamentaux tels que les vecteurs, les opérateurs linéaires, les matrices, les valeurs propres, et la diagonalisation, tout en s'inspirant d'ouvrages académiques. Les notes soulignent l'importance de l'assistance aux cours et fournissent des références pour des explications plus détaillées.

Transféré par

Jonathan Okonda
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

2018-

2019
Université MAPON

Prof. Dr J. NAVEZ

ALGÈBRE
Bac I
Avertissement
Ces notes ne remplacent pas l’exposé oral ; elles ne contiennent pas les explications
détaillées et les démonstrations ne sont souvent qu’esquissées ; certains paragraphes ne
sont là que par souci de généralité, ils ne sont pas vus au cours.

Ce texte est conçu pour servir de support à l’étude, l’assistance au cours est indispensable.

Les chapitres s’inspirent du livre de Calcul Matriciel de HG Garnir publié à l’Université de


Liège et du cours d’Algèbre Linéaire de M. Rigo à l’Université de Liège. Dans ces ouvrages,
le lecteur pourra trouver de plus amples explications, de nombreux exercices d’application
ainsi qu’une bibliographie complète.

Jacques NAVEZ.

Table des matières


Chapitre I. Vecteurs..................................................................................................................2
Chapitre II. Opérateurs linéaires.............................................................................................12
Chapitre III. Matrices particulières..........................................................................................16
Chapitre IV. Valeurs et vecteurs propres................................................................................18
Chapitre V. Diagonalisation des matrices...............................................................................24
Chapitre VI. Formes quadratiques..........................................................................................27

Algèbre 1 Prof. J. NAVEZ


Chapitre I. Vecteurs
_________________________________________

1. Définitions générales
Jusqu’à présent nous avons travaillé dans un espace vectoriel réel, mais rien
n’empêche de généraliser la définition à la fois pour les besoins de la géométrie et
aussi parce qu’en calcul matriciel on utilise des espaces vectoriels complexes.
Espace vectoriel
Soit K, un champ fixé une fois pour toutes (dans la pratique, ce sera R ou C) dont
les éléments sont notés α, β, ϒ, …, et sont appelés scalaires. L’élément neutre et
l’élément identité de K sont notés 0 et 1. Soit V un ensemble d’éléments notés x, y,
z, …qui seront appelés « vecteurs ».
Définition
L’ensemble V possède une structure d’espace vectoriel si on le munit de 2 lois :
i. une loi de composition interne, notée +, faisant de V un groupe commutatif ;
ii. une loi de composition externe, à tout x ϵ V et à tout λ ϵ K, on associe λx ϵ V,
qui vérifie l’associativité mixte, la double distributivité et qui possède le réel 1
comme élément unité.

Remarques
- puisque (V, +) est un groupe, il existe un neutre unique pour l’addition qui sera
appelé vecteur nul et que l’on note 0 : x + 0 = 0 + x = x, pour tout x de V.
- le symétrique de x pour la première loi est noté –x, il est égal aussi à (-1) x ;.

Combinaison linéaire d’éléments de V


Un élément u de V est dit combinaison linéaire d’autres éléments de V s’il
s’obtient à partir de sommes de multiplications par des scalaires de ces éléments
de V.
u=λx+ μy +… +νz ; λ , μ , … , νϵK ; x , y , … , zϵV

Vecteurs linéairement indépendants


Des éléments x1, x2, …, xp de V sont dits linéairement indépendants si

λ 1 x 1+ λ2 x2 +…+ λ p x p=0❑ λ1= λ2=…=λ p=0 Partie génératrice
Un sous-ensemble {x1, x2, …, xp} de V est une partie génératrice de V si tout
élément u de V peut s’écrire : u=λ1 x1 + λ 2 x 2 +…+ λ p x p ; λi ϵK

Base
Une base de V est une partie génératrice composée d’éléments linéairement
indépendants.

Algèbre 2 Prof. J. NAVEZ


Théorème : si {x1, x2, …, xp} est une base de V et si u est un élément quelconque de
p
V, alors on peut écrire de manière unique : u=∑ λi x i
i=1

p
En effet, supposons que l’on puisse aussi écrire u=∑ μi x i alors en retranchant,
i=1
p
on obtient : ∑ ( λi−μi ) x i=0 ce qui implique λ i=μi car les xi sont linéairement
i=1

indépendants.

Dimension
Lorsqu’une base se compose d’un nombre fini d’éléments, la dimension de V est
le nombre de vecteurs de cette base (on dit qu’il s’agit d’un espace vectoriel de
dimension finie).
La cohérence de cette définition est assurée par le théorème suivant :
Théorème : dans un espace vectoriel de dimension finie, toutes les bases ont le
même nombre de vecteurs.

Composantes
Si {e1, e2, …, ep} est une base, nous savons maintenant que tout vecteur u ϵ V
p
s’écrit de manière uniqueu=∑ λi e . Les nombres λ1, …, λp sont appelés
i=1

composantes de u dans la base {e1, e2, …, ep}.

Exemples
Il y a de nombreux exemples : nous connaissons déjà l’espace vectoriel réel, mais
il y a aussi les vecteurs liés à l’origine dans le plan, les vecteurs libres du plan… et
bien d’autres.

2. Sous-espaces vectoriels
Par définition, un sous-espace vectoriel est une partie d’un espace vectoriel qui
est elle-même un espace vectoriel.
Le théorème suivant permet de simplifier les choses :
Soit V un espace vectoriel, le sous ensemble W ᴄ V est un sous-espace vectoriel si
et seulement si les propositions suivantes sont satisfaites :
i. 0 ϵ W
ii. Si x, y ϵ W alors x + y ϵ W
iii. Si x ϵ W et λ ϵ K alors λx ϵ W.
On peut aussi dire que si W est un sous-espace vectoriel de V, alors W muni des
opérations induites par celles de V est un sous espace vectoriel.
Exemple : dans Rn, l’ensemble des vecteurs qui vérifient : a1x1+ … + anxn = 0

Algèbre 3 Prof. J. NAVEZ


forment un sous vectoriel de Rn que l’on appelle hyperplan vectoriel.

3. Produit scalaire
Un produit scalaire dans V est une forme bilinéaire, symétrique et définie positive
sur V.
- Une forme bilinéaire est une application de V x V dans R : ( x , y ) → B ( x , y ) telle
que
i. ∀ x , y , z ∈V , ∀ λϵR , B ( x + y , z )=B ( x , z )+ B ( y , z ) ; B ( λx , y )=λB (x , y ) : linéarité sur
le 1er argument
ii. ∀ x , y , z ∈V , ∀ λϵR , B ( x , y + z )=B ( x , y ) +B ( x , z ) ; B ( x , λy )=λB( x , y ) : linéarité
sur le 2e argument
- une forme est symétrique si ∀ x , y ∈V , B ( x , y )=B ( y , x )
- une forme est définie positive si ∀ x ∈ V , B(x , x )≥ 0 et si B ( x , x )=0 ⟺ x=0 .

Espace vectoriel euclidien


C’est un espace vectoriel réel muni d’un produit scalaire.
n
Exemple : nous savons que Rn muni du produit scalaire naturel : x . y =∑ x i y i est
i=1

un espace vectoriel euclidien.

4. L’espace vectoriel Cn
Nous allons introduire un nouvel espace vectoriel qui va compléter Rn grâce à la
considération des nombres complexes.
On définit C de manière ensembliste par Cn = C x C x … x C (n fois), c’est donc
n

l’ensemble des n-uples ordonnés (z1, z2, …, zn), zi ϵ C et on représente plus

()
z1
volontiers ces n-uples par une matrice colonne Z= ….
zn
- On munit Cn d’une loi de composition interne notée + et définie par :

( )( )( )
z1 w 1 z 1 + w1
… + … = … on vérifie aisément que cette loi permet de doter Cn d’une
zn w n z n + wn
structure de groupe commutatif.
- On munit C d’une loi de composition externe définie par
n

()( )
z1 λz1
λ … = … λ ϵ C.
zn λ zn
On vérifie que cette loi bénéficie de l’associativité mixte, de la double
distributivité et d’un élément unité qui est 1.
C est ainsi muni d’une structure d’espace vectoriel sur le champ C.
n

Algèbre 4 Prof. J. NAVEZ


()
0
Comme d’habitude, on note 0= … l’élément neutre pour la première loi et
0

( )( )
z1 −z 1
− … = … l’opposé d’un élément.
zn −z n
Vecteurs linéairement dépendants ou indépendants
Des vecteurs v1, …, vp sont dits linéairement dépendants s’il existe un système de
p
scalaires λ1, …, λp non tous nuls tels que ∑ λi v i=0 .
i=1

Ils sont dits linéairement indépendants s’il n’existe aucun semblable système de
p
scalaires, c’est-à-dire que si ∑ λi v i=0 cela implique que tous les λi sont nuls.
i=1

Partie génératrice
Un sous-ensemble {x1, x2, …, xp} de Cn est une partie génératrice de V si tout
élément u de V peut s’écrire : u=λ1 x1 + λ 2 x 2 +…+ λ p x p ; λi ϵC
Une base est une partie génératrice formée de vecteurs linéairement
indépendants.
Base et dimension
Raisonnons sur C³ pour expliciter le sujet : {(1,0,0), (0,1,0), (0,0,1)} est une base
de C³ car tout vecteur z peut s’écrire z = z1(1,0,0) + z2(0,1,0) + z3(0,0,1) et ces 3
vecteurs sont visiblement indépendants. Donc l’espace vectoriel C³ construit sur
le champ C est de dimension 3.
Mais C³ est aussi un espace vectoriel réel construit sur le champ R comme on
peut facilement s’en rendre compte. Alors une base de C³ est plutôt :
{(1,0,0), (i,0,0), (0,1,0), (0,i,0), (0,0,1), (0,0,i)} car tout vecteur de C³ peut s’écrire
z = Rz1(1,0,0) + Rz2(0,1,0) + Rz3(0,0,1) + Iz1(i,0,0) + Iz2(0,i,0) + Iz3(0,0,i) et ces
vecteurs sont linéairement indépendants.
Donc l’espace vectoriel C³ construit sur le champ R est de dimension 6.

Produit scalaire
On introduit dans Cn le produit scalaire suivant :

()
z1 n
⟨ z , w ⟩=W ¿ Z =( w 1 … wn ) … =∑ z i wi
i=1
zn
Il vérifie les conditions :
i. (pseudo)bilinéarité
n n n
⟨ ( λz+ μw ) , v ⟩ =∑ ( λ z i + μ w i ) v i=∑ λ z i v i + ∑ μ w i v i=λ ⟨ z , v ⟩+ μ ⟨ w , v ⟩ de même :
i=1 i=1 i=1

⟨ v , ( λz+ μw ) ⟩ =λ ⟨ v , z ⟩ + μ ⟨ v , w ⟩ ii. (pseudo)symétrie


n n n n
⟨ z . w ⟩=∑ z i w i=∑ ( R z i+iI z i ) ( R w i−iI wi ) =∑ (R z i R ¿ w i+ I zi I wi)+i ( R wi I z i−R z i I wi ) =∑ ¿ ¿ ¿ ¿
i=1 i=1 i=1 i=1

Algèbre 5 Prof. J. NAVEZ


iii. défini positif
n n
⟨ z . z ⟩=∑ z i z i=∑ |z i|² ≥ 0
i =1 i=1

Et ne s’annule que si tous les zi sont nuls soit si z = 0.


Ces propriétés sont fort différentes de celles du produit scalaire dans un espace
vectoriel réel.
La terminologie exacte est qu’il s’agit ici d’une forme bilinéaire gauche
hermitienne définie positive.
Retenons le mot « hermitienne » que l’on rencontrera encore dans le calcul
matriciel.
Propriétés avec les vecteurs de la base naturelle {e1, …, en} :
⟨ z , e k ⟩ = zk
⟨ e j , e k ⟩= δjk

5. Module d’un vecteur de Cn


On définit le module d’un vecteur de Cn comme dans Rn :

√∑ | |
n
|z|=√ ⟨ z , z ⟩ =
2
z i et on dit qu’un vecteur de Cn est normé si son module vaut 1.
i=1

Propriétés du module :
a) |λz|=|λ|| z|
b) |⟨ z , w ⟩|≤|z||w| (Inégalité de CAUCHY-SCHWARTZ)
Cela provient du fait que quel que soit le scalaire complexe λ,
n n
|z + λw| ²= ⟨ z+ λw , z + λw ⟩=∑ ( z i+ λ wi ) ( z i + λ w i )=∑ | zi|²+ λ ( z i wi ) + λ ( wi zi ) +| λ|²|wi|²=|z|²+ λ ⟨ w , z ⟩ + λ
i=1 i=1

Prenons λ=μ ⟨ w , z ⟩ avec μ réel


|z|²+2 μ|⟨ z , w ⟩|²+ μ ²|⟨ z , w ⟩|²|w|² ≥ 0puisque le trinôme ne change pas de signe :
4
|⟨ z , w ⟩| ≤|z|²|w|²|⟨ z , w ⟩|² ce qui entraîne l’inégalité.
c) |z +w|≤|z|+|w| (Inégalité de MINKOWSKI)
Cela provient de :
n
|z +w|²= ⟨ z +w , z +w ⟩=| z|² +∑ (z i ¿ w i+ wi z i)+|w|²=|z|²+2 R ⟨ z , w ⟩+|w| ² ≤|z| +2|⟨ z , w ⟩|+|w|² ≤|z| +2|z
2 2

i=1

d) ||z|−|w||≤| z−w| (Inégalité triangulaire)


qui se démontre comme pour les nombres complexes.

6. Orthogonalité
On dit que deux vecteurs non nuls de Cn sont orthogonaux si leur produit
scalaire est nul : ⟨ z , w ⟩=0
On dit que des vecteurs de Cn sont orthonormés s’ils sont normés et s’ils sont
orthogonaux 2 à 2.
Un théorème important fait intervenir les vecteurs orthonormés :

Algèbre 6 Prof. J. NAVEZ


Soit p vecteurs linéairement indépendants v1, …, vp, il existe p vecteurs
combinaisons linéaires de ceux-ci qui sont orthogonaux deux à deux et normés
(processus d’orthonormation de GRAM-SCHMIDT).

7. Changement de base dans un espace vectoriel


Soit B = {e1, …, en} et B’ = {e’1, … , e’n} deux bases d’un même espace vectoriel de
dimension n.
On suppose que l’on connaît les nouveaux vecteurs de base par rapport aux
anciens :

{ () ()
' '
e 1=a11 e 1+ a21 e2 +…+ an 1 en e1
e1
' '
e =a12 e1 +a22 e 2+ …+an 2 e n e =~
P e 2 avec
2
ce qu’on peut écrire 2
… … …
'
e n=a1 n e 1+ a2 n e2 +…+ ann en '
e3 en

( )
a11 a12 … a1 n
a a22 … a2 n
P= 21
… … …

a n 1 a n2 a nn
la matrice P s’appelle matrice de passage.
Les colonnes de la matrice de passage sont les composantes de la nouvelle base
par rapport à l’ancienne.
Considérons un vecteur x=x '1 e'1 + x '2 e '2 +…+ x 'n e 'n , on remplace les e’i par leurs
valeurs et finalement, on trouve

()( )( )
'
x1 a 11 a12 … a1 n x1
'
x2 = a 21 a22 … a2 n x2
que l’on peut encore écrire X = PX’
… … … … …

xn an 1 a n 2 ann x 'n
Cette matrice P est inversible car elle est fabriquée à partir de vecteurs
linéairement indépendants, on peut donc inverser la formule en X’ = P-1X

8. L’espace vectoriel Rn
On appelle point de Rn, un ensemble ordonné de n nombres réels. On écrit
x = (x1, …, xn) et Rn est l’ensemble de ces n-uples ordonnés. Avec des notations
ensemblistes, on peut aussi écrire : Rn = R x R x … x R (n fois).
Deux points de Rn, x = (x1, …, xn) et y = (y1, … , yn) sont égaux si xi = yi ; i = 1, …, n.
Addition
La somme de 2 points x = (x1, …, xn) et y = (y1, …, yn) de Rn est le nouveau point
défini par x + y = (x1 + y1, …, xn + yn).
i. C’est une loi de composition interne car ∀ x , y ∈ Rn , on associe x + y ϵ Rn.
ii. Cette loi est associative (x + y) + z = x +(y + z) qui vaut dans les 2 cas (x1+y1+z1,
…, xn+yn+zn).
iii. Elle est commutative : x + y = y + x car (x1+y1, …, xn+yn) = (y1+x1, …, yn+xn).

Algèbre 7 Prof. J. NAVEZ


iv. Elle possède l’élément neutre 0 = (0, …, 0) car x + 0 = (x1+0, …, xn+0) =
(x1, …,xn) = x
v. Tout élément possède un symétrique : (-x1, …, -xn) est le symétrique de
(x1, …, xn) et est noté –x.
Multiplication par un scalaire
La multiplication d’un point x = (x1, …, xn) de Rn par un scalaire λ ϵ R est le
nouveau point de Rn, noté λx défini par (λx1, …, λxn).
i. C’est une loi de composition externe : ∀ x ∈ R n , ∀ λ ϵ R, on associe λx ϵ Rn.
ii. Elle vérifie l’associativité mixte : λ (μx) = (λμ)x.
iii. Elle est doublement distributive : λ(x + y) = (λx1+λy1, …, λxn+λyn) = λx + λy
(λ + μ)x = (λx1+μx1, …, λxn+μxn) = λx + μx
iv. Elle possède le réel 1 comme élément unité : 1x = x.
Conclusion : Rn muni de ces deux lois de composition est un espace vectoriel réel.
Rn(R) est un sous-espace vectoriel de Cn(R)
Nous pouvons utiliser le critère pour qu’un sous ensemble soit un sous vectoriel :
- 0 ϵ Rn
- si x et y ϵ Rn, et λ et μ ϵ R, alors λx + μy ϵ Rn
la restriction des opérations + et multiplication par un scalaire de Cn à des
vecteurs ayant des composantes réelles est bien l’addition et la multiplication par
un scalaire définies dans Rn.
Théorème 1 : les points e1 = (1, 0, …, 0), e2 = (0, 1, …, 0), …, en = (0, 0,…, 1) forment
une base de Rn.
En effet, e1, e2, …, en sont des éléments linéairement indépendants car
n ⇒
∑ λi ei=0❑ ( λ1 , λ 2 ,… , λ n )=( 0 , 0 , … , 0 ) soit λ i=0 i=1 , … , nDe plus {e1, …, en} est une
i=1

partie génératrice de Rn car pour tout x ϵ Rn,


n
(x1, …, xn) = x1(1, 0, …, 0) + … + xn(0, 0, …, 1) soit x=∑ x i ei .
i=1

La base {e1, …, en} est suffisamment remarquable : on l’appelle base naturelle de


Rn. Les composantes de x dans la base naturelle de Rn sont les xi , on les appelle
composantes naturelles de x ou plus simplement « composantes » de x.
Théorème 2 : la dimension de Rn est n.
n
Définition : aux points x et y de R , on associe le nombre réel : x . y =∑ x i y i
n

i=1
n
i. C’est une forme bilinéaire : ∀ x , y , z ∈ R ∀ λ ϵ R
(x + y).z = x.z + y.z x.(y + z) = x.y + x.z
(λx).y = λ(x.y) x.(λy) = λ(x.y)
n
ii. Elle est positive : x . x=∑ x i ≥ 0
2

i=1
n n
iii. Elle est symétrique : x.y = y.x car ∑ x i y i=∑ y i xi
i=1 i=1

Conclusion : l’opération ainsi définie est un produit scalaire dans Rn que l’on

Algèbre 8 Prof. J. NAVEZ


appelle produit scalaire naturel de Rn ; Rn muni du produit scalaire naturel est un
espace vectoriel euclidien.
Dans R (n=1), le produit scalaire se confond avec le produit ordinaire des
nombres réels car les vecteurs de R n’ont qu’une seule composante.
Dans R² (n=2), le produit scalaire est différent du produit introduit dans C que
l’on assimile parfois à R² au sein du plan dit de GAUSS.
En effet, si on admet que les composantes d’un nombre complexe z sont (Rz, Iz),
on a que
z1z2 = (Rz1 + i Iz1)(Rz2 + i Iz2) = (Rz1Rz2 – Iz1Iz2) + i (Rz1Iz2 + Iz1Rz2)
z1.z2 = (Rz1, Iz1).(Rz2, Iz2) = Rz1Rz2 + Iz1Iz2
ce qui donne dans le premier cas un nombre complexe et dans le second un
nombre réel et donc deux résultats complètement différents.
Par contre, le produit scalaire introduit dans Cn admet bien le produit scalaire
naturel comme cas particulier lorsque les vecteurs sont à composantes réelles.
En effet, le produit scalaire défini dans Cn devient :
n
⟨ x , y ⟩ =Y X =~
¿
Y X=∑ x i y i=x . y soit le produit scalaire usuel défini dans Rn.
i=1

Propriétés immédiates
1) ei.ej = δij (symbole de KRONECKER, 1 si i = j et 0 sinon) : la base naturelle est
une base orthonormée.
2) xi = x.ei : les composantes naturelles sont les projections orthogonales sur les
vecteurs de base.
Module d’un point de Rn
n
Par définition |x|=√ x . x =∑ x i
2

i=1

Propriétés
i. Cette définition est compatible avec celle du module d’un nombre réel car si n =
1, |x|=√ x 2
Cette définition est aussi compatible avec le module d’un nombre complexe :
|z|=√ z . z =√ RzRz + IzIz=√ ( Rz ) + ( Iz ) ii. |x|=0❑ x=0
2 2 ⇔

iii. Dans R, x ≤|x| et dans C, |Rz|≤|z|et |Iz|≤| z| et donc Rz ≤|z|et Iz ≤| z|iv.


|λx|=|λ|| x| λϵR
v. Inégalité de CAUCHY-SCHWARTZ : |x . y|≤|x|| y|
l’égalité ayant lieu ssi y = αx, α ϵ R ou si x = 0 (et symétriquement pour y).

Pour démontrer l’inégalité si x n’est pas nul et si λ ϵ R :


|λx + y|²=( λx + y ) . ( λx + y ) =λ2 ( x . x )+ 2 λ ( x . y )+ y . y= λ ²|x| ²+2 λ ( x . y ) +| y|² ≥ 0Le
réalisant de ce trinôme du second degré doit donc être négatif ou nul.
( x . y ) ²−|x| ²| y|² ≤ 0ce qui entraîne la thèse car les deux membres sont de même
signe.
L’égalité est visiblement exacte si y = αx ou si x = 0. Inversement si x n’est pas nul

Algèbre 9 Prof. J. NAVEZ


et si l’égalité a lieu, le trinôme considéré doit avoir une racine double μ pour
laquelle
⇒ ⇒
|μx + y|²=0❑ μx + y=0❑ y =−μxdans R, l’égalité est toujours vérifiée car ou bien x
= 0 ou bien y = (y/x)x.
Dans R, on a visiblement que |xy|=|x|| y|
De même dans C, |z 1 z 2|=|z 1||z 2|
car
|z 1 z 2| = ( R z 1 R z 2−I z 1 I z 2 ) ²+ ( R z 1 I z2 + I z 1 R z 2 ) ²=( R z 1 R z 2) ² + ( I z 1 I z2 ) ²+ ( R z 1 I z 2 ) ²+ ( I z 1 R z 2 ) ²=[ ( R
2

vi. Inégalité de MINKOWSKI : |x + y|≤|x|+| y|


2 2 2
En effet |x + y|²=( x+ y ) . ( x + y )=|x|²+ 2 ( x . y ) +| y| ² ≤|x| +2|x|| y|+| y| =(|x|+| y|)
L’égalité a lieu ssi y = αx avec α ≥ 0 ou si x = 0 (et symétriquement).
Dans le cas de nombres complexes, on peut faire la démonstration sans utiliser le
produit scalaire :
2 2
|z 1 + z 2| ²=( z 1 + z 2 )( z 1 + z 2 )=z 1 z1 + z 1 z 2 + z 2 z 1 + z 2 z 2=|z 1|²+2 R ( z 1 z 2 ) +|z 2|² ≤|z 1| +2|z 1 z 2|+|z 2| =(|z 1|+|z 2|)
vii. Inégalité TRIANGULAIRE : ||x|−| y||≤|x− y|
En effet,
|x|−| y|=|( x− y ) + y|−| y|≤|x − y|+| y|−| y|=|x− y|
| y|−|x|=|( y−x ) + x|−|x|≤| y−x|+| x|−|x|=| x− y|L’égalité a lieu ssi y = αx avec α ≥ 0
ou si x = 0 (et symétriquement).
viii. Dans C, |z|≤| Rz|+|Iz| , c’est un corollaire de Minkowski.

9. Compléments sur les vecteurs de R³ : produit vectoriel et produit mixte

() ()
x1 y1
Plaçons-nous dans R³ et considérons deux vecteurs de composantes x 2 et y 2 ,
x3 y3
leur produit scalaire a été défini comme x1y1 + x2y2 + x3y3.
On peut cependant le définir de manière intrinsèque comme
x . y =|x|| y| cos ⁡( x , y )avec| y|cos ⁡(x , y) qui est la projection orthogonale du second
vecteur sur le premier. On peut montrer que ces deux définitions sont
équivalentes.
On introduit alors un nouveau vecteur qui s’appelle le produit vectoriel et qui
est défini de la manière suivante :
x x
(| | | | | |)
x x
( v 1 v 2 v 3 )= 2 3 , − 1 3 ,
y2 y3 y1 y3
x1
y1
x2
y2
=x ∧ y

On peut également le définir de manière intrinsèque en disant que x ∧ y est un


vecteur tel que :
- si x et y sont colinéaires x ∧ y=0
- si x et y ne sont pas colinéaires, la direction de x ∧ y est normale au plan formé
par x et y ; le sens de x ∧ y est tel que x, y, x ∧ y forment un trièdre orienté

Algèbre 10 Prof. J. NAVEZ


positivement (règle du tire-bouchon) ; le module de x ∧ y vaut :
|x ∧ y|=|x|| y| sin ⁡(x , y)
L’angle (x, y) étant inférieur à un angle plat.
On peut montrer que ces deux définitions sont équivalentes.
Enfin, on introduit un nouveau scalaire, appelé produit mixte :

| |
x 1 x2 x 3
( x , y , z )= y 1 y 2 y 3 qui est en fait ( x ∧ y ) . z
z1 z2 z3
Propriétés (à démontrer)
a)
x ∧ y=−( y ∧ x ) ; ( αx+ βy ) ∧ z=α ( x ∧ z ) + β ( y ∧ z ) ; α ( x ∧ y )= ( αx ) ∧ y=x ∧ ( αy )=αx ∧ y
b) x ∧ ( y ∧ z )=( x . z ) y−( x . y ) z
b) (x, y, z) = (z, x, y) = (y, z, x)
Pour mémoire, il existe des définitions géométriques de ces différents produits :
- le module du produit vectoriel est l’aire du parallélogramme construit sur ces
deux vecteurs.
- le module du produit mixte est le volume du parallélépipède construit sur ces
trois vecteurs.

Algèbre 11 Prof. J. NAVEZ


Chapitre II. Opérateurs linéaires
_______________________________________________
1. Définitions
Considérons deux espaces vectoriels V et W construits sur le même champ K.
Comme d’habitude, nous nous limiterons à K = R ou bien K = C.
Une application F de V vers W qui est telle que :
Ɐ λ et μ ϵ K ,Ɐ v1 et v2 ϵV, F (λ v1 + μv2) = λ F(v1) + μ F(v2)
s’appelle une application linéaire.
Le premier + désignant l’addition dans V et le second + l’addition dans W, la
première multiplication scalaire étant dans V et la seconde dans W.
L’application F porte aussi le nom d’opérateur linéaire.
Comme V et W sont en particulier des groupes, on peut encore utiliser un autre
vocabulaire :
- Si V ≠ W, une application linéaire générale s’appelle un homomorphisme, une
application linéaire bijective s’appelle un isomorphisme.
- Si V = W, une application linéaire générale s’appelle un endomorphisme, une
application linéaire bijective s’appelle un automorphisme.
Dans le cas particulier où W = K, on dit que l’application linéaire F : V → K est une
forme linéaire sur V.
L’ensemble des formes linéaires sur V s’appelle espace dual de V et est noté V*.
Pour vérifier que F : V →W est un opérateur linéaire, il suffit de vérifier :
Ɐλ ϵ K et Ɐ v1 et v2 ϵV , F(v1 + v2) = F(v1) + F(v2) et F(λv) = λ F(v)
Notons une propriété importante :
Si F est un opérateur linéaire, F(0) = 0.
En effet F (v – v) = F(v) – F (v)

2. Exemples
a) d’après les règles du calcul matriciel, l’application x → Ax où A est une matrice
de type (m, n) et x un vecteur colonne (n, 1) est une application linéaire.
En effet A (x + y) = Ax + Ay et A(λx) = λAx.
Il suffit pour cela de comparer les composantes des deux membres avec les règles
du calcul vectoriel.
Dans la suite du cours, on va s’intéresser particulièrement à l’effet d’une matrice
carrée de dimension n sur un vecteur colonne à n lignes.
b) Soit a et b des nombres réels, a <b, si C0([a, b]) est l’espace vectoriel des
b

fonctions continues sur [a, b], l’application de C0([a, b]) → R : f → ∫ f ( t ) dt


a

est une forme linéaire sur C0([a, b]). Cela résulte de propriétés vues en Analyse.

Algèbre 12 Prof. J. NAVEZ


c) L’application f : R² → R² : (x, y) → (x+1, y) n’est pas linéaire car f(0,0) = (1, 0)
≠(0,0).
3. Propriétés
L’opérateur nul de V dans W est celui qui à tout vecteur x de V fait correspondre
le vecteur nul de W. On le note 0.
L’opérateur identité de V dans V est celui qui à tout vecteur x de V fait
correspondre le même vecteur x. On le note id.
Ces deux opérateurs sont linéaires.
L’ensemble des opérateurs linéaires de V →W est noté L(V, W) et on peut le
munir d’une structure d’espace vectoriel de la manière suivante :
- on définit la somme de deux opérateurs par (F + G)(x) = F(x) + G(x)
- de même, on définit la multiplication scalaire d’un opérateur par
(λF)(x) = λ F(x).
On vérifie facilement que ces opérateurs sont encore linéaires et que l’on a bien
toutes les propriétés d’un espace vectoriel.
L’espace vectoriel dual V* est lui-même un espace vectoriel
C’est un cas particulier de ce qui précède.
Théorème : Soit V un espace vectoriel de dimension finie, un opérateur linéaire F
est complètement déterminé par les valeurs qu’il attribue à une base de V.
En effet soit v un vecteur de V et {e1, …, en} une base de V, on a :

( )
n n
F ( v )=F ∑ v i e i =∑ v i F(ei ¿ )¿La connaissance des F(ei) permet de déterminer
i=1 i=1

l’image de tous les vecteurs de V.


Reste à montrer qu’elle est complètement déterminée. Soit G une autre
application linéaire telle que G(ei) = F(ei), il s’en suit que F(v) = G(v) pour tout
v ϵ V, cela signifie que F = G.

4. Isomorphismes
Un isomorphisme est une application linéaire bijective.
Théorème : si F est un isomorphisme de V → W, alors la bijection F-1 est un
isomorphisme de W → V.
Il faut démontrer que F-1 est aussi une application linéaire.
Posons F(v) = w et F(v’) = w’, comme F est bijective, on peut aussi écrire
v = F-1(w) et v’ = F-1(w’) et ces vecteurs sont uniques. Dès lors
F(v + v’) = F[F-1(w) + F-1(w’)]= F[F-1(w)] + F[F-1(w’)] = w + w’ d’où
F-1(w + w’) = v + v’ et donc F-1(w + w’) = F-1(w) + F-1(w’)
De même F(λv) = λF(v) = λ F[F-1(w)] = λw donc F-1(λw) = λv = λF-1(w).
Théorème : l’application linéaire F : V → W est un isomorphisme si et seulement
si l’image d’une base de V est une base de W.
CN. Supposons que F soit un isomorphisme, montrons que les vecteurs F(ei) sont

( )
n n
linéairement indépendants : ∑ α i F ( e i )=0 ; F ∑ αi ei =0
i=1 i=1

Algèbre 13 Prof. J. NAVEZ


Vu la bijection 0 = F(0) et par suite tous les αi sont nuls et les F(ei) sont
linéairement indépendants. D’autre part, visiblement les F(ei) forment une partie
n
génératrice de W car w=∑ v i F ( ei ) si v = F-1(w).
i=1

CS. Supposons que {e1, …, en} soit une base de V et {F(e1), …, F(en)} une base de W.
Si deux vecteurs v et v’ sont tels que F(v) = F(v’), alors ils ont les mêmes
n n
composantes dans la base de V car ∑ v i F ( e i) =∑ v i F (e i) alors v i=v i vu le fait que
' '

i=1 i=1

les F(ei) forment une base et v = v’ ; l’application F est donc injective. D’autre part,
n
si w ϵ W, w=∑ wi F ( ei ¿ )¿ car les F(ei) forment une base et il existe au moins un
i=1
n
vecteur v=∑ w i ei dont w est l’image ; F est donc surjective. Finalement F est
i=1

bijective et est un isomorphisme.


Corollaire : deux espaces vectoriels isomorphes sont de même dimension.

5. Image et noyau
Définitions.
Soit F une application linéaire F : V → W.
On appelle image de V par F le sous-ensemble de W = {wϵW :w = F(v), vϵV}. Cet
ensemble est noté Im F et on peut montrer qu’il s’agit d’un sous-vectoriel de W.
La dimension de ce sous-vectoriel est appelée le rang de F et notée rg(F).
On appelle noyau de F le sous ensemble de V = {vϵV :F(v) = 0}. Cet ensemble est
noté Ker F (diminutif de « Kernel ») et on peut montrer qu’il s’agit d’un sous-
vectoriel de V.
Théorème : l’application F est surjective si et seulement si Im F = W.
En effet, tout élément de W est l’image d’au moins un élément de V
Théorème : l’application F est injective si et seulement si Ker F = {0}.
CN. F(v) = 0 implique v = 0 et par conséquent Ker F = {0}.
CS. Si Ker F = {0} et si F(v) = F(v’) alors F(v – v’) = F(v)-F(v’) = 0 = F(0)
d’où v – v’ = 0.
Théorème de la dimension (sans démonstration)
Si V est de dimension finie et F une application linéaire F : V → W, alors
dim V = dim Ker F + dim Im F
Un corollaire de ce théorème est : si F est un isomorphisme, alors
rg(F) = dim V = dim W.

6. Représentation matricielle
Considérons encore une application linéaire F : V → W , {e1, …, en} une base de V et
{u1, …, up} une base de W.
n n
Tout élément v de V peut s’écrire : v=∑ vi e i et par suite F ( v )=∑ v i F (e i ¿)¿
i=1 i=1

Algèbre 14 Prof. J. NAVEZ


que l’on peut encore développer en
n p p n
F ( v )=∑ v i ∑ [ F (e i) ] j u j=∑ ∑ [ F ( ei ) ] j v i u j
i=1 j=1 j=1 i=1
n
On pose A ji =[ F( ei ) ] j si bien que [ F (v ) ] j=∑ A ji v i ce qui matriciellement peut
i=1

s’écrire w = Av.
A est la matrice formée de telle sorte que sa ie colonne soit les composantes de
F(ei) dans la base de W. A est une matrice du type (p, n).
On dit que A représente F dans les bases {ei} et {uj}.

Propriétés
a) Si F est un isomorphisme, alors A est une matrice carrée et det A ≠ 0.
En effet dans le cas d’un isomorphisme dim V = dim W donc n = p. De plus
rg(A) = n donc det A ≠ 0.
b) Si F est une application linéaire de U dans V représentée par la matrice A et G
une application linéaire de V dans W représentée par la matrice B, alors
G(F) = G o F est une application linéaire représentée par la matrice BA.
En effet, on écrit : v = Au et w = Bv donc w = BAu.
c) Si F est un isomorphisme de V dans W représenté par la matrice A, alors F-1 est
représenté par la matrice A-1.
En effet, on écrit ; w = Av et v = A-1w.
d) Si P est une matrice de passage exprimant un changement de base dans V, et Q
une matrice de passage exprimant un changement de base dans W, alors la
matrice A se transforme en : v = Pv’ et w = Qw’ soit w’ = Q-1w = Q-1APv’, la matrice
A se transforme alors en la matrice Q-1AP.
En particulier, considérons une application linéaire de V dans V représentée par
A et effectuons un changement de base dans V conditionné par la matrice de
passage (inversible) S, la matrice A se transforme alors en S-1AS.
Ces matrices transformées feront l’objet plus loin d’une étude détaillée.

Algèbre 15 Prof. J. NAVEZ


Chapitre III. Matrices particulières
_________________________________________________
1. Action d’une matrice sur un vecteur de même dimension
On peut considérer une matrice A de dimension n comme un opérateur qui agit
sur un vecteur x de même dimension pour fournir un nouveau vecteur noté Ax.
n
Avec les règles usuelles, les composantes du vecteur Ax sont : ( Ax )i=∑ A ik x k
k=1

Voici quelques propriétés de cette application :


a) 0x = 0 et Ix = x
b) L’application est linéaire : A ¿
On peut s’en convaincre facilement en regardant les composantes. Mais la vraie
raison profonde, c’est que A est la représentation d’un opérateur linéaire agissant
sur les vecteurs x.
c) L’application est distributive par rapport aux combinaisons linéaires de

( )
p p
matrices : ∑ αi A i x=∑ αi ( Ai x)
i=1 i=1

Ici aussi, il suffit d’écrire les composantes.


d) Théorème de transfert : ⟨ x , Ay ⟩= ⟨ A ¿ x , y ⟩ et ⟨ Ax , y ⟩= ⟨ x , A¿ y ⟩
Si on note X et Y les matrices « vecteurs colonnes » qui représentent x et y, on a
¿
⟨ x , Ay ⟩=( AY ) X=Y ¿ A ¿ X =⟨ A ¿ x , y ⟩ e) Les relations de dépendance ou
d’indépendance linéaire entre vecteurs se conservent si on leur applique une
matrice A non singulière.
p p
En effet, ∑ α i xi =0 implique ∑ α i A x i=0 et inversement si A-1 existe.
i=1 i=1

2. Matrices hermitiennes
Définition : une matrice H est dite hermitienne si H* = H
Pour une matrice hermitienne, le théorème de transfert devient :
⟨ x , Ay ⟩= ⟨ Ax , y ⟩On dit qu’une matrice hermitienne est définie positive (négative)
si
∀ x ∈ C , x ≠ 0 , ⟨ Hx , x ⟩ >0 ( ∀ x ∈ C , x ≠ 0 , ⟨ Hx , x ⟩ <0 ).
n n

Les matrices hermitiennes définies positives (hdp) et hermitiennes définies


négatives (hdn) jouent un grand rôle dans la théorie des extrema des fonctions de
plusieurs variables réelles.

3. Matrices unitaires
Définition : une matrice U est dite unitaire si U*U = I
Le calcul de l’inverse d’une matrice unitaire est particulièrement simple puisque
A-1 = A*

Algèbre 16 Prof. J. NAVEZ


Lorsque l’on doit calculer l’inverse d’une matrice, avant de se lancer dans les
calculs, il est bon de savoir si la matrice est unitaire ou non ; nous allons voir
quelques propriétés qui permettent de repérer les matrices unitaires.
a) Si U est une matrice unitaire, ⟨ Ux ,Ux ⟩= ⟨ x , x ⟩
En effet, ⟨ Ux ,Ux ⟩= ⟨ U Ux , x ⟩ =⟨ x , x ⟩ par le théorème de transfert.
¿

b) Le déterminant de U en module vaut 1. En particulier U est inversible.


det ( U ¿ U )=detU detU =|detU |²=detI =1et U est inversible puisque detU ≠ 0.
c) Le produit de deux matrices unitaires est unitaire
Soient U et V deux matrices unitaires : (UV)-1 = V-1U-1 = V*U* = (UV)*
d) L’inverse d’une matrice unitaire est unitaire
Soit U une matrice unitaire : (U-1)-1 = U = (U*)*= (U-1)*
e) Une matrice est unitaire si et seulement si ses colonnes sont orthonormées.
Ecrivons U = (C1, …, Cn) où les Ci sont les colonnes de U. L’égalité U*U = I donne

()
C ¿1
… ( C 1 … C n )=I soit C i C j=δ ij ou encore ⟨ C j ,C i ⟩ =δ ij ce qui signifie que les
¿

¿
Cn
colonnes de U sont orthonormées.

4. Matrices normales
Définition : une matrice est dite normale si elle commute avec son adjointe :
NN* = N*N
En particulier, les matrices qui sont hermitiennes ou unitaires sont normales.
En effet HH* = HH= H*H et UU* = UU-1 = U-1U = U*U.
Les matrices normales possèdent des propriétés agréables concernant leurs
valeurs et vecteurs propres.

5. Cas particulier des vecteurs de Rn et des matrices réelles


On va tenir compte qu’un nombre réel est égal à son conjugué.
Nous avons vu que dans le cas de vecteurs de Rn, le produit scalaire défini dans Cn
n
~
devient : ⟨ x , y ⟩ =Y X =Y X=∑ x i y i=x . y
¿

i=1

soit le produit scalaire usuel défini dans Rn.


~ ~
Le théorème de transfert s’écrit alors : x . Ay= A x . y ; Ax . y =x . A y
~
Les matrices qui sont à la fois réelles et hermitiennes doivent vérifier H= H , donc
les matrices hermitiennes réelles sont les matrices symétriques.
Les matrices unitaires réelles vérifient U −1=~ U , elles conservent bien sûr la
propriété fondamentale que leurs colonnes sont orthonormées.
Les matrices unitaires réelles s’appellent les matrices orthogonales.
Elles sont désignées ainsi parce qu’un changement de base orthonormée
s’effectue à l’aide d’une matrice orthogonale. En effet, la matrice de passage
est fabriquée de telle sorte que ses colonnes sont les composantes de la nouvelle
base dans l’ancienne base. Comme la nouvelle base est orthonormée, les colonnes

Algèbre 17 Prof. J. NAVEZ


de la matrice de passage sont orthonormées.

Chapitre IV. Valeurs et vecteurs propres


_______________________________________________________
1. Transformée d’une matrice A par une matrice inversible S
La transformée d’une matrice A par une matrice inversible S de même dimension
que A est par définition la nouvelle matrice S-1AS.
a) La transformée de A par une matrice qui commute avec elle est A. En
particulier la transformée de A par A, A-1, I est A.
b) Si B est la transformée de A par S, alors A est la transformée de B par S-1.
Si B = S-1AS, alors A = SBS-1 = (S-1)-1BS-1
c) La transformée d’une combinaison linéaire de matrices est la combinaison
linéaire des transformés.

( )
p p
S−1 ∑ α i Ai S=∑ α i S−1 Ai S d) La transformée d’un produit est égale au produit
i=1 i=1

des transformées.
S-1ABS = S-1ASS-1BS
e) La transformée par S laisse invariant le déterminant.
En effet det(S-1AS) = det (S-1)det(A)det(S) = det(A)

2. Equation caractéristique
Soit A une matrice carrée de dimension n, l’équation vectorielle en xϵCn :
Ax = λx ou (A – λI)x = 0
s’appelle équation caractéristique vectorielle de la matrice A.
Si det (A – λI) ≠ 0, cette équation n’admet pas d’autre solution que x = 0 ; il suffit
de multiplier par la matrice inverse pour s’en convaincre.
Il ne peut donc exister de vecteurs x ≠ 0, solutions de l’équation que si λ est une
solution de l’équation
det (A – λI) = 0
qui s’appelle équation caractéristique scalaire de la matrice A.
Les racines de l’équation caractéristique scalaire sont les valeurs propres de A.
Leur ensemble forme le spectre de A.

Les vecteurs non nuls qui sont solutions de l’équation caractéristique vectorielle
sont les vecteurs propres de A. Ils se répartissent en systèmes relatifs à une
même valeur propre et on parle alors des vecteurs propres de la valeur propre en
question.

Algèbre 18 Prof. J. NAVEZ


a) La transformée par S laisse invariante l’équation caractéristique scalaire :
En effet det (S-1AS – λI) = det S-1(A – λI)S = det (A – λI)
b) La transformée par S conserve les valeurs propres de A

3. Déterminant et trace d’une matrice carrée – Théorème fondamental de l’Algèbre


Le premier membre de l’équation caractéristique scalaire lorsqu’il est développé
est un polynôme en λ que l’on appelle aussi polynôme caractéristique de A :

| | | |
a11− λ … a1 n a11− λ a12 a13
… … … Pour fixer les idées, prenons n = 3 : a 21 a22−λ a23
an 1 … ann−λ a 31 a32 a33− λ
que l’on peut développer selon les puissances de λ :
3 2
P ( λ ) =−λ + ( a11 +a 22+ a33 ) λ + ( a12 a21+ a13 a31+ a23 a32−a 11 a22−a11 a33−a22 a33 ) λ+ ( a11 a22 a33 +a12 a23 a31+ a
Deux quantités importantes se manifestent :
- le terme indépendant n’est autre que le déterminant de A,
- le coefficient du terme en λ² est a11 + a22 + a33, c’est la somme des éléments de la
matrice qui se trouvent sur la diagonale principale, on appelle cette quantité la
n
trace de la matrice A : trA=∑ aii
i=1

En généralisant : P ( λ ) =(−1 ) λ + (−1 ) ( trA ) λn−1+ …+det A


n n n−1

Nous allons maintenant faire appel à un théorème qui sera démontré plus tard :
Théorème fondamental de l’Algèbre (d’ALEMBERT – GAUSS)
Tout polynôme de degré n en z complexe peut se décomposer de manière unique
p
en P ( z )=α ( z −z1 ) ( z−z 2 ) … ( z−z p ) avec ∑ mi =n
m1 m2 mp

i=1

où α est le coefficient de z et où les z1, …, zp sont les racines du polynôme de


n

multiplicités respectives m1, …, mp.


Un corollaire de ce théorème dit qu’un polynôme de degré n en z admet
exactement n racines comptées avec leur degré de multiplicité.
Dans le cas du polynôme caractéristique, nous savons ainsi qu’il possède n
racines complexes comptées avec leur degré de multiplicité. Et on peut
n m m m
écrire : P ( λ ) =(−1 ) ( λ− λ1 ) ( λ−λ2 ) … ( λ−λ p )
1 2 p

¿ (−1 ) [ ( λ−λ1 ) ( λ−λ 1 ) … ][ ( λ−λ2 ) ( λ−λ 2 ) … ][ ( λ−λ p ) ( λ−λ p ) … ] où les λi sont les valeurs
n

p
propres de multiplicités respectives mi et où ∑ mi =n. En comparant avec
i=1

l’expression obtenue plus haut,


p p
trA=∑ mi λ i et det A=∏ λmi Autrement dit :i

i=1 i=1

- la trace de la matrice est égale à la somme des valeurs propres (comptées avec
leur multiplicité).
- le déterminant de la matrice est égal au produit des valeurs propres (comptées
avec leur multiplicité).

Algèbre 19 Prof. J. NAVEZ


4. Propriétés des vecteurs propres d’une valeur propre donnée
a) Toute valeur propre a au moins un vecteur propre.
En effet, comme le déterminant du système est nul, l’existence d’au moins une
solution non triviale est garantie.
b) Toute combinaison linéaire de vecteurs propres d’une même valeur propre est
encore un vecteur propre de cette même valeur.
En effet les égalités Ax1 = λx1, …, Axp = λxp entraînent

(∑ ) ∑
p p p
A αi x i = α i A x i=λ ∑ α i xi Ceci implique que toute valeur propre admet une
i=1 i=1 i=1

infinité de vecteurs propres puisqu’elle admet certainement les multiples de


l’un d’entre eux, que nous savons exister.
c) Si la matrice B commute avec A et si x est un vecteur propre de A, alors Bx est
un vecteur propre de A , de la m
En effet si Ax = λx et si AB = BA, alors ABx = BAx = B(λx) = λBx
d) Il existe pour chaque valeur propre un certain nombre maximum
(nécessairement inférieur à n) de vecteurs propres linéairement indépendants.
et dont par conséquent, tous les autres sont des combinaisons linéaires.
e) Le nombre de vecteurs propres linéairement indépendants d’une valeur
propre donnée ne peut pas dépasser la multiplicité de cette valeur propre comme
racine de l’équation caractéristique scalaire.
On va montrer que la multiplicité dépasse le nombre de vecteurs propres
linéairement indépendants.
Soit x1, …, xp des vecteurs propres linéairement indépendants de la valeur propre
λ en nombre maximum. On peut toujours les supposer orthonormés quitte à les
remplacer par d’autres grâce au procédé de GRAM-SCHMIDT. Complétons les par
yp+1, …, yn de manière à obtenir n vecteurs orthonormés, n étant la dimension de
la matrice. Il suffit pour cela de continuer le processus d’orthonormation de
GRAM-SCHMIDT.
La matrice S = (x1, …, xp, yp+1, …, yn) dont le déterminant est différent de 0
(vecteurs linéairement indépendants) est telle que :

() ()
x1 x1
… …
−1 x x
S AS= p A ( x1 … x p y p+1 … y n ) = p ( λ x1 … λ x p A y p+1 … A y n) =¿
y p+ 1 y p+1
… …
yn yn

car la matrice S est une matrice unitaire et donc S-1 = S* et aussi en vertu du fait
que la transformation par S laisse invariante l’équation caractéristique..
On voit ainsi que l’équation caractéristique scalaire det(A – βI) = 0, contient le
facteur (λ – β)p . Comme nous sommes partis de p vecteurs linéairement

Algèbre 20 Prof. J. NAVEZ


indépendants, nous avons déjà la multiplicité p pour λ et il pourrait encore avoir
des facteurs (λ – β) provenant du bloc (**) de la matrice S-1AS. En conclusion :
f) Le nombre de vecteurs propres linéairement indépendants d’une valeur propre
donnée peut être soit égal, soit inférieur à la multiplicité de cette valeur propre
comme racine de l’équation caractéristique scalaire.
En particulier, considérons une valeur propre qui est de multiplicité 1 (racine
simple), on lui au moins un vecteur propre linéairement indépendants. Les autres
vecteurs propres en sont des multiples. Mais on sait maintenant que le nombre
de vecteurs propres linéairement indépendants ne peut pas dépasser 1. Donc il y
a exactement un seul vecteur propre à un multiple près.
g) Le nombre de vecteurs propres linéairement indépendants de la valeur propre
λ est exactement n – rg(A – λI)
Pour fixer les idées disons que les p premières colonnes du tableau A – λI sont
linéairement indépendantes, les suivantes étant combinaison linéaires des
premières :
C p+1=α 1 C1 +…+ α p C p C n=τ 1 C1 + …+τ p C p

() ()
α1 τ1
… …
α τp
Les vecteurs : p , … , constituent n-p vecteurs propres car ils sont
−1 0
… …
0 −1
visiblement annulés par A – λI.
Ils sont linéairement indépendants car toute relation linéaire entre eux ne peut
avoir que des coefficients nuls vu la forme des n-p dernières composantes.
Tout autre vecteur propre en est combinaison linéaire car le vecteur

() ()
¿ ¿
¿ −1 0
x = x+ x p +1 + …+ x n
… … doit être nul : en effet, d’une part par construction
0 −1
¿ ¿
x p+1=…=x n=0 et d’autre part, c’est un vecteur propre, ce qui entraîne
¿ ¿ ¿
0=( A− λI ) x =x 1 C1 +…+ x p C p donc x ¿1=…=x ¿p=0 vu l’indépendance linéaire des
C1, …, Cp.

5. Propriétés des vecteurs propres relatifs à des valeurs propres différentes


Les vecteurs propres relatifs à des valeurs propres distinctes sont linéairement
indépendants.
En effet, supposons qu’il existe une relation linéaire entre deux vecteurs de
valeurs propres différentes :
αx+ βy=0 , Ax=λx , Ay=μy , λ ≠ μ Montrons que les coefficients de cette relation
sont nuls.
Appliquons l’opérateur (A – λI) aux deux membres de la relation, on trouve

Algèbre 21 Prof. J. NAVEZ


β(μ – λ)y = 0 ce qui donne β = 0 puisque λ≠μ
Appliquons l’opérateur (A – μI) aux deux membres de la relation, on trouve
α (λ – μ)x = 0 ce qui entraîne α = 0.
On passe aisément au cas de plusieurs vecteurs.

6. Propriétés des vecteurs propres et des valeurs propres relatifs à la


transformée S-1AS
a)Si A admet la valeur propre λ et le vecteur propre x, alors S-1AS admet la valeur
propre λ et le vecteur propre S-1x
En effet A et S-1AS ont la même équation caractéristique scalaire donc une
solution de l’une est valable pour l’autre. D’autre part S-1AS(S-1x) = S-1(λx)= λS-1x.
b) Les valeurs propres de A et de S-1AS sont les mêmes avec le même ordre de
multiplicité.
c)Si x1, …, xp sont des vecteurs propres linéairement indépendants relatifs à λ
pour A, alors S-1x1, …, S-1xp sont des vecteurs propres linéairement indépendants
relatifs à λ pour S-1AS
En effet, l’application d’une matrice non-singulière conserve les relations
linéaires entre les vecteurs.

7. Le cas des matrices hermitiennes


Rappelons qu’une matrice hermitienne vérifie H* = H.
Théorème : les valeurs propres d’une matrice hermitienne sont réelles.
En effet, si on écrit Hx = λx, il vient
⟨ λx , x ⟩= X ¿ ( λX )= λ X ¿ X =⟨ Hx , x ⟩ =⟨ x , Hx ⟩ =⟨ x , λx ⟩=λ X ¿ X si bien que
( λ−λ ) X ¿ X=0 et λ=λ puisque les vecteurs propres ne sont pas nuls.
Théorème : les vecteurs propres d’une matrice hermitienne relatifs à des valeurs
propres distinctes sont orthogonaux.
En effet, si Hx = λx et Hy = μy avec λ≠μ, on a ⟨ λx , y ⟩ =⟨ Hx , y ⟩=⟨ x , H y ⟩ =⟨ x , μy ⟩
¿

¿ ¿ ¿
et par suite λ Y X=μ Y X soit ( λ−μ ) Y X=0 d’où Y*X = 0 car les valeurs propres
sont réelles et distinctes ; on a bien ⟨ x , y ⟩ =0

8. Le cas des matrices unitaires


Rappelons qu’une matrice unitaire vérifie U* = U-1.
Théorème : les valeurs propres d’une matrice unitaire sont de module égal à 1.
¿
Si Ux = λx, ⟨ λx , λx ⟩ =( λX ) ( λX )= λ λ X ¿ X=|λ|⟨ x , x ⟩=⟨ Ux ,Ux ⟩= ⟨ U ¿ Ux , x ⟩ =⟨ x , x ⟩ et
par suite |λ|=1 .
Théorème : les vecteurs propres d’une matrice unitaire relatifs à des valeurs
propres différentes sont orthogonaux.
Si Ux = λx et Uy = μy avec λ ≠ μ,
λ
⟨ λx , μy ⟩=μ λ Y ¿ X= ⟨ x , y ⟩ =⟨ Ux ,Uy ⟩ =⟨ U ¿ Ux , x ⟩ =⟨ x , y ⟩ et comme λ/μ ≠ 1, on doit
μ
avoir ⟨ x , y ⟩ =0

Algèbre 22 Prof. J. NAVEZ


1
On utilise μ= vu le module égal à 1.
μ

9. Le cas des matrices normales


Rappelons qu’une matrice normale vérifie NN* = N*N.
Les matrices hermitiennes et les matrices unitaires sont des matrices normales
particulières. Nous admettrons ces deux théorèmes qui généralisent les
précédents.
Théorème : une matrice normale est hermitienne si et seulement si ses valeurs
propres sont réelles.
Théorème : une matrice normale est unitaire si et seulement si le module de ses
valeurs propres est égal à 1.

Algèbre 23 Prof. J. NAVEZ


Chapitre V. Diagonalisation des matrices
_________________________________________________________

1. Réduction à la forme diagonale


Soit une matrice A de dimension n. Réduire A à la forme diagonale, c’est trouver
une matrice S inversible telle que S-1AS = diag(λ1, …, λn) dont les éléments
diagonaux sont alors nécessairement les valeurs propres de A, vu l’invariance de
l’équation caractéristique scalaire. Une même valeur propre est répétée autant de
fois que son degré de multiplicité.
Nous savons interpréter la transformée par S en termes de changement de base.
Théorème : la condition nécessaire et suffisante pour que A puisse se réduire à la
forme diagonale est qu’elle possède exactement n vecteurs propres linéairement
indépendants.
CN. Si S-1AS = diag(λ1, …, λn) et si on pose S = (C1, …, Cn) où les Ci sont les colonnes
de S, alors les Ci sont des vecteurs propres de A, linéairement indépendants, de
valeurs propres respectives λ1, …, λn. En effet AS = S(S-1AS) = S diag(λ1, …, λn) ce
qui donne (AC1, …, ACn) = (C1, …, Cn) diag(λ1, …, λn) =( λ1C1, …, λnCn). Soit ACi = λiCi
pour i = 1, …, n. D’autre part les Ci sont linéairement indépendants car det S ≠ 0.
CS. Si x1, …, xn sont des vecteurs propres linéairement indépendants de valeurs
propres respectives λ1, …, λn alors la matrice S = (x1, …, xn), où les xi sont les
colonnes, diagonalise la matrice A. En effet,
(x1, …, xn)-1A(x1, …, xn) = (x1, …, xn)-1(Ax1, …, Axn) = (x1, …, xn)-1(λ1x1, …, λnxn) =
(x1, …, xn)-1(x1, …, xn) diag(λ1, …, λn) = diag(λ1, …, λn)
Corollaire : la condition nécessaire et suffisante pour que A puisse se réduire à la
forme diagonale est que le nombre de vecteurs propres indépendants de chaque
valeur propre soit exactement la multiplicité de cette valeur propre comme
racine de l’équation caractéristique scalaire.
En effet, nous avons vu que le nombre de vecteurs propres linéairement
indépendants pour une même valeur propre est inférieur ou égal à la multiplicité
de cette valeur propre (§3 du chapitre précédent).
Remarque importante : les matrices A dont les valeurs propres sont toutes
différentes répondent aux conditions du théorème.

2. Exemple

( )
0 0 1
Considérons la matrice A= 0 1 0 son équation caractéristique scalaire est
1 0 0

( )
−λ 0 1
det 0 1−λ 0 =0 soit (1 – λ)(λ² - 1) = 0 donc les valeurs propres sont 1
1 0 −λ

Algèbre 24 Prof. J. NAVEZ


(racine double) et -1 (racine simple).

( )( )
−1 0 1 x 1
Pour la racine double, on doit résoudre l’équation vectorielle 0 0 0 x 2 =0
1 0 −1 x 3
qui est équivalente à x1 – x3 = 0 dont la solution générale est :

( )() () ()
x1 α 1 0
x 2 = β =α 0 + β 1 α et β étant des paramètres.
x3 α 1 0
Les vecteurs propres relatifs à la valeur propre 1 sont des combinaisons linéaires

() ()
1 0
des deux vecteurs linéairement indépendants 0 et 1 .
1 0
Pour la racine simple, on doit résoudre l’équation vectorielle

()( ) {
1 0 1 x1 x 1+ x 3=0
0 2 0 x 2 =0 qui est équivalente à 2 x 2=0 dont la solution générale est
1 0 1 x3 x 1+ x 3=0

( )( ) ( )
x1 α 1
x 2 = 0 =α 0
x3 −α −1
Nous sommes dans les conditions du théorème de réduction puisque nous avons

()() ( )
1 0 1
3 vecteurs linéairement indépendants 0 , 1 et 0 .
1 0 −1

( )
1 0 1
On considère alors la matrice S= 0 1 0 cette matrice n’est pas orthogonale
1 0 −1
car les colonnes ne sont pas normées mais on trouve facilement son inverse

( )
1 1
0
2 2
−1
S =¿ 0 1 0 .
1 −1
0
2 2

( )(
1 1
0

)( )
2 2 0 0 1 0 0 1
−1
On vérifie que S AS= 0 1 0 0 1 0 0 1 0 =diag(1 , 1 ,−1)
1 −1 1 0 0 1 0 0
0
2 2

3. Le cas des matrices normales


Rappelons qu’une matrice normale vérifie NN* = N*N.
Les matrices hermitiennes et les matrices unitaires sont des matrices normales

Algèbre 25 Prof. J. NAVEZ


particulières. Nous admettrons ce dernier théorème.

4. Le cas des matrices réelles : matrices orthogonales


Rappelons qu’une matrice réelle est dite orthogonale si elle est unitaire soit
−1 ~
S =S Elles conservent bien entendu toutes les propriétés des matrices unitaires,
notamment les valeurs propres de S sont de module 1 et les colonnes de S sont
orthonormées.
Prenons un exemple :

( )
1 0 0
- la matrice de rotation : S= 0 cos θ −sin θ est une matrice orthogonale car
0 sin θ cos θ
ses colonnes sont orthonormées. Si on cherche ses valeurs propres, on trouve λ1
= 1, λ2 = cos θ + i sin θ, λ3 = cos θ – i sin θ.
Les valeurs propres d’une matrice réelle peuvent être complexes !
On dispose enfin du résultat suivant : Toute matrice réelle symétrique (donc
hermitienne) est diagonalisable par une matrice orthogonale.

Algèbre 26 Prof. J. NAVEZ


Chapitre VI. Formes quadratiques
_________________________________________________

1. Matrices symétriques
Nous avons vu qu’une matrice hermitienne réelle est une matrice symétrique
puisque H −1=H ¿=~ H.
Nous savons aussi qu’une telle matrice a des valeurs propres réelles et que des
vecteurs propres relatifs à des valeurs propres distinctes sont orthogonaux..
Et enfin, qu’elle est diagonalisable par une matrice orthogonale.
~
On considère alors l’application de Rn → R, Q : X → X HX où H est une matrice
symétrique. On l’appelle forme quadratique réelle.
Prenons un exemple dans R³ :

( )( )
h11 h 12 h13 x1
Q ( X )= ( x1 x2 x3 ) h12 h 22 h23 x2 =h11 x 21 +h 22 x 22+h 33 x 23+ 2 h12 x 1 x 2+ 2 h13 x 1 x 3 +2 h23 x 2 x 3
h13 h 23 h33 x3
2. Classification des formes quadratiques
On répartit les formes quadratiques en 6 catégories :
a) Q est définie positive si Q(X) > 0 pour tout X non nul.
b) Q est définie négative si Q(X) < 0 pour tout X non nul.
c) Q est semi-positive si Q(X) ≥ 0 (mais pas toujours 0) pour tout X.
d) Q est semi négative si Q(X) ≤ 0 (mais pas toujours 0) pour tout X.
e) Q est indéfinie s’il existe X ≠0 tel que Q(X) > 0 et X’ ≠0 tel que Q(X’) < 0.
f) Q est nulle si Q(X) = 0 pour tout X.

Il faut ramener H à la forme diagonale par un changement de repère orthogonal


X = SX’ et Q se transforme en ~ ' ~~
SX ' H S X = X ' S HS X on s’arrange pour que la
~
matrice H ’=S HS soit diagonale. Ce sont les valeurs propres de H qui vont
apparaître sur la diagonale.
- une matrice H est définie positive ssi toutes ses valeurs propres sont > 0.
- une matrice H est définie négative ssi toutes ses valeurs propres sont < 0.
- une matrice H est semi positive ssi 0 et une valeur propre et toutes les autres
valeurs propres sont > 0.
- une matrice H est semi négative ssi 0 et une valeur propre et toutes les autres
valeurs propres sont < 0.
- une matrice H est indéfinie ssi elle possède deux valeurs propres de signe
contraire.
- une matrice H est nulle ssi toutes ses valeurs propres sont nulles.

Algèbre 27 Prof. J. NAVEZ


3. Exemple et règle de DESCARTES

( )
−1 0 1
Considérons la matrice H= 0 −4 −1 . Calculons ses valeurs propres ;
1 −1 −3

| |
−1−λ 0 1
0 −4−λ −1 =0(1 + λ) (1 -(4 + λ)(3 + λ)) + (4 + λ) = 0 soit λ³ + 8λ² +
1 −1 −3−λ
17λ + 7 = 0
On fait appel au théorème de DESCARTES, celui-ci dit que le nombre de racines
positives vaut le nombre de variations de signe des coefficients abstraction faite
des coefficients nuls. Il n’y a pas de valeur propre nulle sinon 7 = 0. Donc toutes
les valeurs propres sont négatives. Donc la matrice est définie négative.

Règle des signes de Descartes


Soit p(x) = 0 une équation où p(x) est un polynôme à une variable et à coefficients
réels, ordonné par ordre décroissant des exposants.
Une variation d'un polynôme est un changement de signe entre deux termes
consécutifs.
Théorème de Descartes pour les équations
Dans une équation algébrique, à coefficients réels, le nombre des racines
positives ne surpasse pas le nombre de variations ; et, quand il est moindre, la
différence est toujours un nombre pair.

Lorsque les solutions de l'équation sont toutes réelles, le nombre de solutions


positives est au nombre de variations de signes de ses coefficients (en ne tenant
pas compte des coefficients nuls), le nombre de solutions négatives est le nombre
de permanences de ses signes.

En général, le nombre de solutions positives est, au plus égal, au nombre de


variations de signes de ses coefficients (en ne tenant pas compte des coefficients
nuls), le nombre de solutions négatives est, au plus égal, le nombre de
permanences de ses signes.

S'il y a n variations de signes, il y n solutions ou n – 2, ou n – 4,… n peut être


diminué d'un nombre pair correspondant à des solutions complexes conjuguées.
Par exemple s'il y a 3 changements de signe, il y a une ou trois solutions positives.

Pour les solutions négatives, en changeant la variable x en – x, la règle, pour les


solutions positives, permet de trouver le nombre de solutions négatives, à un
multiple de 2 près, puisque la transformation a permuté les solutions positives et
négatives.

Algèbre 28 Prof. J. NAVEZ

Vous aimerez peut-être aussi