Algèbre Bac1
Algèbre Bac1
2019
Université MAPON
Prof. Dr J. NAVEZ
ALGÈBRE
Bac I
Avertissement
Ces notes ne remplacent pas l’exposé oral ; elles ne contiennent pas les explications
détaillées et les démonstrations ne sont souvent qu’esquissées ; certains paragraphes ne
sont là que par souci de généralité, ils ne sont pas vus au cours.
Ce texte est conçu pour servir de support à l’étude, l’assistance au cours est indispensable.
Jacques NAVEZ.
1. Définitions générales
Jusqu’à présent nous avons travaillé dans un espace vectoriel réel, mais rien
n’empêche de généraliser la définition à la fois pour les besoins de la géométrie et
aussi parce qu’en calcul matriciel on utilise des espaces vectoriels complexes.
Espace vectoriel
Soit K, un champ fixé une fois pour toutes (dans la pratique, ce sera R ou C) dont
les éléments sont notés α, β, ϒ, …, et sont appelés scalaires. L’élément neutre et
l’élément identité de K sont notés 0 et 1. Soit V un ensemble d’éléments notés x, y,
z, …qui seront appelés « vecteurs ».
Définition
L’ensemble V possède une structure d’espace vectoriel si on le munit de 2 lois :
i. une loi de composition interne, notée +, faisant de V un groupe commutatif ;
ii. une loi de composition externe, à tout x ϵ V et à tout λ ϵ K, on associe λx ϵ V,
qui vérifie l’associativité mixte, la double distributivité et qui possède le réel 1
comme élément unité.
Remarques
- puisque (V, +) est un groupe, il existe un neutre unique pour l’addition qui sera
appelé vecteur nul et que l’on note 0 : x + 0 = 0 + x = x, pour tout x de V.
- le symétrique de x pour la première loi est noté –x, il est égal aussi à (-1) x ;.
Base
Une base de V est une partie génératrice composée d’éléments linéairement
indépendants.
p
En effet, supposons que l’on puisse aussi écrire u=∑ μi x i alors en retranchant,
i=1
p
on obtient : ∑ ( λi−μi ) x i=0 ce qui implique λ i=μi car les xi sont linéairement
i=1
indépendants.
Dimension
Lorsqu’une base se compose d’un nombre fini d’éléments, la dimension de V est
le nombre de vecteurs de cette base (on dit qu’il s’agit d’un espace vectoriel de
dimension finie).
La cohérence de cette définition est assurée par le théorème suivant :
Théorème : dans un espace vectoriel de dimension finie, toutes les bases ont le
même nombre de vecteurs.
Composantes
Si {e1, e2, …, ep} est une base, nous savons maintenant que tout vecteur u ϵ V
p
s’écrit de manière uniqueu=∑ λi e . Les nombres λ1, …, λp sont appelés
i=1
Exemples
Il y a de nombreux exemples : nous connaissons déjà l’espace vectoriel réel, mais
il y a aussi les vecteurs liés à l’origine dans le plan, les vecteurs libres du plan… et
bien d’autres.
2. Sous-espaces vectoriels
Par définition, un sous-espace vectoriel est une partie d’un espace vectoriel qui
est elle-même un espace vectoriel.
Le théorème suivant permet de simplifier les choses :
Soit V un espace vectoriel, le sous ensemble W ᴄ V est un sous-espace vectoriel si
et seulement si les propositions suivantes sont satisfaites :
i. 0 ϵ W
ii. Si x, y ϵ W alors x + y ϵ W
iii. Si x ϵ W et λ ϵ K alors λx ϵ W.
On peut aussi dire que si W est un sous-espace vectoriel de V, alors W muni des
opérations induites par celles de V est un sous espace vectoriel.
Exemple : dans Rn, l’ensemble des vecteurs qui vérifient : a1x1+ … + anxn = 0
3. Produit scalaire
Un produit scalaire dans V est une forme bilinéaire, symétrique et définie positive
sur V.
- Une forme bilinéaire est une application de V x V dans R : ( x , y ) → B ( x , y ) telle
que
i. ∀ x , y , z ∈V , ∀ λϵR , B ( x + y , z )=B ( x , z )+ B ( y , z ) ; B ( λx , y )=λB (x , y ) : linéarité sur
le 1er argument
ii. ∀ x , y , z ∈V , ∀ λϵR , B ( x , y + z )=B ( x , y ) +B ( x , z ) ; B ( x , λy )=λB( x , y ) : linéarité
sur le 2e argument
- une forme est symétrique si ∀ x , y ∈V , B ( x , y )=B ( y , x )
- une forme est définie positive si ∀ x ∈ V , B(x , x )≥ 0 et si B ( x , x )=0 ⟺ x=0 .
4. L’espace vectoriel Cn
Nous allons introduire un nouvel espace vectoriel qui va compléter Rn grâce à la
considération des nombres complexes.
On définit C de manière ensembliste par Cn = C x C x … x C (n fois), c’est donc
n
()
z1
volontiers ces n-uples par une matrice colonne Z= ….
zn
- On munit Cn d’une loi de composition interne notée + et définie par :
( )( )( )
z1 w 1 z 1 + w1
… + … = … on vérifie aisément que cette loi permet de doter Cn d’une
zn w n z n + wn
structure de groupe commutatif.
- On munit C d’une loi de composition externe définie par
n
()( )
z1 λz1
λ … = … λ ϵ C.
zn λ zn
On vérifie que cette loi bénéficie de l’associativité mixte, de la double
distributivité et d’un élément unité qui est 1.
C est ainsi muni d’une structure d’espace vectoriel sur le champ C.
n
( )( )
z1 −z 1
− … = … l’opposé d’un élément.
zn −z n
Vecteurs linéairement dépendants ou indépendants
Des vecteurs v1, …, vp sont dits linéairement dépendants s’il existe un système de
p
scalaires λ1, …, λp non tous nuls tels que ∑ λi v i=0 .
i=1
Ils sont dits linéairement indépendants s’il n’existe aucun semblable système de
p
scalaires, c’est-à-dire que si ∑ λi v i=0 cela implique que tous les λi sont nuls.
i=1
Partie génératrice
Un sous-ensemble {x1, x2, …, xp} de Cn est une partie génératrice de V si tout
élément u de V peut s’écrire : u=λ1 x1 + λ 2 x 2 +…+ λ p x p ; λi ϵC
Une base est une partie génératrice formée de vecteurs linéairement
indépendants.
Base et dimension
Raisonnons sur C³ pour expliciter le sujet : {(1,0,0), (0,1,0), (0,0,1)} est une base
de C³ car tout vecteur z peut s’écrire z = z1(1,0,0) + z2(0,1,0) + z3(0,0,1) et ces 3
vecteurs sont visiblement indépendants. Donc l’espace vectoriel C³ construit sur
le champ C est de dimension 3.
Mais C³ est aussi un espace vectoriel réel construit sur le champ R comme on
peut facilement s’en rendre compte. Alors une base de C³ est plutôt :
{(1,0,0), (i,0,0), (0,1,0), (0,i,0), (0,0,1), (0,0,i)} car tout vecteur de C³ peut s’écrire
z = Rz1(1,0,0) + Rz2(0,1,0) + Rz3(0,0,1) + Iz1(i,0,0) + Iz2(0,i,0) + Iz3(0,0,i) et ces
vecteurs sont linéairement indépendants.
Donc l’espace vectoriel C³ construit sur le champ R est de dimension 6.
Produit scalaire
On introduit dans Cn le produit scalaire suivant :
()
z1 n
⟨ z , w ⟩=W ¿ Z =( w 1 … wn ) … =∑ z i wi
i=1
zn
Il vérifie les conditions :
i. (pseudo)bilinéarité
n n n
⟨ ( λz+ μw ) , v ⟩ =∑ ( λ z i + μ w i ) v i=∑ λ z i v i + ∑ μ w i v i=λ ⟨ z , v ⟩+ μ ⟨ w , v ⟩ de même :
i=1 i=1 i=1
√∑ | |
n
|z|=√ ⟨ z , z ⟩ =
2
z i et on dit qu’un vecteur de Cn est normé si son module vaut 1.
i=1
Propriétés du module :
a) |λz|=|λ|| z|
b) |⟨ z , w ⟩|≤|z||w| (Inégalité de CAUCHY-SCHWARTZ)
Cela provient du fait que quel que soit le scalaire complexe λ,
n n
|z + λw| ²= ⟨ z+ λw , z + λw ⟩=∑ ( z i+ λ wi ) ( z i + λ w i )=∑ | zi|²+ λ ( z i wi ) + λ ( wi zi ) +| λ|²|wi|²=|z|²+ λ ⟨ w , z ⟩ + λ
i=1 i=1
i=1
6. Orthogonalité
On dit que deux vecteurs non nuls de Cn sont orthogonaux si leur produit
scalaire est nul : ⟨ z , w ⟩=0
On dit que des vecteurs de Cn sont orthonormés s’ils sont normés et s’ils sont
orthogonaux 2 à 2.
Un théorème important fait intervenir les vecteurs orthonormés :
{ () ()
' '
e 1=a11 e 1+ a21 e2 +…+ an 1 en e1
e1
' '
e =a12 e1 +a22 e 2+ …+an 2 e n e =~
P e 2 avec
2
ce qu’on peut écrire 2
… … …
'
e n=a1 n e 1+ a2 n e2 +…+ ann en '
e3 en
( )
a11 a12 … a1 n
a a22 … a2 n
P= 21
… … …
…
a n 1 a n2 a nn
la matrice P s’appelle matrice de passage.
Les colonnes de la matrice de passage sont les composantes de la nouvelle base
par rapport à l’ancienne.
Considérons un vecteur x=x '1 e'1 + x '2 e '2 +…+ x 'n e 'n , on remplace les e’i par leurs
valeurs et finalement, on trouve
()( )( )
'
x1 a 11 a12 … a1 n x1
'
x2 = a 21 a22 … a2 n x2
que l’on peut encore écrire X = PX’
… … … … …
…
xn an 1 a n 2 ann x 'n
Cette matrice P est inversible car elle est fabriquée à partir de vecteurs
linéairement indépendants, on peut donc inverser la formule en X’ = P-1X
8. L’espace vectoriel Rn
On appelle point de Rn, un ensemble ordonné de n nombres réels. On écrit
x = (x1, …, xn) et Rn est l’ensemble de ces n-uples ordonnés. Avec des notations
ensemblistes, on peut aussi écrire : Rn = R x R x … x R (n fois).
Deux points de Rn, x = (x1, …, xn) et y = (y1, … , yn) sont égaux si xi = yi ; i = 1, …, n.
Addition
La somme de 2 points x = (x1, …, xn) et y = (y1, …, yn) de Rn est le nouveau point
défini par x + y = (x1 + y1, …, xn + yn).
i. C’est une loi de composition interne car ∀ x , y ∈ Rn , on associe x + y ϵ Rn.
ii. Cette loi est associative (x + y) + z = x +(y + z) qui vaut dans les 2 cas (x1+y1+z1,
…, xn+yn+zn).
iii. Elle est commutative : x + y = y + x car (x1+y1, …, xn+yn) = (y1+x1, …, yn+xn).
i=1
n
i. C’est une forme bilinéaire : ∀ x , y , z ∈ R ∀ λ ϵ R
(x + y).z = x.z + y.z x.(y + z) = x.y + x.z
(λx).y = λ(x.y) x.(λy) = λ(x.y)
n
ii. Elle est positive : x . x=∑ x i ≥ 0
2
i=1
n n
iii. Elle est symétrique : x.y = y.x car ∑ x i y i=∑ y i xi
i=1 i=1
Conclusion : l’opération ainsi définie est un produit scalaire dans Rn que l’on
Propriétés immédiates
1) ei.ej = δij (symbole de KRONECKER, 1 si i = j et 0 sinon) : la base naturelle est
une base orthonormée.
2) xi = x.ei : les composantes naturelles sont les projections orthogonales sur les
vecteurs de base.
Module d’un point de Rn
n
Par définition |x|=√ x . x =∑ x i
2
i=1
Propriétés
i. Cette définition est compatible avec celle du module d’un nombre réel car si n =
1, |x|=√ x 2
Cette définition est aussi compatible avec le module d’un nombre complexe :
|z|=√ z . z =√ RzRz + IzIz=√ ( Rz ) + ( Iz ) ii. |x|=0❑ x=0
2 2 ⇔
() ()
x1 y1
Plaçons-nous dans R³ et considérons deux vecteurs de composantes x 2 et y 2 ,
x3 y3
leur produit scalaire a été défini comme x1y1 + x2y2 + x3y3.
On peut cependant le définir de manière intrinsèque comme
x . y =|x|| y| cos ( x , y )avec| y|cos (x , y) qui est la projection orthogonale du second
vecteur sur le premier. On peut montrer que ces deux définitions sont
équivalentes.
On introduit alors un nouveau vecteur qui s’appelle le produit vectoriel et qui
est défini de la manière suivante :
x x
(| | | | | |)
x x
( v 1 v 2 v 3 )= 2 3 , − 1 3 ,
y2 y3 y1 y3
x1
y1
x2
y2
=x ∧ y
| |
x 1 x2 x 3
( x , y , z )= y 1 y 2 y 3 qui est en fait ( x ∧ y ) . z
z1 z2 z3
Propriétés (à démontrer)
a)
x ∧ y=−( y ∧ x ) ; ( αx+ βy ) ∧ z=α ( x ∧ z ) + β ( y ∧ z ) ; α ( x ∧ y )= ( αx ) ∧ y=x ∧ ( αy )=αx ∧ y
b) x ∧ ( y ∧ z )=( x . z ) y−( x . y ) z
b) (x, y, z) = (z, x, y) = (y, z, x)
Pour mémoire, il existe des définitions géométriques de ces différents produits :
- le module du produit vectoriel est l’aire du parallélogramme construit sur ces
deux vecteurs.
- le module du produit mixte est le volume du parallélépipède construit sur ces
trois vecteurs.
2. Exemples
a) d’après les règles du calcul matriciel, l’application x → Ax où A est une matrice
de type (m, n) et x un vecteur colonne (n, 1) est une application linéaire.
En effet A (x + y) = Ax + Ay et A(λx) = λAx.
Il suffit pour cela de comparer les composantes des deux membres avec les règles
du calcul vectoriel.
Dans la suite du cours, on va s’intéresser particulièrement à l’effet d’une matrice
carrée de dimension n sur un vecteur colonne à n lignes.
b) Soit a et b des nombres réels, a <b, si C0([a, b]) est l’espace vectoriel des
b
est une forme linéaire sur C0([a, b]). Cela résulte de propriétés vues en Analyse.
( )
n n
F ( v )=F ∑ v i e i =∑ v i F(ei ¿ )¿La connaissance des F(ei) permet de déterminer
i=1 i=1
4. Isomorphismes
Un isomorphisme est une application linéaire bijective.
Théorème : si F est un isomorphisme de V → W, alors la bijection F-1 est un
isomorphisme de W → V.
Il faut démontrer que F-1 est aussi une application linéaire.
Posons F(v) = w et F(v’) = w’, comme F est bijective, on peut aussi écrire
v = F-1(w) et v’ = F-1(w’) et ces vecteurs sont uniques. Dès lors
F(v + v’) = F[F-1(w) + F-1(w’)]= F[F-1(w)] + F[F-1(w’)] = w + w’ d’où
F-1(w + w’) = v + v’ et donc F-1(w + w’) = F-1(w) + F-1(w’)
De même F(λv) = λF(v) = λ F[F-1(w)] = λw donc F-1(λw) = λv = λF-1(w).
Théorème : l’application linéaire F : V → W est un isomorphisme si et seulement
si l’image d’une base de V est une base de W.
CN. Supposons que F soit un isomorphisme, montrons que les vecteurs F(ei) sont
( )
n n
linéairement indépendants : ∑ α i F ( e i )=0 ; F ∑ αi ei =0
i=1 i=1
CS. Supposons que {e1, …, en} soit une base de V et {F(e1), …, F(en)} une base de W.
Si deux vecteurs v et v’ sont tels que F(v) = F(v’), alors ils ont les mêmes
n n
composantes dans la base de V car ∑ v i F ( e i) =∑ v i F (e i) alors v i=v i vu le fait que
' '
i=1 i=1
les F(ei) forment une base et v = v’ ; l’application F est donc injective. D’autre part,
n
si w ϵ W, w=∑ wi F ( ei ¿ )¿ car les F(ei) forment une base et il existe au moins un
i=1
n
vecteur v=∑ w i ei dont w est l’image ; F est donc surjective. Finalement F est
i=1
5. Image et noyau
Définitions.
Soit F une application linéaire F : V → W.
On appelle image de V par F le sous-ensemble de W = {wϵW :w = F(v), vϵV}. Cet
ensemble est noté Im F et on peut montrer qu’il s’agit d’un sous-vectoriel de W.
La dimension de ce sous-vectoriel est appelée le rang de F et notée rg(F).
On appelle noyau de F le sous ensemble de V = {vϵV :F(v) = 0}. Cet ensemble est
noté Ker F (diminutif de « Kernel ») et on peut montrer qu’il s’agit d’un sous-
vectoriel de V.
Théorème : l’application F est surjective si et seulement si Im F = W.
En effet, tout élément de W est l’image d’au moins un élément de V
Théorème : l’application F est injective si et seulement si Ker F = {0}.
CN. F(v) = 0 implique v = 0 et par conséquent Ker F = {0}.
CS. Si Ker F = {0} et si F(v) = F(v’) alors F(v – v’) = F(v)-F(v’) = 0 = F(0)
d’où v – v’ = 0.
Théorème de la dimension (sans démonstration)
Si V est de dimension finie et F une application linéaire F : V → W, alors
dim V = dim Ker F + dim Im F
Un corollaire de ce théorème est : si F est un isomorphisme, alors
rg(F) = dim V = dim W.
6. Représentation matricielle
Considérons encore une application linéaire F : V → W , {e1, …, en} une base de V et
{u1, …, up} une base de W.
n n
Tout élément v de V peut s’écrire : v=∑ vi e i et par suite F ( v )=∑ v i F (e i ¿)¿
i=1 i=1
s’écrire w = Av.
A est la matrice formée de telle sorte que sa ie colonne soit les composantes de
F(ei) dans la base de W. A est une matrice du type (p, n).
On dit que A représente F dans les bases {ei} et {uj}.
Propriétés
a) Si F est un isomorphisme, alors A est une matrice carrée et det A ≠ 0.
En effet dans le cas d’un isomorphisme dim V = dim W donc n = p. De plus
rg(A) = n donc det A ≠ 0.
b) Si F est une application linéaire de U dans V représentée par la matrice A et G
une application linéaire de V dans W représentée par la matrice B, alors
G(F) = G o F est une application linéaire représentée par la matrice BA.
En effet, on écrit : v = Au et w = Bv donc w = BAu.
c) Si F est un isomorphisme de V dans W représenté par la matrice A, alors F-1 est
représenté par la matrice A-1.
En effet, on écrit ; w = Av et v = A-1w.
d) Si P est une matrice de passage exprimant un changement de base dans V, et Q
une matrice de passage exprimant un changement de base dans W, alors la
matrice A se transforme en : v = Pv’ et w = Qw’ soit w’ = Q-1w = Q-1APv’, la matrice
A se transforme alors en la matrice Q-1AP.
En particulier, considérons une application linéaire de V dans V représentée par
A et effectuons un changement de base dans V conditionné par la matrice de
passage (inversible) S, la matrice A se transforme alors en S-1AS.
Ces matrices transformées feront l’objet plus loin d’une étude détaillée.
( )
p p
matrices : ∑ αi A i x=∑ αi ( Ai x)
i=1 i=1
2. Matrices hermitiennes
Définition : une matrice H est dite hermitienne si H* = H
Pour une matrice hermitienne, le théorème de transfert devient :
⟨ x , Ay ⟩= ⟨ Ax , y ⟩On dit qu’une matrice hermitienne est définie positive (négative)
si
∀ x ∈ C , x ≠ 0 , ⟨ Hx , x ⟩ >0 ( ∀ x ∈ C , x ≠ 0 , ⟨ Hx , x ⟩ <0 ).
n n
3. Matrices unitaires
Définition : une matrice U est dite unitaire si U*U = I
Le calcul de l’inverse d’une matrice unitaire est particulièrement simple puisque
A-1 = A*
()
C ¿1
… ( C 1 … C n )=I soit C i C j=δ ij ou encore ⟨ C j ,C i ⟩ =δ ij ce qui signifie que les
¿
¿
Cn
colonnes de U sont orthonormées.
4. Matrices normales
Définition : une matrice est dite normale si elle commute avec son adjointe :
NN* = N*N
En particulier, les matrices qui sont hermitiennes ou unitaires sont normales.
En effet HH* = HH= H*H et UU* = UU-1 = U-1U = U*U.
Les matrices normales possèdent des propriétés agréables concernant leurs
valeurs et vecteurs propres.
i=1
( )
p p
S−1 ∑ α i Ai S=∑ α i S−1 Ai S d) La transformée d’un produit est égale au produit
i=1 i=1
des transformées.
S-1ABS = S-1ASS-1BS
e) La transformée par S laisse invariant le déterminant.
En effet det(S-1AS) = det (S-1)det(A)det(S) = det(A)
2. Equation caractéristique
Soit A une matrice carrée de dimension n, l’équation vectorielle en xϵCn :
Ax = λx ou (A – λI)x = 0
s’appelle équation caractéristique vectorielle de la matrice A.
Si det (A – λI) ≠ 0, cette équation n’admet pas d’autre solution que x = 0 ; il suffit
de multiplier par la matrice inverse pour s’en convaincre.
Il ne peut donc exister de vecteurs x ≠ 0, solutions de l’équation que si λ est une
solution de l’équation
det (A – λI) = 0
qui s’appelle équation caractéristique scalaire de la matrice A.
Les racines de l’équation caractéristique scalaire sont les valeurs propres de A.
Leur ensemble forme le spectre de A.
Les vecteurs non nuls qui sont solutions de l’équation caractéristique vectorielle
sont les vecteurs propres de A. Ils se répartissent en systèmes relatifs à une
même valeur propre et on parle alors des vecteurs propres de la valeur propre en
question.
| | | |
a11− λ … a1 n a11− λ a12 a13
… … … Pour fixer les idées, prenons n = 3 : a 21 a22−λ a23
an 1 … ann−λ a 31 a32 a33− λ
que l’on peut développer selon les puissances de λ :
3 2
P ( λ ) =−λ + ( a11 +a 22+ a33 ) λ + ( a12 a21+ a13 a31+ a23 a32−a 11 a22−a11 a33−a22 a33 ) λ+ ( a11 a22 a33 +a12 a23 a31+ a
Deux quantités importantes se manifestent :
- le terme indépendant n’est autre que le déterminant de A,
- le coefficient du terme en λ² est a11 + a22 + a33, c’est la somme des éléments de la
matrice qui se trouvent sur la diagonale principale, on appelle cette quantité la
n
trace de la matrice A : trA=∑ aii
i=1
Nous allons maintenant faire appel à un théorème qui sera démontré plus tard :
Théorème fondamental de l’Algèbre (d’ALEMBERT – GAUSS)
Tout polynôme de degré n en z complexe peut se décomposer de manière unique
p
en P ( z )=α ( z −z1 ) ( z−z 2 ) … ( z−z p ) avec ∑ mi =n
m1 m2 mp
i=1
¿ (−1 ) [ ( λ−λ1 ) ( λ−λ 1 ) … ][ ( λ−λ2 ) ( λ−λ 2 ) … ][ ( λ−λ p ) ( λ−λ p ) … ] où les λi sont les valeurs
n
p
propres de multiplicités respectives mi et où ∑ mi =n. En comparant avec
i=1
i=1 i=1
- la trace de la matrice est égale à la somme des valeurs propres (comptées avec
leur multiplicité).
- le déterminant de la matrice est égal au produit des valeurs propres (comptées
avec leur multiplicité).
(∑ ) ∑
p p p
A αi x i = α i A x i=λ ∑ α i xi Ceci implique que toute valeur propre admet une
i=1 i=1 i=1
() ()
x1 x1
… …
−1 x x
S AS= p A ( x1 … x p y p+1 … y n ) = p ( λ x1 … λ x p A y p+1 … A y n) =¿
y p+ 1 y p+1
… …
yn yn
car la matrice S est une matrice unitaire et donc S-1 = S* et aussi en vertu du fait
que la transformation par S laisse invariante l’équation caractéristique..
On voit ainsi que l’équation caractéristique scalaire det(A – βI) = 0, contient le
facteur (λ – β)p . Comme nous sommes partis de p vecteurs linéairement
() ()
α1 τ1
… …
α τp
Les vecteurs : p , … , constituent n-p vecteurs propres car ils sont
−1 0
… …
0 −1
visiblement annulés par A – λI.
Ils sont linéairement indépendants car toute relation linéaire entre eux ne peut
avoir que des coefficients nuls vu la forme des n-p dernières composantes.
Tout autre vecteur propre en est combinaison linéaire car le vecteur
() ()
¿ ¿
¿ −1 0
x = x+ x p +1 + …+ x n
… … doit être nul : en effet, d’une part par construction
0 −1
¿ ¿
x p+1=…=x n=0 et d’autre part, c’est un vecteur propre, ce qui entraîne
¿ ¿ ¿
0=( A− λI ) x =x 1 C1 +…+ x p C p donc x ¿1=…=x ¿p=0 vu l’indépendance linéaire des
C1, …, Cp.
¿ ¿ ¿
et par suite λ Y X=μ Y X soit ( λ−μ ) Y X=0 d’où Y*X = 0 car les valeurs propres
sont réelles et distinctes ; on a bien ⟨ x , y ⟩ =0
2. Exemple
( )
0 0 1
Considérons la matrice A= 0 1 0 son équation caractéristique scalaire est
1 0 0
( )
−λ 0 1
det 0 1−λ 0 =0 soit (1 – λ)(λ² - 1) = 0 donc les valeurs propres sont 1
1 0 −λ
( )( )
−1 0 1 x 1
Pour la racine double, on doit résoudre l’équation vectorielle 0 0 0 x 2 =0
1 0 −1 x 3
qui est équivalente à x1 – x3 = 0 dont la solution générale est :
( )() () ()
x1 α 1 0
x 2 = β =α 0 + β 1 α et β étant des paramètres.
x3 α 1 0
Les vecteurs propres relatifs à la valeur propre 1 sont des combinaisons linéaires
() ()
1 0
des deux vecteurs linéairement indépendants 0 et 1 .
1 0
Pour la racine simple, on doit résoudre l’équation vectorielle
()( ) {
1 0 1 x1 x 1+ x 3=0
0 2 0 x 2 =0 qui est équivalente à 2 x 2=0 dont la solution générale est
1 0 1 x3 x 1+ x 3=0
( )( ) ( )
x1 α 1
x 2 = 0 =α 0
x3 −α −1
Nous sommes dans les conditions du théorème de réduction puisque nous avons
()() ( )
1 0 1
3 vecteurs linéairement indépendants 0 , 1 et 0 .
1 0 −1
( )
1 0 1
On considère alors la matrice S= 0 1 0 cette matrice n’est pas orthogonale
1 0 −1
car les colonnes ne sont pas normées mais on trouve facilement son inverse
( )
1 1
0
2 2
−1
S =¿ 0 1 0 .
1 −1
0
2 2
( )(
1 1
0
)( )
2 2 0 0 1 0 0 1
−1
On vérifie que S AS= 0 1 0 0 1 0 0 1 0 =diag(1 , 1 ,−1)
1 −1 1 0 0 1 0 0
0
2 2
( )
1 0 0
- la matrice de rotation : S= 0 cos θ −sin θ est une matrice orthogonale car
0 sin θ cos θ
ses colonnes sont orthonormées. Si on cherche ses valeurs propres, on trouve λ1
= 1, λ2 = cos θ + i sin θ, λ3 = cos θ – i sin θ.
Les valeurs propres d’une matrice réelle peuvent être complexes !
On dispose enfin du résultat suivant : Toute matrice réelle symétrique (donc
hermitienne) est diagonalisable par une matrice orthogonale.
1. Matrices symétriques
Nous avons vu qu’une matrice hermitienne réelle est une matrice symétrique
puisque H −1=H ¿=~ H.
Nous savons aussi qu’une telle matrice a des valeurs propres réelles et que des
vecteurs propres relatifs à des valeurs propres distinctes sont orthogonaux..
Et enfin, qu’elle est diagonalisable par une matrice orthogonale.
~
On considère alors l’application de Rn → R, Q : X → X HX où H est une matrice
symétrique. On l’appelle forme quadratique réelle.
Prenons un exemple dans R³ :
( )( )
h11 h 12 h13 x1
Q ( X )= ( x1 x2 x3 ) h12 h 22 h23 x2 =h11 x 21 +h 22 x 22+h 33 x 23+ 2 h12 x 1 x 2+ 2 h13 x 1 x 3 +2 h23 x 2 x 3
h13 h 23 h33 x3
2. Classification des formes quadratiques
On répartit les formes quadratiques en 6 catégories :
a) Q est définie positive si Q(X) > 0 pour tout X non nul.
b) Q est définie négative si Q(X) < 0 pour tout X non nul.
c) Q est semi-positive si Q(X) ≥ 0 (mais pas toujours 0) pour tout X.
d) Q est semi négative si Q(X) ≤ 0 (mais pas toujours 0) pour tout X.
e) Q est indéfinie s’il existe X ≠0 tel que Q(X) > 0 et X’ ≠0 tel que Q(X’) < 0.
f) Q est nulle si Q(X) = 0 pour tout X.
( )
−1 0 1
Considérons la matrice H= 0 −4 −1 . Calculons ses valeurs propres ;
1 −1 −3
| |
−1−λ 0 1
0 −4−λ −1 =0(1 + λ) (1 -(4 + λ)(3 + λ)) + (4 + λ) = 0 soit λ³ + 8λ² +
1 −1 −3−λ
17λ + 7 = 0
On fait appel au théorème de DESCARTES, celui-ci dit que le nombre de racines
positives vaut le nombre de variations de signe des coefficients abstraction faite
des coefficients nuls. Il n’y a pas de valeur propre nulle sinon 7 = 0. Donc toutes
les valeurs propres sont négatives. Donc la matrice est définie négative.