0% ont trouvé ce document utile (0 vote)
139 vues13 pages

CH 1

Ce chapitre introduit la notion de forme linéaire sur un espace vectoriel E et définit l'espace dual E*. Il est démontré que si E est de dimension finie n, alors E* est aussi de dimension n et est isomorphe à E. Plusieurs exemples de formes linéaires sont donnés.

Transféré par

Deffo
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
139 vues13 pages

CH 1

Ce chapitre introduit la notion de forme linéaire sur un espace vectoriel E et définit l'espace dual E*. Il est démontré que si E est de dimension finie n, alors E* est aussi de dimension n et est isomorphe à E. Plusieurs exemples de formes linéaires sont donnés.

Transféré par

Deffo
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 1

Dualité

Sommaire
1.1 Formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Bases duales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 (*) Formes linéaires et sous-espaces vectoriels . . . . . . . . . . . . . . . 9
1.5 (*) Formes linéaires et applications . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

Dans ce chapitre, E désigne un K-espace vectoriel (K = Q, R, C ou plus généralement un corps


commutatif) de dimension finie n ∈ N∗ , sauf mention du contraire. On rappelle que K lui-même est
un K-espace vectoriel de dimension 1 ; sa base canonique est (1).

δ désigne le symbole de Kronecker (Léopold Kronecker 1823–1891) :


1 si i = j,
∀(i, j) ∈ N2 , δij = {
0 si i ≠ j.
En particulier, si B = (e1 , . . . , en ) est une base quelconque de E, on a
MatB (Id) = (δij ) 1⩽i⩽n .
1⩽j⩽n

1.1 Formes linéaires


Définition 1. 1. Une forme linéaire sur E est une application linéaire de E vers K. Usuellement
une forme linéaire est désignée par une lettre grecque : ϕ (phi), ψ (psi), θ (theta)...
2. L’ensemble des formes linéaires sur E s’appelle l’espace dual de E (ou plus simplement le dual
de E). On le note E ∗ .
En vertu de la définition, une forme linéaire ϕ est une application de E vers K qui satisfait
∀u, v ∈ E, ∀λ ∈ K, ϕ(u + λv) = ϕ(u) + λϕ(v).
Proposition 2. E ∗ est un espace vectoriel pour l’addition des applications et la multiplication par
un scalaire. Si E est de dimension finie, E ∗ l’est aussi et dim(E ∗ ) = dim(E). Et donc, dans ce
cas, E ∗ est isomorphe à E.
Nous verrons par la suite (section 1.3) comment trouver des bases de E ∗ si E est de dimension
finie. Remarquons également que, même si E et E ∗ sont isomorphes, il n’existe pas de manière
canonique (c’est-à-dire indépendante de tout choix) de construire un isomorphisme entre E et E ∗ ,
ceci nécessite d’avoir à disposition d’autres objets (voir le chapitre 2). Le cas où E est de dimension
infinie dépasse le cadre de ce cours.
Preuve de la proposition 2. On a que E ∗ = L(E, K) donc E ∗ est muni d’une structure d’espace
vectoriel. De plus, si E est de dimension finie,
dim(E ∗ ) = dim(L(E, K)) = dim(E) dim(K) = dim(E).
2 1.1 Formes linéaires

Pour montrer que E ∗ est un espace vectoriel, on aurait pu également voir que si ϕ, ψ ∈ E ∗ sont
deux formes linéaires et λ ∈ K un scalaire, l’application ϕ + λψ définie par

∀u ∈ E, (ϕ + λψ)(u) = ϕ(u) + λψ(u)

est une forme linéaire. L’élément neutre de E ∗ est la forme linéaire nulle 0E ∗ :

∀u ∈ E, 0E ∗ (u) = 0K .

Proposition 3. Soit ϕ une forme linéaire non nulle sur E. Alors ϕ est surjective et dim Ker (ϕ) =
n − 1.
Démonstration. Donnons deux preuves de la surjectivité de ϕ :
1. Im ϕ est un sous-espace vectoriel de K donc rg ϕ = dim Im ϕ = 0 ou 1. Si rg ϕ = 0, Im ϕ = {0K }
donc ∀u ∈ E, ϕ(u) = 0, autrement dit ϕ = 0E ∗ , ce que nous avons exclu dans les hypothèses de
la proposition. Donc rg ϕ = 1 et Im ϕ = K, c’est-à-dire ϕ surjective.
2. Puisque ϕ est non-nulle, il existe un vecteur u ∈ E tel que x ∶= ϕ(u) ≠ 0. Soit maintenant y ∈ K,
on cherche un vecteur v ∈ E tel que ϕ(v) = y. Or, pour tout λ ∈ K, si v = λu

ϕ(v) = ϕ(λu) = λϕ(u) = λx.

En choisissant λ = y/x (cette opération est permise car x ≠ 0), on a donc

ϕ ( u) = ϕ(u) = x = y.
y y y
x x x
Ce qui montre que pour tout y ∈ K, il existe v ∈ E tel que y = ϕ(v) : ϕ est surjective.
Pour démontrer le second point de la proposition, utilisons le théorème du rang appliqué à ϕ :

dim E = dim Ker (ϕ) + rg ϕ.

Nous avons dim E = n, par définition, et nous avons vu, dans le premier point que rg ϕ = 1. Ceci
montre que dim Ker (ϕ) = n − 1.
Donnons maintenant quelques exemples de références :
• Si E est un espace vectoriel quelconque de dimension n et si B = (e1 , . . . , en ) est une base de E,
on a, par définition
n
∀u ∈ E, ∃!(u1 , . . . , un ) ∈ Kn , u = ∑ ui e i .
i=1

Soit ϕ ∈ E . Comme ϕ est linéaire, on a


n n
ϕ(u) = ϕ (∑ ui ei ) = ∑ ui ϕ(ei ).
i=1 i=1

Ainsi ϕ est parfaitement déterminée par le n-uplet d’éléments de Kn

ϕ(B) = (ϕ(e1 ), . . . , ϕ(en )),

l’image par ϕ de B qui n’est autre que la matrice, de format (1, n), de ϕ relativement à la base
B:
⎛ u1 ⎞
⎜u ⎟
ϕ(u) = (ϕ(e1 ) ϕ(e2 ) ⋯ ϕ(en )) ⋅ ⎜ 2 ⎟ ,
⎜ ⋮ ⎟
⎝un ⎠

c’ést l’écriture matricielle du scalaire ϕ(u).


Dans le cas particulier où E = Kn muni de sa base canonique

⎪ e1 = (1, 0, . . . , 0),





⎪ e2 = (0, 1, . . . , 0),



⎪ ⋮



⎩ en = (0, 0, . . . , 1),

Dualité 3

on a que ϕ ∈ E ∗ si et seulement s’il existe n scalaires α1 , . . . , αn ∈ K tels que


n
ϕ((x1 , . . . , xn )) = α1 x1 + ⋯ + αn xn = ∑ αi xi .
i=1

On a alors, pour tout i = 1, . . . , n, αi = ϕ(ei ) : les αi sont déterminés de manière unique par ϕ.
Par exemple,
ϕ = 0E ∗ ⇔ (α1 , . . . , αn ) = (0, . . . , 0).

• Si E = Mn (K) est le K-espace vectoriel des matrices carrées de taille n à coefficients dans K,
dim(E) = n2 . La base canonique de E est la base

B = (E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , En1 , En2 , . . . , Enn ),

formée des matrices élémentaires Ekl définies par Ekl = (δik δjl ) 1⩽i⩽n , avec δ le symbole de
1⩽j⩽n
Kronecker (Ekl est la matrice carrée de taille n ayant des zéros partout sauf un 1 à l’intersection
de la k-ième ligne et de la l-ième colonne). L’application trace
n
A = (aij ) 1⩽i⩽n ↦ tr A ∶= ∑ aii
1⩽j⩽n i=1

est une forme linéaire sur Mn (K). En effet, pour toutes matrices A, B ∈ Mn (K) et pour tout
scalaire λ ∈ K, on a
n n n
tr(A + λB) = ∑(aii + λbii ) = ∑ aii + λ ∑ bii = tr(A) + λ tr(B).
i=1 i=1 i=1

• Soit E = Kn [X] = {P ∈ K[X], deg(P ) ⩽ n} l’ensemble des polynômes de degré au plus n. La


base canonique de E est B = (1, X, X 2 , . . . , X n ), donc dim(E) = Card(B) = n + 1. Pour tout
x ∈ K, l’application δx ∶ P ↦ P (x) est une forme linéaire sur E appelée évaluation en x. Plus
généralement, si x ∈ K et k ∈ N, on peut définir une forme linéaire sur E par

ψx,k ∶ P ↦ P (k) (x) (1.1.1)

(évaluation de la dérivée k-ième de P en x). Remarquons que si k ⩾ n + 1, ψx,k = 0E ∗ .

• Soit E = C([a, b], R) l’espace vectoriel des applications continues de l’intervalle [a, b] dans R,
avec a et b deux réels, a < b. C’est un espace vectoriel de dimension infinie. L’application

I ∶f ↦∫ f (t)dt
b

est une forme linéaire sur E grâce à la linéarité de l’intégrale. Et, comme précédemment, si
x ∈ [a, b], l’application δx suivante est une forme linéaire : δx ∶ f ↦ f (x).

1.2 Hyperplans
Définition 4. On appelle hyperplan de E le noyau d’une forme linéaire non nulle sur E :

H hyperplan de E ⇔ ∃ϕ ∈ E ∗ ∖ {0E ∗ }, H = Ker (ϕ).

Par conséquent, un hyperplan H de E est un sous-espace vectoriel de de E de dimension n − 1


si dim E = n (voir la proposition 3).

Théorème 5. Soit H un sous-espace vectoriel de E. Les propositions suivantes sont équivalentes :

i) H est un hyperplan de E,

ii) H est un sous-espace vectoriel strict de E et ∀u ∈ E ∖ H, E = H ⊕ Ku,

iii) dim H = n − 1.

Démonstration. • i ⇒ iii : Si H est un hyperplan, soit ϕ ∈ E ∗ telle que H = Ker (ϕ). On a vu


(voir proposition 3) que dim(H) = dim Ker (ϕ) = n − 1.
4 1.2 Hyperplans

• iii ⇒ ii : On a dim H = n − 1 < dim E donc H est un sous-espace vectoriel strict de E.


Soit u ∈ E ∖ H. Posons F = Ku. Si v ∈ F ∩ H, v ≠ 0, on a u = λv pour un certain λ ∈ K∗ et, comme
v ∈ H, u = λ−1 v ∈ H, ce qui contredit le choix de u. Donc F ∩ H = {0E }. Par ailleurs, on sait

dim(F + H) = dim(F ) + dim(H) − dim(F ∩ H) = 1 + (n − 1) − 0 = n

donc F + H = E et, comme F ∩ H = {0E }, on a F ⊕ H = E, ce qui est ii.


• ii ⇒ i : Soit u ∈ E ∖ H. Soit ϕ l’application de E dans K définie de la manière suivante : Pour
tout v ∈ E, on peut écrire de manière unique v = v0 + v1 avec v0 ∈ H et v1 =∈ Ku donc (de manière
unique là encore) v1 = λv u. On pose alors ϕ(v) ∶= λv . Montrons que ϕ est linéaire. Soient v, w ∈ E
et α ∈ K, notons
v = v0 + λv u,
{
w = w 0 + λw u
leur décomposition dans la somme directe E = H ⊕ Ku de sorte que

ϕ(v) = λv , ϕ(w) = λw .

On a alors que l’égalité


v + αw = (v0 + αw0 ) + (λv + αλw )u
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
∈H ∈Ku

est la décomposition de v + αw dans la somme directe et, selon la définition de ϕ,

ϕ(v + αw) = λv + αλw = ϕ(v) + αϕ(w).

Ce qui montre que ϕ est une forme linéaire. Reste à voir maintenant que Ker (ϕ) = H. Or, si
v ∈ H, on a que v = v + 0 u est la décomposition de v dans la somme directe E = H ⊕ Ku. Donc
ϕ(v) = λv = 0 et v ∈ Ker (ϕ), ce qui montre que H ⊂ Ker (ϕ). En particulier, dim(Ker (ϕ)) ⩾
dim(H) = n − 1. Or la décomposition de u dans la somme directe est u = 0 + 1 u d’où on tire
ϕ(u) = 1. Donc ϕ ≠ 0E ∗ et dim(Ker (ϕ)) = n − 1 = dim H. Comme H ⊂ Ker (ϕ), ceci montre que
H = Ker (ϕ), autrement dit H est un hyperplan de E.

Théorème 6. Soient ϕ et ψ deux formes linéaires sur E. On a

(Ker (ϕ) = Ker (ψ)) ⇔ (∃λ ∈ K∗ , ψ = λϕ).

Démonstration. Si ψ = λϕ avec λ ∈ K∗ , on a trivialement que Ker (ϕ) = Ker (ψ). Supposons donc
que Ker (ϕ) = Ker (ψ). Distinguons deux cas :
• Si Ker (ϕ) = Ker (ψ) = E, on a ϕ = ψ = 0E ∗ et les deux formes sont proportionnelles l’une à
l’autre (prendre par exemple λ = 1).
• Si Ker (ϕ) = Ker (ψ) = H avec H un hyperplan de E. Soit u ∈ E ∖ H. On a alors ϕ(u) ≠ 0 et
ψ(u) ≠ 0. Posons
λ= ∈ K∗ .
ψ(u)
ϕ(u)
Montrons que ψ = λϕ. Soit v ∈ E. Notons, comme dans la preuve du théorème précédent v =
v0 + αu la décomposition de v dans la somme directe E = H ⊕ Ku (v0 ∈ H et α ∈ K). On a alors

ψ(v) = ψ(v0 ) + αψ(u) (linéarité de ψ)

=0+α (v0 ∈ Ker (ψ))


ψ(u)
ϕ(u)
ϕ(u)
= λϕ(v0 ) + αλϕ(u) (v0 ∈ Ker (ϕ))
= λ(ϕ(v0 ) + αϕ(u))
= λϕ(v0 + αu)
= λϕ(v).

Nous avons donc montré que pour tout v ∈ E on a ψ(v) = λϕ(v), autrement dit ψ = λϕ.
Dualité 5

Remarquons que la preuve nous montre qu’une forme linéaire ϕ (non nulle) est définie connais-
sant son noyau et la valeur qu’elle prend sur un vecteur u ∈ E ∖ Ker (ϕ). Donnons maintenant
quelques exemples :

• H = {(x, y, z) ∈ R3 ∣ x − y + z = 0} est un hyperplan de R3 . C’est le plan vectoriel (dim H =


3 − 1 = 2) d’équation x − y + z = 0 puisque ϕ(x, y, z) = x − y + z définit une forme linéaire sur
R3 . On a
H = {(y − z, y, z), (y, z) ∈ R2 } = Vect{(1, 1, 0), (−1, 0, 1)}
donc une base de H est donnée par G = {(1, 1, 0), (−1, 0, 1)} (c’est une famille génératrice
minimale car Card G = 2 = dim H).

Les vecteurs u1 = (2, −1, −3) et u2 = (1, 1, 1) appartiennent-ils à H ? Il suffit pour cela de
calculer ϕ(u1 ) et ϕ(u2 ) :

ϕ(u1 ) = 2 − (−1) + (−3) = 0 donc u1 ∈ H,


ϕ(u2 ) = 1 − 1 + 1 = 1 ≠ 0 donc u2 ∈/ H.

Les supplémentaires de H sont les droites vectorielles Ru0 avec u0 = (a, b, c) ∈/ H, autrement
dit tels que a − b + c ≠ 0.

• Pour tout a ∈ R, nous avons noté δa ∶ P ↦ P (a) la forme linéaire “évaluation en a”. C’est
une forme linéaire non nulle sur Kn [X] car δa (1) = 1. Donc Ha = Ker δa est un hyperplan de
Kn [X].
La famille L = (X−a, (X−a)2 , . . . , (X−a)n ) est une famille de n vecteurs dans Ha linéairement
indépendents (car échelonnés par leur degré). C’est une famille libre maximale de Ha donc
une base de Ha .

Exercice. 1. Montrer qu’un hyperplan de E est un sous-espace vectoriel strict de E qui n’est
inclus (strictement) dans aucun autre sous-espace vectoriel de E hormis E lui-même.

2. (difficile) Montrer que tout hyperplan de Mn (K) intersecte GLn (K).

1.3 Bases duales


Dans toute cette section E est un K-espace vectoriel de dimension finie n.

Théorème 7 (Base duale). Soit B = (e1 , . . . , en ) une base de E. Pour tout i ∈ {1, . . . , n}, on note
e∗i la forme linéaire sur E définie par

∀j ∈ {1, . . . , n}, e∗i (ej ) = δij (relations d’orthogonalité de Kronecker),

avec δij le symbole de Kronecker. e∗i est appelé la ième forme (linéaire) coordonnée de la base B.
On a

1. La famille (e∗1 , . . . , e∗n ) est une base de E appelée base duale de B.

2. Pour tout u ∈ E,
n
u = ∑ e∗i (u)ei . (1.3.1)
i=1

n
3. Pour tout ϕ ∈ E ∗ , ϕ = ∑ ϕ(ei )e∗i .
i=1

Remarquons que le deuxième point justifie l’appellation “forme linéaire coordonnée” pour e∗i
car e∗i (u) est la coordonnée de u le long du vecteur ei .

Démonstration. Nous avons défini les e∗i sur une base de E, nous savons alors qu’il existe une et
une seule manière de les définir sur E tout entier par linéarité. Montrons maintenant chacun des
trois points.
6 1.3 Bases duales

• La famille des e∗i est une famille libre. En effet, si λ1 , . . . , λn ∈ K sont tels que

λ1 e∗1 + ⋯ + λn e∗n = 0E ∗ ,

⎛n ∗⎞
n n
on a, pour tout i ∈ {1, . . . , n}, 0 =∑ λj ej (ei ) = ∑ λj ej (ei ) = ∑ λj δji = λi . Donc λi = 0

⎝j=0 ⎠ j=0 j=0
pour tout i, ce qui montre bien que la famille des e∗i est libre. Comme elle est de rang maximal
n = dim E ∗ , c’est une base de E ∗ .

• Pour tout u ∈ E, notons u = u1 e1 + ⋯ + un en sa décomposition dans la base B. On a


n n
e∗i (u) = e∗i (u1 e1 + ⋯ + un en ) = ∑ uj e∗i (ej ) = ∑ uj δij = ui ,
j=1 j=1

n
ce qui montre que u = ∑ e∗i (u)ei .
i=1

• Soit ϕ ∈ E ∗ . En utilisant la formule précédente, on a, pour tout u ∈ E,


n n n
ϕ(u) = ϕ (∑ e∗i (u)ei ) = ∑ e∗i (u)ϕ(ei ) = ∑ ϕ(ei )e∗i (u),
i=1 i=1 i=1

n
d’où on tire ϕ = ∑ ϕ(ei )e∗i .
i=1

Remarquons ici que pour établir les points 2 et 3, nous n’avons pas utilisé le fait que les e∗i
forment une base de E ∗ . La formule du point 3 montre que les e∗i forment une famille génératrice
de E ∗ .

Théorème 8 (Base antéduale). Soit Φ = (ϕ1 , . . . , ϕn ) une base de E ∗ . Il existe une unique base
F = (f1 , . . . , fn ) de E telle que

∀(i, j) ∈ {1, . . . , n}2 , ϕi (fj ) = δij .

Cette base est appelée antéduale (ou préduale) de la base Φ.

Démonstration. La principale difficulté de cette preuve, par rapport à la preuve de l’existence


d’une base duale, est qu’on ne peut pas construire les éléments de E comme on construit une
forme linéaire. Il faut donc procéder différemment. Soit B = (e1 , . . . , en ) une base quelconque de
E. Nous cherchons des vecteurs f1 , . . . fn ∈ E que nous pouvons écrire
n
fj = ∑ pjk ek
k=1

avec P = (pij ) 1⩽i⩽n la matrice de passage de B à F. F est la base duale de Φ si et seulement si,
1⩽j⩽n
pour tout (i, j) ∈ {1, . . . , n}2 , on a
n n
δij = ϕi (fj ) = ϕi ( ∑ pjk ek ) = ∑ pjk ϕi (ek ).
k=1 k=1

Soit A la matrice définie par


A = (aki )1⩽k⩽n , aki = ϕi (ek ).
1⩽i⩽n
n
L’égalité δij = ∑ pjk ϕi (ek ) peut s’écrire matriciellement In = P A. Donc, si on montre que A est
k=1
inversible, on aura P = A−1 , ce qui démontrera l’existence et l’unicité de la base antéduale. Soit

⎛ x1 ⎞
X =⎜ ⋮ ⎟
⎝xn ⎠
Dualité 7

un vecteur colonne tel que AX = 0. On a alors, pour tout k ∈ {1, . . . , n},


n n
0 = (AX)k = ∑ ϕi (ek )xi = (∑ xi ϕi ) (ek ).
i=1 i=1

La forme linéaire ϕ = ∑ni=1 xi ϕi est nulle en chacun des vecteurs e1 , . . . , en et ces vecteurs forment
une base de E, donc ϕ = 0E ∗ :
n
0E ∗ = ∑ xi ϕi .
i=1

Mais comme les ϕi forment une base de E , on en déduit que tous les xi sont nuls, i.e. X = 0. Nous

avons donc montré que le noyau de A est réduit à 0, donc A est inversible.

Les deux théorèmes précédents montrent qu’il existe une bijection canonique entre les bases de
E et celles de E ∗ . Donnons maintenant quelques exemples de calcul de base duale et préduale.

• Dans E = R3 muni de sa base canonique B0 = (e1 , e2 , e3 ), posons

u1 = e 1 + e 3 , u2 = e 1 − e 2 , u3 = e 2 − e 3 .

B = (u1 , u2 , u3 ) est une base de R3 : en effet,


RRR1 1 0 RRRR
R
det B0 B = RRRRR0 −1 1 RRRR = 2 ≠ 0
RRR0 −1 R
R −1RRRR

Notons P la matrice de passage de B0 à B :

⎛1 1 0⎞
P = ⎜0 −1 1⎟
⎝0 −1 −1⎠

Déterminons maintenant la base duale B ∗ de B :

B ∗ = (u∗1 , u∗2 , u∗3 ),

on doit résoudre u∗i (uj ) = δij pour 1 ⩽ i, j ⩽ 3. Faisons le calcul pour u∗1 . Posons u∗1 = ae∗1 +be∗2 +ce∗3 .
On veut

⎪ 1 = u∗1 (u1 ) ⎧ 1 = ae∗1 (u1 ) + be∗2 (u1 ) + ce∗3 (u1 ) ⎧

⎪ ⎪

⎪ ⎪
⎪ 1 = a +c
⎪ ⎪ ⎪
⎨ 0 = u1 (u2 ) ⇔ ⎨ 0 = ae1 (u2 ) + be2 (u2 ) + ce3 (u2 ) ⇔ ⎨ 0 = a
∗ ∗ ∗ ∗
−b

⎪ ⎪
⎪ ⎪


⎩ 0 = u1 (u3 )
⎪ ∗ ⎪
⎩ 0 = ae1 (u3 ) + be2 (u3 ) + ce3 (u3 )
⎪ ∗ ∗ ∗
⎩ 0 =
⎪ b −c

La solution de ce système est a = b = c = . Donc u∗1 = 12 (e∗1 + e∗2 + e∗3 ). On trouve de même :
1
2

u∗2 = (e∗1 − e∗2 − e∗3 ), u∗3 = (e∗1 + e∗2 − e∗3 ).


1 1
2 2

Grâce à ce qui précède, nous pouvons déterminer P −1 , la matrice de passage de B à B0 . Il faut


pour cela connaître les coordonnées de e1 , e2 , e3 dans B. On utilise pour cela la formule (1.3.1) :
ej = ∑ u∗i (ej )uu . Donc
3

i=1

1⎛
1 1 1⎞
P −1 = (u∗i (ej )) 1⩽i⩽3 = ⎜1 −1 −1⎟ .
1⩽j⩽3 2 ⎝1 1 −1⎠
Remarquez que P −1 = t Q où Q est la matrice de passage de B0∗ à B ∗ (Pourquoi ?).

• Dans E = Kn [X] muni de sa base canonique B0 = (1, X, X 2 , . . . , X n ), on a grâce à la formule de


Taylor
n
P (i) (0) i
∀P ∈ E, P = ∑ X (1.3.2)
i=0 i!
8 1.3 Bases duales

P (i) (0)
En posant ∀P ∈ E, ϕi (P ) ∶= , on a que ϕi ∈ E ∗ (on a ϕi = ψ0,i , voir (1.1.1)) et la formule
i!
(1.3.2) s’écrit
n
∀P ∈ E, P = ∑ ϕi (P )X i ,
i=0

autrement dit, ϕi (P ) est la coordonnée le long de X i dans la base B0 :


(ϕ0 , ϕ1 , . . . , ϕn ) est la base duale de B0 .
n
En particulier, B0 est une base de E ∗ et on a ∀ϕ ∈ E ∗ , ϕ = ∑ ϕ(X i )ϕi .
i=0

• Soit E = R2 [X] muni de sa base canonique B0 = (1, X, X ), on considère les trois formes linéaires
2

définies par
ϕ0 (P ) = P (0), ϕ1 (P ) = P (1), ϕ2 (P ) = P (2),
c’est-à-dire les évaluations en 0, 1 et 2.

Montrons tout d’abord que (ϕ0 , ϕ1 , ϕ2 ) est une base de E ∗ . On calcule pour cela
RRR ϕ0 (1) ϕ1 (1) ϕ2 (1) RRRR RRRR1 1 1RRRR
RRR RR RR RR 1 2∣ = 4 − 2 = 2 ≠ 0,
det B0 (ϕ0 , ϕ1 , ϕ2 ) = RRR 0 (X) (X) 2 (X) R = R0 1 2R = ∣
RRRϕ (X 2 ) ϕ (X 2 ) ϕ (X 2 )RRRR RRRR0 1 4RRRRR 1 4
ϕ ϕ 1 ϕ
R 0 1 2 RR RR R
donc (ϕ0 , ϕ1 , ϕ2 ) est une base de E ∗ .

Trouvons maintenant la base antéduale de (ϕ0 , ϕ1 , ϕ2 ). On cherche une famille (P0 , P1 , P2 )


d’éléments de E telle que ϕi (Pj ) = δij pour 0 ⩽ i, j ⩽ 2. Faisons le calcul pour P0 . Posons
P0 = a + bX + cX 2 . On doit résoudre le système suivant :

⎪ a=1
⎧ ⎧ ⎪


⎪ = (P ) ⎪
⎪ = ⎪



1 ϕ 1 a
⎪ ⎪
⎪ ⎪

⎨ 0 = ϕ1 (P0 ) ⇔ ⎨ 0 = a + b + c ⇔ ⎨ b = − 2
0 0 3


⎪ ⎪





⎩ 0 = ϕ2 (P0 )
⎪ ⎩ 0 = a + 2b + 4c
⎪ ⎪


⎪ c=
1

⎩ 2
Donc
(X − 1)(X − 2)
P0 = 1 − X + X 2 =
3 1
.
2 2 (0 − 1)(0 − 2)
En procédant de même pour P1 et P2 , on obtient
(X − 0)(X − 2) (X − 0)(X − 1)
P1 = 2X − X 2 = P2 = − X + X 2 =
1 1
, .
(1 − 0)(1 − 2) 2 2 (2 − 0)(2 − 1)
On a ici un exemple simple de polynômes interpolateurs de Lagrange pour pour les valeurs 0, 1
et 2. Finalement, déterminons les 3 réels a, b, c tels que

∀P ∈ E, ∫ P (t)dt = aP (0) + bP (1) + cP (2).


2

L’application ϕ ∶ P ↦ ∫
2
P (t)dt est une application linéaire sur E. Donc (formule (2)), on a
0

ϕ = ϕ(P0 )ϕ0 + ϕ(P1 )ϕ1 + ϕ(P2 )ϕ2 .


Il nous suffit donc de calculer ϕ(P0 ), ϕ(P1 ), ϕ(P2 ) :

ϕ(P0 ) = ∫ (1 − t + t2 ) dt = ,
32 1 1
0 2 2 3
ϕ(P1 ) = ∫ (2t − t2 ) dt = ,
2 4
0 3
ϕ(P2 ) = ∫ (− t + t2 ) dt = .
2 1 1 1
0 2 2 3

On a donc ϕ = ϕ0 + ϕ1 + ϕ2 , ce qu’on peut écrire sous la forme


1 4 1
3 3 3

∀P ∈ E, ∫ P (t)dt = P (0) + P (1) + P (2)


2 1 4 1
(formule des trois niveaux).
0 3 3 3
Dualité 9

1.4 (*) Formes linéaires et sous-espaces vectoriels


Nous avons vu dans la section 1.2 le lien entre formes linéaires et hyperplans. Essayons de généraliser
cette construction pour inclure tous les sous-espaces vectoriels de E.
Définition 9. 1. Soit A une partie de E. On définit

A⊥ ∶= {ϕ ∈ E ∗ ∣∀a ∈ A, ϕ(a) = 0},

autrement dit A⊥ est l’ensemble des formes linéaires s’annulant sur tous les éléments de A.
2. Soit B une partie de E ∗ . On définit de manière analogue l’ensemble des u ∈ E sur lesquels tous
les éléments de B s’annulent :

B ∶= {u ∈ E∣∀ϕ ∈ B, ϕ(u) = 0}

Remarquons ici la notation que nous avons employée : A⊥ est une partie de E ∗ alors que ⊥ B
est une partie de E, la différence permet ici de savoir si l’on a affaire à un sous-espace de E ou de
E∗.
Exemple. 1. On a E ⊥ = {0E ∗ } et {0E }⊥ = E ∗ . De même, ⊥ (E ∗ ) = {0E } et ⊥ {0E ∗ } = E.
2. Si H = Ker ϕ est un hyperplan de E, on a H ⊥ = Kϕ, c’est le théorème 6.
Le principal résultat de cette section est contenu dans les deux théorèmes suivants :
Théorème 10. 1. Si A et A′ sont deux parties de E avec A ⊂ A′ , on a (A′ )⊥ ⊂ A⊥ (l’application
A ↦ A⊥ renverse l’inclusion).
2. Si A est une partie de E, A⊥ = (Vect(A))⊥ est un sous-espace vectoriel de E ∗ et ⊥ (A⊥ ) =
Vect(A). En particulier, si A est un sous-espace vectoriel de E, on a ⊥ (A⊥ ) = A.
3. Si A est un sous-espace vectoriel de E,

n = dim(A) + dim(A⊥ ).

Le deuxième point de ce théorème est important : Si A est un sous-espace vectoriel de E,


connaître A est équivalent à connaître A⊥ puisque l’un se déduit de l’autre. Les bases de A⊥ (ou
plus généralement les familles génératrices) forment des systèmes d’équations de A.
Démontration du théorème 10. 1. Soit ϕ ∈ (A′ )⊥ : ∀u ∈ A′ , ϕ(u) = 0. En particulier, comme A ⊂ A′ ,
on a ∀u ∈ A, ϕ(u) = 0, c’est-à-dire ϕ ∈ A⊥ . Ceci montre donc que (A′ )⊥ ⊂ A⊥ .
2. Soient ϕ, ψ ∈ A⊥ et λ ∈ K. On a, pour tout a ∈ A,

(λϕ + ψ)(a) = λϕ(a) + ψ(a) = λ × 0 + 0 = 0,

ce qui montre que λϕ + ψ ∈ A⊥ et donc que A⊥ est un sous-espace vectoriel de E ∗ . Par définition
de A⊥ , si a ∈ A, on a
∀ϕ ∈ A⊥ , ϕ(a) = 0,
ce qui montre que a ∈ ⊥ (A⊥ ) : A ⊂ ⊥ (A⊥ ). Comme ⊥ (A⊥ ) est un sous-espace vectoriel de E
(voir théorème 11), nous avons Vect(A) ⊂ ⊥ (A⊥ ). Nous devons maintenant montrer l’inclusion
réciproque : ⊥ (A⊥ ) ⊂ Vect(A). Nous allons montrer

Vect(A)c ⊂ (⊥ (A⊥ )) .
c

Si Vect(A) = E, il n’y a rien à faire. Sinon, soit u ∈ Vect(A)c . Nous devons montrer u ∈/ ⊥ (A⊥ ),
autrement dit
∃ϕ ∈ A⊥ , ϕ(u) =/ 0
(c’est la négation de ∀ϕ ∈ A⊥ , ϕ(u) = 0). Nous cherchons donc une forme linéaire ϕ ∈ A⊥ (nulle
sur Vect(A)) telle que ϕ(u) ≠ 0. Soit k = dim(Vect(A)) < n. On se donne (e1 , . . . , ek ) une base
de Vect(A). Posons ek+1 = u et complêtons la famille libre (e1 , . . . , ek+1 ) en une base (e1 , . . . , en )
de E. Prenons la forme linéaire ϕ définie par

ϕ(ei ) = 0 si i ≠ k + 1, ϕ(ek+1 ) = 1.

On a alors e1 , . . . , ek ∈ Ker (ϕ) donc A = Vect(e1 , . . . , ek ) ⊂ Ker (ϕ), ce qui montre ϕ ∈ A⊥ et


ϕ(u) = ϕ(ek+1 ) = 1 ≠ 0. Ceci achève la preuve de x ∈/ ⊥ (A⊥ ).
10 1.4 (*) Formes linéaires et sous-espaces vectoriels

3. Soit k = dim(A). Choisissons une base (e1 , . . . , ek ) de A que nous complêtons en une base
(e1 , . . . , en ). Soit (e∗1 , . . . , e∗n ) la base duale. Posons B ∶= Vect(e∗1 , . . . , e∗k ), de sorte que dim(B) =
k = dim(A). Si ϕ ∈ B, on peut écrire de manière unique

ϕ = λ1 e∗1 + ⋯ + λk e∗k .

Donc si ϕ ∈ B ∩ A⊥ , on a ϕ = λ1 e∗1 + ⋯ + λk e∗k et ϕ(e1 ) = ⋯ = ϕ(ek ) = 0. Donc

λ1 = ϕ(e1 ) = 0, . . . , λk = ϕ(ek ) = 0,

ce qui montre que ϕ = 0E ∗ :


B ∩ A⊥ = {0E ∗ }.
Soit maintenant ψ ∈ E ∗ quelconque. Il existe des coefficients α1 , . . . , αn ∈ K tels que ψ = α1 e∗1 +
⋯ + αn e∗n . Posons

ψB = α1 e∗1 + ⋯ + αk e∗k , ψA⊥ = αk+1 e∗k+1 + ⋯ + αn e∗n .

On a clairement ψB ∈ B. De plus, on voit que ψA⊥ (e1 ) = ⋯ = ψA⊥ (ek ) = 0 donc A ⊂ Ker (ψA⊥ ) et
ψA⊥ ∈ A⊥ . Nous avons donc montré que B + A⊥ = E ∗ . Finalement

n = dim(E ∗ ) = dim(B) + dim(A⊥ ) = dim(A) + dim(A⊥ ).

Théorème 11. 1. Si B et B ′ sont deux parties de E ∗ avec B ⊂ B ′ , on a ⊥ (B ′ ) ⊂ ⊥ B (l’application


B ↦ ⊥ B renverse l’inclusion).

2. Si B est une partie de E ∗ , ⊥ B = ⊥ (Vect(B)) est un sous-espace vectoriel de E et (⊥ B)⊥ =


Vect(B).

3. Si B est un sous-espace vectoriel de E ∗ ,

n = dim(B) + dim(⊥ B).

La preuve de ce second théorème est similaire à celle du premier. Nous la laissons donc en
exercice. L’analogie entre ces deux théorèmes est assez remarquable et illustre la dualité (au sens
usuel) entre E et E ∗ . Nous avons vu que E et E ∗ sont isomorphes, mais pas de manière naturelle.
Cependant, nous avons le fait suivant :

Théorème 12. On appelle bidual de E le dual de E ∗ (l’ensemble des formes linéaires sur E ∗ )
noté E ∗∗ . Si u ∈ E, on définit une forme linéaire Θu ∶ E ∗ → K par

Θu (ϕ) = ϕ(u).

On a donc Θu ∈ E ∗∗ et l’application u ↦ Θu est linéaire. Si E est de dimension finie, cette


application est un isomorphisme entre E et E ∗∗ .

Démonstration. Vérifions que Θu est linéaire. Si ϕ, ψ ∈ E ∗ et λ ∈ K, on a

Θu (λϕ + ψ) = (λϕ + ψ)(u) = λϕ(u) + ψ(u) = λΘu (ϕ) + Θu (ψ),

ce qui montre que Θu est une forme linéaire sur E ∗ : Θu ∈ E ∗∗ . De plus, si u, v ∈ E et si λ ∈ K, on


a, pour tout ϕ ∈ E ∗ ,

Θλu+v (ϕ) = ϕ(λu + v) = λϕ(u) + ϕ(v) = λΘu (ϕ) + Θv (ϕ).

Remarquons qu’on a utilisé ici le fait que ϕ est linéaire ( !). Nous avons donc montré (ϕ étant
quelconque) que Θλu+v = λΘu + Θv , ce qui montre que Θ ∶ u ↦ Θu est linéaire. Ensuite, on a
dim E ∗∗ = dim(E ∗ ) = dim(E), donc pour montrer que Θ est un isomorphisme, il suffit de montrer
que Θ est injective. Or, si Θu = 0 pour un certain u ∈ E, on a ∀ϕ ∈ E ∗ , 0 = Θu (ϕ) = ϕ(u), ce qui
impose u = 0 (on consultera ici la preuve du théorème 10 oÃź l’on montre que pour tout sous-espace
A et tout u ≠ 0 il existe une forme linéaire ϕ nulle sur A et telle que ϕ(u) ≠ 0, il suffit ici de prendre
A = {0}). Θ est donc un isomorphisme.
Dualité 11

1.5 (*) Formes linéaires et applications


Dans cette section, donnons-nous E et F deux K-espaces vectoriels de dimension finie.

Définition 13. Soit Φ ∈ L(E, F ) une application linéaire. On appelle application transposée l’ap-
plication linéaire t Φ ∶ F ∗ → E ∗ définie par t Φ(ϕ) = ϕ ○ Φ pour tout ϕ ∈ F ∗ .

Nous laissons le soin au lecteur de vérifier que t Φ est bien définie et linéaire.

Théorème 14. Soit B (resp. C) une base de E (resp. de F ). Notons B ∗ (resp. C ∗ ) sa base duale.
On a alors
MatC ∗ ,B∗ (t Φ) = t (MatB,C (Φ)) .
Autrement dit, la matrice de l’application transposée (dans les bases duales) est la transposée de
l’application elle-même.

Démonstration. Notons n = dim(E) et m = dim(F ). Soient A = (aij ) et B = (bij ) les matrices de


Φ et t Φ :
m n
∀j ∈ {1, . . . , n}, Φ(ej ) = ∑ aij fi , ∀i ∈ {1, . . . , m}, t Φ(fi∗ ) = ∑ bji e∗j .
i=1 j=1

n
On a ∑ bji e∗j = t Φ(fi∗ ) = fi∗ ○ Φ. La formule (1.3.1) peut s’écrire (en enlevant la référence à u ∈ E)
j=1
n
IdE = ∑ e∗j (⋅)ej , d’où
j=1

n n n
∑ bji ej = fi ○ Φ ○ IdE = ∑ ei (⋅)fi (Φ(ej )) = ∑ aij ei (⋅).
∗ ∗ ∗ ∗ ∗
j=1 j=1 j=1

En identifiant, on trouve donc bji = aij pour toute paire (i, j), ce qui montre B = t A.

1.6 Exercices
Exercice 1. Dans Mn (K), Eij désigne la matrice, dite élémentaire, dont les coefficients sont nuls
sauf celui situé à l’intersection de la ligne i et de la colonne j qui vaut 1 : Eij = (δik δjl )1⩽k⩽n .
1⩽l⩽n

1. Justifier que B0 = (Eij ) 1⩽i⩽n est une base de Mn (K) (c’est sa base canonique). En déduire
1⩽j⩽n
dim(Mn (K)).

2. On note (E1 , E2 , . . . , En ) la base canonique de Mn,1 (K) (l’espace des matrices colonnes de lon-
gueur n). Prouver que, pour toute paire (i, j) d’entiers entre 1 et n, on a t Ei .Ei = δij , et Ei .t Ej =
Eij .

3. En utilisant la question précédente, montrer que, pour tous i, j, k, l entiers entre 1 et n, on a


Eij Ekl = δjk Eil .

4. Soit A = (aij ) une matrice de Mn (K) dont on note L1 , . . . , Ln les lignes et C1 , . . . , Cn les colonnes.
Décrire les matrices Eij A et AEij . En déduire le centre de Mn (K) : C ∶= {A ∈ Mn (K), ∀M ∈
Mn (K), AM = M A}.

Exercice 2. 1. Définir, à l’aide de quantificateurs, les propriétés suivantes de la matrice A ∈


Mn (K) :

• A est triangulaire supérieure (resp. inférieure),


• A est diagonale,
• A est scalaire,
• A est symétrique (resp. antisymétrique).

2. Soit D ∈ Mn (K) une matrice diagonale. Donner une condition nécessaire et suffisante pour que
D soit inversible et déterminer alors son inverse.
12 1.6 Exercices

3. On note Sn (resp. An ) l’ensemble des matrices symétriques (resp. antisymétriques) de Mn (K).


Après avoir rappelé les propriétés de la transposition, montrer que Sn et An sont deux sous-
espaces supplémentaires de Mn (K).
4. Donner une base de Sn et de An lorsque n = 2 ou 3 puis généraliser. Donner la dimension de Sn
et An .
Exercice 3. Pour toute matrice A = (aij ) de Mn (K), on appelle trace de A le scalaire tr(A) =
n
∑ aii .
i=1

1. Prouver que l’application tr ∶ Mn (K → K est une forme linéaire non nulle sur Mn (K).
2. En déduire que H = {A ∈ Mn (K), tr(A) = 0} est un hyperplan de Mn (K) et en donner une base
lorsque n = 2.
3. Prouver que pour toutes matrices A, B ∈ Mn (K), tr(t A) = tr(A), et tr(AB) = tr(BA).
4. Prouver que ∀A, B ∈ Mn (K), ∀p ∈ N∗ , tr((AB)p ) = tr((BA)p ).
5. A-t-on tr(AB) = tr(A) tr(B) pour tout couple de matrices A, B ∈ Mn (K) ?
6. Prouver que pour toute matrice A ∈ Mn (R), on a tr(t A.A) ⩾ 0 avec égalité si et seulement si
A = On .
Exercice 4. Soit n un entier naturel, n ⩾ 2.
1. Rn−1 est-il un hyperplan de Rn ? Donner la forme générale des formes linéaires sur Rn . En
déduire une caractérisation de ses hyperplans.
2. Soit E = Rn [X]. On pose H1 = Rn−1 [X], H2 = {P ∈ Rn [X], P (1) = 0}, H3 = {P ∈
Rn [X], P (0) = 1}. H1 , H2 et H3 sont-ils des hyperplans de Rn [X] ? Donner deux supplé-
mentaires distincts de H1 et de H2 .
Exercice 5. Dans E = R5 muni de sa base canonique B0 = (e1 , e2 , e3 , e4 , e5 ), on considère F =
Vect(u, v, w, t) où

u = (1, 0, 2, 0, 3), v = (2, 0, 1, 0, −1), w = (−1, 0, 1, 0, 2), t = (−1, 0, 4, 0, 9).

Par la méthode d’échelonnement, déterminer le rang de la famille (u, v, w, t), une base de F , sa
dimension, l’un de ses supplémentaires dans E et l’un de ses systèmes d’équations.
Exercice 6. Dans E = R4 , muni de sa base canonique B = (e1 , e2 , e3 , e4 ), on considère F =
{(x, y, z, t) ∈ R4 , 3z + t = 5x + 4y}. Justifier que F est un hyperplan de E, en déduire sa dimension,
puis en donner une base, toutes ses équations et tous ses supplémentaires dans E.
Exercice 7. Reprendre l’exercice précédent avec E = R2 [X] et F = {P ∈ E, P (1) + P ′ (1) = 0}.
Exercice 8. Dans E un K-espace vectoriel de dimension finie n, on considère deux vecteurs
distincts u, v. Construire une forme linéaire ϕ sur E telle que ϕ(u) ≠ ϕ(v). (On pourra compléter
e1 = u − v en une base de E).
Exercice 9. Soit E un K-espace vectoriel de dimension finie n.
1. Soient H1 , H2 deux hyperplans de E. Discuter la dimension de H1 ∩ H2 . Plus généralement, si
F est un sous-espace vectoriel de E, discuter la dimension de F ∩ H1 .
2. Soient H1 , H2 et H3 trois hyperplans de E. On se donne ϕ1 , ϕ2 , ϕ3 trois formes linéaires telles
que Hi = Ker ϕi pour i = 1, 2, 3. Discuter suivant le rang r de (ϕ1 , ϕ2 , ϕ3 ) la dimension de
H1 ∩ H2 ∩ H3 . Interpréter géométriquement les résultats lorsque n = 3.
3. Si H1 , H2 , . . . , Hp sont p hyperplans de E, prouver que dim(H1 ∩ H2 ∩ ⋯ ∩ Hp ) ⩾ n − p.
4. Soient H un hyperplan et u un vecteur de E ∖ H. Montrer qu’on peut construire une base de E
contenant u et aucun vecteur de H.
Exercice 10. Dans E = R3 muni de sa base canonique B0 = (e1 , e2 , e3 ), on considère

u1 = e 2 + e3 , u2 = e 2 − e 3 , u3 = e1 + e2 − 2e3 .
Dualité 13

1. Justifier que B1 = (u1 , u2 , u3 ) est une base de E et déterminer sa base duale. En déduire la
matrice de passage Q de B1 à B0 .
2. On pose F = Vect(u1 , u2 ). Justifier que F est un hyperplan de E et déterminer l’une de ses
équations.

3. Déterminer un système d’équations de G = Vect(u3 ).


Exercice 11. Sur E = R3 [X], on considère les cinq formes linéaires suivantes :

ϕ1 (P ) = P (0), ϕ2 (P ) = P ′ (0), ϕ3 (P ) = P (1), ϕ4 (P ) = P ′ (1), ψ(P ) = ∫ P (t)dt.


1

1. Prouver que (ϕ1 , ϕ2 , ϕ3 , ϕ4 ) est une base de E ∗ et déterminer sa base préduale (H1 , H2 , H3 , H4 ).

2. Déterminer les réels a, b, c, d tels que ψ = aϕ1 + bϕ2 + cϕ3 + dϕ4 .

Exercice 12. Dans E = R5 muni de sa base canonique, on considère l’ensemble F1 des vecteurs
(x, y, z, t, u) satisfaisant

⎪ x + 2y + 3z + 4t + 5u = 0,



⎨ x + y + z + t + u = 0,



⎩ 5x + 4y + 3z + 2t + u = 0.

1. Justifier que F1 est un sous-espace vectoriel de E et que 2 ⩽ dim(F1 ) ⩽ 4.


2. Les vecteurs u = (6, −9, 1, 1, 1) et v = (2, −1, 1, −2, 1) appartiennent-ils à F1 ?

3. Déterminer une base de F1 et en déduire sa dimension.

4. Déterminer un supplémentaire G1 de F1 dans E puis en donner un système d’équations.


5. On pose F2 = Vect(e1 , e2 ). Déterminer F1 ∩ F2 .
Exercice 13. On se propose de prouver que pour toute forme linéaire ϕ sur Mn (K), il existe une
unique matrice A telle que
∀X ∈ Mn (K), ϕ(X) = tr(AX).
1. Soit A ∈ Mn (K). Justifier que l’application ϕA de Mn (K) dans K définie par ϕA (X) = tr(AX)
est une forme linéaire sur Mn (K).
2. On note Φ l’application de Mn (K) dans son dual définie par Φ(A) = ϕA . Montrer que Φ est
linéaire.

3. Montrer que Ker (Φ) = {On } (on calculera pour cela ϕA (Eij )).
4. En déduire que Φ est un isomorphisme et conclure.

Vous aimerez peut-être aussi