0% ont trouvé ce document utile (0 vote)
73 vues38 pages

Primitive

Transféré par

mejd
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
73 vues38 pages

Primitive

Transféré par

mejd
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 1

Calculs de primitives

1.1 Définitions
Définition 1.1.1 Soit I un intervalle de R et f : I −→ R une fonction. On appelle primitive de f , toute
fonction F définie sur I telle que
❶ F est dérivable sur I
❷ Pour tout x ∈ I, F 0 (x) = f (x).

x2
Exemple 1.1.1 Si f (x) = x, alors F (x) = est une primitive de f sur R. Mais, pour tout réel x, la
2
fonction G(x) = F (x) + cte est aussi une primitive de f .

Proposition 1.1.1 Si F est une primitive de f , alors toute primitive de f est de type
G(x) = F (x) + cte , pour tout x ∈ I.

Preuve. Si F et G deux primitives de f , alors

G0 (x) = F 0 (x) = f (x), ∀x ∈ I.

Ce qui implique que


0
(G − F ) (x) = 0, ∀x ∈ I.
On en déduit que
G(x) = F (x) + cte .

Z
Notation 1.1 On note alors f (x)dx = F (x) + cte .
Z
Remarque 1.1.1 Soit f une fonction dérivable. Alors f 0 (x)dx = f (x) + cte . On en déduit les primi-
tives usuelles suivantes :
xn+1
Z
n
❶ x dx = + cte (n 6= −1).
Z n + 1
dx
❷ = ln |x| + cte .
Z x
❸ cosh(x)dx = sinh(x) + cte .
Z
❹ sinh(x)dx = cosh(x) + cte .
2 STIC


Z
dx
❺ √ = x + cte .
Z 2 x
dx
❻ = tan(x) + cte .
Z cos2 (x)
dx
❼ = tanh(x) + cte .
Z cosh2 (x)
dx
❽ = arctan(x) + cte .
Z 1 + x2
dx
❾ √ = arcsin(x) + cte .
Z 1 − x2
dx
❿ −√ = arccos(x) + cte .
1 − x2
Théorème 1.1.1 (Existence)
Si f une fonction continue sur un intervalle I, alors f admet une primitive sur cet intervalle.
Exemple 1.1.2 Les fonctions x 7−→ ex , x 7−→ cos(x) et x 7−→ sin(x) sont continues sur R, donc elles
admettent des primitives sur R.

1.2 Calcul de primitives


1.2.1 Linéarité
Soit F une primitive d’une fonction f sur I et G une primitive d’une fonction g sur I. Alors, pour
tout α, β ∈ R, on a αF + βG est une primitive de αf + βg sur I et
Z Z Z
(αf + βg) (x)dx = α f (x)dx + β g(x)dx.

Exemple 1.2.1
Z Z Z Z
5ex − 4x2 + x dx = 5 ex dx − 4 x2 dx +

xdx
4 1
= 5ex − x3 + x2 + cte .
3 2

1.2.2 Intégration par parties


Définition 1.2.1 On dit que f est de classe C 1 sur I si f est dérivable sur I et f 0 est continue sur I.
Proposition 1.2.1 Soit u,v : I −→ R deux fonctions de classe C 1 . Alors
Z Z
u(x)v (x)dx = u(x)v(x) − u0 (x)v(x)dx.
0

Preuve. La fonction uv est dérivable sur I et on a :


(uv)0 (x) = u0 (x)v(x) + u(x)v 0 (x).
Alors Z Z Z
u(x)v(x) = (uv)0 (x)dx = u0 (x)v(x)dx + u(x)v 0 (x)dx.

Exemple 1.2.2Z
❶ Calculer xex dx.
On pose
u0 (x) = 1
 
u(x) = x
=⇒
v 0 (x) = ex v(x) = ex .
1.2. Calcul de primitives 3

Alors
Z
xex dx = xex − ex + cte .

Z
❷ Calculer ln(x)dx.
Posons
u0 (x) = x1
 
u(x) = ln(x)
=⇒
v 0 (x) = 1 v(x) = x.

Donc
Z
ln(x)dx = x ln(x) − x + cte .

☛ En utilisant la méthode d’intégration par parties dans les cas suivants :

• 1er cas : P (x) cos(αx), P (x) sin(αx), P (x)eαx , eαx cos(βx), eαx sin(βx)
avec α,β ∈ R et P est un polynôme.

• 2ème cas : f (x) arccos(x), f (x) arcsin(x), f (x) arctan(x), f (x) arccos2 (x),
f (x) arcsin2 (x), f (x) arctan2 (x) avec f une fonction admet une primitive.

1.2.3 Changement de variables

Proposition 1.2.2 Soit f : I −→ R une fonction continue et u : J −→ R une fonction de classe C 1 telle
que u(J) ⊆ I. Alors
Z Z
f (u(x))u0 (x)dx = f (t)dt.

Exemple 1.2.3
❶ Soit f (x) = cos(x) sin2 (x). On pose t = sin(x), alors dt = cos(x)dx et
Z Z
1 3 1
f (x)dx = t2 dt = t + cte = sin3 (x) + cte .
3 3

1 dx
❷ Soit f (x) = . On pose t = ln(x), alors dt = et on a
x + x ln2 (x) x

Z Z
dt
f (x)dx = = arctan(t) + cte = arctan(ln(x)) + cte .
1 + t2

Remarque 1.2.1 Si F est une primitive de f , alors


Z Z
0
F (u(x)) = (F (u(x))) dx = (u0 (x)f (u(x))dx.

☛ On a les primitives usuelles suivantes :


4 STIC

f F
n+1
u (x)
u0 (x)un (x) + cte
n+1

u0 (x)
ln |u(x)| + cte
u(x)

u0 (x)eu(x) eu(x) + cte

u0 (x) cos(u(x)) sin(u(x)) + cte

u0 (x) sin(u(x)) − cos(u(x)) + cte

u0 (x) cosh(u(x)) sinh(u(x)) + cte

u0 (x) sinh(u(x)) cosh(u(x)) + cte

u0 (x) p
p u(x) + cte
2 u(x)

u0 (x)
tan(u(x)) + cte
cos2 (u(x))

u0 (x)
tanh(u(x)) + cte
cosh2 (u(x))

u0 (x)
arctan(u(x)) + cte
1 + u2 (x)

u0 (x)
p arcsin(u(x)) + cte
1 − u2 (x)

Application

(ax + b)n+1
Z
❶ (ax + b)n dx = + cte (n 6= −1).
a(n + 1)
Z    
1 1 1
❷ exp dx = − exp + cte .
x2 x x
ex
Z
❸ dx = ln(1 + ex ) + cte .
1 + ex
Z
2 2
❹ sin(2x)esin (x) dx = esin (x) + cte .
Z
dx
❺ = ln | ln(x)| + cte .
x ln(x)
Z
sin(ln(x))
❻ dx = − cos(ln(x)) + cte .
x
Z
dx
❼ q = arcsin(ln(x)) + cte .
2
x 1 − ln (x)
1.2. Calcul de primitives 5

1 1 1 1
1.2.4 Primitives de x 7→ , x 7→ 2 , x 7→ √ et x 7→ √
a2 +x 2 a −x 2 2
a −x 2 a + x2
2
avec a > 0 et a 6= 1
☛ En effectuant le changement de variable x = at, alors dx = adt.
On a donc

Z Z
dx 1 x dx 1 a+x
= arctan + cte ; = ln + cte
a2 + x2 a a a2 − x2 2a a−x
Z Z
dx x dx  p 
√ = arcsin + cte ; √ = ln x + a2 + x2 + cte .
a2 − x2 a a2 + x2
Application

Z Z
dx 1 dx
=
2x2 + 8 2 x2 + 4
1 x
= arctan + cte .
4 2


Z Z
dx dx
√ = √
9 − x2 32
− x2
x
= arcsin + cte .
3

1.2.5 Primitives de x 7−→ sinp (x) cosq (x) avec p, q ∈ N


Quatre cas à étudier.
• 1er cas : p impair. On pose t = cos(x), donc dt = − sin(x)dx.
• 2ème cas : q impair. On pose t = sin(x), donc dt = cos(x)dx.
• 3ème cas : p et q impairs. On pose t = cos(2x), donc dt = −2 sin(2x)dx.
• 4ème cas : p et q pairs. On linéarise.
Exemple 1.2.4

Z Z
sin3 (x) cos4 (x)dx = (t2 − 1)t4 dt
1 7 1 5
= t − t + cte
7 5
1 1
= cos7 (x) − cos5 (x) + cte .
7 5


Z Z
5
cos (x)dx = (1 − t2 )2 dt
2 1
= t − t3 + t5 + cte
3 5
2 1
= sin(x) − sin3 (x) + sin5 (x) + cte .
3 5
6 STIC

1.2.6 Fractions rationnelles en cosinus et sinus


x
Cas général : On pose t = tan , alors x = 2 arctan(t). Par suite,
2

2dt 1 − t2 2t
dx = , cos(x) = et sin(x) = .
1 + t2 1 + t2 1 + t2

1 x
Exemple 1.2.5 Soit f (x) = . On pose t = tan , on aura
sin(x) 2

1 + t2 2dt
Z Z
f (x)dx = .
2t 1 + t2
= ln |t| + cte
x
= ln tan + cte .
2
Cas particulier : Règles de Bioche.
P (cos(x), sin(x))
On pose f (x) = .
Q(cos(x), sin(x))
• 1er cas : si f (−x) = −f (x), alors faire le changement de variable t = cos(x).
• 2ème cas : si f (π − x) = −f (x), alors faire le changement de variable t = sin(x).
• 3ème cas : si f (π + x) = −f (x), alors faire le changement de variable t = tan(x).
Exemple 1.2.6 Soit f (x) = (1 + sin(x)) tan(x). On a f (π − x) = −f (x), on pose alors t = sin(x).
Donc
Z Z
tdt
f (x)dx = (1 + t).
1 − t2
Z  
1
= − 1 dt
1−t
= −t − ln |1 − t| + cte
= − sin(x) − ln |1 − sin(x)| + cte .

1.2.7 Primitives de x 7−→ sin(αx) cos(βx), x 7−→ cos(αx) cos(βx)


et x 7−→ sin(αx) sin(βx) avec α, β ∈ R
☛ On utilise les formules trigonométrique suivantes :

1
sin(αx) cos(βx) = (sin((α + β)x) + sin((α − β)x))
2
1
cos(αx) cos(βx) = (cos((α + β)x) + cos((α − β)x))
2
1
sin(αx) sin(βx) = (cos((α − β)x) − sin((α + β)x)) .
2

Exemple 1.2.7 On a
x x     x 
1 7x
sin cos = sin + sin .
3 4 2 12 12
Donc Z  
x x 6 7x x
sin cos dx = − cos − 6 cos + cte .
3 4 7 12 12
1.2. Calcul de primitives 7

1.2.8 Fractions en ex , cosh(x) et sinh(x)


☛ En effectuant le changement de variable t = ex . Alors
dt t2 + 1 t2 − 1
x = ln(t), dx = , cosh(x) = et sinh(x) = .
t 2t 2t
1
Exemple 1.2.8 Soit f (x) = . On pose t = ex , alors
cosh(x)
Z Z
2dt
f (x)dx =
1 + t2
= 2 arctan(t) + cte
= 2 arctan(ex ) + cte .

1
1.2.9 Primitives de x 7→ avec a ∈ R∗ , b et c ∈ R
ax2 + bx + c
Pour cela, on utilise la forme canonique
 2 !
2 b ∆
ax + bx + c = a x+ − 2 avec ∆ = b2 − 4ac.
2a 4a
b
Trois cas à étudier selon le signe de ∆. On pose α =
2a
• 1er cas : si ∆ > 0, alors

x+α−β
Z
dx 1 ∆
= ln avec β = .
ax2 + bx + c 2aβ x+α+β 2a

• 2ème cas : si ∆ = 0, alors Z


dx 1
=− .
ax2 + bx + c a(x + α)

• 3ème cas : si ∆ < 0, alors


  √
−∆
Z
dx 1 x+α
= arctan avec β= .
ax2 + bx + c aβ β 2a

Exemple 1.2.9
x 2x + 2 1
❶ On a = − , alors
x2 + 2x + 2 2(x2 + 2x + 2) x2 + 2x + 2
Z
x 1
2
dx = ln |x2 + 2x + 2| − arctan(x + 1) + cte .
x + 2x + 2 2
x−1 2x + 2 2
❷ On a = − , donc
x2 + 2x + 1 2(x2 + 2x + 1) x2 + 2x + 1
x−1
Z
1 2
2
dx = ln |x2 + 2x + 1| + + cte .
x + 2x + 1 2 x+1
Théorème 1.2.1 Soit f : [a,b] → R une fonction continue. La fonction F : I → R définie par
Z x
F (x) = f (t)dt.
a

est une primitive de f , c’est-à-dire F est dérivable et F 0 (x) = f (x). Par conséquent pour une primitive
F quelconque de f :
Z b
f (t)dt = F (b) − F (a).
a
8 STIC

Notation. On note [F (x)]ba = F (b) − F (a).

Exercice n◦ 1 : Calculer les primitives des fonctions suivantes :


√ x √
1. f (x) = x(1 + x2 ) 2. f (x) = sin 3. f (x) = x(x2 + 4)2 4. f (x) = 2x + 4
2
2 √ 3
5. f (x) = 6. f (x) = tan2 (x) 7. f (x) = sin x − 2x2 + x+ .
x(3 + ln x) 1 + x2

Exercice n◦ 2 : Calculer les primitives des fonctions suivantes en utilisant la méthode d’intégration par
parties :
1. f (x) = x sin(x) 2. f (x) = x ln(x) 3. f (x) = cos(x)ex 4. f (x) = (x2 + 1)ex

5. f (x) = arccos(x) 6. f (x) = arcsin (x) 7. f (x) = arctan (x) 8. f (x) = 2x arctan (x).

Exercice n◦ 3 : Calculer les primitives des fonctions suivantes en utilisant la formule de changement de
variable :
1 1 √
1. f (x) = 2. f (x) = √ √ 3. f (x) = sin x cos x 4. f (x) = ex − 1
3 − ex x+ x 3

ex ln(x) 1 1
5. f (x) = 6. f (x) = 7. f (x) = √ 8. f (x) = √ .
1 + ex x 1+ 1−x x x2 − 1

Exercice n◦ 4 : Calculer les primitives des fonctions suivantes :


1 2x + 3 x
1. f (x) = 2 2. f (x) = 3. f (x) =
x −1 (x − 1)(x + 4) (x − 1)(x + 1)(x + 3)

x3 1 1
4. f (x) = 5. f (x) = 6. f (x) = .
x2 + 4 x2 + x + 1 (x + 2)(x2 + 2x + 5)

Exercice n◦ 5 :
2x + 1
1. Décomposer en éléments simples la fonction f (x) = 2 .
x (x + 1)
ln (x2 + x)
Z
2. Calculer à l’aide d’une intégration par parties dx.
x2

Exercice n◦ 6 :
t2
Z
1. Calculer F (t) = 2 2
dt.
Zt − 1

2. En déduire G(x) = ex + 1dx.
Chapitre 2

Equations différentielles

2.1 Equations différentielles linéaires du premier ordre


Définition 2.1.1 Soit I un intervalle de R, a, b et c trois fonctions définies et continues sur I, avec
a(x) 6= 0, ∀x ∈ I. On appelle équation différentielle linéaire du premier ordre, toute équation de la forme

a(x)y 0 (x) + b(x)y(x) = c(x) (E)

Exemple 2.1.1
❶ 2xy 0 + cos(x)y = ex I = R.

❷ xy 0 + x2 y = sin(x) I = R+ .

Définition 2.1.2 Une fonction y : I −→ R est solution de (E) sur I si et seulement si y est dérivable
sur I et pour tout x ∈ I,
a(x)y 0 (x) + b(x)y(x) = c(x).

Exemple 2.1.2
❶ L’équation différentielle y 0 + y = 2ex admet la fonction y(x) = ex comme solution sur R.
❷ L’équation différentielle cos(x)y 0 + sin(x)y = 1 admet la fonction y(x) = sin(x) comme solution sur
R.

2.1.1 Equation homogène


On appelle équation différentielle homogène associée à (E), l’équation

a(x)y 0 (x) + b(x)y(x) = 0 (E0 ).

Résolution : y = 0 est une solution de l’équation (E0 ). On suppose y 6= 0.


Alors
dy b(x)
=− dx.
y a(x)
Ce qui implique que Z
b(x)
ln |y(x)| = − dx + cte .
a(x)
On en déduit que la solution générale de (E0 ), notée yh , est de la forme
Z
b(x)
yh (x) = λe−A(x) avec A(x) = dx et λ ∈ R.
a(x)
10 STIC

2.1.2 Résolution de l’équation (E)


Théorème 2.1.1 (Existence).
Toute équation différentielle linéaire du premier ordre admet une infinité de solutions.

Théorème 2.1.2 La solution générale de l’équation (E) est la somme d’une solution générale de l’équation
homogène (E0 ) et d’une solution particulière de l’équation (E).

2.1.3 Recherche d’une solution particulière


☞ On utilise la méthode de la variation de la constante.

Soit y(x) = λe−A(x) la solution générale de l’équation homogène (E0 ). On va chercher une solution
particulière sous la forme yp (x) = λ(x)e−A(x) , alors

b(x) −A(x)
yp0 (x) = λ0 (x)e−A(x) − λ(x) e .
a(x)

On remplace yp0 dans l’équation (E), on aura


 
0 −A(x) b(x) −A(x)
a(x) λ (x)e − λ(x) e + b(x)λ(x)e−A(x) = c(x).
a(x)

Ce qui implique que


c(x) A(x)
λ0 (x) = e .
a(x)
Alors Z
c(x) A(x)
λ(x) = e dx.
a(x)
Par conséquent,  Z 
c(x) A(x)
yG (x) = λ+ e dx e−A(x) , λ ∈ R.
a(x)

Application 2.1.1 Résoudre sur l’intervalle 0, π2 ,


 

(E) : cos(x)y 0 + sin(x)y = 1.

X Résolution de l’équation homogène associée :


 Z 
0 sin(x)
cos(x)y + sin(x)y = 0 si et seulemnet si yh (x) = λ exp − dx , avec λ ∈ R.
cos(x)
Par suite,
 Z 
sin(x)
yh (x) = λ exp − dx
cos(x)
= λ cos(x), λ ∈ R.

X Recherche d’une solution particulière : on cherche une solution sous la forme

yp (x) = λ(x) cos(x).

Donc
yp0 (x) = λ0 (x) cos(x) − λ(x) sin(x).
Puisque yp est une solution de (E), alors

cos(x) (λ0 (x) cos(x) − λ(x) sin(x)) + λ cos(x) sin(x) = 1.


2.2. Equations différentielles linéaires du second ordre à coefficients constants 11

Ce qui implique que


1
λ0 (x) = .
cos2 (x)
Il s’ensuit que
λ(x) = tan(x).
Par conséquent,
yp (x) = sin(x).
Ce qui permet de conclure que

yG (x) = yp (x) + yh (x)


= sin(x) + λ cos(x), avec λ ∈ R.

Théorème 2.1.3 (Existence et unicité).


Toute équation différentielle linéaire du premier ordre admet une solution, et cette solution est unique si
on lui impose en plus de vérifier une condition initiale donnée, c-à-d,

a(x)y 0 (x) + b(x)y(x) = c(x)




y (x0 ) = y0 .

Exemple : On considère le système

y 0 (x) + 2xy(x) = 2x

y(0) = 2

Il est simple de voir que les solutions de l’équation y 0 + 2xy = 2x sont les fonctions
2
yG (x) = 1 + λe−x , λ∈R
2
Comme y(0) = 2 alors λ = 1 et donc yG (x) = 1 + e−x est la solution de notre système.

2.2 Equations différentielles linéaires du second ordre à coeffi-


cients constants
Définition 2.2.1 On appelle équation différentielle linéaire du second ordre à coefficients constants, une
équation du type
00
ay + by 0 + cy = d(x) (E)
où a, b, c sont des constantes (a 6= 0) et d : I 7−→ R une fonction continue sur un intervalle I de R.

Définition 2.2.2 Une fonction y : I 7−→ R est une solution de (E) sur I si et selement si y est deux
00
fois dérivable sur I et pour tout x ∈ I, on a ay + by 0 + cy = d(x).

Définition 2.2.3 L’équation homogène associée à (E) est


00
ay + by 0 + cy = 0 (E0 ).

Théorème 2.2.1 Toute solution générale de (E) est de la forme

yG (x) = yh (x) + yp (x)

où yh est une solution générale de l’équation homogène (E0 ) et yp est une solution particulière de (E).
12 STIC

2.2.1 Résolution de l’équation homogène


Proposition 2.2.1 La fonction r 7−→ erx est une solution de (E0 ) si et seulement si r est une racine de
l’équation caractéristique associée ar2 + br + c = 0 (Ec ).
Preuve. On suppose que y(x) = erx est une solution de l’équation homogène (E0 ). Alors
00
y 0 (x) = rerx et y (x) = r2 erx .
On remplace y 0 dans (E0 ), on obtient

ar2 + br + c erx = 0, ∀x ∈ I.


Donc ar2 + br + c = 0, anisi r est une solution de (Ec ).


Inversement, si r est une racine de (Ec ) alors y(x) = erx est une solution de (E0 ).

☛ Trois cas à étudier. On va séparer le cas où (Ec ) admet deux racines, aucune racine, une racine
double sur R. C’est à dire selon le signe de ∆ = b2 − 4ac.
1er cas : si ∆ > 0, alors l’équation caractéristique (Ec ) admet deux racines distinctes
√ √
−b − ∆ −b + ∆
r1 = et r2 = .
2a 2a
Dans ce cas, la solution générale de (E0 ) est de la forme

yh (x) = Aer1 x + Ber2 x avec A, B ∈ R.


b
2ème cas : si ∆ = 0, alors l’équation caractéristique (Ec ) admet une racine double r = − .
2a
Dans ce cas, la solution générale de (E0 ) est de la forme

yh (x) = (Ax + B)erx avec A, B ∈ R.

3ème cas : si ∆ < 0, alors l’équation caractéristique (Ec ) admet deux racines complexes

b −∆
r1 = α + iβ, r2 = α − iβ avec α = et β = .
2a 2a
Dans ce cas, la solution générale de (E0 ) est de la forme

yh (x) = eαx (A cos(βx) + B sin(βx)) avec A, B ∈ R.

2.2.2 Recherche d’une solution particulière


er
1 cas : d(x) = Pn (x)eαx , avec Pn est un polynôme de degré n.
✦ Si α n’est pas une solution de (Ec ), alors la solution particulière est de la forme

yp (x) = Qn (x)eαx .

✦ Si α est une solution simple de (Ec ), alors la solution particulière est de la forme

yp (x) = xQn (x)eαx .

✦ Si α est une solution double de (Ec ), alors la solution particulière est de la forme

yp (x) = x2 Qn (x)eαx .

avec Qn est un polynôme de degré n.


2 cas : d(x) = eαx (Pn (x) cos(ωx) + Rm (x) sin(ωx)) avec ω ∈ R∗ , Pn et Rn deux polynômes de degré
ème

respectivement n et m.
✦ Si α + iω n’est pas racine de (Ec ), alors la solution particulière est de la forme

yp (x) = eαx (Qk (x) cos(ωx) + Lk (x) sin(ωx)) .


2.2. Equations différentielles linéaires du second ordre à coefficients constants 13

✦ Si α + iω est racine de (Ec ), alors la solution particulière est de la forme


yp (x) = xeαx (Qk (x) cos(ωx) + Lk (x) sin(ωx)) .
avec Qk et Lk sont deux polynômes de degré k = max(n,m).
00
Application 2.2.1 Résoudre y + y 0 − 2y = ex .
00
X Résolution de l’équation homogène associée : y + y 0 − 2y = 0
L’équation caractéristique associée est r2 + r − 2 = 0, qui admet deux solutions r = 1 et r = −2. Les
solutions sont donc les fonctions définies sur R par
yh (x) = λex + µe−2x , avec λ, µ ∈ R
X Recherche d’une solution particulière :
Le second membre est le produit d’une constante (un polynôme de degré 0) par une exponentielle avec α =
1, qui est une racine simple de l’équation caractéristique (Ec ) donc (E) admet une solution particulière
sous la forme
yp (x) = Axex .
Donc
00
yp0 (x) = Aex + Axex et yp (x) = 2Aex + Axex .
On remplace yp0 et yp00 dans l’équation, on obtient
00
yp (x) + yp0 (x) − 2yp (x) = ex ⇐⇒ 3Aex = ex .
Ce qui implique que
1
A= .
3
Donc
1 x
yp (x) =
xe .
3
On conclut donc que la solution générale est de la forme
1
yG (x) = xex + λex + µe−2x , avec λ, µ ∈ R
3
00
Application 2.2.2 Résoudre y + 2y 0 + 2y = sin(x).
X Résolution de l’équation homogène associée : l’équation caractéristique associée est r2 + 2r + 2 = 0,
qui admet deux racines complexes −1 + i et −1 − i. Les solutions sont donc de la forme
yh (x) = e−x (A cos(x) + B sin(x)) , avec A et B ∈ R.
X Recherche d’une solution particulière : ±i n’est pas une racine de l’équation caractéristique associée,
donc la solution particulière est de la forme
yp (x) = A cos(x) + B sin(x), avec A et B ∈ R.
Alors
00
yp0 (x) = −A sin(x) + B cos(x) et yp (x) = −A cos(x) − B sin(x).
On remplace cela dans l’équation, on obtient
00
yp (x) + 2yp0 (x) + 2yp (x) = sin(x) ⇐⇒ (2B − A) cos(x) + (B − 2A) sin(x) = sin(x).
Par conséquent, 
A + 2B = 0
−2A + B = 1
Donc
2 1
A=− et B= .
5 5
Ainsi, la solution particulière est de la forme
2 2
yp (x) = − cos(x) + sin(x).
5 5
On en déduit que
2 2
yG (x) = e−x (A cos(x) + B sin(x)) − cos(x) + sin(x), avec A et B ∈ R.
5 5
14 STIC

Méthode de variation des constantes: Lorsque le second membre n’a pas l’une des formes indiquées
précédemment, on emploie la méthode dite la variation des constantes. Soit y1 et y2 deux solutions
00
linéairement indépendantes de l’équation homogène associée ay + by 0 + cy = 0. On cherche une solution
particulière de l’équation (E) sous la forme

yp (x) = A(x)y1 (x) + B(x)y2 (x),

mais cette fois A et B sont deux fonctions vérifiant :


( 0
A (x)y1 (x) + B 0 (x)y2 (x) = 0
(S) : d(x)
A0 (x)y10 (x) + B 0 (x)y20 (x) =
a
Car si yp (x) = A(x)y1 (x) + B(x)y2 (x), alors

yp0 (x) = A0 (x)y1 (x) + B 0 (x)y2 (x) + A(x)y10 (x) + B(x)y20 (x)
= A(x)y10 (x) + B(x)y20 (x)

et
00 00 00
yp (x) = A0 (x)y10 (x) + B 0 (x)y20 (x) + A(x)y1 (x) + B(x)y2 (x)
00 00 d(x)
= A(x)y1 (x) + B(x)y2 (x) + .
a
Ainsi l’équation (E) est vérifiée par yp . On a utilisé le fait que y1 et y2 sont solutions de l’équation
homogène. Le système (S) se résout facilement, ce qui donne A0 et B 0 , puis A et B par intégration.
Application 2.2.3 Résoudre sur − π2 , π2 l’équation
 

00 1
(E) : y +y = .
cos(x)

X Résolution de l’équation homgène associée : l’équation caractéristique associée est r2 +1 = 0, qui admet
deux racines complexes i et −i. Les solutions sont donc de la forme
yh (x) = A cos(x) + B sin(x), avec A et B ∈ R.
X Recherche d’une solution particulière : on cherche une solution particulière de l’équation (E) sous la
forme
yp (x) = A(x) cos(x) + B(x) sin(x),
où A et B sont deux fonctions vérifiant :

 A0 (x) cos(x) + B 0 (x) sin(x) = 0
1
 −A0 (x) sin(x) + B 0 (x) cos(x) = .
cos(x)

Ce qui implique que


A0 (x) cos(x) sin(x) + B 0 (x) sin2 (x) = 0


−A0 (x) cos(x) sin(x) + B 0 (x) cos2 (x) = 1.


Par conséquent,
sin(x)
A0 (x) = − et B 0 (x) = 1.
cos(x)
Donc
A(x) = ln(cos(x)) et B(x) = x.
On en déduit que
yp (x) = cos(x) ln(cos(x)) + x sin(x).
2.2. Equations différentielles linéaires du second ordre à coefficients constants 15

Théorème 2.2.2 (Principe de superposition)


Supposons que d(x) = d1 (x) + ... + dn (x). Si ypi est une solution particulière de l’équation
00
ay + by 0 + cy = di (x), 1 ≤ i ≤ n.
n
X
alors yp (x) = ypi (x) est une solution particulière de (E).
i=1

Exercice n◦ 1 : Résoudre sur R les équations différentielles suivantes :


1. y 0 + 2y = x2 .
2. y 0 + y = 2 sin x.
3. y 0 − y = (x + 1)ex .

Exercice n◦ 2 : Résoudre le problème de Cauchy suivant :


0

 sin(x)y − cos(x)y = −1

(S) :
 y π = 0.
 

4
Exercice n◦ 3 : On considère l’équation différentielle (E) :

ex
(ex + 1)y 0 − y = .
1 + x2
Z
dx
1. Montrer que = x − ln(1 + ex ) + c, avec c est une constante.
1 + ex
2. Déterminer la solution homogène yh (x) de (E).
3. Déterminer une solution particulière yp (x) de (E) à l’aide de la méthode de variation de la constante.
4. Déterminer la solution générale de (E).
π
5. Donner la solution y(x) telle que y(0) = − .
4
Exercice n◦ 4 : Résoudre sur R les équations différentielles suivantes :
00
1. y − 3y 0 = 2.
00
2. y + y 0 − 2y = ex .
3. Résoudre le problème de Cauchy suivant :
 00
 y + 2y 0 + y = xex
(S) :
 0
y (0) = 0 et y(0) = 1.
16 STIC
Chapitre 3

Opérations sur les matrices

3.1 Définitions
Définition 3.1.1
– Une matrice A est un tableau rectangulaire d’éléments de K.
– Elle est dite de taille n × p si le tableau possède n lignes et p colonnes.
– Les nombres du tableau sont appelés les coefficients de A.
– Le coefficient situé à la i-ème ligne et à la j-ème colonne est noté aij
Un tel tableau est représenté de la manière suivante
 
a11 a12 · · · a1p
 a21 a22 · · · a2p 
A= .
 
.. .. .. 
 .. . . . 
an1 an2 ··· anp
On notera souvent A = (aij )i,j .
On note Mn,p l’ensemble des matrices à n lignes et p colonnes.
Exemple    
1 0 4 1 1
A= ∈ M2,3 , B = ∈ M2,2 .
−2 5 1 3 2
– Deux matrices sont égales lorsqu’elles ont la même taille et que les coefficients correspondants sont
égaux: si A = (aij )i,j et B = (bij )i,j ∈ Mn,p , alors A = B ⇔ aij = bij , ∀ i,j.
– Si n = p (même nombre de lignes que de colonnes), la matrice est dite matrice carrée. On note Mn
au lieu de Mn,n .
– La matrice (de taille n × p) dont tous les coefficients sont des zéros est appelée la matrice nulle et
est notée 0Mn,p ou plus simplement 0.
Matrices particulières
– Si n = 1, on parle d’une matrice ligne, on la note
A = (a11 a12 · · · a1p )

– Si p = 1, on parle d’une matrice colonne, on la note


 
a11
 a21 
A= .
 
 ..


an1
18 STIC

– On appelle matrice identité d’ordre n, la matrice carrée, de taille n × n :


 
1 0 ··· 0
 0 1 ··· 0 
In =  . .
 
.. .. 
 .. .. . . 
0 0 ··· 1
– Une matrice diagonale A de taille n × n est une matrice de la forme :
 
a11 0 ... 0
. .. 
a22 . .

 0 . 
 .
 . .. ..
 ..

. . 0 
0 . . . 0 ann
– Une matrice triangulaire supérieure A à coefficients dans K est une matrice carrée de la forme :
 
a11 a12 . . . . . . a1n
 0 a22 a2n 
 .. .. 
 
. . . .
A= . . . . 
 . .. .. .. 
 .. . . . 
0 . . . . . . 0 ann
La matrice A est triangulaire supérieure si et seulement si aij = 0, ∀i > j.
– La matrice A est dite triangulaire inférieure si elle est de la forme :
0 ··· ···
 
a11 0
.. 
 a21 a22 . . .

 . 
A =  ... .. .. .. 

 . . . 

 . .
 .. ..

0 
an1 an2 · · · · · · ann
La matrice A est triangulaire inférieure si et seulement si aij = 0, ∀i < j.
Exemple
 
1 0 0
– A= 0 2 0  est une matrice diagonale.
0 0 −3
 
1 2 −1
– B= 0 2 4  est une matrice triangulaire supérieure.
0 0 1
 
1 0 0
– C= 2 1 0  est une matrice triangulaire inférieure.
3 5 1
Définition 3.1.2 – Somme de deux matrices: pour A = (aij ),B = (bij ) ∈ Mn,p , on définit A + B ∈
Mn,p par A + B = (aij + bij ).
– Une multiplication de la matrice A par un élément λ ∈ R définie par λA ∈ Mn,p avec λA = (λaij ).
Exemple :       
1 −1 3 2 2 −1 3 1 2 2 −2 6
Si A = et B = alors A + B = et 2A = .
0 2 0 0 2 4 0 4 4 0 4 0
 
1
Par contre si C = alors A + C n’est pas définie.
2
Proposition 3.1.1 Soient A,B et C trois matrices appartenant à Mn,p . Soient α et β ∈ R deux scalaires.
1. A + B = B + A : la somme est commutative,
3.2. Multiplication de matrices 19

2. A + (B + C) = (A + B) + C : la somme est associative,


3. A + 0 = A : la matrice nulle est l’élément neutre de l’addition,
4. (α + β)A = αA + βA.
5. α(A + B) = αA + αB.

3.2 Multiplication de matrices


Le produit AB de deux matrices A et B est défini si et seulement si le nombre de colonnes de A est
égal au nombre de lignes de B.

Définition 3.2.1 Soient A = (aij ) ∈ Mn,p et B = (bij ) ∈ Mp,q , on définit alors le produit AB comme
étant la matrice AB = (cij ) ∈ Mn,q la matrice à n lignes et q colonnes dont les termes sont donnés
comme suit
p
X
cij = ai1 b1j + ai2 b2j + · · · + aip bpj = aik bkj .
k=1
20 STIC

Exemple

 1 0 −1  
2 2 × 1 2 × 0 2 × (−1)
AB =  5  =  5 × 1 5 × 0 5 × (−1) 
7 7 × 1 7 × 0 7 × (−1)
 
2 0 −2
=  5 0 −5 
7 0 −7

et
 
0 0 1
 
 0 2 1

  
1 2 0   0 4 3
1 1 2
CD =  0 0 1  = 1 1 2 
3 −1 0 0 −2 2

3.2.1 Pièges à éviter


    
1 1 1 1 1 1
– On a en général AB 6= BA. = 6=
    0 1 0 0 0 0
1 1 1 1 1 2
=
0 0 0 1 0 0
    
0 −1 2 0 0 0
– AB = 0 n’implique pas A = 0 ou B = 0. A = , B= mais AB = .
0 0 0 0 0 0
     
0 −1 4 −1 2 5
– AB = AC n’implique pas B = C. A = ,B = ,C= .
0 3 5 4 5 4
Ona AB = AC mais B 6= C.

Proposition 3.2.1 1. A(BC) = (AB)C.


2. A(B + C) = AB + AC et (B + C)A = BA + CA.
3. A × 0 = 0 et 0 × A = 0.
4. Si A ∈ Mn , alors In A = AIn = A.

Définition 3.2.2 Pour tout A ∈ Mn , on définit les puissances successives de A par A0 = In et Ap+1 =
Ap × A pour tout p ∈ N. Autrement dit, Ap = A × A × · · · × A, p facteurs.
 
1 −1
Exemple Soit A = , on a alors
0 1
 
0 1 0
A =
0 1
 
1 −2
A2 = A × A =
0 1 
3 2 1 −3
A =A ×A=
 0 1 
1 −4
A4 = A3 × A =
0 1

3.2.2 Formule du Binôme


En général (A + B)2 6= A2 + 2AB + B 2 mais on sait seulement que

(A + B)2 = A2 + AB + BA + B 2 .
3.3. Inverse d’une matrice 21

Proposition 3.2.2 Soient A et B deux matrices de Mn qui commutent, c’est à dire AB = BA, alors
p
X p
X
p
∀p ∈ N, (A + B) = Cpk Ak B p−k = Cpk Ap−k B k
k=0 k=0

avec Cpk désigne le coefficient binomial :

p!
Cpk = .
k!(p − k)!

Définition 3.2.3 On dit qu’une matrice carrée A est nilpotente s’il existe p ∈ N tel que Ap soit la
matrice nulle.
   
0 2 6 1 0 0
A =  0 0 2  et B = I3 =  0 1 0 
0 0 0 0 0 1
On a alors    
0 0 4 0 0 0
A2 =  0 0 0  , A3 = A2 A =  0 0 0 
0 0 0 0 0 0
La matrice A est nilpotente d’indice 3 et elle commute avec la matrice B. On peut donc appliquer la
formule du binôme qui nous donne :
p
X 2
X
M p = (A + B)p = (A + I3 )p = Cpk Ak I3p−k = Cpk Ak I3p−k
k=0 k=0
2
X
= Cpk Ak = Cp0 I3 + Cp1 A + Cp2 A2
k=0
p(p − 1) 2
= I3 + pA + A .
2
Donc
     
1 0 0 0 2p 6p 0 0 2p(p − 1)
Mp =  0 1 0 + 0 0 2p  +  0 0 0 
0 0 1 0 0 0 0 0 0
 
1 2p 2p(p + 2)
=  0 1 2p .
0 0 1

3.3 Inverse d’une matrice


Définition 3.3.1 Soit A une matrice carrée de taille n × n. S’il existe une matrice carrée B de taille
n × n telle que
AB = BA = In ,
on dit que A est inversible. On appelle B l’inverse de A et on la note A−1 .

Exemple Soit  
0 1 −1
A =  −3 4 −3  ,
−1 1 0
22 STIC

     
1
on a alors A2 = 3A − 2I3 ⇔ 2 3A − A2 = I3 ⇔ A 12 (3I3 − A) = 12 (3I3 − A) A = I3 . Donc la matrice
A est inversible, d’inverse
1
A−1 = (3I3 − A).
2

Proposition 3.3.1 1. Si A est inversible, alors son inverse est unique.


2. Si A est inversible, alors son inverse A−1 est aussi inversible et on a (A−1 )−1 = A.
3. Si A,B deux matrices carrées inversibles, alors AB est inversible et

(AB)−1 = B −1 A−1 .

4. Soient A,B,C ∈ Mn . On suppose que C est inversible, alors

AC = BC ⇒ A = B.

3.4 Trace-Transposition
Définition 3.4.1 Soit A = (aij ) une matrice de Mn,p . On appelle transposée de A et on la note t A la
matrice de taille p × n obtenue en intervertissant les lignes et les colonnes de A. Autrement dit,
 
a11 . . . an1
t
A = (aji ) =  ... .. 

. 
a1p ... anp

Si    
5 1 −1 5 −3 −1
t
A=  −3 4 −3  ⇒ A= 1 4 1 .
−1 1 2 −1 −3 2

Proposition 3.4.1 Soient A et B deux matrices et α ∈ K. Alors :


1. t (t A) = A
2. t (A + B) = t A + t B
3. t (αA) = α t A
4. t (AB) = t B t A
−1
5. Si A est inversible alors t A l’est aussi et (t A) = t A−1 .


Définition 3.4.2 Pour toute matrice carrée A = (aij ), sa trace est la somme des éléments diagonaux,
n
X
c’est-à-dire T r(A) = akk .
k=1

Si  
5 1 −1
A =  −3 4 −3  ,
−1 1 2
alors
T r(A) = 5 + 4 + 2 = 11.

Proposition 3.4.2 Soient A,B ∈ Mn . Alors


1. T r(AB) = T r(BA).
2. T r(αA) = αT r(A), ∀α ∈ K.
3. T r(A + B) = T r(A) + T r(B).
4. T r(t A) = T r(A).
3.4. Trace-Transposition 23

Méthode de Gauss pour inverser les matrices


En pratique, on fait les deux opérations en même temps en adoptant la disposition suivante : à côté
de la matrice A que l’on veut inverser, on rajoute la matrice identité pour former un tableau (A|In ). Sur
les lignes de cette matrice augmentée, on effectue des opérations élémentaires jusqu’à obtenir le tableau
(In |B). Et alors B = A−1 . Ces opérations élémentaires sur les lignes sont
– Li ← λLi avec λ 6= 0 : Multiplication d’une ligne par un scalaire non nul.
– Li ← Li + λLj , i 6= j : Addition d’un multiple d’une ligne à une autre ligne.
– Li ↔ Lj : Echange de deux lignes.
 
0 1
Exemple Soit A = . Par la méthode de Gauss, on aura
2 1
   
0 11 0 2 10 1
  L1 ↔L
→2   L1 →L −L
→1 2
2 10 1 0 11 0
   
1 1
2 0 −1 1 L1 → 12 L1 1 0 − 2 2
  →  .
0 11 0 0 1 1 0

Ce qui implique que la matrice A est inversible d’inverse


 1 1 
−1 −2 2
A = .
1 0

Exercice n◦ 1 : On considère les matrices suivantes :


   
 2 1 2 0
A = 1 0 −1 ; B =  5  ; C =  0 0 1 ;
7 3 −1 0
   
0 0 1   1 0 0
1 2 0
D= 0 2 1 ;E=
 ;F = 1 4 −1  .
3 1 4
1 1 2 2 1 2

Effectuer, lorsque cela est bien défini, les opérations suivantes : A + B, BA, AB, CD, DC, E + F , AE.

Exercice n◦ 2 :
On considère la matrice  
0 1 −1
A =  −3 4 −3  .
−1 1 0
1. Calculer A2 et A3 .
2. Déterminer les réels x et y tels que A2 = xA + yI3 .
3. Exprimer A3 en fonction de A et de I3 .
4. Déduire de la deuxième question que A est inversible et calculer son inverse.

Exercice n◦ 3 : Soient les matrices


     
2 1 3 1 1 1
E= ,F = ,G= , et I2 la matrice identité d’ordre 2.
−2 −1 −2 0 −2 −2
1. Calculer E 2 et E 3 . En déduire E n , n ∈ N.
2. Déterminer la matrice H telle que F = H + I2 . En déduire F n , n ∈ N
3. Déterminer la matrice J telle que G + I2 = J. En déduire Gn , n ∈ N
24 STIC

Exercice n◦ 4 :
On considère les matrices à coefficients réels A et P définies par:
 
1 1 1
1
A= 1 1 1  et P = (I3 + A).
4
1 1 1

1. Calculer A2 , AP et P A.
2. Calculer (4I3 − A)P et P (4I3 − A). Que peut-on conclure?
3. Montrer par récurrence que
 
n 1 1 1
P = n I3 + 1 − n A, ∀n ∈ N.
4 3 4

4. Montrer que  
1
P −n = 4n I3 + (4−n − 1)A , ∀n ∈ N.
3

Exercice n◦ 5 : On considère la matrice


 
1 2 6
A= 0 1 2 .
0 0 1

Calculer la puissance nième de A pour tout n ∈ N.

Exercice n◦ 6 : Existe-il des matrices A et B telles que AB − BA = In ?

Exercice n◦ 7 : Soient A,B ∈ Mn (K) tels que AB −BA = A. Calculer Tr(An ) pour tout entier non nul n.

Exercice n◦ 8 : Les matrices suivantes sont-elles inversibles? Si oui calculer leurs inverses.
 
  −1 0 −2
0 1
A= , B= 0 1 −1 
2 1
−2 −1 0
Chapitre 4

Déterminants

4.1 Déterminant d’une matrice et propriétés


Définition 4.1.1 Nous allons caractériser le déterminant comme une application, qui à une matrice
carrée associe un scalaire
det : Mn (K) −→ K.

Il existe une unique application de Mn (K) dans K, appelée déterminant, telle que
1. le déterminant est linéaire par rapport à chaque vecteur colonne, les autres étant fixés,
2. si une matrice A a deux colonnes identiques, alors son déterminant est nul;
3. le déterminant de la matrice identité In vaut 1.
Soit A ∈ Mn (K). On note souvent det(A) = |A|.
N.B : Ne pas confondre avec la valeur absolue |det(A)| du déterminant.

Proposition 4.1.1 1. det (In ) = 1.


2. Pour toute matrice carrée A ∈ Mn (K), pour λ ∈ R, det(λA) = λn det(A).
3. Pour A,B ∈ Mn (K) on a det(AB) = det(A) det(B).
4. Pour toute matrice A ∈ Mn (K), A est inversible si et seulement si det(A) 6= 0 et on a det(A−1 ) =
1
det(A) .
5. Pour toute matrice A ∈ Mn (K), det (t A) = det(A).

Remarque :
1. Si A est une matrice diagonale, A = diag (a1 , . . . ,an ) alors det A = a1 . . . an .
2. Si A est une matrice carrée triangulaire, alors le déterminant de A est égal au produit des termes
diagonaux.

4.2 Calcul de déterminant en dimension 2 et 3


4.2.1 En dimension 2
Soit B = (e1 ,e2 ) la base canonique deR2 . Soient 2
 v1 = (a,c),v2 = (b,d) deux vecteurs de R , leur
a b a b
matrice dans la base canonique B est A = . Alors detB (v1 ,v2 ) = = ad − bc. En fait, il
c d c d
s’agit d’une forme 2-linéaire en v1 ,v2 , alternée et telle que detB (e1 ,e2 ) = 1.
26 STIC

4.2.2 En dimension 3 : Règle de Sarrus


Soient v1 = (a11 ,a21 ,a31 ) ,v2 = (a12 ,a22 ,a32 ) ,v3 = (a13 ,a23 ,a33 ) ∈ R3 . Le déterminant dans la base
canonique de ces vecteurs est :
a11 a12 a13
det (v1 ,v2 ,v3 ) = a21 a22 a23
a31 a32 a33
= a11 a22 a33 + a12 a23 a31 + a21 a32 a13 − a13 a22 a31 − a21 a12 a33 − a23 a32 a11 .
La règle consiste à additionner les produits des éléments des 3 diagonales ”principales” et à retrancher
les produits des éléments des 3 diagonales ”secondaires”.
Remarque : La règle de Sarrus ne s’applique que pour les matrices d’ordre égal à 3.

4.3 Développement suivant une ligne ou colonne


Définition 4.3.1 Soit A une matrice carrée d’ordre n. Le déterminant de la matrice (n − 1) × (n − 1)
obtenue en retranchant la i-ème ligne et la j-ème colonne de la matrice A, notée ∆ij s’appelle mineur
d’indice (i,j). Le mineur ∆ij multiplié par le coefficient (−1)i+j s’appelle cofacteur d’indice (i,j) de A.
4.4. Calcul d’inverse d’une matrice 27

Proposition 4.3.1 Le déterminant de la matrice A peut être calculé par :


1. le développement par rapport à la i-ème ligne :
n
X
det(A) = (−1)i+j aij ∆ij (A),
j=1

2. le développement par rapport à la j-ème colonne:


n
X
det(A) = (−1)i+j aij ∆ij (A).
i=1

Soit  
0 1 −1
 1 0 1 .
−1 −1 0
On effectue l’opération L2 ← L2 + L3 . On peut alors développer par rapport à la première colonne.
L2 ←L2 +L3
0 1 −1 0 1 −1
1 −1
det(A) = 1 0 1 = 0 −1 1 = − = 0.
−1 1
−1 −1 0 −1 −1 0

Proposition 4.3.2 3. Soit A ∈ Mn (K) une matrice ayant les colonnes C1 ,C2 , . . . ,Cn . On note A0 la
matrice obtenue par une des opérations élémentaires sur les colonnes, qui sont :
1. Ci ← λCi avec λ 6= 0 : A0 est obtenue en multipliant une colonne de A par un scalaire non nul.
Alors det A0 = λ det A.
2. Ci ← Ci + λCj avec λ ∈ K (et j 6= i ) : A0 est obtenue en ajoutant à une colonne de A un multiple
d’une autre colonne de A. Alors det A0 = det A.
3. Ci ↔ Cj : A0 est obtenue en échangeant deux colonnes distinctes de A· Alors det A0 = − det A.

4.4 Calcul d’inverse d’une matrice


Définition 4.4.1 Soit A ∈ Mn (K). On appelle comatrice de la matrice A, et on note Com A ∈ Mn (K)
la matrice des cofacteurs :
Com A = (−1)i+j ∆ij (A) 16i6n,16j6n .


 
1 1 0
On considère la matrice A =  0 1 1  . On a alors
1 0 1
 
1 1 0 1 0 1
 + 0 − +
 1 1 1 1 0 

   
  1 1 −1
 1 0 1 0 1 1 
 =  −1 1
Com(A)  − 0
= 
1
+
1 1

1 0 
1 .



 1 −1 1
 
 1 0 1 0 1 1 
+ − +
1 1 0 1 0 1

Théorème 4.4.1 Soit A ∈ Mn (K) une matrice inversible. Alors

1 t
A−1 = Com A.
det A
28 STIC

 
1 1 0
Si A =  0 1 1  alors
1 0 1
 
1 1 −1
Com(A) =  −1 1 1 
1 −1 1

et
 
1 −1 1
t
Com(A) =  1 1 −1  .
−1 1 1

Donc  
1 −1 1
1
A−1 = 1 1 −1  .
2
−1 1 1

Exercice n◦ 1 : Calculer les déterminants suivants:

0 1 −1 3 3 2 a b c b b c 1 1 1
1 0 1 ; 2 1 2 ; b c a ; b c b ; a b c ;
−1 −1 0 −3 −2 −2 c a b c b b b+c a+c a+b

c a b c
1 1 1
a c c b
a b c ; ; a,b,c ∈ R.
b c c a
a2 b2 c2
c b a c

Exercice n◦ 2 : Soit A ∈ M2n+1 (R) vérifiant t A = −A.


1. Montrer que det(A) = 0.
2. Ce résultat est-il encore vrai lorsque la matrice A est d’ordre pair?

Exercice n◦ 3 : Montrer:
1. Si A est une matrice inversible, alors det(A−1 ) = 1
det(A) .
2. Si A et P sont des matrices inversibles de taille n × n alors

det(P AP −1 ) = det(A).

3. Si A est une matrice carrée telle que t AA = In alors det(A) = ±1.


4. Si A est une matrice carrée telle que det(A2n ) = 0, n ∈ N∗ alors A n’est pas inversible.

 
1 1 0
Exercice n◦ 4 : On considère la matrice A =  0 1 1 .
1 0 1
1. Calculer det(A). En déduire que A est inversible.
2. Déterminer la comatrice de A.
3. Calculer le produit A.t com(A) en fonction de det(A) et I3 .
4. En déduire que A−1 = det(A)
1 t
com(A).
4.4. Calcul d’inverse d’une matrice 29

Exercice n◦ 5 : Déterminer la comatrice puis l’inverse des matrices suivantes:


     
1 1 −2 1 1 1 1 1 1
A= 0 1 0  ; B =  2 1 1  , C =  1 1 −1  .
0 −1 −1 1 2 0 1 −1 −1

Exercice n◦ 6 : On considère la matrice


 
1 −m −m
Am =  −2 3 − m 4 − m , m ∈ R.
2 −2 −3

1. Déterminer les valeurs de m pour lesquelles Am est inversible.


2. Donner l’inverse de A2 .
30 STIC
Chapitre 5

Espaces vectoriels

Dans tout ce qui suit K désigne R ou C.

5.1 Définitions et exemples


Définition 5.1.1 On appelle espace vectoriel sur K ou K-espace vectoriel (K e.v), un ensemble E sur
lequel sont définies les deux lois de compositions suivantes:

– Une loi de composition interne (L.C.I) appelée l’addition et notée (+), c’est une application de
E × E à valeurs dans E :
(+) : E × E −→ E
(x,y) 7−→ x + y
telle que (E,+) soit un groupe commutatif, c’est à dire ;
X ”+” est associative: ∀x,y,z ∈ E, (x + y) + z = x + (y + z)
X ”+” est commutative: ∀x,y,z ∈ E, x + y = y + x
X ”+” admet un élément neutre 0E ∈ E tel que ∀x ∈ E,x + 0E = x.
X ”+” admet un inverse ( dit opposé ou symétrique et noté -x ): ∀x ∈ E,∃y ∈ E; x + y = y + x = 0E .
– Une loi de composition externe (L.C.E) dite multiplication par un scalaire de K notée (.) et définie
sur K × E à valeurs dans E :
(.) : K × E −→ E
(λ,X) 7−→ λ.x
telle que :
X ∀ λ,µ ∈ K, ∀x ∈ E, λ.(µ.x) = (λµ).x
X ∀ λ,µ ∈ K, ∀x ∈ E, (λ + µ).x = λ.x + µ.x
X ∀ x,y ∈ E, ∀λ ∈ K, λ.(x + y) = λ.x + λ.y
X ∀ x ∈ E, 1.x = x.

Remarques et notation :
– Les éléments de E sont appelés vecteurs.
– L’élément neutre 0E , s’il existe alors il est unique.
– Soit x ∈ E. Si x admet un inverse x0 ∈ E alors il est unique.
Exemples :
1. R est un R-espace vectoriel.
2. C est un C-espace vectoriel.
3. C est un R-espace vectoriel.
4. R2 est un R-espace vectoriel; l’addition est définie par:

∀(x,y),(z,t) ∈ R2 , (x,y) + (z,t) = (x + z,y + t)


32 STIC

et la multiplication est définie par :


∀λ ∈ R,(x,y) ∈ R2 ,λ(x,y) = (λx,λy).
5. Plus généralement, Rn , (n ≥ 1) est un R-espace vectoriel dont l’addition et la multiplication sont
définies comme suit:
∀(x1 ,...,xn ),(y1 ,...,yn ) ∈ Rn ,∀λ ∈ R,
(x1 ,...,xn ) + (y1 ,...,yn ) = (x1 + y1 ,...,xn + yn )
λ.(x1 ,...,xn ) = (λx1 ,...,λxn ).
L’élément neutre pour l’addition est 0Rn = (0,...,0) et l’élément opposé de (x1 ,...,xn ) est (−x1 ,..., −
xn ) que l’on note aussi −(x1 ,...,xn ).
6. De même Cn , (n ≥ 1) est un C-espace vectoriel.
Règles de calcul dans un espace vectoriel :
Soit E un K-espace vectoriel. Alors on a :
X ∀x ∈ E, 0.x = 0E .
X ∀λ ∈ K,λ.0E = 0E .
X ∀x ∈ E,∀λ ∈ K,(−λ).x = λ.(−x) = −(λ.x).
X λ.x = 0E ⇐⇒ λ = 0 ou x = 0E .

5.2 Sous espaces vectoriels


Définition 5.2.1 Soit E un K-espace vectoriel. Une partie F de E est dite sous espace vectoriel (s.e.v)
de E si :
X 0E ∈ F ,
X ∀x,y ∈ F , x + y ∈ F ,
X ∀λ ∈ K, λ.x ∈ F ,
ceci est équivalent à : F 6= ∅ et ∀λ ∈ K, ∀x,y ∈ F , λ.x + y ∈ F ,
ce qui est aussi équivalent à : F 6= ∅ et ∀λ,µ ∈ K, ∀x,y ∈ F , λ.x + µ.y ∈ F .
Exemples :
 un K-espace vectoriel. E et {0E } sont des sous espaces vectoriels de E.
1. Soit E
2. F = (x,y) ∈ R2 ; x + y = 0 est un sous espace vectoriel de R2 .

3. G = (x,1) ∈ R2 ; x ∈ R n’est pas un sous espace vectoriel de R2 car 0R2 = (0,0) ∈ / G.

4. H = (x,y,z) ∈ C3 ; x + iy − z = 0 est un sous espace vectoriel de C3 .
5. K = {(x1 ,x2 ,...,xn ) ∈ Rn ; x1 + 2x2 + ... + nxn = 0} est un sous espace vectoriel de Rn .
Théorème 5.2.1 Tout sous espace vectoriel F d’un K-espace vectoriel E est lui-même un K-espace vec-
toriel pour les lois induites par E.
Méthodologie: Pour répondre à la question ” L’ensemble F est-il un espace vectoriel? ”, une méthode
efficace de procéder est de trouver un espace vectoriel E qui contient F, puis prouver que F est un
sous-espace vectoriel de E. Il y a seulement trois propriétés à vérifier au lieu de huit.
Exemple : Notons P l’ensemble des fonctions paires et I l’ensemble des fonctions impaires. Ce sont
deux sousensembles de l’espace vectoriel F (R,R) des fonctions.
P = {f ∈ F (R,R) | ∀x ∈ R,f (−x) = f (x)}.
I = {f ∈ F (R,R) | ∀x ∈ R,f (−x) = −f (x)}.
P et I sont des sous-espaces vectoriels de F (R,R).
Définition 5.2.2 Combinaison linéaire : Soient v1 ,...,vn ∈ E (n ∈ N∗ ). On appelle combinaison
linéaire des vecteurs v1 ,...,vn tout vecteur x ∈ E qui s’écrit :
X
x = λ1 v1 + ... + λn vn = λi vi
1≤i≤n
où λ1 ,λ2 ,...,λn ∈ K. Les scalaires λ1 ,...,λn sont appelés coefficients de la combinaison linéaire.
5.3. Sous espaces vectoriels supplémentaires 33

Remarque : Pour n = 1, x = λ1 v1 et on dit que x est colinéaire à v1 .


Exemple : E=R2 , v1 = (−1,1), v2 = (2,3) alors x = 2v1 + 7v2 est une combinaison linéaire de v1 et v2 .
Définition 5.2.3 Sous espace engendré : Soient v1 ,...,vn ∈ E (n ∈ N∗ ).
– On appelle sous espace vectoriel de E engendré par v1 ,...,vn et est noté vect (v1 ,...,vn ) le sous espace
de E formé par toutes les combinaisons linéaires de v1 ,...,vn , c’est à dire :
 
 X 
vect (v1 ,...,vn ) = x ∈ E; x = λi vi , λi ∈ K,1 ≤ i ≤ n
 
1≤i≤n

– On dit que la famille (v1 ,...,vn ) est génératrice


Xou totale ou qu’elle engendre E si vect (v1 ,...,vn ) = E
c’est à dire tout vecteur x ∈ E s’écrit x = λi vi , λi ∈ K, 1 ≤ i ≤ n.
1≤i≤n

Théorème 5.2.2 (Théorème de structure de l’ensemble des combinaisons linéaires). Soit


{v1 , . . . ,vn } un ensemble fini de vecteurs d’un K-espace vectoriel E. Alors:
– L’ensemble des combinaisons linéaires des vecteurs {v1 , . . . ,vn } est un sous-espace vectoriel de E.
– C’est le plus petit sous-espace vectoriel de E (au sens de l’inclusion) contenant les vecteurs v1 , . . . ,vn .
Exemples : Soit E un espace vectoriel.
1. Soit a ∈ E; a 6= 0; vect(a) = {λ.a,λ ∈ K} = K.a appelé droite vectorielle engendré par a.
2. On prend E = R2 , tout vecteur u ∈ R2 s’écrit de la forme u = (x,y) = x(1,0) + y(0,1) d’où
R2 = vect {(1,0); (0,1)} et on dit que la famille {(1,0); (0,1)} engendre R2 .
Mini-exercices. Parmi les ensembles suivants, reconnaı̂tre ceux qui sont des sous-espaces vectoriels:

1. (x,y,z) ∈ R3 | x + y = 2 .

2. (x,y,z,t) ∈ R4 | x = t et y = z} .

3. (x,y,z) ∈ R3 | z = 1 .

4. (x,y) ∈ R2 | x2 + xy > 0 .

5. (x,y) ∈ R2 | x2 + y 2 > 1 .
6. {f ∈ F (R,R) | f (0) = 1}.
7. {f ∈ F (R,R) | f (1) = 0}.
8. {f ∈ F (R,R) | f est croissante }.

5.3 Sous espaces vectoriels supplémentaires


Définition 5.3.1 Somme de sous espaces vectoriels
Soient F et G des sous espaces vectoriels de E. On note F + G = {z ∈ E; ∃ x ∈ F,y ∈ G; z = x + y} alors
F + G est un sous espace vectoriel de E contenant F et G, et appelé somme des sous espaces vectoriels F
et G (F ⊂ (F + G) et G ⊂ (F + G)) .
34 STIC

Exemple :
Tout vecteur u ∈ R2 s’écrit de la forme u = (x,y) = x(1,0) + y(0,1) d’où R2 = vect {(1,0)} + vect {(0,1)}.

Proposition 5.3.1 (Intersection de deux sous-espaces). Soient F, G deux sous-espaces vectoriels


d’un K-espace vectoriel E. L’intersection F ∩ G est un sous-espace vectoriel de E.

Exemple: Soit D le sous-ensemble de R3 défini par:

D = (x,y,z) ∈ R3 | x + 3y + z = 0 et x − y + 2z = 0


Est-ce que D est sous-espace vectoriel de R3 ? L’ensemble D est l’intersection de F et G, les sous-
ensembles de R3 définis par:
F = (x,y,z) ∈ R3 | x + 3y + z = 0


G = (x,y,z) ∈ R3 | x − y + 2z = 0


Ce sont deux plans passant par l’origine, donc des sous-espaces vectoriels de R3 . Ainsi D = F ∩ G est

un sous-espace vectoriel de R3 , c’est une droite vectorielle.


Remarque. La réunion de deux sous-espaces vectoriels de E n’est pas en général un sous-espace vectoriel
de E. Prenons par exemple E = R2 . Considérons les sous-espaces vectoriels F = {(x,y) | x = 0} et
G = {(x,y) | y = 0}. Alors F ∪G n’est pas un sous-espace vectoriel de R2 . Par exemple, (0,1)+(1,0) = (1,1)
est la somme d’un élément de F et d’un élément de G, mais n’est pas dans F ∪ G.

Définition 5.3.2 On dit que F et G sont des sous espaces vectoriels supplémentaires dans E et on note
E = F ⊕ G si tout vecteur z ∈ E s’écrit d’une manière unique z = x + y, avec x ∈ F et y ∈ G, où encore :
∀z ∈ E,∃!x ∈ F,∃!y ∈ G; z = x + y.

Proposition 5.3.2 E = F ⊕ G ⇐⇒ E = F + G et F ∩ G = {0E }.

Exemple : R2 = vect {(1,0)} ⊕ vect {(0,1)}.


5.4. Famille libre-Famille liée 35

5.4 Famille libre-Famille liée


Définition 5.4.1 Soient E un K-espace vectoriel et v1 ,...,vn (n ∈ N∗ ) des vecteurs de E.
– On dit que la famille {v1 ,...,vn } est libre si la seule combinaison linéaire qui s’annule est celle dont
tous les coefficients sont nuls, c’est à dire : ∀α1 ,...,αn ∈ K,

α1 v1 + ... + αn vn = 0E =⇒ α1 = ... = αn = 0.
On dit aussi que les vecteurs v1 ,...,vn sont linéairements indépendants.
– On dit que la famille {v1 ,...,vn } est liée ou que les vecteurs v1 ,...,vn sont linéairements dépendants
s’il existe α1 ,...,αn ∈ K non tous nuls tels que α1 v1 + ... + αn vn = 0E .

Exemple :
1. E=R2 ; v1 = (1,1), v2 = (−1,2). Montrons que {v1 ,v2 } est une famille libre: soient α,β ∈ R tel que αv1 +
βv2 = 0 alors α(1,1) + β(−1,2) = 0R2 = (0,0) ou encore (α − β,α + 2β) = 0 ce qui implique que
α − β = 0 et α + 2β = 0 =⇒ α = β et 3α = 0 =⇒ α = β = 0. Ainsi la famille {v1 ,v2 } est libre dans
R2 .
2. E = C3 , v1 = (1,i,0), v2 = (2i,0,1), v3 = (3 + 2i,3i,1). La famille {v1 ,v2 ,v3 } est liée dans C3 . En
effet, 3v1 + v2 − v3 = 0.
Propriétés :
1. Toute famille contenant le vecteur nul est liée. En effet, soient v1 ,...,vn ∈ E et supposons qu’il existe
i ∈ {2,...,n − 1} tel que vi = 0 alors 0v1 + 0v2 + ... + 0vi−1 + [Link] + 0vi+1 + ... + 0vn .
2. Toute famille contenue dans une famille libre est libre.
3. Toute famille contenant une famille liée est liée.
4. Toute famille contenant un même vecteur plus qu’une fois est liée. En effet, on considère la famille
{v1 ,v1 ,v2 ,...,vn } alors on a : 1.v1 + (−1)v1 + 0v2 + ... + 0vn = 0.

Proposition 5.4.1 La famille {v1 ,...,vn } est liée si et seulement si au moins l’un des vecteurs vi est
combinaison linéairre des autres.

Exemples :
1. La famille {v1 ,v2 ,v1 + v2 } est liée.
2. Une famille de deux vecteurs {u,v} est liée si et seulement s’il existe λ 6= tel que v = λu. On dit
que u et v sont colinéaires.

5.5 Espace vectoriel de dimension finie


Soit E un K-espace vectoriel.

Définition 5.5.1 On dit que E est de dimension finie s’il est engendré par un nombre fini de vecteurs de
E, c’est à dire : ∃v1 ,...,vn ∈ E; vect {v1 ,...,vn } = E. Dans le cas contraire on dit que E est de dimension
infinie.

Définition 5.5.2 On appelle base de E toute famille qui est à la fois libre et génératrice.

Théorème 5.5.1 – Tout espace vectoriel de dimension finie possède une base.
– Dans un espace vectoriel de dimension finie, toutes les bases ont le même nombre d’éléments appelé
dimension de E et est noté dimK E ou dim E.

Exemples :
1. dimR R = 1, dimR C = 2, C est engendré par 1 et i.
2. dimC C = 1.
3. dim{0} = 0.
4. dimK Kn = n, Kn est engendré par la famille e1 = (1,0,...,0), e2 = (0,1,0,...,0), ..., en = (0,...,0,1)
36 STIC

Proposition 5.5.1 Soit B = (v1 ,...,vn ) une base de E alors tout vecteur x ∈ E s’écrit de une manière
unique :

x = x1 v1 + x2 v2 + ... + xn vn où x1 ,x2 ,...,xn ∈ K.


Les coefficients x1 ,...,xn s’appellent les coordonnées de x dans la base B.

Exemples : Dans E = Kn , x = (x1 ,x2 ,...,xn ) = x1 (1,0,...,0) + x2 (0,1,0,...,0) + ... + xn (0,...,0,1) =


x1 e1 + x2 e2 + ... + xn en avec e1 = (1,0,...,0), e2 = (0,1,0,...,0), ..., en = (0,...,0,1). La famille {e1 ,e2 ,...,en }
est dite la base canonique de Kn . Les coordonnées de x sont x1 ,x2 ,...,xn .

Théorème 5.5.2 Si dim E = n alors :

– Toute famille libre admet au plus n éléments.


– Toute famille libre qui a n éléments est une base de E.
– Toute famille génératrice a au moins n éléments.
– Toute famille génératrice qui a n éléments est une base de E.

Corollaire 5.5.1 – Toute famille génératrice contient une base.


– Toute famille libre peut être complétée en une base de E.

Théorème 5.5.3 Soient E un K-espace vectoriel de dimension n, et B = (v1 , . . . ,vn ) une famille de n
vecteurs de E. On a l’équivalence entre:
1. B est une base de E,
2. B est une famille libre de E,
3. B est une famille génératrice de E.

Exemple: E = R3 , v1 = (1,1, − 1), v2 = (2,3, − 4). On vérifie que {v1 ,v2 } est une famille libre. On choisit
v3 = (0,0,1). On vérifie que {v1 ,v2 ,v3 } est une famille libre. Comme dim E = 3 alors {v1 ,v2 ,v3 } est une
base de E.

Théorème 5.5.4 Soit E un K espace vectoriel de dimension finie. Alors :

– Tout sous espace vectoriel F de E est de dimension finie et dim F ≤ dim E.


– Si dim F = dim E alors F=E.

Théorème 5.5.5 Soit E un K espace vectoriel tel que dim E = n < +∞. Soient F et G des sous espaces
vectoriels de E. Alors :
– dim(F + G) = dim F + dim G − dim(F ∩ G).
– dim(F ⊕ G) = dim F + dim G.

F ∩ G = {0}
– F et G sont supplémentaires dans E ⇐⇒
dim E = dim F + dim G.

Exemple : E = R3 ; F = (x,y,z) ∈ R3 ; x + y + z = 0 . Déterminer la dimension et donner une base de
F. Il est facile de vérifier que F est un
 sous espace vectoriel de E.
 x = −y − z
(x,y,z) ∈ F ⇐⇒ x + y + z = 0 ⇐⇒ y=y
z=z

Donc (x,y,z) = (−y − z,y,z) = y(−1,1,0) + z(−1,0,1) = yv1 + zv2 où v1 = (−1,1,0); v2 = (−1,0,1) ∈ F .
La famille v1 ,v2 engendre F et F = vect {v1 ,v2 }. On vérifie que {v1 ,v2 } est une famille libre, d’où {v1 ,v2 }
est une base de F et dim F = 2.

Définition 5.5.3 Rang d’une famille de vecteurs


Soit E un K espace vectoriel de dimension finie égal à n. Soit {v1 ,...,vp } une famille de vecteurs de E
(p ∈ N∗ ). On appelle rang de {v1 ,...,vp } noté rg {v1 ,...,vp } la dimension du sous espace vectoriel engendré
par cette famille, c’est à dire rg {v1 ,...,vp } = dim (vect {v1 ,...,vp }) .
5.5. Espace vectoriel de dimension finie 37

Propriétés :

1. rg {v1 ,...,vp } ≤ n.
2. rg {v1 ,...,vp } ≤ p.
3. rg {v1 ,...,vp } = p ⇐⇒ {v1 ,...,vp } est une famille libre dans E.
4. rg {v1 ,...,vp } = p ⇐⇒ {v1 ,...,vp } est une famille génératrice de E.
Exemple :
On pose E = R4 . v1 = (1,0,1,0); v2 = (3,1,1, − 1); v3 = (2,1,0, − 1). On a : v2 = v1 + v3 ce qui implique
que {v1 ,v2 ,v3 } est une famille liée. Donc rg {v1 ,v2 ,v3 } ≤ 2. De plus, on vérifie facilement que {v1 ,v2 } est
libre d’où rg {v1 ,v2 ,v3 } = 2.

Exercice n◦ 1 : On définit sur E = R2


l’addition ? par
(x,y) ? (x0 ,y 0 ) = (x + x0 ,y + y 0 ),

la multiplication •, par
λ • (x,y) = (2x,0).

E muni de ces deux lois est-il un R-espace vectoriel sur R2 ?

Exercice n◦ 2 : Les ensembles suivants sont-ils des espaces vectoriels?


n o
1. F = (x,y) ∈ R2 ; xy = 0 .
n o
2. F1 = (x,y,z) ∈ R3 ; x + y − 4z = 0 .
n o
3. F2 = (x,y,z) ∈ R3 ; x − 2y + z = 1 .
n o
4. F3 = (x,y,z) ∈ R3 ; xy − z = 0 .

Exercice n◦ 3 : Soit E le R-espace vectoriel des applications de [0,1] dans R muni des opérations usuelles.
Dans quel cas F est-il un sous-espace vectoriel de E ?
n o
1. F = f ∈ E; f (0) = 0 .
n o
2. F = f ∈ E; f (1) = 12 .
n o
3. F = f ∈ E; f (0) + f (1) = 0 .
n o
4. F = f ∈ E; 2f (0) = f (1) + 3 .
n o
5. F = f ∈ E; f (x) ≥ 0; ∀ x ∈ [0,1] .
n o
6. F = f ∈ E; f (x) + f (1 − x) = 0; ∀ x ∈ [0,1] .

Exercice n◦ 4 : Considérons les vecteurs de R4 suivants :

v1 = (1,1,1,1), v2 = (0,1,2, − 1), v3 = (1,0, − 2,3), v4 = (2,1,0, − 1).

La famille {v1 ,v2 ,v3 ,v4 } est-elle libre?

Exercice n◦ 5 : Soit E un R-espace vectoriel de base (v1 ,v2 ). On pose u1 = v1 + v2 et u2 = v1 − v2 .


1. Montrer que la famille (u1 ,u2 ) est une base de E.
2. Exprimer v1 , puis v2 comme une combinaison linéaire de u1 , u2 .
38 STIC

Exercice n◦ 6 : On considère le système d’équations linéaires à coefficients réels :



 x + 4y − 3t = 0 (e1 )
(S) : 2x + 4y − z − 3t = 0 (e2 )
3x + 4y − 2z − 3t = 0 (e3 ).

1. On note F le sous-espace vectoriel de R4 constitué des solutions de (S).

(a) Préciser une base B de F .


(b) Vérifier que les vecteurs u = (1, − 1,1, − 1) et v = (0,3,0,4) appartiennent à F .
(c) Déterminer les coordonnées des vecteurs u et v dans la base B déterminée dans (1).
(d) Montrer que (u,v) est une base de F .

2. On considère le système d’équations linéaires à coefficients réels :



z=0
(S 0 ) :
t = 0.

On note G le sous-espace vectoriel de R4 constitué des solutions de (S 0 ).


(a) Montrer que F ∩ G = {0}.
(b) Déterminer une base de G.
(c) Soit X = (x,y,z,t) ∈ R4 , montrer qu’il existe X1 = (x1 ,y1 ,z1 ,t1 ) ∈ F et X2 = (x2 ,y2 ,z2 ,t2 ) ∈ G
tel que X = X1 + X2 . On déterminera X1 et X2 .

Exercice n◦ 7 : Soient F et G des s-e-v d’un K-espace vectoriel E de dimension finie n. On suppose que
dim(F ) + dim(G) > n. Montrer que F ∩ G 6= {0E }.

Exercice n◦ 8 : On considère dans R2 les sous-ensembles F et G suivants :


n o n o
F = (x,y) ∈ R2 x = −y et G = (x,y) ∈ R2 x = y .

1. Montrer que F et G sont deux sous-espaces vectoriels de R2 .


2. Montrer que R2 = F ⊕ G.

Vous aimerez peut-être aussi