0% ont trouvé ce document utile (0 vote)
89 vues53 pages

Maths Rit 2a

Le document traite des transformations de Laplace, essentielles pour résoudre des équations différentielles en divers domaines comme l'électricité et la théorie du signal. Il présente des concepts clés tels que les fonctions causales, les transformées usuelles, et les propriétés de la transformation de Laplace, y compris la linéarité et le théorème du retard. Des exemples d'applications et des calculs de transformées spécifiques sont également fournis pour illustrer ces concepts.

Transféré par

09606360amidou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
89 vues53 pages

Maths Rit 2a

Le document traite des transformations de Laplace, essentielles pour résoudre des équations différentielles en divers domaines comme l'électricité et la théorie du signal. Il présente des concepts clés tels que les fonctions causales, les transformées usuelles, et les propriétés de la transformation de Laplace, y compris la linéarité et le théorème du retard. Des exemples d'applications et des calculs de transformées spécifiques sont également fournis pour illustrer ces concepts.

Transféré par

09606360amidou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

COURS DE MATHEMATIQUES RIT ANNEE 2

Chapitre I : TRANSFORMATIONS DE LAPLACE

La transformation der LAPLACE intervient dans la résolution d’équations et de


systèmes différentiels ; et tout particulièrement aujourd’hui en électricité,
électronique, théorie de la chaleur, théorie du signal …
Rappel sur les intégrales généralisées
Par définition on a :

= ℮ 
 = lim  ℮  = lim −℮   = lim −℮ + 1 = 1
→ → →

 Comme la limite ci-dessus est finie, l’intégrale  est dite convergente.


1 
1
=  = lim   = lim ln + 1  = lim ln + 1 = +∞
+1 → +1 → →
 Comme la limite ci-dessus est infinie, l’intégrale  est dite divergente.

I. TRANSFORMEE DE LAPLACE (T.L.)


1) Fonction causale et signal causal
Une fonction est causale si  = 0 lorsque  < 0
Un signal causal est un signal qui démarre à un instant donné.
2) Définition de la Transformée de LAPLACE
Soit : ℝ → ℝ une fonction causale et continue (éventuellement par
morceaux). La transformée de LAPLACE de  est la fonction #$ ou ℒ$ définie par :

#$ & =  . ℮()  ; +ù & ∈ ℝ.


3) Notation
On écrira souvent #$ & = .& qui se lit “transformée de LAPLACE de  “.
De plus on utilisera fréquemment l’écriture incorrecte mais pratique #  /  ,
dans laquelle la variable & est sous entendue.
On considérera que toutes les fonctions traitées dans ce chapitre donnent lieu à des
intégrales convergentes.
II. TRANSFORMEES USUELLES OU DE BASE
1) Fonction “échelon - unité“
/  = 0 ; 12  < 04
Elle est notée / et est définie par : 0
/  = 1 ; 12  > 0

1
#/  = ? On a . & =    . ℮() 

#/  = . & =  / . ℮()  =  ℮() 

1 () 
= lim  ℮  = lim 8− . ℮ 9
()
→ → &
1
1 ( 1 12 & > 04
= lim :− . ℮ + ; = <&
→ & &
+∞ 12 & < 0
1
#/  =
&
2) Fonction “ impulsion – unité “

+∞ 12  = 04
Elle est notée C DEF et déHinie par : C   = K D  C  .  = 1
0 ≠0 

On admet que #C = 1. Et il est important de signifier que C n’est pas une
fonction ; c’est par contre une distribution.
3) Fonction “ puissance “
N!
Soit N ∈ ℕ, on admet que # S /  =
&S U
1 6
VDW&ED1 : #/  = X ; # Y /  =
& &[

1
4) Fonction “ exponentielle “
Soit F ∈ ℝ ; on admet que #℮\) . /  =
&+F
1 1
VDW&ED1: #℮X) . /  = ; #℮Y) . /  =
&+2 &−3

& _
5) Fonction “ trigonométrique “

Soit _ ∈ ℝ , on écrit que #cos_. / = X D #sin_. / = X


& +_ X & + _X
& &
a+bc & > 0: #cos3 . /  = ; #cos−F . /  = X
&X
+9 & + FX
−8 2g
a+bc & > 0: #sin−8 . /  = X ; #sin2g . /  = X
& + 64 & + 4g X
III. PROPRIETES DE LA TRANSFORMATION DE LAPLACE
1) Linéarité
Soient F D h deux nombres complexes, D i des fonctions de ℝ jDc1 ℝ nul −∞; 0 ,
on a : klm + no = l km + n ko .
Exemples d’application :
#5 Y −  X + 7 + 1/  = 5# Y /  − # X /  + 7#/  + #/ 

2
6 2 1 1 30 − 2& + 7&X + &Y
= 5× [− Y+7× X+ =
& & & & &[
#5℮Y) − 9℮[) + 2℮) − 6/ = 5#℮Y) / − 9#℮[) / + 2#℮) / − 6#/
5 9 2 6
= − + −
&+3 &−4 &+1 &
Ecrivez s+1 X  sous sa forme linéaire et déterminez #s+1 X  . /  

1
 Linéarisation :
On a que: cos F . cos h = cosF + h + cosF − h
2
⟺ 2 cos F . cos h = cosF + h + cosF − h
Si F = h; 2 cos F . cos F = cosF + F  + cosF − F  ⇒ 2s+1 X F = cos2F + cos0
On peut donc écrire 2s+1 X  = cos2 + cos0 ⇒ 2s+1 X  = cos2 + 1
1
s+1 X  = 1 + cos2
2
 Déterminons #s+1 X . /
1 1
#s+1 X . / = # 8: + cos2; /9
2 2
1 1 1 1 1 &
= #/  + #cos2/ = . + . X
2 2 2 & 2 & +4
1 &
= +
2& 2&X + 8
2) Transformée de  F (effet de changement d’échelle sur la variable)

Soit F > 0 et  ∶ ℝ → ℝ telle que    = 0 , pour tout  ∈ −∞ ; 0.


y |
Si #  /  = . & , alors on admet que : kmlwxlw = .z{ }
l l
Remarque ∶ Pour F > 0 , ∀  ∈ ℝ , /F  = / 

1 1 &
Exemple d’application :

#/3  = ? . N 1F2 ‚bD #/  = . & = ; +Ns #/3  = ..{ }


& 3 3
& 1 3 1 3 1
ƒ+WWD . { } = & = . †
+ù #/ 3 = × =
3 „3 & 3 & &

3) Théorème du retard ou #   − F/  − F

Soit F un réel strictement supérieur à 0  F > 0 et  une fonction de ℝ jDc1 ℝ ,


telle que  = 0 ; quelque soit  < 0.

3
Si #  /  = . & alors on admet que : kmw − lxw − l = ℮l| z|
Le résultat est appelé théorème du retard et le terme ℮\( désigne le facteur de
retard.

1 ℮‡(
Exemples d’application :

1 #/ − g = ℮ ‡(


× #/ = ℮ ‡(
× =
& &
3
2 #ˆsin‰3 − 2Š/ − 2‹ = ℮X( × #sin3/ = ℮X( ×
&X +9
6
3 # − 1Y / − 1 = ℮( × # Y / = ℮( ×
&[
1
4 #ˆ℮)X Œ Y / − 2‹ = ℮X( × #ˆ℮) Œ Y /‹ = ℮X( ×
& − ln 3
4) Transformée de LAPLACE d’une fonction périodique

Soit  une fonction de ℝ jDc1 ℝ, nulle sur ℝ∗ et périodique pour  ≥ 0 de


période .


0  2
3 4
  =  , ∀  ∈ 0 ; 4
On considère la fonction  de ℝ jDc1 ℝ telle que : 0
  = 0 , ∀  ∈ “0 ; ”
z• |
Si #  /  = . & ; alors on admet que : kmw =
y − ℮|–
Exemple d’application :
Calculer la transformée de LAPLACE de la fonction  représentée ci-dessous.

 3 5
0  2 3
2 2 2
  =  , Si  ∈ ˆ0 ; „2‹
Ici on remarquera que ∶ ˜ 4
  = 0 , Si  ∉ ˆ0 ; „2‹

Calculons # / = . & ; ésc2j+N1 ∶ . & =  ℮()  . 


›„
X
=  ℮()  .  +  ℮()  . 
›„
X

4
›„
X
=  . ℮()  .  œsFc  ℮()  .  = 0
›„
X
1 1 1 
›„ ›„
X X › ›
= .  ℮
()
 .  = . 8− . ℮() 9 =  :− . ℮( X + ; = :−℮( X + 1;
& & & &

 ›
. & :−℮( X + 1;
&
Donc #. / = =
1 − ℮(› 1 − ℮(›
5) Transformée de la dérivée

Soit  une fonction continue et définie de ℝ jDc1 ℝ , telle que  = 0 ; ∀  <

0. On suppose  dérivable de dérivée  † ; avec  † continue. Si # / = . & ;

km† wxw = |z| − m•  0  = limŸ  


alors on admet que :

)→

# †† / = &X . & − &  0  −  † 0 

# ††† / = &Y . & − &X 0  − &  † 0  −  †† 0 

#ˆ S /‹ = &S .& − &SU 0  − &SX  † 0  − &SY  †† 0  − ⋯


…………….

−& SX 0  −  SU 0 

Théorème de la valeur initiale : lim &.& = limŸ 


Théorèmes :

(→ )→

Théorème de la valeur Hinale : lim &.& = lim 


(→ Ÿ )→

Soit  une fonction définie de ℝ jDc1 ℝ , telle que :    = 0 ; ∀  < 0. Si


6) Transformée de la primitive

w
z|
# /  = . & ; alors on admet que ∶ k ¤ m¥. x¥. ¦¥§ =
• |

1
Exemple d’application :

)
#℮ . / &+1 1
# ¤ ℮ . /.  § = = =
& & & & + 1

5
7) Dérivée d’une transformation de LAPLACE

Soit  une fonction admettant une transformée de Laplace . ; alors :


z† | = k−w mwxw

IV. TRANSFORMATION DE LAPLACE INVERSE (OU RECIPROQUE DE LA


TRANSFORMEE DE LAPLACE) ET CALCUL DES ORIGINAUX

. & , on veut obtenir la fonction  telle


1) Définition

que #  /  = . &.  s’il existe est unique et est appelée original de . &.
Supposons connue la fonction

On note ∶ mw = ky z|

1 & 1
Exemples d’application :

1#U 8 9 =  / ; 2 #U 8 X 9 = cos2/ ; 3 #U 8 9 = ℮) Œ Y /


& X & −4 & − ln 3
1 ℮\( 1
4 #U 8 9 = ℮) / ; 5 #U 8 9 = #U 8℮\( × 9 = / − F
&+1 & &
24 g
6 #U 8 9 =  [ /   ; 7 #U 8 9 = sing . / 
& ¨ &X + g X

ky l z| + n ©| = l . ky z| + n . ky ©|


2) Linéarité

1 1 6 1 U 6 1 Y
Exemples d’application :

∎ #U 8 9 = #U 8 × 9 = # 8 [9 = .  . /  
&[ 6 &[ 6 & 6
1 4 3 1 1 1
∎ #U 8 − + 9 = #U
8 9 − 4#U
8 9 + 3#U
8 9
&Y &+1 &−1 &Y &+1 &−1
1 U 2 1 1 y
= . # 8 Y 9 − 4#U 8 9 + 3#U 8 9 = : w« − ¬℮w + ­℮w ; xw
2 & &+1 &−1 «
&+1 és+W&+1Dc . & DN éEéWDN1 12W&ED1 4
∎ . &  = ; 0
& X & X + 4 hDN2c E† +c2i2NFE D . &
Résolution
i) Les éléments ici, pouvant annuler le dénominateur sont : 0 ; 22 D −22
La décomposition de .& sera donc de la forme :
&+1  ® ƒ. & +
. &  = = + X+ X . éDcW2N+N1 à &cé1DN , ®, ƒ D .
& X & X
+ 4 & & & +4

6
Db Wéℎ+D1 1 † +cDN à N+b1 EDbc éDcW2NF2+N ; 1+2 &Fc 2DN22sF2+N +b
DN DDsbFN ED1 sFEsbE1 1b2jFN1:
&+1  ® ƒ. & +
∎ a+bc éDcW2NDc ® +N &+1D ∶ &X × = & X
: + + ;
& X & X + 4 & &X &X + 4
&+1 &X ƒ. & +  y
⟺ = . & + ® + . VN &+1FN  & = 0  , +N +h2DN: ± =
&X + 4 &X + 4 ¬
&+1  ® ƒ. & +
∎ a+bc éDcW2NDc  +N &+1D ∶ & × X X = & : + X+ X ;
& & + 4 & & & +4
&+1 ® & ƒ. & + 
=  + + . E D1 2W&+112hED D &+1Dc & = 0; WbE2&E2+N1
& &X + 4 & &X + 4
&+bc cDNcD &+112hED sDD +&écF2+N , E† éiFE2é &Fc & ; &b21 F21+N1 EF éc2jéD &cDW2ècD.
&+1 ® &+1 †
N +h2DN ∶ X = . & + ; &+bc 2cDc  +N &+1D : X ; = . & + ®†
& +4 & & +4
&X + 4 − 2&& + 1 4 y
†
+ù  = . VN &+1FN & = 0 , +N F  = X ⟹ ³ =
& + 4
X X 4 ¬
&+1  ® ƒ. & +
∎ a+bc ƒ D +N &+1D: &X + 4 × X X = & X + 4 × : + X + X ;
& & + 4 & & & +4
& + 1  & X + 4 ® & X + 4
N +h2DN: X = + + ƒ. & + . † Fh+c &+1+N1 & = 22
& & &X
22 + 1 −22 + 1
sD ‚b2 +NND = 22. ƒ + ; &b21 & = −22 +N F = −22. ƒ +
−4 −4
22 1
22. ƒ + = − −
VN cD1+EjFN ´ 4 4 ; +N c+bjD F21DWDN µ = − y D ¶ = − y4
22 1 ¬ ¬
−22. ƒ + = −
4 4
|+y y y y y y |+y
.2NFEDWDN +N F ∶ z| = « « = : × ; + : × «; − : × « ;
| | + ¬  ¬ | ¬ | ¬ | +¬

L’original de .& qu’on notera #U .& sera :


&+1 1 1 1 1 1 &+1
ii)

#U . & = #U 8 9 = #U 8: × ; + : × X ; − : × X ;9


& X & X + 4 4 & 4 & 4 & +4
1 U 1 1 U 1 1 &+1
#U . & = .# 8 9 + . # 8 X 9 − . #U 8 X 9
4 & 4 & 4 & +4
1 U 1 1 U 1 1 & 1 1
= .# 8 9 + . # 8 X 9 − . #U 8 X 9 − . #U 8 X 9
4 & 4 & 4 & +4 4 & +4

ky z| = xw + . w xw − ·¸¹«w xw − ¹»¼«w xw


y y y y
¬ ¬ ¬ º

7
3) Original de . & × ½ &

Propriété : Si #U . & =    et #U ½ & = i  ; alors on admet que :


w
y 
k z| × ©| =  m¥. ow − ¥ ¦¥
•
w
¾¿ÀÁÂÃÄ¿ : L’intégrale  m¥. ow − ¥ ¦¥ est une fonction de  appelée |ȸ¦É»w
•

de convolution de  par i et est notée  ∗ i ; on vérifie que  ∗ i = i ∗ 

1
Exemple d’application :

hDN2c E’+c2i2NFE D Ê& =


& X & + 1
1 1 1
VN ésc2jFN ∶ Ê &  = = × = . &  × ½ &  ;
& X & + 1 &X & + 1
1 1 1
+ù . &  = D ½ &  = .  = #U 8 9 =  /  
&X &+1 &X
1
D i = #U 8 9 = ℮ / . 2N12 i −  = ℮) / − 
&+1
) ) 
#U Ê&
=   . i −   =   . ℮  =   . ‰℮− × ℮ Š 
−−
0
)
= ℮) .  . ℮  =  − 1 + ℮)

V. APPLICATION DE LA TRANSFORMATION DE LAPLACE AUX EQUATIONS


ET SYSTEMES DIFFERENTIELS

La transformation de Laplace permet de remplacer des problèmes de


dérivation et d’intégration par des problèmes algébriques. Elle permet ainsi entre
autre de transformer des équations différentielles, ou systèmes d’équations
différentielles, en équations, ou systèmes d’équations, algébriques.

1) Résolution d’équations différentielles

Résoudre : V  ∶ Ë ††   − 2Ë †   + Ë  =  ℮) ; telle que Ë0 = 1D Ë′ 0 = −3


Après avoir posé Í& = #Ë / ; appliquons # aux deux membres de V .
V  ∶ #ˆ‰Ë ††   − 2Ë †   + Ë Š/ ‹ = # ℮) / 
⟹ #Ë ††  . /  − 2#Ë †  . /  + #Ë . /  = # ℮) / 

8
⟹ ‰&X Í& − &. Ë0 − Ë † 0Š − 2‰&. Í& − Ë0Š + Í& = # ℮) / 
1
⟹ &X Í& − & + 3 − 2&. Í& + 2 + Í& =
& − 1X
1 1
⟹ &X − 2& + 1. Í& + −& + 5 = ⟺ & − 1X . Í& + −& + 5 =
& − 1 X & − 1X
1
1 : ; + & − 5
 & − 1X
⟹ & − 1 . Í &  =
X
− −& + 5 ⟺ Í &  =
& − 1X & − 1X
1 &−5 1 & − 1 − 4
⟹ Í &  = + = +
& − 1[ & − 1X & − 1[ & − 1X
1 &−1 4 1 1 4
⟹ Í &  = + − = + −
& − 1[ & − 1X & − 1X & − 1[ & − 1 & − 1X
1 1 1 6 y w ­
∎ #U 8 9 = ℮ )
. #U
8 9 = . ℮)
. #U
8 9 = . ℮ . w xw
& − 1[ &[ 6 &[ Î
−4 1 1
∎ #U 8 9 = −4. ℮w . #U 8 X 9 = −¬. w. ℮w xw D #U 8 9 = ℮w xw
& − 1 X & & − 1

y
On obtient finalement :

Ïw = : . ℮w . w­ + ℮w − ¬. w. ℮w ; xw
Î

2) Résolution de systèmes différentiels

ËU
Soit à résoudre le système différentiel suivant :

= 4ËU + 4ËX Ë 0 = 0 4


Ð ∶ ´  4 ; +ù 0 U
ËX ËX 0 = 1
= ËU + 4ËX

Posons ÍU = # ËU  et ÍX = #ËX  ; en appliquant # aux deux membres de l’égalité :

ËU &ÍU − ËU 0 = 4ÍU + 4ÍX
# 8 9 = 4 # ËU + 4 # ËX 
Ð  ∶ ´  4 ⟺ ´ 4
ËX
# 8 9 = # ËU + 4 # ËX  &ÍX − ËX 0 = ÍU + 4ÍX

&ÍU = 4ÍU + 4ÍX & − 4 ÍU − 4ÍX = 0
⟹ ˜ ⟺ ˜ 4
&ÍX − 1 = ÍU + 4ÍX −ÍU + & − 4 ÍX = 1

0 −4
A travers la formule des déterminants de CRAMER (chapitre suivant) on obtient :

Ñ & − 4 Ñ 0 − −4 ¬
1
ÍU = = ; +Ns Òy =
& − 4 − 4 & − 4X − 4 | − « . | − Î 
Ñ Ñ
−1 & − 4

9
& − 4 0
Ó Ó
D ÍX = −1 1 = & − 4 − 0 ; +Ns Ò = |−¬
& − 4 − 4 & − 4X − 4 «
| − « . | − Î 
Ñ Ñ
−1 & − 4
En décomposant en éléments simples ÍU D ÍX , on pourra donc écrire :
1 1 1 1 1 1
ÍU = − D ÍX = : × ; + : × ;
&−6 &−2 2 &−6 2 &−2

y Îw
On trouve finalement :

Ïy w = ℮Îw − ℮«w xw Ôw Ï« w = ℮ + ℮«w xw


«

VI. APPLICATION AUX SYSTEMES LINEAIRES PHYSIQUES


1) Introduction

une grandeur d’entrée   , fonction du temps et une grandeur de sortie Ë .
De nombreux systèmes physiques (électrique, mécanique …), associent à

   Ð Ë  

Ë  est appelée la réponse du système à l’excitation    . Ces deux grandeurs

l¼ ϼ + l¼y ϼy + ⋯ + ly φ + l• Ï = ¥w


sont liées par une équation différentielle de la forme :

On veut déterminer Ë à l’aide de la transformation de LAPLACE ( # ). On pose


pour ce faire Í& = Í = #Ë   et Õ& = Õ = #  . On applique # à

du repos c'est-à-dire    , Ë  et leurs dérivées sont nulles à l’instant  = 0. On


l’équation différentielle ci-dessous, en supposant pour simplifier que le système part

FS . &S + FSU . &SU + ⋯ + FU . & + F  . Í& = Õ&


obtient :

y
Ò| = Ö|
l¼ . |¼ + l¼y . |¼y + ⋯ + ly . | + l•

Par définition on appelle fonction de transfert du système Ð la fonction Ê &, égale


y
×| = . N F FE+c1 Ò| = ×|. Ö|
l¼ . |¼ + l¼y . |¼y + ⋯ + ly . | + l•

Pour déterminer Ë , il suffit de déterminer ℎ  = #U  Ê& et calculer ensuite :
w
Ïw = k y 
×|. Ö| = Ø ∗ ¥w =  ØÉ . ¥w − É ¦É
•

10
2) Exemple d’application

Charge d’un condensateur à travers une résistance

Ù
D ƒ j

L’équation différentielle donnant la tension j aux bornes de la capacité est :


j 
ك. + j   = D   ; N &+1D Ú & = #j   D V & = #D 

En appliquant # à l’équation différentielle on obtient :
ك. &Ú & + Ú & = V & ⟺ Ú &. ك. & + 1 = V &
1 1
+Ns V & = V & ; FjDs Ê & = +Ns2+N D cFN1Dc
ك. & + 1 ك. & + 1
1 1 1 1
ℎ = #U Ê & = #U 8 9 = #U Û Ü = #U Û × Ü
ك. & + 1 ك ‰& + 1„Ùƒ Š ك & + 1„
ك

ß â
1 U Þ 1 á = 1 U
⟹ ℎ   = .# Þ á . ℮ãä ) b 
ك 1 ك
Þ& + „Ùƒ á
Ý à

11
Chapitre II : ALGEBRE LINEAIRE

A. CALCULS MATRICIELS

I. GENERALITES SUR LES MATRICES

1) Définitions

On appelle matrice tout bloc rectangulaire de nombres réels ou complexes à


W lignes et N colonnes de la forme :

FUU FUX ⋯ FUS


FXU FXX ⋯ FXS
å⋮ ⋮ ⋮ è +ù ED1 Féê 1+N ED1 éEéWDN1 +b s+D2s2DN1 D EF WFc2sD.

FçU FçX FçS
La matrice est dite de type, de format ou de dimension W ; N.
1 −2 3 FUU = 1 FUX = −2 FUY = 3
Exemple :  = œ 5 −4 10 ; FXU = 5 FXX = −4 FXY = 10
−7 8 9 FYU = −7 FYX = 8 FYY = 9
Notation : On désigne par ℳç S ℝ l’ensemble des matrices à W lignes et N

Soit  une matrice de ℳç S ℝ ; on note  = ‰Féê Š FjDs 1 ≤ 2 ≤ W D 1 ≤ í ≤ N.


colonnes à coefficients réels.

Une matrice ayant une ligne est appelée WFc2sD E2iND FU … FS  et une
FU
matrice ayant une colonne est appelée WFc2sD s+E+NND œ ⋮ .

2) Quelques matrices particulières
∗ Matrice carrée : une matrice est dite carrée lorsque le nombre de ligne est
égal au nombre de colonne ; W = N. On désigne par ℳS ℝ, l’ensemble des
matrices carrées d’ordre N à coefficients réels.
Les coefficients F11 ; F22 ⋯ ⋯ ; FWN , forment la diagonale principale de la matrice.
FUU FUX FUY
FUU FUX
 = {F FXX } ; +b ® = œFXU FXX FXY 
XU
FYU FYX FYY
 ∈ ℳX ℝ D ® ∈ ℳY ℝ
∗ Matrice diagonale : c’est une matrice carrée dont les éléments situés en
dehors de la diagonale principale sont nuls donc 112 Féê = 0 12 2 ≠ í.

12
FUU 0 0
F 0
 = : UU ; ; +b =œ 0 FXX 0 
0 FXX
0 0 FYY
∗ Matrice unité : on appelle matrice unité ou matrice identité toute matrice carrée

nuls. On notera généralement la matrice unité S . Ainsi on pourra écrire :


dont tous les éléments diagonaux sont égaux à un (1) et tous les autres sont tous

1 0 0
1 0
X = { } ; +b Y = œ0 1 0
0 1
0 0 1
∗ Matrice nulle : on appelle matrice nulle, une matrice dont tous les coefficients
sont nuls.
∗ Matrice symétrique : une matrice carrée est dite symétrique par rapport à sa
diagonale principale si quelque soit 2 ≠ í ; Féê = Fêé .
−1 2 1 1
Exemple :  = œ−1 3 0 ; EF 2Fi+NFED &c2Ns2&FED D1 œ 3 
2 0 4 4
FUX = FXU = −1
 D1 1ËWéc2‚bD sFc ∶ ˜ FUY = FYU = 2 4
FXY = FYX = 0
∗ Matrice triangulaire : soit  une matrice carrée d’ordre, telle que  = ‰F2í Š.

On dit que  est une matrice triangulaire supérieure 112 Féê = 0 ; ∀ 2 > í ou une
matrice triangulaire inférieure 112 Féê = 0 ; ∀ 2 > í. Citons en exemple :
1 −1 0 −1 0 0
 = œ0 −2 −3 ®=œ 2 3 0
0 0 1 1 4 2

II. OPERATIONS SUR LES MATRICES

1) Addition ou somme de matrices

Soient  et ® deux matrices de ℳç S ℝ , telles que :  = ‰Féê Š ∶ 1 ≤ 2 ≤ W ;


1 ≤ í ≤ N et ® = ‰héê Š ∶ 1 ≤ 2 ≤ W ; 1 ≤ í ≤ N ; leur somme  + ® est la
matrice ƒ = ‰séê Š ∶ 1 ≤ 2 ≤ W ; 1 ≤ í ≤ N telle que séê = Féê + héê ; ∀ 2 D í
Exemple d’application

1 4 5 −1 −2 −3 1−1 4−2 5−3 0 2 2


œ0 −1 3 + œ 1 1 1  = œ0 + 1 −1 + 1 3 + 1 = œ 1 0 4
1 −1 4 −1 2 −3 1−1 −1 + 2 4−3 0 1 1

13
 + ® = ® + 
Propriétés : l’addition des matrices est commutative et associative :

•  + ® + ƒ =  + ®  + ƒ =  + ® + ƒ 
Précisons que la soustraction ou différence des matrices suit la même démarche

Remarque : l’addition de deux matrices est possible si et seulement si  et ® ont le


que l’addition.

même nombre de lignes et même nombre de colonnes.

2) Multiplication d’une matrice par un réel

Soit  une matrice telle que  = ‰F2í Š ∶ 1 ≤ 2 ≤ W ; 1 ≤ í ≤ N ; et ï ∈ ℝ .

La matrice ï.  est la matrice ƒ = ‰séê Š ; telle que séê = ï. Féê ; ∀ 2 D í.


Exemple d’application

−2 3 2 × −2 2× 3 −4 6
 = œ−3 0 ⟹ 2.  = ð2 × −3 2× 0 ñ = œ−6 0
4 −5 2×4 2 × −5 8 −10

3) Multiplication ou produit de deux matrices

Soient  et ® deux matrices de ℳç S ℝ , telles que :  = ‰Féê Š ∶ 1 ≤ 2 ≤ W ;

1≤í≤N et ® = ‰héê Š ∶ 1 ≤ 2 ≤ N ; 1 ≤ í ≤ & ; leur produit  × ®  est la

matrice ƒ = ‰séê Š ∶ 1 ≤ 2 ≤ N ; 1 ≤ í ≤ & telle que :


¼

·»ò = ó l»ô . nôò = l»y . nyò + l»« . n«ò + ⋯ ⋯ + l»¼ . n¼ò ; ∀ 2 D í


ôõy

Important : le produit de  et ® est possible si et seulement si le nombre de colonne


de la matrice  (première matrice) est égal au nombre de ligne de la matrice ®
(deuxième matrice).

2 3
Exemple d’application

2 1 2 1
Ð2  = œ 0 4 , ® = { } ; ×® =
0 1 0 1
−1 6
2 3 2 × 2 + 3 × 0 2 × 1 + 3 × 1
0 4 0 × 2 + 4 × 0 0 × 1 + 4 × 1
−1 6 −1 × 2 + 6 × 0 −1 × 1 + 6 × 1

14
4 5
⟹ ® = œ 0 4 . ÙDWFc‚bD ∶ ® ≠ ® D  =  = 
−2 5

4) Transposée d’une matrice

La matrice transposée d’une matrice  ;  ou )  est obtenue en permutant les


 entres elles : la première ligne devient la première
colonne et vice versa ; et ce pour toutes les lignes et les colonnes de .
lignes et les colonnes de

Exemple d’application

3 4 5 3 2 −1
Ð+2 =œ 2 1 0 ⟹  = œ4 1 2
−1 2 4 5 0 4

III. DETERMINANTS DE MATRICES CARREES

1) Définition

A chaque matrice carrée  , on associe un nombre réel appelé déterminant de  et


noté é  . Si  = ‰Féê Š ; FE+c1 é = öFéê ö.

2) Calcul du déterminant des matrices

 Cas des matrices carrées d’ordre 2 et 3

FUU FUX
∗ Matrice carrée d’ordre 2

Soit  = {F FXX } une matrice carrée d’ordre 2, son déterminant sera obtenu par :
XU
FUU FUX
é = ÓF FXX Ó ⟹ é = FUU × FXX − FXU × FUX
XU

Exemple d’application

1 2 1 2
Ð2  = { } FE+c1 é = Ó
; Ó
−3 4 −3 4
é = 1 × 4 − −3 × 2 = 1 + 6 ⟹ é = 7

∗ Matrice carrée d’ordre 3


a) Méthode des cofacteurs

FUU FUX FUY


Soit  = œFXU FXX FXY  une matrice carrée d’ordre 3 ; on posera :
FYU FYX FYY

15
FUU FUX FUY
F FXY
é = ÷FXU FXX FXY ÷ ⟹ é = −1U U . FUU . Ó XX
FYX FYY Ó
FYU FYX FYY
FXU FXY FXU FXX
+−1U X . FUX . ÓF FYY Ó +  −1 U Y
. FUY . ÓFYU FYX Ó
YU

Exemple d’application

1 −3 1 1 1 −3
Ð2  = œ−2 4  ; FE+c1 é  = ÷−2 6
6 4÷
3 1 1 3 1 1
6 4 −2 4 −2 6
é  = −1U U .1. Ó Ó + −1U X .1. Ó Ó + −1U Y . −3. Ó Ó
1 1 3 1 3 1
= 6 − 4 − −2 − 12 − 3 . −2 − 18 = 2 + 14 + 60
é  = 76

b) Méthode de SARRUS

Cette méthode ne s’applique que dans le cas d’une matrice carrée d’ordre 3. On

FUU FUX FUY FUU FUX


applique SOIT :

÷ FXU FXX FXY ÷ FXU FXX


FYU FYX FYY FYU FYX
ÙU = FUU × FXX × FYY  + FUX × FXY × FYU  + FUY × FXU × FYX 
ÙX = FUY × FXX × FYU  + FUU × FXY × FYX  + FUX × FXU × FYY 
Posons :
et
On obtient le déterminant en posant : ¦éw³ = øy − ø« . OU :

FUU FUX FUY


FXU FXX FXY
FYU FYX FYY ÙU = FUU × FXX × FYY  + FXU × FYX × FUY  + FYU × FUX × FXY 
˜ 4
FUU FUX FUY ÙX = FUY × FXX × FYU  + FXY × FYX × FUU  + FYY × FUX × FXU 
FXU FXX FXY

ViFEDWDN N+b1 Fbc+N1 ∶ é = ÙU − ÙX

En appliquant la méthode de SARRUS à l’exemple précédent on effectuera :

1 1 −3 1 1 ÙU = 1 × 6 × 1 + 1 × 4 × 3 + −3 × −2 × 1
÷−2 6 4 ÷ −2 6 ⟹ ˜ 4
3 1 1 3 1 ÙX = −3 × 6 × 3 + 1 × 4 × 1 + 1 × −2 × 1
é = ÙU − ÙX ⟹ é = 6 + 12 + 6 − −54 + 4 − 2 ;
 † +ù é  = 76

16
 Cas des matrices carrées d’ordre ¼
La méthode à utiliser dans ce cas est celle des cofacteurs ; on procédera de la
même manière vue dans le cas d’une matrice d’ordre 3.
Si l’ordre de la matrice est 4 ; alors les mineurs seront des matrices d’ordre 3 et …
Remarque : le déterminant d’une matrice triangulaire ou d’une matrice diagonale est
égal au produit des éléments de sa diagonale principale.

3) Propriétés sur les déterminants

∎ é = é  ∎ éU  × é = éU  = é = 1


∎ é® = é × é® = é® × é = é®
∎ é ï = ï S × é ; N éFN E† +ccD D EF WFc2sD 

IV. INVERSION D’UNE MATRICE CARREE

Soit  une matrice carrée d’ordre N ; on dit  est inversible si et seulement


1) Définition

s’il existe une matrice carrée d’ordre N, telle que ® = ® = S . On note U
l’inverse de  ; d’où U = ® .

2 1 3 − 1⁄3 2 ⁄3 1
Exemple :

Ð+2DN  = œ1 −1 0 D ® = œ− 1⁄3 − 1⁄3 1


1 1 1 2 ⁄3 − 1⁄3 −1
Vérifier que ® est l’inverse de . ® est de  ssi  × ® = 
2 1 3 − 1⁄3 2 ⁄3 1 − 1 ⁄3 2 ⁄3 1
œ1 −1 0 × œ − 1⁄3 − 1⁄3 1 = ? − 1⁄3 − 1⁄3 1
1 1 1 2 ⁄3 − 1⁄3 −1 2 ⁄3 − 1⁄3 −1
2 1 3 1 0 0
1 −1 0 0 1 0
1 1 1 0 0 1
 × ® = Y = ® ×  ⟹ FE+c1 ® D1 E† 2NjDc1D D  .

2) Propriétés

1
Une matrice carrée est inversible ssi son déterminant est non nul.

Ð2  D1 2NjDc12hED FE+c1 éU  = ⟺ ∀ N ∈ ℤ ; éS  = ‰éŠ


S
é

17
Exemple d’application :

0 1 −1 1 0 0
Ð+2DN  = œ−3 4 −3 D  = œ0 1 0
−1 1 0 0 0 1
a) Calculer X ; déterminer les nombres réels F D h ; tels que X = F + h
b) Calculer é .  est-elle inversible ?
1
s û+NcDc ‚bD 3 − .  =  ; DN éb2cD EF WFc2sD U D .
2

 une matrice carrée d’ordre N , telle que  = ‰Féê Š ; 1 ≤ 2 , í ≤ N. On


3) Calcul de l’inverse d’une matrice carrée
Soit

appelle matrice des cofacteurs de  ou comatrice de  ; la matrice notée ƒ+W


telle que ƒ+W = ‰F
ü2í Š ; 1 ≤ 2 , í ≤ N. Avec Fýéê = −1é ê . Céê où Céê est le
déterminant (mineur) de  obtenu en supprimant la 2 èçþ ligne et la í éèçþ colonne.
On appelle donc mineur d’un élément quelconque Féê , le déterminant obtenu

en supprimant la ligne et la colonne se croisant en Féê .

4 −3 −3 −3 −3 4
Exemple :

Ó +Ó −Ó Ó +Ó Ó
0 1 −1 1 0 −1 0 −1 1
 1 −1 0 −1 0 1
Ð+2  = œ−3 4 −3 ⟹ ƒ+W =  − Ó Ó +Ó Ó −Ó Ó
1 0 −1 0 −1 1
−1 1 0 1 1 0 −1 0 1
 + Ó4 −3Ó −Ó
−3 −3
Ó +Ó
−3 4
Ó

3 3 1
N +h2DN ƒ+W = œ−1 −1 −1
1 3 3
Soit  une matrice inversible et ƒ+W la comatrice de . L’inverse de la matrice 
y
est donné par ∶ ³y = .w
¦éw³ ¶¸³

3„ −1„ 1„
Notre précédent exemple donnerait :

2 2 2
3 3 1  
1 3„ −1„ 3„ 
U = × œ−1 −1 −1 ; ce qui donne bien U =
 2 2 2
2
1 3 3  
1„ −1„ 3„
2 2 2
 

18
Propriété :  × ® U = ® U × U

+ − + −
Tableaux de signes relatifs aux comatrices :

+ − +
+ −
{ } œ− + − ð−
+
+


+


− +
+ − + − + − +
Remarque : on peut également calculer U par identification dans la mesure où

nous savons que  × U = S ;


1 2 F h
Exemple 12  = { } on posera ∶  × U = X ; 12 U = { }
1 3 s 
F + 2s = 1 F= 3
1 2 F h 1 0 h + 2 = 04 h = −24
alors { }× { }={ } ⟹ ´ ⟺ ´ ;
1 3 s  0 1 F + 3s = 0 s = −1
h + 3 = 1 = 1
3 −2
 † +ù U = { }.
−1 1

B. SYSTEMES D’EQUATIONS LINEAIRES

I. GENERALITES

Soit  une matrice carrée d’ordre N et ® une matrice à N lignes et une colonne.
1) Définition et écriture matricielle

On appelle système d’équations linéaires la relation . Õ = ® ; où Õ est une matrice


à N lignes et une colonne : Õ est l’inconnue du système.

FUU FUX … FUS U hU


Plus explicitement écrivons :

FXU FXX … FXS X hX


 .Õ = ® ⟹ å ⋮ ⋮ … ⋮ è . å ⋮ è = å è 1

FSU FSX … FSS S hS
  
FUU U + FUX X + ⋯ ⋯ ⋯ + FUS S = hU
 F  + F  + ⋯⋯⋯+ F  = h
 XU U
⋮ 4
XX X XS S X
⟹ ⋮ ⋮ ⋮ ⋮
 ⋮ ⋮ ⋮ ⋮ ⋮

 FSU U + FSX X + ⋯ ⋯ ⋯ + FSS S = hS
 est appelée matrice du système.
L’écriture 1 est appelée écriture matricielle ou représentation matricielle du
système d’équations linéaires.

19
2) Rang d’un système de N équations à N inconnues.
Le rang d’un système de N équations à N inconnues, auquel est associée la
matrice  :
• est égal à N si é ≠ 0
• est inférieur à N si é = 0. Il est alors égal à l’ordre maximum c d’un des
mineurs non nuls extraits de .

2 + 3Ë +  = 4 2 3 1  4
Exemple : soit à rechercher le rang du système suivant :

4
ÐU ˜  + Ë − 2 = 1 ; l′écriture matricielle Õ = ® ⟹ œ1 1 −2 . Ë = œ1
 + 4Ë +  = 1 1 4 1  1
é = 12 ≠ 0 ; donc le rang du système est égal à 3
+Ë+  =2 1 1 1  2
4
ÐX ˜  − Ë + 2 = 0 ; l′écriture matricielle Õ = ® ⟹ œ1 −1 2  . Ë  = œ 0 
3 + Ë + 4 = 4 3 1 4  4
é = 0 ; le rang du système est donc inférieur à 3. A partir du déterminant, il
est possible d’extraire neuf (9) mineurs d’ordre 2. Si un seul de ces mineurs est

−1 2
différent de zéro (0), le rang du système sera égal à 2.

Soit le mineur Ó Ó relatif à l† élément FUU = 1 qui est égal à − 6.


1 4
Le rang du

système est donc 2.

II. RESOLUTION DE SYSTEME DE CRAMER

Soit Ð un système d’équations linéaires de N équations à N inconnues,


défini par . Õ = ®. Si  est inversible alors le système Ð est dit de CRAMER et
Ð admet une solution unique.
Nous envisagerons la résolution d’un tel système suivant les méthodes suivantes :
− Substitution (déjà vu en classe antérieure également la combinaison) ;
− des déterminants ;
− de pivot de Gauss
− de l’inversion matricielle.

2 + 3Ë +  = 4
Nous travaillerons pour mieux appréhender ces méthodes l’exemple suivant :

Ð ˜  + Ë − 2 = 1 4
 + 4Ë +  = 1

20
1) Méthode par les déterminants

Soit Ð un système d’équations linéaires de N équations à N inconnues ;  la


matrice associée à ce système. Le é est le déterminant principal du système.
En désignant par é,éË, é les déterminants construits à partir du

l’inconnue  , Ë ,  par la colonne des seconds membres. Les solutions sont obtenues
déterminant principal en remplaçant respectivement les colonnes des coefficients de

é éË é


par les formules suivantes :  = ; Ë = D  =
é é é
3 2
1  4 2 3 1
L’écriture matricielle de Ðétant œ1
1 −2 . Ë = œ1 ; où  = œ1 1 −2
4 1
1  1 1 4 1
2 3 1
é = ÷1 1 −2÷ = 12
1 4 1
4 3 1
Pour obtenir é ; on posera : é = ÷1 1 −2÷ = 30 ; de même
1 4 1
2 4 1 2 3 4
éË = ÷1 1 −2÷ = −6 D é = ÷1 1 1÷ = 6. On trouve donc :
1 1 1 1 4 1
­•  −Î y Î y
¥ = = ; Ï = = − ;  = =
y« « y« « y« «
2) Méthode de pivot de Gauss

Elle a pour but de transformer un système (S) en un système (S') équivalent


(en utilisant les opérations élémentaires sur les lignes) et triangulaire supérieur.

1. On place en #U une ligne dont le coefficient est non 1  + Ë − 2 = 1 #U


EXPOSÉ DE LA MÉTHODE EXEMPLE DE MISE EN OEUVRE

nul. (Ce #U ↔ #X coefficient est appelé "le pivot"). < 2 + 3Ë +  = 4 #X 4


Conseil : choisir, si possible un pivot égal à ± 1.  + 4Ë +  = 1 #Y

2. On élimine la première inconnue dans #X , #Y , ⋯ , #S #X ← #X − 2#U ; #Y ← #Y − #U


FéU
l† opération élémentaire ∶ #é ← #é + #U : = − ;  + Ë − 2 = 1 #U
FUU
<0 + 1 Ë + 5 = 2 #X 4
0 + 3Ë + 3 = 0 #Y
3. On choisit parmi #X , ⋯ , #S une ligne ou le coefficient,
de l'inconnue suivante, est non nul et l'on utilise ce #Y ← #Y − 3#X
 + Ë − 2 = 1 #U
coefficient comme nouveau pivot.
˜ Ë + 5 = 2 #X 4
−12 = −6 #Y
4. On recommence l'étape 2 à la ligne adéquate jusqu'à

5 1 1
obtenir un système triangulaire supérieur.

= ; Ë = − D  =
2 2 2
Les solutions du système s'obtiennent par résolution
d'équations de proche en proche.

21
3) Méthode de l’inversion matricielle

Puisque le déterminant de la matrice  associée au système est différent de


0 ; cela implique que  est inversible. Il existe donc U .

Le système s’écrivant  . Õ = ® ; sa solution sera inchangée en multipliant les deux


membres de l’égalité par U . Ainsi :
U .  . Õ = U . ® ⟺  . Õ = U . ® ;  † +ù Õ = U . ®
Il restera donc à déterminer U et à effectuer un produit de matrice. Nous

3„ 1„ −7„
savons que :

4 12 12
 
1 −1 1„ 5„ 
U = . äç ; après calcul on obtient U =  „4 12 12 
é  
1„ −5„ −1„
4 12 12
 
3 1 7 5
4 + 1 − 1
 3„ 1„ −7„ 4  4 12 12   2
4 12 12

Õ = Ë = −1„4 1„12 5„  . 1 = − 1 4 + 1 1 + 5 1 = −1
12     4 12 12   2
1„ −5„ −1„    
 
 4 12 12 1 1 5 1 1
 4 4 − 12 1 − 12 1   2
5 1 1
D’après l’égalité de deux matrices :  = ; Ë = − D  =
2 2 2
III. RESOLUTION DE SYSTEMES SINGULIERS

Les systèmes singuliers sont tels que le déterminant de la matrice  associé


au système est égal à 0. Leur rang sera donc inférieur à N. Leur résolution exclut la
méthode par les déterminants et la méthode par inversion matricielle. Ils seront soit
sans solution ; soit avec infinité de solutions. (Méthode indiquée substitution)

1) Cas sans solution

 + 2Ë − 3 = −1
Soit à résoudre le système suivant ∶ ˜ −3 + Ë − 2 = −74
5 + 3Ë − 4 = 2
1 2 −3  −1 1 2 −3
L écriture matricielle ∶ œ−3 1 −2 . Ë = œ−7 ⟹ é = ÷−3
†
1 −2÷
5 3 −4  2 5 3 −4

22
1 −2 2 −3 2 −3
Suivant la 1è colonne ; é = 1 . Ó Ó − −3 . Ó Ó + 5 .Ó Ó
3 −4 3 −4 1 −2
é = 1−4 + 6 + 3−8 + 9 + 5−4 + 3 = 2 + 3 − 5 = 0
Le système est donc singulier et de rang inférieur à 3.
D’après les deux premières équations :

0 ;  D Ë en fonction de  ⟹ 0
 + 2Ë − 3 = −1 4  + 2Ë = 3 − 1 4
−3 + Ë − 2 = −7 −3 + Ë = 2 − 7

1 2
Ce système de deux équations à deux inconnues à pour déterminant principal :

é = Ó Ó = 1 + 6 = 7 ; ce qui nous ramène à CRAMER dont les solutions sont ∶


−3 1
3 − 1 2
é Ó2 − 7 Ó
1 = 3 − 1 − 4 + 14 = − + 13
= =
é 7 7 7
1 3 − 1
éË Ó−3 2 − 7 = 2 − 7 + 9 − 3 = 11 − 10
Ó
Ë= =
é 7 7 7
Ces expressions de  D Ë en fonction de  vérifient-elles la troisième équation

− + 13 11 − 10 −5 + 65 + 33 − 30 − 28 35


du système proposé ?

5: ; + 3: ; − 4 = = =5 ≠2
7 7 7 7

solution. On note l’ensemble Ð, des solutions, est vide : Ð = ∅.


Conclusion : la troisième équation n’étant pas vérifiée, le système n’admet aucune

2) Cas avec infinité de solutions

+Ë +  =2
Soit à résoudre le système suivant ∶ ˜  − Ë + 2 = 0 4 ; par substitution on a ∶
3 + Ë + 4 = 4
 +Ë +  =2  =2−Ë−
˜  − Ë + 2 = 0 4 ⟺ ˜ 2 − Ë −  − Ë + 2 = 04
3 + Ë + 4 = 4 32 − Ë −  + Ë + 4 = 4
 =2−Ë−
 = 2−Ë −4
⟺ ˜−2Ë +  = −24 ⟺ 0
−2Ë +  = −2
−2Ë +  = −2

 = −2 + 2Ë  = −2 + 2Ë4
Le système proposé se ramène à un système de 2 équations à 3 inconnues :

⟺ 0 4 ⟺ 0
 = 2 − Ë − −2 + 2Ë  = 4 − 3Ë
Conclusion :  et  s’expriment en fonction de Ë qui sera choisit arbitrairement dans
ℝ . Le système admet une infinité de solutions.

23
Ce résultat pouvait être mis en évidence en utilisant le fait que le rang du système
est inférieur à 3. Le rang est égal à 2 car le déterminant d’un des mineurs est
différent de 0.

C. NOTION D’ESPACES VECTORIELS

I. GENERALITES

On considère un ensemble non vide V , sur lequel sont définies deux lois de
1) Définition

$% D Ú
$%
composition :

− Une loi de composition interne (notée addition) qui, à deux éléments #


$% + Ú
de V fait correspondre leur somme‰# $% Š ∈ V .

− Une loi de composition externe (multiplication) entre éléments de V et


$% de V et ' de Κ fait correspondre leur produit
éléments de Κ, qui à tout élément #
$% ∈ V .
'#
V est un espace vectoriel sur le corps Κ s’il satisfait aux axiomes suivants :
a) V muni de l’addition V , + est un groupe commutatif ;
b) L’opération externe notée • possède les propriétés suivantes :
$%Š = ' • ( • #
− F11+s2F2j2é ' • ‰( • # $% ∀' , ( ∈ Κ X D ∀ #
$% ∈ V

− 21c2hb2j2é &+bc E† F22+N FN1 Κ :


$% = ' • $$$%
' + (  • # # + ( • $$$%
# ∀ ' , ( ∈ Κ X D ∀ #
$% ∈ V

− 21c2hb2j2é &+bc E† F22+N FN1 V :


' • ‰# $% Š = ' • #
$% + Ú $% + ' • Ú
$% ∀ ' ∈ Κ D ∀ ‰# $% Š ∈ V X
$% , Ú

Si ) = ℝ, alors V est un espace vectoriel réel et si ) = ℂ , V est un espace vectoriel


complexe.

2) Propriétés

a) Quelque soit ' appartenant à ℝ on a :

'• 
$% = 
$% ; '• Ú
$% = 
$% ⟹ ' = 0 +b Ú
$% = 
$%

b) Quelque soit Ú
$% appartenant à V on a :

'• 
$% = 
$% ; $% Š = −1 • Ú
‰−Ú $%

24
3) Sous-espaces vectoriels

On appelle sous-espace vectoriel d’un espace vectoriel V sur le corps ) , un


sous-ensemble . de V satisfaisant aux deux propriétés suivantes :
$% et Ú
− Si # $% appartiennent à . , #
$% + Ú
$% appartient à . (on dit que . est stable

$% appartient à . et ' appartient à ℝ, ‰' • #


pour l’addition) ;
− Si # $%Š appartient à . (cette

opération est appelée restriction de l’opération externe à . ).


$% + Ú
$% ∈ . ∀ ‰# $% Š ∈ . X
$% , Ú
4
En résumé, . est un sous espace de V ⟺ +
#
'#$% ∈ . ∀ # $% ∈ . D ∀ ' ∈ ℝ

4) Combinaison linéaire

On dit qu’un vecteur Ú


$% ∈ V est une combinaison linéaire des vecteurs

Ú
$$$%U , Ú
$$$%X , ⋯ ⋯ , Ú S ∈ V s’il existe des scalaires 'U , 'X , ⋯ ⋯ , 'S tels que :
$$$%
$% = 'U $$$%
Ú ÚU + 'X Ú
$$$%X + ⋯ ⋯ + 'S $$$%
ÚS

5) Système de générateurs d’un espace vectoriel

On dit que N vecteurs Ú


$$$%U , Ú
$$$%X , Ú
$$$%Y , ⋯ ⋯ , Ú S d’un espace vectoriel V constituent
$$$%
un système de générateurs de V (ou engendre V ) si tout vecteur appartenant à V est

ÚU , Ú
une combinaison linéaire des vecteurs $$$% $$$%X , Ú
$$$%Y , ⋯ ⋯ , Ú
$$$%
S ; c'est-à-dire :

Ú
$% = 'U Ú
$$$%U + 'X Ú
$$$%X + 'Y Ú
$$$%Y + ⋯ ⋯ + 'S $$$%
ÚS
Ú1 , Ú
On dit que l’ensemble des vecteurs {$$$$% $$$$%2 , ⋯ , Ú
$$$$%N } est une famille génératrice de V .

6) Vecteurs linéairement indépendants ; dépendants

 Dans un espace vectoriel V sur le corps ℝ, N vecteurs Ú


$$$%U , Ú
$$$%X , Ú
$$$%Y , ⋯ ⋯ , Ú
$$$%
S sont

linéairement indépendant (ou forment une famille libre) si l’on a :


ÚU + 'X Ú
'U $$$% $$$%X + 'Y Ú
$$$%Y + ⋯ ⋯ + 'S $$$%
ÚS = 
$% ⟹ 'U = 'X = ⋯ ⋯ = 'S = 0
 Dans un espace vectoriel V sur le corps ℝ, N vecteurs Ú
$$$%U , Ú
$$$%X , Ú
$$$%Y , ⋯ ⋯ , Ú
$$$%
S sont

linéairement dépendant (ou forment une famille liée) si l’on a :

ÚU + 'X Ú
'U $$$% $$$%X + 'Y $$$%
ÚY + ⋯ ⋯ + 'S $$$%
ÚS = 
$% ⟹ 'U , 'X , ⋯ ⋯ , 'S N+N +b1 NbE1
 Si les N vecteurs sont dépendants, on a, par exemple :

25
FX F F
'U ≠ 0,  † +ù Ú
$$$%U = − Ú
$$$%X − Y Ú
$$$%Y ⋯ − S $$$%
Ú ;Ú $$$%U D1 FE+c1 s+Wh2NF21+N E2NéF2cD
FU FU FU S
Ú, ∶ 2 ≤ 2 ≤ N.
D1 $$%
Théorème : les N vecteurs Ú
$$$%U , Ú
$$$%X , ⋯ ⋯ , Ú
$$$%
S sont linéairement dépendants, si, et

seulement si, l’un au moins de ces vecteurs est une combinaison linéaire des autres.
Exemples :
• Cas de deux vecteurs

Deux vecteurs Ú
$$$%U , Ú
$$$%X sont linéairement dépendants, si, et seulement si l’un
d’entre eux est une combinaison de l’autre. Par exemple si Ú
$$$%X = 'Ú
$$$%U ⟺ Ú
$$$%U , Ú
$$$%X sont
linéairement dépendants et Ú
$$$%U , Ú
$$$%X sont parallèles ou colinéaires.
• Cas de trois vecteurs

Trois vecteurs Ú
$$$%U , Ú
$$$%X , Ú
$$$%Y sont linéairement dépendants, si, et seulement si l’un

Ú
$$$%Y = 'Ú
$$$%U + (Ú
$$$%X ⟺ Ú
$$$%U , Ú
$$$%X , Ú
$$$%Y sont linéairement dépendants et Ú
$$$%U , Ú
$$$%X , Ú
au moins d’entre eux est une combinaison linéaire des deux autres. Par exemple si
$$$%Y sont
coplanaires.

II. BASE ET DIMENSION D’UN ESPACE VECTORIEL

1) Définition
On appelle base de l’espace vectoriel V un système de générateurs

DU D$$$%,
X D Y ⋯⋯,D
linéairement indépendants.
Les vecteurs $$$%, $$$%, S constituent une base de V si, et seulement si, les
$$$$%
deux propriétés suivantes sont satisfaites :

∗ ∀ Ú $$$% ∈ V. Ú$% = 'U $$$%


DU + 'X $$$%
DX + ⋯ ⋯ + 'S $$$$%
DS (qui exprime la notion de

DU + X $$$%
DX + ⋯ ⋯ + S $$$$%
DS = $% ⟹ U = X = ⋯ S = 0 (cette condition
vecteurs générateurs) ;
∗ U $$$%
exprime la notion de vecteurs indépendants).
2) Propriété

Pour qu’un système de N vecteurs $$$%,


DU D$$$%,
X D Y ⋯⋯,D
$$$%, $$$$%
S d’un espace vectoriel

soit une base de V , il faut et il suffit que tout vecteur de V s’écrive d’une manière

unique sous la forme : Ú


$% = 'U $$$%
DU + 'X $$$%
DX + ⋯ ⋯ + 'S $$$$%
DS ; appelé décomposition
du vecteur Ú DU D$$$%,
$% suivant la base $$$$%, X ⋯⋯,D
$$$$%.
S

Les scalaires 'U , 'X , ⋯ , 'S sont appelés composantes du vecteur Ú


$% suivant la
D1 , D$$$$%2 , ⋯ ⋯ , D$$$$%.
base $$$$$% N

26
3) Dimension

On appelle dimension d’un espace vectoriel V le nombre de vecteurs d’une


base de V . La dimension de V est notée dim V 
Exemples :

ℝY muni de la base canonique ‰-%, .%, ï$% Š :-% = 1,0,0 ; .% = 0,1,0 ; ï$% = 0,0,1 est un
espace vectoriel de dimension 3.

Ú ∈ ℝ3 , de composantes , Ë,  s’écrira de façon unique dans la base


Tout vecteur$$$%

{%2, í%, ï
$%} : Ú
$% = -% + Ë.% + ï$% .

4) Rang d’un système de vecteurs

On appelle rang d’un système de N vecteurs d’un espace vectoriel V , le


nombre maximum c de vecteurs linéairement indépendants qu’on peut extraire de
ce système. On a toujours : c ≤ N.

III. MATRICE D’UN SYSTEME DE VECTEURS

On se limitera aux espaces vectoriels de dimension 2 ou 3.

1) Matrice d’un système de vecteurs, par rapport à une base

Soit V un espace vectoriel de dimension 3 sur le corps ℝ, rapporté à une base

D1 , D$$$$%2 , D$$$$%.
$$$$% 3 Considérons trois vecteurs ÚU , ÚX , ÚY de V et leur décomposition suivant
$$$% $$$% $$$%
Y

la base D$$$%,
U D$$$%,
X D$$$%Y  . $$$%/ = ó Féê . D$$%,
Ú í = 1 , 2, 3
éõU
Féê étant les composantes des vecteurs $$$$% Ú1 , Ú
$$$$%2 , Ú
$$$$%3 .

í=1 $$$%U = FUU $$$%


Ú DU + FXU $$$%
DX + FYU $$$%
DY
í=2 $$$%X = FUX $$$%
Ú DU + FXX $$$%
DX + FYX $$$%
DY
í=3 $$$%Y = FUY $$$%
Ú DU + FXY $$$%
DX + FYY $$$%
DY
Nous rappelons qu’une matrice  = ‰Féê Š avec 1 ≤ 2 ≤ 3 D 1 ≤ í ≤ 3 1 † ésc2 ∶
FUU FUX FUY
 = œFXU FXX FXY 
FYU FYX FYY
Nous constatons que les colonnes de  correspondent aux composantes des

Ú1 , Ú
vecteurs $$$$% $$$$%2 , Ú
$$$$%3 .

27
On dit que  est la matrice du système de vecteurs $$$$%
Ú1 , Ú$$$$%2 , Ú
$$$$%3 relativement à la base

D$$$%,
U D$$$%,
X D$$$%Y .
FUU
N.B. : la matrice d’un vecteur $$$%
Ú de l’espace V est une matrice colonne $$$$% Ú = œFXU 
FYU
Exemple : Etant donnés les vecteurs $$$$% $$$$%2 , Ú
Ú1 , Ú $$$$%3 rapportés à une base ‰-%, .%, ï$% Š dans
ℝY .
2 0
Ú
$$$%U = 2-% − 5.% + ï 1DcF N+é ∶ Ú
$% $$$%U = œ−5 ; Ú $$$%X = .% + 7ï 1DcF N+é ∶ Ú
$% $$$%X = œ1
1 7
−3
Ú
$$$%Y = −3-% + 2.% − ï$% 1DcF N+é ∶ Ú $$$%Y = œ 2 .
−1
2 0 −3
La matrice  du système de vecteurs ‰ÚU , ÚX , ÚY Š sera :  = œ−5 1
$$$% $$$% $$$% 2 .
1 7 −1
2) Vecteurs linéairement libres et liés

Soit V un espace vectoriel de dimension 3 sur le corps ℝ , rapporté à une


D1 , D$$$$%2 , D$$$$%
base $$$$% 3 . Considérons trois vecteurs ÚU , ÚX , ÚY de ℝ de composantes
$$$% $$$% $$$%

F F† F††
respectives :

h  ; œh†  ; œh†† 
s s† s ††
$$$%U , Ú
Ú $$$%X , Ú
$$$%Y sont linéairement indépendants (libres) si, et seulement si :
'Ú $$$%U + (Ú$$$%U + 0Ú$$$%U = 
$% ⟹ '= (= 0=0
F F †
F †† 0
D où ∶ ' h  + ( œh  + 0 œh  = œ0. Ce qui engendre le système ci-dessous :
† † ††

s s† s †† 0
'F + (F† + 0F†† = 0
<'h + (h† + 0h†† = 04 ; qui est un système homogène.
's + (s † + 0s †† = 0

de CRAMER et admet comme solution unique le triplet' = 0, ( = 0, 0 = 0. Dans


Si le déterminant de la matrice associée au système est différent de 0, le système est

ce cas, les vecteurs Ú


$$$%U , Ú
$$$%X , Ú
$$$%Y sont indépendants ou libres.

Si ce même déterminant est égal à 0, Ú


$$$%U , Ú
$$$%X , Ú
$$$%Y sont dépendants ou liés.

En résumé, pour montrer que des vecteurs sont linéairement libres, il suffit de
montrer que le déterminant associé à la matrice du système de ces vecteurs est
différent de zéro. Dans le cas contraire, les vecteurs sont linéairement liés.

28
Aussi, pour montrer qu un ensemble de trois vecteurs forme une base de V , il suffit
de montrer que le déterminant de la matrice associée est différent de zéro.
Enfin si sont libres, le rang est égal à 3 ; dans le cas contraire il sera inférieur à 3.

3) Changement de base – Matrice de passage

 Propriété caractéristique d’une base


Dans un espace vectoriel de dimension N :
− toute famille libre comportant N vecteurs est une base ;
− toute famille génératrice comportant N vecteurs est une base.
Donc une base d’un espace vectoriel de dimension N , n’est pas unique.
 V étant un espace vectoriel de dimension 3, rapporté à une base $$$$%
D1 , D$$$$%2 , D$$$$%
3 ,

$$$%U , 
considérons une seconde base ‰ $$$%X , 
$$$%Y Š définie par les composantes de ces

D1 , D$$$$%2 , D$$$$%
vecteurs suivant la base $$$$% 3 :

Y í=1 
$$$%U = FUU $$$%
DU + FXU $$$%
DX + FYU $$$%
DY
12 = ó Féê . D$$%,2
$$% í = 1 , 2 , 3 ⟹ ´í = 2 
$$$%X = FUX $$$%
DU + FXX $$$% DY 4
DX + FYX $$$%
éõU
í=3 
$$$%Y = FUY $$$%
DU + FXY $$$%
DX + FYY $$$%
DY
La matrice carrée a = ‰Féê Š du système $$$%
U , 
$$$%X ,  D1 , D$$$$%2 , D$$$$%3
$$$%Y relativement à la base $$$$%

FUU FUX FUY


définit complètement le changement de base.

a = œFXU FXX FXY  . La matrice a est appelé matrice de passage de la base


FYU FYX FYY
D1 , D$$$$%2 , D$$$$%3 à la base $$$$%
$$$$% 1 , $$$$%, 
2 3
$$$$%.

Changement de base pour un vecteur


Soit V un espace vectoriel de dimension 3, rapporté à une base $$$$%
D1 , D$$$$%2 , D$$$$%
3 .

$% , Ë, , le vecteur de V décomposé suivant $$$$%


Soit Ú D1 , D$$$$%2 , D$$$$%
3 . Considérons une
$$$%U , 
nouvelle base ‰ $$$%Y Š et les nouvelles composantes  † , Ë † ,  †  de Ú
$$$%X ,  $% suivant
cette base ; les décompositions du vecteur Ú
$% suivant les deux bases donnent :
Ú
$% = D$$$%U + ËD$$$%X + D$$$%Y =  † $$$%
U + Ë † $$$%
X +  † $$$%
Y . En remplaçant $$$%
U , 
$$$%X , 
$$$%Y par leurs

D$$$%U + ËD$$$%X + D$$$%Y =  † FUU $$$% DY  + Ë † FUX $$$% DY 


expressions (vu précédemment) ; nous obtenons :
DU + FXU $$$%
DX + FYU $$$% DU + FXX $$$%
DX + FYX $$$%
+ † FUY $$$%
DU + FXY $$$% DY 
DX + FYY $$$%

29
= FUU  † + FUX Ë † + FUY  † D$$$%U + FXU  † + FXX Ë † + FXY  † D$$$%X + FYU  † + FYX Ë † + FYY  † D$$$%Y
D1 , D$$$$%2 , D$$$$%
Par identification respective des composantes selon $$$$% 3 , nous obtenons le

 = FUU  † + FUX Ë † + FUY  †


système :

<Ë = FXU  † + FXX Ë † + FXY  † 4


 = FYU  † + FYX Ë † + FYY  †
$% s’expriment en fonction des nouvelles
Les anciennes composantes , Ë,  de Ú
composantes ‰′ , Ë′ , ′ Š. Ce qui s’écrit sous forme matricielle :
 FUU FUYFUX †  †
Ë = œFXU FXY  . œË †  ⟹ Ë = a. œË †  . a étant la matrice du
FXX
 FYU FYYFYX †  †
passage de la base $$$%,
DU D$$$%,
X D$$$%Y à la base 
$$$$%, 
$$$$%, 
1 2 3
$$$$%.
Il est possible de donner les nouvelles composantes ‰′ , Ë′ , ′ Š en fonction des
anciennes , Ë, . Pour cela, il suffit d’écrire le système sous forme inverse. Soit :
† 
œË  = a  . aU est la matrice de passage de la base $$$%
† U Ë
U , 
$$$%X ,  DU D$$$%,
$$$%Y à la base $$$%, X D$$$%Y
 † 

D. APPLICATION LINEAIRE

Soient deux espaces vectoriels V et . , définis sur un corps ) .


On appelle application d’un ensemble V dans un ensemble . une loi de
correspondance  associant à tout élément  de V , un element unique Ë de . . On
note :  ∶ V → .. L’élément Ë =   est appelé image de  par .

I. GENERALITES SUR LES APPLICATIONS LINEAIRES

On appelle application linéaire  de V → ., toute application satisfaisant aux deux


1) Définition

$% D Ú
− ∀# $% ∈ V ; ‰#
$% + Ú
$% Š = ‰# $%Š + ‰Ú$% Š
conditions suivantes :

$% ∈ V D  ∈ ℝ ; ‰  Ú
− ∀Ú $% Š =  ‰Ú$% Š

L’application ℝ → ℝ,  ∶  ⟼  = 5 est une application linéaire de


Exemple d’application

ℝ vers ℝ, on vérifie immédiatement que :


∗   + Ë = 5 + Ë = 5 + 5Ë =   +  Ë
∗  ï  = 5ï  = 5 ï  = ï 5 = ï 

30
2) Morphismes

Isomorphisme : application linéaire bijective de V dans ..


Endomorphisme de V : application linéaire  de V dans V.
Si un endomorphisme  de V est bijectif alors on dit que c’est un automorphisme
de V.

3) Image d’un sous-espace de V


Montrons que l’image par  d’un sous-espace de V est un sous-espace de . .
$% deux vecteurs quelconques d’un sous-espace ½ de V et soit  ∈ ℝ :
$% et Ú
Soient #
$% + Ú
# $% et  Ú $%Š et ‰Ú
$% appartiennent à ½ ; ‰# $% Š appartiennent à  ½ 

$%Š = ‰Ú
$% Š + ‰#
En conséquence : ‰Ú $%Š ∈ ½  et ‰Ú
$% + # $% Š ∈  ½ 
$% Š = ‰Ú

En particulier, si ½ = V :  V  image de V par  est un sous espace de . .


 V  est appelé image de V par  que l’on note : W

4) Noyau

C’est par définition l’ensemble des vecteurs Ú $% Š = 


$% de V tels que ‰Ú $%.

Le noyau est noté : 4 ou )Dc.


Remarque : le noyau d’une application linéaire  de V → . , est un sous-espace
de V .

II. PROPRIETES ET THEOREMES

1) Dimension de V : 2WV 
PROPRIÉTÉS

 Si V est un espace vectoriel de dimension finie et  une application linéaire


de V dans . , on a :
2W V  ≤ 2W V ; l’application linéaire n’accroit jamais la dimension d’un espace.
 La dimension d’un espace vectoriel V de dimension finie est la résultante des

dimensions du noyau de l’application linéaire  et de l’image de V par  :


2W V = dim 4 + dim  V  +b 2W V = dim 4 + dim W 

On appelle rang de l’application  la dimension de  V . C’est un entier positif


2) Rang d’une application linéaire

ou nul noté ci.

31
Pour que l’application linéaire  de V dans . soit injective, il faut et il suffit
3) Noyau d’une application linéaire injective

que le noyau de  soit {$$%


}. Par convention, 2W 4 = 0.
 L’application linéaire  de V dans . est un isomorphisme si, et seulement si :

4 = 5
$%6 ;  V  = . avec 2W V = 2W .

Soient deux espaces vectoriels V et . de dimensions finies différentes. Si 


THÉORÈMES
THÉORÈMES

est une application linéaire de V dans . , les propriétés suivantes sont équivalentes :
− Le noyau de  est le vecteur nul,
−  est injective,
− L’image d’un système de vecteurs linéairement indépendants de V est
un système de vecteurs linéairement indépendants de . ,
− Pour toute partie V † de V (V † est un sous espace de V). On a :
• Soient V et . deux espaces vectoriels de même dimension finie ; si  est une
application linéaire de V → . , les propriétés suivantes sont équivalentes :
− Le noyau de  est le vecteur nul,
−  est injective,
−  est surjective ‰. =  V Š,

−  est bijective,
−  est un isomorphisme de V dans . ,
− Toute base de V a pour image une base de . .

Important : pour étudier la nature d’une application c'est-à-dire, déterminer si une


application linéaire est injective, surjective ou bijective, il suffit d’étudier soit le noyau,
soit l’image, soit les deux à la fois.
Le concept de rang permet à lui seul de préciser la nature d’une application linéaire.
Application injective : c’est une application où tout élément de l’ensemble d’arrivée
est l’image d’un élément et d’un seul de l’ensemble de départ ou d’aucun des
éléments de cet ensemble.
Application surjective : c’est une application où tout élément de l’ensemble
d’arrivée est l’image d’au moins un élément de l’ensemble de départ.

32
Application bijective : c’est une application par laquelle à chaque élément de
l’ensemble de départ correspond un seul élément de l’ensemble d’arrivée et à
chaque élément de celui-ci correspond un seul élément de l’ensemble de départ.

III. APPLICATIONS LINEAIRES ET MATRICES

On considérera uniquement des espaces vectoriels de dimension 2 ou 3 sur le corps


) ℝ +b ℂ

1) Matrice d’une application linéaire

Considérons deux espaces vectoriels V et . de dimensions 3 sur le corps des réels


ℝ et  une application linéaire de V dans ..
Si D U D
$$$%, $$$%X , D$$$%Y  est une base de V et ‰
$$$%U ,  $$$%Y Š une base de ., les
$$$%X , 

éléments images  D$$$%U ,  D$$$%X ,  D$$$%Y  s’écrivent en combinaison linéaire des


U , $$$%
vecteurs $$$% X , $$$%
Y .
Y
$%
12 = ó Féê , í = 1,2,3, Féê étant les composantes des vecteurs
a+1+N1 ∶ ‰D$$%Š
éõU
DU ,D$$$%X ,  D$$$%Y  relativement à la base $$$%
 $$$% U , $$$%
X , $$$%
Y .
Si í=1 D$$$% $$$% $$$% $$$%
U = FUU U + FXU X + FYU Y

í=2 D$$$% $$$% $$$% $$$%


X = FUX U + FXX X + FYX Y

í=3 D$$$% $$$% $$$% $$$%


Y = FUY U + FXY X + FYY Y

La matrice  = ‰Féê Š à trois lignes et trois colonne du système de

D1 D$$$%X ,  D$$$%Y  relativement à la base $$$%


vecteurs $$$$%, U , $$$%
X , $$$%
Y s’écrit :
FUU FUX FUY
F
 = œ XU FXX FXY 
FYU FYX FYY
 est la matrice de l’application linéaire  relativement aux bases D$$$%,
U D$$$%X , D$$$%Y  et
$$$%U , 
‰ $$$%X , 
$$$%Y Š.

Remarque : dans le cas d’un endomorphisme V de base $$$$%


D1 , D$$$$%2 , D$$$$%
3 , la matrice 

est relative à cette même base, et est appelée matrice d’endomorphisme.


En résumé, la donnée de la matrice  équivaut à la donnée de l’application linéaire
est réciproquement.

33
2) Conséquences

 Si le déterminant de la matrice est différent de 0 é  ≠ 0, l’application 

2W V = 2W  ; 2W 4 = 0 D ci = 3


est bijective, son noyau est le vecteur nul et on a :

et les vecteurs $$$$%,


D1  D$$$%X ,  D$$$%Y  constituent une nouvelle base de . .
 Si le déterminant de la matrice  est égale à 0é  = 0, l’application 

n’est pas bijective, son noyau est différent de K


$$%7.

On a : 2W 4 ≠ 0 , ci < 3 et les D1 D$$$%X ,


vecteurs $$$$%,  D$$$%Y  sont
linéairement dépendants.
$% Š, image d’un vecteur Ú
3) Composantes du vecteur ‰Ú $% par

l’application  .
Considérons les deux espaces vectoriels V et . définis précédemment.
$% un vecteur quelconque de V de composantes  , Ë , . Ú
Soit Ú $% = D$$$%U + ËD$$$%X + D$$$%Y

Calculons les composantes  † , Ë † ,  †  du vecteur $$$$%


Ú † = ‰Ú
$% Š de ., image de Ú
$% par %.

$% Š s’écrit en combinaison linéaire des vecteurs de base de . .


‰Ú

Ú $% Š =  † 
$$$$%† = ‰Ú $$$%U + Ë † 
$$$%X +  † 
$$$%Y 1
D ‰Ú $% Š =  D$$$%U + Ë D$$$%X + D$$$%Y  2
$% Š pour une application linéaire, 2 devient :
$% Š =  ‰Ú
En utilisant la propriété ‰ Ú
‰Ú $% Š =   $$$%DU  + Ë  $$$%
DX  +   $$$%
DY 
D1 D$$$%X ,  D$$$%Y  par les expressions du 1, nous obtenons :
Remplaçons $$$$%,
$% Š = ‰FUU $$$%
‰Ú U + FXU $$$%
X + FYU $$$%
Y Š + ˉFUX $$$%
U + FXX $$$%
X + FYX $$$%
Y Š + ‰FUY $$$%
U + FXY $$$%
X + FYY $$$%
Y Š

‰Ú
$% Š = FUU  + FUX Ë + FUY 
$$$%U + FXU  + FXX Ë + FXY 
$$$%X + FYU  + FYX Ë + FYY 
$$$%Y 2† 

U , 
D’où par identification des composantes de $$$% $$$%X D 
$$$%Y entre 1 et 2†  :

FUU  + FUX Ë + FUY  =  †


< FXU  + FXX Ë + FXY  = Ë † 4
FYU  + FYX Ë + FYY  =  †

FUU FUX FUY


L’écriture matricielle de ce système donne :
 †
œFXU FXX FXY  . Ë = œË † 
FYU FYX FYY  †
$% = Ú
Conclusion ∶  Ú $$$$%†  est la matrice de l† application linéaire .

34
4) Changement de base pour une application linéaire

On ne considère que le cas d’un endomorphisme (application de V dans V ).


Soient  et † deux matrices d’un même endomorphisme de l’espace vectoriel V ,
relativement à deux bases ® et ® † .
$% le vecteur de V représenté par les
Si a est la matrice de passage de ® et ® † et Ú
matrices colonnes : Õ dans la base ® et Õ † dans la base ® † .
On sait que : Õ = a. Õ †
$% Š de Ú
D’autre part l’image ‰Ú $% dans la base ® est donnée par Õ et dans la base

®† par † Õ † avec Õ = a. † . Õ † . Puisque Õ = a. Õ † , . Õ = . a. Õ † .


†
+ù . a. Õ † = a. † . Õ † ⇔ a U . . a. Õ † = aU . a . † . Õ †

⇔ aU . . a. Õ † = . † . Õ † = † . Õ † ⟹ 9y . ³. 9 = ³†
 : matrice de  relative à la base ® † : matrice de  relative à la base ®†
a : matrice de passage de la base ® à la base ®† ;
;

aU : inverse de a matrice de passage de la base ®† à la base ®.

IV. REDUCTION D’ENDOMORPHISME ET APPLICATIONS

1) Eléments propres d’un endomorphisme

Soient V un ) -espace vectoriel et  une application linéaire de V dans V


On appelle valeur propre de  tout scalaire  ∈ ) pour lequel il existe un vecteur
$% ∈ V tel que :
non nul # $%Š =  #
‰# $%

Le vecteur non nul $$%


# se nomme vecteur propre associé à la valeur propre .
Le couple  , #
$% est appelé élément propre de  .
$%6 est
L’ensemble constitué des vecteurs propres associés à  et du vecteur nul 5

un sous-espace de V . On le note V: et on l’appelle sous-espace propre associé à .

2) Eléments propres d’une matrice

Soit  une matrice carrée d’ordre N sur ) .


On appelle valeur propre de  tout scalaire  ∈ ) pour lequel il existe une
matrice-colonne non nulle Õ telle que :  Õ =  Õ.
Le vecteur propre de  associé à  est Õ . C’est une matrice-colonne.

35
On appelle spectre de  noté Ð& le sous-ensemble de ) constitué de toutes
les valeurs propres de .
Le sous-espace propre de  associé à  est défini par :
V: = 5Õ ∈ ℳS,U ) |  Õ =  6
3) Caractérisation

Soit  une matrice carrée d’ordre N sur ) .


On appelle polynôme caractéristique de  l’application polynomiale a définie par :
∀  ∈ ) a  = D  −  S .
Le polynôme a a ses coefficients dans ) et Dia  = N .
;

L’équation algébrique a  = 0 s’appelle équation caractéristique de .

Soient V un Ù -e.v. de 2W. 3 muni d’une base ® = D $$$%U , D$$$%X , D$$$%Y  et


Exemple :

DU + X $$$%
 ∶ U $$$% DX + Y $$$%
DY → ËU $$$%
DU + ËX $$$%
DX + ËY $$$%
DY avec ËU = U − X − Y
ËX = −U + X − Y ; ËY = −U − X + Y
Relativement à ®, la matrice associée à  est :
1 −1 −1
 = œ−1 1 −1 ∈ ℳY ℝ
−1 −1 1

1− −1 −1
Son polynôme caractéristique s’écrit :

a  = ÷ −1 1 −  −1 ÷ = − + 1 − 2X


−1 −1 1 − 
Ainsi les valeurs propres de  sont : “−1 , 2” ; donc Ð& = “−1 , 2”
IMPORTANT : La matrice ³ ne serait pas inversible si • ∈ <|³

4) Multiplicité d’une valeur propre

Soient V un )-espace de dimension finie et  une application linéaire de V dans V.


Si  ∈ ) est une racine de multiplicité ℎ du polynôme caractéristique de  alors
on dit que  est une valeur propre de multiplicité ℎ (ou d’ordre ℎ ) de  .
Si ℎ = 1 alors la valeur propre est dite simple.
Si ℎ > 1 alors la valeur propre est dite multiple.
Elle est dite double lorsque ℎ = 2 et triple lorsque ℎ = 3.
5) Dimension d’un sous-espace propre

Soient V un ) -espace de dimension finie et  une application linéaire de V dans V.


Si  est une valeur propre de multiplicité ℎ de  alors : 1 ≤ dim V:  ≤ ℎ .
Si  est une valeur propre simple de  alors dim V:  = 1
Notons donc que : 2W V: = N − ci  −  S  .

36
6) Diagonalisation d’un endomorphisme

Soient V un ) -espace de dimension finie et  une application linéaire de V dans V.


On dit que  est diagonalisable sur ) s’il existe une base de V formée de vecteurs
propres de  .
Diagonaliser  , c’est trouver cette base.
$$$$%U , #
Supposons  diagonalisable. Cela signifie qu’il existe une base ƒ = ‰# $$$$%X , ⋯ #
$$$$%

de vecteurs propres de  .

7) Diagonalisation d’une matrice

Soit  une matrice de ℳS ).


On dit que  est diagonalisable si elle est semblable à une matrice diagonale.
Autrement dit,  est diagonalisable si :
− il existe une matrice inversible a
− il existe une matrice diagonale
telles que : = aU . . a
Diagonaliser , c’est trouver .

Soient V un ) -espace de dimension N et  une application linéaire de


V dans V . Soient U , X , ⋯ , ç les valeurs propres de  , distinctes deux à deux.
Théorème :

W ≤N
Une condition nécessaire et suffisante pour que  soit diagonalisable sur ) est que
On a alors nécessairement :

l’on ait : 2W‰V:= Š + 2W‰V:> Š + ⋯ ⋯ + 2W‰V:? Š = 2WV  .

Corollaire : Soient V un ) -espace de dimension N et  une application linéaire de


V dans V . Soient U , X , ⋯ , ç les valeurs propres distinctes de  , de multiplicités
respectives ℎ1 , ℎ2 , ⋯ , ℎW . Une condition nécessaire et suffisante pour que  soit

ℎU + ℎU + ⋯ ⋯ + ℎU = N
diagonalisable est que :

4
∀ 2 ∈ “ 1, ⋯ ⋯ , W” dim‰V:? Š = ℎé
+

37
Chapitre III : SUITES ET SERIES NUMERIQUES

i. SUITES NUMERIQUES

I- GENERALITES

1) Définition et notation

ℕ dans ℝ. Une suite fait correspondre à tout entier naturel N un nombre réel #S .
On appelle suite numérique ou progression une application de l’ensemble

On notera #S S ou #S la suite (i.e. la fonction), et #S est le terme de la suite


associée à l’indice N (i.e. la valeur de la fonction en N.

Par exemple, on peut définir les suites #S , ÚS et @S par :


2N + 1 NX 12 N D1 &F2c 4
#S = NX + 3N + 5 , ÚS = , @S = 0
N+3 −2N − 3 12 N D1 2W&F2c

2×5+1 11
Alors, on peut calculer directement :

#A = 7X + 3 × 7 + 5 = 75 , Ú¨ = = , @UY = −2 × 13 − 3 = −29
5+3 8
On peut définir la suite#S S par récurrence, en se donnant une fonction

initial # . Par exemple, on peut définir les suites #S S D ÚS S par :
permettant de passer d’un terme au suivant. Il faut alors se donner un terme

# =0 Ú = 0 , ÚU = 1 4
0 D 0
∀ N ∈ ℕ  #S U = 2#S + 3 ∀ N ∈ ℕ  ÚS X = ÚS U + ÚS
Alors, pour calculer #[ et Ú¨ , il faut calculer les termes intermédiaires :
#U = 2 × # + 3 = 3, #X = 2 × #U + 3 = 9
#Y = 2 × #X + 3 = 21 , #[ = 2 × #Y + 3 = 45
et
ÚX = ÚU + Ú = 1 , ÚY = ÚX + ÚU = 2
Ú[ = ÚY + ÚX = 3 , Ú¨ = Ú[ + ÚY = 5
2) Sens de variation d’une suite
Une suite #S est dite :
 Croissante si elle croit en tant qu’application de ℕ dans ℝ, c'est-à-dire
#S ≥ #ç pour tout N et W tels que N ≥ W.
 décroissante si elle décroit en tant qu’application de ℕ dans ℝ, c'est-à-dire
#S ≤ #ç pour tout N et W tels que N ≥ W.

38
1 2N − 1 3S X 5
 Monotone si elle est soit croissante, soit décroissante

Exemples ∶ ; ; ;
N 3N − 2 2S −3S

3) Suite majorée, minorée et bornée

Une suite #S est dite :


 Majorée s’il existe un nombre réel û tel que #S ≤ û , pour tout entier N ∈ ℕ.
û est appelé le majorant.
 Minorée s’il existe un nombre réel W tel que W ≤ #S , pour tout entier N ∈ ℕ.
W est appelé le minorant.
 Bornée si elle est à la fois majorée et minorée.

2N − 3 2N + cos N
Exemples :

1 #S = 2 ÚS =
5N − 2 NX

4) Convergence d’une suite

finie E quand N → +∞.


Une suite est dite convergente lorsqu’en tant qu’application elle admet une limite

lim #S = E
S→

lim #S = +∞
Une suite qui ne converge pas est divergente ; alors :

S→

N+1 1 NX + 1
Exemples :

#S = ; #S = − #S + 6 ; #S =
N U
3 N

II- SUITES PARTICULIERES

A. Suites arithmétiques

1) Définition

Une suite #S  est dite arithmétique s’il existe un réel c tel que pour tout N ∈ ℕ,
#S U = #S + c. Le réel c est alors appelé raison de la suite #S .
Si #S  est une suite arithmétique de premier terme # = F et de raison c, alors
pour tout N ∈ ℕ, #S = F + Nc .
Exemples : # =2 et #S U = #S + 3 ; ÚS = 4 − 5N

39
2) Sens de variation

Constante et égale à # , si c = 0
Pour ce qui est d’une suite arithmétique, retenons qu’elle est :

Croissante et divergente vers +∞, si c > 0


-

Décroissante et divergente vers −∞ , si c < 0.


-
-

3) Somme de ≪ N ≫ premiers termes

Si #S  est une suite arithmétique, et si & et ‚ sont deux indices & < ‚, alors :
#( + #D
#( + #( + ⋯ + #DU + #D = ‚ − & + 1 ×
U
SçEFþ Gþ
2
)þFçþH çIþSSþ GþH
)þFçþH þ)FêçþH
Somme des N premiers termes # + #U + ⋯ + #SU  est :
N
# + #SU 
2
Par exemple, la somme des N premiers entiers est :
N N + 1
1+2+3+⋯ +N =
2
B. Suites géométriques

1) Définition

Une suite #S  est dite géométrique s’il existe un réel c tel que pour tout N ∈ ℕ,
#S U = #S × ‚. Le réel ‚ est alors appelé raison de la suite #S .
Si #S  est une suite géométrique de premier terme # = F et de raison ‚, alors
pour tout N ∈ ℕ, #S = F × ‚S .
Exemples : # =3 et #S U = −5 #S ; ÚS = 2 × −3S

2) Convergence

Si ‚ = 1, alors ‚S est constante et égale à 1


Si ‚ > 1, alors ‚S est croissante et diverge vers +∞
Si |‚| < 1, alors ‚S converge vers 0
Si 0 < ‚ < 1, alors ‚S est décroissante
Si ‚ = −1, alors ‚S n’admet pas de limite
Si ‚ < −1, alors la suite n’admet pas de limite.

40
3) Somme de ≪ N ≫ premiers termes

Si #S  est une suite géométrique de raison ‚ ≠ 1, et si c et 1 sont deux


indices & < ‚, alors :
1 − ‚ HF U
#F + #F U + ⋯ + #HU + #H = #F ×
1−‚
Somme des N premiers termes #U + #U + ⋯ + #S  est :
1 − ‚S 1 − ‚S
ÐS = #U × = #U × ‚ ≠ 1
1−‚ 1−‚
Ð2 ‚ = 1 FE+c1 ÐS = N × #U
Par exemple, la somme des N premières puissances de 2 est :
1 − 2S U
1 + 2 + 4 + 8 +⋯ ⋯ + 2 S
=
1−2

ii. SERIES NUMERIQUES

I. DEFINITIONS ET PROPRIETES

1) Définitions

Soit #S S ∈ ℕ∗ une suite numérique dont la somme des N premiers termes est :
S

ÐS = #U + #X + ⋯ ⋯ + #S = ó #J

On appelle série de terme général #S la suite ÐS  que l’on note : ∑ #S .


JõU

 Si la suite ÐS  converge vers un réel Ð ; on dit que la série de terme général
#S est convergente et à pour somme Ð. On écrira alors :

Ð = #U + #X + ⋯ ⋯ = ó #S
SõU
 Si la suite n’est pas convergente ; on dit que la série de terme général #S est

Dans le cas où la suite est définie à partir d’un est définie à partir d’un indice &
divergente.

d’entier naturel, on pose ∶ ÐS = #( + #( U + ⋯ ⋯ + #S = ó #J


Jõ(

1
Exemple d’application :

Soit la série #S  déHinie par : #S = ; ∀ N ∈ ℕ∗


N N + 1

41
' (
a Trouvons les réels ' D ( , tels que : #S = +
N N+1
1 1 1 1
'=8 9 ⟹ '=1 et ( = 8 9 ⟹ ( = −1 donc #S = −
N + 1 Sõ N SõU N N+1
b). Etudions la nature de la série #S 
La série #S  est la suite ÐS  où : ÐS = #U + #X + ⋯ ⋯ + #SU + #S .
1 1
On sait que ∀ N ∈ ℕ∗ ; − #S =
N N+1
1 1 1 1 1 1 1 1
ÐS = 1 − + − + ⋯ ⋯ ⋯ + − + − ⟹ ÐN = 1 −
2 2 3 N−1 N N N+1 N+1
1
on calcul aisement ∶ lim ÐS = 1 car lim =0
S→ S→ N+1
Pour conclure on dira que la suite ÐS  converge vers 1, donc la série #S  est
convergente et à pour somme 1.

2) Propriétés

 Soit une série #S 


Si la série #S  est convergente alors ∶ E2W #S = 0
S→

Si E2W #S ≠ 0 alors la série #S  diverge.


S→
 On ne change pas la nature d’une série en supprimant un nombre fini de

 Soient ∑ #S et ∑ ÚS deux séries convergentes de sommes respectives


terme ou en ajoutant.

L et M et  un scalaire :
La série ∑#S + ÚS  converge et sa somme vaut : L + M ;
La série ∑ #S  converge et sa somme vaut :  L


Soient ∑ #S une série convergente, ∑ ÚS une série divergente et  un scalaire non

- La série ∑#S + ÚS  diverge et la série ∑ ÚS  diverge.


nul :

II. LES SERIES GEOMETRIQUES

géométrique ; donc de terme général : #S = ‚S ; avec ‚ ∈ ℝ∗ . On la note ∑ ‚S .


Une série géométrique est une série dont le terme général est une suite

Une série géométrique est convergente si et seulement si |‚| < 1 et on a alors :


1 1 − ‚S U
ó‚ S
= ; on sait que ∶ ó ‚ J
=
1−‚ 1−‚
Jõ Jõ
; elle sera divergente si |‚| ≥ 1

42
Exemples d’application

 Dans chacun des cas suivants, étudier la nature de la série #S  :


1 S
#S = :− ; ; #S = 3S
2
S

 Montrer que la série de terme général #S = œ1„3 est convergente et

calculer sa somme Ð =

∑U
0
n

III. SERIES DE RIEMANN

où ' ∈ ℝ.
1
On appelle série de Riemann la série de terme général U n =

Une série de Riemann converge si ' > 1 , et diverge si ' ≤ 1.

Exemples d’application

Dans chacun des cas suivants, étudier la nature de la série #S  :


1 1
#S = NY ; #S =  N ≠ 0 ; #S =
N N

X

IV. SERIES A TERMES POSITIFS

1) Théorème de comparaison

Soient deux séries #S  et ÚS  à termes positifs telles qu’à partir d’un certain rang

0 ≤ #S ≤ ÚS :
∗ Si la série ÚS  converge, alors la série #S  converge ;
∗ Si la série #S  diverge, alors la série ÚS  diverge.

2) Règle de d’Alembert

#S U
Soit une série #S  à termes positifs, telle que : E2W = E +ù E ∈ ℝ ∪ “+∞” ∶
#S
Si E < 1 alors la série converge ;
Si E > 1 alors la série diverge ;
-

Si E = 1 ; la règle ne permet pas de conclure.


-
-

43
3) Règle de Cauchy

Soit une série #S  à terme positif, telle que : lim O|#S | = E +ù E ∈ ℝ ∪ “+∞”:
P
S→

Si E < 1 alors la série converge ;


Si E > 1 alors la série diverge ;
-

Si E = 1 ; la règle ne permet pas de conclure.


-
-

4) Séries à termes généraux équivalents

a) Définition

Soient deux séries de termes généraux positifs #S et ÚS :

On dit que #S D ÚS sont équivalents en + ∞ ; si lim = 1 ; on écrit #S ∞


ü ÚS
#S
þS ÚS
b) Propriétés

• Soient quatre (4) séries #S  , ÚS  , @S  D S  à termes positifs :
1 1
Si #N ∞
ü ÚN , alors ∞
ü ; si #N ∞
ü ÚN et @N ∞
ü N
#N ÚN
ÚS
alors #S @S ∞
ü ÚS S et ∞
ü .
#S
@S S
• Soient deux (2) séries de termes généraux positifs #S D ÚS ; si #S ∞
ü ÚS alors
les séries #S  et ÚS  sont de même nature.

Dans chacun des cas suivants, étudier la nature de la série #S  :


Exemples d’application

1 3
#S = ; #S =
N N + 1 ON N + 1 N + 2

Important : série absolument convergente

Si la série de terme général |#S | est convergente, alors la série de terme


général #S est convergente et on dit dans ce cas que la série #S  est absolument
convergente.

Montrer que la série de terme général |#S | déHinie par : ∀ N ∈ ℕ∗ ;


Exemple d’application

1
#S = −1S . est absolument convergente.
NY

44
V. SERIES ALTERNEES

a) Définition

Une série est dite alternée si le signe de son terme général est alternativement
positif et négatif.

b) Propriété

Si ÚS décroit et tend vers zero (0) quand N → +∞ ; alors la série de terme


général #S = −1S . ÚS est convergente.
Exemple d’application
−1S
Montrer que déHinie par ∀ N ∈ ℕ ∗
; #S = est convergente .
N
VI. SERIES ENTIERES

1) Généralités

a) Définition

On appelle série entière complexe (resp. réelle) une série de fonction de la forme :

ó FS .  S œresp. ó FS .  S 
SQ SQ
où F , FU , … … … FS sont des nombres complexes (resp. réels) donnés, appelés
coefficients de la série, et où  (resp.  ) est une variable complexe (resp. réelle).

Remarque : Si une série entière converge et a pour somme la fonction Ð ; on écrit :


+∞
S ( x ) = ∑ ak x k .
k =0
b) Convergence des séries entières

Théorème : ( Lemme d’ Abel )

Si la série entière ∑ FS .  S converge en un point  ≠ 0, alors elle converge

absolument en tout point  tel que || < | | .

c) Rayon de convergence et intervalle de convergence

S’il existe un réel Ù positif ∀  ∈ −Ù , Ù  la série ∑ FS .  S est absolument


convergente et ∀  ∈ −∞; −Ù  ∪  Ù ; +∞ la série ∑ FS .  S est divergente ;
on dit que Ù est le rayon de convergence et que l’intervalle −Ù; Ù  est l’intervalle
de convergence de la série entière :

45
- Si la série ne converge qu’au point  = 0 ; on dit que le rayon de
convergence est nul.

∀  ∈ ℝ ; on dira que le rayon de convergence est l’infini et on pose Ù = +∞.


- La série est uniformément convergente ou absolument convergente

d) Détermination du rayon de convergence Ù d’une série entière.

an+1
lim
Si n→+∞
n an = l ou si lim
n →+∞
=l , alors le rayon de convergence R =
1
.
an l

xn
Exemple : Déterminer le rayon de convergence de la série entière ∑ n!
.

1 an+1 n! 1
an = lim = lim = lim =0
Ici
n!
; d’où n →+∞ an n →+∞ ( n + 1) ! n →+∞ n + 1

Ù = +∞
= “ ∈ ℂ⁄ || < Ù ” ; respectivement = “ ∈ ℝ⁄ || < Ù ”, est
Par conséquent
L’ensemble ã ã

Remarque : Le rayon de convergence,Ù , peut être 0, un nombre strictement positif


appelé disque ouvert de convergence (resp. intervalle ouvert de convergence).

ou +∞. Dans le cas où Ù = 0 la série entière ne converge absolument qu’en


 = 0. Si Ù est strictement positif on a une convergence absolue sur le tout le
disque ouvert de convergence ã. Dans le dernier cas où, Ù = +∞, on a une
convergence absolue sur ℂ tout entier.

2) Propriétés des séries entières

 Toute série entière converge uniformément sur tout segment inclus dans
l’intervalle de convergence ;
 La somme Ð d’une série entière convergente sur  = −Ù , Ù y est continue ;

 Les séries entières ∑ FS .  S de somme Ð et


∑ n + 1 de somme 
an x n +1

ont le même rayon de convergence Ù et ∀  ∈  de convergence −Ù , Ù 

 =  Ð  


Moralité : sur tout segment de l’intervalle de convergence, on peut intégrer terme à


terme une série entière.

46
 La somme Ð d’une série entière ∑ FS .  S est indéfiniment dérivable dans
 = −Ù , Ù . La série entière de ∑ N FS .  SU a le même rayon de convergence
Ù et a pour somme la fonction # = Ð †  ; ∀  ∈ −Ù , Ù 
Moralité : sur tout segment inclus dans l’intervalle de convergence, on peut dériver
terme à terme une série entière.

3) Opérations algébriques sur les séries entières

Soient ∑ FS .  S et ∑ hS .  S deux séries entières de rayons de convergence


respectifs Ù et Ù † et de somme Ð D Ð † .

séries ∑ FS .  S et ∑ hS .  S la série entière notée


 Somme de deux séries entières (définition)

∑ FS + hS .  S ayant pour rayon de convergence le réel Ù si Ù < Ù † et de rayon


On appelle somme des

de convergence ≥ Ù si Ù = Ù † .

La somme de cette série entière nouvelle est Ð + Ð .


On appelle somme des séries ∑ FS .  S et ∑ hS .  S la série entière notée ∑ sS .  S


 Produit de deux séries entières (définition)

où sS = ó FJ . hSJ

Cette série produit a un rayon de convergence ≥ Ù si Ù ≤ Ù † . La somme de la série

entière produit est égale à Ð. Ð .


4) Développement d’une fonction en série entières

Une fonction numérique  est développable en séries entières dans  de la forme


−Ù , Ù  ; s’il existe une série entière de rayon de convergence égal à Ù , telle que :

 = ó FJ .  J ∀  ∈ −Ù , Ù  ; un tel développement s† ilexiste est unique


5) Exemple d’application

Déterminons l’intervalle de convergence de la série entière de terme général


S
S  = ; déterminons ensuite la suite.
3S N − 1!

47
Résolution

1 an +1 3n ( n − 1) ! 1
On sait que R = où l = nlim
→+∞ a
= lim
n →+∞ n +1
= lim n = 0 ⇒ R = +∞
n →+∞ 3
l 3 .n !
L’intervalle de convergence sera donc  = −∞ ; +∞
n

+∞
xn +∞
x x n −1 x +∞ x n −1 1
La somme sera : ∑
n =1 3 n ( n − 1)!
= ∑
n =1
. = .∑ .
3 n ( n − 1 ) ! 3 n =1 ( n − 1 ) ! 3 n −1
n −1 n
 x   x 
x +∞   +∞  
= .∑  3  =
x
.∑  
3
=
x x3
.e
3 n =1 ( n − 1 )! 3 n = 0 n ! 3

48
Chapitre IV : SERIES DE FOURIER

I. SERIES TRIGONOMETRIQUES

+∞

On appelle série trigonométrique, une série de la forme : ∑a cos (ωx) + b sin (ωx) ,
n=0
n n

avec FS , hS ∈ ℝ où Τ est la période de la famille des fonctions #S



et ω =

définie par : #S  = FS cos_  + hS sin_  ; avec N ∈ ℝ.


Τ

II. SERIES DE FOURIER

A. GENERALITES

1) Définition

Soit  une fonction périodique de période  et _ sa pulsation définie par Τ =


On suppose  continue sur l’intervalle 0 ,  ; sauf peut être en un nombre fini de


ω

On appelle série de Fourier de  ; notée Ð$  la série trigonométrique :


point où elle admet des limites à gauche et à droite finies.

óFS cosN_  + hS sinN_  = F + óFS cosN_  + hS sinN_ 

où F , FS D hS sont appelés coefficients de Fourier de  et définis par :


Sõ SõU

si N = 1 ; FU s+1_ + hU 12N_ s† appelle le m¸¼¦lÔ¼wlR de la fonction 


FS cosN_  + hS sinN_  ; s† appelle RÔ¹ Ølȸ¼»SÉÔ¹ de la fonction 
1 › 2 ›
F =   .  jFEDbc W+ËDNND ; ∀ N ≥ 1 FS =    cosN_  
 
2 ›
∀ N ≥ 1 hS =   sinN_ .

Exemple d’application :

3 + ó−1S cos2gN  + 18 sin2gN  ; F = 3 , FS = −1S , hS = 18 , _ = 2g


SQU
2) Calcul rapide des coefficients (propriété)

Si  est paire alors

∀ N ≥ 1 , hS = 0 la série de Fourier de  sera S f ( x ) = a0 + ∑ an cos ( nω x )


Si  est impaire alors


n =1

49
F = 0 et ∀ N ≥ 1 , FS = 0 la série de Fourier de  est S f ( x ) =

∑b n sin ( nω x )
n =1

3) Ecriture complexe des coefficients de Fourier (Définitions - propriété)

Soit  une fonction périodique de période Τ =



intégrable sur tout intervalle fermé
ω

de ℝ. Soit c n =
a n − ibn 1
(x )dx
T

2
a v e c ........ c 0 =
T ∫ 0
f = a0

sS est appelé coefficient complexe de Fourier de  et vérifie cn =


1 Τ
∫ f ( x ) .e−inωx dx
Τ 0

La série de Fourier de  est


+∞
Sf (x) = ∑ c n .e in ω x
−∞

B. CONDITIONS DE DIRICHLET

1) Conditions de Dirichlet

Soit  une fonction périodique de période Τ = . On dit  satisfait aux conditions



ω

∗ Sur ', ' +  où ' ∈ ℝ, la fonction  est définie, continue, dérivable et


de Dirichlet si :

admet une fonction dérivée  † continue ; sauf éventuellement en un nombre fini de


points é ;

∗ En chacun des points é :


- Si é ≠ ' et é ≠ ' +  ; la fonction  et sa dérivée  † admettent une
limite finie à gauche et une limite finie à droite en é .
Si é = ' ,  et  † admettent une limite finie à droite ;
Si é = ' +  ,  et  † admettent une limite finie à gauche.
-

Remarque : si  est continue et dérivable sur ', ' +  et  † sa dérivée est


-

continue sur ', ' +  ; alors  vérifie les conditions de Dirichlet.


Les fonctions affines par intervalle (ou par morceau) satisfont toujours les conditions
de Dirichlet.

2) Théorème de convergence de Dirichlet

Soit  une fonction périodique de période  ; si  satisfait aux conditions de Dirichlet

 En tout point  où  est continue et a pour somme :


alors la série de Fourier converge :

50
m¥•  = <m ¥•  = l• + ó l¼ TUV¼W¥•  + n¼ VXY¼W¥• 

 En tout point é où  n’est pas continue, la série de Fourier a pour somme :


¼õy

y
m¥»   + m¥»  = <m ¥»  = l• + ól¼ TUV¼W¥»  + n¼ VXY¼W¥» 
«
¼õy

avec é   = lim  et é   = lim 


→[ →[
Z \

Exercice d’application
Soit la fonction périodique de période  = 2, définie sur l’intervalle 0 , 2 par :
   = 1 12  ∈ 0 , 1
˜ 4
   = 0 12  ∈ 1 , 2
1) Décrire la série de Fourier de .
2) La série de Fourier de  est-elle convergente ? Si oui donner sa somme.

( −1)
p

3) En déduire la somme de la série ∑ 2 p +1


p ≥0
après avoir justifié sa convergence.

Résolution
1. Décrivons la série de Fourier de 
2g 2g 2g
=2 ; = ⟹ _= = = g ⟹ _= g
_  2
1 › 1 X 1 1 X
F =   .  ; ' = 0 ⟹ F =  .  =   +  0.  
U

 2 2 2 U
1
F =
2
2 › 2 X
∀ N ≥ 1 FS =    cosN_  =   cosNg  =  cosNg 
U

 2
1 U
1
FS = 8 12NNg9 = 12NNg ⟹ FS = 0
Ng Ng
2 X 1
∀ N ≥ 1 hS =    sin N_  =  sin N_  = 8−
U U
       
s+1 Ng 9
 Ng
1 1 1 1
= − s+1Ng + = 1 − s+1Ng ⟹ hS = 1 − −1S 
Ng Ng Ng Ng
1
Ð2 N = 2& ; hX( = 1— 12& = 0
2&g

51
1 2
12 N = 2& + 1 ; hX( = 1 − −1X( U  =
U
2& + 1g 2& + 1g

La série de Fourier de  est :


1 2 1 1 − −1S
+ó 12N‰2& + 1gŠ +b + ó 12NNg
2 2& + 1g 2 Ng
(Q SQU

2. f étant affine par intervalle, elle satisfait les conditions de Dirichlet, la série

   , ∀  ∈ 0 , 1 ∪ 1 , 2
de Fourier est donc convergente.

1 2 12N‰2& + 1gŠ 4
La somme + ó = ´1 + 0 1
2 g 2& + 1
=
2 2

(− 1 )
p

3. Déduisons la somme de la série ∑


p≥0 2 p + 1

1
F( = ; lim F( = 0
2& + 1 (→
1 1 2& + 1 − 2& − 3 −2
F( − F( = − = = <0
U
2& + 3 2& + 1 2& + 32& + 1 2& + 32& + 1
F( est donc décroissant donc (− 1 )
p


p≥ 0 2 p + 1
convergente

(− 1 )
p

Calculons à présent ∑p≥0 2p +1

g X
1 2 12N :  2& + 1  ; 1 1 2 −1( 1
1 2
posons  = ; + ó = : ; ; + ó =
2 2 g 2& + 1 2 2 g 2& + 1 2
(õ (õ
−1 (
1 g g −1( g
ó = × = ⟺ ó =
2& + 1 2 2 4 2& + 1 4
(õ (õ

C. FORMULE DE PARSEVAL – ANALYSE SPECTRAL D’UN SIGNAL

1) Analyse spectral d’un signal

Soit  une fonction périodique de période  et vérifiant les conditions de Dirichlet, on



a donc la série de Fourier avec la pulsation ω = :
Τ

F + óFS cosN_ + hS sinN_ 


SõU

52
En exprimant la décomposition en série de Fourier de  avec uniquement des

FS = S s+1^S 
fonctions cosinus on pourra écrire :

F + ó S 12NN_ − ^S  avec ˜ 4 D S = _FS X + hS X


SõU hS = S 12N^S 
^S est la phase de l’harmonique N
Le spectre de la fonction  est la suite de coefficients S 

2) Formule de PARSEVAL

Soit  une fonction périodique de période  , on appelle norme de  le nombre réel


notée `` défini par :

1 ›
`` = a  X  ; il est aussi appellé blRÔÉÈ Ômm»·l·Ô de  sur  0; 


Théorème : soit  une fonction périodique et continue par morceaux. On a alors :

1 › 1
 X  = F X
+ ó‰FS X + hS X Š
 2
SõU

53

Vous aimerez peut-être aussi