FascMath Inge
FascMath Inge
M.BAHADI
Ecole Royale Navale. Casablanca
Résumé
Cours dispensé aux éléves o¢ ciers de la première année Ecole Royale Navale.
C’est un programme riche et varié, qui comporte des notions nécessaires à la formation de l’ingé-
nieur. Pour rendre ce cours digeste des démonstrations- certes utiles - ont été omises, ou proposées
en travaux dirigés.
Le cours démarre doucement par des fonctions classiques - je fais référence aux fonctions gamma et
bêta d’Euler - où le critère d’intégrabilité de Riemann, et quelques développement en série entière
font l’a¤aire.
On enchaine ensuite par les séries de Fourier, les transformées intégrales de Fourier et de Laplace :
Outils nécessaires à l’interprétation fréquentielle d’un signal périodique ou non, ainsi qu’à la ré-
solution de certaines équations di¤érentielles ou aux dérivées partielles.
Les chapitres 4 et 6 abordent une partie très importante de la théorie du signal, notamment le
…ltrage linéaire et les signaux discrêts ( ou échantillonnés).
Dans le chapitrer 5, on passe à la notion de fonctionnelle, vue l’importance que revêt la dérivation,
et l’impossibilité d’en faire usage pour des phénomènes modélisés par des signaux inhabituels : Un
exemple l’impulsion de Dirac.
D’où une étude assez détaillée de la notion de distribution.
Pour se familiariser avec toutes les notions évoquées ci-dessus un certain nombre d’exercices -
résolus ou non - sont proposés.
Table des matières
1
4 Représentation des signaux : 28
4.1 Généralités : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.1.1 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.1.2 Dé…nitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.1.3 Quelques signaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.2 Classi…cation des signaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2.1 Classi…cation des signaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2.2 Filtrage linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2.3 Réponse impulsionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2.4 Causalité et stabilité d’un …ltre . . . . . . . . . . . . . . . . . . . . . . . . 33
5 Notions de distribution : 35
5.1 L’espace des fonctions tests : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.1.1 Distributions régulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.1.2 Exemples : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.2 Dérivation des distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2.1 Exemple de convergence : . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.2.2 Peigne de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.2.3 Produit tensoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.2.4 Produit de convolution. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.2.5 Dérivée d’un produit de convolution . . . . . . . . . . . . . . . . . . . . . . 40
5.3 Transformée de Fourier d’une distribution . . . . . . . . . . . . . . . . . . . . . . 40
5.3.1 Mode de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.3.2 Transformée de Fourier d’une distribution tempérée . . . . . . . . . . . . . 41
2
Chapitre 1
Nous rappelons ici quelques propriétés de l’intégrale de Riemann, qui constitue un outil pour
l’étude des intégrales généralisées dont il sera question le long de ce cours.
1.1.1 Préliminaire
Z +1
(1) x dx ( 2 R) converge si et seulement si < 1.
Z 11
et x dx ( 2 R) converge si et seulement si > 1:
0Z +1 p
x2
(2) I = e dx = .
0 2 Z +1 Z +1
2 2 2
Démonstration de (2) I = e (x +y ) dxdy .
0 0
x = r cos h i
On pose où r 2 [0; +1[ et 2 0;
y = r sin 2
On obtient
Z Z +1
2
2 r2
I = re drd =
0 0 4
D’où le résultat.
3
L’ouvrage contient la célèbre formule de Wallis :
Euler avait étudié attentivement les travaux de Wallis, et y découvrit la fonction Bêta.
1
Si on pose t = x p on obtient :
Z 1
I(p; q) = p tp 1 (1 t)q 1 dt
0
(m 1)!(n 1)!
B(m; n) = (1)
(m + n 1)!
Euler avait généralisé la formule (1) pour des valeurs quelconques de a ; b > 0, en introduisant la
fonction Gamma.
R R+ ! R R+ ! R
On considère les fonctions : f : t x 1 et fx :
(x; t) 7 ! e t t 7 ! f (x; t)
et l’intégrale généralisée :
Z +1 Z 1 Z +1
f (x; t)dt = f (x; t)dt+ f (x; t)dt
0 0 1
1. Pour tout x de R, fx est continue, positive sur ]0; +1[ donc l’intégrale de gauche est dé…nie
lorsque fx est intégrable sur ]0; +1[:
2. Au voisinage de 0, fx (t) tx
. La 1iere intégrale de droite converge pour x > 0:
1
1
3. Au voisinage de +1 lim t2 fx (t) = 0 . Donc pour t > A , fx (t) < 2 : Donc la seconde
t!+1 t
intégrale de droite converge:
4
Z +1
4. Par conséquent f (x; t)dt est bien dé…nie.
0
(x + 1) = x (x):
Z b
Démonstrations : Soient 0 < a < b < +1 dans I(a; b) = e t tx 1 dt on fait une intégration
a
par parties. Z b
1 1
I(a; b) = e b bx a x
e a + e t tx 1 dt. On fait tendre (a,b) vers (0,+1).
x x a
Remarques 1-1-3 :
(ii) De même on peut étendre la dé…nition de à C pour z 2 C tel que : Re(z) > 0:
Propriétés 1-1-4 :
1 p
1. (1) = 1 et ( )= :
2
2. (n + 1) = n! pour tout n 2 N:
1 (2n)! p
3. (n + ) = n :
2 4 n!
Démonstrations :
Z b
1 1
1- Evidente. Soient 0 < a < b < +1, Changement de variable : u = t dans e t t 2 dt 2
a
Z pb Z +1
2 1 2 p
donne 2 p e u du quand a ! 0 et b ! +1, on obtient ( ) = 2 e u du = :
a 2 0
2- Récurrence sur n.
3- Aussi.
5
Propriétés 1-1-5 :
1. La fonction est continue, indé…niment dérivable sur R + :on montre de plus que :
Z +1
dn (x)
n
= e t tx 1 (ln t)n dt: (2)
dx 0
Démonstrations :
f est continue sur (R + )2 et pour tout x de R + , fx est intégrable sur ]0; +1[.
Soit 0 < a < b
Pour 0 < t 1, x 7 ! tx 1 est décroissante donc pour x dans [a; b]
0 < f (x; t) ta 1 :
Pour t 1; x 7 ! tx 1
est croissante donc pour x dans [a; b] ;
0 < f (x; t) e t tb 1
R+ ! R ta 1 si 0 < t 1
On considère alors la fonction ' où '(t) =
t 7 ! '(t) e t tb 1 si t 1
| ' est positive, continue par morceaux et intégrable sur ]0; +1[ et
| Pour tout (x; t) 2 [a; b] ]0; +1[ ; 0 < f (x; t) '(t):
D’où est continue sur ]0; +1[ d’après le théorème de continuité sous le signe somme.
@k
Pour k f (x; t) = e t tx 1 (ln t)k : Faire le même raisonnement
2 f de classe C k et
@xk
et à la place de '(t) prendre k (t) = jln tjk '(t) pour montrer (2).
1
(x) au voisinage de 0
x
Z +1
00 00
| (x) = e t tx 1 (ln t)2 dt . est strictement positive sur R +
donc est convexe.
0
0
Il en résulte que est strictement croissante et s’annule donc au plus une fois.
0
(1) = (2) = 1 montre avec le théorème de Rolle que s’annule au moins une fois sur ]1; 2[.
0
Finalement s’annule une fois et une seule en un point 2]1; 2[.
6
1.1.3 La fonction Bêta
C’est une fonction à 2 variables
Dé…nition 1-1-6 : pour x > 0 et y > 0
Z 1
B(x; y) = (1 t)x 1 ty 1 dt
0
Remarque 1-1-7 :
Propriétés 1-1-8 :
Démonstrations :
1- Evidente. h i
2
2- On pose t = sin ( ) pour 2 0; , dt = 2 sin cos d
2
u du
3- On pose t = ; dt =
1+u (1 + u)2
Z +1
uy 1
B(x; y) = du
0 (1 + u)x+y
= B(y; x)
Z +1
ux 1
= du
0 (1 + u)x+y
1-
(a) (b)
B(a; b) = pour tout a > 0 et b > 0
(a + b)
2-
B(a; 1 a) = (a) (1 a)
= : Pour 0 < a < 1:
sin( a)
7
Démonstrations :
Z +1 Z +1
x a 1
(a) (b) = e x dx e y y b 1 dy
0 0
Z +1 Z +1
x y a 1 b 1
= e x y dxdy
0 0
Z u
Dans xa 1 (u x)b 1 dx le changement de variable x = tu donne :
0
Z u Z u
x a 1
(u x) b 1
dx = (tu)a 1 (u tu)b 1 udt
0 0
Z 1
a+b 1
= u ta 1 (1 t)b 1 dt
0
= ua+b 1 B(a; b)
Donc
Z +1
u a+b 1
(a) (b) = B(a; b) e u du
0
= B(a; b) (a + b)
Exercice :
1- Montrer que :
Z
1 2 1 1
B(a; a) = (sin 2 )2a 1 d = B(a; )
22a 2
0 22a 2 2
2- En déduire que :
p
1
(a) (a + ) = 2a 1 (2a) Formule de duplication de Legendre
2 2
2a 1 a a+1
(a) = p ( ) ( )
2 2
8
1.2 Les fonctions erreur erf, Si,...
Dé…nition 1-2-1 : Z x
2 t2
erf (x) = p e dt:
0
La fonction de répartition de la loi normale ou Gaussienne est :
Z x
1 t2 1 x
p e 2 dt = + erf ( p ):
2 1 2 2
Propriétés 1-2-2 :
Démonstrations :
(i) et (ii) sont évidentes.
t2
Pour (iii) prendre le développement en série entière de e Au V(0).
Dé…nition 1-2-3 : Z x
sin t
Si(x) = dt: (impaire)
0 t
Propriétés 1-2-4 :
1-
2- Au V(0)
X
+1
x2n+1
Si(x) = ( 1)n
n=0
(2n + 1)[(2n + 1)!]
9
1.2.3 La fonction cosinus intégrale
Dé…nition 1-2-5 : Z +1
cos t
Ci(x) = dt: Pour x > 0:
x t
Propriétés 1-2-6 :
a-
X
+1
x2n
Ci(x) = + ln x + ( 1)n
n=1
(2n)[(2n)!]
te
= c d’Euler
Dé…nition 1-2-7 : Z +1 t
e
Ei(x) = dt: Pour x > 0:
x t
Propriétés 1-2-8 :
1-
d Ei(x) e x
et = :
dx x
2-
X
+1
xn
Au V (0) Ei(x) = ln x + ( 1)n :
n=1
n(n!)
1 1 1
= lim 1+ + + :::: + ln n ' 0:5772157:::
x!+1 2 3 n
10
Chapitre 2
Les séries de Fourier jouent un rôle fondamental en théorie et traitement du signal, notamment
pour l’interprétation fréquentielle d’un signal périodique, ainsi que dans la résolution de certaines
équations di¤érentielles.
Les coe¢ cients (an )n 0 et (bn )n 1 ; s’appellent les coe¢ cients de Fourier de la fonction x(:).
a0 X
+ (an cos(n!t) + bn sin(n!t))
2 m 1
(I intervalle de longueur T ).
2.1.2 Convergence
Conditions de Dirichlet :
| Un point t0 est un point de discontinuité de 1iere espèce si lim+ x(t) et lim x(t) existent et sont
t!t0 t!t0
di¤érentes. Elles seront notées réspectivement x(t+
0 ); x(t0 ):
11
| Soit I un intervalle de longueur T . Si le nombre de points de discontinuité de 1iere espèce sur
I est …ni, et en tout point de I; x(:) admet une dérivée à droite et une dérivée à gauche, on dit
que x(:) véri…e les conditions de Dirichlet.
Théorème 2-1-1 (de Dirichlet) : Si x(:) véri…e les conditions de Dirichlet, alors la série de Fourier
converge pour tout t vers :
1
x(t+ ) + x(t ) :
2
De plus la convergence est uniforme sur tout intervalle où la fonction x(:) est continue.
1
Si x(:) est continue en t alors [x(t+ ) + x(t )] = x(t):
2
Théorème 2-1-2(de Jordan) : Si x(:) est T -périodique, borné sur un intervalle de longueur T
alors la série de Fourier converge vers :
1
x(t+ ) + x(t ) :
2
La convergence est uniforme sur tout intervalle où x(:) est continue.
Exemple 2-1-3 :
Créneau carré périodique
2
an = sin(n ); bn = 0 pour n 1 et a0 = 0:
n 2
Propriétés
Parité
Si x(:) est une fonction paire, pour tout n 1 alors bn = 0.
12
Z T
2 2
Démonstration : si x( t) = x(t), alors bn = x(t) sin(n!t)dt
T T
2
Z 0 Z T
2 2 2
bn = x(t) sin(n!t)dt + x(t) sin(n!t)dt = 0
T T
2
T 0
Changement de variable t = t.
An = n cos(n!t + 'n )
Le développement devient X
n cos(n!t + 'n ):
n 0
Exercice 2-1-5 Tracer le spectre des amplitudes et celui des phases pour le crénneau carré
périodique.
13
2.2.2 Développement complexe
1 1
Sous forme complexe cos(n!t) = (ein!t + e in!t ) et sin(n!t) = (ein!t e in!t ) :
2 2i
1
Posons cn = (an ibn ) et c n = cn . Le développement devient
2
X Z
in!t 1
cn e où cn = x(t)e in!t dt , I intervalle de longueurT
n2Z
T I
Z Z
an x(t) cos(n!t)dt = an x(t) cos(n!t)dt
I I
T
= an an
2
T 2
= a
2 n
Et
1 2
jcn j2 = a + b2n
4 n
2.2.3 Exercices :
Exercice1 : Développer en séries de Fourier le signal x(:) 2 périodique suivant :
1- x(t) = t sur ] ; [:
3- y(t) = jsin(t)j :
14
Exercice2 :
t X
+1
sin(nt)
a- Montrer que : = pour 0 < t < 2.
2 n=1
n
X
+1
sin(2n 1)t
b- En déduire que : = .
4 n=1
2n 1
Exercice3 :
Chercher les solutions particulières y(t) des équations di¤érentielles suivantes sous la forme d’une
série de Fourier.
0
(a) y + y = sin2 (t)
00
(b) y y = jsin(t)j:
Exercice4 :
Exercice5 :
Reprendre la 1iere question de l’exercice 4 en remplaçant [ ; ] par [0; 2 ]
15
Chapitre 3
Le …ltrage linéaire ne saurait se passer de la transformée de Fourier, de plus des équations di¤e-
rentielles se transforment en équations algèbriques.
3.1.1 Généralités
Z +1
1
Dé…nition 3-1-1 : Soit x(:) un signal de L (R) ie jx(t)j dt < +1.
1
Z +1
2i f t
La transformée de Fourier de x(:) est : X(f ) = x(t)e dt:
1
Z +1
La transformée de Fourier inverse est : x(t) = X(f )e2i ft
df:
1
On note :
x(t) $ X(f )
Remarques :
Exemples 3-1-2 :
at 1 si t > 0
Exemple1 : x(t) = e "(t) où "(t) est le signal saut-unité.dé…ni par :"(t) =
0 ailleurs
(graphe voir page25)
1
X(f ) = (a > 0)
a + 2i f
16
( 1
1 si jtj <
Exemple2 : x(t) = rect(t) dé…ni par : rect(t) = 2
0 ailleurs
(graphe page 25)
sin( f )
X(f ) = = sin c(f ) LIRE sinus cardinal de f.
( f)
1 jtj si jtj 1
Explicitement x(t) est donné par : tri(t) =
0 ailleurs
Z 0 Z 1
2i f t 2i f t
X(f ) = X1 (f ) + X2 (f ) où : X1 (f ) = (1 + t)e dt et X2 (f ) = (1 t)e dt:
1 0
Une intégration par parties dans X1 (f ) donne :
1 1
X1 (f ) = [1 e2i f ]
2i f (2i f )2
Le changement de variable : t0 = t donne : X2 (f ) = X1 ( f ) .
Donc :
1
X(f ) = [e2i f 2+e 2i f
]
(2i f )2
1
= (ei f e i f 2
)
(2i f )2
sin( f )
=
f
Conclusion :
tri(t) $ sin2 c(f )
17
3.1.2 La convolution
Dé…nition 3-1-3 :
Soient x(:), y(:) deux signaux de L1 (R): Le produit convolution de x, y est
le signal z(:) dé…ni par
Z +1
z(t) = x( )y(t )d = x(t) y(t):
1
Propriétés 3-1-4 :
0
1- est commutative. ( prendre t = )
2- est l’élément neutre pour :
Propriétés 3-1-5 :
2 3
X1 (f ) + X2 (f ):(linéarité)
(1) x1 (t) + x2 (t) $ 1
6 7
6 (2) x(at) $ X( f ):(similitude) 7
6 jaj a 7
6 (3) x(t t0 ) $ 7
6 X(f )e 2i f t0 :(retard) 7
6 7
6 (4) e 2i f0 t x(t) $ X(f f0 ): 7
6 7
6 dn x(t) 7
6 (5) $ (2i f )n X(f ):(dérivation) 7
6 dtn 7
6 dX(f ) 7
6 (6) ( 2i t) x(t): $ 7
6 df 7
6 7
6 (7) (t) $ 1 et 1 $ (t): 7
6 7
6 (8) x(t) y(t) $ X(f ):Y (f ):(Convolution) 7
6 7
6 (9) x(t):y(t) $ X(f ) Y (f ): 7
6 7
4 (10) Si x(t) $ X(f ) alors x(t) $ X( f ): 5
(11) Si x(t) $ X(f ) alors X(t) $ x( f ):
Démonstrations :
Similitude
Z : on prend a > 0 (la démonstration sera la même pour a < 0)
+1
2i f t
Dans x(at)e dt posons = at , donc d = adt on obtient :
1
Z +1 Z
2i f t 1 +1 2i ( fa )
x(at)e dt = x( )e d
1 a 1
1 f
= X( )
a a
18
Terminer avec la récurrence.
Convolution : utiliser le théorème de Fubini et la séparation des intégrales dans une intégrale
double.
Z +1 Z +1 Z +1
2i f t 2i f t
x(t) y(t):e dt = x( )y(t ):e dt
1 1 1
Z +1 Z +1
2i f 2i f (t )
= x( )e y(t ):e d dt
1 1
Z +1 Z +1
2i f 2i f t
= x( )e d y(t):e dt
1 1
La 6 une intégration par parties (et avec les précautions d’usage) dans
Z +1
0
X (f ):e2i f t df
1
19
3.2 Transformée de Laplace.
Z
C’est une transformation intégrale de la forme : (t; u)x(u)du, et qui trouve ses applications dans
I
la résolution des équations-di¤érentielles, et dans la théorie du signal (surtout pour les signaux
causaux ie x(t) = 0 pour t < 0).
Et pour un signal causal, c’est une généralisation de la transformée de Fourier.
Dé…nition 3-2-1 :
at
Soit g : R ! R: Le réel a0 = inf fa 2 R=t 7! g(t)e 2 L1 (R+ )g ; s’appelle l’abscisse
de sommabilité de g.
Théorème 3-2-2 :
Si g est d’abscisse de sommabilité a0 alors la fonction :
C ! C
Z +1
G: existe sur le demi-plan ouvert P0 : Re(p) > a0 :
p 7! G(p) = g(t)e pt dt
0
Z +1
at
jG(p)j jg(t)j e dt
0
Z +1
a0 t
jg(t)j e dt est …ni
0
Dé…nition 3-2-5 : Z +1
pt
Soit g : R ! R; la fonction G : dé…nie par : G(p) = g(t)e dt, sur le demi-plan
0
ouvert P0 : Re(p) > a0 où a0 est l’abscisse de sommabilité de g, s’appelle la transformée
de Laplace de g. On note :
L G(p)
g(t)!
Exemples 3-2-6 :
20
1
1- g(t) = "(t), G(p) = ; Re(p) > 0:
p
n!
2- g(t) = tn , G(p) = n+1 ; Re(p) > 0:
p
1
3- g(t) = e t ( 2 C), G(p) = ; Re(p) > Re( ):
p
Remarque 3-2-7 :
On prend p = u + 2i f , et u > a0
Z +1
ut 2i f t
G(u + 2i f ) = g(t)e e dt
0
Z +1
ut 2i f t
= "(t)g(t)e e dt
1
ut
Posons h(t) = "(t)g(t)e , donc G(u + 2i f ) = H(f ):
3.2.1 Propriétés :
1. Linéarité : g1 (t) + g2 (t) !L G1 (p) + G2 (p), ; 2 C:
2. Retard : "(t t0 )g(t t0 )! L e pt0 G(p); t0 > 0
et e t g(t)!L G(p + ): :
3. g(t)!
L G(p):
1 p
4. Similitude : Pour L G( ):
> 0; g( t)!
dm G(p)
5. ( t)m g(t)!
L
dpm
Démonstrations :
N Le retard : d’abord
Z +1 Z +1
pt pt
"(t t0 )g(t t0 )e dt = g(t t0 )e dt
0 t0
Et
Z +1 Z +1
t pt (p+ )t
e g(t)e dt = g(t)e dt
0 0
= G(p + )
21
N
Z +1 Z +1
pt 1 ( p )t
g( t)e dt = g(u)e du
0 0
1 p
= G( ) ; ( u = t)
3.2.3 Dérivation
Théorème 3-2-9 :
Soit g une fonction continue sur ]0; +1[, et g(0+ ) existe. Si g 0 est continue par morceaux, et sa
transformée de Laplace existe (sur un domaine) alors :
g 0 (t)!
L g(0+ ) + pG(p):
22
3.2.4 Intégration
Théorème 3-2-11 : Z t
1
L G(p):
g( )d !
0 p
Z t
Démonstration : Posons h(t) = g( )d ; h0 (t) = g(t); et h(0+ ) = 0, on a g(t)!
L G(p)
0
Et g(t) = h0 (t) !
L pH(p), (car H(0) = 0), donc pH(p) = G(p): D’où le résultat.
3.2.5 Convolution
Théorème 3-2-12 :
0
Soient f , g deux fonctions causales d’abscisse de sommabilité respectifs a0 ; a0
Z +1
g(t) h(t) = g( )h(t )d ! L G(p)H(p):
1
00 00 0
sur le demi plan : Re(p) > a0 ; où a0 = max(a0 ; a0 ):
Démonstration : (indication)
pt p p(t )
g( )h(t )e = g( )e h(t )e :
Théorème 3-2-14
Soit g d’abscisse de sommabilité a0 :
1. lim G(p) = 0 pour Re(p) > a0 :
jpj!+1
23
3.2.6 Applications
1- Résolution d’équation-di¤érentielle
0
(E) y (t) + y(t) = "(t) "(t 1); et y(0+ ) = 0:
D’abord
p
1 1 1 e
L et "(t 1)!
"(t)! L e p donc "(t) "(t L
1)!
p p p
p
1 e 1 1 1
donc Y (p) = . De plus =
p(p + 1) p(p + 1) p p+1
1
et e t "(t)!
L :
p+1
00 0 3t
y (t) + 4y (t) + 3y(t) = e cos(t)
2- Résolution du système di¤érentielle : (S) 0
y(0) = y (0) =0
p p+3
L 2
cos(t) ! ; et e 3t cos(t) !
L
p +1 (p + 3)2 + 1
00 2 0 2 0
L p G(p) py(0) y (0) = p G(p): Et y (t) !
y (t) ! L pG(p) y(0) = pG(p):
Donc
p+3
Y (p) =
[(p + 3) + 1][p2 + 4p + 3]
2
1 1
= 2
= e 3t L 1 ( 2 )
[(p + 3) + 1][p + 1] (p + 1)(p 2)
1 1 p 2 1 1 p
Or = +
(p2
+ 1)(p 2) 5 p2 + 1 2
5p +1 5p 2
De plus :
p 1
cos(t)!L 2 , sin(t)!
L 2
p +1 p +1
1
et e2t !
L
p 2
D’où
3t
e
y(t) = [ cos(t) 2 sin(t) + e2t ]
5
24
Trajectoire d’une particule chargée dans un champs électromagnétique
On considére une particule de charge électrique q, de masse m placée dans un champs électroma-
! !
gnétique ( E , B )
! ! ! !
avec E = E0 k et B = B0 i ; E0 ; B0 sont des constantes.
On suppose qu’à l’instant t = 0 la particule est au repos au point O origine du repère.
!
! ! dM (t)
Soit M (t) sa position et v(t) = sa vitesse à l’instant t.
dt
!
d2 M (t) ! ! !
D’abord = q E + v(t) ^ B c’est à dire :
dt2
0 00 1 0 1 0 0 1 0 1
x 0 x 0
m @ y 00 A = q @ 0 A + q @ y 0 A ^ @ B0 A
z 00 E0 z0 0
On8 obtient ainsi le système di¤érentiel aux trois inconnues x(t); y(t) et z(t) :
< mx00 + qB0 z 0 = 0
(S) my 00 =0
: 00 0
mz qB0 x = qE0
mx00 + qB0 z 0 = 0
On résout donc le système di¤érentiel (S1 )
mz 00 qB0 x0 = qE0
25
La résolution du système à 2 équations et 2 inconnues donne :
q 2 E0 B0 qE0
X(p) = et Z(p) =
q 2 B02 q 2 B02
m2 p2 p2 + mp p2 +
m2 m2
qB0 qE0
Posons : ! = et = donc :
m m
!
X(p) = et Z(p) =
p2 (p2 + !2) p (p2 + ! 2 )
Comme :
! 1 1 1 1
= 2 2 et =
p2 (p2 2
+! ) ! p p2 + !2 p (p2 + !2) ! p p2 + !2
De plus :
! p
L 2
sin(!t)! 2
et cos(!t)!
L 2
p +! p + !2
D’où :
26
3.3 3.3 Transformée de Laplace inverse :
Soit B une droite parallèle à l’axe imaginaire d’abcisse x > x0 . Cette droite est appelée droite de
Bromwich.
27
Chapitre 4
4.1 Généralités :
4.1.1 Historique
Entre 1830 et 1840 le Morse a été inventé par Cook et Wheatstone , et de 1895-1896 Popov et
Marconi ont mis en prtique la première liaison radio. En 1876 Bell a inventé le téléphone. Le début
du 20eme siècle était la genèse de l’électronique qui avait permis la détection des faibles signaux
par (Fleming et Lee de Forest) entre 1904 et 1907.
Les premiers travaux en théorie du signal dataient de 1930 avec (Wiener et Khintchine), l’invention
du transistor en 1948 suivit 10 ans plus tard par la mise au point de la technologie des circuits
intégrés.
Dans l’évolution des idées sur les problèmes de transmission de l’information, un rôle fondamental
a été joué par les œuvres de Norbert Wiener et de Claude Shannon, .
Actuellement. C’est une discipline en plein essor.
4.1.2 Dé…nitions
Dé…nitions 4-1-1 :
Signal : Phénomène vecteur de l’information. Exemples signaux éléctriques, sonores....
Théorie du Signal : Discipline mathématique qui fourni le bagage nécessaire pour l’interprétation
d’un signal.
Traitement du Signal : Discipline technique qui s’appuyant sur la théorie du signal et les moyens
éléctroniques fabrique le matériel nécessaire pour l’interprétation et la transmission d’un signal.
28
Schéma d’une communication.
29
3-Signal Rampe. r(:)
4-Rect ; Tri
5-Peigne de Dirac.
30
4.2 Classi…cation des signaux
Exemple :
Le nombre de piétons qui traversent un passage clouté donné (…xé). On trouvera toujours quelques
uns qui traverseront, alors que le feu est vert !
La représentation temporelle d’un signal est sa modélisation par une fonction du temps.
Exemple :
L’intensité du courant éléctrique dans un circuit R-C ;
Dans ce cadre on distingue les signaux de durée …nie ; d’énergie et puissance …nies ......
On dit d’un signal x(:) qu’il est de durée …nie si x(t) = 0 en dehors d’un intervalle de temps …ni.
Si Wx (resp Px ) est …nie on dit que le signal est d’énergie …nie (resp de puissance …nie).
Remarque :
En général un signal aléatoire ou stochastique est modélisé par une variable ou processus aléatoire.
C’est la représentation du signal par ses spectres des amplitudes et des phases.
Un signal est à bande limitée si X(f ) = 0 en dehors d’un intervalle de fréquences …ni.
31
(iii) Egalité de Parseval Z Z
+1 +1
2
jx(t)j dt = jX(f )j2 dt:
1 1
(i) Un …ltre linéaire est caractérisé par sa réponse impulsionnelle h(t) qui est la sortie qui
correspond à l’entrée (t):
32
On note i(t) l’intensité du courant qui traverse le circuit à l’instant t .
La loi d’Ohm permet d’écrire :
Vb Vd = Ri(t) = Vb Va (Vd Va )
= e(t) (Vd Vc ) = e(t) s(t)
Donc :
e(t) s(t) 1
i(t) = mais Vd Vc = s(t) = q(t)
R C
De plus :
dq ds ds e(t) s(t)
i(t) = =C donc : C =
dt dt dt R
D’où :
ds
e(t) = s(t) + RC
dt
Par la transformée de Fourier on déduit que :
Posons :
1
H(f ) = donc : S(f ) = H(f )E(f )
1 + (2i f )RC
Le ciruit est un …ltre linéaire de fonction de transfert H(f ).
D’après l’exemple 1 (transformée de Fourier) on déduit que :
at 1
h(t) = ae "(t); où a = :
RC
33
Un …ltre linéaire est stable si et seulement si
Z +1
jh(t)j dt est …ni.
1
34
Chapitre 5
Notions de distribution :
Les distributions permettent de généraliser la notion de dérivée pour des entités qui ne sont pas
des fonctions au sens classique du terme, et donc de résoudre certains problèmes physiques. Il
existe di¤érents types de distributions correspondant aux di¤érents espaces de fonctions test.
Soit un ouvert de R. On note D( ) l’espace des fonctions de classe C 1 à support compact dans
:
Théorème 5-1-2 :
Si ' 2 D( ) et si g est une fonction sommable à support borné, alors :
Z +1
(t) = g( )'(t )d
1
Dé…nition 5-1-3 :
Une distribution sur un ouvert de R est une forme linéaire continue sur l’espace D( ). Les
0
distributions forment un espace vectoriel noté D ( ).
Une distribution T est donc une application de D( ) dans C faisant correspondre à une fonction
test ' un nombre complexe noté hT; 'i.
C’est la valeur prise par la distribution sur la fonction '.
Si ('n ) converge vers ' dans D( ) alors hT; 'n i converge vers hT; 'i
Exemple1 (Masse de Dirac) : A tout point t0 , on associe la forme linéaire dé…nie par :
35
1 1
Exemple2 (Valeur principale de ) vp( ) dé…nie par :
t t
Z
1 '(t)
vp( ); ' = lim+ dt
t !0 t
jtj>
Z+1
'(t) '( t)
= dt
t
0
On distingue deux sortes de distributions, celles qui sont régulières et les singulières
Remarque 5-1-5 :
Dé…nition 5-1-6 :
2- Les distributions qui ne s’écrivent pas sous la forme Tg pour g localement sommable sont dites
singulières.
5.1.2 Exemples :
36
5.2 Dérivation des distributions
Dé…nition 5-2-1 :
0
La dérivée T d’une distribution T de D0 est la distribution dé…nie par :
D 0 E
T ; ' = hT; '0 i :
Exemple 5-2-2
D E Z +1
0 0
H ;' = hH; ' i = "(t)'0 (t)dt
1
Z +1
= '0 (t)dt = '(0)
0
= h ; 'i :
0
Donc H = .
Dé…nition 5-2-3 :
Soient indé…niment dérivable et T une distribution. Le produit T est la distribution dé…nie
par :
hT ; 'i = hT; 'i :
Pour les distributions régulières :
Z +1
hT g ; 'i = (t)g(t)'(t)dt
1
Z +1
= g(t)( (t)'(t))dt
1
= hTg ; 'i :
A partir de là on dé…nit le produit d’une distribution T quelconque par une distribution régulière
Tg , de la façon suivante : Pour tout ' 2D
37
Propriété 5-2-4 :
T distribution quelconque, indé…niment dérivable :
0 0 0
(T ) = T +T
hS T; u vi = hS; ui hT; vi :
38
Remarque 5-2-10 :
Pour les distributions régulières on a : pour f ; g deux fonctions localement sommables, h =
f g 2D(R2 ).
Si ' est indé…niment dérivable, à support borné sur R2 alors :
ZZ
hTf Tg ; 'i = f (x)g(y)'(x; y)dxdy
R2
Z +1 Z +1
= f (x)( g(y)'(x; y)dy)dx
1 1
= hTf (x); hTg (y); '(x; y)ii
On doit véri…er que la fonction : x 7 ! hTg (y); '(x; y)i 2D et que la fonctionnelle ainsi dé…nie est
linéaire et continue.
Exemple 5-2-11 :
Produit tensoriel des distributions et H
h H; 'i = h (x); hH(y); '(x; y)ii
Z +1
= (x); '(x; y)dy
0
Z +1
= '(0; y)dy:
0
Propriété 5-2-12 :
Le produit tensoriel de deux distributions est :
commutatif, associatif, continu (ie si (Tk )k ! T alors Tk S!T S)
Z +1
hTf g ; 'i = (f g)(t)'(t)dt
1
Z +1 Z +1
= '(t)( f (t s)g(s)ds)dt
Z Z1 1
= f (x)g(y)'(x + y)dxdy:
R2
39
Propriétés 5-2-14 :
Soit T une distribution.
1. T =T = T:
2. Ta = a T = T a
3. Pour tout m 2 N, T (m) = (m) T = T (m)
.
4. est associative et commutative.( dans les cas où les convolutions existent)
40
1. Si ' 2 S alors '0 l’est aussi.
2. Si ' 2 S alors t 7! tp '(q) (t) est sommable.
3. Si ' 2 S alors F(') existe et est dans S.
On dit que ('n )n converge vers ' dans S si et seulement si pour tout p, q de N , la suite de
(q)
fonction (tp 'n (t))n converge uniformément vers la fonction : t !
7 tp '(q) (t):
Dé…nition 5-3-6 :
0
Le dual S de S s’appelle l’ensemble des distributions tempérées.
Proposition 5-3-7 :
0
Si T 2 S alors F(T ) aussi.
Exemple 5-3-8 :
0
On véri…e que : 2 S .
Soit ' 2 S,
Donc F( ) = 1:
2i f a
De même F( a ) = e :
Proposition 5-3-9 :
0 0
La transformée de Fourier F est une bijection de S ! S ; de plus :
1 1
F F(T ) = FF (T ) = T:
41
Chapitre 6
6.1 Généralités
Il y a deux sortes de signaux discrets : ceux qui le sont de nature, et les signaux discretisés
(échantillonnés)
6.1.1 La transformée en z
Pour une suite au lieu de la notation uk on utilisera u(k). La raison est que pour un signal
échantillonné u(k) est en fait u(kTe ) où Te est le pas de discretisation.
Dé…nition 6-1 :
La transformée en z de u(k) est :
X
+1
k
U (z) = u(k)z ,z2C
k=-1
Proposition 6-2 :
Exemples 6-3
k 1
1-u(k) = fa0 si k 0
si k <0 U (z) = 1
si 0 < a < jzj :
1 az
si k 0 1
2-u(k) = f0 ak si k <0 U (z) = 1
si 0 < jzj < a .
1 az
3-u(k) = ak pour tout k: U (z) n’existe pas.
42
k 1 1
4-u(k) = fabk si k 0
si k <0 U (z) = 1 1
si a < jzj < b:
1 az 1 bz
propriétés 6-4 :
1. Linéarité : u(k) + v(k) ! U (z) + V (z).
2. Translation : u(k + 1) ! zU (z) et u(k + m) ! z m U (z):
dU (z)
3. Multiplication par k : ku(k) ! z :
dz
4. ak u(k) ! U ( az ) si a 6= 0:
k0
5. u(k k0 ) !z U (z) et u(k) v(k) ! U (z)V (z):
Remarque 6-5 :
a- Par analogie avec le cas continu, la transformée de Fourier de u(n) est U (e2i f ):
43
Chapitre 7
Dé…nition 1.
1- Montrer que :
(a) 'xy ( ) = x( ) y( ) .
44
0
Changement de variable t = t; donne
Z +1
0 0
h( ) y ( ) = x(t0 ):y +t dt
1
= 'xy ( ):
= 'xy ( ):
(Sol) Si x; y sont réels alors : 'xy ( ) et 'yx ( ) sont réelles. ('xy ( ) = 'xy ( ))
(Sol) TF inverse :
Z +1
'xy ( ) = xy (f )e2i f
df
1
Z +1
= X(f ):Y (f ) e2i f
df;
1
d’où
Z +1
'xy (0) = X(f ):Y (f ) df
1
Z +1
= x(t):y (t) dt. ( )
1
45
(ii) x (f ) = jX(f )j2 (Formule de Parseval).
4- Applications :
at
4-1 Déterminer 'x ( ) puis x (f ) pour x(t) = e "(t) , a > 0:
(Sol) D’abord x(t) est réel donc 'x (:) est paire, on prend donc 0:
Z +1
'x ( ) = x(t):x (t + ) dt
1
Z +1
at a(t+ )
= e e dt
0
e a
= .
2a
Par parité
aj j
e
'x ( ) = pour 2R
2a
1
x (f ) = jX(f )j2 , or X(f ) = (cours) donc
a + 2i f
x (f ) = jX(f )j2
1
= 2
a + 4 2f 2
Z +1
4-2 Calculer I = sin c3 (f )df .
1
46
(Sol) sin c3 (f ) = sin c(f ) sin c2 (f ); de plus :
Donc d’après ( ) Z +1
3
I= rect( )tri( )d =
1 4
Avec un schéma, on calcule des aires de carrés et triangles.
47