100% ont trouvé ce document utile (2 votes)
867 vues56 pages

Cours Traitement de Signal

Ce document traite du traitement du signal. Il présente les concepts de base du traitement du signal tels que la classification et la modélisation des signaux ainsi que quelques signaux élémentaires. Le document est destiné à un cours de licence et aborde divers sujets liés au traitement du signal analogique.

Transféré par

BASMA MIRHISS
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (2 votes)
867 vues56 pages

Cours Traitement de Signal

Ce document traite du traitement du signal. Il présente les concepts de base du traitement du signal tels que la classification et la modélisation des signaux ainsi que quelques signaux élémentaires. Le document est destiné à un cours de licence et aborde divers sujets liés au traitement du signal analogique.

Transféré par

BASMA MIRHISS
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Cours de Traitement

Analogique du Signal

Licence de l’Education

1
Chapitre 1 : Introduction au traitement du signal
Et Formalisme Mathématique

Le traitement du signal est une discipline qui a pour objectif d'interpréter les signaux. On
entend comme signal toute représentation physique d'une information transportée d'une
source vers un destinataire.

1.1 Quelques généralités


1.1.1 Modélisation des signaux
Un signal est une grandeur physique qui peut être par exemple :
- des ondes sismiques,
- des images satellites,
- des sons musicaux,
- la parole,
- un électrocardiogramme,
- des images satellite (le traitement d'images est une extension du traitement du signal à 2
dimensions)...
Un signal est émis par un système physique en évolution et obtenu à l'aide d'un capteur.
Les grandeurs physiques sont représentées par des fonctions s(t) à valeurs réelles d'une
variable t (figure 1.1). Dans la pratique, ces signaux ont la particularité d'être :
- à énergie, à amplitude et à spectre bornés,
- causal ( s(t )  0  t  0 ).
- Par contre, sur le plan théorique, les signaux seront représentés par des fonctions parfois
:
- à énergie et à spectre infinis,
- avec des discontinuités,
- définies sur l’ensemble de réel R,
- à valeurs complexes.
1.1.2 Qu'est-ce que le traitement du signal ?
Le traitement du signal a pour but d'étudier l'information portée par les signaux. Il s'appuie sur
une science fondamentale;: la théorie du signal. Cette science a pour objectif la description
mathématique des signaux et de mettre en évidence les principales caractéristiques du signal
et d'analyser les modifications subies par celui-ci lors de la transmission et le traitement.
On trouve des applications du traitement du signal dans de nombreux domaines tels que :
- les télécommunications,
2
- le traitement audio,
- le radar, le sonar,
- l'automobile...

Fig. 1.1 Signal physique.


Il a pour but de résoudre les problèmes suivants :
- Comment extraire l'information d'un signal ?
- Comment transmettre l'information d'un signal sans la dégrader ?
- Comment détecter le signal utile noyé dans le bruit ?
- Comment filtrer le signal pour l'extraire du bruit ?

Pour cela, il utilise les outils suivants :


- L'analyse spectrale (série de Fourier, Transformée de Fourier ...),
- les filtres,
- la modulation et la démodulation,
- l'analyse statistique...
Ce cours de licence d’éduction de traitement analogique du signal (signal à amplitude et temps
continus) a pour objectifs :
- Classer les différents types de signaux,
- Présenter les bases mathématiques de la représentation fréquentielle,
- Comprendre les principes du filtrage, A
- Analyser des signaux aléatoires,
- Comprendre les principes de la modulation.

1.2 Classification des signaux


Avant d'étudier un signal, il faut s'intéresser à ses propriétés de base a n d'utiliser les outils
adéquats. Pour ce faire, on classe les signaux en différentes catégories. Il existe 4 grandes
classifications :
- la classification temporelle,
- la classification énergétique,
- la classification spectrale,
3
- la classification morphologique.

1.2.1 Classification temporelle des signaux


Cette classification (Figure 1.2) est basée sur l'évolution du signal en fonction du
temps. On distingue 2 classes de signaux suivant leur évolution temporelle.
Les signaux déterministes dont l'évolution temporelle est parfaitement décrite par un
modèle mathématiques. Par opposition à ces signaux, il existe les signaux aléatoires
(probabilistes, stochastiques) dont l'évolution est imprévisible.
Parmi les signaux déterministes on distingue :
1. les signaux périodiques qui obéissent à la forme : T / t : s(t )  s(t  T ) .
2. Exemple: les signaux sinusoïdaux : s(t )  Asin(t   ) .
3. les signaux non périodiques : les signaux pseudopériodiques (somme de sinusoïdes de
périodes différentes) . exemple : s(t )  A1cos(1t  1 )  A2cos (2t  2 ) :.
4. les signaux transitoires dont l'existence est limitée dans le temps.
 t1 , t2 tels que s(t )  0 si t < t1ou t  t2
Parmi les signaux aléatoires on distingue :
1. les signaux stationnaires : (les résultats de leur analyse statistiques sont indépendants du
temps) :
- ergodiques si il est identique de faire la moyenne statistique à un instant donné sur différents essais que
de faire la moyenne temporelle sur une seule réalisation, ses statistiques,
- non ergodiques.
2. les signaux non stationnaires.

1.2.2 Classification énergétique


Définition 1:
Soit x(t) un signal continu, on appelle énergie totale du signal la quantité :

Ex  

x(t) dt
2
- -

Remarque : Si Ex existe et est finie, on dit alors que le signal est à énergie finie.

 x(t) dt   

Autrement dit :
2
-- 

Définition 2 : On appelle puissance moyenne totale d’un signal x(t) , la quantité :

4
Pour un signal sT0 périodique de période T0, la puissance moyenne est calculée sur une période,

Fig. 1.2 Classification temporelle des signaux.

Si cette intégrale satisfait : 0 < Px < +∞, on dit que le signal est à puissance moyenne finie.
Classification
Propriété 1
- Un signal à puissance moyenne finie non nulle a une énergie totale infinie.
- Un signal à énergie finie a une puissance moyenne nulle.
Ces deux grandeurs permettent donc de classer les signaux. Les signaux à énergie finie
correspondent aux signaux transitoires et les signaux à puissance moyenne infinie
correspondent aux signaux périodiques ou quasi-périodiques.
1.2.3 Classification spectrale
Un signal peut être classé suivant la distribution de son énergie ou de sa puissance en
fonction de la fréquence (spectre du signal). On appelle largeur de bande notée ∆F le
domaine des fréquences occupé par le spectre (figure 1.3).

5
Fig. 1.3 Classification morphologique des signaux.
∆F = Fmax − Fmin
( )
Notons : Fmoy = max min
.

On distingue 2 types de signaux,



- les signaux à bande étroite avec : est très petit ( max min),

- les signaux à large bande avec est très grand ( max ≫ )
min

Les signaux à bande étroite peuvent être classés en fonction du domaine de variation de Fmoy :
Fmoy < 250kHz : basses fréquences (BF),
250kHz<Fmoy < 30MHz : hautes fréquences (HF),
30MHz<Fmoy < 300MHz : très hautes fréquences (VHF),
300MHz<Fmoy < 3GHz : ultra hautes fréquences (UHF),
Fmoy > 3GHz : super hautes fréquences (SHF).

1.2.4 Classification morphologique


On distingue les signaux à variable continue des signaux à variable discrète ainsi que ceux
dont l'amplitude est discrète ou continue (fig 1.4). On obtient ainsi 4 classes de signaux :
- les signaux analogiques dont l'amplitude et le temps sont continus,
- les signaux quanti és dont l'amplitude est discrète et le temps continu,
- les signaux échantillonnés dont l'amplitude est continue et le temps discret,
- les signaux numériques dont l'amplitude et le temps sont discrets.

6
Fig. 1.4 Classification morphologique des signaux.

1.3. Quelques signaux élémentaires


Afin de simplifier les opérations ainsi que les formules obtenues, certains signaux
fréquemment rencontrés en traitement du signal disposent d'une modélisation propre.
1.3.1 Fonction signe
On définit la fonction signe ( g 1.5) de la façon suivante :
−1 <0
( )= 0 =0
+1 >0

Par convention, on pose : (0) = 0.

Fig. 1.5 Fonction signe


1.3.2 L'échelon unité ou fonction de Heaviside
On définit l'échelon unité (fig 1.6) de la façon suivante :
0 <0
1
( )= =0
2
+1 >0
7
Fig. 1.6 Echelon unité
Par convention, on prend : (0) = .

Remarque : il serait préférable dans certains cas de poser :


(0) = 1
L'échelon unité permet l'étude des régimes transitoires des filtres et permet de rendre causal un
signal.
1.3.3 Fonction rampe
On définit la fonction rampe ( fig 1.7) par :
r(t) = t ∗ u(t) = u(x)dx
où : u(t) est la fonction échelon

Fig. 1.7 Fonction rampe

1.3.4 Le signal "porte ou fenêtre" ou rectangle


Soit T un réel positif, on dé nit le signal porte (ou rectangle) comme suit :

( ) = 1 − 2 < < +2
0
La fonction porte ( ) est un signal transitoire de durée T.

8
Fig. 1.8 Fonction porte ou fenêtre.
1.3.5 Impulsion de Dirac
L'impulsion de Dirac notée δ(t) est définie comme la limite de la fonction rectangle lorsque T
tend vers 0:
− < <+
( ) = lim ( ) = lim
→ →
0
+∞ =0
=
0
Cet être mathématique se présente comme un pic au point 0 et nul presque partout.
On ne connait pas de fonction mathématique qui présente cette description. Autrement dit il
n’existe pas de fonction mathématique qui est nulle presque partout et qui présente une valeur
infinie au point 0. C’est pourquoi on attribue à cet être mathématique le nom de la distribution
de Dirac ou tout simplement l’impulsion de Dirac.
De plus, cette distribution de Dirac δ(t), malgré qu’elle presque partout nulle et discontinue au
point 0, elle est intégrable et son intégrale vaut 1 !!!!!.
En effet :

1 1 1
( ) = lim ( ) = lim ( ) = lim 1
→ → →

= lim =1

Au sens de Riemann, cette intégrale n’a pas de sens puisque δ(t) est discontinue au point 0 et nulle
presque partout.. Selon Riemann δ(t) n’est pas une fonction.
Jean Paul Dirac et Laurent Schwartz introduisent ces êtres mathématiques pour la première fois
pour modéliser un certains nombres de questions, en physique, qui sont restées suspendues pour
aussi longtemps. Paul Dirac et Laurent Schwartz appellent ces êtres mathématiques des
Distributions ou fonctions généralisées.
Les distributions permettent de modéliser des phénomènes qui se passent de manière très brève
dans le temps.
Remarque :
9
 nous avons construit la distribution de Dirac δ(t) à partir de la fonction rectangle.
 δ(t) peut aussi être considéré comme la dérivée de la fonction échelon, En effet :
(
( ) =

Dérivée par rapport au temps

Fonction rectangle Impulsion de Dirac

1.3.6 Impulsion de Dirac translatée de t0.


On appelle impulsion de Dirac translatée de t0 une version décalée de ( ) vers la
gauche ou vers la droite. On la note : ( − ) , avec supérieure ou inférieure à 0.

Propriété de la distribution de Dirac


( )
+∞
1. Nous avons montré que : −∞
=1

2. Soit ( ) é é , alors :
( ) ( )= (0) ( )
Car ( ) est multiplié par ( ) qui est nul presque partout sauf en 0 où il vaut ( ).

3. ( ) ( ) = (0)
En effet, le produit ( ) ( ) est nul presque partout sauf en 0 où il vaudra (0) ( ).
Donc, on peut écrire :

( ) ( ) = (0) ( ) = (0) ( ) = (0) ∗ 1 = (0)

( ) ( ) = (0)

10
4. ( ) ( − ) = ( ) . cette propriété découle la propriété 3.
( ) ( − ) est un produit nul sauf au point où il vaudra ( ) ( − ).
Il s’en suit donc :
( ) ( − ) = ( ) ( − )

= ( ) ( − )

= ( ) ( ) avec la changement de variable = −


= ( )
Cette impulsion servira par la suite pour l'étude des spectres des signaux.
I.3.7. Peigne de Dirac :
a - définition :
On appelle peigne de Dirac Ш( ) une suite infinie d’impulsions de Dirac espacées régulièrement
d’un temps T (période).

Ш( )

…. -4T -3T -2T -T 0 T 2T 3T 4T …


On peut écrire :

Ш( ) = ( − )

b) produit d’une fonction par un peigne de Dirac : Echantillonnage


Soit maintenant une fonction f(t) définie sur un intervalle I de R.

Ш( )

…. -4T -3T -2T -T 0 T 2T 3T 4T …

x ( )

= ( )Ш( )

…. -4T -3T -2T -T 0 T 2T 3T 4T …

11
( ). Ш( ) = ( ). ( − )

= ( ). ( − )

= ( ). ( − )

Les ( )) s’appellent les échantillons de f(t) aux instants T, 2T…..


Le produit f(t). Ш(t) est appelé opération d’échantillonnage qui est un moyen pour discrétiser les
signaux avant leur numération (voir numérisation des signaux).
1.3.7 Fonction sinus cardinal
La fonction sinus cardinal est définie par (figure : 1.10) :
sin( )
( )=

( )=
( )
Il existe une autre définition couramment utilisée : (définition 2).

Quand une confusion pourra être crainte, on notera par la suite :


( )= ( )=
( ) ( )
et

La seconde version de la fonction est parfois nommée sinus cardinal normalisé.


Cette fonction joue un rôle très important en traitement du signal.

Fig. 1.10 Fonction sinus cardinal normal et normalisée

12
Propriétés :
1. lim ( ) =1

En effet ;
 
lim ( ) = lim = lim = lim ( )| = cos( ) | =1
→ →  →  →

( )
sin 
2. Nous admettons que : = 1 c’est-à-dire 
=1

=
sin
Donc :
3. 2
( ) = 1 , avec toujours la fonction sinus cardinal normalisée.

1.4 Notion de corrélation et intercorrélation


1.4.1 Cas des signaux à énergie finie
Définition
La fonction d'autocorrélation  () d'un signal x(t) à énergie finie est définie par :

 () = ( ) ∗
( − ) Avec ∗
est le conjugué de .

La fonction d'intercorrélation de deux signaux x(t) et y(t) à énergie finies est définie par :
+∞ +∞
 ( ) = ( ) ∗(
− ) = ( ) ∗
( − )
−∞ −∞

Remarque :

 (0 ) = ( ) ∗( ) | ( )|
+∞ +∞
- −∞
= −∞
qui représente l’énergie du signal.
L’autocorrélation d’un signal, au point 0 , est identifiée à son énergie.
- L’autocorrélation est une manière de calculer l’énergie d’un signal.

1.4.2 Cas des signaux périodiques


Définition :
Dans le cas d'un signal périodique x(t) de période T0, on définit l'autocorrélation par :

1 + 0
2
 () = lim ( ) ∗(
− )
0 →+∞ 0 − 0
2

Pour deux signaux périodiques x(t) et y(t) de période T0, la fonction d'intercorrélation
s'écrit :

1 1
 () = ( ) ∗(
− ) = ( ) ∗
( − )
→ →

13
Remarque : Si x(t) et y(t) ont des périodes différentes T1 et T2, on prend comme valeur pour
T0, le plus petit multiple commun (ppmc) entre T1 et T2.

1.4.3 Signification
La fonction d'autocorrélation traduit la similitude d'un signal au niveau de la forme en
fonction du décalage temporel t. C'est une mesure de la ressemblance du signal avec lui-même
au cours du temps. Par exemple, si le signal est périodique mais noyé dans du bruit, sa fonction
d'autocorrélation le sera aussi mais permettra de détecter sa périodicité. Intuitivement, la
corrélation est maximale si on ne décale pas temporellement le signal.
Propriétés
1. Si x(t) est réel, alors  () est paire : ( (−) =  ().

2. ∀τ  ( ) ≤  (0) = qui est l’énergie du signal

Application :
Considérons une impulsion x(t) émise d’une source visualisé sur un écran et réfléchie sur une
cible avant de revenir à son point de départ. On observe le signal de retour y(t) sur le même
écran pour détecter le retour de l'impulsion. Les deux signaux x(t) émis et y(t) réfléchi sont
séparés sur le même écran d’un temps t0. Sachant que le signal parcourt une distance de 2d pour
faire un aller – retour (la distance de la source à la cible est d). On déduit la distance d de la

cible par : = ( avec la célérité de l'impulsion).

En pratique, on calcule la fonction d'intercorrélation entre le signal émis x(t) et le signal reçu
y(t). Le maximum de cette fonction correspond à la similitude maximale entre les 2 signaux et
donc au retard t0 (la ressemblance est maximale). On peut également considérer que
l'intercorrélation consiste à déplacer le signal émis jusqu'à ce que l'on ait un maximum qui
correspondra au retard t0. Tout se passe comme si on fait glisser progressivement le signal
émis de t0 jusqu’à rattraper le signal reçu. La ressemblance est alors fonction de ce décalage
temporel. Elle est maximale lorsque ce décalage vaut t0 .

Exercice d’application :
Soient deux signaux réels x(t) et y(t) identiques à un retard et un affaiblissement près:
( ) = ( − ).
Connaissant l'énergie de x(t), déterminer l'affaiblissement a et le retard t0.

14
Chapitre 2 : Analyse de Fourier

Jean-Baptiste Fourier (1768-1830)


 Il est né le 21 mars à Auxerre.
 Il est le douzième des quinze enfants de sa petite famille
 C’est à Grenoble que Fourier réalise l’essentiel de ses travaux les plus importants.
 Son obsession est le problème de la chaleur, c’est-à-dire l’étude de l’évolution de la
température d’un corps au cours du temps.
 De 1802 à 1807, il trouve l’équation de la propagation de la chaleur dans les cors solides,
puis trouve une méthode pour la résoudre, ce qu’est maintenant l’analyse de Fourier.
I. Analyse des signaux périodiques : Série de Fourier
I.1. Séries trigonométriques :
I.1.1. Définition :
On appelle série trigonométrique réelle, toute série de fonction de la forme :

( ) = + ( ( )+ ( ))

Avec :
ω = = 2πf
a ,b ∈ R
s (t) est appelée aussi série de fourrier.
La question la plus intéressante est : est- ce que la série s (t) est toujours convergente sur R ?
La réponse est contenue dans le Théorème suivant :
Théorème :

si les séries numériques an et bn sont absolument convergentes alors la série s (t)


n>1 n>1

trigonométrique est normalement convergente sur R; donc absolument et uniformément


convergente sur R. La série s (t) converge alors forcément vers une fonction périodique s(t)
càd :
lim ( )= ( ) s(t) = s(t + T ).

15
Démonstration :
Nous avons :

| (t)| ≤ |a | + |a cos(nω t)| + |b sin(nω t)|

| ( )| ≤ | |+ | |+ | |

D’où le résultat suivant :

si |a | et |b | sont sont convergentes, il en est de même que (t)

et alors :
lim ( )= ( )

Il reste à montrer que s(t) est périodique, en effet ;

( + ) = lim ( )= lim + ( ( + )+ ( + ))
→ →

= lim + ( ( )+ ( ))

= lim ( )

= ( )
I.1.2. Théorème réciproque ou Théorème de Fourier :
On pourrait s’interroger de façon réciproque sur une fonction périodique, si elle pourrait se
mettre sous une forme de série trigonométrique.
Autrement dit : une fonction périodique s(t) admet-elle une décomposition en série de Fourier ?
La réponse est affirmative si la fonction vérifie les conditions de Dirichlet
I.1.3. Conditions de Dirichlet :
Toute fonction s(t) réelle, périodique de , continue par morceau sur les intervalles [ a ; a+ ]
et qui satisfait aux conditions suivantes , appelés condition de Dirichlet :
i) Les discontinuités de s(t) se elles existent sont de 1ér espèce (les limite à droite et à
gauche existent et sont finies) et sont en nombre fini dans tout intervalle fini [a ;a+ ].
ii) s(t) admet en tout point une dérivée à gauche et une dérivée à droite ;
est alors développable en série de fonctions sinusoïdales (séries de Fourier).
Donc :

( )= a + ( ( )+ ( ))

Si s(t) est continu sauf peut- être en un point alors :


16
( )= a + ( ( )+ ( )) là où s(t) est continue

et
( )+ ( )
= a + ( ( )+ ( )) là où s(t) est discontinue en t
2

Ce développement des fonctions périodiques (vérifiant les conditions de Dirichlet) sous forme
de séries trigonométriques est connu sous le théorème de Fourier.

I.2. Formes du théorème de Fourier : Décomposition en séries de Fourier


Il existe 3 formes de développement en série de Fourier.
Nous nous intéressons ici aux signaux périodiques de période T0, c'est-à-dire les signaux
s(t) vérifiant : ∃ / ∀ ∈R ( ) = ( + ).

I.2.1. Formes trigonométrique


I.2.1.1. Théorème 1 : Tout signal périodique x(t) de période T0 Tpeut s'écrire sous la forme
0

d'une somme infinie de sinusoïdes de fréquence multiple de = :

( )= + cos(2 )+ sin(2 )

Où :

- = ( ) est appelée valeur moyenne ou composante continue. Pour

obtenira , Il suffit d’intégrer membre à membre l’équation (2.1) entre .

- = ( ) cos(2 )dt ∀ ≥ 1 ; Pour obtenir ≥ 1, il suffit de

Multiplier l’équation (2.1) membre à membre par cos(2 ) puis intégrer les deux membres

entre .

- = ( ) sin(2 ) ∀ ≥ 1, Pour obtenir ≥ 1, il suffit de

Multiplier l’équation (2.1) membre à membre par sin(2 )puis intégrer les deux membres

entre

I.2.1.2. Vocabulaire :

 = ( ) est appelée valeur moyenne ou composante continue de x(t),

17
 f0 est la fréquence fondamentale,
 les n f0 sont les harmoniques d'ordre n .

Remarque:
En théorie, ce théorème n'est pas tout à fait vrai. En effet, pour qu'une fonction périodique
x(t) soit décomposable en série de Fourier au point t0, il faut que celle-ci vérifie les
conditions de Dirichlet :
- s(t) admet une limite à droite et à gauche en t0 ,
lim

( )= ( ) lim ( ) = ( ) existent

- s(t) admet une dérivée à droite et à gauche en t0 ,


( )− ( ) ( )− ( )
lim = ( ) lim = ( )
→ →

En électronique, ces conditions sont vérifiées pour la majorité des signaux périodiques
rencontrés.
I.2.1.3. Fonction paires et impaires :
 Fonctions paires :
Si s(t ) est une fonction paire s(t )  s(t ) , alors tous les termes bn sont nuls.

 T T 
En effet ; on choisit un intervalle d’étude symétrique par rapport à 0, soit  , .
 2 2 
Calculons pour ≥ 1

= ( ) sin(2 ) . On pose :  = (2 )

2
= ( ) sin(  )

2 2
= ( ) sin(  ) + ( ) sin(  )

En effectuant un changement de variable = − dans la première intégrale, il vient alors :

2 2
= (− ) sin(  (− )) + ( ) sin(  )

2 2
=− ( ) sin(  ) + ( ) sin(  ) = 0

18
La décomposition se réduit alors à :

( )= a + ( ))

I.2.1.4. Fonction impaires :


Si ( ) est impaire ( (− ) = − ( )) alors tous les coefficients sont nuls.

En effet = ( ) ( ) + ( ) ( )

Posons u  t

= − ( ) ( ) + ( ) ( ) =0

La série s’écrit alors simplement : ( )= ∑ ( ).

Remarque : si ( ) est réelle, les coefficients et sont réels.

I.2.1.5. Exemple de décomposition en série de Fourier d’un signal.


− < <
Soit le signal s(t) périodique de défini par : ( )=
0
<
1) Représenter s(t ) sur 2 périodes.
2) Vérifier que s(t) est paire.
3) Calculer les coefficients de Fourier.

1) Représentation de ( )
On construit le signal ( ) défini par son expression sur une période T puis sur 3 périodes, on
obtient : ( )

− −
2 2 2 2

On définit le rapport cyclique de ce signal périodique par ∝ = .

Le signal ( ) est périodique par construction. La fréquence du fondamental est =


19
2) On remarque que ( ) est symétrique par rapport l’axe des y. ( ) est donc paire et par
suite donc tous les coefficients sont nuls( =0, ∀ ≥ 1).
3) Calcul des :

= = = , donc est la valeur moyenne du signal ( ).

2
= ( ) ( )

( )
= cos( ) = sin( ) = avec = 2

Le développement en série de Fourier de ( ) est donc :

2 sin( )
( )= + (2 )

I.2.2. Forme polaire des séries de Fourier


I.2.2.1. Théorème
Toute fonction périodique de qui satisfait les conditions de Direchlet peut être développée en
série de Fourier sous la forme dite polaire :

( )= + (2 + )= + ( + )

Avec : = 2 =

Démonstration
Partons de la forme trigonométrique de ( ) périodique :

( )= a + ( ( )+ ( ))

( )= a + + ( )+ ( )
+ +

On pose d’abord : = , = +
cos( ) =

Puisque : −1 ≤ ≤ 1 il existe alors forcément  tel que :


sin( ) =

Soit alors :

20
( )= a + (cos( ) ( ) + sin( ) ( ))

Qu’on peut écrire sous la forme :

( )= A + ( − )

Comme il existe = − on écrit ( ) sous la forme dite polaire :

( )= A + ( + )

I.2.2.2. Vocabulaire
1- La représentation en bâton des en fonction de (ou ) est appelée spectre en
amplitude de ( ) .
2- La représentation en bâton des en fonction de (ou ) est appelée spectre en phase de
( ).
3- La représentation des deux ( et ) en fonction de est spectre fréquentiel .

Remarque :
- Le spectre en amplitude et en phase d’un signal ( ) ne peut se faire qu’avec la forme polaire.
- Des fois, il est nécessaire de passer de la forme trigonométrique à la forme polaire pour dessiner le
spectre d’un signal.
- Le spectre d’un signal est une autre forme de représenter le signal dans l’espace fréquentiel.
- La représentation fréquentielle et la représentation temporelle sont complémentaires.

I.2.2.3. Exemple (précédant) :


≤ ≤
( )= <
0
Représenter le spectre en amplitude et en phase de ce signal pour : = (rapport cyclique =

 Spectre d’amplitude : représentation des en fonction de de n :


Rappelons que :

2 sin( )
= =0

21
Donc pour : =

= =
2
Et

2 |sin( )| 2 sin( 2)
= + = | |= =

2
= = 1,3,5, … … … … … . .
0 = 2,4,6, … …
Spectre de phase : représentation des en fonction de de n :
Nous avons :

+1 =4 +1; = 0, ,1,2 … …
Cos( )= = = =
−1 =4 +3; = 0, ,1,2 … …
sin( )= = 0; ∀ ∈

+1 =4 +1; = 0, ,1,2 … … (1)


Cos( ) =
−1 =4 +3; = 0, ,1,2 … … (2)

sin( )=− =0; ∀ ∈ (3)

On applique le distributivité de la conjonction par rapport à , on obtient :


=0 2 =4 +1; = 0, ,1,2 … …

=0 ∀ ∈

= 2 =4 +3; = 0, ,1,2 …
=0 ∀ ∈

=0 2 =4 +1; = 0, ,1,2 …

=0 ∀ ∈

= 2 =4 +3; = 0, ,1,2 …

=0 ∀ ∈
Ce qui donne seulement deux conditions :
=0 2 =4 +1; = 0, ,1,2 …

= 2 =4 +3; = 0, ,1,2 …

22
En résumé :
= 3,7,11, 15 … .
Les deux dernières conditions se réduisent à : =
0
Et on peut écrire alors :

2 sin( 2)
( )= + (2 + )
2

= 3,7,11, 15 … .
Avec : =
0

Le spectre d’amplitude et de phase sont représentés ci-dessous.

An
2

2
2
3

2
5
2
7
2 n
9

1 3 5 7
9

Ꝕn

0 3 7 11
15

23
Remarques:
-L’amplitude décroit lorsque augmente
-La phase reste constante (= ) pour tout =4 +3 ; ∈ ℕ

I.2.2.4. Phénomène de Gibbs :


Dans l’exemple précédent nous avons :

2 sin( )
( )= + (2 )

= , nous avons en forme polaire :

2 sin( 2)
( )= + (2 + )
2

Prenons un exemple plus précis =1, = 20 , nous avons un signal carré d’amplitude 1 et
de rapport cyclique = =

Inversement, essayons de construire le signal ( ) a partir de la serie de Fourier en se limant a un


nombre fini.
Sur la figure suivante, nous avons :
= 0, ( )= ,

= 1, = 1, ( )= + cos(40 )

= 3, = 1, 2, 3, ( )= + cos(40 ) + (2 + )

= 5, = 1, … 5, ( )= + cos(40 )+ (2 + )+ (2 )

= 41, = 1, … … . .41,
1 2 2 2 2
( )= + cos(40 )+ (40 + )+ (40 )… + (40 + )
2 3 5 39
2
+ (40 ).
41

24
- Le Phénomène de Gibbs est traduit comme un effet de bord aux points de discontinuités.
Cet effet apparait sous forme des oscillations inévitables aux points de discontinuité.
- Plus que l’on somme sur N grand, on s’approche d’avantage du signal réel s(t) périodique et
le phénomène de Gibbs disparait.
Exercice d’application
Exploiter la décomposition en série de Fourier dans l’exemple précédent pour montrer que la série
entière :

(−1)
(2 + 1)

Converge vers . ( ∑
( )
( )
= )

Dans l’exemple précédent, nous avons pour = ,:

25
2 ( 2)
( )= + (2 )
2

Qu’on peut écrire, = 2 + 1 sous la forme :

2 (−1)
( )= + (2 (2 + 1) )
2 (2 + 1)

Pour = 0, le signal est continu et vaut A; donc :

2 (−1)
(0) = + =
2 (2 + 1)

Ce qui veut bien dire que :

(−1)
=
(2 + 1) 4


( )
donc la série converge vers

I.2.3. Forme complexe des séries de Fourier :


I.2.3. 1. Théorème :
Le théorème de Fourier peut s’exprimer sous une forme Légèrement différente.
Toute fonction (signal) réelle s(t) périodique de = , continue par morceaux et bornée sur le

segment [0,T] est développable sous forme d’une série d’exponentielles complexes :

( )= Cn

Avec : = ( )

Démonstration :
Sous la forme trigonométrique, s(t) s’écrit :

( )= + ( + )

_ _ _
Soit la formule d’Euler : = , =

26
Donc ( )= + +

− +
( ) = + + _
2 2

Posons : = = , est le conjugué

Il s’en suit alors :

( ) = + + _

Montrons que : =
En effet :

= ( + )= ( ) cos + ( ) sin

= ( ) cos(− ) − ( ) sin(− )

= ( − =

D’où : ( ) = + +
Lorsque n varie de 1 a +∞ , − varie de −1 a −∞ donc on peut ecrire :

( )=

avec =

I.2.3. 2. Théorème de Parseval (1ère forme) : Aspect Energétique d’un signal périodique
Soit s(t) un signal périodique de =

Aux bornes d’une résistance normalisée (R=1Ω), La puissance instantanée est :


( )
( ) = ( ) × ( ) = = ( )

Or, la puissance d’un signal est définie aussi par la variation de l’énergie par rapport au
temps :

( ) =

L’énergie d’un signal périodique peut être calculée sur une période est par :

27
= ( ) = ( )

La puissance moyenne calculée sur une période est :


1
⪡ ( )⪢= = ( )

Le théorème de Perceval permet de calculer la puissance moyenne d’un signal périodique de T


en fonction des amplitudes des harmoniques :

+
⪡ ( )⪢= + = = | | =2 | |
2 2 2

Démonstration :
( ) est périodique de T : ( ) = +∑ ( + )

( )=

La puissance moyenne est donnée par :

1 1
⪡ ( ) ⪢= | ( )| = ( )× ∗
( )

1
⪡ ( ) ⪢= ( )×

1
= ( )

1
= . = | |

Or :
− +
= , | | = =
2 4 2
En conséquence :

+
⪡ ( ) ⪢= 2 | | = = +
2 2 2

Chaque terme | | | représente la puissance moyenne apportée par chacun des


harmoniques.
I.2.4. Propriétés du développement en série de Fourier
I.2.4.1. Propriétés de base
Le développement en série de Fourier d'un signal périodique de période T0 possède les
28
propriétés suivantes :
 Si s(t) est réel, les coefficients sont à symétrie hermitienne |C−n | = |Cn | ∀n ∈ N.
 Si s(t) est réel et pair alors bn = 0, ∀n ≥ 1 et les sont réels et = =
 Si s(t) est réel et impair alors an = 0, ∀n ≥ 0 et les sont des imaginaires purs et
=− = −
 Linéarité : Soient x(t) et y(t) deux signaux de coefficients de Fourier respectif et
alors le signal somme ( ) + ( ) (où sont des constantes) a pour
coefficient de Fourier et .
Remarques :
La représentation complexe introduit des fréquences négatives − . Ces fréquences sont
représentées par commodité.
Calcul des coefficients :
1
= ( − )
2
= ( ) − ( )

Donc :
1 2
= ( ( )( − ) )
2
1
= ( )

I.2.4. Relations de passage entre les trois représentations de Fourier


 =0 = | | =

 >0 = + ( ) =

 = ( – ) = ( + )( – ) =
1
= = −
2
 = ( + ) =

et − sont les arguments de coefficients Cn et C n

est l’amplitude de Cn et C n .

De ce qui précède on peut écrire :


= − =2 ( )
= −( − ) = −2 ( )

29
Remarques:
Les 3 formes des séries de Fourier sont équivalentes. Mais laquelle est meilleure? La réponse est
que cela dépend du problème à résoudre; en effet:
 Si le problème est. à résoudre analytiquement, les coefficients complexes sont souvent plus
faciles à évaluer.
 Si le signal est à analyser au laboratoire au moyen d’instruments de mesure, la forme polaire
est souvent la plus commode, car les instruments tels que les voltmètres, les oscilloscopes, les
analyseurs de spectre, les analyseurs vectoriels permettent d’accéder directement à la phase et à
l’amplitude.
I.2.4.2. Propriétés de décalage temporel
Quant à la forme trigonométrique, elle présente peu d’intérêt physique. En effet si le signal s(t)
subit une simple translation temporelle, alors les coefficients et seront modifiés.

( − ) = 0 + ( − )+ ( − )

= 0 + ( )+ ( )

On dit qu’il n’y a pas d’invariance temporelle.


Alors que pour la forme polaire :

( − ) = 0 + ( ( − )+ )

= 0+ ( + )

Avec :
= −
Une translation temporelle se traduit donc simplement par une modification de la phase du
fondamental et des harmoniques. Les amplitudes restent inchangées.
Un décalage temporel d'un signal périodique se traduit par une multiplication complexe
des coefficients de Fourier Cn par ; en effet :

( )= ( )= ( − )= ( )

( )=

30
( )= =

Dans l’exemple précédent, si on subit à s(t) une translation de quelconque les amplitudes ne
changent pas.
La représentation complexe ( ) = ∑ introduit des fréquences positives ( ) et
négatives (− )
| |=
- Spectre de s(t) :
ℎ =
Remarquons que les fréquences négatives (n < 0) introduites dans la décomposition
complexes n'ont aucune signification physique mais sont définies pour simplifier les
calculs.

I.2.5. Spectre d'un signal périodique


Il existe deux façons de représenter le spectre d'un signal périodique : la représentation
unilatérale et la représentation bilatérale (voir Transformée de Fourier).

I.2.5.1. Représentation unilatérale


A partir de la décomposition en série de Fourier, nous pouvons construire la représentation
graphique spectrale dans le plan amplitude-fréquence comme succession de bâtons d'amplitude
aux fréquences nf0, n ≥ 1 comme présenté la figure ci-dessous.
Ce spectre en fréquence du signal est constitué de la composante continue a0, du fondamental
f0 et des différentes harmoniques. Ce spectre est discontinu et composé de raies dont l'écart
minimum est f0.

Représentation spectrale unilatérale.


I.2.5.2. Exemples
 ( ) = cos(2 )
31
Il est clair que a0 = 0, a1 = 1, an = 0 pour n > 1 et bn = 0 pour n ¸ 1: D'où:
=0

= = = Car ( ) est réel et paire .

=0 ∀ >1 =0 ∀ >1
 ( ) = sin(2 )
La décomposition en série de Fourier est définie par : an = 0 pour n ≥ 0, b1 = 1 et bn = 0 pour
n>1.

D'où: = 0, = = = Car ( ) est réel et impaire

=0 ∀ >1 =0 ∀ >1
II. Analyse de Fourier (transformée de Fourier):
L’analyse de Fourier en termes de séries n’est valable que pour les signaux périodiques .or, en
physique, beaucoup de signaux échappe à cette propriété. Pour traiter ces signaux, il faut
utiliser d’autres outils plus puissants. Parmi ces outils, il y a la transformée de Fourier (TF).
II.1. Approche par étude de cas :
Reprenons l’exemple du signal rectangulaire pair défini précédemment par :
− < <
( )= <
0

( )

− −
2 2 2 2

Analysons le spectre de s(t) pour quelques valeurs de .


Nous avons en général /
2 |sin( )|
=

Qu’on peut écrire sous la forme :

2 sin
=

Soit alors :

=2 sinc
32
 τ= (nous avons deja tracé le spectre en amplitude)

2
An

2
3 2
2
5
2
7
2
n
9

1 3 5 7 9

 τ= = = = et = = =

L’amplitude s’annule lorsque :


= (k + 1)π c’est-à-dire : = 4(k + 1) Avec k=0, 1,2…

La 1 ère annulation a eu lieu lorsque = 0 est n=4


La 2ème annulation a eu lieu lorsque k=1 càd n=8 ; ….. ect
Les amplitudes ont pour valeurs : = sinc ( )

Le spectre bilatéral de signal s’t) pour τ =

Tous les bâtons (toutes les raies) appartiennent à l’enveloppe du sinus-cardinal nous avons plus
d’harmoniques dans un lobe (4 harmoniques par lobe.
Plus que τ diminue et T augmente plus le signal s(t) devient niche en fréquences.

 τ= = = et = = = =

L’amplitude s’annule pour chaque n tel que sin =0

ie nπ=(k+1) 8π n=8(k+1)
La 1ere annulation correspond à k=0 donc à n=8
La 2ème annulation correspond à k=1 donc à n =16, …… ect
33
Le spectre de s(t) devient de plus en plus riche en fréquence, ce qui fait apparaitre plus de raie dans
le spectre.
De façon générale, plus τ devient petit et tend vers +∞ , = ⇾ 0 ; donc les fréquences

discrète deviennent très approchés l’une de l’autre càd devient une variable continue. On
peut remplacer alors qui est une variable discrète par variable continue.
Regardons comment deviennent le signal s(t) et les coefficients de Fourier complexe .

 le signal n’est plus périodique. Dans le temps, il ne devient observable qu’autour de 0, il a


l’allure suivante :

( )

− −
2 2 2 2

 Les coefficients de Fourier

1 1
= ( ) ̥
dt = ( ) dt

Deviennent : (quand → ∞ ( devient continue, = ) ; on peut remplacer alors par )

lim ( . ) = lim ( )
→ →

D’où :

lim ( . )= ( )

34
Cette dernière limite généralisée aux séries de Fourier (quand → ∞) s’appelle la transformée de
Fourier.
II.2. Définition de la transformée de Fourier
Soit un signal s(t) non périodique, on appelle transformée de Fourier TF si elle existe la fonction :

( )= ( )

( ) indique les quantités des fréquences presentes dans le signal s(t) sur l’intervalle de
temps : −∞, +∞ .
S ( ) est en général une fonction complexe de la variable réelle .

S ( ) a donc:
 Module appelé spectre d’amplitude |S( )|


( )
Une phase appelé spectre de phase ( )= ( ) = − ( )

II.3. Critère d’existence


 Pour tout signal s(t) intégrable ou sommable ( ( ) < +∞), la TF existe,

 Pour tout signal s(t) de carré sommable ou à énergie finie ( | ( )| < +∞), la TF
existe.
Ces deux conditions sont suffisantes mais pas nécessaires.
 Pour tout signal à puissance moyenne finie :

lim 1
| ( )| dt < +∞
→∞

la TF existe au sens de distribution et non au sens de fonction. (Voir plus loin)

Remarque :
En pratique, les signaux existant physiquement, vérifient ces conditions car nous les observons sur
un temps fini..

II.4. Transformée de Fourier inverse.


Soit S(f) une représentation du signal dans l’espace fréquentiel. On appelle Transformée de Fourier
inverse (et on note ) de S(f) la fonction s(t), si elle existe :

35
( ) = ( )
On note ( ) = ( ( )) Et ( ) = ( ( ))
S(f) et s(t) sont deux descriptions duales l’une de l’autre du même signal.

Exemple :
Donner le spectre en amplitude et en phase du signal s(t) défini par :
0< <
( ) = T : intervalle de temps qui ne désigne pas la période
0

Le signal est représenté par : s(t)


B

T
Le signal est fini dans le temps en plus s(t) est intégrable (sommable) car :

( ) = = <∞

Donc sa TF existe.

S(f) = ( ) =

= B = (1 − )
−2 2

( − )
= BT
2

= sinc( )

 Spectre d’amplitude :
| ( )| = sinc( )

= |sinc( )| | | = 1)
C’est un spectre continu en
36
Les pointes d’annulations :

sin( )=0 = ( + 1)  = = 0, 1,2 … … …

Le spectre d’amplitude est continu et pair. Par commodité de représentions, nous avons représenté
même les fréquences négatives (représentation bilatérale).
Spectre en phase :
φ(f) = ( ( ))
= ( sin c(πfT))

− sin(πfT) > 0
=
− + sin(πfT) < 0

− 2 2kπ < πfT < (2k + 1)π


=
− + 2 (2k + 1 < πfT < (2k + 2)π
2k (2k + 1)
− 2 <f<
=
(2k + 1) (2k + 2)
− + 2 <f<

On distingue deux types d’intervalles :


( )= −
ƙ ƙ
, ƙ = 0,1,2.. 2

( )=
ƙ ƙ
Et , ƙ = 0,1,2.. …… ; − ƒ 2

Il en résulte alors le spectre de phase suivant :

37
Remarque : le spectre de phase est impair.
II.5. Propriété de la TF : s(t) ↔ S(ƒ)
II.5.1. Propriété de base :
Soit ( )un signal admettant une transformée de Fourier ( ) alors nous avons les propriétés
suivantes :
 Linéarité : ( )+ ( ) ↔ α ( )+ ( )
 Décalage temporel s( t − ) ↔ S(ƒ)
 Décalage fréquentiel : s(t) ↔ (ƒ − ƒ )


ƒ
Changement d’échelle : s (a t) ↔ ∣ ∣
( )

Une dilatation dans le temps a≥ 1 correspond a une contractions dans le domaine fréquentiel et
vice-versa.


( )
Dérivation : ↔ 2 ƒ (ƒ)

 Integration: ( ) ↔ ƒ
S(ƒ)

 Inversion temporelle : (− ) ↔ (− )
 Conjugaison complexe : ∗
( ) ↔ ∗
(− )
II.5.2. Propriétés de symétrie :
 signaux réels :
Si ( ) est réel alors ( ) = (− ) : le spectre en amplitude est pair et le spectre de phase est
impair

( ) = − ( ). (la TF est complexe)

 Parité :

La nature de la TF S(f) dépend du signal s(f) selon la tableau suivant :

38
signal s(t) spectre fréquentiel S(f)

réel quelconque complexe


réel pair réel pair
réel impair imaginaire impair
imaginaire quelconque complexe
imaginaire pair imaginaire pair
imaginaire impair réel impair
complexe pair complexe pair
complexe impair complexe impair

II.6. Exemple d’application des propriétés de la TF :

II.6.1. Décalage fréquentiel : ( ) < − − −> ( − )

En appliquant cette propriété, déterminer la TF du signal :

( )= cos 2

Où :
1
= 1 −
2
< <
2
=
0
Construisons d’abord le signal à partir des signaux de base et cos 2

Illustrations :

( )= ( ) ∗ cos 2 0
( ) cos 2 0
1 1

=
t

*
t t

− 2
2
− − − −
2 2 2 2

Calculons ensuite la TF de la fenêtre

TF ( )= ( )= ( ) °

39
= 1 °

1
= −
2
= sin (πTf)

( )

1
t

− 2
2

Pour calculer le spectre de ( ) = ∗ cos(2 ), nous utilisons la formule d’Euler. Nous

pouvons écrire alors :

( )= ∗ cos 2

+
( )=
2
Donc :
1
( )= ( )+ ( )
2
En appliquant la linéarité et le décalage fréquentiel en obtient la TF de s(t) :
1 1
( )= ( + )+ ( − )
2 2
La représentation de spectrale de s(t) :

40
II.6.2. Remarques :
 Ce résultat est fondamental en modulation des signaux.
 Les radios langues onde utilisent ce principe pour transmettre un message informatif dont le
contenu fréquentiel est compris entre 0 et 20 kHz.
Soit un message m(t) vocal dont le spectre est M(f) compris entre 0 et 20 kHz. On désire
transmettre ce massage par le principe de modulation d’amplitude. Le signal modulé en amplitude
peut s’écrire : ( )= ( )cos(2 ) et qui admet le spectre ( ) composé de deux
spectre ; l’un est centré sur − et l’autre sur .

1 ( )
( ) ( )= () ( 2 π 0t
+ −2 π 0 t
)
2
f f

22 kHz − − 22 − − + 22 0 − 22 + 22

II.7. Dualité de la T.F :


Les définitions symétriques de la TF et la permettent de mettre en avant une propriété de la
TF appelée : Dualité de la TF.
Soit s(t) un signal dont la TF est bien définie S(f) :

( )= ( )

Alors que la TF inverse est :

( )= ( )

Alors il existe deux signaux duals s(t) et s(f) obtenus en remplaçant f par t et t par f : autrement dit,
à partir d’un spectre S(f), on peut construire un signal temporel S(t) et vice-versa.
On pourrait s’interroger donc sur la T.F de S(t).
En effet :
Nous avons : (− ) = ( ) .
En intervertissant les variables temporelle et fréquentielle on obtient :

(− ) = ( ) = ( ( ))

Le signal ( ) temporel construit à partir de S(f) (transformée de Fourier de s(t)) admet comme
transformée de Fourier (− ) construite à partir de ( ) sans faire de calcul. Cette TF (− ) est
obtenue en remplaçant dans l’expression de ( ) la variable par la variable − .
Nous utilisons assez souvent le schéma suivant qui illustre cette procédure de TF par la propriété de
dualité :
41
Soit un signal ( ) qui admet une TF ( ), on construit le signal dual temporel ( ). Sa TF est
(− ) le dual de ( ).

TF
s(t) S(f)

TF
S(t) s(-f)

Exemple :
Déterminer le transformé de fourrier du signal s(t) tel que :
sin( )
( )= = ( )

Le calcul du spectre du Sinc(t) par la définition de la TF n’est pas possible. Cependant en utilisant
la propriété de la dualité, il est très facile de déduire la TF de Sinc(t).
En effet :

On sait que la TF de la fonction est un sinus cardinal ( ) == sin (πTf).

( )

1
t

− 2
2


( )

1
t

− 2
2

Le spectre fréquentiel ( ) == sin (πTf) lui correspond par dualité un signal temporel

( ) == sin (πTt) dont la TF, par dualité, est un spectre .

En tenant compte de la propriètè de la linearité, de dualité et de la parité de la fonction rectangle,


on peut écrire :

42

( ( ( ( ( )) = =

En prenant = ; on aura :

1
( ) = ( )

D’où
−1 1
( ) = ∗ ( )= < <
2 2
0
Remarque :
La condition d’existence de la TF des signaux à énergie finie est suffisante mais pas necessaire.
Beaucoup de signaux à énergie infinie (mais à puissance moyenne finie) admettent des transformées
de Fourier mais au seus de distribution et pas au seus de fonction.
II.8. Transformée de Fourier et impulsion de Dirac
Dans le cas d’un signal fenêtre (fonction rectangle) , on remarque que si T est faible, le signal est
mal défini dans le temps (très localisé) mais est grand et le spectre est alors très étendu en

fréquence (mal localisé) . Réciproquement, si T est grand, le spectre est bien localisé en fréquence
mais mal localisé en temps. Intéressons-nous au cas extrême : l'impulsion de Dirac.

II.8.1. Transformée de Fourier au sens des distributions


Rappelons que la distribution de Dirac ( ) n’est pas une fonction mathématique. Sa représentation
est donnée sur la figure suivante :

Par conséquence, la distribution n’est pas intégrable au sens de Riemann. Pourtant cette impulsion
vérifie la condition ( ) = 1 < ∞ au sens de distribution : c’est une Distribution intégrable
(sommable) au sens des Distributions. Sa Transformée de Fourier n’existe aussi qu’au sens des
Distributions. Calculons alors sa TF.

( ) ( ) = ∆( ) = ( )

∆( ) = ( )
43
∆( ) = ( ( ) ( ) = (0))

∆( ) = 1

∆( )
1

Remarques :

∆( ) = ( ) 1

 L’impulsion de Dirac admet donc un spectre ∆( ) uniforme qui occupe une bande de
fréquence infinie.
 Il est évident alors qu’un signal très borné dans le temps occupe un large spectre.
II.8.2. Propriété de la dualité appliquée à l’impulsion de Dirac
la TF de l’impulsion de Dirac est un spectre uniforme qui contient toutes les fréquences : c’est un
bruit blanc.
Nous avons :
( ( )) = 1 = ∆( )
Inversement on peut écrire :

( )= ∆( )

( )=

Considérons maintenant le signal dual de ∆( ) = 1 et cherchons sa TF.


Autrement dit, on cherche à donner la TF d’un signal temporel constant (=1)

TF
( ) ∆( ) = 1

+∞ =0
∆( ) = 1 TF (− ) = ( ) =
0

(− ) = ( ) = +∞ =0
( est paire )
0

44
On peut ecrire alors :

( )=

Donc : par dualité la TF d’un signal continu et constant ( ( ) = 1) est un Diac fréquentiel en = 0.

( ) ∆(f)
1 1

0 0

∆(t) ( )
1 1

0 0

Ce qui est en concondance totale avec le fait qu’ un signal constant ne contient aucune fréquence .
Retenons les resultats importants des propriètés de l’impulsion de Dirac:
( ) = ∆( ) = 1
(∆( ) = 1) = ( )

( ) =1

( )= (1) =

II.8.3. Transformée de Fourier de l’impulsion de Dirac decalée


a) Decalage temporel
Le Decalage temporel pour l’impulsion de Dirac est représenté ci-dessous et traduit par: ( − )

Soit à chercher la TF de l’impulsion de Dirac Translatée ( − ) en appliquant la proprièté de


decalage temporel de la TF.
( − ) ( )= ∗ ( ) ( )
= ∗1 ( ( ) ( ) = 1)
=

45
b) Decalage fréquentiel
D’après les propriètés de l’impulsion de Dirac, nous avons : (1) = ( )
∗1 = ( − )
= ( − )
On obtient un decalage fréquentiel de l’impulsion de Dirac fréquentielle.
De même :
= ( + )
c) Exemples
 Signal sinusoïdal
 ( ) = cos(2 )
Il est clair que a0 = 0, a1 = 1, an = 0 pour n > 1 et bn = 0 pour n ¸ 1: D'où:
=0

= = = Car ( ) est réel et paire

=0 ∀ >1
=0 ∀ >1
La transformé de Fourier de x(t) est (en utilisant la formule d’Euler et les propriétés de ( )) :
( )= ( ) ( ) = TF (cos(2 ))( )
+
= ( )
2
1 1
= ( + )+ ( − )
2 2
On a donc le spectre suivant :

Représentation spectrale bilatérale.


 ( ) = sin(2 )
La décomposition en série de Fourier est définie par : an = 0 pour n ≥ 0, b1 = 1 et bn = 0 pour
n>1. D'où:
46
=0

= = = Car ( ) est réel et impaire

=0 ∀ >1
=0 ∀ >1
La transformé de Fourier de x(t) est (en utilisant la formule d’Euler et les propriétés de ( )) :
( )= ( ) ( ) = TF (sin(2 ))( )

= ( )
2
1 1
= ( + )− ( − )
2 2
On a donc le spectre suivant :

 Généralisation aux signaux périodiques : Représentation bilatérale


Soit ( ) un signal périodique de période = = .

En utilisant la décomposition en série de Fourier, on obtient :

( )= A + ( + )

La transformée de Fourier appliquée au signal ( ) permet d’écrire:

( )= ( ( ))( ) = A + ( + )

En introduisant les propriétés de l'impulsion de Dirac, le spectre d'un signal périodique peut
s’écrire de la façon suivante :

1 1
( )= ( ( ))( ) = A (0) + ( + + )+ ( − − )
2 2

La représentation bilatérale du spectre de fréquence d'un signal périodique est construite à


partir de la décomposition en série de Fourier complexe.

47
Cette représentation est formée par des pics de Dirac de poids = , n ∈ N sur l'axe des

fréquences positives et négatives.

Il est à nouveau important de noter que seule la représentation unilatérale a un sens physique.
En effet, la représentation bilatérale est constituée de fréquences négatives qui n'ont pas de sens
réel.

 TF de l‘ Echelon unité
Rappelons que l'échelon unité u(t) est défini par :
0 <0
1
( )= =0
2
+1 >0
Remarquons aussi que nous pouvons écrire :
1 1
( )= + ( )
2 2
−1 <0
Où : ( )= 0 =0
+1 >0

On peut écrire alors : ( )= 2 ( )−1

( ) ( )
= 2 =2 ( )

D’où d'après les propriétés de la transformée de Fourier :

( ) ( )
= 2 =2 ( ) = 2

48
( )
Or : =2 ( ) proprièté de la dérivation de la TF.

et
1 1 1
( ) = TF + ( ) = TF 1 + ( )
2 2 2
Donc :
1 1
( ) = ( )+ ( )
2 2

1 1
( ) = ( )+
2 2

II.9. Densités spectrales


II.9.1. Définition
Comme dans le cas des signaux périodiques, on définit la densité spectrale du signal x(t) par :
( )= ( ). ( )∗ ( ) = | ( )|2.
Cette densité décrit la distribution de l'énergie du signal sur l'axe des fréquences, c'est-à- dire la
densité d'énergie dissipée relativement à la fréquence.
On définit la densité spectrale d'interaction ou densité interspectrale d'énergie de deux
signaux x(t) et y(t) par :
( )= ( ). ( )∗ ( )

II.9.2. propriétés de la densité spectrale


II.9.2.1. relation densité spectrale- densité spectrale
La densité spectrale est la transformée de Fourier de la fonction d’autocorrélation ( )

définie dans la chapitre 1.  ( ) =


+∞
−∞
( ) −2

En effet :
 ( )= ( ). ( )∗ ( ) = | ( )|2

Or :  ( ) = () ∗
( − ) 
Appliquons la définition de la fonction d’autocorrélation et la TF de signal ()

 ( )=  ( ) ( )= () ∗(
− ) 

= () −2   ∗ (− )

= ∗ (− ) () −2  

49
= ∗( ) () −2  

= ∗( ). ( ) = | ( )|2
De même la densité inter spectrale est :
+∞

 ( )= ( ) −2 = ( ) ( )
−∞

Remarque :
Il est souvent plus facile de calculer les fonctions de corrélation (auto et inter) par la
transformée inverse TF − 1 de la densité spectrale.

II.9.2.1. Théorème de Parseval (2ème forme) : Energie des signaux non périodiques
Théorème 1: Si x(t) est à énergie finie, l'énergie totale E dans le domaine temporel est égale à
l'énergie totale dans le domaine fréquentiel.
Démonstration :
Nous avons démontré par ailleurs l’énergie d’un signal comme étant l’intégration du module au
carré de ( ) dans le domaine temporel.
Montrons aussi que l’énergie d’un signal est aussi l’intégration du module au carré du spectre
( ) dans le domaine fréquentiel.

Soit ( ) un signal à énergie finie, il admet donc une TF : ( )= ( ) −2 et une TF

inverse : ( ) = ( ) 2

L’expression de l’énergie est :


+∞ +∞
E = | ( )| = ( ) ∗( )
−∞ −∞

= ( ) ( ) 2

= ( ) ∗( ) −2

∗( ) ( )
= −2

= | ( )|

Théorème 2: Si x(t) est à énergie finie, l'énergie totale E est calculée aussi par l’intégration de la

= 
+∞
densité spectrale : −∞
( ) .
Effet :
50
= | ( )| é ℎé è 1

∶ =  ( )  ( ) = | ( )|2

En résumé, l’énergie peut être calculée par 3 moyens différents :


+∞
∗ Integration du module au carré de x(t): E = | ( )|
−∞
+∞
∗ L′ autocorrélation au point 0 E =  (0 ) = ( ) ∗( )
−∞

∗ Integration du module au carré de X(f): E = | ( )|

+∞

∗ Integration de la densité spectrale: =  ( )


−∞

51
Chapitre 3 :
Systèmes Linéaires à Invariance Temporelle.

I. Introduction : Notions des Systèmes de transmission


I.1. Définition
Un système de transmission est un ensemble isolé de dispositifs formés des composants
électroniques interconnectés, interagissant entre eux et qui chacun d’eux, réalise une fonction
bien définie dont le but de réaliser une transformation prédéfinie sur un signal (amplification,
filtrage, modulation ect). Un système de transmission fait correspondre à un signal d'entrée
e(t) quelconque un signal de sortie s(t). Ce système est noté :

 Un système de transmission établit une relation de cause à effet entre ses d’entrées (appelés
excitations) et ses signaux de sorties (appelés réponses ou mesures)
 Un système physique en interaction avec l’extérieur (ou avec d’autres systèmes est modélisés en
distinguant ses entrées et ses sorties et en établissant la relation de cause à effet (sorties-
entrées).
 Un système effectue le traitement des signaux.
 Un système de Transmission peut avoir une ou plusieurs entrées et une ou plusieurs sorties,

( ) ( )
: :
: :
( ) ( )

1( ), … . . ( ) Sont appelées excitations ou signaux d’entrée


Les effets des excitations définissent alors les signaux observés aux différentes sorties
1( ), … . . ( ) appelées réponses. Ces sorties peuvent constituer les entrées d’un autre système.

I.2. Modélisation
L’analyse des systèmes consiste à les décrire par des lois mathématiques permettant de prévoir leur
comportement.
La transformation réalisée par le système de Transmission est modélisée souvent par un Opérateur

52
mathématique système T temporel ou fréquentiel tel que ( ( ) = ( ) ( )= ( ( ))
Un système de Transmission sensible au bruit peut comporter une entrée supplémentaire qui
représente les perturbations souvent imprévisibles.

On notera la distinction entre les excitations sur lesquelles on peut agir (commandes ou actions)
et les entrées qui ne peuvent être maitrisées (comme le bruit) .
Remarque :
Lorsque le système ne comporte qu’une seule entrée (une seule
excitation) et une seule sortie (une seule réponse), on dit que le
système scalaire.
Dans la suite, nous ne traiterons que des systèmes scalaires.
I.3. Caractéristiques d’un système
I.3.2. Gain d’un système
On appelle gain d’un système le rapport exprimé en décibel (dB) par : On compare le signal de
sortie s(t) avec le signal d'entrée e(t) :
s(t)
G = 20 log (en dB)
e(t)
ou le rapport de puissance :
Ps
G = 10 log (en dB)
Pe
où Ps et Pe sont respectivement les puissances moyennes des signaux s(t) et e(t).

I.3.2. Bande passante


Définition :
Considérons une tension sinusoïdale à une puissance moyenne Pe constante et
indépendante de la fréquence du signal. On mesure la puissance moyenne Ps du signal de sortie
du système de transmission. Soit Psm la puissance maximale de s(t). On appelle bande passante
du système de transmission la zone de fréquence pour laquelle on a :

53
1
≥ ≥ −3
2
La bande passante à 3 dB est la tranche des fréquences pour lesquelles l'affaiblissement de
la puissance de sortie à puissance entrante constante est ≥ à 3 dB par rapport à sa valeur
maximale.

GdB en dB
Gmax
Gmax -3dB
f en Hz
0
BP

I.4. Propriétés
Soit un système caractérisé par un opérateur T
 Linéarité :
On dit qu'un système de transmission est linéaire s’il est stable par combinaison linéaire.
Si 1( ) 2( ) sont les excitations respectives aux réponses 1( )= 1( ) 2( )= 2( )
alors la réponse à la combinaison linéaire des entrées 1( )+ 2
( ) conduit à une

combinaison linéaire des sorties 1( )+ 2( ) ∀ , ∈ .


C'est-à-dire : l’opérateur T est stable par combinaison linéaire.

1( )+ 2
( ) = 1( ) + 2( )

= ( )+ ( )

 Continuité : On dit qu'un système de transmission est continu, s’il est stable par passage à
la limite. C'est à dire :

lim ( ) = lim ( )
→ →

 Stationnarité ou Invariance temporelle : Un système de transmission est stationnaire si


son comportement est indépendant de l'origine du temps. Autrement dit : Un système de
transmission est invariant dans le temps si et seulement si une translation temporelle sur
l’entrée entraine la même translation sur la sortie.
∀ ∈ ( − ) = ( − )

54
I.5. Système linéaire à Invariance Temporelle
Dentition :
On appelle un système linéaire à invariance temporelle (SLIT) s’il est linéaire et invariant
dans le temps.
Exemple : les filtres
II. Convolution et système linéaire à Invariance Temporelle
II.1. Définition et Propriétés
Soient x(t) et y(t) deux signaux, on appelle produit de convolution de x et de y, noté : ( ) ∗
( ), la fonction suivante :
+∞ +∞
( )= ( )∗ ( )= ( ) ( − ) == ( − ) ( )
−∞ −∞

Propriétés :
Le produit de convolution a les propriétés suivantes :
Commutativité : ( )∗ ( ) = ( )∗ ( )
Distributivité : ( ) ∗ ( ( ) + ( )) = ( ) ∗ ( ( )) + ( ) ∗ ( ))x(t)
Associativité : ( ) ∗ ( ( ) ∗ ( )) = ( ( ) ∗ ( ( )) ∗ ( ))
Elément neutre : ( ) ∗ δ(t) = δ(t) ∗ ( ) = ( )
δ(t) est la distribution de Dirac
Théorème de Plancherel :
La transformée de Fourier d'un produit de convolution est le produit des transformée de
Fourier et réciproquement :
( )∗ ( ) = ( ) ( ) = ( ). ( )
( ). ( ) = ( ) ∗ ( ) = ( )∗ ( )
II.2. Convolution et système
Définition :
On appelle réponse impulsionnelle notée h(t) la sortie d’un système linéaire à invariance
linéaire à invariance temporelle ‘SLIT) à un signal ‘ d'impulsion de Dirac’ :

ℎ( ) = δ(t)
Cette réponse impulsionnelle joue un rôle très important. En effet, celle-ci permet d'obtenir la
réponse du SLIT à n'importe quel signal d’entrée.
Thé è :

55
é ’ ′é ′ ∶
( ) = ( ) ∗ ℎ( )
ù ℎ( ) é du SLIT ℎ( ) = δ(t) .
Démonstration :
Par définition de la réponse impulsionnelle est la réponse à une impulsion de Dirac :
δ(t) → ℎ( )
d'où par stationnarité,
δ(t − t ) → ℎ( − t )

56

Vous aimerez peut-être aussi