0% ont trouvé ce document utile (0 vote)
6 vues76 pages

Cours Partie1

Le document présente une introduction au traitement du signal, abordant des concepts clés tels que la transformation de Fourier, les systèmes linéaires, le filtrage analogique, et la chaîne de transmission numérique. Il décrit également les fonctions du traitement du signal, la classification des signaux, la notion de bruit, ainsi que des techniques d'analyse et de transformation des signaux. Enfin, il introduit des concepts mathématiques tels que l'autocorrélation et les distributions, notamment la distribution de Dirac.

Transféré par

mehdi7jbali
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
6 vues76 pages

Cours Partie1

Le document présente une introduction au traitement du signal, abordant des concepts clés tels que la transformation de Fourier, les systèmes linéaires, le filtrage analogique, et la chaîne de transmission numérique. Il décrit également les fonctions du traitement du signal, la classification des signaux, la notion de bruit, ainsi que des techniques d'analyse et de transformation des signaux. Enfin, il introduit des concepts mathématiques tels que l'autocorrélation et les distributions, notamment la distribution de Dirac.

Transféré par

mehdi7jbali
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Plan

 Introduction au traitement du signal


 Transformation de Fourier

 Systèmes linéaires continus

 Filtrage analogique

 Continu  Discret

 Principe de télécommunications

 Chaine de transmission numérique

 Codage de l’information

 Codes correcteurs d’erreurs

 Modulation numérique

 Multiplexage
Introduction
 Signal
 Représentation physique d'une information à transmettre
 Entité qui sert à véhiculer une information
Exemples
 Onde acoustique : courant délivré par un microphone (parole, musique, …)
 Signaux biologiques : EEG, ECG
 Tension aux bornes d'un condensateur en charge
 Signaux géophysiques : vibrations sismiques
 Finances : cours de la bourse
 Débit des paquets
 Images
 Vidéos
 etc.
 Bruit : Tout phénomène perturbateur pouvant géner la perception ou
l'interprétation d'un signal
Introduction
 Définitions :

 Traitement du signal

 Ensemble de techniques permettant de créer, d'analyser, de transformer les


signaux en vue de leur exploitation

 Extraction du maximum d'information utile d'un signal perturbé par le


bruit

Notion très importante : le bruit


Introduction
 Fonctions du traitement du signal
 Créer : Élaboration de signaux
 Synthèse : création de signaux par combinaison de signaux
élémentaires

 Modulation : adaptation du signal au canal de transmission


Introduction
 Fonctions du traitement du signal
 Analyser : Interprétation des signaux
 Détection : isoler les composantes utiles d'un signal complexe ,
extraction du signal d'un bruit de fond

 Identification : classement du signal (identification d'une pathologie


sur un signal ECG, reconnaissance de la parole, etc.)
Introduction
 Fonctions du traitement du signal

 Transformer : adapter un signal aux besoins

 Filtrage : élimination de certaines composantes


– Détection de craquements sur un enregistrement,
– Détection de bruit sur une image,
– Annulation d'écho, etc.

 Codage/compression (Jpeg, mp3, mpeg4, etc.)


La chaîne de traitement de l'information

Système
Capteur Transmission Récepteur Traitements
physique

Bruit
Bruit

Extraction Reco. Compression


Analyse etc.
d'information de formes (mp3, ...)
Classification des signaux
 Classification dimensionnelle 2

 Signal monodimensionnel 1D 1

0
Fonction d'un seul paramètre,
-1
pas forcément le temps : une -2

concentration, une abscisse, etc. 0 10 20 30 40

 Signal bidimensionnel 2D
Exemple : image NG  f (x, y)

 Signal tridimensionnel 3D
Exemple : film NB  f (x, y,t)
Classification phénoménologique
 Evolution déterministe ou aléatoire des signaux
 Signaux déterministes
Signaux dont l'évolution en fonction du temps t peut être parfaitement
décrite grâce à une description mathématique ou graphique.

 Sous catégories :
 périodiques  apériodiques  transitoire

T x(t)  x(t  kT ) support non borné support borné

Signal réel
C'est un signal représentant une grandeur physique. Son modèle
mathématique est une fonction réelle. Ex. : tension aux bornes d'un C
Classification phénoménologique
 Signaux aléatoires
Signaux dont l'évolution temporelle est imprévisible et dont on ne
peut pas prédire la valeur à un temps t.
La description est basée sur les propriétés statistiques des signaux
(moyenne, variance, loi de probabilité, …)

Exemple résultat d'un jet de dé lancé toutes les secondes (moyenne=3.5, écart type :1.87)

Signaux aléatoires stationnaires


Stationnaire si les caractéristiques statistiques ne varient pas au cours du temps.

 stationnaires  Non-stationnaires
Classification énergétique
 Energie et Puissance des signaux
Soit un signal x(t) défini sur   ,   , et T0 un intervalle de temps

 Energie de x(t)
T0
 x(t) 2 dt 2
E   ou E  lim
2
 x(t) dt
T0  T0

2
 Puissance moyenne de x(t)
T0
1 2 2
P  lim  x(t) dt
To  T0 T0

2

 Homogène à E/t
T
2
P  1  x(t) dt
2
Cas des signaux périodiques de période T
T T

2
Classification énergétique
 Remarques :

 Signaux à énergie finie  puissance moyenne nulle


Généralement, cas des signaux représentant une grandeur physique.
Signaux transitoires à support borné

 Signaux à énergie infinie  puissance moyenne non nulle


Cas des signaux périodiques

Notion valable pour les signaux aléatoires et déterministes


Classification morphologique
1ère partie du quantification
cours
échantillonnage

2ème partie du
cours
Retour sur la notion de bruit
 Bruit
 Def. : Tout phénomène perturbateur pouvant géner la perception
ou l'interprétation d'un signal

 La notion de bruit est relative, elle dépend du contexte

 Exemple classique du technicien en télécom et de l'astronome :

 Pour le technicien en télécom :


– Ondes d'un satellite = signal
– Signaux provenant d'une source astrophysique = bruit
 Pour l'astronome :
– Ondes d'un satellite = bruit
– Signaux provenant d'une source astrophysique = signal

 Tout signal physique comporte du bruit = une composante aléatoire

 Introduction de la notion du rapport signal/bruit


Notion de rapport signal sur bruit
 Objectif
Signal = composante déterministe + composante aléatoire.

Déterminer la qualité d'un signal aléatoire ou déterministe  introduction


d'un rapport RS/B quantifiant l'effet du bruit.
Ps
RS / B  ou R S / B (dB)  10 log10 (R S / B )
Pb
Ps est la puissance du signal et Pb celle du bruit.
RS/B=0 dB RS/B=26 dB

Signal + bruit
Signal
Signaux élémentaires continus
 Échelon
0 pour t  0  Signal porte ou rectangle
U(t)  
1 pour t  0  
U (t)  (t)  1 pour t 
2
0 ailleurs
1   (t)

permet d'exprimer l'établissement


instantané d'un régime continu  / 2  /2
 Exponentielle décroissante  : largeur de la porte
y(t)  U(t)  e at a0 Peut aussi être défini comme une
différence de deux échelons.

 Signaux périodiques : sin / cos


Notion d'autocorrélation
 Définition
L'autocorrélation réalise une comparaison entre un signal x(t) et ses copies
retardées (étude de ressemblance d'un signal avec lui-même au cours du temps)
 Pour les signaux à énergie finie
 Homogène à une énergie,
C xx ( )   x(t)  x* (t   )dt Cxx(0) est l'énergie du signal

 Pour les signaux à énergie infinie
1 T /2 Homogène à une puissance,
C xx ( )  lim  x(t)x * (t  )dt Cxx(0) est la puissance
T  T T / 2
moyenne du signal
 Propriétés
 Cxx ( )  Cxx (0) : Maximum en 0
 Si x(t) est périodique alors Cxx(t) est périodique de même période
 Cxx(t) est paire pour des signaux réels
Notion d'intercorrélation
 Définition
L'intercorrélation compare un signal x(t) et un signal y(t) retardée.
Elle mesure la similitude entre ces deux signaux

 Pour les signaux à énergie finie Cxy ( )   x(t)  y*(t   )dt

0 T /2
Cxy ( )  lim 1
 Pour les signaux à énergie infinie  x(t) y * (t   )dt
T0  T0 T / 2
0

Exemple d'application Détection par intercorrélation

Autres exemples
Détection de signal périodique noyé dans le bruit
Analyse spectrale
Test de "blancheur"
Introduction aux distributions
i(t)
0 t0
V (t)  
Eo V(t) C  Eo t0

V est discontinue

Question : que vaut i(t) ? i(t)  C dV


dt
i(t) est nul partout. En 0, on ne connaît pas la valeur de i car V(t) est
discontinue en 0 et n'est donc pas dérivable en ce point.

Et pourtant, i(t) en 0 existe puisque il y a eu transfert de charge q   i(t)dt  CEo

entre l'alimentation et la capacité. Aire sous i(t) = CE ... étrange non ?
0
 i(t) serait une fonction qui vaut 0 partout et l'infini en 0
impossible car on aurait 2*i(t) = i(t), ou i(t)² = i(t) ...

i(t) n'est donc pas une fonction, c'est une distribution !


On l'appelle distribution de Dirac
Distribution de Dirac
 Définition
 Si φest une fonction, la distribution de Dirac ou impulsion de Dirac
est définie par : +∞
∫ −∞ д(t ).б (t)dt=д(0)
=> Dirac appliqué à une fonction = la valeur de la fonction en 0
Remarque : il n'existe pas de fonction δvérifiant cette propriété

 Cependant pour des raisons de commodités, on la note souvent


comme une fonction de t : δ(t), qu'on représente :
(t)

 Propriétés t
• Dirac représente un signal de durée théoriquement nulle et d'énergie finie (=1).

• Notation incorrecte mais commode :  (t1 )   (t  t1)


• Une impulsion de Dirac à l'instant t donne :  (t1 ) ( )   (t1)
1

• Autre propriété : x(t)   (t  to)  x(to)   (t  to)


Distribution de Dirac
 Autres définitions :
 Comme une fonction :
 (x)  0 x0 Remarque1 : ceci est impossible : l'aire
sous le pic ne peut être égale à 1...
 (x) 
 
 (x) dx  1 Remarque2 : l'énergie du Dirac est donc
égale à 1

1
  (t)

 À partir du signal porte :



(t)
 (x)  lim 1  (x)
 0

t t
Mêmes remarques !
 Peut être vue comme la dérivée d'un échelon
Peigne de Dirac
 Définition
C'est une somme infinie d'impulsions de Dirac régulièrement espacées de To
λ To


Ш
λ T 
o  (t  kT ) o
k 

-2To -To 2To t


 Propriété 0 To

λ To   x(kTo)   (t  kTo)
x(t)  Ш
k x(t)

x(t)  λ To

t
Echantillonnage de la fonction x(t)
Rappels sur la Transformée
de Fourier
Transformée de Fourier :
Existence de la TF:
• Fonctions de carré intégrable, signaux à énergie finie
• Signaux à puissance finie
• Distributions: Dirac et peigne de Dirac


X ( f )   x ( t ) exp  2  jft dt




x (t )   X ( f ) exp 2  jft df


Identité de Parceval pour les signaux à énergie finie


 

Energie   x(t) dt  
2 2
X ( f ) df
 
Propriétés de la Transformée de Fourier
:
Propriété Temporel Fréquentiel
x(t) X(f)
Linéarité a.x(t)+b.y(t) a.X(f)+b.Y(f)
Conjugaison x(t)* X(-f)*
Fonction réelle x(t) réel Symétrie Hermitienne
X ( f ) fonction paire

PhaseX ( f ) fonction impaire

Décalage temporel x(t-to) X ( f ) exp(2jfto )

Décalag x(t) exp(2jfot) X ( f  fo )


e
fréquenti
el
Propriétés de la Transformée de Fourier
:
Propriété Temporel Fréquentiel
Dérivée dnx
X ( f )2jf n
dtn

Symétrie X(t) x(-f)


Multiplication x(t)y(t) X ( f ) *Y ( f )
Convolution x(t)*y(t) X ( f ).Y( f )
1 1
Modulation x(t) cos(2fot) X( f  f )
o
X( f  f )
2 o
2
Transformée de Fourier usuelles
x(t)= Rectangle =  T (t) [Link](f.T)= T.[sin(.f.T)/.f.T]
amplitude=1, largeur=T, centré sur 0

x(t)= Triangle T.sinc2(f.T)


amplitude=1, largeur=2.T, centré sur 0

exp(2. . j. fo.t)  ( f  fo)

cos(2. . fo.t ) 1
.( f  fo)   ( f  fo)
2
1 ( f )

 (t) 1

sin(2. . fo.t) j
.( f  fo)   ( f  fo)
2
Transformée de Fourier usuelles


 X n . ( f 
n
)
T
 
n

avec X n  [Link] c(n / 2)
 2. A.   T (t  n.T)  A
 n   
 X n  0 pour n pair ou nul
Signal carré de largeur T/2, entre +A et -A 
2. A
et périodique de période T avec  X  pour n = 1,  5,....
 n
n.
 2. A
Xn   pour n = 3,  7, ....
 n.

 

A.   (t  n.T)  X n . ( f  )n
n
T
n 
A. 
Signal carré de largeur , entre 0 et +A avec X  .sin c(n / T )
n
et périodique de période T T
 

. ( f
1 n

  (t  n.T ) T n T
)
n


Allure générale d’un signal et de sa TF
Si x(t) est très «pointu», sa TF sera très «étalée»

x(t)

t
X(f)

Si x(t) est très «étalé», sa TF sera très «pointue»

x(t)

t
X(f)

f
Rappels sur le filtrage
Système Linéaire Invariant Temporellement (SLIT)

Linéarité :
x1 (t) SLIT y1 (t) x2 (t) SLIT y2 (t)

a.x1 (t)  b.x2 (t) SLIT a.y1 (t)  b.y2 (t)

Invariance temporelle :

x1 (t) SLIT y1 (t) x1(t  ) SLIT y1 (t  )


Système Linéaire Invariant Temporellement (SLIT)
Caractérisation d’un SLIT : Réponse impulsionnelle h(t)
h(t)

 (t) SLIT h(t)



 (t )  lim
0
t
0

H ( f )  TF h(t)
Système Linéaire Invariant Temporellement (SLIT)
Caractérisation d’un SLIT : Réponse fréquentielle H(f)
H( f )

H( f ) module phase PhaseH ( f )

f f

A0 cos(2f0t) Système A1 cos(2f0t  1 )

Phase deH ( f 0 )  1
A1
H ( f0 ) 
A0
Relation entrée/sortie d’un SLIT


y(t)   x( ).h(t  )d  x* h(t)

De façon à ne pas alourdir les notations on écrira plus simplement :

y(t)  x(t)* h(t)


On a :

Y ( f )  X ( f ).H ( f )
Propriétés de la relation de convolution

Commutativité x(t)* h(t)x


1 (t)* x2 (t)  x2 (t)* x1 (t)
h(t)* x(t)

Distributivité x1(t)  x2 (t)*h(t)  x1(t)* h(t) x2 (t)* h(t)

Associativité x1(t)* x2 (t)* x3 (t)  x1(t)*x2 (t)* x3 (t)

Transformée TF x(t)* h(t) X ( f ).H ( f )


de Fourier
Transformée
TF x(t).h(t) X ( f )* H ( f )
de Fourier
Notion de causalité

Les systèmes physiques réels sont causaux. Cela veut dire


que la sortie du système ne peut pas varier avant que l’on ait
appliqué l’entrée

Avec un SLIT causal on a h(t)=0 pour t<0

h( )

Remarque : dans certains calculs théoriques nous utiliserons des filtres non
causaux. C’est une liberté qui permet de simplifier les calculs mais il est bien
clair que ces systèmes non causaux sont non réalisables physiquement.

Exemple: un filtre passe-bas idéal


Rappels sur les distributions
Remarque : Ces rappels ne sont pas un cours sur les Distributions mais quelques
notions physiques sur l’impulsion de Dirac et les propriétés associées

Soit x(t) un rectangle centré sur 0 de largeur D et de hauteur 1/D. L’aire de x(t) vaut 1.

En faisant tendre D vers 0 on a x(t) qui tend vers une impulsion baptisée impulsion de
Dirac
1
 D (t)  (t)
D
1/D

D tend vers 0
-D/2 D/2 t 0 t

Par convention de dessin on dessine une impulsion de Dirac comme ci dessus


Propriétés de l’impulsion de Dirac

Aire unitaire
 (t)dt  1


Dirac .Fonction
x(t). (t)  x(0). (t)
[Link] x(t). (t  t0 )  x(t0 ). (t  t0 )

[Link] x(t  t1). (t  t0 )  x(t0  t1 ). (t  t0 )


Convolution x(t)*  (t)  x(t)
Convolution x(t  t0 )*  (t)  x(t  t0 )
Convolution x(t)*  (t  t0 )  x(t  t0 )
Convolution x(t  t1 )*  (t  t0 )  x(t  t1  t0 )
TF TF (t) 1
TF TF1  ( f )
TF TF (t  t0 ) exp 2jft0 
TF TF exp2jf0t   ( f  f0 )
Rappels sur le théorème
d’échantillonnage
Signaux discrets et Transformée de Fourier
 Signaux discrets
 Rappels, définition
 Propriétés
 Transformée de Fourier des signaux à temps discret (TFTD)
 Définition
 Propriétés
Peigne de Dirac et échantillonnage
Signal
x(nTe)
x(t)

Echantillonnage
Fe

 Signal discret

Soit un signal x(t) échantillonné à une période Te. Le signal échantillonné s'écrit :

xe (t)   x(nTe) (t  nTe)


n
En considérant une période d'échantillonnage normalisée ( Te  1 ) , on a :

xe (t)   x(n) (t  n) On obtient la suite de valeurs {x(n)} appelée signal discret.


n
Signaux discrets particuliers
U(n)
 Echelon unité

1 pour n  0  Remarque : U(n) 
U(n)     (n  r) n
0 sinon r 0

 Impulsion discrète (fonction delta de Kronecker)  (n)

1 pour n  0
 (n)  
Remarque :  (n)  (n)  (n  n
0 sinon
1)
 Exponentielle décroissante causale anU(n), (a  1)
1

x(n)  anU(n), a  1 n ℤ
 Signal rectangulaire
n

1 pour  T  n  T ℕ
T □
T (n)   (n)
0 sinon
Le signal est de longueur 2T+1
-2 2 n
Remarque : T (n)  U(n T )  U(n  (T 1))
 Définition de la périodicité
Un signal discret est périodique de période N si :

 N ℕ
□ tel que x(n  N )  x(n) n ℤ□
 Remarque : la plus petite valeur de N est la période fondamentale

 Exemples
- Signal sinusoïdal : x(n)  Acos( 0n   )

- Signal exponentiel complexe : x(n)  ae j 0n

! En discret, les signaux sinusoïdaux ne sont pas nécessairement périodiques.

 Condition de périodicité : 0n  2k avec n □


ℕ et k  ℤ

2  n n □
soit avec ℚ
0 k k

La période est l'entier naturel N (s'il existe) tel que N  2


0
 Remarque : en continu, la condition de périodicité s'énonce 2  n  □ℝ et est moins restrictive.
0 k
 Energie
 2
E   x(n)
n 

 Puissance moyenne
Si le signal est à énergie infinie, on définit la puissance moyenne

1
P  lim  x(n) 2
N  2N 1 n 
 Exemple : signal échelon discret

E 1  
n 0
N N N 1  1
1 1  P
2N  1 
2
P lim (n)  P  lim 2N  1 1 lim
N  2N 1 2
N  n N N  n 0
 Puissance moyenne d'un signal périodique
N 1
Si N est la période alors P  lim 1  x(n) 2
2
Energie sur une période : E   x(n)
N 
NN n 0
Opération sur les signaux discrets
Soit x(n)  x(n), n  ℤ
□ et y(n)  y(n), n ℤ□ , des signaux discrets
 Multiplication par un scalaire  Somme de signaux discrets

 □
ℝ, x(n)  x(n), n ℤ□ x(n)  y(n)  x(n)  y(n), n ℤ□

 Multiplication de signaux discrets Ces opérations sur les signaux discrets


donnent des signaux discrets.
x(n)  y(n)  x(n)  y(n), n ℤ□

 Signaux définis par une relation de récurrence :


Aux équations différentielles dans le cas continu correspondent des équations de récurrence
dans le cas discret. Ces équations permettent de décrire des signaux discrets et des opérations
sur ces signaux à l'aide d'additions et multiplications scalaires.

 Exemple : considérons l'équation récurrente :


x(n)  ax(n  1) avec x(0)  c (condition initiale)
On montre aisément que la solution à cette équation est : x(n)  ca n U(n)
Transformée de Fourier
 Question : Comment faire l'analyse fréquentielle de signaux discrets ?

Soit xe(t) un signal issu de l'échantillonnage de x(t) : xe (t)   x(nTe ) (t  nTe )
n 
 Que donne la TF “classique” du signal échantillonné ?
    

X e ( f )     x(nTe ) (t  nTe ) e  j2 ft dt Xe ( f )   x(nTe )   (t  nTe )e  j2 ft dt
 
  n   n  

En utilisant la définition de la distribution de Dirac, on a :   (t  nTe )e j2 ft dt  e j2 nfTe


Par conséquent : X e ( f )   x(nTe )e j2 nfTe
n 

La TF d'un signal échantillonné est une combinaison linéaire d'exponentielles complexes


pondérées par la valeur des échantillons.

 Normalisation de la période d'échantillonnage :


dorénavant et sauf mention contraire, on considerera que Te=1

X ( f )   x(n)e  j2 nf
n 
Transformée de Fourier
 Définition
Soit x(n) un signal discret. La TF X( f ) de ce signal est donnée par l'expression :


Xe ( f )   x(n)e j2 nf f est une variable continue
n 

La TF d'un signal discret est une fonction continue ou non de la variable continue f

Remarque : idem que la TF d'un signal quelconque, avec une somme à la place de l'intégrale.

 Condition d'existence de la TFTD



La TF d'un signal discret x(n) existe si  x(n)   i.e. si le signal est absolument sommable.
n 
L'existence de la TFTD est donc liée à la convergence absolue de la série x(n)

(−1)n (−1)n (−1)n


(Exemple d'une série semi-convergente :∑ car ∑ n est finie mais pas ∑ ∣ n ∣ )
n⩾1 n n⩾1 n⩾1
 Périodicité de la TFTD

Soit X( f ) la TFTD du signal discret x(n) : X( f )   x(n)e j2 nf
n 

X ( f 1)   x(n)e j2 n( f 1)
n
X ( f 1)   x(n)e j2 nf e j2 n
n 
X ( f 1)  X ( f )
 La TF des signaux discrets est périodique de période f=1

 Toute l’information fréquentielle du signal f   1 , 1 


est localisée dans l'intervalle de fréquence :  2 2 x(n) est caractérisé par
ce contenu fréquentiel
 Remarque X(f)

Si x(n) est réel, |X( f )| est paire et arg(X( f )) est


impair. On réduit donc l'analyse de X( f ) sur
l'intervalle de fréquence f  0, 1 
 2 f
-1/2 0 1/2
 Périodicité de la TFTD : généralisation avec Fe ≠ 0
Pour un signal échantillonné à la fréquence Fe, sa TFTD Xe( f ) est périodique de période Fe

 l'information fréquentielle est contenue dans la bande f  e , e 


F F
 2 2 

On retombe sur un résultat connu, par un calcul différent !

 TF inverse des signaux discrets


TFTD : X( f )   x(n)e j2 nf
n 

Comme la TF des signaux discrets est périodique de période 1, l'expression de la TFTD


inverse est donnée par :

1
2
x(n)   X ( f )e j 2nf df Remarque : Intégrale car f est une variable continue
1
2
Représentation spectrale
x(n), signal discret (support discret)
En fonction de la nature (périodique ou non) de x(n), on a deux types de
représentation spectrale possibles :

 x(n) non périodique  x(n) périodique

TFTD TFTD

X( f ) est à support continu X( f ) est à support discret


1 n   N, N 1
Ex. : x(n)   Ex. : x(n)  [Link](2 f0n)
0 ailleurs
|X(f)|
|X(f) |
A
(f  f o )
2

f f
0 1/2 1 0 1/2 1
Exemple de TFTD
1 n  N 2
Soit x(n)  
0 ailleurs
 N /2
On a X( f )   x(n)e  j2 nf X(f )   e  j2 nf
n  n  N / 2

X(f) est la somme de N+1 termes d'une suite X( f )


géométrique de raison e-j2f et de premier terme ejN f

jπ Nf 1−e− j2π(N+1) f
X (f )=e
1−e− j2π f
e− jπ f (e jπ( N+1 )f −e − jπ(N+1) f ) sinπ f (N+1)
X (f )= − jπ f − jπ f
=
e (e −e jπ f
) sinπ f

Remarques (pour Te = 1)
-Toute l'info est contenue dans [-½ , ½]
- Périodique de période 1
Propriétés de la TFTD
Globalement, la TFTD possède les mêmes propriétés que la TF :

 X( f ) est une fonction complexe. Si x(n) est réel :

Etude sur l'intervalle de fréquence


X ( f ) : spectre d'amplitude est une fonction paire
f  0, 1 
arg X ( f ) : spectre de phase est une fonction impaire  2

 Linéarité a.x(n)  b.y(n)  aX ( f )  bY ( f )

 Décalage temporel x(n  n0 )  X ( f )e j 2fn0

 Décalage fréquentiel
x(n)e j 2 f0n  X ( f  f0 )
(ou modulation)
Propriétés de la TFTD

 TF de la dérivée du signal dx(n) 


j2 f X ( f )
dn
 1/ 2
 Relation de Parseval
 x(n)   X ( f ) df
2 2
(conservation de l'énergie) n  1/ 2

 Relations de Plancherel x(n)  y(n)  X ( f ).Y( f )


1/ 2
x(n).y(n)  X ( f ) Y ( f )   X (u)Y ( f  u)du
1/ 2
1/ 2 1
 TFTD Inverse
x(n)   X ( f )e j 2nf df ou x(n)   X ( f )e j2 nf df
1/ 2 0
Historique de télécommunications

L’historien grec Polybios (200 –118 av. J.-C.)


Le carré de Polybios

1 2 3 4 5 6
A B C D E F
1
2 … … … … … …
3
… … … … … …
4
5
6 … … … X Y Z
Historique de télécommunications

Claude Chappe (1765 –1828)


Physicien français
Historique de télécommunications
1837 : Samuel Morse : Peintre américain
Système de transmission de lettres de l’alphabet
-Théorie de l’Information
Historique de télécommunications

1864 : James Clerk Maxwell:


Physicien et mathématicien écossais.
Prédiction de l’existence d’ondes radio
Historique de télécommunications

1876 : Graham Bell : Ingénieur écossais


Brevet de système électrique de transmission du son
- Téléphone
Historique de télécommunications

1887 : Heinrich Rudolf Hertz :


Physicien et ingénieur allemand
Découvert les ondes hertziennes auxquelles il a donné son nom.
Démonstration de l’existence des ondes radios
Historique de télécommunications

1895 : Alexandre Stepanovich Popov:


Physicien et ingénieur russe, Précurseur de la radio
Transmission d’ondes radio longues distances

Institut Electrotechnique de St. Peterbourg, 1903


Historique de télécommunications
1947 : Union Internationale des Télécommunications (UIT)
- réglementation des télécommunications internationales

1965 : 1er satellite géostationnaire de télécommunications (INTELSAT)

1966 : 1ères fibres optiques à faibles pertes


- début des hauts débits numériques

1988 : RNIS ( Réseau Numérique à Intégration de Services)


(Numéris de France Télécom)

1991 : - Internet, World Wide Web


- GSM/IS-54 : téléphones mobiles de 2ème génération (numériques)

61
Organismes et Normalisation

Internationale :

UIT / ITU : Union Internationale des Télécommunications (http : //[Link])

Régionale :

ETSI : European Telecommunication Standard Institute (http : //[Link])

ANSI Committee T1 : American National Standard Institut, Comittee T1 on Telecommunications

JTTC : Japanese Telecommunication Technology Committe

ATU : Union Africaine des Télécommunications

ANRT : Agence Nationale de Réglementation des Télécommunications

62
Les bandes de fréquences

Bande Désignation Service


3-30 kHz Très basses fréquences Navigation, sous-marins
(VLF)

30 – 300 kHz Basses fréquences Navigation marine, radio AM


(LF)
300 – 3 MHz Moyennes fréquences Radio marine
(MF)
3 – 30 MHz Hautes fréquences Radio amateurs, militaire, avions,
(HF) bateaux

30 – 300 MHz Très hautes fréquences TV VHF (54 – 72 MHz, 72 –88 MHz,
(VHF) 174 – 216 MHz),
Radio FM (88 – 108 MHz)

63
Les bandes de fréquences
Bande Désignation Service
TV UHF (470 – 806 MHz)
Mobiles (GSM : 890-960 MHz,
0.3 – 3 GHz Ultra hautes fréquences (UHF) DCS 1800: 1710-1880 MHz,
IS-95: 824-894 MHz)
GPS (1217, 6-1237,6 MHz,
1565,42-1585,42 MHz)
1- 2 GHz Bande L Radars, faisceaux hertziens
2 – 4 GHz Bande S satellites
3 – 30 GHz Super hautes fréquences (SHF) Bluetooth: 2,4 - 2,48 GHz
4 – 8 GHz Bande C 802.11.a: 5GHz
8 – 12 GHz Bande X 802.11.b: 2,4 GHz (WiFi)
12 – 18 GHz Bande Ku Radiodiffusion par satellite
18 – 26 GHz Bande K Radar
26 – 40 GHz Bande Ka Internet par satellite

64
Principe de télécommunications

Canal de transmission
Information à transmettre Information reçue

EMETTEUR RECEPTEUR

Signal informatif
Chaîne de Transmission
Source
numérique
Emission

Source
CAN CODEC MODEM
analogique

CANAL DE TRANSMISSION

Destination
MODEM CODEC CNA
analogique

Destination
numérique
Réception
Canal de Transmission
CARACTÉRISTIQUES GÉNÉRALES:
Bande passante W
L’ensemble de fréquences qui peut être transmis sans déformation des signaux:
W = fmax - fmin
Moment élémentaire T
La durée T pendant laquelle le signal n'est pas modifié.
Valence V
La valence est le nombre d'états possibles d'un signal transmis :
V = 2n (n : nombre de bits)
Rapidité de modulation R
Le nombre de moments élémentaires par seconde:
R = 1/T (bauds) Rmax = 2 W
Débit binaire D:
 P 
D = R log2V = nR (bits/s) nmax  log 2  1  S 
 PN 
Capacité du canal:
 PS   PS 
C  Dmax  nmax Rmax 
 2W log 2  1   W log 
2 1  

 PN   PN 
Codage de l’information
Codage NRZ : « Non-Retour à Zéro » :

Principe : Le niveau est constant sur un intervalle (pas de transition de retour à zéro).
On utilise deux niveaux pour coder le 0 et le 1

1 0 1 1 0 1 0
Volts
V0
Code Unipolaire
0
Tb 2Tb 3Tb 4Tb 5Tb 6Tb 7Tb NRZ
*

Volts
V0
Code (bi)polaire
0
NRZ
-V0 *
Tb 2Tb 3Tb 4Tb 5Tb 6Tb 7Tb

Le codage NRZ est utilisé par le port de communication série asynchrone des PC.
68
Codage de l’information
Codage RZ : Return to Zero

Principe : Transition au milieu de chaque temps bit à 1.


1 0 1 1 0 1 0
Volts
V0
Code Unipolaire
0
Tb 2Tb 3Tb 4Tb 5Tb 6Tb 7Tb NRZ
*

V0
Code RZ
0
Tb 2Tb 3Tb 4Tb 5Tb 6Tb 7Tb

69
Codage de l’information
Codage NRZI : (Non Return to Zero Inverted)

Principe : on produit une transition du signal pour chaque 1, pas de transition pour les 0.

Utilisation : Fast Ethernet

70
Codage de l’information
Codage bipolaire (AMI) : (Alternate Mark Inversion):

Principe : Les 0 sont représentés par des potentiels nuls, les « 1 » en alternance par +V et –V.

71
Codage de l’information
Code Manchester :

Principe : Il y a une transition au milieu de chaque temps bit :


- Transition croissante pour un 1,
- Décroissante pour un 0 (version lue sur paire 10BT).

Volts
1 0 1 1 0 1 0 1

Tb 2Tb 3Tb 4Tb 5Tb 6Tb 7Tb 8Tb

Le codage Manchester présente une bonne immunité aux bruits

72
Codage de l’information
Codage Manchester différentiel
Principe : Il y a une transition au milieu de chaque temps de bit.
Chaque transition est codée par rapport à la précédente.
- Une transition de même sens à la précédente pour un 0
- Une transition de sens inverse à la précédente pour un 1.

Le code est utilisé par le réseau Token Ring 802.5.


73
Codage de l’information
Codage Miller :

Principe : comme le Manchester simple, mais en supprimant une transition sur


deux, que celle ci soit significative ou non et en conservant une
transition au milieu de chaque temps bit pour la valeur 1.

ClK

Volts
1 0 1 1 0 1 0 1

Tb 2Tb 3Tb 4Tb 5Tb 6Tb 7Tb 8Tb

Le spectre d'un signal codé par la technique de Miller est beaucoup plus étroit que celui du
codage Manchester. Il présente une bonne immunité aux bruits et il est bien adapté aux
supports à bande limitée. 74
Codage de l’information
Codage Multi Level MLT3

Principe : Dans ce codage, seuls les 1 font changer le signal d’état et sont codés
successivement sur trois états : +V, 0 et –V.
Les 0 sont codés en conservant la valeur précédemment transmise.

Utilisation : Fast Ethernet (100BaseTX, 100BaseT4), ATM

75
Codage de l’information
Codage multi symbole

Principes : Durant un temps bit le signal peut prendre plus de deux valeurs différentes.

Valence = 2
1 1 1 1
0 0 0 0

3U

2U Valence = 4

U
01 00 11 10
0

76

Vous aimerez peut-être aussi