MADDI Abdelkader
MADDI Abdelkader
Département d'Electronique
Présentée par :
MADDI Abdelkader
Devant le jury :
Février 2008
Remerciements
Remerciements
Je remercie chacun des membres de l'équipe Parole du Laboratoire LATSI pour leur
amitié, leur aide et leur soutien.
ﻣﻠﺨﺺ
ﻟﻬﺬا ﺗﻌﺘﺒﺮ اﻟﻤﺮﺣﻠﺔ.إن ﻟﺨﻮارزﻣﻴﺎت اﻟﻤﻄﺎﺑﻘﺔ ﻋﻼﻗﺔ ﺟﺪ وﻃﻴﺪة ﺑﻄﺮق اﻹﺣﺼﺎء و ﻃﺒﻴﻌﺔ اﻟﻨﻤﺎذج اﻟﺮﻳﺎﺿﻴﺔ
.اﻷﺳﺎﺳﻴﺔ ﻓﻲ ﻃﺮﻳﻘﺔ اﻟﻤﻄﺎﺑﻘﺔ ﻣﺒﻨﻴﺔ ﻋﻠﻰ اﻟﻤﻌﺮﻓﺔ اﻟﺠﻴﺪة ﻟﻜﻞ ﻧﻈﺎم ﻓﻴﺰﻳﺎﺋﻲ
وLMS RLS : و ﻓﻲ إﻳﻄﺎر هﺬﻩ اﻷﻃﺮوﺣﺔ ﻟﻨﻴﻞ ﺷﻬﺎدة اﻟﺪآﺘﻮراﻩ ﻧﻘﻮم ﺑﺪراﺳﺔ و اﻧﺠﺎز اﻟﺨﻮارزﻣﻴﺎت اﻟﺘﺎﻟﻴﺔ
ﻋﻠﻤﺎ أن أﻏﻠﺒﻴﺔ, ﻧﻴﻮﺗﻦ ﻟﻤﻄﺎﺑﻘﺔ اﻷﺑﻌﺎد اﻟﻘ ْﺎْﺋﻤﺔ ﻋﻠﻰ ﺗﺒﻴﻴﺾ اﻟﺨﻄﺄ ﻟﻠﺤﺼﻮل ﻋﻠﻰ ﺧﻄﺄ ﻳﺆول إﻟﻰ اﻟﻀﻮﺿﺎء اﻟﺒﻴﻀﺎء
. ARX اوARMA, ARMAX اﻷﻧﻈﻤﺔ اﻟﻔﻴﺰﻳﺎﺋﻴﺔ ﺗﻤﺜﻞ وﻓﻖ ﻧﻤﻮذج
ﺛﻢ ﻧﻘﻮم ﺑﺘﻄﺒﻴﻘﻬﺎ ﻋﻠﻰARMAX ﻟﻤﻄﺎﺑﻘﺔ ﻧﻤﻮذجRELS وﻓﻲ اﻷﺧﻴﺮ ﻧﻘﺘﺮح ﺻﻴﻐﺔ ﻣﺘﻄﻮرة ﻟﺨﻮارزﻣﻴﺔ
.اﻹﺷﺎرة اﻟﺼﻮﺗﻴﺔ اﻟﺘﻲ ﺳﺘﻜﻮن ﺛﻤﺮة هﺬا اﻟﻌﻤﻞ
. إﺷﺎرة ﺻﻮﺗﻴﺔ- ﺧﻮارزﻣﻴﺔ اﻟﺘﻔﺎﺿﻞ – ﻓﺎرق- R SL ﺧﻮارزﻣﻴﺔ- ﻧﻤﻮذج رﻳﺎﺿﻲ- ﻃﺮﻳﻘﺔ اﻟﻤﻄﺎﺑﻘﺔ: آﻠﻤﺎت اﻟﻤﻔﺘﺎح
Résumé
L’identification de systèmes est fortement liée aux méthodes statistiques et à la
construction de modèles décrivant de manière mathématique les processus physiques. La
principale étape d’identification se traduit donc par une meilleure connaissance du système.
Dans cette Thèse de Doctorat, nous nous sommes intéressés plus particulièrement, à
des méthodes d’identification paramétrique. Les méthodes que nous présentons sont :
Gradient Stochastique, Newton Stochastique et Moindres Carrés pour identifier sans biais les
paramètres d’un processus physique basées sur le blanchissement de l’erreur de prédiction.
Elles consistent à déterminer, d'une façon récursive, un modèle mathématique linéaire, basé
sur les données d'observation, pour représenter le système considéré. La plupart des systèmes
peuvent être représentés par des modèles ARMAX, ARMA ou ARX.
Enfin, nous proposons la méthode des Moindres Carrés Etendue pour estimer
simultanément les paramètres du modèle ARMAX. Une application de cette méthode a été
réalisée pour identifier les paramètres du modèle ARX de la parole dans un contexte bruité.
Abstract
The identification of systems is strongly related on the statistical methods and the
construction of models describing in a mathematical way the physical processes. The
principal stage of identification thus results in a better knowledge of the system.
In this Doctoral Thesis, we present the parametric identification methods, which are
the stochastic gradient method, stochastic Newton and recursive least squares method to
identify with unbiased estimates parameters of a physical process based on whitening error of
prediction. They consist in determining, in a recursive way, a linear mathematical model,
based on the data of observation, to represent the system considered. The majority systems
can be represented by ARMAX, ARMA or ARX models.
Finally, we propose the Recursive Extended Least Squares method to estimate the
parameters of the ARMAX model. An application of this method is realised to identify the
parameters of ARX model corresponding to the noisy speech signal.
Keywords : Identification, Mathematic Model, Least Squares, Stochastic Gradient, Bias, Speech
Signal.
AR : Autorégressif
E : Espérance
EM : Expectation Minimisation
FA : Fonction Aléatoire
MA : Moyenne Ajustée
VAR : Variance
Sommaire
Remerciement……………………………………………………………………………… i
Résumé…………………………………………………………………………………….. ii
Liste des Abréviations………………………………………………………………………….
iii
Liste des Figures……………………………………………………………………………. iv
Liste des Tableaux………………………………………………………………………….. vi
INRODUCTION GENERALE…………………………………………………………….. 1
CHAPITRE I :
NOTIONS DE PROCESSUS STOCHASTIQUES
ET LA PAROLE
I.1. Introduction……………………………………………………………………………....4
I.2. Notions de processus stochastique……………………………………………………….4
I.2.1. Densité de probabilité d’une fonction aléatoire en temps continu.......................... 4
I.2.2. Indépendance……………………………………………………………………... 5
I.2.3. Moment d’une fonction aléatoire…………………………………………………. 5
I.2.3.1. Moyenne………………………………………………………………….. 5
I.2.3.2. Variance et covariance……………………………………………………. 5
I.2.3.3. Covariance mutuelle……………………………………………………… 6
I.2.4. Stationnarité et Ergodicité………………………………………………………… 6
I.2.4.1. Stationnarité………………………………………………………………. 6
I.2.4.2. Ergodicité…………………………………………………………………. 7
I.2.5. Densité spectrale de puissance……………………………………………...…….. 9
I.2.6. Modèles stochastiques……………………………………………………………. 9
I.2.7. Processus stochastiques remarquables………………………………...………….. 9
I.2.7.1. Processus Gaussien……………………………………………………..… 10
I.2.7.2. Processus Markovien…………………………………………….…………10
I.3. Notions de la théorie d’estimation……………………………………………………..…10
I.3.1. Estimation d'une distribution………………………………………………. 11
I.3.2. Estimation des paramètre d'une distribution …………………………………. 11
I.3.3. Estimation des paramètre d'un modèle…. …………………………………. 11
I.3.4. Estimateurs et estimations………………………………………………….. 12
I.3.5. Propriétés d'un bon estimateur.…………………………………………….. 12
CHAPITRE II :
MODELISATION ET IDENTIFICATION
DES PROCESSUS PHYSIQUES
II.1. Introduction………………………………………………………………………….….. 21
II.2. Modélisation des processus physiques……………………………………………….… 21
II.2.1. Différentes approches d’établissement d’un modèle…………………………... 22
II.2.2.1. Modèle de connaissance……………………………………………… 22
II.2.2.2. Modèle de représentation……………………………………………... 22
II.2.2. Modélisation autorégressive à moyenne ajustée (ARMA)……………………... 22
II.2.3.1. Modélisation autorégressive (AR)…………………………………..… 23
II.2.3.2. Modélisation à Moyenne Ajustée (MA)……………………………… 23
II.2.3. Principales étapes de la modélisation…………………………………………... 24
II.2.4.1. Système…………………………………………….………………… 24
II.2.4.2. Modèle……………………………………………………………….... 24
II.2.4.3. Critère…………………………………………………………..…….. 25
II.2.4.4. Optimisation………………………………………………..…………. 25
II.2.4.5. Incertitude sur les paramètres……………………………………….... 25
II.2.4.6. Analyse critique des résultats obtenus………………………………… 25
II.2.4. Difficultés de la modélisation……………………………….............................. 25
II.2.4.1. Définition du problème de modélisation……………………………… 25
II.2.4.2. Qualité des données de modélisation……………………………….... 25
II.2.4.3. Choix de la technique utilisée…………………………………..…….. 26
II.2.4.4. Choix des variables disponibles……………………………..………….26
II.2.4.5. Sélection de modèle adéquat………………………………….................26
II.3. Identification des paramètres d'un processus physique……………………………………. 27
II.3.1. Identification non paramétrique…………………………………….................... 27
II.3.2. Identification paramétrique……………………………………….……………. 27
II.3.3. Etapes d’identification………………………………………..………………… 28
II.3.2.1. Acquisition des entrées et sorties …………………………………..… 28
II.3.2.2. Choix de la complexité du modèle……………………………………. 28
II.3.2.3. Estimation des paramètres du modèle……………………...………… 29
II.3.2.4. Validation du modèle……………………………………………….... 29
II.3.4. Algorithme d’identification récursif………………………………………….… 29
II.4. Conclusion………………………………………………………………………….…… 29
CHAPITRE III :
ETUDE ET DEVELOPPEMENT DES ALGORITHMES
D’IDENTIFICATION PARAMETRIQUE
III.1. Introduction…………………………………………………………………………….. 30
III.2. Algorithme du gradient stochastique…………………………………………………. 31
III.2.1. Rappel sur la méthode du gradient…………………………………………...… 31
III.2.2. Identification d’un modèle ARMA……………………………………………. 31
III.2.3. Les avantages de la méthode du gradient…………………………………….... 33
III.3. Algorithme de Newton stochastique…………………………………………………... 34
III.3.1. Principe de la méthode……………………………………………………….... 34
III.3.2. Equations de mise en œuvre de la méthode de Newton………………………...35
III.3.3. Identification du modèle ARMA…………………………………………….… 36
III.4. Algorithme des moindres carrés………………………………………………………. 37
III.4.1. Identification du modèle ARMA…………………………………….. 37
III.4.2. Solution optimale au sens des moindres carrés………………………. 38
III.4.3. Algorithme des moindres carrés récursif……………………………… 39
III.4.4. Propriétés de l’estimateur des moindres carrés…………………….… 41
III.5. Algorithme des moindres carrés étendu RELS……………………………………….....41
III.5.1. Structure d’un modèle ARMAX…………………………………………..…… 42
III.5.2. Détermination des paramètres………………………………………………..…43
III.5.3. Les équations mise en œuvre de l’algorithme RELS………………………..…..44
III.5.4. Initialisation de l’algorithme RELS……………………………………….…….44
III.6. Conclusion………………………………………………………………………….….. 45
CHAPITRE IV :
IMPLEMENTATION DES ALGORITHMES
ET RESULTATS DE SIMULATION
IV.1. Introduction…………………………………………………………………...……….. 46
IV.2. Etapes de simulation…………………………………………………..……………... 46
IV.2.1. Choix des paramètres du système …………………………..…………………..46
IV.2.2. Choix des signaux de test……………………………...……………………… 46
IV.2.3. Identification des paramètres du modèle………………………………….…. 48
IV.2.4. Test de validation……………………………………………………………… 48
IV.3. Mise en œuvre des algorithmes implémentés……………………………………….. 49
IV.4. Identification des paramètres par l’algorithme LMS.................................................... 49
IV.4.1. Système à phase minimale…………………………………………………..… 49
IV.4.2. Système à phase non minimale………………………………………………... 52
IV.5. Identification des paramètres par l’algorithme de Newton stochastique…………….…54
IV.5.1. Système à phase minimale………………………………………………….…. 54
IV.5.2. Système à phase non minimale………………………………………………... 56
IV.6. Identification des paramètres par l’algorithme RLS…………………………………. 58
IV.6.1. Système à phase minimale…………………………………………………….. 59
IV.6.2. Système à phase non minimale………………………………………………... 58
CHAPITRE V :
APPLICATION AU SIGNAL DE PAROLE
V.1. Introduction………………………………………………………………………………66
V.2. Base de données………………………………………………………………….……….66
V.3. Exemples de son voisé et non voisé………..…………………………………….………68
V.4. Transformée de Fourier à court terme……………………………………………………68
V.5. Modélisation de la parole non bruitée.……………………………………………..…… 70
V.6. Modélisation de la parole bruitée.……………………………………………..…………77
V.7. Etude comparative………………………………………………………………………..83
V.8. Modélisation ARMA de la parole non bruitée……………………………………………..
84
V.9. Conclusion………………………………………………………………………………..85
Références bibliographie………………………………………………………………………89
Biographie
Introduction Générale
1. Problématique
L'intérêt des approches d'identification paramétrique fait l'objet de nombreux
développements ces dernières années. Les résultats théoriques établis concernent
généralement les performances asymptotiques des méthodes dans le cas de signaux d'entrée
connus et suffisamment excitants. Le cas plus réaliste de données faiblement informatives, en
nombre fini ou avec des incertitudes non seulement sur les signaux de sortie mais aussi sur les
signaux d'entrée a reçu moins d'attention jusqu'a présent ; de ce fait, de nombreux problèmes
théoriques et pratiques restent ouverts.
Le sujet proposé est motivé par les problèmes rencontrés lors des récents travaux de
recherche effectués sur l'analyse des processus physiques. Dans ce domaine applicatif, la
recherche des modèles à temps discrets ayant un sens physique est primordiale. En outre, les
récentes évolutions technologiques pour l'acquisition de données permettent aujourd'hui
d'envisager le développement de nouvelles techniques de modélisation et d'identification des
processus physiques.
Différents travaux concernant cette classe de traitements pour l’identification et/ou la
reconstruction de signaux ont été menés. L’algorithme de type LMS permet effectivement un
traitement en temps réel mais conduit à une estimation biaisée des paramètres du modèle
ARMA. L’algorithme EM est une adaptation d’un algorithme hors ligne, il souffre d’une
grande complexité de calcul. Par contre, il fournit une estimation non biaisée des paramètres
du modèle ARMA.
D'autres auteurs introduisent une autre catégorie d'algorithmes pour supprimer le bruit
[1]. Ils considèrent que chaque segment du signal est stationnaire et modélisé par un système
autorégressif d'ordre p. La plupart des modèles temps-fréquences de la parole sont construits
sur un modèle linéaire fonctionnel très simple de production de la parole décrit par [Markel &
Gray, 1976].
[Makhoul, 1977] a établi les coefficients de prédiction dans le domaine fréquentiel et
temporel. II a traité les cas ou le signal est considéré déterministe (voisement) ou non
déterministe (bruit, non voisé) en abordant également la question de la stabilité et du gain du
système.
2. Solutions proposées
L'utilisation des méthodes d'identification traditionnelles sans bruit conduit souvent à
des estimations biaisées. C'est pourquoi, le problème d'identification de systèmes dans un
contexte dénommé bruité est reconnu pour être beaucoup plus délicat à traiter et reste encore
largement ouvert.
3. Organisation de la thèse
Le premier chapitre de cette thèse est un rappel bref sur des notions et généralités de
processus stochastiques et la parole.
Le second chapitre est réservé pour la modélisation et l’identification paramétrique des
processus physiques.
Dans le troisième chapitre, nous présentons l’étude et développement des algorithmes
d’identification paramétriques tel que l’algorithme de Newton stochastique, Gradient
stochastique et Moindres carrés récursifs. Une version étendue RELS est aussi obtenue pour
identifier sans bais les paramètres d’un processus physique de type ARMAX.
Le quatrième chapitre est consacré à l'implémentation des algorithmes d'identification
et aux résultats obtenus par simulation. Plusieurs tests ont été effectués sur différents
processus physiques stables à phase minimale ou non minimale ainsi que leurs interprétations
physiques.
Le dernier chapitre, est une application au signal de parole qui sera le fruit de notre
travail. Enfin, en conclusion générale de ce travail, nous résumons les méthodes proposées et
les résultats obtenus, et pressentons des perspectives d'études.
En conclusion, le travail réalisé dans cette thèse a permis d’étudier et implémenter les
algorithmes d’identification paramétrique et tester leurs performances. Les perturbations
aléatoires qui entachent la sortie mesurée du processus physique peuvent causer un biais sur
l’estimation des paramètres. Pour différents types de perturbations, il existe des méthodes
appropriées d’identification récursive assurant asymptotiquement une estimation non biaisée
des paramètres.
Chapitre
I.2.2. Indépendance
On dit d’une FA qu’elle est à valeurs indépendantes si [3]
PX [x(t1 ), . . ., x(t n )] = PX [x(t1 )] × ... × PX [x(t n )] (I.1)
A tout instant, le futur est indépendant du présent et du passé puisque
PX [x(t n ) x(t1 ), . . ., x(t n −1 )] = PX [x(t n )] (I.2)
I.2.3.1. Moyenne
On appelle moyenne de la fonction aléatoire en temps continu X (t ) , la fonction de t
qui pour toute valeur de t donne la moyenne de la variable aléatoire obtenue à cet instant, soit
+∞
m X (t ) = E [ X (t )] = ∫ x P [x(t )]dx
X (I.3)
−∞
∫ [x − m (t )][x − m X (t )] PX [x (t )] dx
∗
= X
−∞ (I.4)
{
C X (t1 , t 2 ) = E [ X (t1 ) − m X (t1 )][X (t 2 ) − m X (t 2 )]
∗
}
∫∫ [x − m X (t1 )][x 2 − m X (t 2 )] PX [x(t1 ), x(t 2 )] dx1 dx 2
=
∗ (I.5)
1
x1, x 2
{
C XY (t1 , t 2 ) = E [X (t1 ) − m X (t1 )][Y (t 2 ) − mY (t 2 )]
∗
}
[ ]
= ∫∫ [x − m X (t1 )] y − m y (t 2 ) PXY [x(t1 ), y (t 2 )] dx dy
∗ (I.6)
x, y
I.2.4.1. Stationnarité
Dans le langage courant, la notion de stationnarité est utilisée pour un phénomène dont
les caractéristiques essentielles ne se modifient pas au cours du temps : on parle de météo
stationnaire, d’état stationnaire d’une maladie, etc. … Le caractère stationnaire d’une fonction
aléatoire est associé à cette acception du mot, mais se définit précisément au moyen de ses
propriétés.
C X (t1t 2 ) = C X (τ = t1 − t 2 ) (I.8)
De ce fait la variance est aussi constante puisque :
σ X2 = C X (t , t ) = C X (0) = σ X2 (I.9)
I.2.4.2. Ergodicité
L’ergodicité est une propriété importante qui lie les moyennes statistiques et les
moyennes temporelles. Tout comme pour la stationnarité, il existe différents types
d’ergodisme. Un processus aléatoire est ergodique au sens strict, si tous les moments
statistiques sont égaux aux moments temporels. Un processus aléatoire est ergodique au sens
large (ou du second ordre), si il y a égalité des moyennes statistiques et temporelles ainsi que
des fonctions d’autocorrelation [4]. Dans ce qui suit, on se limitera à étudier l’ergodisme pour
des fonctions aléatoires stationnaires.
X (t ) par :
t0 +T
ηT (t0 ) = ∫ X (t )dt
t0
(I.10)
Il s’agit clairement d’une V.A dépendant de l’origine choisie t0. On peut se demander
ce que devient cette valeur pour T → ∞ . On dit d’une F.A qu’elle est ergodique relativement à
la moyenne si, lorsque T tend vers l’infini, la moyenne temporelle est indépendante de t0 et
tend vers la moyenne (espérance mathématique, moyenne d’ensemble) :
lim η T (t 0 ) = m X ∀ t0 (I.11)
T →∞
T →∞
[
lim E ηT (t0 ) − mX
2
]= 0 (I.12)
Pour une FA continue, une condition nécessaire et suffisante d’ergodisme est que :
1
T
τ
lim ∫
T →∞ T 0
(1 − ) C X (τ ) dτ = 0
T
(I.13)
t0 +T
∫ [X (t + τ ) − η (t 0 + τ )][X (t ) − ηT (t 0 )] dt
1
φ X (τ , t 0 ) = T
*
(I.15)
T 0
lim φ X (τ , t 0 ) = C X (τ ) (I.16)
T →∞
Si le signal est plus ergodique, la fonction d'autocorrelation peut être obtenu à partir
d'une réalisation de la variable aléatoire.
u(n) x(n)
FILTRE
LINEAIRE
Bruit blanc Suite corrélée
Fig.I.1 : Génération d’un signal aléatoire corrélé.
Le filtre linéaire peut avoir différentes structures qui correspondent à différents modèles
pour le signal de sortie. Il existe trois modèles linéaires stochastiques classiques:
de x(t1 ) et ne dépend pas de x (τ ), τ 〈 t 1 . Toute l’information sur le passé est concentrée dans
le dernier état observé. Un processus de Markov est donc un processus stochastique dont le
passé n’a pas d’influence sur le futur si le présent est connu [5].
I.3.5.2. Biais
La convergence est une propriété asymptotique: définir la convergence demande de
considérer des échantillons de taille arbitrairement grande. Dans la réalité, la taille des
échantillons est limitée pour des raisons de délais ou de budget. Il est donc naturel de se
demander quelle qualité est attendue d'un estimateur limité à des échantillons de taille donnée
t. On espère alors certainement que la région centrale de la distribution de cet estimateur soit
proche de la valeur vraie θ0 du paramètre (Fig. I.2). Une façon d'exprimer cette idée est de
considérer les estimateurs dont la moyenne de la distribution (l'espérance) soit égale à θ0 pour
toute valeur de t. Un tel estimateur est dit non biaisé, ou sans biais, si cette propriété est
vérifiée :
⎡∧ ⎤
E ⎢θ ( t ) ⎥ = θ 0 (I.19)
⎣ ⎦
Avec E désigne l'espérance mathématique
I.3.5.3. Efficacité
La définition de l'efficacité relativeη de deux estimateurs sans biais θˆ1 et θˆ2 d'un
même paramètre θ pour une taille d'échantillon donnée n est le rapport de leurs variances :
η=
Var {θˆ (t ) }
{θˆ (t ) }
1
(I.20)
Var 2
de l'estimateur θˆ :
⎢⎣
(
EQM = E ⎡ θˆ − θ 0 ⎤
2
)
⎥⎦ (I.21)
() (
EQM = Var θˆ + Biais θˆ ( ))2
(I.22)
Cette expression explique pourquoi un estimateur sans biais n'est pas toujours
systématiquement préférable à un estimateur biaisé, mais de faible variance. En pratique,
cependant, on considère surtout les estimateurs sans biais parce qu'ils sont plus faciles à
identifier que les estimateurs d'EQM minimal, et qu'ils ont de "bonnes" propriétés
mathématiques.
L'identification d'estimateurs d'erreur quadratique moyenne minimale est cependant
malaisée, et la plupart des estimateurs communément utilisés sont simplement des estimateurs
sans biais.
Etant donnés deux estimateurs:
θˆ1 non biaisé, mais de variance importante
θˆ2 peut s'avérer en pratique être un meilleur estimateur que θˆ1 (Fig. I.3).
de se refermer. Des impulsions périodiques de pression sont ainsi appliquées au conduit vocal.
Le taux auquel les cordes vocales s'ouvrent et se ferment s'appelle la fréquence fondamentale
(dénotée par F0) qui correspond physiquement au pitch perçu, sa valeur change avec la taille
du conduit vocal. La fréquence fondamentale peut varier de 80 à 200 Hz pour une voix
masculine, de 150 à 450 Hz pour une voix féminine, et de 200 à 600 Hz pour une voix
d’enfant.
La Fig.I.4 présente des segments de sons voisés et non voisés avec leurs spectres
correspondants.
1/F0
(a)
Structure
Formantique
(b) (c)
Fréquence (Hz)
Fig. I.4 : (a) - Deux segments de voix, l’un non voisé et l’autre voisé.
(b) - Spectre de puissance pour un segment de 32 ms non voisé.
(c) - Spectre de puissance et sa structure formantique correspondante pour
un segment de 32 ms voisé.
Les sons voisés présentent dans le domaine temporel un signal quasi-périodique tandis
qu’ils présentent une structure harmonique dans le domaine fréquentiel, l’espacement entre
les harmoniques est égal à la fréquence fondamentale F0 (pitch). L’enveloppe spectrale
possède une structure formantique, elle est caractérisée par un nombres de pics (dénotés par
Fi), chacun d’eux est appelé Formant, Les trois premiers formants sont essentiels pour
caractériser le spectre vocal. Les formants d’ordre supérieur ont une influence plus limitée.
La structure formantique est attribuée au conduit vocal qui agit comme un filtre ayant
comme résonances les pôles de la fonction de transfert ou formants, et comme anti-résonances
les zéros de la fonction de transfert.
Les sons non voisés sont le résultat du passage du flux d’air par une étroite
constriction au niveau du conduit vocal causant des turbulences, c'est-à-dire du bruit.
Contrairement aux sons voisés, les sons non voisés ne présentent pas de structure périodique.
Ils peuvent être modélisés par un bruit blanc filtré par le conduit vocal.
p
y ( n) = G ⋅ u ( n ) + ∑ − a i y ( n − i ) (I.23)
i =1
Par analogie entre le modèle physique et le modèle mathématique, ont peut donner les
relations d’équivalences illustrées sur la figure I.6.
I.6. Conclusion
En conclusion, les fonctions aléatoires jouissent de propriétés remarquables qui en
simplifient souvent l'étude et la caractérisation. La propriété la plus usuelle est la stationnarité
puisqu'elle consiste à reconnaître une quasi-invariance du comportement statistique de la
variable aléatoire quelle que soit la valeur attribuée au paramètre déterministe de l'origine du
temps.
Autrement dit, un signal aléatoire est stationnaire si les moments et la densité de
probabilité sont indépendants du temps. Une étude plus attentive des fonctions aléatoires
montre cependant que la stationnarité n'est pas toujours acquise et qu'il faut parfois distinguer
la stationnarité au sens strict de celle qui regarde l'ordre des moments de la fonction. Une
autre propriété, étroitement associée à la précédente, s'appelle l'ergodisme. L'ergodisme
apporte d'intéressantes simplifications dans la mesure où l'on peut exploiter la convergence
existant entre les moments de la variable aléatoire et les valeurs moyennes de la fonction
calculée par intégration sur le paramètre déterministe. Cette propriété n'est pas très aisée à
justifier sur le plan théorique, aussi faut-il souvent user de considérations intuitives pour la
découvrir. Le domaine d'application le plus répandu des fonctions aléatoires est certainement
le traitement du signal.
Chapitre
II.1. Introduction
Ce chapitre est certainement le plus philosophique et le plus stratégique. En effet, la
modélisation et l’identification ne se réduisent pas à utiliser un logiciel de traitement de
données sur un signal venant d’un processus observé passivement. Représenter le monde réel,
bruité, non linéaire, non stationnaire par une équation mathématique forcement limitée est un
acte précieux. Il est donc nécessaire de bien saisir les limites de la démarche et la valeur
relative de la modélisation. Ajoutons que la grande et bénéfique accessibilité des moyens de
calculs modernes augmente le risque pour l’utilisateur non averti, de ne voir que l'aspect
algorithmique du problème.
La modélisation consiste à trouver une représentation du comportement d’un système
c’est à dire la relation entre l’entrée et la sortie de ce système, et voir les différentes
approches pour l'établissement d'un modèle. L'identification consiste aussi à déterminer les
caractéristiques dynamiques de ce système, c'est-à-dire, à ajuster les paramètres inconnus du
modèle de manière à ce que celui-ci décrire au mieux le fonctionnement du système.
∑ a i y (t − i ) =
i=0
∑ b u (t − i )
i=0
i (II.1)
Y ( z) = ∑b z i
−1
B( z )
H ( z) = i =0 = (II.3)
U ( z) n A( z )
1 + ∑ a i z −1
i =1
H (z ) ne contient que des pôles, c’est pour cette raison que ce modèle est aussi appelé modèle
tout pôles. La fonction de transfert peut s'écrire sous la forme suivante:
b0
H ( z) = n
(II.5)
1 + ∑ ai z −1
i =1
Dans le domaine spectral, le modèle sera alors caractérisé par la position de ses zéros
dans le plan complexe, ce modèle est appelé tout zéros.
II.2.3.1. Système
Un système (où processus) sera pour nous une partie de l’univers qui nous entoure, et
que nous avons décidé, plus ou moins arbitrairement d’appréhender comme un tout avec
lequel nous interagissons. Nous observons certaines grandeurs caractéristiques du système et
le résultat de ces observations forme le vecteur des sorties y et d’autres grandeurs
caractéristiques du système forment un vecteur qui peut contenir des grandeurs
inaccessibles à la mesure. Nous agissons sur le système par des grandeurs qui peuvent
être connues et maîtrisables, ou non maîtrisables et plus ou moins inconnues, ce sont les
perturbations ou bruit.
II.2.3.2. Modèle
Le modèle est une règle permettant de calculer, à partir de grandeurs connues ou
mesurées, d’autres grandeurs dont nous espérons qu’elles ressembleront aux grandeurs du
système qui nous intéresse. Fréquemment, le modèle calcule, à partir de l’entrée u du système
une sortie ŷ qui ressemble le plus possible à y. Puisque le modèle et le système ont alors la
même entrée, on parlera de modèle parallèle. Par contre dans le cas où le modèle calcule à
partir de la sortie y un vecteur û dont on souhaite qu’il ressemble le plus possible aux
entrées u du système, on parlera du modèle série ou inverse.
II.2.3.3. Critère
Pour fixer les idées, nous supposons le modèle de type parallèle, c'est-à-dire,
soumis aux mêmes entrées et aux mêmes conditions initiales que le système, on appelle
alors erreur de sortie, la différence entre la sortie du système et celle du modèle. L'erreur
de sortie peut s'écrire sous la forme:
ε r = y (t ) − yˆ (t ) (II.7)
Le plus souvent , on souhaite que cette erreur de sortie soit aussi proche que possible
de zéro , l’échelle de valeurs qui sera utilisée pour effectuer la comparaison prendra la
forme d’une fonction scalaire J (θ) appelée « critère ». Le choix du critère doit traduire
le but fixé à la modélisation quelque soit le critère choisi, il convient ensuite de
l’optimiser.
II.2.3.4. Optimisation
L’algorithme d’optimisation reçoit toute les informations disponibles et les utilise
pour minimiser J (θ ) de façon à calculer θˆ .
Dans les deux cas, le choix du nombre de paramètres du modèle est laissé à l'analyste.
On se convainc facilement qu'une augmentation du nombre de paramètres du modèle
augmente sa souplesse, et donc sa capacité à rendre compte des données d'apprentissage. Mais
on découvre également qu'à partir d'un certain point, une augmentation du nombre de
paramètres conduit à une dégradation des performances du modèle sur les données nouvelles.
Donc, le modèle une fois construit, il convient d'estimer ses performances réelles sur
des données nouvelles (et non pas sur les données qui ont servi à le construire). Ceci se fait en
soumettant plusieurs modèles candidats à une série de tests de validation. Le modèle
finalement retenu est celui qui aura obtenu les meilleurs résultats lors de ces tests (et ce ne
sera vraisemblablement pas celui qui aura obtenu les meilleurs résultats sur les données
d'apprentissage).
u (t ) y(t )
Système
+
Critère
yˆ (t ) -
Modèle
Optimisation
II.4. Conclusion
Nous avons présenté deux notions très importantes, la modélisation et l’identification.
Un modèle de procédé est un ensemble de relations mathématiques permettant de prédire
certains aspects de son fonctionnement. L’efficacité des modèles repose sur une analogie,
entre le comportement des objets physiques et celui des êtres mathématiques.
La modélisation permet de représenter sous forme synthétique et cohérente un
ensemble de connaissances, l’utilisation de matériel informatique impose de travailler avec
des valeurs discrètes des différents signaux, nous nous intéressons au modèles qui décrivent
l’évolution des procédés au cours du temps.
L’identification consiste à ajuster les paramètres inconnus du modèle de manière à ce
que celui-ci décrit au mieux le fonctionnement du procédé.
Les algorithmes d’identification récursifs peuvent être utilisés pour l’estimation des
paramètres d’un modèle à partir des données entrée/sortie et présentent plusieurs avantages
par rapport aux algorithmes non récursifs.
Chapitre
III.1. Introduction
L’identification de systèmes est fortement liée à la construction de modèles décrivant
de manière mathématique les processus physiques. La principale valeur ajoutée apportée par
l’étape d’identification se traduit par une meilleure connaissance du système. Ainsi, lorsque
l’étape préliminaire relative à l’identification du processus est réalisée, il est possible
d’atteindre des objectifs classiques d’automatique comme l’observation de variables non
accessibles directement à la mesure ou à la commande de ces processus. Au tout début,
l’identification en tant que telle est fortement liée aux méthodes statistiques comme la
méthode des Moindres Carrés récursifs ou du Maximum de Vraisemblance, très largement
appliquées sur des processus industriels. Ces deux méthodes sont obtenues grâce à
l’optimisation d’un critère dépendant des paramètres du système et elles sont très souvent
utilisées sur des processus discrétisés. Il est clair que décrire un système en temps discret
présente un avantage en termes de calculs informatiques.
Mais, beaucoup de systèmes réels sont modélisés en temps continu. De plus, les
paramètres ont, la plupart du temps, une signification physique en temps continu. Les
algorithmes peuvent être, soit implémentés tels quels sur des processus réels en considérant la
faible fréquence d’échantillonnage de la carte d’acquisition par rapport à la bande passante du
système étudié, soit discrétisés si nécessaire par les méthodes habituelles.
Dans le cadre de cette thèse, nous nous sommes intéressés plus particulièrement, à
l’identification paramétrique par les algorithmes suivants:
Algorithme du gradient stochastique (Least Mean Squares (LMS))
Algorithme de Newton stochastique (Stochastic Newton (SN))
Algorithme des moindres carrés récursif (Recursive Least Squares (RLS))
Algorithme des moindres carrés étendu (Recursive Extended Least Squares (RELS))
⎡ ∂J ( x) ⎤
xˆ (t ) = xˆ (t − 1) + µ ⎢− ⎥ (III.1)
⎣ ∂ ( x) ⎦ x = xˆ ( t −1)
Avec µ représente le pas d’adaptation.
Avec a 0 = 1 , b0 = 1
u (t ) : Entrée du système
y (t ) : Sortie du système
e(t ) : Bruit blanc.
Comme on peut représenter cette dernière équation sous une forme matricielle:
J (θ ) =
1
2
[
E ε 2 (t ) ] (III.5)
ε (t ) = [ y (t ) − θˆ T ϕ (t ) ] (III.6)
La solution optimale aux sens de l’erreur quadratique moyenne est donnée par:
T
⎡ ∂J (θ ) ⎤
{
⎢⎣ ∂θ ⎥⎦ = − E ϕ (t )[ y (t ) − θ ϕ (t )
T
} θ =θˆ ( t −1)
(III.7)
{
θˆ(t ) = θˆ(t − 1) + µE ϕ (t )[ y (t ) − θˆ T (t − 1)ϕ (t )] } (III.9)
Cet algorithme est porte le nom : Algorithme du gradient déterministe, en général les
stochastiques de ( (ϕ (t ), y (t )) sont inconnus. Cependant, on remplace la valeur moyenne par
sa valeur instantanée, et dans ce cas, l’algorithme est appelé par l’algorithme du gradient
stochastique, et on écrit :
0<µ ≤
2
λmax
{
Avec λmax : la plus grande valeur propre de la matrice E ϕ (t )ϕ T (t ) . }
f (x)
f ( x0 )
f ( x1 )
f ( x2 ) α x
0 x2 x1 x0
f ( x0 ) − f ( x1 ) f ( x0 )
tg (α ) = f ' ( x0 ) = = (III.11)
x 0 − x1 x 0 − x1
f ( x0 ) f (x ) f (x ) f ( xn )
x1 = x0 − '
, x 2 = x1 − ' 1 , x3 = x 2 − ' 2 , … x n +1 = x n −
f ( x0 ) f ( x1 ) f ( x2 ) f ' ( xn )
f [ x(t − 1)]
x(t ) = x(t − 1) − (III.12)
f ' [ x(t − 1)]
Comme il peut être représenté dans le cas vectoriel par l’équation (III.17):
⎡ ∂ 2 J (θ ) ⎤
⎢ 2 ⎥
[ ]
= E ϕ (t )ϕ T (t ) = R (III.19)
⎣ ∂θ ⎦
(
θˆ(t ) = θˆ(t − 1) + γ 1 (t ) R −1 (t )ϕ (t ) y (t ) − θˆ T (t − 1)ϕ (t ) ) (III.20)
( ) (
E ϕ (t )ϕ T (t ) = R ⇒ E ϕ (t )ϕ T (t ) − R = 0 ) (III.21)
(
R(t ) = R(t − 1) + γ 2 (t ) ϕ (t )ϕ T (t ) − R(t − 1) ) (III.22)
Avec γ 2 (t ) représente un gain scalaire
(
θˆ (t ) = θˆ (t − 1) + γ 1 (t ) R −1 (t )ϕ (t ) y (t ) − ϕ T ( t )θˆ ( t − 1) ) (III.23)
(
R(t ) = R(t − 1) + γ 2 (t ) ϕ (t )ϕ T (t ) − R(t − 1) ) (III.24)
Remarques
Si R (t) = I (matrice d’identité) alors on obtient l’algorithme du gradient stochastique
1
Si γ 1 (t ) = γ 2 (t ) = alors on obtient l’algorithme RLS.
t
N
1
J N (θ ) =
N
∑t =1
[ ε (t) ] 2 (III.25)
Où
ε (t): représente l’erreur de prédiction.
N: nombre d'échantillons
n m
∑ a Y ( z) z
i =0
i
−i
= ∑ biU ( z ) z −i + E ( z )
i =0
(III.26)
On pose:
n
A (z) = ∑ a i z −i
i =0
m
B(z) = ∑ b i z −i
i =0
A( z ) Y ( z ) = B( z ) U ( z ) + E ( z ) (III.27)
E ( z ) = A( z ) Y ( z ) − B( z ) U ( z ) (III.28)
u (t) y(t)
Système
- +
B (Z) A (Z)
e (t)
Sachant que :
yˆ ( t ) = ϕ T ( t )θˆ ( t − 1) (III.31)
Avec
θˆ ( t − 1) : Vecteur des paramètres estimés.
La méthode des moindres carrés est basée sur la détermination des meilleurs
paramètres, c’est à dire ceux qui minimiseront un certain critère d’optimalité [43]. Il
représente la somme des carrés des erreurs de prédictions, et qui est mentionné par l'Eq.III.25.
La minimisation du critère JN ( θ ) consiste à trouver un optimum, c’est à dire de
calculer sa dérivée :
⎡∂ JN (θ )⎤
⎢ ⎥ = 0 (III.32)
⎣ ∂ θ ⎦θ =θˆ(N)
⎡∂ JN (θ )⎤
⎢ ⎥ = −
2 ⎧ N T
[⎫
⎨ ∑ ϕ (t ) y(t) − θ ϕ (t) ⎬ ] (III.33)
⎣ ∂ θ ⎦θ =θˆ( N) N ⎩ t =1 ⎭ θ =θˆ( N)
N N
θˆ (N) = [ ∑ϕ (t ) ϕ T (t ) ]−1.∑ϕ(t) y(t) (III.34)
t =1 t =1
est important, d’où le calcul de son inverse n’est pas conseillé, pour cela on utilise
l’estimation récursive des moindres carrés .
t
R(t) = ∑ϕ(k)ϕT (k) = R(t −1) + ϕ(t)ϕT (t) (III.35)
k =1
⎡ t−1
⎤
θˆ ( t ) = R − 1 ( t ) ⎢ ∑ ϕ (k ) y ( k ) + ϕ (t ) y (t )⎥ (III.37)
⎣k =1 ⎦
θˆ (t ) = R −1 (t ) ⎡⎢ R (t − 1) θ (t − 1) + ϕ (t ) y (t ) ⎤⎥
∧
(III.38)
⎣ ⎦
D’après cette dernière équation (III.40), on remarque que la solution des moindres
carrés récursive contient le terme R-1(t) qui nécessite une inversion matricielle à chaque
instant t.
Rappelons, le lemme d’inversion matricielle qui se présente sous la forme [11] :
Nous posons:
A = R(t − 1) , B = ϕ (t ) , C = 1 , D = ϕ T (t )
Or
[
R −1 (t ) = R(t − 1) + ϕ (t )ϕ T (t ) ]−1
(III.42)
(
θˆ (t) = θˆ(t − 1) + P(t)ϕ(t) y(t) − θˆT (t − 1)ϕ(t) ) (III.44)
⎡∧ ⎤
E ⎢θ ( t ) ⎥ = θ 0 (III.46)
⎣ ⎦
−1
⎡ ⎤
∑ϕ(k)[ ϕ (k)θ +e(k) ]
N N
θˆ ( N ) = ⎢ ∑ ϕ (k) ϕ ( k)⎥
T T 0 (III.47)
⎣ k =1 ⎦ k =1
⎛ N N
⎞
θˆ (N) = θ0 + ⎜[ ∑ϕ (k ) ϕT (k ) ]−1.∑ϕ(k)e(k)⎟ (III.48)
⎝ k =1 k =1 ⎠
Donc, pour que la méthode des moindres carrés fournisse une estimation non biaisée
c'est-à-dire l'équation (III.46) est vérifiée, il faut que:
A( z ) y (t ) = B ( z ) u (t ) + C ( z ) e(t ) (III.49)
Rappelons que l'algorithme RLS suppose que le bruit additif en sortie est un bruit
blanc par contre dans le cas du RELS considère que le bruit ajouté en sortie est un bruit
coloré. Ce bruit peut être considéré comme étant le résultat du filtrage d’un bruit blanc.
L’idée est d'identifier simultanément le modèle du procédé et le modèle de la
perturbation, pour pouvoir obtenir une erreur de prédiction asymptotiquement "blanche" [44].
e(t )
C (z )
+
v(t )
u(t ) y(t )
+ 1
B(z)
A( z )
m n
y( t ) = ∑ bi u ( t −i ) − ∑ a y ( t − i)
i + v( t ) (III.50)
i=0 i =1
Avec
n , m : Ordre du modèle
u (t ) , y (t ) : Entrée, Sortie du système respectivement
v(t ) : Bruit coloré.
La perturbation v(t ) est considérée comme le résultat d’un bruit banc filtré, et on écrit:
n m p
∑ ai z −iY ( z) = ∑ bi z −iU ( z) + ∑ ci z −i E( z)
i =0 i =0 i =0
(III.52)
Nous posons:
n m p
A( z ) = ∑ ai z −i
, B ( z ) = ∑ bi z −i
, C ( z ) = ∑ c i z −i
i =0 i =0 i =0
B( z ) C ( z)
Y ( z) = U ( z) + E( z) (III.53)
A( z ) A( z )
Or
B( z )
H 1 ( z) = ; H 2 ( z) = C ( z)
A( z ) A( z )
Avec
H 1 ( z ) : Fonction de transfert du système.
H 2 ( z ) : Fonction de transfert du filtre.
y (t ) = θ T ϕ (t ) + e (t ) (III.54)
On définit l’erreur de prédiction a priori comme étant la différence entre la sortie du système
et la sortie du modèle :
ε (t ) = y (t ) − yˆ (t ) (III.55)
Sachant que :
yˆ ( t ) = θˆ T ( t − 1)ϕ ( t ) (III.56)
e(t) = y(t) + a1 y(t −1) + ... an y(t − n) − b1u(t −1) − ... − bmu(t − m) − c1e(t −1) ... cpe(t − p) (III.57)
ε (t) = y(t) + aˆ1 y(t −1) + ... aˆn y(t − n) − bˆ1u(t −1) −... − bˆmu(t − m) − cˆ1ε (t −1) ... cˆ pε (t − p) (III.58)
La prédiction ajustable a priori dans le cas des moindres carrés étendus s’obtient de
l’équation (III.56), en remplaçant les paramètres connus par les paramètres estimés :
[
θˆ T (t ) = aˆ1 (t ) aˆ 2 (t ) ... aˆ n (t ) , bˆ1 (t ) bˆ2 (t ) ... bˆm (t ) , cˆ1 (t ) cˆ 2 (t ) ... cˆ p (t ) ]
ϕT (t) = [− y(t −1) − y(t −2) ... − y(t −n) , u(t −1) u(t −2) ... u(t −m) , ε(t −1)ε(t −2) ... ε(t − p) ]
ε ( t ) = y ( t ) − θˆ T ( t − 1 )ϕ ( t ) (III.59)
III.6. Conclusion
Nous avons présenté dans ce chapitre les méthodes récursives, d'identification de
modèles paramétriques des signaux et systèmes. L'accent a été mis sur la présentation de la
structure des différentes méthodes, leur raison d'être, les conditions de convergence dans un
environnement stochastique et sur leur domaine d'application.
La structure des algorithmes d'adaptation paramétrique commune à toutes les
méthodes d'identification a été présentée en détail indiquant l'influence du choix des différents
paramètres sur la précision de l'estimation et la capacité de suivi de variation des modèles. Les
algorithmes d’identification paramétrique développés sont :
Dans le chapitre qui suit, nous aborderons l'implémentation de ces algorithmes sur
MATLAB ainsi que les résultats obtenus par simulation pour tester les performances de
chaque algorithme.
Chapitre
IV.1. Introduction
Dans ce chapitre, nous allons présenter les résultats obtenus par l’application des
algorithmes d’identification paramétrique pour identifier les paramètres d’un processus
physique tel que l’algorithme du gradient, Newton stochastique et moindres carrés récursif
d’une part et d’autre part une étude comparative entre ces algorithmes pour envisager les
avantages et les inconvénients de ces algorithmes.
2
Figure (a)
Amplitude 1
-1
-2
0 100 200 300 400 500 600
Nombre d'échantillons N
600
Figure (b)
400
Amplitude
200
-200
0 200 400 600 800 1000 1200
Nombre d'échantillons N
4
Figure (a)
2
Amplitude
-2
-4
0 100 200 300 400 500 600
Nombre d'échantillons N
600
Figure (b)
400
Amplitude
200
-200
0 200 400 600 800 1000 1200
Nombre d'échantillons N
La figure en haut, nous montre une Séquence Binaire Pseudo Aléatoire (SBPA) et sa
fonction d'autocorrelation qui rapproche à un bruit blanc. Par contre, la figure en bas
représente un bruit additif Gaussien de moyenne nulle et de variance égale à l'unité. Ce
dernier est généré par la fonction RANDN du logiciel MATLAB.
En effet si la méthode d'estimation utilisée est appropriée pour un type de signal, les
propriétés statistiques de l'erreur de prédiction résiduelle sont celles qui correspondent à la
convergence de l'algorithme. En concret, on teste:
Soit la blancheur des erreurs résiduelles, pour les méthodes d'estimation basées sur le
blanchissement asymptotique de l'erreur de prédiction, par calcul des autocorrélations.
Soit la décorrélation entre l'erreur de prédiction résiduelle et le signal prédit par le
modèle, pour les méthodes basées sur la décorrélation asymptotique du vecteur des
observations et de l'erreur de prédiction (variable instrumentale, erreur de sortie), par
calcul des intercorrélations.
1 LMS
Amplitude
0.5
0
SN
-0.5
0 500 1000 1500 2000 2500 3000
Nombre d'échantillons
Evolution temporelle de l'EQM
0 RLS
EQM en Db
-5
RELS
-10
-15
0 500 1000 1500 2000 2500 3000
Nombre d'échantillons Fermer
Paramètres estimés
Nombre Moyenne du
d’échantillons â1 â 2 b̂1 b̂2 Biais
256*2 0.2217 0.7263 0.9539 0.4130 0.2629
256*4 0.3115 0.8056 0.9979 0.4925 0.0585
256*10 0.3039 0.7959 0.9997 0.5008 0.0251
256*20 0.3011 0.8211 0.9919 0.4990 0.0122
256*50 0.2856 0.8121 1.0156 0.4802 0.0060
Les résultats obtenus montrent que lorsque le nombre d'échantillons N est grand alors
les paramètres estimés sont plus proches aux valeurs réelles et l'erreur de prédiction est
asymptotiquement blanche.
1.5
Figure (a)
1
Amplitude
0.5
-0.5
0 200 400 600 800 1000 1200
Nombre d'échantillons
4000
Figure (b)
3000
Amplitude
2000
1000
-1000
0 0.5 1 1.5 2 2.5 3
Nombre d'échantillons 4
x 10
Paramètres estimés
Facteur µ Moyenne du
â1 â 2 b̂1 b̂2 Biais
0.0049 0.2774 0.7873 0.9877 0.4889 0.1468
0.0098 0.2949 0.8021 1.0005 0.5035 0.0782
0.0144 0.3017 0.7968 0.9877 0.4924 0.0467
0.0194 0.2987 0.7933 0.9793 0.5169 0.0429
1.5
Figure (a)
1
Amplitude
0.5
-0.5
0 200 400 600 800 1000 1200
Nombre d'échantillons
1.5
Figure (b)
1
Amplitude
0.5
-0.5
0 200 400 600 800 1000 1200
Nombre d'échantillons
Paramètres estimés
Nombre Moyenne du
d’échantillons â1 â 2 b̂1 b̂2 Biais
256*2 0.2878 0.7899 0.9297 1.8581 0.2830
256*4 0.2957 0.8061 0.9835 2.0068 0.1602
256*10 0.2992 0.8024 0.9932 1.9925 0.0616
256*20 0.2966 0.7998 0.9896 1.9994 0.0338
256*50 0.3025 0.7931 0.9823 2.0100 0.0135
2
Figure (a)
1.5
Amplitude
0.5
-0.5
0 200 400 600 800 1000 1200
Nombre d'échantillons
4000
Figure (b)
3000
Amplitude
2000
1000
-1000
0 0.5 1 1.5 2 2.5 3
Nombre d'échantillons 4
x 10
Paramètres estimés
Facteur µ Moyenne du
â1 â 2 b̂1 b̂2 Biais
0.0033 0.3016 0.8013 1.0129 1.9921 0.1047
0.0049 0.2995 0.8039 0.9976 2.0019 0.0611
0.0066 0.2988 0.7960 1.0160 1.9866 0.0426
0.0098 0.3137 0.8114 0.9922 1.9861 0.0225
3
Figure (a)
2
Amplitude
-1
0 500 1000 1500 2000 2500 3000
Nombre d'échantillons
3
Figure (b)
2
Amplitude
-1
0 500 1000 1500 2000 2500 3000
Nombre d'échantillons
D'après les résultats obtenus, nous remarquons que l'algorithme LMS permet une
convergence suffisamment rapide pour un bon choix de µ et la présence des zéros en dehors
du cercle unité n'influe pas sur le temps de convergence. Cependant, l'estimateur LMS est
considéré asymptotiquement non biaisé.
Paramètres estimés
variance σ 2 Moyenne du
â1 â 2 b̂1 b̂2 Biais
1.00 0.2905 0.8016 1.0343 0.5018 0.0195
0.25 0.2987 0.8057 1.0078 0.5142 0.0100
0.04 0.2992 0.8013 0.9958 0.4956 0.0096
0.01 0.3014 0.8034 1.0020 0.4995 0.0073
1.2
0.8
0.6
Amplitude
0.4
0.2
-0.2
-0.4
0 500 1000 1500 2000 2500 3000
Nombre d'échantillons
3
Figure (a)
2
Amplitude
-1
-2
0 500 1000 1500 2000 2500 3000
Nombre d'échantillons
800
Figure (b)
600
Amplitude
400
200
-200
0 1000 2000 3000 4000 5000 6000
Nombre d'échantillons
0.6 0.8
Figure (a) Figure (b)
0.6
0.4
Amplitude
Amplitude
0.4
0.2
0.2
0
0
-0.2 -0.2
0 1000 2000 3000 0 1000 2000 3000
Nombre d'échantillons Nombre d'échantillons
1.5 0.8
Figure (c) Figure (d)
0.6
1
Amplitude
Amplitude
0.4
0.5
0.2
0
0
-0.5 -0.2
0 1000 2000 3000 0 1000 2000 3000
Nombre d'échantillons Nombre d'échantillons
Paramètres estimés
Nombre Moyenne du
d’échantillons â1 â 2 b̂1 b̂2 Biais
256*2 0.2821 0.7967 1.0041 1.9707 0.0474
256*4 0.2924 0.7953 0.9974 2.0027 0.0300
256*10 0.3004 0.7994 0.9988 2.0070 0.0103
256*20 0.2989 0.8003 0.9881 2.0078 0.0103
256*50 0.3002 0.8004 1.0002 2.0090 0.0032
Paramètres estimés
Moyenne du
Variance σ 2 â1 â 2 b̂1 b̂2 Biais
1.00 0.3004 0.8028 1.0349 2.0104 0.0163
0.25 0.2987 0.7994 0.9970 1.9983 0.0115
0.04 0.2986 0.7971 0.9970 2.0026 0.0102
0.01 0.2995 0.8007 1.0001 1.9984 0.0100
0.6 0.8
Figure (a) Figure (b)
0.4 0.6
Amplitude
Amplitude
0.2 0.4
0 0.2
-0.2 0
0 500 1000 1500 0 500 1000 1500
Nombre d'échantillons Nombre d'échantillons
1.5 2
Figure (c) Figure (d)
1.5
1
Amplitude
Amplitude
1
0.5
0.5
0
0
-0.5 -0.5
0 500 1000 1500 0 500 1000 1500
Nombre d'échantillons Nombre d'échantillons
Sur les tableaux IV.7 et IV.8 on voit que le fait de prendre le nombre d'échantillons
N = 256*10 et la variance du bruit additif varie dans l'intervalle [0.01 1] entraîne un biais de
l'estimateur de l'ordre de 0.01.
Paramètres estimés
Nombre Moyenne du
d’échantillons â1 â 2 b̂1 b̂2 Biais
2*256 0.2901 0.8072 0.9745 0.4519 0.0302
4*256 0.2956 0.8002 0.9909 0.4802 0.0241
10*256 0.2960 0.8002 0.9885 0.4992 0.0097
20*256 0.2953 0.8029 1.0134 0.4852 0.0050
50*256 0.2984 0.7997 0.9971 0.4968 0.0023
Paramètres estimés
variance Moyenne du
â1 â 2 b̂1 b̂2
σ 2 Biais
1.00 0.3024 0.7986 1.0069 0.4966 0.0107
0.25 0.3001 0.7930 0.9942 0.4982 0.0094
0.04 0.2972 0.8015 0.9979 0.4947 0.0065
0.01 0.3017 0.8001 0.9982 0.5016 0.0047
1.5
Figure (a)
1
Amplitude
0.5
-0.5
0 200 400 600 800 1000 1200
Nombre d'échantillons
300
Figure (b)
200
Amplitude
100
-100
0 500 1000 1500 2000 2500
Nombre d'échantions
Paramètres estimés
Nombre Moyenne du
d’échantillons â1 â 2 b̂1 b̂2 Biais
2*256 0.2957 0.8017 0.9740 1.9551 0.0466
Paramètres estimés
Variance σ 2 Moyenne
â1 â 2 b̂1 b̂2 du Biais
1.00 0.3005 0.8028 1.0353 2.0113 0.0171
0.25 0.3008 0.8011 0.9911 1.9919 0.0110
0.04 0.3008 0.8013 1.0026 1.9998 0.0078
0.01 0.3000 0.8009 0.9975 1.9992 0.0076
3
Figure (a)
2
Amplitude
-1
0 200 400 600 800 1000 1200
Nombre d'échantillons
300
Figure (b)
200
Amplitude
100
-100
0 500 1000 1500 2000 2500
Nombre d'échantillons
Nous venons de montrer que, par simulation, l'algorithme RLS est plus performant que
le LMS. En revanche, la comparaison théorique des deux algorithmes pour des évolutions
permanentes déterministes ou aléatoires ne donne pas toujours la bonne poursuite au RLS. La
réponse dépend des paramètres qui interviennent dans les résidus d'erreurs de sortie, à savoir
le nombre d'échantillons N, la variance et l'ordre du système. Il peut donc exister des cas où
l'algorithme LMS poursuit mieux que le RLS.
Algorithmes utilisés
Biais
Moindre Newton Gradient
carrés stochastique stochastique
0.0018 0.0102 0.0177
⎡∧ ⎤
E ⎢θ − θ 0 ⎥ 0.0048 0.0008 0.0176
⎣ ⎦
0.0054 -0.0031 0.0187
-0.0034 0.0056 0.0397
Paramètres estimés
Nombre ∧ ∧ ∧ ∧ ∧ ∧
Moyenne
d’échantillons a1 a2 b1 b2 c1 c2 du Biais
Paramètres estimés
Variance σ 2
∧ ∧ ∧ ∧ ∧ ∧
Moyenne
a1 a2 b1 b2 c1 c2 du Biais
Les paramètres estimés obtenus par l’algorithme RELS appliqué au système à phase
minimale sont plus proches aux valeurs réelles avec un biais d’estimation de l’ordre de 2 %
1.2
0.8
0.6
plitude
0.4
Am
0.2
-0.2
-0.4
0 500 1000 1500 2000 2500 3000
Nombre d'échantillons
3
Figure (a)
2
Amplitude
-1
-2
0 500 1000 1500 2000 2500 3000
Nombre d'échantillon
800
Figure (b)
600
Amplitude
400
200
-200
0 1000 2000 3000 4000 5000 6000
Nombre d'échantillon
0.5 1
Figure (b)
Amplitude
Amplitude
Figure (a)
0.5
0
0
-0.5 -0.5
0 1000 2000 3000 0 1000 2000 3000
1 1
Figure (c) Figure (d)
Amplitude
Amplitude
0.5 0.5
0 0
-0.5 -0.5
0 1000 2000 3000 0 1000 2000 3000
0.5 1
Figure (f)
Amplitude
Amplitude
Figure (e)
0.5
0
0
-0.5 -0.5
0 1000 2000 3000 0 1000 2000 3000
Nombre d'échantillons Nombre d'échantillons
IV.10. Conclusion
Dans ce chapitre nous avons implémenté sous MATLAB les algorithmes
d’identification paramétrique basés sur le blanchissement de l’erreur de prédiction, qui sont :
l’algorithme du gradient stochastique, Newton stochastique et l’algorithme des moindres
carrés récursif.
Comme il est bien connu, il y a essentiellement deux familles d'algorithmes
d'adaptation, les gradients, encore dénommés (LMS) et les moindres carrés récursifs (RLS).
Les premiers sont appréciés pour leurs simplicités et performances. Puisque ce sont des
algorithmes itératifs ils peuvent être appliqués à un système très variant dans le temps. Ils ont
une exécution stable et robuste contre différents états de signal. Cependant ils peuvent ne pas
avoir une vitesse vraiment rapide de convergence.
Les seconds sont connus comme ayant une vitesse de convergence supérieure. Pour
cette dernière raison beaucoup d'auteurs ont pensé que les RLS sont capables d'une meilleure
poursuite dans un contexte non stationnaire.
Chapitre
V.1. Introduction
Le modèle AR (autorégressif) a prouvé son efficacité dans l'analyse spectrale du signal
de parole. La raison en est que la parole est, dans la plupart des cas, produite par l'excitation
des résonances acoustiques du conduit vocal, et que celles-ci correspondent bien à une
fonction de transfert tout pôle. Mais la production de la parole est en réalité bien plus
complexe. La source d'excitation glottale et le couplage source/conduit peuvent de toute
évidence modifier la fonction de transfert du conduit vocal. Cette dernière peut elle-même
présenter une structure complexe, notamment une ou plusieurs paires pôle zéro, dans le cas où
plusieurs cavités sont couplées acoustiquement [61, 62]. C'est pourquoi on peut observer dans
le spectre du signal de parole des creux marqués, des variations brusques ou des parties plates,
qui sont difficiles à modéliser par un simple filtre tout pôle d'ordre limité [25].
Afin d'améliorer la modélisation du signal de parole, on a été amené à appliquer des
algorithmes des moindres carrés récursifs RLS et RELS pour estimer les paramètres d'un
modèle AR qui ont été développés [42, 44]. Ils permettent avantageusement de suivre les
variations des paramètres.
Rappelons que ces algorithmes d'identification sont normalement conçus pour estimer
les paramètres d'un système inconnu, ou modèle, soumis à un signal d'excitation connu. Or
pour la parole, le signal d'entrée ne nous est pas accessible.
Nous voulons montrer dans ce travail de thèse, que lorsqu'on ne connaît pas le signal
d'excitation, la précision de l'estimation des paramètres est très limitée. Il est clair que
l'ajustement des paramètres du modèle dépend essentiellement du signal résiduel. Dans le cas
où le signal d'entrée est inconnu, celui-ci se retrouve dans le signal résiduel et participe donc à
l'erreur de prédiction. Cette présence du signal d'entrée inconnu dans le résidu perturbe le
mécanisme d'ajustement, et diminue fortement la précision de l'estimation.
Les signaux de parole sont d'abord filtrés passe-bas à une fréquence 3.2 KHz, puis
échantillonnés à 8 KHz qui sont représentés sur les figures V.1, 2
1
Figure (a)
0.5
Amplitude
-0.5
-1
0 1 2 3 4 5 6
Nombre d'échantillons N 4
x 10
1
Figure (b)
0.5
Amplitude
-0.5
-1
-1.5
0 0.5 1 1.5 2 2.5
Nombre d'échantillons N 4
x 10
Fig.V.1 : Exemples de parole (Signal (x1): locuteur en haut, locutrice en bas) prononce la phrase: « Un
loup s’est jeté immédiatement sur la petite chèvre ». Avec x ∈ {M , F } , or M et F désigne un locuteur
masculin et féminin respectivement.
1
Figure (a)
0.5
Amplitude
-0.5
-1
-1.5
0 2000 4000 6000 8000 10000 12000 14000 16000 18000
Nombre d'échantillons N
1
Figure (b)
0.5
Amplitude
-0.5
-1
-1.5
0 2000 4000 6000 8000 10000 12000 14000 16000 18000
Nombre d'échantillons N
Fig.V.2 : Exemples de parole (Signal (x2): locuteur en haut, locutrice en bas) prononce la phrase:
« C'est petit canard apprend à nager ». Avec x ∈ {M , F } , or M et F désigne un locuteur masculin et
féminin respectivement.
1
Amplitude
-1
Voisé Non voisé Voisé Non voisé
-2
Amplitude
0
0
-2000 -1
-4000 -2
6400 6500 6600 6700 8200 8400 8600 8800 9000
Nombre d'échantillons N Nombre d'échantillons N
Par contre, le spectre d’un signal non voisé (Fig.V.5) ne présente aucune structure
particulière.
La forme générale de ces spectres, appelée enveloppe spectrale, présente elle-même
des pics et des creux qui correspondent aux résonances et aux anti-résonances du conduit
vocal et sont appelés formants et anti-formants. L’évolution temporelle de leur fréquence
centrale et de leur largeur de bande détermine le timbre du son.
1
Figure (a)
0.5
Amplitude
-0.5
-1
1.6 1.605 1.61 1.615 1.62 1.625 1.63 1.635
Temps en (s)
0
Densité spectrale en (dB)
Figure (b)
-20
-40
-60
-80
0 1000 2000 3000 4000 5000 6000 7000 8000
Fréquence en (Hz)
La Fig.V.4 montre que l’enveloppe spectrale des sons voisés est de type passe bas,
avec environ un formant par kHz de bande passante, et dont seuls les trois ou quatre premiers
contribuent de façon importante au timbre.
Par contre, les sons non voisés de la Fig.V.5 présentent souvent une accentuation vers
les hautes fréquences.
1
Figure (a)
0.5
Amplitude
0
-0.5
-1
0.4 0.405 0.41 0.415 0.42 0.425 0.43 0.435 0.44
Temps en (s)
0
Densité spectrale en (dB)
Figure (b)
-10
-20
-30
-40
-50
0 1000 2000 3000 4000 5000 6000 7000 8000
Fréquence en (Hz)
Ces quatre paramètres sont estimés périodiquement sur le signal de parole (de une à
plusieurs fois par trame selon le paramètre, pour une durée trame typiquement comprise entre
10 et 30 ms).
Avec Y (z), H (z) et U (z) les transformées en z du signal, du filtre du conduit vocal et
de l’excitation.
Considérations pratiques
Pour mener à une bonne simulation et analyse, il faut bien choisir :
La fréquence d'échantillonnage
La méthode d'analyse
L'ordre p du modèle AR
Le nombre d'échantillons N par tranche
d'ailleurs une justification expérimentale dans le fait que l'énergie de l'erreur de prédiction
diminue rapidement lorsqu'on augmente p à partir de 1, pour tendre vers une asymptote autour
de ces valeurs : il devient inutile d'encore augmenter l'ordre, puisqu'on ne prédit rien de plus.
La durée des tranches d'analyse et leur décalage sont souvent fixés à 30 et 10 ms
respectivement. Ces valeurs ont été choisies empiriquement; elles sont liées au caractère
quasi-stationnaire du signal de parole.
Résultats de simulation
Pour bien analyser les performances de l'estimateur RLS, nous avons effectué des
simulations sur des tranches de 32 ms pour les différents signaux de parole (M1, F1, M2, F2),
les résultats obtenus sont illustrés dans les tableaux: Tab. V.1, 2, 3, 4 respectivement. L'ordre
du modèle est choisi égale à 10.
La Fig.V.6 donne la représentation temporelle du signal M1, ainsi que son spectre de
puissance. L'analyse est menée sur des tranches de 32 ms (256 échantillons), et les résultats de
simulation obtenus par l'algorithme RLS sont illustrés dans le Tab.V.1.
1
Figure(a)
0
Amplitude
-1
-2
0.16 0.165 0.17 0.175 0.18 0.185 0.19 0.195
Temps en (s)
Densité spectrale en (dB)
Figure (b)
-10
-20
-30
-40
-50
500 1000 1500 2000 2500 3000 3500 4000
Fréquence en (Hz)
La modélisation par l'algorithme RLS d'un modèle AR d'ordre 10, réalisée sur le signal de
parole F1 échantillonné à 8 KHz, a permis de calculer les 10 premiers coefficients du filtre
tout pôles donnés par le tableau Tab.V.2.
1
Figure (a)
0.5
Amplitude
-0.5
-1
-1.5
0.672 0.674 0.676 0.678 0.68 0.682 0.684 0.686 0.688 0.69
Temps en (s)
0
Densité spectrale en (dB)
Figure (b)
-20
-40
-60
-80
0 500 1000 1500 2000 2500 3000 3500 4000
Fréquence en (Hz)
1
Figure (a)
0.5
Amplitude
0
-0.5
-1
0.528 0.53 0.532 0.534 0.536 0.538 0.54 0.542 0.544 0.546
Temps en (s)
0
Densité spectrale en dB
Figure (b)
-20
-40
-60
0 500 1000 1500 2000 2500 3000 3500 4000
Fréquence en (Hz)
Le Tab.V.3 montre bien les propriétés de l'estimateur RLS de point vue Biais,
Variance et EQM. Les résultats de simulation obtenus par l'algorithme RLS sont plus proches
aux paramètres du signal de parole (M2) obtenus par la fonction du MATLAB.
1
Figure (a)
0.5
Amplitude
0
-0.5
-1
0.32 0.322 0.324 0.326 0.328 0.33 0.332 0.334 0.336 0.338
Temps en (s)
0
Densité spectrale en (dB)
Figure (b)
-20
-40
-60
0 500 1000 1500 2000 2500 3000 3500 4000
Fréquence en (Hz)
L'estimateur RLS appliqué au signal de parole démontre une très grande variabilité. Il
est en effet peu probable de mesurer deux signaux de parole totalement semblables même si
des phrases identiques sont prononcées par le même locuteur. Cette variabilité rend le
processus de traitement automatique de parole excessivement complexe. Pour se faire, une
analyse à court terme est réalisée. Les tableaux précédents (Tab.V.1, 2, 3, 4) expliquent
pourquoi un estimateur sans biais n'est pas toujours systématiquement préférable à un
estimateur biaisé, mais de faible variance. Les figures suivantes: Fig.V.10 et Fig.V.11 sont
une démonstration du résultat relatif à l'EQM de l'estimateur RLS des paramètres a1, a2, a4 et
a5 obtenus a partir du tableau Tab.V.1.
0
Evolution du paramètre a1
-0.2
Amplitude
Valeur exacte
-0.4
Valeur estimée
Valeur estimé Biais
-0.6
-0.8
0 100 200 300 400 500 600
Nombre d'échantillons N
0
Biais
-0.2
Amplitude
-0.4
Valeurestimé
Valeur estimée
-0.6
Valeur exacte
-0.8
Evolution du paramètre a2
-1
0 100 200 300 400 500 600
Nombre d'échantillons N
Evolution du paramètre a4
0.2
Valeur exacte
Amplitude
Valeur estimé
Valeur estimée
0.1
Biais
0.4
Biais
0.2
Amplitude
0
Valeur exacte
-0.2
Valeur
Valeurestimé
estimée
-0.4
Evolution du paramètre a5
-0.6
4
Figure (a)
2
Amplitude
-2
-4
0 100 200 300 400 500 600
Nombre d'échantillons N
600
Figure (b)
400
Amplitude
200
-200
0 200 400 600 800 1000 1200
Nombre d'échantillons N
Les tableaux IV.5, 6, 7,…,14 présentent les propriétés de l'estimateur RELS (Biais,
Variance et Ecart Quadratique Moyenne) sur 4 phrases du corpus (2 hommes et 2 femmes)
pour des valeurs du SNR allant de 40 dB à 10 dB.
Pour un SNR ≥ 30 dB , l'estimateur RELS donne des résultats meilleurs, et l'EQM varie
légèrement dans un contexte bruité.
Le Tab .V.10 présente certains des paramètres du signal de parole (F1) qui sont
masqués par le bruit et dans un tel cas les paramètres du signal de parole non bruitée ne
peuvent être estimés à partir du signal bruité et sont donc considérés comme manquants ou
incertains.
La même chose se présente aux signaux de parole (M2 et F2). Les tableaux V.12 et
V.14 démontrent la dégradation totale et rapide des performances de l'estimateur RELS dans
un contexte fortement bruité.
L'estimateur RELS n'utilise aucune information a priori sur le bruit de mesure, et nous
avons montré que si le signal de parole est fortement bruité, l'estimation des paramètres est
biaisée. La qualité de l'estimateur se dégrade rapidement lorsque le SNR diminue, et limite de
ce fait la qualité des traitements en présence d'un niveau de bruit élevé.
Tab.V.15 : EQM des signaux faiblement bruités. Tab.V.16 : EQM des signaux fortement bruités.
Une étude comparative dans la représentation des taux des EQM sur la Fig.IV.13 du
signal bruité, montre que certains des paramètres du signal de parole sont masqués par le bruit
et les paramètres du signal de parole non bruitée ne peuvent être estimés à partir du signal
bruité (SNR d'ordre 10 dB). Cependant, le debruitage par filtre de Wiener adaptatif donne
généralement des meilleurs résultats [28], [29].
0.5
Figure (a)
0.4
Taux de l'EQM
0.3
0.2
0.1
0
1 2 3 4
Signal (M1) Signal (F1) Signal (M2) Signal (F2)
0.5
Figure (b)
0.4
Taux de l'EQM
0.3
0.2
0.1
0
1 2 3 4
Signal (M1) Signal (F1) Signal (M2) Signal (F2)
Fig.V.13 : (a) Taux des EQM pour des signaux faiblement bruités
(b) Taux des EQM pour des signaux fortement bruités.
Dans le Tab.V.17, on tient compte du couplage avec la cavité nasale responsable d'une
autre classe de sons appelée: sons nasals. Le couplage entre l'excitation glottale et le conduit
vocal rend difficile la mesure précise du fondamental.
Notons aussi que le modèle ARMA est souvent retenu pour modéliser la parole.
Plusieurs méthodes d’estimations des modèles ARMA sont décrites dans les références [16]
ou [67] : méthode de corrélation (algorithmes de Levinson ou de Schur), de covariance
(algorithme de Cholesky), de Burg.
V.9. Conclusion
L’identification des paramètres d’un signal de parole non bruitée par l’algorithme
RLS donne des résultats meilleurs mais ces performances se dégradent rapidement en
présence du bruit. De manière générale, Pour un SNR inférieur à 20 dB, l'ensemble des
signaux de parole échantillonnés à 8 KHz apporte une dégradation totale par rapport aux
signaux de parole échantillonnés à 16 KHz. De plus, on observe une variation brusque du
biais de l'estimateur RELS.
L'application au signal de parole démontre une très grande variabilité. Pour se faire,
une analyse à court terme est réalisée. Le signal de parole est observé au travers d’une fenêtre
d’analyse d’une durée d'environ de 30 millisecondes. Pour chaque position de la fenêtre
d’analyse, une estimation des paramètres, c’est-à-dire les p coefficients LP, du signal de
parole observé sont calculés.
En résumé, l'analyse de la parole est une étape indispensable à toute application de
synthèse, de codage, ou de reconnaissance. Elle repose en général sur un modèle. Celui-ci
possède un ensemble de paramètres numériques, dont les plages de variation définissent
l'ensemble des signaux couverts par le modèle. Pour un signal et un modèle donné, l'analyse
consiste en l'estimation des paramètres du modèle dans le but de lui faire correspondre le
signal analysé.
Les erreurs de modélisation peuvent être causées par le modèle lui-même, puisqu'il
restreint implicitement l'ensemble des signaux couverts, de sorte qu'un signal qui n'en fait pas
partie ne pourra jamais être modélisé correctement (quelque soit la valeur choisie pour les
paramètres). On parlera alors d'erreur intrinsèque. D'autre part, un signal couvert par le
modèle ne sera effectivement bien modélisé que dans la mesure où l'algorithme d'analyse est
effectivement capable de trouver les paramètres qui annulent l'erreur de modélisation. Si ce
n'est pas le cas, on parlera d'erreur extrinsèque, ou biais d'analyse.
Les modèles de production ne cherchent à reproduire que le schéma de principe du
mécanisme phonatoire, par le biais de son équivalent électrique. On y décrit la parole comme
le signal produit par un assemblage de générateurs et de filtres numériques. Les paramètres de
ces modèles sont ceux des générateurs et filtres qui les constituent. Le modèle Auto -
Régressif (AR), que nous avons étudié et simulé plus spécialement dans ce chapitre en raison
de l'utilisation répandue en traitement de la parole, en est l'exemple le plus simple.
Un autre modèle connu sous autorégressif à moyenne ajustée ARMA est parfois
utilisé. II se distingue par la présence à la fois des pôles et des zéros. Ce dernier est plus
délicat à estimer qu’un modèle AR. Cela amène parfois à préférer, pour une qualité donnée de
la modélisation, un modèle AR avec un ordre un peu surestimé. Mais la principale limitation
réside dans l’hypothèse de stationnarité du signal acoustique qui est faite [66]. Il existe un
compromis entre la longueur de la fenêtre d’analyse et la durée pendant laquelle l’hypothèse
de stationnarité est raisonnable. Ce compromis est réalisable pendant les zones stables
(voyelles), mais il n’est pas satisfaisant durant les phases transitoires et non justifié sur les
plosives.
ARMAX, l’erreur de prédiction ε(t) tend asymptotiquement vers un bruit blanc, ce qui
garantit une estimation non biaisée des paramètres du système.
Notre contribution a porté sur l'utilisation de la méthode des moindres carrés étendue
(RELS) au signal de parole en présence du bruit coloré.
Les résultats obtenus par l'algorithme RLS sont meilleurs, mais ses performances se
dégradent rapidement en présence du bruit. Tandis que dans le contexte de la parole bruitée
l'application de l'algorithme RELS donne de bons résultats jusqu'à un SNR de 20 dB, au
dessous cette limite, les résultats sont moins satisfaisants. Plus précisément, la difficulté se
manifeste au niveau des signaux échantillonnés à la fréquence de 8 KHz. La raison de ce
résultat, est due au nombre d'échantillons N qui est insuffisant à la convergence de
l'algorithme et l'énergie du signal se trouve complètement noyée ou écrasée dans le bruit, ce
qui a rendu l'estimateur RELS biaisé dans ce cas. Dans la représentation temps fréquence du
signal bruité, certains des paramètres du modèle de la parole sont masqués par le bruit, et les
paramètres du signal non bruité ne peuvent être estimés à partir du signal bruité et sont donc
considérés comme manquants ou incertains.
Notons aussi que le modèle ARMA est souvent retenu pour modéliser la parole, il est
plus délicat à estimer qu’un modèle AR. Pour remédier à ce problème, une approche originale
connue par le cepstre a été proposée par Noll (1964) pour extraire la fréquence fondamentale.
Oppeheim (1968) l'a exploitée pour les systèmes de codage et décodage. Finalement, on
trouve les systèmes d'analyse et de la reconnaissance automatique qui ont bénéficié largement
de cette technique.
En résumé, la méthode des moindres carrés, n'utilise aucune information a priori sur le
bruit de mesure, et nous avons montré que si le bruit n'est pas à valeur moyenne nulle,
l'estimation des paramètres est biaisée. D'une manière générale, nous n'avons dans aucune de
ces méthodes utilisées, la loi de répartition statistique du bruit et nous ne l'avons même pas
supposée connue. La qualité de l'estimation des pôles se dégrade rapidement lorsque le SNR
diminue, et limite de ce fait la qualité des traitements en présence d'un niveau de bruit élevé.
Parmi les perspectives de ce travail, nous souhaitons améliorer la qualité de
l’estimateur par l’application de la méthode de vraisemblance au signal de parole bruité ainsi
que leur implémentation sur la carte DSP spécialisée. Un second objectif porte sur l'extension
des méthodes précédentes au cas des modèles non linéaires à temps continu dans un contexte
bruité. Finalement, Nous espérons que notre travail va enrichir la recherche du domaine de
processus stochastiques et traitement de la parole.
Références Bibliographiques
[3] T. Chonavel, « Statistical signal processing, Modelling and estimation », Springer, January
2002
[9] P. Renevey, « Speech recognition in noisy conditions using missing feature approach »,
Thesis of doctorate, Federal Polytechnic School of Lausanne, 2000
[15] M. Bellanger, « Analyse des Signaux et Filtrage Numérique Adaptatif », Masson, 1989.
[17] J. D. Markel and A.H. Gray, « Linear Prediction of Speech », Springer-Verlag, 1976
[18] A.H. Gray and J.D. Markel, « Distance Measures for Speech Processing », IEEE Trans.
on ASSP, Vol. 24, No. 5, Oct. 1976.
[19] J. Makhoul, « Stable and lattice methods for linear prediction », IEEE Trans. on
Acoustics, Speech, and Signal Processing, Vol. 25, pp. 423–428, October 1977.
[20] A. Buzo, R.M. Gray, A.H. Gray, Jr., and J.D. Markel, « Optimal Quantization of
Coefficient Vectors in LPC Speech »,1978 Joint Meeting of the Acoustical Society of
America and the Acoustical Society of Japan, Honolulu, HI, Dec. 1978.
[25] A. Borrie, « Stochastic System for Engineering, Modelling, Estimation and Control »,
Prentice hall, 1992
[26] J. Jean pierre, « Identification et modélisation des processus de génération des crues »,
Thèse pour l'obtention du grade de docteur en sciences techniques, No 101, Ecole polytechnique
fédérale de Lausanne, 1992.
[29] L. Ljung, « System Identification: Theory for the User », Second edition, Englewood
Cliffs, NJ: Prentice-Hall, 1999.
[30] R. Johansson, « System Modeling and Identification », information and system sciences
series, Prentice Hall, 1993.
[32] G. Rao and N. Sinha, « Identification of Continuous Time Systems, Methodology and
Computer Implementation », chapter Continuous-time models and approaches, pages: 1-15,
Kluwer Academic Publishers, Edition, 1991.
[33] P.C. Young and H. Garnier, « Identification and Estimation of Continuous Time Data
Based Mechanistic Models for Environmental Systems, Environmental Modeling and
Software », pages: 1055–1072, August 2006.
[34] P.C. Young et H. Garnier, « Identification and estimation of continuous time rainfall-
flow models », 14th IFAC Symposium on System Identification (SYSID’2006), pages 1276–
1281, Newcastle, Australia, March 2006.
[38] P. Vanden Hof, « Closed Loop Issues in System Identification », Annual Reviews in
Control, 22:173–186, 1998.
[39] M. Gilson and P. Van den Hof, « Instrumental Variable Methods for Closed Loop
System Identification », Automatica, 41(2): 241–249, 2005.
[40] M. Gilson, H. Garnier, P.C. Young and P. Van den Hof, « Identification of Continuous
Time Models from Sampled Data », Springer-Verlag, edition, 2007.
[41] B. Widrow et al. « Adaptive Noise canceling: Principles and Applications », Proc. IEEE,
63, N° 12, December 1975.
[42] A. Maddi, A. Guessoum, D. Berkani, « Application the recursive extended least squares
method for modelling a speech signal », Second International Symposium on
Communications, Control and Signal Processing, ISCCSP’06, Marrakech, Morocco, March
13-15, 2006.
[43] A. Nongnuch and A. Sorarerks, « An algorithm for vector quantization using density
estimation », Proceedings of the 5th WSEAS Int. Conf. on Signal, Speech and Image
Processing, Corfu, Greece, August 17-19, 2005.
[46] S. Mirsaidi, G. Fleury and J. Oksman, « LMS like AR modelling in the case of missing
observations », IEEE Transactions on Signal Processing, vol. 45, n°6, 1997.
[47] X. Qui, C. Hannsen, « A Modified Filtered-x LMS Algorithm for Active Noise Control
of Periodic Noise With On-line Cancellation Path Modeling », Journal of Low Frequency
Noise, Vibration and Active Control 19(1), pages 25-46, 2000.
[48] A. Benveniste, « Design of Adaptive Algorithms for the Tracking of Time- Varying
Systems », Journal of Adaptive Control and Signal Processing, vol. 1, pp. 3 - 29, 1987.
[49] A. Benallal, A. Gilloire, « A New Method to stabilize Fast RLS Algorithms based on a
first order Model of Propagation of Numerical errors », Proc. ICASSP, New York, pp. 1373-
1376, 1988.
[50] A. Gilloire, T. Petillon, « A comparison of NLMS and Fast RLS algorithm for the
identification of time - varying systems with noisy outputs, application to acoustic echo
cancellation », EUSIPCO, Barcelona, Spain, September 1990.
[52] A. Maddi, A. Guessoum, D. Berkani, « Using Stochastic Gradient Method for Modeling
a Speech Signal », SIGMAP 2007 the International Conference on Signal Processing and
Multimedia Applications, Barcelona, Spain, 28 - 31 July, 2007.
[54] S.C. Douglas, « Numerically-robust RLS algorithms using Least Squares pre-whitening»,
in Proceedings of ICASSP, Istanbul, Turkey, pp. 412-415, 2000.
[55] S. Karaboyas and N. Kalouptsidis, « Efficient adaptive algorithms for ARX identification
», IEEE Trans. Signal Processing, vol. 39, no. 3, pp. 571-582, Mar. 1991.
[56] G. V. Moustakides and S. Theodoridis, « Fast Newton transversal filters, a new class of
adaptive estimation algorithms », IEEE Trans. Signal Processing, vol. 39, no 10, pp. 2184-
2193, Oct. 1991.
[58] K.P. Wong, D. Feng, et W.C. Siu, « Generalized linear least squares algorithm for non
uniformly sampled biomedical system identification with possible repeated eigenvalues »,
Computer methods and programs in biomedicine, 57 :167–177, 1998.
[59] H. Garnier, M. Gilson, and W.X. Zheng, « A bias-eliminated least squares method for
continuous-time model identification of closed-loop systems », International Journal of
Control, 73(1): 38–48, 2000.
[60] W.X. Zheng, « A bias correction method for identification of linear dynamic errors in
variables models », IEEE Transactions on Automatic Control, 47(7):1142–1147, July 2002.
[62] H. Morikawa, « Adaptive analysis of speech based on a pole zero representation », IEEE
Trans. On ASSP, ASSP-30, n° 1, pp. 77-87,1982.
[64] M. Gales, « Model based techniques for noise robust speech recognition », Ph. D. Thesis,
University of Cambridge, September 1995.
[65] L. Benaroya, « Séparation de plusieurs sources sonores avec un seul microphone», Ph. D.
Thèse, Université de Rennes 1, 2003.
[69] A. Maddi, A. Guessoum, D. Berkani, « Using Recursive Least Squares Estimator for
Modelling a Speech Signal », The 6th WSEAS International Conference on SIGNAL,
SPEECH AND IMAGE PROCESSING SSIP '06 Lisbon, Portugal, September 22-24, 2006.
[70] WAKITA, « Linear predictive coding and its application to speech processing », Bonas,
France, June 1981
[72] A. Isaksson, « A recursive EM algorithm subject to missing data », in SYSID, vol.2, pp.
679-684, Copenhagen, Denmark, 1994.
[75] J. Makhoul, « Linear Prediction: A Tutorial Review ». Proc. of the IEEE 1975, Vol. 63,
No. 4, pp. 561-580.
[76] R. J. Macaulay, M.L Malpass, « Speech enhancement using decision noise suppression
filter », IEEE trans. on ASSP, Vol. 28, No 2, pp. 137-145,1980.
[77] E. Koo, J. D. Gibson et S. D. Gray, « Filtering of colored noise for speech enhancement
and coding », IEEE ICASSP 1989, pp. 349-352.
[79] J. Yang, « Frequency domain noise suppression approaches in mobile telephone systems
», IEEE ICASSP'93, pp. 363-366, 1993.
[81] A. Maddi, A. Guessoum, D. Berkani, « Using Stochastic Gradient Method for Modeling
a Speech Signal », SIGMAP 2007 the International Conference on Signal Processing and
Multimedia Applications, Barcelona, Spain; 28-31 July, 2007.
[82] H. Garnier, M. Gilson and W.X. Zheng, « A bias eliminated least-squares method for
continuous-time model identification of closed-loop systems », International Journal of
Control, pp: 38-48, 2000.
[86] J. Nolazco, S.Young, « Continuous speech recognition in noise using spectral subtraction
and HMM adaptation », The IEEE International Conference on Acoustic, Speech and Signal
Processing, 1994
[87] J. S. Garofolo et al. « DARPA TIMIT Acoustic phonetic Continuous Speech Database »,
NIST, Gaithersburg, October 1988
[88] M.Kuo, R.Morgan, « Active Noise Control Systems, Algorithms and DSP
Implementations », Wiley Inter science, 1996
[93] J.F. Roux, « Transformée de Fourier discrète récursive avec fenêtre exponentielle
dissymétrique », Traitement du signal, Vol 10, n° 2, pp. 185-192,1993.
[94] G. Pernnou, « La reconnaissance vocale », Le courrier du CNRS, n°80, pp. 95-96, 1994.
[97] B. Doval, C.Alessandro, and B. Diard, « Spectral methods for voice source parameters
estimation », Euro-speech, pp: 533 – 536, 1997.
[103] A. B. Kain and J. P. H. van Santen, « A speech model of acoustic inventories based on
asynchronous interpolation », Euro-speech, pages 329–332, 2003.
[104] A. Benallal, « Etude des algorithmes des moindres carrés transversaux rapides et
application à l'identification des réponses impulsionnelles acoustiques », Thèse de Doctorat,
Université de Rennes-1, Janvier 1989.
[105] Y. Engel, S. Mannor, R. Meir, « The Kernel Recursive Least Squares Algorithm »,
IEEE Trans. Signal Proc.2004, 52 (8), 2275-2285.
[110] M. Gilson, H. Garnier and P. Van den Hof, « Instrumental Variable Methods for
Continuous Time Model Identification in Closed Loop », American Control Conference,
Boston, USA, 2004.
[111] S.V. Huffel and P. Lemmerling, « Total Least Squares and Errors Invariables Modeling
», Kluwer Academic Publishers, edition, 2002.
Nom: Maddi
Prénom : Abdelkader
Adresse : Département d'Electronique, USD de Blida
Fonction : Enseignant/chercheur à l’USDB
Email : [email protected]
Curriculum vitae
EXPERIENCE PROFESSIONNELLE
COMMUNICATIONS ET PUBLICATIONS
CONNAISSANCES EN INFORMATIQUE
ACTUELLEMENT (2007/2008)
DOMAINE D’INTERET
Traitement du signal
Identification et modélisation des systèmes
Contrôle adaptatif