Techniques Didentification
Techniques Didentification
l’identification
I.1. Définition de l’identification :
I.2. Type de modèles : Il existe une multitude de types de modèles, selon les applications.
Les plus populaires sont les modèles de connaissance et les modèles de représentation.
Techniques d’identification des systèmes dynamiques Master 1 Auto et Sys Dr : BOURAHALA Fayçal 1
Chapitre I Généralités sur l’identification des systèmes
- la réponse indicielle
- la réponse impulsionnelle
- la réponse à une rampe
- le diagramme de Bode et de Nyquist
- la méthode de Strejc
- la méthode de Broîda
Techniques d’identification des systèmes dynamiques Master 1 Auto et Sys Dr : BOURAHALA Fayçal 2
Chapitre I Généralités sur l’identification des systèmes
Choix de la structure
du modèle
ou
Estimation des
paramètres du
modèle
Validation du
modèle obtenu
modèle si non
ok
1.5.1. Distance d’état : Basée sur la différence entre la sortie du système et du modèle
n
Critère d’identification à minimiser: D Y s (i ) Y m (i )
2
i 1
1.5.2. Distance de prédiction : Basée sur la différence entre la sortie du système et celle
que prédit le modèle au même instant
Techniques d’identification des systèmes dynamiques Master 1 Auto et Sys Dr : BOURAHALA Fayçal 3
Chapitre I Généralités sur l’identification des systèmes
i 1
1.5.3. Distance de structure : Basée sur la différence entre les paramètres du système et
ceux du modèle.
Y m max Y E max
max(i ) .100% _ admissible
Y E max
Pour bien identifier, il faut bien exciter dans tout le spectre de fréquences susceptible de contenir
des constantes de temps du système.
Le signal sin(wt) : parfait d'un point de vue spectre (balayage en fréquence) mais peu de
systèmes acceptent ce genre d'entrées.
Le signal δ(t) : parfait du point de vue théorique, mais difficile de réaliser une bonne
approximation de l'impulsion.
Le signal u(t) : moins bon d'un point de vue spectral (u(f) = 1 2δ(f) + j21πf ), mais facile
à implanter.
Le signal b(t) : bruit blanc idéal d'un point de vue spectral mais comment le réaliser ?
Techniques d’identification des systèmes dynamiques Master 1 Auto et Sys Dr : BOURAHALA Fayçal 4
Chapitre I Généralités sur l’identification des systèmes
Eléments caractéristiques:
Techniques d’identification des systèmes dynamiques Master 1 Auto et Sys Dr : BOURAHALA Fayçal 5
Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.
Chapitre 1
Identification des systèmes par la méthode
des Moindres-Carrés
1. Positionnement du problème
u (t ) x (t )
Soient :
x t i , a1 , a2 .....,, ak Les valeurs prises par le modèle aux instants d'observation avec
Posons écart (erreur) entre les mesures et les valeurs du modèle tel que :
y s t i x t i , a1 , a2 ..., ak
k k
L'erreur quadratique cumulée est : E a1 , a2 ,..., ak i2 y s (t i ) x t i , a1 , a2 ...
2
i 1 i 1
E
Le critère d'erreur présente un minimum pour: J 0 aˆ1 , aˆ2 ,..., aˆk ? c’est-à-dire le
ai
problème revient à résoudre les k équations suivantes pour trouver les paramètres aˆ1 , aˆ2 ,..., aˆk
Remarque : Selon la nature du modèle (linéaire ou non-linéaire par rapport aux paramètres), la
résolution des équations peut poser problème. Ce cours porte essentiellement sur les méthodes de
base applicable aux modèles linéaires.
2. Méthode de moindres-carrés
Supposons des données expérimentales portées sur un graphique qui forment un nuage de points
(de 1 jusqu’à n.)
l’objectif : On cherche à déterminer l’équation de la droite qui passe le plus près possible de
l’ensemble des points.
- L’idée de la méthode ça va être de faire passer une droite au mieux par un certain
nombre de points.
- Minimiser l’écart entre le point et la droite, ( i représente l’écart)
- Minimiser la somme des écarts au carrée
- Le but donc de savoir quelle est l’équation de la droite qui passe au mieux par les points
a=? b =?
u (t ) x (t )
Choix du modèle :
C’est-à-dire x t , a1 , a2 .....,, ak
Avec a1 , a2 ,..., ak paramètres du modèle et f 1 (t ), f 2 (t ),..., f k (t ) sont les "formants" du modèle
i 1 i 1 ...
ET
n
Avec E : Erreur globale est E Y X et que X H
EQ E T E Y H Y H
T
Alors on peut écrire :
ˆ H T H H TY
1
Solution
x 1 (t ) 1 0 y 1 (t ) 1
a
X x 2 (t ) 1 1 H et Y y 2 (t ) 2
b
x 3 (t ) 1 2 x 3 (t ) 2
H
ˆ H T H
1
H TY
1 0
1 1 1 3 3 1 5 3
1 1 H H
1
H H
T
T
0 1 2
1 2 3 5 6 3 3
1
1 1 1 5
H Y
T
2
0 1 2 2 6
ˆ aˆ 7 / 6
Finalement on trouve bˆ 1 / 2
ˆ
Le modèle estimé devient alors, x (t ) aˆ bt 7 / 6 0.5t
J EQT EQ Y H Q T Q Y H
T
1
0
0 0
Remarque : Si Q est la matrice identité, on aura le critère des moindres carrés conventionnel
Le biais d'un estimateur est l'espérance de l'écart entre l’estimation et les vraies valeurs.
Biais b E (ˆ )
L'estimateur sans biais fournit une valeur non-décalée par rapport à la vraie valeur
b 0 : Estimateur non biaisé (pas d'erreur d'estimation);
L’estimateur de MC ˆ H T H H TY H T H H T H v
1 1
-
ˆ H T H H TY H T H H T H v
1 1
ˆ H T H
H H H Tv
1 T
ˆ H H H H H T H H T v
T 1 T 1
ˆ H H H T v
T 1
Alors l’écart entre l’estimation et la vraie valeur des paramètres du modèle est
ˆ H T H H T v
1
E ˆ E H T H H T v
1
E ˆ H T H H T E v
1
Seul E (v ) 0 peut être nul pour que l’estimation soit sans biais.
Dans les cas usuels (bruit à valeur moyenne nulle ou bruit blanc), l'estimateur des
moindres-carrés est sans-biais : la valeur estimée des paramètres est proche de la vraie
valeur en moyenne.
Si le bruit n’est pas blanc, cet estimateur est biaisé c’est-à-dire E ˆ 0
Il fournit une estimation non-décalée par rapport aux vraies valeurs. Mais en général (en
présence d’un bruit coloré), l’estimateur des MC est biaisé
Solutions au problème de biais asymptotique de l’estimateur des MC
1- Choix d’autres structures de modèles pour le bruit (bruit à valeur moyenne nulle)
2- Méthode de la variable instrumentale (VI)
E ˆ H T H H T E v
1
- Il est convergent si les perturbations v ne sont pas corrélées avec le vecteur de régression
H (et donc avec la sortie y(t) car u(t) est déterministe)
par Z T )
- Quelles sont les conditions sur Z pour que l'équation précédente ait un sens ? En
poursuivant le calcul :
ˆ Z T H Z TY Z T H Z T H v
1 1
Z T H Z T H Z T H Z Tv
1 1
ˆ Z T H Z T v
1
1- E Z T H 0 et
2- E Z T v 0
2 ( ) E avec E
2
1 1
A E A A A A
E ......
....... 1 1
T 2 2
2 2 n n
n n
1 1
2
1 1 2 2 ... 1 1 n n
2 1 1 2 2
2
... 2 2 n n
A E 2
n n 1 1 n n 2 2 n n
2
...
Termes de variance
Termes de covariance
ˆ H T H H T v
1
E ˆ ˆ
T
E H T H H T v H T H H T v
1 1 T
E H T H H T vv T H H T H
1 T
Pour un bruit v non-corrélé à la matrice de modèle H, la matrice de variance/covariance de
l’estimateur peut être écrite de la manière suivante
E H T H H T vv T H H T H
1 T
Cas du bruit blanc sur les mesures
v t 1 0 0 v t 1 0 0
T
0 v t1 0 0 v t 1 0
E vv T E
0 0 v tn 0 0 v tn
v t21 0 0 12 0 0
0 v t22 0 0 22 0
E
0 0 v tn2 0 0 n2
Pour un bruit blanc constant sur chaque mesure, de variance Y2 , le bruit sur l’estimation des
paramètres du modèle est :
E H T H H T Y2 H H T H
1 T
Y2 H T H H T H H T H
1 T
Y2 H T H
T
- Cette méthode recalcule une nouvelle estimation des paramètres à chaque instant sur la
base de l’estimation précédente.
- Elle est très pratique dans le cas où l’on a un très grand nombre de données ou que l’on
désire utiliser le modèle à l’instant k sans attendre la fin des mesures.
1. Principe de la méthode :
y (t 1 ) f 1 (t 1 ) f 2 (t 1 ) ... f k (t 1 )
y (t ) f (t ) f (t ) .... f k (t 2 )
Yn 1
et X n H n
1 2 2 2
... ... ... ... ...
y (t n ) f 1 (t n ) f 2 (t n ) ... f k (t n )
ˆ H nT H n H nTY n
1
EQn Y n X n Y n X n
T
ˆn H nT H n H nTY n
1
Calcul de H nT1H n 1
H
H nT1H n 1 H nT hn 1 T n
hn 1
H nT1H n 1 H nT H n hn 1hnT1
Calcul de H nT 1Y n 1
Y
H nT1Y n 1 H nT hn 1 n
y n 1
H nT1Y n 1 H nTY n hn 1 y n 1
ˆn 1 H nT H n hn 1hnT1 H Y n hn 1 y n 1
1 T
à partir de n
Pn 1
1 1
1- Posons Pn H nT H n et Pn 1 H nT H n hn 1hnT1
A 1 A 1B C 1 DA 1B DA 1
1
A BCD
1
Avec A H nT H n , B hn 1 , C I et D hnT1
A B C D
1
Pn 1 H n H n H n H n hn 1 I hn 1 H n H n hn 1 hnT 1 H nT H n
T 1 T 1 T T 1 1
Pn Pn Pn Pn
En fonction de Pn on trouve ;
Pn 1 Pn Pn hn 1 1 hnT1Pn hn 1 hnT1Pn
1
Maintenant on pose
1
K n 1 Pn hn 1 1 hnT1Pn hn 1
Pn 1 Pn K n 1hnT1Pn
Ou encore Pn 1 I K n 1hnT1 Pn
ˆn 1 H nT H n hn 1hnT1 H Y n hn 1 y n 1
1 T
n
Pn K n 1hnT1Pn H nTY n hn 1 y n 1
1
1- Calculer K n 1 Pn hn 1 1 hnT1Pn hn 1
2- Calculer le nouveau vecteur estimé ˆn 1 ˆn K n 1 y n 1 hnT1ˆn
3- Pn 1 I K n 1hnT1 Pn
K n 1 Pn hn 1 1 hnT 1Pn hn 1
1
Résumé
ˆn 1 ˆn K n 1 y n 1 hnT1ˆn
Pn 1 I K n 1hnT 1 Pn
ˆn 1 ˆn Pn 1hn 1 y n 1 hnT 1ˆn
Pn hn 1hnT 1Pn
Pn 1 Pn
1 hnT Pn hn 1
1- Position du problème
Dans de nombreuses applications, la fonction modèle n'est pas linéaire par rapport à ses
paramètres.
Exemple : réponse indicielle d'un circuit du 1er ordre
La dépendance vis à vis du paramètre est non-linéaire, il n'est plus possible de résoudre
le système par la méthode linéaire (pas de matrice H )
Méthode de Gauss-Newton (méthode de gradient)
Etape initiale :
f t 1 , 0
f t 2 , 0
Pour 0 a10 a20 ... ak 0 le modèle prend les valeurs F t , 0
T
f t n , 0
Remarque : généralement, l’erreur cumulée sera importante, les conditions initiales étant
éloignées de la solution optimale.
E Q 0
Pour se placer au minimum d’erreur, on choisit tel que 0
E Q 0 F t ,0
T
2 Y F t ,0 0
?
Calcul de F t ,0 ?
f t 1 f t 1 f t 1
...
a10 a20 ak 0
f t 2 f t 2 f t 2
F t , 0 ...
J 0 a10 a20 ak 0 , matrice Jacobienne de f paramètres
f t n f t n f t n
...
a10 a20 ak 0
E Q 0 F t , 0
T
2 Y F t , 0 0
?
2J 0 Y F t , 0 0
T
2J 0 Y F t , 0 J 0 0
T
E Q 0 F t , 0
T
2 Y F t , 0 0
?
2J T Y F t , 0 J 0
J T Y J T F t , 0 J T J 0
J T J J T Y F t , 0
Itération :
On itère en définissant les nouvelles valeurs des paramètres 1 0 et les nouvelles valeurs
0 max J T J
t
Le modèle de la réponse indicielle est f t , K 1 e ave K
T
La matrice du Jacobien est construite à partir des dérivées partielles de f par rapport à .
Chapitre 3
Identification basée sur l'erreur de prédiction
Introduction :
Dans ce chapitre, nous supposerons que le modèle obtenu est un prédicteur, c'est à dire qu'il
permet de calculer la sortie à l'instant i en fonction des entrées et des sorties réelles aux instants
précédents u (i k ) et y (i k ) .
u (k ) y (k )
y (k ) a1 y (k 1) a2 y (k 2) ... an y (k n )
(1)
b0u (k ) b1u (k 1) b 2u (k 2) ... b mu (k m )
Y (z ) b0 b1z 1 b 2 z 2 ... b m z m
G z (2)
U (z ) 1 a1z 1 a2 z 2 ... an z n
Y (z ) K
G p
U (z ) P
Ce système correspond à une équation différentielle de la forme :
y& (t ) y (t ) Ku (t )
f (k 1) f (k )
1 f ,
Te
f (k ) f (k 1)
2 f ,
Te
f (k 1) f (k 1)
3 f .
2T e
Si la fonction f est deux fois dérivable, on peut alors estimer sa dérivée seconde f f ′′ par la
formule suivante :
f (k 1) 2f (k ) f (k 1)
f .
T e2
y (k 1) y (k )
On obtient alors: y (k ) Ku (k )
Te
Ou encore, y (k ) 1 T e y (k 1) KTu (k 1)
K
f (t )
M
y (t )
Solution :
d 2 y (t ) dy (t )
On a M Ky (t ) f (t )
dt 2
dt
y k 1 2 y k y k 1 y k 1 y k
M 2
Ky (k ) f (k )
Te Te
M 2M M
2 y k 1 2 K y k 2 y k 1 f (k )
Te Te Te Te Te
Dans ce qui suit, on s’intéressera à quatre structures de modèles les plus utilisées :
ARX, ARMAX, Modèle à erreur de sortie (Output Error), modèle de Box-Jenkins.
Le problème est d’identifier les paramètres d’un modèle entrée-sortie dont sa structure est
représentée sur la figure suivante :
H z
e (k )
v (k )
y (k )
u (k )
G z
Avec
e (k ) : Une perturbation de type bruit blanc (processus stochastique non prédictible de moyenne
nulle).
- Les coefficients des polynômes en z 1 (dans la fonction de transfert) sont les paramètres
à estimer.
- L’ensemble des effets des bruits et perturbations sont représentées par le signal
stochastique v ( k ), lui-même étant généré avec une dynamique H(z) par le signal
également stochastique e ( k ) (bruit blanc de moyenne nulle "variable exogène"),
A partir de cette figure, on peut déduire le modèle entrée-sortie sous la forme suivante:
e (k )
H z
v (k )
y (k )
u (k )
G z
- On cherche à prédire la sortie y (k ) à l’instant k sachant que la sortie et l’entrée sont connues
aux instants précédents.
- On prend comme estimation de la sortie son espérance mathématique conditionnelle, soit :
yˆ (k k 1) y (k ) k 1 (5)
yˆ (k k 1) H 1 (z )G (z )u (k ) 1 H 1 (z ) y (k ) (6)
Ou encore
H (z ) yˆ (k k 1) G (z )u (k ) H (z ) 1 y (k ) (7)
Erreur de prédiction
L’erreur de prédiction peut être calculée (en utilisant (6)) comme suit :
yˆ (k k 1) H 1 (z )G (z )u (k ) y (k ) H 1 (z ) y ( k )
y (k ) yˆ (k k 1) H 1 (z )G (z )u (k ) H 1 (z ) y (k )
e (k ) y (k ) yˆ (k k 1) H 1 (z )G (z )u (k ) H 1 (z ) y (k ) (8)
Dans ce cas, le bruit e ( k ) perturbe la sortie brute de la fonction de transfert G(z) du système via
1
la dynamique. H ( z )
A (z )
H z
G z
6
474
8
Avec
A (z ) 1 a1z 1 a2 z 2 ... an z n
B (z ) b1z 1 b2 z 2 ... bm z m
1 B (z )
Démonstration : à partir de l’équation (4) en remplaçant H (z ) et G (z ) ,
A (z ) A (z )
on obtient :
Y (z ) G (z ).U (z ) H (z ).E (z )
B (z ) 1
Y (z ) U (z ) E (z )
A (z ) A (z )
A (z )Y (z ) B (z )U (z ) E (z )
Le modèle (9) peut être décrit sous la forme suivante :
y (k ) a1 y (k 1) a2 y (k 2) ... ana y (k n )
E555555555555555555555555555555555 F
Partie Autoregrissive
Ou encore
E5555555555555555555F
1 a z a z ... a z Y (z ) b z b z ... b z U (z ) E (z )
1
1
2
2
n
n
E555555555555555555F
1
1
2
2
m
m
A (z ) B (z )
Ce qui équivalent à : A (z )Y (z ) B (z )U (z ) E (z )
yˆ (k k 1) H 1 (z )G (z )u (k ) 1 H 1 (z ) y (k )
1 B (z )
Pour un modèle ARX on prend H (z ) et G (z )
A (z ) A (z )
B (z )
yˆ (k k 1) A (z ) u (k ) 1 A (z ) y (k )
A (z )
yˆ (k k 1) B (z )u (k ) 1 A (z ) y (k ) (12)
y (k ) a1 y (k 1) a2 y (k 2) ... an y (k n )
E555555555555555555555555555555555 F
Partie Autoregrissive
b1u (k 1) b 2u (k 2) ... b mu (k m ) e (k )
E555555555555555555555555555F E5F
Partie Exogène Bruit
y (k ) B (z )u (k ) 1 A (z ) y (k ) e (k ) (13)
A (z ) y ( k ) y ( k ) B ( z )u ( k ) y ( k ) e ( k )
y (k ) B (z )u (k ) 1 A (z ) y (k ) e (k )
(13)
yˆ (k k 1) E B (z )u (k ) 1 A (z ) y (k ) e (k )
e (k ) H 1 (z )G (z )u (k ) H 1 (z ) y (k )
1 B (z )
Dans ce cas on prend H (z ) et G (z ) , on aura alors l’expression suivante :
A (z ) A (z )
e (k ) B (z )u (k ) A (z ) y (k ) (14)
linéaire
Le prédicteur optimal du modèle ARX est particulièrement simple à calculer car il définit une
régression linéaire que l’on ´écrit généralement sous la forme :
)
y (k ) (k ) (15)
Avec
(k ) y (k 1) y (k 2) ... y (k n ) u (k 1) u (k 2) ... u (k m )
( k ) est le régresser
y (k ) a1 y (k 1) a2 y (k 2) ... an y (k n )
b1u (k 1) b 2u (k 2) ... b mu (k m ) e (k )
y (k ) a1 y (k 1) a2 y (k 2) ... an y (k n )
b1u (k 1) b 2u (k 2) ... b mu (k m ) y (k ) yˆ ( k k 1)
Ce qui équivalent à
yˆ (k k 1) a1 y (k 1) a2 y (k 2) ... an y (k n )
b1u (k 1) b 2u (k 2) ... b mu (k m )
Cette expression peut être exprimée sous une formule matricielle comme suit
a1
a
1
M
) a
y (k ) y (k 1) y (k 2) ... y (k n ) u (k 1) u ( k 2) ... u ( k m ) n
144444444444444 42444444444444444 3 b1
b1
M
E55
b m
F
)
Qui est équivalent à y (k ) (k )
N N N
J e (k ) y (k ) yˆ (k k 1) y (k ) T (k )
2 2 2
(16)
k 1 k 1 k 1
dJ
est obtenu pour 0
d
1 N
N
ˆ(N ) T (k ) (k ) T
(k ) y (k )
k 1 k 1
y (1)
Pour k 2,..., n , on pose Y N M
y (n )
J y (k ) (k ) Y N N Y N N
N T
2
(17)
k 1
2TN Y N N 0
dJ d T
est obtenu pour 0 TNY N TN N 0
d d
ˆ TN N
1
TNY N (18)
a1
Le modèle choisi est : y (k ) a1 y (k 1) b1u (k 1) avec
b1
- L’entrée est un signal échelon de même taille que la mesure Y(k) c’est-à-dire
u(k)=[1 1 1 1 1 1 1 1 1]’ ou simplement U=ones(length(Y),1);
% construction de la matrice phi(k) puis calcul de la pseudo-
inverse theta
for i = 2:size(Y,1)
phi(i,:) = [-Y(i-1) U(i-1)];
end
theta = inv(phi*phi’)*phi*Y
0.577
on aura donc le résultat suivant :
0.444
H z
G z
||
A (z )Y (z ) B (z )U (z ) C (z )E (z ) (19)
Avec
A (z ) 1 a1z 1 a2 z 2 ... an z n
B (z ) b1z 1 b2 z 2 ... bm z m
C (z ) c1z 1 c 2 z 2 ... c j z j
A (z ) y (k ) B (z )u (k ) C (z )e (k ) (20)
Démonstration :Le modèle (19) peut être décrit sous la forme suivante :
y (k ) a1 y (k 1) a2 y (k 2) ... an y (k n )
E555555555555555555555555555555555 F
Partie Autoregrissive
n
m j
y (k ) ai y (k i ) b j u (k i ) e (k ) c l e (k l )
i 1 j 1 l 1
Ou encore
E5555555555555555555F
1 a z a z ... a z Y (z )
1
1
2
2
n
n
A (z )
E5555555555555555555
b z b z ... b z U (z )
1
1
F
2
2
m
m
B (z )
E55555555555555555
c z c z ... c z E (z )
1
1
2
F
2
j
j
C (z )
Ce qui équivalent à : A (z )Y (z ) B (z )U (z ) C (z )E (z )
Ce modèle est proche du modèle ARX, il s’utilise dans les mêmes cas. Il permet de créer
un modèle de bruit un peu réaliste.
yˆ (k k 1) H 1 (z )G (z )u (k ) 1 H 1 (z ) y (k )
C (z ) B (z )
Pour un modèle ARMAX on prend H (z ) et G (z )
A (z ) A (z )
B (z ) A (z )
yˆ (k k 1) u (k ) 1 y (k )
C (z ) C (z )
B (z ) A (z )
yˆ (k k 1) u (k ) 1 y (k )
C (z ) C (z )
C (z ) yˆ k k 1 B (z )u (k ) C (z ) A (z ) y (k ) (22)
e (k ) H 1 (z )G (z )u (k ) H 1 (z ) y (k )
C (z ) B (z )
Dans ce cas on prend H (z ) et G (z ) , on aura alors l’expression suivante :
A (z ) A (z )
B (z ) A (z )
e (k ) u (k ) y (k ) (23)
C (z ) C (z )
2.2.3. Prédicteur optimal du modèle ARMAX sous forme d’une régression linéaire
Le prédicteur optimal du modèle ARMAX est particulièrement simple à calculer car il définit
une régression linéaire que l’on écrit généralement sous la forme :
)
y (k ) (k ) (24)
Avec
(k ) y (k 1) ... y (k n ) u (k 1) ... u (k m ) e (k 1) e (k 2) ... eˆ(k j )
T
a1 a2 ... an b1 b2 ... b m c1 c 2 ... c j
N N N
J e (k ) y (k ) yˆ (k k 1) y (k ) (k )
2 2 2
k 1 k 1 k 1
dJ
est obtenu pour 0
d
Méthode des moindres carrés :
y (1)
Pour k 1,..., N , on pose Y N M
y (N)
ˆ TN N
1
TNY N
G z
||
A (z )Y (z ) B (z )U (z ) A (z )E (z ) (25)
Avec
A (z ) 1 a1z 1 a2 z 2 ... an z n
B (z ) b1z 1 b2 z 2 ... bm z m
A (z ) y (k ) B (z )u (k ) A (z )e (k ) (26)
Démonstration :Le modèle (26) peut être décrit sous la forme suivante :
y (k ) a1 y (k 1) a2 y (k 2) ... an y (k n )
E555555555555555555555555555555555 F
Partie Autoregrissive
Ou encore
E5555555555555555555F
1 a z a z ... a z Y (z )
1
1
2
2
n
n
A (z )
E5555555555555555555
b z b z ... b z U (z )
1
1
2
F
2
m
m
B (z )
E5555555555555555555F
1 a z a z ... a z E (z )
1
1
2
2
n
n
A (z )
Ce qui équivalent à : A (z )Y (z ) B (z )U (z ) C (z )E (z )
Le prédicteur optimal du modèle OE est particulièrement simple à calculer car il définit une
régression linéaire que l’on écrit généralement sous la forme :
)
y (k ) (k ) (24)
Avec
(k ) y (k 1) ... y (k n ) u (k 1) ... u (k m ) e (k 1) e (k 2) ... e (k n )
y (1)
Pour k 1,..., N , on pose Y N M
y (N)
ˆ TN N
1
TNY N
C (z )
H z
D (z )
G z
||
B (z 1 ) C(z 1 )
Y (z ) U ( z ) E (z )
A (z 1 ) D (z 1 )
E555F
1
E5555
1
F (25)
G (z ) H( z )
A (z 1 )D (z 1 )Y (z ) D (z 1 )B (z 1 )U (z ) A (z 1 ) C(z 1 )E (z )
Avec
A (z ) 1 a1z 1 a2 z 2 ... an z n
B (z ) b1z 1 b2 z 2 ... bm z m
C (z ) c1z 1 c 2 z 2 ... c j z j
D (z ) 1 d l z 1 d l z 2 ... d l z l
A (z )D (z ) y (k ) B (z )D (z )u (k ) A (z )C (z )e (k ) (26)
yˆ (k k 1) H 1 (z )G (z )u (k ) 1 H 1 (z ) y (k )
C (z ) B (z )
Pour un modèle BoxJ on prend H (z ) et G (z )
D (z ) A (z )
La structure du modèle BoxJ conduit à un prédicteur non linéaire par rapport au vecteur
de paramètres :
D (z ) B (z ) D (z )
yˆ (k k 1) u (k ) 1 y (k ) (27)
C (z ) A (z ) C (z )
e (k ) y (k ) yˆ (k ) H 1 (z )G (z )u (k ) H 1 (z ) y (k )
La forme générale :
H 1 (z ) y (k ) G (z )u (k )
C (z ) B (z )
Pour un modèle BoxJ on prend H (z ) et G (z )
D (z ) A (z )
D (z ) B (z )
y (k ) yˆ (k ) y (k ) u (k )
C (z ) A (z )
B (z 1 )
Soient : v ( k ) u ( k ) et z ( k ) y ( k ) v ( k )
A (z 1 )
yˆ ( k ) T ( k )
avec