Identification Modélisation Process
Thèmes abordés
Identification Modélisation Process
Thèmes abordés
1
Exemple : Identification des paramètres d’un MCC
2
Exemple : Identification des paramètres d’un MCC
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0 1 2 3 4 5 6 7 8 9 10
3
Exemple : Identification des paramètres d’un MCC
4
Exemple : Identification des paramètres d’un MCC
5
Méthodes Graphiques
6
Systèmes du premier ordre
K E
G (s) = 1+τ s avec U (s) = s
Réponse Indicielle
1
0.9 X: 4
Y: 0.9502
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0 1 2 3 4 5 6 7 8 9 10
7
Systèmes du second ordre sous-amortis
• Forme canonique
Kωn2
G (s) =
s2 + 2ξωn s + ωn2
8
Systèmes du second ordre sous-amortis
• D2 ' 0
√−πξ
ξ / D1 = Ke 1−ξ2
1.8
Réponse indicielle système du second ordre sous-amorti et
ωn / t1 = √π 2
1.6
1.4
1.2
ωn 1−ξ
1
0.8
0.6
0.4
0.2
0
0 2 4 6 8 10 12 14 16 18 20
• D2 0
1 D1
2π ln D2
ξ= r
1
1+ D1
4π 2 ln2
D2
et
2π
√
ωn =
(t2 −t1 ) 1−ξ 2 9
Systèmes du second ordre sous-amortis
• D2 ' 0
√−πξ
ξ / D1 = Ke 1−ξ2
1.8
Réponse indicielle système du second ordre sous-amorti et
ωn / t1 = √π 2
1.6
1.4
1.2
ωn 1−ξ
1
0.8
0.6
0.4
0.2
0
0 2 4 6 8 10 12 14 16 18 20
• D2 0
1 D1
2π ln D2
ξ= r
1
1+ D1
4π 2 ln2
D2
et
2π
√
ωn =
(t2 −t1 ) 1−ξ 2 9
Systèmes amortis d’ordre supérieur : Méthode de Strejc
Ke−τ s
G (s) = n
(1 + Ts)
Y(t)
Dy = K Du
Point d’inflexion
0
T1 T2 t 10
Systèmes amortis d’ordre supérieur : Méthode de Strejc
11
Systèmes amortis d’ordre supérieur : Méthode de Strejc
n T1 T2 T1
T T T2
1 0 1 0
2 0.28 2.72 0.1
3 0.8 3.7 0.22
4 1.42 4.46 0.32
5 2.10 5.12 0.41
6 2.81 5.70 0.49
12
Systèmes avec un intégrateur
−τ s
e
Soit le système G (s) = K s(1+Ts)n
suivante :
2
D2 D2 // D1
Asymptote D1
C
B
0
t
A’ A
13
Systèmes avec un intégrateur
A0 A
• Si n est entier, calculer T = n et le temps mort τ est nul
AB
• Si n n’est pas entier , déterminer le nouveau rapport AC correspondant à
la partie entière de n. Pour cela déplacer D2 parallèlement à D1 vers D1
pour obtenir ce nouveau rapport. Le temps mort τ est égale à la
translation effectuée par D2 . Calculer T à partir de A0 A = τ + nT
( AAC0 A )
• Calculer le coefficient d’intégration K = ∆u
14
Simplification de modèle
15
Méthodes Harmoniques
16
Méthodes par corrélation
17
Démarche expérimentale
18
Méthodes par corrélation
19
Méthodes par corrélation
u [k] = Re EejωkTe
∞
∞
P jω(k−l)Te
P jω(k−l)Te
y [k] = g [l] Re Ee = Re g [l] Ee
l=0 l=0
∞
g [l] e−jωlTe = [Link] ejωkTe G ejωTe
= [Link] ejωkTe
P
l=0
= E G ejωTe cos ωkTe + arg G ejωTe
20
Méthodes par corrélation
n n
1X 1X
Ic = y [k] cos (ωkTe ) Is = y [k] sin (ωkTe )
n n
k=0 k=0
n
1
E G ejωTe cos ωkTe + arg G ejωTe cos (ωkTe )
P
Ic =
n
k=1 | {z } | {z }
Gω ϕω
n
+ n1
P
v [k] cos (ωkTe )
k=1
21
Méthodes par corrélation
n
11
P
Ic = n 2 EGω [cos (2ωkTe + ϕω ) + cos (ϕω )]
k=1
n
+ 1n
P
v [k] cos (ωkTe )
k=1
On obtient alors
n
EGω EGω P
Ic = 2 cos (ϕω ) + 2n cos (2ωkTe + ϕω )
k=1
n
+ 1n
P
v [k] cos (ωkTe )
k=1
22
Méthodes par corrélation
n
EGω P
* 2n cos (2ωkTe + ϕω ) → 0 quand n → ∞ car la valeur
k=1
moyenne d’un cosinus et nulle.
n
* 1n
P
v [k] cos (ωkTe ) → 0 quand n → ∞ puisque le bruit est
k=1
supposé non coloré (bruit blanc), ne disposant donc pas de composante
fréquentielle à la pulsation ω.
EGω
* On obtient finalement Iclim = 2 cos (ϕω )
* On démontre aussi de la même façon que Islim = − EG2 ω sin (ϕω )
* d’où
q
2 Ic2lim + Is2lim
Gω = et ϕω = arctan 2 (−Islim , Iclim )
E
23
Prédiction
Objectif
24
Définitions
25
La procédure d’identification
26
Rappel
• Définition de la transformée en z :
∞
X
Z {f (t)} = f (kTe ) z−k = F (z)
k=0
• notations :
q−1 : Opérateur de retard d’une période
d’où q−1 f (t) = f (t − Te )
• sans perte de généralité on prend Te = 1
q−1 f (t) = f (t − 1) avec t = kTe = k
ainsi f [k] = f (kTe ) = f (t)
27
Rappel
Par définition :
∞
X
y (t) = h (k) u (t − k) = H (q) u (t)
k=0
Remarque :
Si H (z) = h0 + h1 z−1 + h2 z−2 + ... + hn z−n
alors Y (z) = H (z) U (z)
et y (t) = H (q) u (t) = h0 u (t) + h1 u (t − 1) + h2 u (t − 2) + ... + hn u (t − n)
28
Rappel
29
Rappel
30
Rappel
fy,z (xy , xz )
fz|y (xz |xy ) =
fy (xy )
•
Zb
P (a ≤ z ≤ b|y = xy ) = fz|y (xz |xy ) dxz
a
31
Prédiction à un pas
32
Prédiction à un pas
∞
X ∞
X
v (t) = H (q) e (t) = h (k) e (t − k) = e (t)+ h (k) e (t − k) (2)
k=0 k=1
| {z }
m(t−1)
33
Prédiction à un pas
fv (x) = fe (x − m (t − 1))
(5)
• e (t) est un bruit blanc, sa FDP est représentée par une loi NORMALE
de moyenne nulle, fe (x) admet un maximum pour x = 0.
fv (x) = fe (x − m (t − 1)) admet un maximum à m (t − 1).
• Soit v̂ (t|t − 1) la valeur la plus probable de v (t) à l’instant t,
connaissant les réalisations antérieures jusqu’à l’instant t − 1
v̂ (t|t − 1) = m (t − 1) (6)
• Remarque : Il s’agit d’une estimation au sens de Maximum A
Posteriori (MAP) ou Maximum Likelihood Estimator (MLE)
35
Prédiction à un pas
∞ ∞
!
X X
−k
v̂ (t|t − 1) = h (k) e (t − k) = h (k) q e (t) = (H (q) − 1) e (t)
k=1 k=1
v (t)
= (H (q) − 1)
H (q)
= 1 − H −1 (q) v (t)
(7)
• On obtient finalement :
ou encore
37
Principaux modèles
ARX : AutoRegressive eXogenous Model
T
θ = (a1 a2 ... ana b1 b2 ... bnb )
38
ARX : AutoRegressive eXogenous Model
• Considérons
B(q) 1
G (q) = A(q) et H (q) = A(q)
39
ARX : AutoRegressive eXogenous Model
Modèle ARX
40
ARX : AutoRegressive eXogenous Model
• Prédicteur à un pas :
- D’après la relation (9)
ŷ (t|t − 1, θ) = B (q) u (t) + (1 − A (q)) y (t) (13)
• Définissant le régresseur :
T
ϕ (t) = (−y (t − 1) ... − y (t − na ) u (t − 1) ... u (t − nb ))
• L’équation (13) peut se réécrire comme suit :
41
ARMAX : AutoRegressive Moving Average with eXogeneous inputs
= b1 u (t − 1) + ... + bnb u (t − nb )
| {z } (15)
Exogeneous Part
T
θ = (a1 a2 ... ana b1 b2 ... bnb c1 c2 ... cnc )
42
ARMAX : AutoRegressive Moving Average with eXogeneous inputs
• Considérons
B(q) C(q)
G (q) = A(q) et H (q) = A(q)
43
ARMAX : AutoRegressive Moving Average with eXogeneous inputs
Modèle ARMAX
44
ARMAX : AutoRegressive Moving Average with eXogeneous inputs
• Prédicteur à un pas
• D’après la relation (9) on a :
AB A B A
ŷ (t|t − 1, θ) = u (t) + 1 − y (t) = u (t) + 1 − y (t)
CA C C C
(17)
45
ARMAX : AutoRegressive Moving Average with eXogeneous inputs
46
ARMAX : AutoRegressive Moving Average with eXogeneous inputs
• Or (C − A) = (C − 1) − (A − 1)
• L’équation (19) devient :
47
ARMAX : AutoRegressive Moving Average with eXogeneous inputs
48
OE : Output Error
= b1 u (t − 1) + ... + bnb u (t − nb )
| {z } (23)
Exogeneous Part
B (q)
G (q) = et H (q) = 1 (24)
F (q)
• Le système devient donc :
50
OE : Output Error
Modèle OE
51
OE : Output Error
• Prédicteur à un pas
• D’après la relation (9) on a :
52
OE : Output Error
= Bu (t) + (1 − F) ŷ (t|t − 1, θ)
(28)
53
OE : Output Error
ϕ (t, θ) = [u (t − 1) ...u (t − nb )
ŷ (t − 1|t − 2, θ) ...ŷ (t − nf |t − nf − 1, θ) ]T
54
BJ : Box and Jenkins
• On définit
B C
G (q) = F et H (q) = D
Modèle BJ
56
BJ : Box and Jenkins
• Prédicteur à un pas
• D’après la relation (9) on a :
DB D
ŷ (t|t − 1, θ) = u (t) + 1 − y (t) (30)
CF C
• Soient :
B C
v0 (t) = u (t) et v (t) = e (t) = y (t) − v0 (t)
F D
• On montre que :
ŷ (t|t − 1, θ) = (C − 1) e (t) + Bu (t) + (1 − D) v (t) + (1 − F) v0 (t)
(31)
• Le régresseur est tel que :
ϕ (t, θ) = [u (t − 1) ...u (t − nb ) e (t − 1) ...e (t − nc )
− v (t − 1) ... − v (t − nd ) − v0 (t − 1) ... − v0 (t − nd ) ]T
ŷ (t|t − 1, θ) = ϕT (t, θ) θ
57
Modèle d’état
58
Principe de parcimonie
b1 q−1 b1 q−1
M1 (θ1 ) = et M2 (θ2 ) =
1 + a1 q−1 1 + a1 q−1 + a2 q−2
• L’ensemble des comportements que peut générer M1 (.) est inclus dans
l’ensemble des comportements que peut générer M2 (.).
• Pour un jeu de données identique, M2 (.) modélisera le comportement
toujours plus finement que M1 (.).
59
Principe de parcimonie
• Si la structure réelle du processus est M1 (.) mais que les mesures sont
bruitées, M2 (.) modélisera toujours mieux le comportement que M1 (.).
Par contre M2 (.) aura un moins bon comportement prédictif.
60
Méthodes Quadratiques
Régression linéaire
61
Formulation du problème
• Le modèle linéaire définit par l’équation (32) peut se mettre sous une
forme matricielle :
x (ti ) = ϕT (ti ) θ
(34)
T T
ϕ (ti ) = [f1 (ti ) f2 (ti ) ... fk (ti )] et θ = [a1 a2 ... ak ]
• ainsi :
X = Φθ
T T
X = [x (t1 ) x (t2 ) ... x (tn )] et Φ = ϕT (t1 ) ϕT (t2 ) ... ϕT (tn )
(35)
• notons :
• t1 , t2 , ..., tn les instants des n mesures.
• yi = y (ti ) les sorties mesurées aux instants ti .
• xi = x (ti ) les expressions du modèle aux instants de mesure.
62
Formulation du problème
θ = Φ−1 X
• Cependant, si les mesures sont bruitées, il peut être intéressant d’avoir
des mesures supplémentaires pour assurer une redondance de
l’information.
• En introduisant des mesures supplémentaires, la matrice Φ n’est plus
carrée, et l’équation Y = Φθ n’admet pas de solution dans Im (Φ).
63
Formulation du problème
Y = X + ε = Φθ + ε (36)
T
ε = [ε1 ε2 ...εn ]
Les ε (ti ) sont souvent appelés résidus.
• En vue d’éviter la compensation des erreurs entre elles, on considère le
critère J tel que :
n n
X X 2
J = εT ε = ε2i = y (ti ) − ϕT (ti ) θ (37)
i=1 i=1
64
Formulation du problème
65
Recherche du minimum de J
∂J ∂2J
=0 et >0 i = 1, ..., k (38)
∂ai ∂a2i
• Le minimum est obtenu pour un jeu de valeurs dites optimales pour le
critère considéré (critère des moindres-carrés).
x̂ (t) = â1 f1 (t) + â2 f2 (t) + ... + âk fk (t) = ϕT (t) θ̂ (40)
66
Recherche du minimum de J
• On montre que :
−1
θ̂ = ΦT Φ ΦT Y (41)
−1
• Le terme ΦT Φ ΦT est appelé pseudo-inverse de Φ.
67
Recherche du minimum de J : Démonstration (Méthode I)
∂J
• θ̂ est solution ∂θ = 0, ainsi :
n
∂J
ϕ (ti ) y (ti ) − ϕT (ti ) θ̂ = 0
P
∂θ = −2
i=1
n n
ϕ (ti ) ϕT (ti ) θ̂
P P
ϕ (ti )y (ti ) =
i=1 i=1
n
−1 n
ϕ (ti ) ϕT (ti )
P P
θ̂ = ϕ (ti )y (ti )
i=1 i=1
68
Recherche du minimum de J : Démonstration (Méthode I)
• Or
n
X h i y (t1 )
T
ϕ (ti )y (ti ) = ϕ (t1 ) ... ϕ (tn ) ... = Φ Y
i=1 y (tn )
• et
n
X h i ϕ (t1 )
ϕ (ti ) ϕT (ti ) = ϕ (t1 ) ... ϕ (tn ) T
... = Φ Φ
i=1 ϕ (tn )
• il vient donc :
−1
θ̂ = ΦT Φ ΦT Y
69
Rappel : Dérivation matricielle
T
• Soit X = [x1 x2 ... xn ] et f (X) = f (x1 , x2 , ... , xn ), une fonction à
valeurs réelles.
−−→
• Notons gradf (X) le gradient de la fonction f (X) tel que :
∂f (X)
∂x1
−−→ →
− ∂f (X)
gradf (X) = ∇f (X) = = ...
∂X
∂f (X)
∂xn
70
Rappel : Dérivation matricielle
• Soit f (X) = AT X
∂AT X
=A
∂X
• Soit f (X) = X T X
∂X T X
= 2X
∂X
• Soit A une matrice carrée symétrique
∂X T AX
= 2AX
∂X
• Soit A(n,p) et Y(p,1)
∂X T AY
= AY
∂X
71
Recherche du minimum de J : Démonstration (Méthode II)
T T
= Y T Y − Y T Φθ − (Φθ) Y + (Φθ) Φθ
= Y T Y − 2θT ΦT Y + θT ΦT Φθ
∂J
• La valeur approchée θ̂ est telle que ∂θ =0
∂J
∂θ = −2ΦT Y + 2ΦT Φθ̂ = 0
−1
θ̂ = ΦT Φ ΦT Y
72
Pondération du critère J
J = εT Qε (42)
73
Pondération du critère J
T
= −ΦT Q Y − Φθ̂ − Y − Φθ̂ QΦ = 0
= −2ΦT Q Y − Φθ̂ = 0 (43)
−1
⇒ θ̂ = ΦT QΦ ΦT Q Y
| {z }
pseudo−inverse de Φ
74
Identification des modèles
Identification d’un modèle déterministe
ŷ (t) = ϕT (t) θ
T
ϕ (t) = [−y (t − 1) ... − y (t − n) u (t − 1) ... u (t − m)] (46)
T
θ = [a1 ... an b1 ... bm ]
75
Détermination d’un modèle ARX par la Méthode des Moindres Carrés
Ordinaires (MCO)
• notons :
T
ϕ (t) = [−y (t − 1) ... − y (t − na ) u (t − 1) ...u (t − nb )]
(47)
T
θ = [a1 a2 ... an b1 b2 ... bm ]
• On obtient :
−1
θ̂ = ΦT Φ ΦT Y (49)
76
Biais de l’estimation des paramètres
X = Φθ̃ (50)
Y = X + e = Φθ̃ + e (51)
77
Biais de l’estimation des paramètres
78
Biais de l’estimation des paramètres
E [e] = 0 (55)
79
Variance de l’estimation des paramètres
T
A = [α1 α2 ... αn ]
• La matrice de variance/covariance d’une grandeur vectorielle est
comme suit :
h T i
ΓA = A − Ā A − Ā
2
α1 − ᾱ1 α1 − ᾱ1 α2 − ᾱ2 ... α1 − ᾱ1 (αn − ᾱn )
| {z } | {z }
Terme de
Variance Terme de Covariance
ΓA = E
2
α2 − ᾱ2 α1 − ᾱ1 α2 − ᾱ2 ... α2 − ᾱ2 (αn − ᾱn )
... ... ... ...
(αn − ᾱn )2
(αn − ᾱn ) α1 − ᾱ1 (αn − ᾱn ) α2 − ᾱ2 ...
80
Variance de l’estimation des paramètres
81
Variance de l’estimation des paramètres
e2 (t1 ) σ12
0 ... 0 0 ... 0
T 0 e2 (t2 ) ... 0 = 0
σ22 ... 0
E ee = E
...
... ... ... ... ... ... ...
0 0 ... e2 (tn ) 0 0 ... σn2
• Pour un bruit constant sur chaque mesure, de variance σY2 , le bruit sur
l’estimation des paramètres du modèle est :
h −1 iT
Γθ = σY2 ΦT Φ
82
Estimateur du maximum de vraisemblance
Γbruit = E eeT
J = εT Qε = εT Γ−1 bruit ε
−1
θ̂ = ΦT Γ−1 bruit Φ ΦT Γ−1 bruit Y
83
Rejet des mesures aberrantes
X̂ = Φθ̂
• La variance de l’estimation est :
h i h i h i
σX̂2 = E X̂ X̂ T = E Φθ̂θ̂T ΦT = ΦE θ̂θ̂T ΦT = ΦΓθ ΦT
• Pour des mesures bruitées par un bruit blanc
h i h −1 iT T
σX̂2 = E X̂ X̂ T = σY2 Φ ΦT Φ Φ
• Rejet des mesures y (ti ) dont l’écart avec le modèle x̂ (ti ) est supérieur à
l’écart type σX̂ avec k fixé par l’utilisateur ( de l’ordre de 2 à 3).
84
Méthode des Variables Instrumentales (IV)
n n
1X 1X h i
lim z (ti ) e (ti ) = lim z (ti ) y (ti ) − ϕT (ti ) θ̃ = 0 (57)
n→∞ n n→∞ n
i=1 i=1
" #−1 " n #
Xn X
lim z (ti ) ϕT (ti ) z (ti ) y (ti ) = θ̃ (58)
n→∞
i=1 i=1
85
Méthode des Variables Instrumentales (IV)
• Choix de z (ti ) :
• L’expression la plus simple de z (ti ) est la suivante :
z (t) = [u (t − 1) ... u (t − na − nb )]
• A moins d’avoir une contre-réaction de la sortie vers l’entrée, ce choix
permet de garantir une totale indépendance de z (ti ) par rapport au bruit
e (ti ).
• Cependant il est important de mentionner que ce choix présente un
problème de stabilité numérique.
86
Méthode des Variables Instrumentales (IV)
pour i = 1...n,
ym = zT (ti ) θlsm
fin
• θiv l’estimation de θ par la méthode IV est donnée par :
−1
θiv = Z T Φ ZT Y
(59)
Z = zT (ti ) ... zT (tn )
87
Moindre-Carrés Récursifs
Position du problème
y (t1 ) f1 (t1 ) f2 (t1 ) ... fk (t1 )
y (t2 ) f1 (t2 ) f2 (t2 ) ... fk (t2 )
Yn = ; Xn = Φn θ = θ
... ... ... ... ...
y (tn ) f1 (tn ) f2 (tn ) ... fk (tn )
(60)
• la solution optimale calculée sur les n mesures est :
−1
θ̂n = ΦTn Φn ΦTn Yn (61)
• elle minimise le critère calculé sur ces n mesures :
88
Position du problème
89
Mise en évidence de la solution
θ̂n = R−1
n Qn
(63)
avec Rn(k x k) = ΦTn Φn et Qn(k x 1) = ΦTn Yn
ème
• Ajout de la (n + 1) mesure :
90
Mise en évidence de la solution
• Soit :
h i
ϕT (n + 1) = f1 (tn+1 ) f2 (tn+1 ) ... fk (tn+1 ) (65)
• On dispose de n + 1 observations auxquelles correspondent n + 1
valeurs du modèle :
! ! !
Yn Xn Φn
Yn+1 = ; Xn+1 = = θ
y (tn+1 ) x (tn+1 ) ϕT (n + 1)
(66)
• Posons :
−1
θ̂n+1 = ΦTn+1 Φn+1 ΦTn+1 Yn+1 (67)
91
Mise en évidence de la solution
= ΦTn Φn + ϕ (n + 1) ϕT (n + 1)
• Calculons ΦTn+1 Yn+1
!
Yn
ΦTn+1 Yn+1 = ΦTn ϕ (n + 1)
y (tn+1 )
(69)
= ΦTn Yn + ϕ (n + 1) y (tn+1 )
92
Mise en évidence de la solution
(70)
• Posons
−1
Pn = R−1 T
n = Φ n Φn
−1
Pn+1 = R−1 T T
n+1 = Φn Φn + ϕ (n + 1) ϕ (n + 1)
93
Détermination de la relation entre Pn+1 et Pn
−1 −1
= A−1 − A−1 B DA−1 B + C−1 DA−1
[A + BCD] (71)
• Posons
A = P−1 T
n = Φn Φn
B = D−1 = ϕ (n + 1)
C=1
94
Détermination de la relation entre Pn+1 et Pn
h i−1
Pn+1 = Pn − Pn ϕ (n + 1) I + ϕT (n + 1) Pn ϕ (n + 1) ϕT (n + 1) Pn
| {z }
Kn+1
(72)
• On définit le gain de Kalman Kn+1 tel que :
−1
Kn+1 = Pn ϕ (n + 1) I + ϕT (n + 1) Pn ϕ (n + 1)
(73)
d’où
95
Calcul récursif évolué
− Kn+1 ϕT (n + 1) Pn ϕ (n + 1) y (tn + 1)
96
Algorithme des Moindres Carrés Récursifs (Recursive Least Squares)
2. Actualisation de P
3. Prédiction de la sortie
ŷ (tn + 1) = ϕT (n + 1) θ̂n
4. Actualisation des paramètres
97
Initialisation
98
Initialisation
θ̂00 = P00 ΦTK YK
99
Initialisation
• Première Itération
K1 = P00 ϕ (1) 1 + ϕT (1) P00 ϕ (1)
P1 = I − K1 ϕT (1) P00
ŷ (1) = ϕT (1) θ̂00
θ̂1 = θ̂00 + K1 [y (1) − ŷ (1)]
• Deuxième Itération
K2 = P1 ϕ (2) 1 + ϕT (2) P1 ϕ (2)
P2 = I − K2 ϕT (2) P1
ŷ (2) = ϕT (2) θ̂1
θ̂2 = θ̂1 + K2 [y (2) − ŷ (2)]
• Récurrence générale
100
Méthode des moindres Carrés
récursifs avec facteur d’oubli
Méthode des moindres Carrés récursifs avec facteur d’oubli
• Objectif :
Diminuer les ”poids” des anciennes mesures au profit
des plus récentes.
101
Méthode des moindres Carrés récursifs avec facteur d’oubli
n+1
X
λn−i+1 y (ti ) − ϕT (i) θ
J= (75)
i=1
" n+1 #
X
λn−i+1 y (ti ) − ϕT (i) θ
θ̂ (n + 1) / min(J) = min (76)
i=1
102
Méthode des moindres Carrés récursifs avec facteur d’oubli
n+1 n
λn−i+1 ϕ (i) ϕT (i) = λn−i+1 ϕ (i) ϕT (i) +ϕ (n + 1) ϕT (n + 1)
P P
Rn+1 =
i=1 i=1
= λRn + ϕ (n + 1) ϕT (n + 1)
(77)
et
n+1 n
λn−i+1 (ϕ (i) y (i)) = λn−i+1 [ϕ (i) y (i)] +ϕ (n + 1) y (n + 1)
P P
Qn+1 =
i=1 i=1
= λQn + ϕ (n + 1) y (n + 1)
(78)
Rn(kxk) = ΦTn Φn et Qn(kx1) = ΦTn Yn
103
Méthode des moindres Carrés récursifs avec facteur d’oubli
θ̂n+1 = R−1
n+1 Qn+1 = Pn+1 Qn+1
−1
= λRn + ϕ (n + 1) ϕT (n + 1) (λQn + ϕ (n + 1) y (tn+1 ))
(79)
−1
= λP−1 T
n + ϕ (n + 1) ϕ (n + 1) (λQn + ϕ (n + 1) y (tn+1 ))
−1
= λP−1 T
n + ϕ (n + 1) ϕ (n + 1) (λQn + ϕ (n + 1) y (tn+1 ))
• Soit
−1
Pn+1 = λP−1 T
n + ϕ (n + 1) ϕ (n + 1)
• Posons
A = λRn = λP−1
n
B = DT = ϕ (n + 1)
C=1
104
Méthode des moindres Carrés récursifs avec facteur d’oubli
Pn ϕ(n+1)
Kn+1 = λ+ϕT (n+1)Pn ϕ(n+1)
θ̂n+1 = θ̂n + Kn+1 y (tn+1 ) − ϕT (n + 1) θ̂n
105
Détermination d’un modèle
ARMAX par la Méthode des
Moindres Carrés Étendus
Introduction
106
Introduction
107
Travaux Dirigés
TD Prédiction
Exercice 1 :
Soit le système suivant :
108
TD Prédiction
Exercice 2 :
Soit le système suivant :
109
TD Prédiction
Exercice 3 :
Soit le système suivant :
110
TD Prédiction
Exercice 4 :
Soit le système suivant :
q−1
y (t) = u (t) + e (t)
1 − 0.5q−1
Avec :
e (0) = 0.1; e (1) = −0.05; e (2) = −0.03
e (3) = 0.08; e (4) = −0.1; e (5) = −0.01 et u (t) est un échelon .