Cours - Identification Des Systèmes
Cours - Identification Des Systèmes
d’Ingénieur « GET »
Module : Identification et Commande des Systèmes
Partie I
Pr. N. EL GMILI
[email protected]
Chapitre 1 : Généralités sur l’identification
3ème année Filière d’Ingénieur GET
Chapitre 1 : Généralités sur l’identification
Introduction :
Système : ensemble d'objets interagissant entre eux pour réaliser une fonction. Il est connecté au
monde extérieur à travers :
• ses entrées.
signaux d'excitation : actions envoyées au système;
Introduction :
Définitions de l’identification
L’identification d’un procédé est définie comme la détermination, basée sur la connaissance des
entrées et des sorties du procédé, d’un modèle appartenant à une classe spécifiée, équivalente au
procédé.
L’identification d’un système c’est la détermination de son modèle mathématique sur la base des
observations expérimentales entrées-sorties. Le traitement mathématique des réponses
graphiques du système est appelé IDENTIFICATION. Le modèle obtenu est dit de conduite ou de
représentation.
Objectifs de l’identification
Donner les principes fondamentaux de la modélisation et de l'estimation de paramètres
appliqués aux systèmes rencontrés dans de nombreux domaines scientifiques :
l'Automatique pour laquelle la connaissance du modèle est indispensable pour synthétiser
une loi de commande
les Sciences Expérimentales, lorsque la validation d'une théorie se fait par des manipulations
expérimentales (physique atomique, microélectronique...)
Modélisation ?
C’est un ensemble de procédures permettant d’obtenir un modèle
Modéliser un système = capable de prédire le comportement du système
Modèle jamais "exact"?
Modéliser : Mettre en place un modèle de sorte que la sortie calculée ym (t) suit le plus
proche la sortie observée ys (t) ys (t)=ym (t)+e (t), avec e (t)≈0.
Obtenu à partir des lois (physiques, chimiques, économiques etc..) régissant le système
(processus) étudié.
Difficultés de décrire fidèlement les phénomènes complexes;
Hypothèses simplificatrices;
Dilemme- précision-simplicité : Un modèle simple est faux, un modèle compliqué est
inutilisable.
Les paramètres ont un sens physique donc modèle commode pour l'analyse.
Ce système est dit à paramètres localisés (régi par une équation différentielle ordinaire).
C’est une équation à dérivées partielles. Ce système est dit distribués (répartis) ou à paramètres
distribués (répartis).
Monovariable :
Multivariable :
Système variant
Le système est variant dans le cas contraire.
Système dynamique
La réponse est fonction de l'excitation et des réponses passées
Additivité?
Vérification expérimentale :
Lorsque les systèmes sont non linéaires, on étudie le comportement du système autour de ce que
l’on appelle un point de fonctionnement, autrement dit, un ensemble de paramètres fixés et
n’évoluant « pas trop ».
On trouve généralement deux origines aux non linéarités :
Produit de variables : la présence d’un produit de plusieurs variables d’entrée produisant
un effet sur la sortie. Par exemple, 𝑠(𝑡) = 𝑒1(𝑡)𝑒2(𝑡)
Fonctions mathématiques : la présence d’une fonction mathématique (cos, sin, log, exp…)
sur une variable d’entrée ou de sortie. Par exemple, 𝑠(𝑡) = 𝑒(𝑡).
Dès qu’un système est non linéaire, il est possible de le transformer en un système linéaire autour
d’un point de fonctionnement.
Nous allons illustrer les méthodes de linéarisation autour d’un point de fonctionnement à
l’aide de l’équation suivante : 𝑠(𝑡) = 𝑢(𝑡) h(𝑡) . Elle cumule le produit de deux variables et
une fonction mathématique.
Un point de fonctionnement peut être défini comme un état des variables entrée/sortie
qui vérifie l’équation différentielle et autour duquel on va étudier l’influence de petites
variations des entrées sur la sortie. Dans notre cas, le point de fonctionnement sera (𝑠0,
𝑢0, h0) tel que : 𝑠0 = 𝑢0 ℎ0.
Méthodes de linéarisation :
Développements limités;
Dérivées partielles.
Dans ce cours, nous étudierons principalement des systèmes dynamiques, continus ou discrets, mono ou
multi variables, déterministes, à paramètres localisés, linéaires, stationnaires et causals.
Les signaux déterministes tels que l'échelon, la sinusoïde, ... Ces signaux sont décrits par une
fonction de temps ou par leur transformée de Fourrier,
Les signaux aléatoires, complètement décrits par leurs propriétés statistiques. Parmi ceux-ci le
bruit blanc (théorique) dont l'énergie est équirépartie sur toutes les fréquences, permettrait
d'exciter le processus dans toute la bande passante. On préfère en pratique la séquence binaire
pseudo-aléatoire (SBPA).
Principe de l’identification
L’identification est une approche expérimentale pour la détermination du modèle dynamique d’un
système.
Base de l’identification : Expérience
Expérience active (système dérangé)
Expérience passive (aléatoire)
Principe
1. Étape qualitative : Sur la base d’une connaissance à priori du système à identifier, on fixe une
structure du modèle comportant des coefficients inconnus. : Boite « grise » et « boite noire »
2. Étape quantitative : Elle consiste à la détermination des coefficients inconnus du modèle de façon
que la différence entre les N sorties réelles du système et celles du modèle soit minimale selon un
critère donné qu’on résout par un algorithme d’identification
Validation du modèle
Étapes de l’identification
Connaissance à priori
Acquisition des données (entrées/sorties) sous un protocole d’expérimentation. Système réel à identifier
Non
Satisfaisant?
Oui
Utilisation du modèle
Méthodes de représentation
Il existe plusieurs représentations possibles pour un système dynamique (à temps continu ou à temps
discret). Ces représentations se classifient selon les trois critères suivants:
• Représentation temporelle/fréquentielle : une approche temporelle est intéressante pour les raisons
suivantes:
les données expérimentales sont généralement disponibles sous forme temporelle,
l’approche est intuitive, la notion de constante de temps est immédiate,
une représentation temporelle interne est applicable aux systèmes linéaires et non linéaires, stationnaires
et non stationnaires, avec des conditions initiales nulles et non nulles, à l’identification, l’analyse, la
simulation et l’optimisation du système.
• Représentation continue/discrète : une représentation continue est souvent plus naturelle pour l’étape
d’analyse, alors qu’une représentation discrète est nécessaire pour le travail sur ordinateur.
• Représentation externe/interne : une approche externe (modèle de représentation) met en relation directe
les variables d’entrée et de sortie, alors qu’une représentation interne (modèle de connaissance) fait intervenir
explicitement toutes les variables dynamiques du système.
+∞ 𝑡
y(t) = h(t) ∗ u(t) = u(t) ∗ h(t)=−∞ h(τ) ∗ u(t−τ)= 0 h(τ) ∗ u(t−τ) (𝐶𝑎𝑠 𝑐𝑎𝑢𝑠𝑎𝑙)
A partir des mesures 𝑢 𝑡𝑘 , 𝑦 𝑡𝑘 𝑘=0,1,2, … ,𝑁−1, on cherche h 𝑡𝑘 h 𝑡
Domaine fréquentiel:
𝑌 𝑓
𝑌 𝑓 = 𝐻 𝑓 .𝑈 𝑓 𝐻 𝑓 = 𝑈 , 𝑌 𝑓 = TF 𝑦 𝑡 , 𝑈 𝑓 = TF 𝑢 𝑡
𝑓
Domaine fréquentiel:
𝑌 𝑓
𝑌 𝑓 = 𝐻 𝑓 .𝑈 𝑓 𝐻 𝑓 = 𝑈 𝑓
= 𝐻 𝑍 𝑒=𝑧ۂ2𝑗𝜋𝑓
Dans le cas d’une approche paramétrique , la structure du modèle doit être spécifiée a priori, par exemple sous
la forme de la fonction de transfert du premier ordre avec retard pur G(s) = Ke−θs/(τs + 1) avec les 3 paramètres
K , τ et θ .
Si l’on dispose d’un nombre de mesures supérieur au nombre de paramètres, il y aura redondance dans les
données (plus d’équations que d’inconnues) servant à l’identification du modèle. Ceci constitue la caractéristique
principale des modèles paramétriques.
U(t) et y(t) sont représentés par leurs échantillons prises à des instants k.
𝑢 𝑡 → 𝑢 𝑘 , 𝑢 𝑘 + 1 , … , 𝑢(𝑘 + 𝑚)
𝑦 𝑡 → 𝑦 𝑘 , 𝑦 𝑘 + 1 , … , 𝑦(𝑘 + 𝑛)
(Il faut que 𝑎0 soit égale à zéro pour que le système soit causal)
𝒎
𝒃𝒋 𝒖 𝒌 − 𝒋
𝒋=𝟎
𝒏
𝒂𝒊 𝒚 𝒌 − 𝒊
𝒊=𝟏
𝑎0 𝑦 𝑘 + 𝑎1 𝑦 𝑘 − 1 + ⋯ + 𝑎𝑛 𝑦 𝑘 − 𝑛 = 𝑏0 𝑢 𝑘 + 𝑏1 u 𝑘 − 1 + ⋯ + 𝑏𝑚 𝑢 𝑘 − 𝑚
𝑦 𝑘 1 + σ𝑛𝑖=1 𝑎𝑖 𝑧 −𝑖 = 𝑢 𝑘 σ𝑚
𝑗=0 𝑏𝑗 𝑧
−𝑗
Transformée en Z :
𝑌 𝑍 𝐵(𝑍 −1 )
𝑦 𝑘 𝐴(𝑍 −1 ) =𝑢 𝑘 B(𝑍 −1 ) W 𝑧 = =
𝑈 𝑍 𝐴(𝑍 −1 )
𝑩(𝒁−𝟏 )
𝑨(𝒁−𝟏 )
𝑦 𝑘 1 + σ𝑛𝑖=1 𝑎𝑖 𝑧 −𝑖 = 𝑢 𝑘 σ𝑚
𝑗=0 𝑏𝑗 𝑧
−𝑗
= 𝑢 𝑘 . 𝑏0
𝑌 𝑍 𝑏0
W 𝑧 = =
𝑈 𝑍 𝐴(𝑍 −1 )
→ θ t k = 𝜃 t k , k=0, …, N-1
Fin du chapitre 1
Introduction :
Avec une approche non paramétrique, il n’est pas nécessaire de spécifier a priori la structure
du modèle. Il s’ensuit que le nombre de grandeurs (paramètres) à estimer est élevé.
Considérons le cas de N mesures. Une représentation temporelle est donnée tout simplement
par la valeur de la sortie à ces N instants. Il s’ensuit qu’avec une approche non paramétrique, N
mesures servent à déterminer N grandeurs (ou paramètres). Il n’y a donc pas de redondance
dans les données propre à filtrer les erreurs de mesure.
+∞ 𝑀 𝑁(𝑧 −1 )
𝐻 𝑧 = ℎ 𝑖 𝑧 −𝑖 = ℎ 𝑖 𝑧 −𝑖 (𝑐𝑎s 𝑅𝐼𝐹: ∃ 𝑀/ℎ(𝑘) = 0, ∀ k>M.) =
𝑖=0 𝑖=0 𝐷(𝑧 −1 )
Rappel : Un système causal est initialement au repos, si sa sortie est nulle tant que son entrée
système causal est nulle
xt 0 pour t t0 , alors yt 0 pour t t0
𝑦 𝑘 = σ𝑘𝑖=0 ℎ 𝑖 𝑢 𝑘 − 𝑖 + 𝑒 𝑘
Ainsi, on peut représenter ces mesures sous forme matricielle comme suit :
𝑦 𝑘 = σ𝑘𝑖=0 ℎ 𝑖 𝑢 𝑘 − 𝑖 + 𝑒 𝑘
𝑦0 = ℎ0 𝑢0 + 𝑒0
𝑦1 = ℎ0 𝑢1 + ℎ1 𝑢0 + 𝑒1
…
𝑦𝑁−1 = ℎ0 𝑢𝑁−1 + ℎ1 𝑢𝑁−2 + ⋯ + 𝑒𝑁−1
𝒀𝑵 = 𝑼𝑵 𝑯𝑵 + 𝑬𝑵
𝑈𝑁 est une matrice de Toeplitz rotation de 90° Structure de Hankel.
Pour des ai et bi données, on peut générer sous Malab, la réponse impulsionnelle réelle à
identifier ainsi que les données de l’entrée u et de la sortie y comme suit :
a0=1;a1=1.6;a2=0.79;a3=0.12; b0=1;b1=1;b2=1;
A=[a0 a1 a2 a3]; B=[b0 b1 b2 0];
fprintf('La fonction de transfert du système d’origine')
H=tf(B,A,-1,'variable','z^-1')
N=20;
h=dimpulse(B,A,N);
u=ones(1,N);
YN=dlsim(B,A,u);
figure (1)
plot(k,YN)
title('réponse du système
à identifier')
C=u(1:N);
L=[u(1),zeros(1,N-1)];
UN=toeplitz(C,L);
hN=inv(UN)*YN;
Jh_hN=mean((h-hN).^2)
figure
plot(k,h,'o',k,hN,'x')
title(' réponses impulsionnelles: o:originale, x:calculée)')
H1 - H3
H2
Détermination
de p et q
col=hN(q1+1:q1+p1);
lin=hN(q1+1:-1:q1-p1+2);
H2=toeplitz(col,lin); % formation de H2
Pour déterminer les 𝑏𝑖 qui sont les composantes du vecteur Bp (H1.[1 Ap]=Bp pour(q=p)), on va
former H1 pour (p,q=p) connus.
c2=hN(1:q+1);
l2=[hN(1),zeros(1,p)];
H1=toeplitz(c2,l2); % matrice H1
Bp=H1*[1;Ap]; % solution les bi, i=1,...,q=p
Une fois qu’on visualise Bp, on détermine q=p-x, avec x=? est le nombre des dernières valeurs de Bp
qui sont nulles. On trouve seulement la dernière valeur de B qui est nulle donc x=1.
x=1; q=p-x; Bq=Bp(1:q+1);
fprintf('Paramètres bi,(i=0,...,q) réels B et estimés Bq')
[B' Bp] %X' car X et Y doivent colonne, Y déjà colonne
On peut aussi comparer la réponse impulsionnelle réelle h et hc calculée par le modèle obtenu
H(z) comme suit :
hc=dimpulse(Bq',App',N); %hc retrouvée à partir de H(z) calculée
Jh_hc=mean((h-hc).^2)
figure
plot(k,h,k,hc,'x',k,hN,'o')
title(‘Réponses impulsionnelles originale interpolée, o:calculée,x:retrouvée
à partir H(z)calculée')
La réponse impulsionnelle h(t) d’un système continu permet de connaitre la sortie y(t) due à une
entrée u(t) à partir de conditions initiales nulles par la relation de convolution :
∞
𝑦 𝑡 = 𝑦𝑐 𝑡 + 𝑒 𝑡 = 𝑢 𝑡 ∗ ℎ 𝑡 + 𝑒 𝑡 = න 𝑢 𝜏 ℎ 𝑡 − 𝜏 𝑑𝜏
0
𝑡
𝑦 𝑡 = 0 𝑢 𝜏 ℎ 𝑡 − 𝜏 𝑑𝜏 + 𝑒 𝑡 𝑐𝑎𝑠 𝑐𝑎𝑢𝑠𝑎𝑙 , 𝑎𝑣𝑒𝑐 u 0 = 𝑒 0 (cas sans bruit)
t𝜖 𝑘 ∆𝑡, 𝑘 + 1 ∆𝑡 , u 𝑡 = 𝑢 𝑘 ∆𝑡
Cela correspond à exciter le système linéaire à identifier par une entrée échantillonnée-bloquée à
période constante. La relation évaluée aux instants d’échantillonnage t=k Δt, donne :
𝑘 ∆𝑡
𝑦 𝑘 ∆𝑡 = න 𝑢 𝜏 ℎ 𝑘 ∆𝑡 − 𝜏 𝑑𝜏 + 𝑒 𝑘 ∆𝑡
0
(𝑘−𝑖) ∆𝑡
𝑦 𝑘 ∆𝑡 = σ𝑘−1
𝑖=0 𝑢 𝑖∆𝑡 𝑘(−𝑖−1)∆𝑡 ℎ 𝛽 𝑑𝛽 + 𝑒 𝑘 ∆𝑡 (𝛽= 𝑘 ∆𝑡 − 𝜏)
𝑘 ∆𝑡
D’ou : 𝑦 𝑘 = σ𝑘−1
𝑖=0 𝑢 𝑖 𝑔(𝑘 − 𝑖) + 𝑒 𝑘 ∆𝑡 avec 𝑔(𝑘) = 𝑘(−1) ∆𝑡 ℎ 𝛽 𝑑𝛽 et g(0)=0
C=u(1:N-1);
L=[u(1) zeros(1,N-2)] ;
UN=toeplitz(C,L) ;% matrice UN
figure
plot(t,h,'b',t,h_trap,'r'); title(' réponses impulsionnelles originale
(bleu), calculée (trapèze) (rouge)')
∞
−𝑖
𝑁(𝑠 −1 )
𝐻 𝑠 = ℎ𝑖 𝑠 =
𝑖=1 𝐷(𝑠 −1 )
Lorsque sont connus les ℎ𝑖 , i𝜖 𝑁, cette formule permet, par la méthode exposée précédemment, de
déterminer les coefficients des polynômes N et D.
Sachant que la Transformée de Laplace inverse de 𝑠 −𝑖−1 est :
𝑡𝑖
∀ 𝑖 > 0, 𝐿−1 𝑠 −𝑖−1 =
𝑖!
Il vient :
∞𝑡𝑖
ℎ 𝑡 = ℎ𝑖+1
𝑖=0 𝑖!
10/09/2023 FST Mohammedia Pr. N. EL GMILI 70
Chapitre 2 : Identification non paramétrique
A partir des N valeurs de la réponse impulsionnelle calculées par la méthode de déconvolution, on calcule
les N premiers moments ℎ𝑖 , i𝜖 1, … , 𝑁 en négligeant les moments d’ordre supérieur. Cela conduit au
système :
𝑡1𝑁−1
1 𝑡1 𝑡1 ²
𝑁−1 !
ℎ(𝑡1 ) ℎ1 𝑒(𝑡1 )
𝑡2𝑁−1
ℎ(𝑡2 ) 1 𝑡2 𝑡2 ² ℎ2 𝑒(𝑡2 )
= 𝑁−1 ! ⋮ +
⋮ ⋮ ⋮ ⋮ ⋮
ℎ(𝑡𝑁 ) ⋮ ℎ𝑁 𝑒(𝑡𝑁 )
𝑁−1
𝑡𝑁
1 𝑡𝑁 𝑡𝑁 ²
𝑁−1 !
Cette procédure est applicable lorsque l’on obtient des valeurs de ℎ𝑖 , par la résolution de cette dernière
équation.
Une fois H(z) est connue, on peut connaitre H(s) par l’inversion de la relation :
𝐻(𝑠) 𝐻(𝑠)
H(z)=(1 − 𝑧 −1 )TZ 𝑇𝐿𝐼 = (1 − 𝑧 −1 )TZ
𝑠 𝑘=𝑘∆𝑡
𝑠
Ainsi :
𝐻 𝑧 𝐻(𝑧)
𝐻 𝑠 = s T𝐿 𝑇𝑍𝐼 = 𝑠 𝑇𝐿
1 − 𝑧 −1 𝑘=𝑘∆𝑡
1 − 𝑧 −1
Bzz=[Bp']
Azz=[App']
Hd2=tf(Bzz,Azz,dt,'variable','z^-1')
Hr=d2c(Hd2)
ync=step(du*Hr,t)
figure(3)
plot(t,y,'r',t,yyc,'b',t,ync,'o')
Jy_yc=mean((YN-ync).^2) % erreur quadratique moyenne entre y et yc
figure (4)
plot(t,h,t,hc,'r')
title(' réponses impulsionnelles originale interpolée,o:calculée,x:retrouvée
à partir de H(z)calculée')
Travail à faire :
On se propose de trouver le modèle d’un système réel de comportement instable divergent connaissant sa réponse pour
une entrée échelon d’amplitude 2 (figure 1). L’objectif est d’arriver à identifier ce modèle dans le cas où la réponse est
non bruitée.
1- Utiliser la fonction load pour charger les données stockées dans le fichier data_ty.txt.
load data_ty.txt; t=data_ty(:,1); y=data_ty(:,2);
2- Visualiser la réponse indicielle y du système étudié en fonction du
temps t.
3- Donner le modèle général d’un système discret, désigné par h(k)
puis H(z).
4- En utilisant la méthode non paramétrique vue dans ce chapitre,
calculer h(k) puis H(z) (pensez à trouver l’ordre à partir de min J(n) à
calculer).
5- Transposer H(z) en H(s) en utilisant la méthode de discrétisation.
6- Tracer, sur le même graphe, les réponses indicielles du système réel
et du modèle trouvé.
7- Calculer l’erreur quadratique moyenne 𝜀 et conclure. On supposera
que le modèle est valide si 𝜀 ≤0.1 .
Fin du chapitre 2
1. Introduction
2. Identification en boucle ouverte
2.1. Cas sans intégrateur
a. Système du 1er ordre
b. Système du 2ème ordre
c. Système d’ordre supérieur
i. Modèle de Strejc
ii. Modèle de Broida
2.2. Cas avec intégrateur
a. Intégrateur pur
b. Modèle de Strejc
1. Introduction :
Procédures d’identification paramétrique
Quelle que soit la procédure d’identification, le modèle doit satisfaire une erreur
acceptable.
1. Introduction :
Identification en BO : Analyse indicielle ou fréquentielle?
L'identification de réponses fréquentielles, ne pose pas de difficultés. Cependant, avant d'obtenir
le tracé de Bode, il a fallu mesurer cette réponse fréquentielle dans un large domaine de
fréquences. Ceci n'est possible qu'en couvrant un nombre suffisant de décades avec assez de
points.
On imagine donc aisément que le temps
nécessaire pour la mesure peut être long. Cela
est d'autant plus vrai que le processus est lent
et que le domaine d'intérêt est celui des
basses-fréquences.
On voit donc que l'analyse fréquentielle n’est
pas praticable pour des systèmes dont le temps
de réponse atteint la minute, voire quelques
dizaines de minutes (ce qui n'est pas rare en
milieu industriel).
10/09/2023 FST Mohammedia Pr. N. EL GMILI 81
Chapitre 3 : Identification des modèles paramétriques continus
1. Introduction :
Identification en BO : Analyse indicielle
L’analyse indicielle d’un système consiste à enregistrer l’évolution de la sortie lorsque l’entrée passe
instantanément d’une valeur constante à une autre (entrée échelon).
Le but de cette étude est, au vu de la forme de la réponse, de proposer une classe de modèles
permettant d’obtenir la même sortie (généralement cela permet de se fixer l’ordre du modèle).
Nous verrons que dans les cas de modèles simple, l’analyse indicielle fournit rapidement les
paramètres du modèle choisi.
1. Introduction :
Identification en BO : Analyse indicielle
Les fonctions de transfert identifiées par l’analyse indicielle sont généralement de la forme :
Avec K est le gain statique, 𝑻 est le temps de retard et 𝐻𝑁 𝑠 une fonction de transfert normalisée, sans
retard et un gain statique de 1.
On peut donc se ramener à la réponse d’un système sans retard pur à gain statique unité. Cette réponse que
nous noterons 𝑦𝑁 (𝑡), permet alors, dans certains cas, de déterminer les paramètres de 𝑯𝑵 𝒔 .
𝑞 𝑎0 = 𝑏0 = 1
σ𝑖=0 𝑏𝑖 𝑠 𝑖
𝐻𝑁 𝑠 = σ𝑝 𝑖 ,ቐ
𝑝≥𝑞
𝑎
𝑖=0 𝑖
𝑠 0
𝐻𝑁 0 = 1
0 T=? t
10/09/2023 FST Mohammedia Pr. N. EL GMILI 83
Chapitre 3 : Identification des modèles paramétriques continus
1. Introduction :
Identification en BO : Analyse indicielle
𝑲 −𝑻 𝒔
H 𝒔 = 𝒆 𝑯𝑵 𝒔 Modèle avec intégrateur 0 T=?
𝑺
u (t)
∆𝑦
∆𝑢 Système
0
0 t 0 T=? t
Remarque :
Les paramètres K et T peuvent être déterminés immédiatement, ou K est l’amplitude du signal d’entrée On
∆𝑦
détermine graphiquement K= ∆𝑢 et T;
Le modèle 𝐻𝑁 𝑠 est à proposer, puis à identifier partir de la réponse indicielle normalisée 𝑦𝑁 𝑡 .
1 𝐻𝑁 (𝑠) 1
𝑈𝑁 𝒔 = 𝑇𝐿 𝞒 (𝑡) = 𝑦𝑁 𝑡 = 𝑇𝐿𝐼 = 𝑇𝐿𝐼
𝑠 𝑠 𝑠 𝟏+𝝉𝒔
𝑡′
𝑦𝑁 𝑡′ = 1 − 𝑒 −𝜏
, 𝑡 ′ = 𝜏 → 𝑦𝑁 𝜏 = 0.63 y 𝑡 𝑦𝑁 𝑡
𝑡 ′ = 3𝜏 → 𝑦𝑁 3𝜏 = 0.95 y∞
0.63
1 −𝑡 ′ 1
𝑦ሶ 𝑁 𝑡′ = 𝑒 𝜏 → 𝑦ሶ 𝑁 0 = → 𝑦𝑁 𝜏 = 0.63
𝜏 𝜏 0
0 T 𝝉 =? t
Ce qui indique que l’intersection de la tangente à l’origine avec la valeur asymptotique de la réponse permet de connaitre
facilement la constante de temps.
𝟏 𝑦𝑁 𝑡
𝐊𝒆−𝐓 𝒔
𝟐𝝃 𝒔²
𝟏+𝝎 +
𝒏 𝝎𝒏 ²
𝑦𝑁 𝑡
𝐻𝑁 (𝑠) 1 2
−𝑡𝜉𝜔𝑛
ξ<1 : 𝑦𝑁 𝑡 = 𝑇𝐿𝐼 =1− 2
𝑒 sin 𝜔𝑛 1 − 𝜉 𝑡 + 𝜑 , avec ϕ=cos −1 𝜉
𝑠 1−𝜉
2 𝑦𝑁 𝑡𝑘 = 1 +(−1)𝑘+1 𝑒 −𝑡𝑘ξ𝜔𝑛
𝜔𝑛
𝑦ሶ 𝑁 𝑡 = 𝑒 −𝑡ξ𝜔𝑛 sin 𝜔𝑛 1 − 𝜉 𝑡 ൞ 𝑡 = 𝑘𝜋
=
𝑘𝜋
, 𝜔𝑝 =
2𝜋
1−𝜉 2 𝑘 2
𝜔𝑛 1−𝜉 𝜔𝑝 𝑇𝑝
ξ𝑘𝜋
−
1−𝜉2 𝟏 𝑘𝜋
𝐷𝑘 = 𝑦𝑁 𝑡𝑘 − 1 = (−1)𝑘+1 𝑒 ξ= , 𝜔𝑛 = 2 , 𝑇𝑝 = 𝑡𝑘+2 − 𝑡𝑘
𝟐 𝑡𝑘 1−𝜉
𝟏+ 𝝅𝒌
ൗ𝒍𝒏 𝑫
𝒌
𝟏
ξ=1 : 𝑯𝑵 𝒔 =
𝟏+𝝉𝒏 𝒔 𝟐
𝑡
𝐻𝑁 (𝑠) 𝑡 −
𝑦𝑁 𝑡 = 𝑇𝐿𝐼 𝑦𝑁 𝑡 = 1 − 1 + 𝑒 𝜏𝑛
𝑠 𝜏𝑛
𝑡
𝑡 −
𝑦ሶ 𝑁 𝑡 = 𝜏 ² 𝑒 𝜏𝑛
𝑛
𝑡
−
𝑒 𝜏𝑛 𝑡
𝑦ሷ 𝑁 𝑡 = 1−
𝜏𝑛 ² 𝜏𝑛
Cela veut dire qu’il existe un point d’inflexion I (𝑡𝐼 , 𝑦𝑁,𝐼 ), avec 𝑡𝐼 = 𝜏𝑛 on cherche le point d’inflexion sur
la courbe 𝑦𝑁 𝑡 et on déduit 𝜏𝑛 .
𝑡 𝑡 𝜏1 𝜏2
𝑦𝑁 𝑡 = 1 − 𝑐1 𝑒 − + 𝑐2 𝑒 − , avec 𝑐1 = 𝜏 et 𝑐2 = 𝜏
𝜏1 𝜏2 1 −𝜏2 1 −𝜏2
𝑡
𝐻𝑁 (𝑠) − 𝑛−1 𝑡
𝑖 1 −𝑡 𝑡 𝑛−1
𝑦𝑁 𝑡 = 𝑇𝐿𝐼 =1−𝑒 𝜏 σ𝑖=0 𝑖 𝑦ሶ 𝑁 𝑡 = 𝑒 𝜏
𝑠 𝑖! 𝜏 𝜏𝑛 𝑛−1 !
1 − 𝑡 𝑡 𝑛−2 𝑡
𝑦ሷ 𝑁 𝑡 = 𝑒 𝜏 𝑛−1 ! 𝑛−1−𝜏
𝜏𝑛
𝑇𝑚
De la même manière, on peut montrer que =𝑙 𝑚 .
𝑇𝑎
𝑇𝑟 𝑇𝑟
𝑇𝑟
𝑇𝑟
Exemple d’utilisation 1:
On considère la réponse indicielle en BO suivante :
Exemple d’utilisation 2 :
𝑇𝑟
Cette méthode consiste à approximer une courbe normalisée ayant un point d’inflexion I par une
autre courbe d’un premier ordre retardé.
𝑡 −𝑇
− 1𝜏 𝑟
𝑦𝑁 𝑡1 = 0.28 = 1 − 𝑒
𝑡 −𝑇
− 2𝜏 𝑟
𝑦𝑁 𝑡2 = 0.4 = 1 − 𝑒
𝜏 = 5.5 𝑡2 − 𝑡1
D’ou : ቊ
𝑇𝑟 ≈ 2.8 𝑡1 − 1.8 𝑡2
Exemple d’utilisation :
3. Tracer sur le même graphe, la courbe de la réponse réelle du système et celle du modèle de Broida.
𝑃𝑒𝑛𝑡𝑒
Pente = K ∆𝑢 K = ∆𝑢
𝟏
𝐊𝒆−𝐓 𝒔
𝒔
0 T=?
𝑲 −𝑻 𝒔
2.2. Cas avec intégrateur : H 𝒔 = 𝒆 𝑯𝑵 𝒔
𝑺
𝟏
b. Modèle de Strejc: 𝑯𝑵 𝒔 =
𝟏+𝝉𝒔 𝒏
𝒏−𝟏 𝒊
𝟏 𝑡
−𝜏 𝒏−𝒊 𝒕
𝑦𝑁 𝑡 = 𝑇𝐿𝐼 2 𝒏
= t − nτ + τ. 𝑒
𝑠 𝟏 + 𝝉𝒔 𝒊! τ
𝒊=𝟎
𝑡
− 𝝉 𝒕 𝝉 𝒕 𝒏−𝟏
𝑦𝑁 𝑡 = t − nτ + 𝑒 𝜏 nτ + 𝟏! 𝒏−𝟏 + ⋯+
τ 𝒏−𝟏 ! τ
𝒏−𝟏 𝝉
𝑦𝑁 𝑡0 = 𝑛𝜏 = 𝑒 −𝑛 nτ + nτ + ⋯ + 𝑛 𝒏−𝟏
= 𝒚𝟏
𝟏! 𝒏−𝟏 !
𝒏−𝟏 1
𝑦𝑁 𝑡0 = 𝑛𝜏 = nτ 𝑒 −𝑛 𝟏 + + ⋯+ 𝑛 𝒏−𝟐
𝟏! 𝒏−𝟏 !
0
𝒏−𝟏 1
= 𝑡0 𝑒 −𝑛 𝟏 + + ⋯+ 𝑛 𝒏−𝟐 =𝒚𝟐 𝒇(𝒏)
𝒚 𝟏! 𝒏−𝟏 !
0 T=? 𝒇 𝒏 = 𝒚𝟏 et 𝒚𝟐 = 𝑡0
𝟐
𝑦1′
• Tableau : n’ (entier) 𝑓 𝑛′ = 𝑦2′
(modèle) ;
3. Identification en BF :
𝐾𝑟 𝐻(𝑠)
𝐹 𝑠 =
1 + 𝐾𝑟 𝐻(𝑠)
3. Identification en BF :
Calcul de K : 2 procédures
1- Procédure 1 :
∆𝑦 𝐾𝐾𝑐
On calcul =
∆𝑢 1+𝐾𝐾𝑐
∆𝑦
∆𝑦
𝐾= 𝐾𝑐 ∆𝑢−∆𝑦
0
2- Procédure 2 :
y 𝑡
On choisit 𝐾𝑟 ≪ 𝐾𝑐
y∞
∆𝑦 ∆𝑦
On obtient : 𝐾 =
𝐾𝑟 ∆𝑢−∆𝑦
0
t
3. Identification en BF :
𝐾𝑟 𝐻(𝑠)
La F.T en boucle fermée est : 𝐹 𝑠 =
1+𝐾𝑟 𝐻(𝑠)
𝑲
Sans intégrateur : H 𝒔 = 𝑲 𝒆 −𝑻 𝒔
𝑯𝑵 𝒔 Avec intégrateur : H 𝒔 = 𝒆−𝑻 𝒔 𝑯𝑵 𝒔
𝒔
𝐾0
𝐾 𝐾𝐻 𝑗𝜔0 = 1=𝐾0 𝐻𝑁 𝑗𝜔0 , 𝐾0 = 𝐾𝑐 𝐾 > 0 𝐻 𝑗𝜔0 = 1
ቊ 𝑐 𝑁 𝜔0 𝑁
−𝑇𝜔0 + arg 𝐻𝑁 𝑗𝜔0 = −𝝅 𝜋
−𝑇𝜔0 − + arg 𝐻𝑁 𝑗𝜔0 = −𝜋
2
A partir de ces équations, on trouve les paramètres du modèle imposé.
3. Identification en BF :
3.1. Cas sans intégrateur : H 𝒔 = 𝑲 𝒆−𝑻 𝒔 𝑯𝑵 𝒔
𝟏
a. Modèle de Strejc : 𝑯𝑵 𝒔 =
𝟏+𝝉𝒔 𝒏
1 𝜋 𝜋 −𝑛
On suppose T=0 L’équation (**) donne : 𝜏= tan 𝐾0 = cos
𝜔0 𝑛 𝑛
𝑇 𝑇 𝜋
Sachant 𝐾0 = 𝐾𝑐 𝐾 Tableau 4 n 𝜏 = 2𝜋0 𝐾0 2/𝑛 − 1 𝑜𝑢 𝜏 = 2𝜋0 tan 𝑛
Après tout calcul fait 𝑛, 𝜏, 𝐾0 (𝑟é𝑒𝑙) , l’équation (**) doit être vérifiée :
𝑇0 𝑛
T= 2
1 − 𝜋 𝑎𝑟𝑡𝑔 𝐾0 2/𝑛 − 1 Si on trouve T<0, on prendra T=0.
3. Identification en BF :
3.1. Cas sans intégrateur : H 𝒔 = 𝑲 𝒆−𝑻 𝒔 𝑯𝑵 𝒔
𝒆−𝑻𝒓 𝒔
b. Modèle de Broida : 𝑯𝑵 𝒔 =
𝟏+𝝉𝒔
𝑇𝑔
𝑇0
𝜏= 𝐾0 2 − 1
2𝜋
𝑇0 1
𝑇𝑔 = 1 − 𝑎𝑟𝑡𝑔 𝐾0 2 − 1
2 𝜋
3. Identification en BF :
𝑲
3.2. Cas avec intégrateur : H 𝒔 = 𝒆−𝑻 𝒔 𝑯𝑵 𝒔
𝒔
𝟏
a. Modèle de Strejc : 𝑯𝑵 𝒔 = 𝟏+𝝉𝒔 𝒏
1 𝜋 𝐾0 𝜋 −𝑛
T=0 𝜏= tan = cos
𝜔0 2𝑛 𝜔0 2𝑛
𝐾0
Sachant Tableau 5 n
𝜔0
𝑇0 𝐾0 2/𝑛 𝑇0 𝜋
D’où : 𝜏 = −1 ou 𝜏= tan
2𝜋 𝜔0 2𝜋 2𝑛
𝑇0 1 𝑛 𝐾0 2/𝑛
Tout doit vérifier après calcul 𝑇 = − 𝑎𝑟𝑡𝑔 −1
2 2 𝜋 𝜔0
Fin du chapitre 3
Introduction
Certaines méthodes classiques permettent l’identification des processus en se basant sur la
réponse indicielle, telles que les méthodes classiques de Strejc et Broida qui nécessitent des
systèmes apériodiques ou en intégrateur.
Le développement des calculateurs numériques rend l’utilisation des modèles discrets de plus en
plus courante, non seulement au niveau de la prise de mesures, mais surtout pour la mise en
œuvre de la commande qui sera calculée à partir du modèle. Il est donc justifié de chercher des
directement le modèle discret.
Nous allons étudié ici quelques méthodes posant le problème de l'identification en termes
statistiques d'estimation de paramètres des modèles discrets; Ces méthodes sont basées sur
l’erreur de prédiction, appelées aussi Méthodes des Moindres Carrées (MMC).
L’avantage des MMC est d’être relativement simples à mettre en œuvre et de pouvoir être
implantées en temps réel sur calculateur.
MMC : Principe
Il s’agit d’identifier un système dynamique récurrent; sa sortie mesurée y(k) est une fonction inconnue
des y(k-1), y(k-2), … précédents et des u(k-1), u(k-2), … précédents.
e 𝒌
Erreur de sortie : e 𝒌 = 𝒚 𝒌 − 𝒚𝑴 𝒌
Le modèle est en faite une équation récurrente (ou une fonction de transfert) choisie a priori
(structure) pour rendre compte de la relation entre l’excitation et la réponse. Si l’on suppose que le
modèle cherché est de la forme suivante, où 𝑦𝑀 (𝑘) est la sortie du modèle et 𝑦(𝑘) est la sortie du
système échantillonné à l’instant k.
𝑦𝑀 𝑘 + 𝑎1 𝑦𝑀 𝑘 − 1 + 𝑎2 𝑦𝑀 𝑘 − 2 … + 𝑎𝑛 𝑦𝑀 𝑘 − 𝑛 = 𝑏0 𝑢 𝑘 + 𝑏1 𝑢 𝑘 − 1 … + 𝑏𝑚 𝑢 𝑘 − 𝑚
Lorsque la structure du modèle est choisie, l’estimation des paramètres du modèle (la détermination
des coefficients de cette équation) se fait au sens d’un critère qui fournit une mesure de l’adéquation
entre le modèle et le processus réel.
10/09/2023 FST Mohammedia 115
Chapitre 4 : Identification de modèles paramétriques discrets par MMC
MMC : Principe
Afin de réaliser une identification des paramètres, les méthodes des MC construissent un vecteur estimé
𝑦ො = 𝑦ො1 … 𝑦ො𝑁 𝑇 via le modèle et ses paramètres en utilisant un vecteur de mesures y = 𝑦1 … 𝑦𝑁 𝑇 .
𝜺 𝒌
𝜺 𝒌
MMC : Principe
Le processus que l'on souhaite identifier est supposé muni de ses convertisseurs et de son
bloqueur d'ordre zéro, en vue d'une commande ultérieure par calculateur; il est échantillonné à la
période 𝑇𝑒 , choisie d'avance. On rappelle que la fonction de transfert est fonction de 𝑇𝑒 (et change
avec 𝑇𝑒 ).
Ce processus est considéré comme une "boîte noire" placée entre les signaux d'excitation x(k) et
de réponse y(k). Ce processus subit l'influence de son environnement immédiat.
Chercher le paramètre a qui minimise le critère revient à dériver le critère par rapport à a,
et à chercher quand il s’annule. Donc, la minimisation du critère se fait pour :
𝑑𝐽 𝑎
= −2𝐻𝑇 𝑦 − 𝐻𝑎 = 0
𝑑𝑎
La valeur du paramètre 𝑎ො qui annule la dérivée du critère est donnée par :
𝑎ො = 𝐻 𝑇 𝐻 −1 𝐻𝑇 𝑦
H=u';
Y=y';
a = inv(H'*H)*H'*Y;
plot(u,y,'+',u,a*u)
%Génération de la sortie
y(t)bruitée
Te = 1e-2;
t = 0:Te:0.7;
tau =0.1;
N =length(t);
br =randn(1,N);
y = 1-exp(-t/tau)+0.05*br;
Avec :
H = [-y(1:N-1)' ones(1,N-1)'];
y = y(2:N-1)';
𝜃 = 𝐻 𝑇 𝐻 −1 𝐻 𝑇 𝑦
theta =inv(H'*H)*H'*y(2:N)';
Y=y(2:N)';
H = [-y(1:N-1)' ones(1,N-1)'];
theta =inv(H'*H)*H'*Y;
aopt = theta(1);
bopt = theta(2);
tauopt = -Te/log(-aopt);
Kopt = bopt/(1+aopt);
yopt= Kopt*(1-exp(-t/tauopt)));
plot(t,y,'+',t,yopt)
MMC simple
La fonction de transfert d’un modèle discret d'ordre n est donnée par la structure ARMA :
𝐵 𝑧 −1 σ𝑚
𝑗=0 𝑏𝑗 𝑧
−𝑗
𝑊 𝑧 −1 = = 𝑛
𝐴 𝑧 −1 σ𝑖=0 𝑎𝑖 𝑧 −𝑖
La forme discrète de ce modèle est donnée par l’équation ci-dessous, pour k allant de n+1 à N (N
étant le nombre d’observations).
𝑦ො 𝑘 = − 𝑎1 𝑦 𝑘 − 1 + 𝑎2 𝑦 𝑘 − 2 … + 𝑎𝑛 𝑦 𝑘 − 𝑛 + 𝑏0 𝑢 𝑘 + 𝑏1 𝑢 𝑘 − 1 … + 𝑏𝑚 𝑢 𝑘 − 𝑚
MMC simple
Si tout était parfait, il existerait un vecteur 𝜃 estimé tel que pour tout i, la sortie prédite par
l'algorithme et la sortie mesurée seraient identiques.
Or, en pratique, les erreurs de mesure et les bruits perturbateurs d'une part, et le fait que la dynamique
réelle du système ne soit pas complètement représentée par la structure du modèle d'autre part font
que, quels que soient les paramètres estimés â0, â1, ... , ân-1 composantes de 𝜃 ; il subsiste un écart
𝜀(i) entre la sortie réelle mesurée y(i) et la sortie 𝑦(i)
ො estimée par l'algorithme de calcul, à l'instant i.
Avec :
𝑦 𝑘 = 𝐻 𝑘 𝜃 + 𝜀 𝑘 = 𝑀𝑜𝑑è𝑙𝑒 + 𝐸𝑟𝑟𝑒𝑢𝑟 𝑑𝑒 𝑚𝑜𝑑é𝑙𝑖𝑠𝑎𝑡𝑖𝑜𝑛
… −𝑦 𝑘 − 𝑛 𝑢 𝑘 … 𝑢 𝑘−𝑚 𝑇
𝐻 𝑘 = −𝑦 𝑘 − 1
En effet, cette méthode considère l’erreur d’équation 𝜀(𝑘) comme un bruit de mesure entre la sortie
réelle 𝑦 𝑘 et la sotie prédite 𝑦ො 𝑘 .
𝑦 𝑘 = 𝑦ො 𝑘 + 𝑣 𝑘
MMC simple
L’équation précédente peut s'écrire sous la forme matricielle généralisée suivante :
𝑦(𝑁) −𝑦 𝑁 − 1 … −𝑦 𝑁 − 𝑛 𝑢 𝑁 … 𝑢 𝑁−𝑚 𝑎1 𝜀(𝑁)
𝑦(𝑁 − 1) −𝑦(𝑁 − 2) … −𝑦(𝑁 − 1 − 𝑛) 𝑢(𝑁 − 1) … 𝑢(𝑁 − 1 − 𝑚) 𝑎2 𝜀(𝑁 − 1)
⋮ ⋮ … … … … … ⋮ ⋮
𝑦(𝑛 + 1) = −𝑦 𝑛 … −𝑦 1 𝑢(𝑛 + 1) … 𝑢(𝑛 + 1 − 𝑚) 𝑎𝑛 + 𝜀(𝑛 + 1)
𝑦(𝑛) −𝑦 𝑛 − 1 … −𝑦 0 𝑢 𝑛 … 𝑢 𝑛−𝑚 𝑏0 𝜀(𝑛)
⋮ ⋮ … … … … … ⋮ ⋮
𝑦(1) −𝑦 0 … −𝑦 1 − 𝑛 𝑢 1 … 𝑢 1−𝑚 𝑏𝑚 𝜀(1)
Sortie du système :
𝜃 : Estimateur réel
𝑦=𝐻𝜃+ε 𝐻𝜃 : Vraies valeurs de la sortie y
La matrice H est constituée à partir des valeurs prises par x et y aux différents instants
d'échantillonnage (les mesures) ;
𝜃 est le vecteur colonne des paramètres inconnus (ou à estimer) ;
Les bruits sont regroupés dans le vecteur ε.
MMC simple
σ𝑚
𝑗=0 𝑏𝑗 𝑧
𝑗
Nous pouvons considérer la structure en z du modèle ARMA : W 𝑧 = σ𝑛 𝑖
𝑖=0 𝑎𝑖 𝑧
La forme discrète de ce modèle est donnée par l’équation ci-dessous, pour k allant de 1 à N-n.
𝑦ො 𝑘 + 𝑛 = − 𝑎0 𝑦 𝑘 + 𝑎1 𝑦 𝑘 + 1 … + 𝑎𝑛−1 𝑦 𝑘 + 𝑛 − 1 + 𝑏0 𝑢 𝑘 + 𝑏1 𝑢 𝑘 + 1 … + 𝑏𝑚 𝑢 𝑘 + 𝑚
Avec m ≤ n et 𝑎𝑛 = 1.
Dans ce cas, la forme matricielle généralisée suivante :
𝐽 𝜃 =
Donc,
1 2 2 2
1 𝑇
𝐽 𝜃 = 𝑦 − 𝑦ො1 + 𝑦2 − 𝑦ො2 + ⋯ + 𝑦𝑁 − 𝑦ො𝑁 = 𝑦 − 𝐹𝜃 𝑦 − 𝐹𝜃
2 1 2
Chercher les paramètres a et b qui minimisent ce critère revient à chercher quand il s’annule. La
valeur des paramètres qui annulent le critère est donnée par :
𝜃መ = (𝐻 𝑇 𝐻) −1 𝐻𝑇 𝑌 𝜃መ : Estimateur optimal
C’est là un résultat général à retenir dans le cadre de l’estimation au sens des moindres carrés.
Notons que cette méthode fournit une solution analytique pour calculer les paramètres.
𝑏 = 𝐸 𝜃መ − 𝜃 = 𝐸 𝜃መ − 𝜃
b=0 : Estimateur non biaisé (pas d’erreur d’estimation) imposerait d’obtenir une densité de
probabilité centrée sur la valeur cherchée.
𝐿𝑖𝑚𝑁→∞ 𝜃መ 𝑁 = 𝜃
b≠ 0 : Estimateur biaisé
• 𝜀(k) est une séquence corrélée avec f(k) ou 𝐸 𝜃 ≠ 𝜃
• E est de valeur moyenne non nulle.
ε = 𝑦 − 𝑦ො
𝜃𝑅 = 𝜃 − 𝜃
Pour k allant de 1 à N-n. N étant le nombre d’observations, que l’on admet égal à 127 (N=127).
L’équation matricielle généralisée développée précédemment s'écrit pour l'ordre 3, en remplaçant n par 3 et
m par 2.
MMC simple :
Résumé
Exercice d’application 1 :
On dispose, pour identifier un système, d'une dizaine de mesures d'entrées / sorties, résumées dans le tableau
suivant.
Exercice d’application 2:
Au cours d’une expérience sur un système, on a relevé les mesures suivantes des couples d’entrée
u(k) et de sortie y(k), regroupées dans le tableau suivant :
Déterminer les paramètres d’un modèle du 1er ordre de type: y(k) = - a y(k-1) + b u(k-1) permettant
d’identifier ce système: (a, b et J).
Certains de ces méthodes interviennent directement sur l’estimation fournie par la MMC
simple, c’est le principe des méthodes utilisant des Variables Instrumentales (VI).
D’autres méthodes interviennent sur un modèle à identifier différent, c’est le cas Moindres
Carrées Etendus (MCE), les méthodes de Maximum de Vraisemblance (MV) et les Moindres
Carrées Généralisés (MCG) que nous étudierons ici.
Nous exploitons en ce qui suit la méthode des MCG afin d’obtenir une estimation optimale
non biaisée dans le cas d’une observation avec un bruit corrélé.
𝑛 𝑚
𝑦ො 𝑘 = − 𝑎𝑖 𝑦ො 𝑘 − 𝑖 + 𝑏𝑗 𝑢 𝑘 − 𝑗
𝑖=1 𝑗=0
Si le système est affecté d’un bruit blanc non corrélé 𝑣(𝑘) à la sortie :
𝑛 𝑚
𝑦ො 𝑘 = 𝑦 𝑘 − 𝑣 𝑘 = − 𝑎𝑖 ( 𝑦 𝑘 − 𝑖 − 𝑣 𝑘 − 𝑖 ) + 𝑏𝑗 𝑢 𝑘 − 𝑗
𝑖=1 𝑗=0
𝑛 𝑚
𝑦 𝑘 = − 𝑎𝑖 𝑦 𝑘 − 𝑖 + 𝑏𝑗 𝑢 𝑘 − 𝑗 + 𝑟 𝑘
𝑖=1 𝑗=0
Avec : r 𝑘 = 𝑣 𝑘 + σ𝑛𝑖=1 𝑎𝑖 𝑣 𝑘 − 𝑖
La structure ARMA modifie le bruit blanc non corrélé de mesure 𝒗 𝒌 en un résidu 𝐫 𝒌 corrélé.
Avec : r 𝑘 = σ𝑛𝑖=1 𝑏𝑗 𝑒 𝑘 − 𝑗
Nous considérons, pour les MCG, la structure DARX (Doublement Auto-Régressive à entrée eXogène) :
1 1
𝐹 𝑧 −1 = 𝑟 𝑘 = 𝑣(𝑘)
𝐶 𝑧 −1 𝐶 𝑧 −1
𝐶 𝑧 −1 𝑦 𝑘 𝐴(𝑧 −1 ) = B 𝑧 −1 𝐶 𝑧 −1 𝑢 𝑘 + 𝑣(𝑘)
On transforme par filtrage successif les données expérimentales pour obtenir un écart (modèle –
système) qui devient un bruit blanc 𝒗(𝒌).
𝐶 𝑧 −1 𝑦 𝑘 𝐴(𝑧 −1 ) = B 𝑧 −1 𝐶 𝑧 −1 𝑢 𝑘 + 𝑣(𝑘)
𝑦𝑟 𝑘 𝑢𝑟 𝑘
𝑣 𝑘 = 𝑟 𝑘 𝐶 𝑧 −1 𝑣 𝑘 = 𝑟 𝑘 1 + 𝐶1 𝑧 −1 + ⋯ + 𝐶𝑝 𝑧 −𝑝
𝑣 𝑘 = 𝑟 𝑘 + 𝐶1 𝑟 𝑘 − 1 + ⋯ + 𝐶𝐩 𝑟 𝑘 − 𝑝
𝑟 𝑘 = −𝐶1 𝑟 𝑘 − 1 − ⋯ − 𝐶𝐩 𝑟 𝑘 − 𝑝 + 𝑣 𝑘
𝒓 = 𝑹𝑪+𝑽
On ne connait ni 𝑹 ni le vecteur 𝒓
?
Comment calculer 𝑪
On considère les données filtrés. On notera 𝑦𝑟 et 𝐻𝑟 les matrices 𝑦 et 𝐻 construites à partir des
données filtrées.
… −𝑦𝑟 𝑘 − 𝑛 𝑢𝑟 𝑘 … 𝑢𝑟 𝑘 − 𝑚 𝑇
𝐻𝑟 𝑘 = −𝑦𝑟 𝑘 − 1
Nous obtenons ainsi le modèle de régression linéaire, où l’erreur d’équation est un bruit blanc
𝑣 𝑘 .
𝑦𝑟 𝑘 = 𝐻𝑟 𝑘 𝜃 + 𝑣 𝑘
= (𝑯𝒓 𝑻 𝑯𝒓 )−𝟏 𝑯𝒓 𝑻 𝒚𝒓
Par MMC simple : 𝜽
Cependant, à l’étape initiale, les 𝑟 𝑘 ne sont pas connus. Ainsi, la méthode des MCG consiste à
utiliser une première estimation 𝜃መ des paramètres par une initialisation des donnés filtrées 𝑦𝑟 = y
et 𝐻𝑟 = 𝐻.
et on pourra
On construit 𝐻𝒓 à partir de 𝒚𝒓 et 𝒖𝒓 . Cela permettra de remettre à jour l’estimation 𝜽
donc réitérer plusieurs fois l’opération.
Calcul de l’estimateur
𝜽(𝒊) = (𝑯𝒓 𝑻 𝒊 𝑯𝒓 𝒊 )−𝟏 𝑯𝒓 𝑻 𝒊 𝒚𝒓 𝒊
𝐉 𝒊 ≤𝜺 𝜃መ = 𝜃(𝑖)
𝒊=𝒊+𝟏
𝑦 𝑘 𝐴(𝑧 −1 ) = B 𝑧 −1 𝑢 𝑘 + 𝑣 𝑘
𝑛 𝑚
𝑦 𝑘 = − 𝑎𝑖 𝑦 𝑘 − 𝑖 + 𝑏𝑗 𝑢 𝑘 − 𝑗 + 𝑣(𝑘)
𝑖=1 𝑗=0
n: nombre de pôles
m: nombre de zéros
𝑦 𝑘 𝐴(𝑧 −1 ) = B 𝑧 −1 𝑢 𝑘 + 𝑣 𝑘 1 + 𝐷1 𝑧 −1 + ⋯ + 𝐷𝑙 𝑧 −𝑙
𝑛 𝑚 𝑙
𝑦 𝑘 = − 𝑎𝑖 𝑦 𝑘 − 𝑖 + 𝑏𝑗 𝑢 𝑘 − 𝑗 + 𝐶𝑙 𝑣 𝑘 − 𝑗
𝑖=1 𝑗=0 𝑘=0
n: nombre de pôles
m: nombre de zéros
l: ordre du modèle dynamique du filtre
𝐷 𝑧 −1
𝐴 𝑧 −1 𝑦 𝑘 =B 𝑧 −1 𝑢 𝑘 + 𝑣 𝑘
𝐶 𝑧 −1
n: nombre de pôles
m: nombre de zéros
p: ordre du modèle dynamique du filtre
Fin du chapitre 4