0% ont trouvé ce document utile (0 vote)
59 vues42 pages

Techniques Didentification

Ce document traite de l'identification des systèmes, définissant l'identification comme la détermination d'un modèle mathématique basé sur des observations expérimentales. Il présente différents types de modèles, notamment les modèles de connaissance et de représentation, ainsi que diverses méthodes d'identification, y compris les méthodes graphiques, statistiques et des moindres carrés. Enfin, il aborde les critères d'identification et l'importance du choix des signaux d'excitation pour une identification efficace.

Transféré par

Dan Snow
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
59 vues42 pages

Techniques Didentification

Ce document traite de l'identification des systèmes, définissant l'identification comme la détermination d'un modèle mathématique basé sur des observations expérimentales. Il présente différents types de modèles, notamment les modèles de connaissance et de représentation, ainsi que diverses méthodes d'identification, y compris les méthodes graphiques, statistiques et des moindres carrés. Enfin, il aborde les critères d'identification et l'importance du choix des signaux d'excitation pour une identification efficace.

Transféré par

Dan Snow
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre I Généralités sur l’identification des systèmes

Chapitre 1 : Généralités sur la

l’identification
I.1. Définition de l’identification :

 L’identification d’un système c’est la détermination de son modèle mathématique sur la


base des observations expérimentales entrées/sorties. Le traitement mathématique des
réponses graphiques du système est appelé IDENTIFICATION. Le modèle obtenu est dit
de représentation.
 Identifier un procédé ou système consiste à proposer une structure entre son entrée et sa
sortie et à déterminer à partir du couple entrée-sortie, les valeurs des paramètres du
modèle. Le modèle ainsi trouvé doit, dans son domaine de validité, se comporter comme
la réalité (physique) ou au moins s’en approcher au plus près.
 L’identification a pour but de déterminer un modèle mathématique, le plus souvent de
représentation, du système étudié à partir d’un ensemble de mesure E/S du système.

I.2. Type de modèles : Il existe une multitude de types de modèles, selon les applications.
Les plus populaires sont les modèles de connaissance et les modèles de représentation.

Les modèles de connaissance :


- Ce modèle est obtenu en écrivant toutes les équations différentielles qui régissent le
fonctionnement du système (en se basant sur les lois de la physique de la chimie…
(Newton, Kirchoff…)).
- Les paramètres d’un tel modèle ont une interprétation physique (température, vitesse,
frottement, longueur, résistance électrique, ect.
- Difficultés de décrire fidèlement les phénomènes complexes
- Hypothèses simplificatrices
- Dilemme- précision-simplicité
- Un modèle simple est faux, un modèle compliqué est inutilisable.
Les modèles de représentation :
- Modèle déterminé à partir de données expérimentales (données entrée-sortie).
- Modèle dont la structure et les paramètres sont sans rapport avec le système réel.
- Les paramètres de ce modèle n’ont pas d’interprétation physique.

Techniques d’identification des systèmes dynamiques Master 1 Auto et Sys Dr : BOURAHALA Fayçal 1
Chapitre I Généralités sur l’identification des systèmes

- La structure du modèle est fixée à priori, on parle de ‘boite noire’.

I.3 : Classification des méthodes d’identification

1.3.1. Méthode de base (réponse graphique) Sur la base d’une connaissance à


priori du système à identifier, on fixe une structure du modèle comportant des coefficients
inconnus « boite noire » elles sont basées sur les réponses graphiques telles que :

- la réponse indicielle
- la réponse impulsionnelle
- la réponse à une rampe
- le diagramme de Bode et de Nyquist
- la méthode de Strejc
- la méthode de Broîda

1.3.2. Méthode du modèle :

Ajuster manuellement ou automatiquement la structure ou les paramètres du modèle jusqu’à ce


que  s  min

1.3.3. Méthode statistique : Basées sur les MC (moindres-carrés) : Elle consiste à la


détermination des coefficients inconnus du modèle de façon que la différence entre les N sorties
réelles du système et celles du modèle soit minimale selon un critère donné qu’on résout par un
algorithme d’identification.

Techniques d’identification des systèmes dynamiques Master 1 Auto et Sys Dr : BOURAHALA Fayçal 2
Chapitre I Généralités sur l’identification des systèmes

I.4. Algorithme général d'identification

Choix de la structure
du modèle
ou

Choix des signaux


d’excitation
ou

Estimation des
paramètres du
modèle

Validation du
modèle obtenu
modèle si non
ok

1.5. Critères d’identification

1.5.1. Distance d’état : Basée sur la différence entre la sortie du système et du modèle

n
Critère d’identification à minimiser: D   Y s (i ) Y m (i ) 
2

i 1

1.5.2. Distance de prédiction : Basée sur la différence entre la sortie du système et celle
que prédit le modèle au même instant

Techniques d’identification des systèmes dynamiques Master 1 Auto et Sys Dr : BOURAHALA Fayçal 3
Chapitre I Généralités sur l’identification des systèmes

Critère d’identification à minimiser : D   Y s (i ) Y p (i ) 


n
2

i 1

1.5.3. Distance de structure : Basée sur la différence entre les paramètres du système et

ceux du modèle.

1.6. Validation du modèle

Y m max Y E max
 max(i )  .100%   _ admissible
Y E max

Il faut que l’erreur soit minimale dans les systèmes industriels

1.7. Expérimentation (Choix du signal d'excitation :)

Pour bien identifier, il faut bien exciter dans tout le spectre de fréquences susceptible de contenir
des constantes de temps du système.

 Le signal sin(wt) : parfait d'un point de vue spectre (balayage en fréquence) mais peu de
systèmes acceptent ce genre d'entrées.
 Le signal δ(t) : parfait du point de vue théorique, mais difficile de réaliser une bonne
approximation de l'impulsion.
 Le signal u(t) : moins bon d'un point de vue spectral (u(f) = 1 2δ(f) + j21πf ), mais facile
à implanter.
 Le signal b(t) : bruit blanc idéal d'un point de vue spectral mais comment le réaliser ?

Pour bien identifier il faut appliquer une entrée « riche » en fréquences

Techniques d’identification des systèmes dynamiques Master 1 Auto et Sys Dr : BOURAHALA Fayçal 4
Chapitre I Généralités sur l’identification des systèmes

Solution standard: Séquence Binaire Pseudo-Aléatoires (SBPA)

- Succession d’impulsions rectangulaires modulées en largeur


- très riches en fréquences – spectre uniforme de presque 0 à 0.5fe
- Génération: à l’aide de registres à décalage bouclés
- Physiquement réalisable
- Amplitude limitée : ne pas trop perturber le processus, resté en linéaire

Exemple : Génération d’une SBPA de longueur 31=25-1

Variation aléatoire de la largeur des impulsions à l’intérieur d’une longueur de séquence

Eléments caractéristiques:

• nombres de cellules (N)


• durée maximale d’une impulsion ( tim=Nte )
• longueur de la séquence ( L=2N-1)

Techniques d’identification des systèmes dynamiques Master 1 Auto et Sys Dr : BOURAHALA Fayçal 5
Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.

Chapitre 1
Identification des systèmes par la méthode

des Moindres-Carrés

Partie1 : Ajustement du modèle par les moindres-carres

1. Positionnement du problème

Le problème d’identification que nous allons considérer est le suivant :

u (t ) x (t )

Soient :

 y s t i    y s 1 , y s 2 ....., y sp  les mesures prises par le système (les observations)

 x t i , a1 , a2 .....,, ak  Les valeurs prises par le modèle aux instants d'observation avec

a1 , a2 .....,, ak  sont les paramètres du modèles

 Posons  écart (erreur) entre les mesures et les valeurs du modèle tel que :
  y s t i   x t i , a1 , a2 ..., ak 
k k
 L'erreur quadratique cumulée est : E  a1 , a2 ,..., ak     i2    y s (t i )  x t i , a1 , a2 ... 
2

i 1 i 1

E
Le critère d'erreur présente un minimum pour: J   0  aˆ1 , aˆ2 ,..., aˆk  ? c’est-à-dire le
ai

problème revient à résoudre les k équations suivantes pour trouver les paramètres aˆ1 , aˆ2 ,..., aˆk

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 1


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.
E E E
 0,  0......  0  aˆ1 , aˆ2 ,..., aˆk  ?
a1 a2 ak

Le modèle le plus proche des mesures au sens du critère d'erreur est :

xˆ (t i )  t i , aˆ1 , aˆ2 ..., aˆk 

Remarque : Selon la nature du modèle (linéaire ou non-linéaire par rapport aux paramètres), la
résolution des équations peut poser problème. Ce cours porte essentiellement sur les méthodes de
base applicable aux modèles linéaires.

2. Méthode de moindres-carrés

Supposons des données expérimentales portées sur un graphique qui forment un nuage de points
(de 1 jusqu’à n.)

l’objectif : On cherche à déterminer l’équation de la droite qui passe le plus près possible de
l’ensemble des points.

- L’idée de la méthode ça va être de faire passer une droite au mieux par un certain
nombre de points.
- Minimiser l’écart entre le point et la droite, (  i représente l’écart)
- Minimiser la somme des écarts au carrée
- Le but donc de savoir quelle est l’équation de la droite qui passe au mieux par les points
a=? b =?

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 2


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.

u (t ) x (t )

 Choix du modèle :

Soit un modèle x (t ) de variable t, caractérisé par des paramètres a1 , a2 ,..., ak 

C’est-à-dire x t , a1 , a2 .....,, ak 

 Modèle linéaire par rapport à ses paramètres


 Le modèle est linéaire par rapport à ses paramètres i s'il vérifie

x (t , 1a1  2a2 )  1x (t , a1 )  2 x (t , a2 )

 Un modèle linéaire par rapport à ses paramètres a une expression du type


x (t )  a1f 1 (t )  a2f 2 (t )  .....  ak f k (t )

Avec a1 , a2 ,..., ak  paramètres du modèle et f 1 (t ), f 2 (t ),..., f k (t ) sont les "formants" du modèle

Exemple : x (t )  a0  a1t  a2t 2  ..... x (t )  A cos(10t )  B sin(10t )

Le modèle étudié dans notre cas est de la forme : Y  X   E

Avec Y vecteur de sortie,

X : vecteur des paramètres prises par le modèle

E : vecteur d’erreur quadratique et  est le vecteur de paramètres

3. Ecriture matricielle du problème des moindres-carrés :

Soit x (t ) un modèle linéaire par rapport à ses paramètres:


x (t )  a1f 1 (t )  a2f 2 (t )  .....  ak f k (t )
Soit X l'ensemble des valeurs prises par le modèle et Y les mesures :on peut écrire alors
 x (t 1 )   x (t 2 )  a1f 1 (t 1 )  a2f 2 (t 1 )  .....  ak f k (t 1 )   y (t 1 ) 
 x (t )   x (t )  a f (t )  a f (t )  .....  a f (t )   y (t ) 
X   2 
  2 1 1 2 2 2 2 k k 2 
,Y   1 
 ...   .....   ... 
     
 x (t n )   x (t n )  a1f 1 (t n )  a2f 2 (t n )  .....  ak f k (t n )   y (t n ) 
ou encore

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 3


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.

 x (t 1 )   f 1 (t1 ) f 2 (t1 ) ... f k (t1 )  a1 


 x (t )   f (t ) f (t ) .... f (t )  a 
2  2 
X  2  1 2 2 2 k
 X  H
 ...   ... ... ... ...  ....
    
 x (t n )  f 1 (t n ) f 2 (t n ) ... f k (t n )  ak 
H 

Avec H est la matrice/vecteur de régression


L'erreur à chaque instant t s'écrit comme suit:  i  y (t i )  x (t i )
Alors l'erreur quadratique cumulée s'écrit:
 1 
 
n n 
E Q    i2    y (t i )  x (t i )    1  2 ...  n   2   E T E
2

i 1 i 1  ... 
ET  
n 
Avec E : Erreur globale est E Y  X et que X  H 

EQ  E T E  Y  H   Y H 
T
Alors on peut écrire :

La minimisation du critère se fait pour :


 E Q 
 a 
 1 
 E Q 
E Q  
J    a2   0
  ... 
 
 E Q 
 a 
 k 
La solution optimale sera obtenue pour :
E Q
 H T Y  H    Y  H  
T
H

on obtient :
E Q
 2H T Y  H    0

 H TY  H T H   0
 H T H   H TY
 H T H  H H    H T H 
1 T 1
H TY
I
Alors la solution optimale est :

ˆ   H T H  H TY
1

 L’erreur d’estimation : Eest  ˆ  

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 4


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.
4. Exemple d’application Modélisation de 3 mesures successives
par un modèle affine de la forme x (t )  a  bt

1) Déterminer les paramètres prises par le modèle pour t   0,1, 2 


2) Déterminer le vecteur des observation Y pour les mêmes instants précédents
3) En déduire alors la matrice H
4) Calculer alors la solution optimale ˆ  ?

Solution

n Abscisse Mesure Modèle


1 t1  0 y s (t 1 )  1 x (t 1 )  a1  0b
2 t2  1 y s (t 2 )  2 x (t 2 )  a  b
3 t3  2 y s (t 3 )  2 x (t 3 )  a  2b
Ecriture du problème sous forme matricielle

 x 1 (t )  1 0  y 1 (t )   1 
    a 
X  x 2 (t )  1 1    H  et Y   y 2 (t )    2 
    b     
 x 3 (t )  1 2    x 3 (t )   2 
H

La solution optimale par la méthode du moindres-carrés

ˆ   H T H 
1
H TY
1 0 
1 1 1   3 3 1  5 3
1 1     H H 
1
H H 
T

T

 0 1 2 
 1 2   3 5 6  3 3 
 
1 
1 1 1     5
H Y 
T
 2  
0 1 2   2  6
 

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 5


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.

 aˆ  1 5 3 5 1 7


On obtient alors    bˆ    H H  H Y  6  3
1
ˆ T T

   3  6 6  3

ˆ  aˆ  7 / 6 
Finalement on trouve    bˆ  1 / 2 
 
ˆ
Le modèle estimé devient alors, x (t )  aˆ  bt  7 / 6  0.5t

5. Analyse de la méthode des moindres-carrés

5.1. Pondération du critère J

Principe : Avec N mesures aux instants t 1 ,..., t n , l’erreur s’écrit:


E Y  X Y  H 
 Cette équation matricielle comporte N lignes, toutes les erreurs de prédiction  (t 1 ),....,  (t n )
ne doivent pas nécessairement avoir la même importance dans le critère quadratique.
 Il est possible de les pondérer, par exemple comme suit:
EQ  QE  Q Y  H  

Où Q est une matrice de pondération de dimension (N ×N).


Le critère quadratique des moindres carrés dans ce cas s’écrit :

J    EQT EQ  Y  H   Q T Q Y  H  
T

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 6


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.
Le vecteur des paramètres estimés devient alors
dJ  
 0  2 H T Q T Q Y  H    0
d
 H T Q T QY  H T Q T QH 
 ˆ   H T Q T QH 
1
H T Q T QY

 Choix de la matrice de pondération ?

- La matrice de pondération Q doit être Symétrique et Définie positive : Q  Q T  0


- Un critère de choix indique que les mesures plus anciennes possèdent une influence
réduite dans le calcul des paramètres actuels.
- L’influence des mesures plus anciennes est artificiellement réduite par l’introduction du
facteur d’oubli λ, par exemple:
 N 1 0 0
 
0 0
Q Q 
T

 1 
 0
 0 0  

Remarque : Si Q est la matrice identité, on aura le critère des moindres carrés conventionnel

5.2. Biais de l'estimation des paramètres :

 Le biais d'un estimateur est l'espérance de l'écart entre l’estimation et les vraies valeurs.
Biais  b  E (ˆ   )
 L'estimateur sans biais fournit une valeur non-décalée par rapport à la vraie valeur
 b  0 : Estimateur non biaisé (pas d'erreur d'estimation);

 b  0 Estimateur biaisé (il y a une erreur d’estimation)

 Soit  la valeur théorique des paramètres.


- Donc le modèle parfait a pour valeur X  H 
- Les mesures ont pour valeur Y  H  v (v est le bruit de mesure)

L’estimateur de MC ˆ   H T H  H TY   H T H  H T  H  v 
1 1
-

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 7


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.

ˆ   H T H  H TY   H T H  H T  H   v 
1 1

ˆ   H T H 
H H   H Tv 
1 T

ˆ   H H   H H    H T H  H T v
T 1 T 1

ˆ     H H  H T v
T 1

Alors l’écart entre l’estimation et la vraie valeur des paramètres du modèle est

ˆ     H T H  H T v
1

E ˆ     E  H T H  H T v 
1

- L’espérance de l’erreur d’estimation est :  

- Pour un bruit de mesure non corrélé à H , l’espérance de l’erreur d’estimation devient :

E ˆ      H T H  H T E v 
1

 Seul E (v )  0 peut être nul pour que l’estimation soit sans biais.
 Dans les cas usuels (bruit à valeur moyenne nulle ou bruit blanc), l'estimateur des
moindres-carrés est sans-biais : la valeur estimée des paramètres est proche de la vraie
valeur en moyenne.

 Si le bruit n’est pas blanc, cet estimateur est biaisé c’est-à-dire E ˆ     0

 Il fournit une estimation non-décalée par rapport aux vraies valeurs. Mais en général (en
présence d’un bruit coloré), l’estimateur des MC est biaisé
 Solutions au problème de biais asymptotique de l’estimateur des MC
1- Choix d’autres structures de modèles pour le bruit (bruit à valeur moyenne nulle)
2- Méthode de la variable instrumentale (VI)

5.3. Méthode de la variable instrumentale (VI)

- Dérivée de l’estimateur des MC


- S’appuie sur la régression linéaire (peu gourmand en calculs)
- Asymptotiquement non biaisé lorsque le bruit est coloré

E ˆ      H T H  H T E v 
1

- Il est convergent si les perturbations v ne sont pas corrélées avec le vecteur de régression
H (et donc avec la sortie y(t) car u(t) est déterministe)

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 8


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.
- But recherché : éliminer le biais de l’estimateur des MC lorsque la perturbation n’est
pas un bruit blanc.
- Le principe est de déterminer un vecteur Z appelée instrument ou variable instrumentale VI
dont les composantes sont non-corrélées avec la perturbation v, c’est-à-dire E  Z T v   0

- Posons ˆ   Z T H  Z TY où Z est la matrice instrumentale.(seulement on remplace H T


1

par Z T )
- Quelles sont les conditions sur Z pour que l'équation précédente ait un sens ? En

poursuivant le calcul :

ˆ   Z T H  Z TY   Z T H  Z T  H   v 
1 1

 Z T H  Z T H   Z T H  Z Tv
1 1

 ˆ     Z T H  Z T v
1

Pour que E ˆ    il faut :

1- E  Z T H   0 et

2- E  Z T v   0

L’estimateur de la variable instrumentale est donc asymptotiquement non biaisé en général


même si v est un bruit coloré

Choix de la variable instrumentale :

- Variable instrumentale à observations retardées : certains auteurs ont pensé à introduire


une variable dans H qui consiste à retarder les sorties d’une valeur R. (ce point sera détaillé
dans le chapitre 3)

5.4. Variance de l'estimation des paramètres:

 La variance : d’une variable scalaire est définie comme suit:

 2 ( )  E      avec   E  
2
 

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 9


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.

 Matrice de variance/covariance : d'une grandeur vectorielle A  1  2 ..... n 


T

est définie comme suit : A  E  A  A  A  A   qui est équivalent à


T

 
 1  1  
  
  
 A  E  A  A  A  A  
E         ......    
 .......   1 1
T 2 2
  2 2 n n

   
  n   n  
  1  1 
2
1  1  2   2  ... 1  1  n   n   
 
     2 1  1   2   2 
2
...  2   2  n   n  
A  E   2 
 
   
  n   n 1  1   n   n  2   2   n   n 
2
... 

Termes de variance

Termes de covariance

 Variance de l'estimateur des moindres-carrés (pour un bruit centré):


on a l’écart entre l’estimation et la vraie valeur des paramètres du modèle est

ˆ     H T H  H T v
1

Alors la variance de l'estimateur des moindres-carrés sera comme suit :

 
  E  ˆ   ˆ    
T

 

 
  E   H T H  H T v  H T H  H T v  
1 1 T


  E  H T H  H T vv T H  H T H  
1 T

 
Pour un bruit v non-corrélé à la matrice de modèle H, la matrice de variance/covariance de
l’estimateur peut être écrite de la manière suivante

  E  H T H  H T vv T H  H T H  
1 T

 
 Cas du bruit blanc sur les mesures

- Chaque mesure est supposée entachée d’un bruit blanc additif


- Il n’y a pas de corrélation du bruit de mesure entre deux (02) mesures

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 10


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.

 v t 1 0 0  v t 1 0 0
T

 
 0 v t1 0   0 v t 1 0  
E vv T   E   
  
   
 0 0 v tn   0 0 v tn  
 
v t21 0 0   12 0 0
  
0 v t22 0   0  22 0
E 
  
  
 0 0 v tn2   0 0  n2 

Pour un bruit blanc constant sur chaque mesure, de variance Y2 , le bruit sur l’estimation des
paramètres du modèle est :

  E  H T H  H T Y2 H  H T H  
1 T

 
  Y2  H T H  H T H  H T H 
1 T

  Y2  H T H 
T

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 11


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.

Partie 2 : Moindres-carrés récursifs

 Inconvénient de la méthode de MC-simple :

- L'estimation de paramètres par la méthode des moindres carrés simples présente un


inconvénient majeur, la nécessité de calculer l'inverse d'une matrice, ce qui est long et
parfois impossible sur un microcontrôleur.
 Motivation :

- Cette méthode recalcule une nouvelle estimation des paramètres à chaque instant sur la
base de l’estimation précédente.
- Elle est très pratique dans le cas où l’on a un très grand nombre de données ou que l’on
désire utiliser le modèle à l’instant k sans attendre la fin des mesures.

1. Principe de la méthode :

Calcul sur n mesures : On dispose de n observations auxquelles correspondent n valeurs


du modèle

 y (t 1 )   f 1 (t 1 ) f 2 (t 1 ) ... f k (t 1 ) 
 y (t )   f (t ) f (t ) .... f k (t 2 ) 
Yn   1 
et X n  H n  
1 2 2 2

 ...   ... ... ... ... 
   
 y (t n )  f 1 (t n ) f 2 (t n ) ... f k (t n ) 

La solution optimale calculée sur les n mesures est (par MC):

ˆ   H nT H n  H nTY n
1

Elle minimise le critère (erreur quadratique) calculé sur ces n mesures :

EQn  Y n  X n  Y n  X n 
T

Inconvénients de la méthode classique : La dimension (nxk) de la matrice H croît avec le


nombre n de mesures

ˆn   H nT H n  H nTY n
1

L'ajout d'une (n+1) ème mesure impose de recommencer la totalité du calcul


Mise en évidence de la solution
Utiliser la technique de calcul ˆn  R n1Q n

Avec R n  H nT H n de dimension (kxk)

et Q n  H nTY n de dimension (kx1)

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 12


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.

Ajout de la (n+1)ème mesure :


On dispose de n+1 observations auxquelles correspondent n+1 valeurs du modèle :
 y (t 1 )   f 1 (t 1 ) f 2 (t 1 ) ... f k (t 1 ) 
 y (t )   f (t ) f 2 (t 2 ) .... f k (t 2 ) 
 1   1 2
Y n 1   ...  X n 1  H n 1   ... ... ... ...  
   
 y (t n )  f 1 (t n ) f 2 (t n ) ... f k (t n ) 
 y (t n 1 )  f 1 (t n 1 ) f 2 (t n 1 ) .... f k (t n 1 ) 

On pose hnT1  f 1 (t n 1 ) f 2 (t n 1 ) .... f k (t n 1 )

On dispose de n+1 observations auxquelles correspondent n+1 valeurs du modèle


 Y   X n   Hn 
Y n 1   n  , X n 1    T  ,
 y (t n 1 )   x (t n 1 )   hn 1 (t n 1 ) 
Y n 1 X n 1 H n 1

ˆn 1   H n 1T H n 1  H n 1TY n 1


1
Posons

 Calcul de H nT1H n 1

H 
H nT1H n 1   H nT hn 1   T n 
 hn 1 
H nT1H n 1  H nT H n  hn 1hnT1

 Calcul de H nT 1Y n 1

Y 
H nT1Y n 1   H nT hn 1   n 
 y n 1 
H nT1Y n 1  H nTY n  hn 1 y n 1

 Expression récursive de base (les étapes à suivre):

ˆn 1   H n 1T H n 1  H n 1TY n 1


1

ˆn 1   H nT H n  hn 1hnT1  H Y n  hn 1 y n 1   R n11Q n 1


1 T
n

1. Construire la matrice H au rang n

2. Calculer R n  H nT H n de dimension (kxk)

3. Calculer Q n  H nTY n de dimension (kx1)

4. En déduire ˆn  R n1Q n estimation initiale au rang n

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 13


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.
 Itérer pour passer du rang n au rang n+1 :

5. Déterminer hnT1  f 1 (t n 1 ) f 2 (t n 1 ) .... f k (t n 1 )

6. Calculer R n 1  R n  hn 1hnT1 (kxk) puis Q n 1  Q n  hn 1 y n 1 (kx1)

7. En déduire ˆn 1  R n11Q n 1

Calcul récursif évolué :

ˆn 1   H nT H n  hn 1hnT1  H Y n  hn 1 y n 1 
1 T
à partir de n

Pn 1

   
1 1
1- Posons Pn  H nT H n et Pn 1  H nT H n  hn 1hnT1

2- Quelle est la relation entre Pn et Pn 1 ?

3- Maintenant on utilise le lemme d’inversion suivant :

 A 1  A 1B C 1  DA 1B  DA 1
1
 A  BCD 
1

 
Avec A  H nT H n , B  hn 1 , C  I et D  hnT1

4.. Appliquons le lemme à Pn 1 , on trouve


1
 
Pn 1   H nT H n  hn 1 I hnT 1   A 1  A 1B C 1  DA 1B  DA 1
1

 
 A B C D 
1
 
Pn 1   H n H n    H n H n  hn 1 I  hn 1  H n H n  hn 1  hnT 1  H nT H n 

T 1 T 1 T T 1 1

 
Pn Pn  Pn  Pn

En fonction de Pn on trouve ;

Pn 1  Pn  Pn hn 1 1  hnT1Pn hn 1  hnT1Pn
1

Maintenant on pose

 
1
K n 1  Pn hn 1 1  hnT1Pn hn 1

Alors on peut écrire Pn 1 sous cette forme

Pn 1  Pn  K n 1hnT1Pn

Ou encore Pn 1   I  K n 1hnT1  Pn

alors le vecteurs estimé devient :

ˆn 1   H nT H n  hn 1hnT1  H Y n  hn 1 y n 1 
1 T
n

  Pn  K n 1hnT1Pn  H nTY n  hn 1 y n 1 

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 14


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.

ˆn 1  Pn H nTY n  Pn hn 1 y n 1  K n 1hnT1Pn H nTY n  K n 1hnT1Pn hn 1 y n 1


Récurrence finale :

 
1
1- Calculer K n 1  Pn hn 1 1  hnT1Pn hn 1


2- Calculer le nouveau vecteur estimé ˆn 1  ˆn  K n 1 y n 1  hnT1ˆn 

3- Pn 1  I  K n 1hnT1 Pn
K n 1  Pn hn 1 1  hnT 1Pn hn 1 
1

Résumé 
ˆn 1  ˆn  K n 1 y n 1  hnT1ˆn 
Pn 1   I  K n 1hnT 1  Pn

Dans cette expression,


K n 1 : est le gain matriciel de correction
 Autre expression de la récurrence finale :


ˆn 1  ˆn  Pn 1hn 1 y n 1  hnT 1ˆn 
Pn hn 1hnT 1Pn
Pn 1  Pn 
1  hnT Pn hn 1

Pn 1 : est le gain matriciel de correction

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 15


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.

Partie 3 : Identification par moindres-carrés non linéaire

1- Position du problème
Dans de nombreuses applications, la fonction modèle n'est pas linéaire par rapport à ses
paramètres.
Exemple : réponse indicielle d'un circuit du 1er ordre

 La dépendance vis à vis du paramètre  est non-linéaire, il n'est plus possible de résoudre
le système par la méthode linéaire (pas de matrice H )
Méthode de Gauss-Newton (méthode de gradient)

Principe : La proposition est de partir d'une valeur initiale  0 des paramètres et de

modifier itérativement la valeur de  d'un incrément  de façon à minimiser le critère

d'erreur quadratique cumulée E Q à chaque étape.

Etape initiale :
 f t 1 ,  0  
 
 f t 2 ,  0  
Pour 0  a10 a20 ... ak 0  le modèle prend les valeurs F t ,  0  
T

 
 
f t n ,  0  

 L'erreur entre le modèle et les mesures est E Y  F t ,0 

L'erreur quadratique cumulée est : EQ 0   E T E  Y  F t ,0   Y  F t ,0  


T

Remarque : généralement, l’erreur cumulée sera importante, les conditions initiales étant
éloignées de la solution optimale.

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 16


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.
Incrémentation :
Dans cette étape on va modifier de la valeur de  0 d'un incrément  de façon à minimiser le

critère d'erreur quadratique cumulée E Q 0 

 Pour   0   , le modèle prend les valeurs F t ,0    et l’erreur sera

EQ 0     Y  F t ,0     Y  F t ,0    


T

E Q 0   
 Pour se placer au minimum d’erreur, on choisit  tel que 0


E Q 0     F t ,0    
T
 
 2   Y  F t ,0      0
     
 ? 
Calcul de F t ,0    ?

Le développement de Taylor du 1er ordre du modèle permet d'approximer la nouvelle valeur du


modèle à chaque instant d'observation :
f t i ,0     f t i ,0   J 0  

Avec J 0   f t i ,0  c’est le gradient de f en ligne.


T

L'extension à l'ensemble des points de calculs prend la forme matricielle suivante :


F t ,0     F t ,0   J 0  

Avec le gradient de f vaut J 0   f t i ,0  .


T

 f t 1  f t 1  f t 1  
 ... 
 a10 a20 ak 0 
 f t 2  f t 2  f t 2  
F t , 0     ... 
J  0     a10 a20 ak 0  , matrice Jacobienne de f paramètres
  
 
 f t n  f t n  f t n  
 ... 
 a10 a20 ak 0 

Maintenant, on calcule le minimum de l’erreur cumulée.

E Q  0     F t ,  0    
T
 
 2   Y  F t , 0      0
     
 ? 
 2J  0  Y  F t ,  0      0
T


 2J  0  Y   F t , 0   J  0     0
T

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 17


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.
On en déduit la valeur de l'accroissement  à faire sur les paramètres pour minimiser l'erreur:

E Q  0     F t ,  0    
T
 
 2   Y  F t , 0      0
     
 ? 
 
2J T Y   F t ,  0   J    0
 J T Y  J T F t ,  0   J T J    0
 J T J   J T Y  F t ,  0  

    J T 0  J 0   J 0  Y  F t ,0   ….La valeur de l’incrément


1 T

Itération :
On itère en définissant les nouvelles valeurs des paramètres 1  0   et les nouvelles valeurs

du modèle F t ,1  . La correction suivante à faire sera :

   J T 1  J 1   J 1  Y  F t ,1  


1 T

Limitation (inconvénient) : L'inversion de la matrice J T J peut poser problème (matrice


singulière).
Pour éviter ce blocage, l'algorithme a été modifié par Levenberg-Marquardt:

   J T 1  J 1    I  J 1  Y  F t ,1  


1 T

Le paramètre  joue le rôle d'un amortissement de la correction; il doit être ajusté à


chaque pas de calcul. Dans les cas simples, on peut se contenter d'un amortissement
constant, dont la valeur initiale a été proposée par Marquardt:

0   max  J T J 

Avec  est un paramètre de gain à choisir convenablement !


Exemple d’application :
Exemple d'application : soit un système du 1er ordre dont désire connaître les paramètres
caractéristiques (gain et constante de temps) par l'observation de la réponse indicielle.
Temps 0 1 2 3 4 5
Les mesures y(t) 0.05 0.45 0.59 0.64 0.64 0.69

  
t
Le modèle de la réponse indicielle est f t ,   K 1  e   ave    K 
T

 
La matrice du Jacobien est construite à partir des dérivées partielles de f par rapport à  .

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 18


Chapitre2 : Identification des systèmes par la méthode des moindres-carrés
.
f t ,  
t
f t , 
 1e  , K
K 
Contrairement au cas d'un modèle linéaire/paramètres, les dérivées partielles dépendent des
paramètres eux-mêmes.
 Il faut fixer une valeur initiale de K et  pour donner une valeur à la matrice Jacobienne.
Valeurs initiales proposées : K 0  1;  0  1.

 La matrice Jacobienne J 0    

M1 Auto &Sys réalisé par : Dr Bourahala.F, maj Octobre 2021 Page 19


Chapitre 3 : Identification basée sur l'erreur de prédiction

Chapitre 3
Identification basée sur l'erreur de prédiction
Introduction :

Dans ce chapitre, nous supposerons que le modèle obtenu est un prédicteur, c'est à dire qu'il
permet de calculer la sortie à l'instant i en fonction des entrées et des sorties réelles aux instants
précédents u (i  k ) et y (i  k ) .

Figure 3.1. Principe d'identification foncée sur l'erreur de prédiction


- Comme l’identification se fait en général par calculateur, les mesures prélevées sont des
échantillons, et le modèle est discret même si le système est continu.
- Le modèle doit traduire la relation entrée-sortie caractéristique du système.
1. Modèle de récurrence (équation de récurrence):

Soit le système suivant d’entrée u (k ) et de sortie y (k )

u (k ) y (k )

La relation entre la séquence d'entrée u (k ) et la séquence de sortie y (k ) est linéaire et définie


par un ensemble de coefficients constants:

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 1


Chapitre 3 : Identification basée sur l'erreur de prédiction

y (k )  a1 y (k  1)  a2 y (k  2)  ...  an y (k  n )
(1)
 b0u (k )  b1u (k  1)  b 2u (k  2)  ...  b mu (k  m )

2. Fonction de transfert discrète :

En appliquant la transformée en Z à chaque membre de l'équation, on obtient la fonction de


transfert discrète du système :sachant que Z1  y(k  q )    z qY (z )

Y (z )  a1z 1Y (z )  a2 z 2Y (z )  ...  an z  nY (z )


 b0U (z )  b1z 1U (z )  b 2 z 2U (z )  ...  b m z  mU (z )

 1  a1z 1  a2 z 2  ...  an z  n Y (z )  b 0  b1z 1  b 2 z 2  ...  b m z  m U (z )

La fonction de transfert devient alors :

Y (z ) b0  b1z 1  b 2 z 2  ...  b m z  m
G z    (2)
U (z ) 1  a1z 1  a2 z 2  ...  an z  n

Exemple de modèle de récurrence discrète :


Exemple 1 : Soit un système du premier ordre de fonction de transfert :

Y (z ) K
G p  
U (z ) P  
Ce système correspond à une équation différentielle de la forme :
y& (t )   y (t )  Ku (t )

On utilise l’approximation la dérivée par Euler :


Pour une discrétisation régulière, on estime la dérivée d’une fonction f  par l’une des formules
suivantes pour une période d’échantillonnage T e :

f (k  1)  f (k )
1 f   ,
Te
f (k )  f (k  1)
2 f   ,
Te
f (k  1)  f (k  1)
3 f   .
2T e
Si la fonction f est deux fois dérivable, on peut alors estimer sa dérivée seconde f  f ′′ par la
formule suivante :
f (k  1)  2f (k )  f (k  1)
f   .
T e2

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 2


Chapitre 3 : Identification basée sur l'erreur de prédiction

y (k  1)  y (k )
On obtient alors:   y (k )  Ku (k )
Te

Le système discrétisé est décrit par la récurrence : y ( k  1)  1  Te  y (k )  KTu ( k )

Ou encore, y (k )  1  T e  y (k  1)  KTu (k  1)

Exemple 2 : (Système masse- ressort- amortisseur) : soit le système suivant

K
f (t )
M

y (t )

f (t ) la force exercée sur la masse M et y (t ) la position de la masse par rapport à l’équilibre.

1- Déterminer l’équation différentielle de ce système


F (p)
2- Calculer la sa fonction de transfert (en suppose que les CI sont nulles) G ( p ) 
Y (p)
3- A l’aide de l’approximation de Euler (deux fois dérivable), déterminer l’équation de
récurrence (aux différences) de ce système (en suppose que la période d’échantillonnage
égale à t i 1  t i  T e

Solution :

1) En appliquant le principe fondamental de la dynamique sur la masse M soumise à


dy (t )
l’action du ressort ( Ky (t ) ), de l’amortisseur (  ) et à la force f (t ) .on obtient
dt
d 2 y (t ) dy (t )
l’équation suivante: M   Ky (t )  f (t )
dt 2
dt
1
2) la fonction de transfert G ( p ) 
Mp   p  K
2

3) l’équation aux différances

d 2 y (t ) dy (t )
On a M   Ky (t )  f (t )
dt 2
dt

y  k  1  2 y  k   y  k  1 y  k  1  y  k 
M 2
  Ky (k )  f (k )
Te Te
M    2M   M
  2   y  k  1   2   K  y  k   2 y  k  1  f (k )
 Te Te   Te Te  Te

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 3


Chapitre 3 : Identification basée sur l'erreur de prédiction

2. Classe de modèle linéaire (Structures de modèles)

L’objectif de l’identification est de trouvé les paramètres d’un modèle entrée-sortie.


Mais, en pratique, la sortie mesurée des procédés est généralement bruitée. Cela est dû soit à
l'effet des perturbations aléatoires agissant à différents endroits du procédé, soit à des bruits de
mesure.

Il existe différentes structures de modèles linéaires. La différence se situe


généralement dans la modélisation de la perturbation et la présence ou non d’une entrée externe.

Dans ce qui suit, on s’intéressera à quatre structures de modèles les plus utilisées :
ARX, ARMAX, Modèle à erreur de sortie (Output Error), modèle de Box-Jenkins.

Le problème est d’identifier les paramètres d’un modèle entrée-sortie dont sa structure est
représentée sur la figure suivante :

H z 
e (k )

v (k )
 y (k )
u (k )
G z  

Figure 3.2 : Système linéaire avec bruit.

Avec

y (k ) :La sortie du système,


u (k ) :L’entrée du système (entrée déterministe)

e (k ) : Une perturbation de type bruit blanc (processus stochastique non prédictible de moyenne
nulle).
- Les coefficients des polynômes en z 1 (dans la fonction de transfert) sont les paramètres
à estimer.
- L’ensemble des effets des bruits et perturbations sont représentées par le signal
stochastique v ( k ), lui-même étant généré avec une dynamique H(z) par le signal
également stochastique e ( k ) (bruit blanc de moyenne nulle "variable exogène"),

A partir de cette figure, on peut déduire le modèle entrée-sortie sous la forme suivante:

Y (z )  G (z ).U (z )  H (z ).E (z ) (3)

Prédicteur optimal : Soit le modèle entrée-sortie dont sa structure est représentée

sur la figure suivante :

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 4


Chapitre 3 : Identification basée sur l'erreur de prédiction

e (k )
H z 
v (k )
 y (k )
u (k )
G z  

Figure 3.2 : Système linéaire avec bruit.

D’où le modèle entrée-sortie:

Y (z )  G (z ).U (z )  H (z ).E (z ) (4)

- On cherche à prédire la sortie y (k ) à l’instant k sachant que la sortie et l’entrée sont connues
aux instants précédents.
- On prend comme estimation de la sortie son espérance mathématique conditionnelle, soit :

yˆ (k k  1)    y (k ) k  1 (5)

Le prédicteur est définie par :

yˆ (k k  1)  H 1 (z )G (z )u (k )  1  H 1 (z )  y (k ) (6)

Ou encore

H (z ) yˆ (k k  1)  G (z )u (k )   H (z )  1 y (k ) (7)
Erreur de prédiction

L’erreur de prédiction peut être calculée (en utilisant (6)) comme suit :

yˆ (k k  1)  H 1 (z )G (z )u (k )  y (k )  H 1 (z ) y ( k )
 y (k )  yˆ (k k  1)   H 1 (z )G (z )u (k )  H 1 (z ) y (k )

e (k )  y (k )  yˆ (k k  1)  H 1 (z )G (z )u (k )  H 1 (z ) y (k ) (8)

2.1. Structure (modèle) ARX : (AR="Auto-Régressive", X="exogènes"

Dans ce cas, le bruit e ( k ) perturbe la sortie brute de la fonction de transfert G(z) du système via
1
la dynamique. H ( z ) 
A (z )

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 5


Chapitre 3 : Identification basée sur l'erreur de prédiction


 H z 
G z  
6
474
8

Figure 3.3. Modèle de structure ARX

Le modèle ARX est un modèle entrée-sortie de la forme générale suivante:


A (z )Y (z )  B (z )U (z )  E (z ) (9)

Avec

A (z )  1  a1z 1  a2 z 2  ...  an z  n

B (z )  b1z 1  b2 z 2  ...  bm z  m

Ou encore à partir de la structure, on obtient :


B (z ) 1
y (k )  u (k )  e (k )
A (z ) A (z )
D’où la structure du modèle ARX suivante :
A (z ) y (k )  B (z )u (k )  e (k ) (10)

1 B (z )
Démonstration : à partir de l’équation (4) en remplaçant H (z )  et G (z )  ,
A (z ) A (z )
on obtient :
Y (z )  G (z ).U (z )  H (z ).E (z )
B (z ) 1
Y (z )  U (z )  E (z )
A (z ) A (z )
 A (z )Y (z )  B (z )U (z )  E (z )
Le modèle (9) peut être décrit sous la forme suivante :
y (k )  a1 y (k  1)  a2 y (k  2)  ...  ana y (k  n )
E555555555555555555555555555555555 F
Partie Autoregrissive

 b1u (k  1)  b 2u (k  2)  ...  b nb u (k  m )  e (k ) (11)


E555555555555555555555555555F E5F Bruit
Partie Exogène
n m
 y (k )   ai y (k  i )  e (k )   b j u (k  i )
i 1 j 1

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 6


Chapitre 3 : Identification basée sur l'erreur de prédiction

En appliquant la transformée de Z au modèle (11), on obtient ;

Y (z )  a1z 1Y (z )  a2 z 2Y (z )  ...  ana z  nY (z )


 b1z 1U (z )  b 2 z 2U (z )  ...  b nb z  mU (z )  E (z )

Ou encore

E5555555555555555555F
1  a z  a z  ...  a z Y (z )  b z  b z  ...  b z U (z )  E (z )
1
1
2
2
n
n

E555555555555555555F
1
1
2
2
m
m

A (z ) B (z )

Ce qui équivalent à : A (z )Y (z )  B (z )U (z )  E (z )

2.1.1. Prédicteur optimal du modèle ARX

Sachant que l’équation générale du prédicteur optime est

yˆ (k k  1)  H 1 (z )G (z )u (k )  1  H 1 (z )  y (k )

1 B (z )
Pour un modèle ARX on prend H (z )  et G (z ) 
A (z ) A (z )

Alors le prédicteur du modèle ARX devient

B (z )
yˆ (k k  1)  A (z ) u (k )  1  A (z )  y (k )
A (z )

yˆ (k k  1)  B (z )u (k )  1  A (z )  y (k ) (12)

Démonstration : L’équation (11) permet d’écrire la relation suivante :

y (k )  a1 y (k  1)  a2 y (k  2)  ...  an y (k  n )
E555555555555555555555555555555555 F
Partie Autoregrissive

 b1u (k  1)  b 2u (k  2)  ...  b mu (k  m )  e (k )
E555555555555555555555555555F E5F
Partie Exogène Bruit

Cette formule peut être réécrire comme suit :

y (k )  b1z 1  b 2 z 2  ...  b m z  m u (k )   a1z 1  a2 z 2  ...  an z  n  y (k )  e (k )


14444 4244444 3 14444 4244444 3
B (z ) 1 A ( z )

y (k )  B (z )u (k )  1  A (z )  y (k )  e (k ) (13)

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 7


Chapitre 3 : Identification basée sur l'erreur de prédiction

NB : A partir de (10), on peut écrire

A (z ) y ( k )  y ( k )  B ( z )u ( k )  y ( k )  e ( k )
 y (k )  B (z )u (k )  1  A (z )  y (k )  e (k )
 (13)

En introduisant cette équation (13) dans l’expression de l’espérance, on aura:

yˆ (k k  1)  E  B (z )u (k )  1  A (z )  y (k )  e (k ) 

Comme e ( k ) est considéré comme un bruit blanc d’espérance nulle c’est-à-dire E e (k )   0

On aura donc yˆ (k k  1)  B (z )u (k )  1  A (z )  y (k ) (la même que (12)

2.1.2. Erreur de prédicteur du modèle ARX

On à l’expression générale de l’erreur de prédiction

e (k )  H 1 (z )G (z )u (k )  H 1 (z ) y (k )

1 B (z )
Dans ce cas on prend H (z )  et G (z )  , on aura alors l’expression suivante :
A (z ) A (z )

e (k )  B (z )u (k )  A (z ) y (k ) (14)

2.1.3. Prédicteur optimal du modèle ARX sous forme d’une régression

linéaire

Le prédicteur optimal du modèle ARX est particulièrement simple à calculer car il définit une
régression linéaire que l’on ´écrit généralement sous la forme :
)
y (k )   (k ) (15)
Avec

 (k )    y (k  1)  y (k  2) ...  y (k  n ) u (k  1) u (k  2) ... u (k  m ) 

  a1 a2 ... an b1 b 2 ... b m 


T

 ( k ) est le régresser

Démonstration : à partir de (11) permet d’écrire la relation suivante :

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 8


Chapitre 3 : Identification basée sur l'erreur de prédiction

y (k )  a1 y (k  1)  a2 y (k  2)  ...  an y (k  n )
 b1u (k  1)  b 2u (k  2)  ...  b mu (k  m )  e (k )

Avec e (k )  y (k )  yˆ (k k  1) , on trouve alors,

y (k )  a1 y (k  1)  a2 y (k  2)  ...  an y (k  n )
 b1u (k  1)  b 2u (k  2)  ...  b mu (k  m )  y (k )  yˆ ( k k  1)

Ce qui équivalent à

yˆ (k k  1)  a1 y (k  1)  a2 y (k  2)  ...  an y (k  n )
 b1u (k  1)  b 2u (k  2)  ...  b mu (k  m )

Cette expression peut être exprimée sous une formule matricielle comme suit

 a1 
a 
 1
M 
 
) a
y (k )    y (k  1)  y (k  2) ...  y (k  n ) u (k  1) u ( k  2) ... u ( k  m )   n 
144444444444444 42444444444444444 3  b1 
  
 b1 
M 
 
E55
b m 
F

)
Qui est équivalent à y (k )   (k )

2.1.4. Critère quadratique du prédicteur ARX

L’expression de l’erreur de prédiction est la suivante : e (k )  y (k )  yˆ (k k  1)

L’erreur quadratique s’exprime donc par :

N N N
J   e (k )    y (k )  yˆ (k k  1)     y (k )  T (k ) 
2 2 2
(16)
k 1 k 1 k 1

dJ
 est obtenu pour 0
d

Méthode des moindres carrés :

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 9


Chapitre 3 : Identification basée sur l'erreur de prédiction

Le problème est de chercher le vecteur  des paramètres qui minimise l’erreur


quadratique J . La solution consiste à annuler la dérivée première du critère quadratique.

En supposant que l’inverse existe, on montre que :

1 N
N 
ˆ(N )    T (k ) (k )     T
(k ) y (k ) 
 k 1  k 1

On a le critère quadratique est de la forme suivante :

 y (1) 
Pour k  2,..., n , on pose Y N   M 
 y (n ) 

Le critère de moindre carrée (16) devient

J    y (k )   (k )   Y N   N   Y N   N  
N T
2
(17)
k 1

 2TN Y N   N    0
dJ d T
 est obtenu pour 0  TNY N  TN  N   0
d d

ˆ   TN  N 
1
TNY N (18)

Exemple 3.1. Système du premier ordre soumis à un échelon d'amplitude 1


Soit les valeurs relevées pour y(k) sont :

Y(k)=[0 0.4 0.7 0.95 1 0.98 0.97 0.99 1.02]’ :

a1 
Le modèle choisi est : y (k )  a1 y (k  1)  b1u (k  1) avec    
b1 
- L’entrée est un signal échelon de même taille que la mesure Y(k) c’est-à-dire
u(k)=[1 1 1 1 1 1 1 1 1]’ ou simplement U=ones(length(Y),1);
% construction de la matrice phi(k) puis calcul de la pseudo-
inverse theta
for i = 2:size(Y,1)
phi(i,:) = [-Y(i-1) U(i-1)];
end
theta = inv(phi*phi’)*phi*Y
 0.577 
on aura donc le résultat suivant :    
 0.444 

Le modèle est représenté en rouge sur la figure suivante.

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 10


Chapitre 3 : Identification basée sur l'erreur de prédiction

2.2.Structure (modèle) ARMAX : (ARMAX= AutoRégressif à Moyenne Ajustée et à


variables eXogènes)

on offre comparativement à la structure ARX un degré de liberté supplémentaire pour modéliser


la dynamique des perturbations e(k) en les faisant intervenir sur le système avec la fonction de
V (z ) C (z )
transfert H(z)  
E (z ) A (z )

 H z 
G z 
||

Figure 3.4. Modèle de structure ARMAX

Le modèle ARMAX est un modèle entrée-sortie de la forme générale suivante:

A (z )Y (z )  B (z )U (z )  C (z )E (z ) (19)

Avec

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 11


Chapitre 3 : Identification basée sur l'erreur de prédiction

A (z )  1  a1z 1  a2 z 2  ...  an z  n

B (z )  b1z 1  b2 z 2  ...  bm z  m

C (z )  c1z 1  c 2 z 2  ...  c j z  j

Ou encore à partir de la structure, on obtient :


B (z ) C (z )
y (k )  u (k )  e (k )
A (z ) A (z )
D’où la structure du modèle ARMAX suivante :

A (z ) y (k )  B (z )u (k )  C (z )e (k ) (20)

Démonstration :Le modèle (19) peut être décrit sous la forme suivante :

y (k )  a1 y (k  1)  a2 y (k  2)  ...  an y (k  n )
E555555555555555555555555555555555 F
Partie Autoregrissive

 b1u (k  1)  b 2u (k  2)  ...  b mu (k  m )   e (k )  c1e (k  1)  c 2e (k  2)  ...  c j e (k  j ) (21)


E555555555555555555555555555F E5555555555555555555555555555555F
Partie Exogène Bruit

 n
  m    j
 y (k )    ai y (k  i )     b j u (k  i )   e (k )    c l e (k  l ) 
 i 1   j 1   l 1 

En appliquant la transformée de Z au modèle (21), on obtient ;

Y (z )  a1z 1Y (z )  a2 z 2Y (z )  ...  an z  nY (z )


 b1z 1U (z )  b 2 z 2U (z )  ...  b m z  mU (z )
 c1z 1C (z )  c 2 z 2C (z )  ...  c j z  j C (z )

Ou encore

E5555555555555555555F
1  a z  a z  ...  a z Y (z ) 
1
1
2
2
n
n

A (z )

E5555555555555555555
b z  b z  ...  b z U (z ) 
1
1

F
2
2
m
m

B (z )

E55555555555555555
c z  c z  ...  c z  E (z )
1
1
2
F
2
j
j

C (z )

Ce qui équivalent à : A (z )Y (z )  B (z )U (z )  C (z )E (z )

Ce modèle est proche du modèle ARX, il s’utilise dans les mêmes cas. Il permet de créer
un modèle de bruit un peu réaliste.

2.2.1. Prédicteur optimal du modèle ARMAX

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 12


Chapitre 3 : Identification basée sur l'erreur de prédiction

Sachant que l’équation générale du prédicteur optime est

yˆ (k k  1)  H 1 (z )G (z )u (k )  1  H 1 (z )  y (k )

C (z ) B (z )
Pour un modèle ARMAX on prend H (z )  et G (z ) 
A (z ) A (z )

Alors le prédicteur du modèle ARMAX devient

B (z )  A (z ) 
yˆ (k k  1)  u (k )  1   y (k )
C (z )  C (z ) 

Après simplification, on aura le prédicteur suivant :

B (z )  A (z ) 
yˆ (k k  1)  u (k )  1   y (k )
C (z )  C (z ) 

C (z ) yˆ  k k  1  B (z )u (k )  C (z )  A (z )  y (k ) (22)

2.2.2. Erreur de prédicteur du modèle ARMAX

On à l’expression générale de l’erreur de prédiction

e (k )  H 1 (z )G (z )u (k )  H 1 (z ) y (k )

C (z ) B (z )
Dans ce cas on prend H (z )  et G (z )  , on aura alors l’expression suivante :
A (z ) A (z )
B (z ) A (z )
e (k )   u (k )  y (k ) (23)
C (z ) C (z )

2.2.3. Prédicteur optimal du modèle ARMAX sous forme d’une régression linéaire

Le prédicteur optimal du modèle ARMAX est particulièrement simple à calculer car il définit
une régression linéaire que l’on écrit généralement sous la forme :
)
y (k )   (k ) (24)

Avec
 (k )    y (k  1) ...  y (k  n ) u (k  1) ... u (k  m ) e (k  1) e (k  2) ... eˆ(k  j ) 

T
  a1 a2 ... an b1 b2 ... b m c1 c 2 ... c j 

2.2.4. Critère quadratique du prédicteur ARMAX

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 13


Chapitre 3 : Identification basée sur l'erreur de prédiction

L’expression de l’erreur de prédiction est la suivante : e (k )  y (k )  yˆ (k k  1)

L’erreur quadratique s’exprime donc par :

N N N
J   e (k )    y (k )  yˆ (k k  1)     y (k )   (k ) 
2 2 2

k 1 k 1 k 1

dJ
 est obtenu pour 0
d
Méthode des moindres carrés :

 y (1) 
Pour k  1,..., N , on pose Y N   M 
 y (N) 

N (k )    y (k  1) ...  y (k  n ) u (k  1) ... u (k  m ) e (k  1) e (k  2) ... eˆ(k  j ) 

Le critère de moindre carrée est

ˆ   TN  N 
1
TNY N

2.3. Structure (modèle) OE : (OE= Output Error)

Le modèle OE (Output Error) Calcule l'estimation de l'erreur de prédiction d'un modèle


d'erreur de sortie. Sa forme générale est :

G z 
||

Figure 3.5. Modèle de structure OE

Le modèle ARMAX est un modèle entrée-sortie de la forme générale suivante:

A (z )Y (z )  B (z )U (z )  A (z )E (z ) (25)

Avec

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 14


Chapitre 3 : Identification basée sur l'erreur de prédiction

A (z )  1  a1z 1  a2 z 2  ...  an z  n

B (z )  b1z 1  b2 z 2  ...  bm z  m

Ou encore à partir de la structure, on obtient :


B (z )
y (k )  u (k )  e (k )
A (z )
D’où la structure du modèle OE suivante :

A (z ) y (k )  B (z )u (k )  A (z )e (k ) (26)

Démonstration :Le modèle (26) peut être décrit sous la forme suivante :

y (k )  a1 y (k  1)  a2 y (k  2)  ...  an y (k  n )
E555555555555555555555555555555555 F
Partie Autoregrissive

 b1u (k  1)  b 2u (k  2)  ...  b mu (k  m )  e (k )  a1e (k  1)  a2e (k  2)  ...  ane (k  n ) (27)


E555555555555555555555555555F E5555555555555555555555555555555F
Partie Exogène B ruit
n m n
 y (k )   ai y (k  i )   b j u (k  i )   ane (k  n )
i 1 j 1 i 1

En appliquant la transformée de Z au modèle (27), on obtient ;

Y (z )  a1z 1Y (z )  a2 z 2Y (z )  ...  an z  nY ( z )


 b1z 1U (z )  b 2 z 2U (z )  ...  b m z  mU (z )
E (z )  a1z 1C (z )  a2 z 2C (z )  ...  a j z  j E (z )

Ou encore

E5555555555555555555F
1  a z  a z  ...  a z Y (z ) 
1
1
2
2
n
n

A (z )

E5555555555555555555
b z  b z  ...  b z U (z ) 
1
1
2
F
2
m
m

B (z )

E5555555555555555555F
1  a z  a z  ...  a z  E (z )
1
1
2
2
n
n

A (z )

Ce qui équivalent à : A (z )Y (z )  B (z )U (z )  C (z )E (z )

2.3.1. Prédicteur optimal du modèle OE sous forme d’une régression linéaire

Le prédicteur optimal du modèle OE est particulièrement simple à calculer car il définit une
régression linéaire que l’on écrit généralement sous la forme :
)
y (k )   (k ) (24)

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 15


Chapitre 3 : Identification basée sur l'erreur de prédiction

Avec
 (k )    y (k  1) ...  y (k  n ) u (k  1) ... u (k  m ) e (k  1) e (k  2) ... e (k  n ) 

  a1 a2 ... an b1 b2 ... b m a1 a2 ... an 


T

2.3.2. Critère quadratique du prédicteur OE

Méthode des moindres carrés :

 y (1) 
Pour k  1,..., N , on pose Y N   M 
 y (N) 

N (k )    y (k  1) ...  y (k  n ) u (k  1) ... u (k  m ) e (k  1) e (k  2) ... e (k  n ) 

Le critère de moindre carrée est

ˆ   TN  N 
1
TNY N

2.4. Structure (modèle) Box-Jenkins

Le modèle de Box-Jenkins est le modèle complet par excellence, où la dynamique de


V (z ) C (z )
l’entrée est différente à celle du bruit. Ici H(z)  
E (z ) A (z )

C (z )
 H z 
D (z )
G z 
||

Figure 3.4. Modèle de structure BoxJ

Le modèle BoxJ est un modèle entrée-sortie de la forme générale suivante:

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 16


Chapitre 3 : Identification basée sur l'erreur de prédiction

B (z 1 ) C(z 1 )
Y (z )  U ( z )  E (z )
A (z 1 ) D (z 1 )
E555F
1
E5555
1
F (25)
G (z ) H( z )

A (z 1 )D (z 1 )Y (z )  D (z 1 )B (z 1 )U (z )  A (z 1 ) C(z 1 )E (z )

Avec

A (z )  1  a1z 1  a2 z 2  ...  an z  n

B (z )  b1z 1  b2 z 2  ...  bm z  m

C (z )  c1z 1  c 2 z 2  ...  c j z  j

D (z )  1  d l z 1  d l z 2  ...  d l z  l

Ou encore à partir de la structure, on obtient :


B (z ) C (z )
y (k )  u (k )  e (k )
A (z ) D (z )
D’où la structure du modèle Boxj suivante :

A (z )D (z ) y (k )  B (z )D (z )u (k )  A (z )C (z )e (k ) (26)

2.4.1. Prédicteur optimal du modèle BoxJ

Sachant que l’équation générale du prédicteur optime est

yˆ (k k  1)  H 1 (z )G (z )u (k )  1  H 1 (z )  y (k )

C (z ) B (z )
Pour un modèle BoxJ on prend H (z )  et G (z ) 
D (z ) A (z )

La structure du modèle BoxJ conduit à un prédicteur non linéaire par rapport au vecteur
de paramètres :

D (z ) B (z )  D (z ) 
yˆ (k k  1)  u (k )  1   y (k ) (27)
C (z ) A (z )  C (z ) 

L’erreur de prédiction pour le modèle BJ s’écrit comme suit :

e (k )  y (k )  yˆ (k )  H 1 (z )G (z )u (k )  H 1 (z ) y (k )
La forme générale :
H 1 (z )  y (k )  G (z )u (k ) 

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 17


Chapitre 3 : Identification basée sur l'erreur de prédiction

C (z ) B (z )
Pour un modèle BoxJ on prend H (z )  et G (z ) 
D (z ) A (z )

On trouve l’erreur de prédiction comme suit

D (z )  B (z ) 
  y (k )  yˆ (k )   y (k )  u (k ) 
C (z )  A (z ) 

B (z 1 )
Soient : v ( k )  u ( k ) et z ( k )  y ( k )  v ( k )
A (z 1 )

On peut montrer que

yˆ (k)  C (z 1 )  1e ( k )  B (z 1 ) u(k)  1  D (z 1 )  z ( k )  1  A (z 1 )  v( k )

Dans ce cas le prédicteur est représenté comme suit :

yˆ ( k )   T ( k )

avec

 ( k )  u ( k  1) ... u ( k  nu ) e ( k  1) ... e ( k  ne ) z ( k  1) ...


z ( k  n z ) v ( k  1) .... v ( k  nv ) 

Technique d’identification : M1 Automatique et Système Dr : BOURAHALA Fayçal 18

Vous aimerez peut-être aussi