Méthode des moindres carrés récursive
Méthode des moindres carrés récursive
La méthode des moindres carrés est une méthode ancienne datant du dix-huitième
siècle; elle a été développée par Mr Gauss. Dans le cadre de ces travaux sur les planètes, Mr
Gauss a développé cette méthode pour déterminer les orbites des planètes à partir des
positions observées. Mr Gauss a eu l'idée d'approximer l'orbite d'une planète par un modèle
mathématique dont les paramètres sont ajustables. En effet, cette approximation est réalisée
par la minimisation de la somme des carrés des erreurs, dite "erreur d'estimation", entre les
positions observées et celles générées par le modèle mathématique [1] [2].
Au fil du temps, cette méthode a reçu une très grande attention de la communauté
scientifique. En effet, les bons résultats de cette méthode lui ont permis d'être appliquées dans
diverses disciplines avec succès. Cependant, la complexité des systèmes et le développement
des mathématiques ont poussé les scientifiques à étudier plus profondément cette méthode et à
développer d'autres méthodes telles que la méthode du gradient …etc.
Pour les deux versions de l'algorithme récursif des moindres carrés, des simulations
réalisées sous le logiciel Matlab/Simulink pour un système électrique simple «Filtre RC»
seront présentés. D'autre part, un système pratique constitué d'une machine à courant continue
alimentée par un hacheur série sera utilisé pour réalisé les tests de comparaison entre les deux
1
Introduction générale
Nous espérons que la lecture de ce travail saura éveiller un certain intérêt chez le
lecteur non averti et qu’elle plaira aux spécialistes.
2
Chapitre I Méthodes Moindres carrés : cas continu
1. Introduction
L’objectif de ce chapitre est de présenter la méthode d'identification dite des moindres
carrées et ce pour les systèmes continus mono entrée-mono sortie (SISO). Cette méthode sert
à trouver un ensemble de paramètres permettant de rendre l’erreur nulle entre la sortie du
système et celle du modèle paramétrique linéaire. On présentera en premier lieu l’algorithme
des moindres carrée non récursif, et à partir de celui-ci on démontera la version récursive. Une
analyse de convergence de l’algorithme sera aussi présentée.
2. Normes et convexité
Les algorithmes en identification étant basés sur la notion de minimisation des
fonctions convexes. D’autre part l’analyse de la convergence des algorithmes d’identification
en général et celui des moindres carrés en particulier fait appel à plusieurs notions
mathématiques [1][7][8]. Nous rappelons ici les définitions usuelles des normes et des
fonctions convexes.
Soit | ∙ | une norme vectorielle donnée, alors pour chaque matrice 𝐴𝐴∈ℛ 𝑚𝑚 ×𝑛𝑛 , la quantité
‖𝐴𝐴‖ définie par
|𝐴𝐴𝐴𝐴|
‖𝐴𝐴‖ ≜ sup = sup |𝐴𝐴𝐴𝐴| = sup |𝐴𝐴𝐴𝐴|
𝑥𝑥≠0 |𝑥𝑥| |𝑥𝑥|≤1 |𝑥𝑥|=1
𝑥𝑥∈ℛ 𝑛𝑛
3
Chapitre I Méthodes Moindres carrés : cas continu
i. |𝐴𝐴𝐴𝐴|≤‖𝐴𝐴‖|𝑥𝑥|, ∀x∈ℛ 𝑛𝑛
Les normes les plus couramment utilisées sont rassemblées dans le tableau suivant.
∞ 1⁄𝑝𝑝
‖𝑥𝑥‖𝑝𝑝 ≜ �� |𝑥𝑥(𝜏𝜏)|𝑝𝑝 𝑑𝑑𝑑𝑑�
0
On dit que x appartient à ℒ𝑝𝑝 si ‖𝑥𝑥‖𝑝𝑝 est une valeur fini. La norme ℒ∞ est définie comme :
‖𝑥𝑥‖∞ ≜ sup|𝑥𝑥(𝑡𝑡)|
𝑡𝑡≥0
Dans les définitions de ℒ𝑝𝑝 , ℒ∞ ci-haut ; 𝑥𝑥 (𝑡𝑡) peut être un scalaire ou une fonction vectorielle.
Si 𝑥𝑥 est une fonction scalaire, alors | ∙ | désigne la valeur absolue. Si 𝑥𝑥 est une fonction
vectorielle dans ℛ 𝑛𝑛 alors | ∙ | désigne n’importe quelle norme dans ℛ 𝑛𝑛 .
4
Chapitre I Méthodes Moindres carrés : cas continu
2.4. Convexité
L'analyse convexe traite les fonctions et les ensembles convexes, elle est
l’intermédiaire entre l'algèbre linéaire et l'analyse non linéaire. Elle nous permet de démontrer
un grand nombre d'inégalités remarquables (inégalités de convexité), et d’éliminer la
distinction entre le minimum local et le minimum globale se qui signifie qu’elle a aussi un
rôle en optimisation.
Définition1 [6] : On dit qu’une fonction f (x) est convexe sur un ensemble convexe I dans ℛ 𝑛𝑛
si et seulement si :
5
Chapitre I Méthodes Moindres carrés : cas continu
𝑑𝑑 𝑛𝑛 𝑦𝑦 𝑑𝑑 𝑛𝑛 −1 𝑦𝑦 𝑑𝑑 𝑚𝑚 𝑢𝑢 𝑑𝑑 𝑚𝑚 −1 𝑢𝑢
𝑑𝑑𝑡𝑡 𝑛𝑛
= −𝑎𝑎𝑛𝑛−1 𝑑𝑑𝑡𝑡 𝑛𝑛 −1 − ⋯ − 𝑎𝑎0 𝑦𝑦 + 𝑏𝑏𝑚𝑚 𝑑𝑑 𝑡𝑡 𝑚𝑚
+ 𝑏𝑏𝑚𝑚 −1 𝑑𝑑𝑡𝑡 𝑚𝑚 −1 + ⋯ + 𝑏𝑏0 𝑢𝑢 (1.1)
Si on rassemble les paramètres dans le vecteur des paramètres θ * ; les entrées, sorties
et leurs dérivées dans le vecteur des signaux Y tel que :
T
d m u d m−1u d n−1 y d n−2 y
Y = m , m−1 ,, u ,− n−1 ,− n−2 , y
dt dt dt dt
dny
On obtient la forme des paramètres linéaire suivante: = θ *T Y
dt n
En réalité les seuls signaux disponibles (mesurés) sont l'entrée u et la sortie y . Comme
les différentes dérivées ne sont pas disponibles et que la dérivation n'est pas souhaitée, donc le
modèle précédent ne peut pas être utilisé directement. Pour éviter la dérivation, le modèle
précédent est modifié on ajoutant des deux côtés de l'égalité (1.1) la quantité suivante:
d n−1 d n−2
λn−1 n−1 + λn−2 n−2 + + λ0 y
dt dt
On obtient
6
Chapitre I Méthodes Moindres carrés : cas continu
dn d n−1 d n−2
n + λn−1 n−1 + λn−2 n−2 + + λ0 y =
dt dt dt
dm d m−1 d n−1 d n−2
bm m + bm−1 m−1 + + b0 u + (λn−1 − a n−1 ) n−1 + (λn−2 − a n−2 ) n−2 + + (λ0 − a0 ) y
dt dt dt dt
dn d n−1 d n−2
Si l'on note Λ = n + λn−1 n−1 + λn−2 n−2 + + λ0 . On obtient alors le modèle
dt dt dt
paramétrique linéaire modifié suivant:
𝑦𝑦 = 𝜃𝜃 ∗𝑇𝑇 𝜙𝜙 (1.2)
θ * = [θ1 , θ 2 ,,θ n + m+1 ]T = [bm , bm−1 ,, b0 , (λn −1 − a n −1 ), (λn − 2 − a n − 2 ),, (λ0 − a0 )]T
T
dm d m−1 d n−1 d n−2
m m −1 n −1 n−2
φ = [φ1 , φ 2 ,, φ n+ m+1 ]T
u y
= dt u , dt u ,, , dt y, dt y,,
Λ Λ Λ Λ Λ Λ
En effet les signaux φi sont obtenus par filtrage de l'entrée u et la sortie y ou les
différents filtres sont donnés dans le domaine de Laplace par :
7
Chapitre I Méthodes Moindres carrés : cas continu
L’algorithme des moindres carrés non récursif est obtenu par la minimisation de la
fonction convexe suivante dite fonction de coût [1][3][7] :
1 𝑡𝑡 −𝛽𝛽(𝑡𝑡−𝜏𝜏) (𝑦𝑦(𝜏𝜏) − 𝜃𝜃 𝑇𝑇 (𝑡𝑡)𝜙𝜙(𝜏𝜏))2 1 −𝛽𝛽𝛽𝛽
𝐽𝐽(𝜃𝜃) = � 𝑒𝑒 𝑑𝑑𝑑𝑑 + 𝑒𝑒 (𝜃𝜃 − 𝜃𝜃0 )𝑇𝑇 𝑄𝑄0 (𝜃𝜃 − 𝜃𝜃0 ) (1.3)
2 0 𝑚𝑚2 2
Telle que:
- 𝑄𝑄0 = 𝑄𝑄0𝑇𝑇 > 0 ; est une matrice symétrique définie positive.
- 𝛽𝛽 > 0 ; constante réel dite facteur d'oubli.
- 𝜃𝜃0 = 𝜃𝜃(𝑡𝑡 = 0).
- 𝑦𝑦(𝑡𝑡) − 𝜃𝜃 𝑇𝑇 (𝑡𝑡)𝜙𝜙(t) = 𝑒𝑒(𝑡𝑡) ; est l’erreur d’estimation.
𝑦𝑦 (𝑡𝑡)−𝜃𝜃 𝑇𝑇 (𝑡𝑡) 𝜙𝜙(𝑡𝑡)
- 𝑚𝑚 2
= 𝜉𝜉(𝑡𝑡) ; est l'erreur d'estimation normalisée, Où 𝑚𝑚2 = 1 + 𝑛𝑛𝑠𝑠2
Telle que : 𝑛𝑛𝑠𝑠2 = 𝜙𝜙 𝑇𝑇 𝑃𝑃𝑃𝑃 pour 𝑃𝑃 = 𝑃𝑃𝑇𝑇 > 0, 𝑛𝑛𝑠𝑠 est le signal de normalisation conçus de telle sorte
𝜙𝜙
que
𝑚𝑚
∈ ℒ∞ .
convexe en fonction de 𝜃𝜃 sur ℛ 𝑛𝑛 . Par conséquent, tous minimum local est aussi un minimum
globale et donc la relation suivante est satisfaite
∇𝐽𝐽�𝜃𝜃(𝑡𝑡)� = 0 , ∀𝑡𝑡 ≥ 0
𝑡𝑡 2 2
1 �𝑦𝑦(𝜏𝜏) − 𝜃𝜃(𝑡𝑡)𝑇𝑇 𝜙𝜙(𝜏𝜏)� �𝑦𝑦(𝜏𝜏) − 𝜃𝜃(𝑡𝑡)𝑇𝑇 𝜙𝜙(𝜏𝜏)�
𝛻𝛻 𝐽𝐽(𝜃𝜃) = � 𝛻𝛻[𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) ] 𝑑𝑑𝑑𝑑 + �𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏)
� 𝛻𝛻[𝑡𝑡]
2 𝑚𝑚2 𝑚𝑚2
0 𝜏𝜏=𝑡𝑡
1 −𝛽𝛽𝛽𝛽
+ 𝑒𝑒 𝛻𝛻[(𝜃𝜃 − 𝜃𝜃0 )𝑇𝑇 𝑄𝑄0 (𝜃𝜃 − 𝜃𝜃0 )]
2
𝑡𝑡
�𝑦𝑦(𝜏𝜏) − 𝜃𝜃(𝑡𝑡)𝑇𝑇 𝜙𝜙(𝜏𝜏)�
𝛻𝛻 𝐽𝐽(𝜃𝜃) = − � 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 𝜙𝜙(𝜏𝜏) 𝑑𝑑𝑑𝑑+𝑒𝑒 −𝛽𝛽𝛽𝛽 𝑄𝑄0 (𝜃𝜃 − 𝜃𝜃0 ) = 0
𝑚𝑚2
0
𝑡𝑡
−𝛽𝛽𝛽𝛽
�𝑦𝑦(𝜏𝜏) − 𝜃𝜃(𝑡𝑡)𝑇𝑇 𝜙𝜙(𝜏𝜏)�
𝑒𝑒 𝒬𝒬0 (𝜃𝜃 − 𝜃𝜃0 ) − � 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 𝜙𝜙(𝜏𝜏) 𝑑𝑑𝑑𝑑 = 0
𝑚𝑚2
0
8
Chapitre I Méthodes Moindres carrés : cas continu
𝑡𝑡 𝑡𝑡
−𝛽𝛽𝛽𝛽 −𝛽𝛽𝛽𝛽 −𝛽𝛽(𝑡𝑡−𝜏𝜏)
𝑦𝑦(𝜏𝜏)𝜙𝜙(𝜏𝜏) −𝛽𝛽(𝑡𝑡−𝜏𝜏)
[𝜃𝜃(𝑡𝑡)𝑇𝑇 𝜙𝜙(𝜏𝜏)] 𝜙𝜙(𝜏𝜏)
𝑒𝑒 𝑄𝑄0 𝜃𝜃(𝑡𝑡) − 𝑒𝑒 𝑄𝑄0 𝜃𝜃0 − � 𝑒𝑒 𝑑𝑑𝑑𝑑 + � 𝑒𝑒 𝑑𝑑𝑑𝑑 = 0
𝑚𝑚2 𝑚𝑚2
0 0
𝑡𝑡 𝑡𝑡
𝜙𝜙(𝜏𝜏)𝜙𝜙(𝜏𝜏)𝑇𝑇 𝑦𝑦(𝜏𝜏)𝜙𝜙(𝜏𝜏)
�𝑒𝑒 −𝛽𝛽𝛽𝛽 𝑄𝑄0 + � 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 2
� 𝜃𝜃(𝑡𝑡) = 𝑒𝑒 −𝛽𝛽𝛽𝛽 𝑄𝑄0 𝜃𝜃0 + � 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 𝑑𝑑𝑑𝑑
𝑚𝑚 𝑚𝑚2
0 0
𝑡𝑡 −1 𝑡𝑡
−𝛽𝛽𝛽𝛽
𝜙𝜙(𝜏𝜏)𝜙𝜙(𝜏𝜏)𝑇𝑇 𝑦𝑦(𝜏𝜏)𝜙𝜙(𝜏𝜏)
𝜃𝜃(𝑡𝑡) = �𝑒𝑒 𝑄𝑄0 + � 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) � [𝑒𝑒 −𝛽𝛽𝛽𝛽
𝑄𝑄0 𝜃𝜃0 + � 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 𝑑𝑑𝑑𝑑]
𝑚𝑚2 𝑚𝑚2
0 0
𝑡𝑡 𝑦𝑦 (𝜏𝜏)𝜙𝜙 (𝜏𝜏)
𝜃𝜃(𝑡𝑡) = 𝑃𝑃(𝑡𝑡) �𝑒𝑒 −𝛽𝛽𝛽𝛽 𝑄𝑄0 𝜃𝜃0 + ∫0 𝑒𝑒 −𝛽𝛽 (𝑡𝑡−𝜏𝜏) 𝑑𝑑𝑑𝑑� (1.4)
𝑚𝑚 2
−1
𝑡𝑡 𝜙𝜙 (𝜏𝜏)𝜙𝜙 (𝜏𝜏)𝑇𝑇
Où ∶ 𝑃𝑃(𝑡𝑡) = �𝑒𝑒 −𝛽𝛽𝛽𝛽 𝑄𝑄0 + ∫0 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) � (1.5)
𝑚𝑚 2
On peut éviter le calcul de l'inverse de 𝑃𝑃(𝑡𝑡) et ce en montrant que ça dérivée est donnée
par :
𝜙𝜙(t) 𝜙𝜙(𝑡𝑡)𝑇𝑇
𝑃𝑃̇(𝑡𝑡) = 𝛽𝛽 𝑃𝑃(𝑡𝑡) − 𝑃𝑃(𝑡𝑡) 𝑚𝑚 2
𝑃𝑃(𝑡𝑡) (1.6)
𝑑𝑑 𝑑𝑑
(𝑃𝑃(𝑡𝑡)𝑃𝑃(𝑡𝑡)−1 ) = 𝑃𝑃̇(𝑡𝑡) 𝑃𝑃(𝑡𝑡)−1 + 𝑃𝑃(𝑡𝑡) 𝑃𝑃(𝑡𝑡)−1
𝑑𝑑𝑑𝑑 𝑑𝑑𝑑𝑑
𝑑𝑑 𝑑𝑑
𝑃𝑃(𝑡𝑡) [𝑃𝑃(𝑡𝑡)−1 ] + 𝑃𝑃(𝑡𝑡)𝑃𝑃(𝑡𝑡)−1 = 0
𝑑𝑑𝑑𝑑 𝑑𝑑𝑑𝑑
𝑑𝑑 𝑑𝑑
𝑃𝑃(𝑡𝑡) = −𝑃𝑃(𝑡𝑡) [𝑃𝑃(𝑡𝑡)−1 ]𝑃𝑃(𝑡𝑡)
𝑑𝑑𝑑𝑑 𝑑𝑑𝑑𝑑
𝑡𝑡
𝜙𝜙(𝜏𝜏)𝜙𝜙(𝜏𝜏)𝑇𝑇
𝑃𝑃(𝑡𝑡)−1 = 𝑒𝑒 −𝛽𝛽𝛽𝛽 𝑄𝑄0 + � 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 𝑑𝑑𝑑𝑑
𝑚𝑚2
0
𝑡𝑡
𝑑𝑑 𝜙𝜙(𝜏𝜏)𝜙𝜙(𝜏𝜏)𝑇𝑇 𝜙𝜙(𝜏𝜏)𝜙𝜙(𝜏𝜏)𝑇𝑇 𝑑𝑑(𝑡𝑡)
[𝑃𝑃(𝑡𝑡)−1 ] = −𝛽𝛽𝛽𝛽 −𝛽𝛽𝛽𝛽 𝑄𝑄0 + � −𝛽𝛽𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 2
𝑑𝑑𝑑𝑑 + �𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏)
2
�
𝑑𝑑𝑑𝑑 𝑚𝑚 𝑚𝑚 𝜏𝜏=𝑡𝑡
𝑑𝑑𝑑𝑑
0
𝜙𝜙 (𝑡𝑡)𝜙𝜙(𝑡𝑡)𝑇𝑇
= −𝛽𝛽𝑃𝑃(𝑡𝑡)−1 + 𝑚𝑚 2
9
Chapitre I Méthodes Moindres carrés : cas continu
𝑑𝑑 𝜙𝜙(𝑡𝑡)𝜙𝜙(𝑡𝑡)𝑇𝑇
𝑃𝑃(𝑡𝑡) = 𝛽𝛽 𝑃𝑃(𝑡𝑡)𝑃𝑃(𝑡𝑡)−1 𝑃𝑃(𝑡𝑡) − 𝑃𝑃(𝑡𝑡) 𝑃𝑃(𝑡𝑡)
𝑑𝑑𝑑𝑑 𝑚𝑚2
𝜙𝜙(𝑡𝑡)𝜙𝜙 (𝑡𝑡) 𝑇𝑇
𝑃𝑃̇(𝑡𝑡) = 𝛽𝛽 𝑃𝑃(𝑡𝑡) − 𝑃𝑃(𝑡𝑡) 𝑚𝑚 2 𝑃𝑃(𝑡𝑡) (1.7)
L'algorithme des moindres carrés non récursif est donc donné par :
𝑡𝑡 𝑦𝑦(𝜏𝜏)𝜙𝜙(𝜏𝜏)
⎧𝜃𝜃(𝑡𝑡) = 𝑃𝑃(𝑡𝑡) �𝑒𝑒 −𝛽𝛽𝛽𝛽 𝑄𝑄0 𝜃𝜃0 + ∫0 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 𝑚𝑚 2
𝑑𝑑𝑑𝑑�
⎪
𝜙𝜙(𝑡𝑡)𝜙𝜙(𝑡𝑡)𝑇𝑇
𝑃𝑃̇(𝑡𝑡) = 𝛽𝛽 𝑃𝑃(𝑡𝑡) − 𝑃𝑃(𝑡𝑡) 𝑚𝑚 2 𝑃𝑃(𝑡𝑡) (1.8)
⎨
⎪ 𝑃𝑃(𝑡𝑡 = 0) = 𝑃𝑃(0) = 𝒬𝒬 −1
⎩ 0
𝑡𝑡 𝑦𝑦(𝜏𝜏)𝜙𝜙(𝜏𝜏)
𝜃𝜃(𝑡𝑡) = 𝑃𝑃(𝑡𝑡) �𝑒𝑒 −𝛽𝛽𝛽𝛽 𝑄𝑄0 𝜃𝜃0 + ∫0 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 𝑚𝑚 2
𝑑𝑑𝑑𝑑� (1.9)
𝑡𝑡
𝑦𝑦(𝜏𝜏)𝜙𝜙(𝜏𝜏)
θ̇ (t) = 𝑃𝑃̇(𝑡𝑡) �𝑒𝑒 −𝛽𝛽𝛽𝛽 𝑄𝑄0 𝜃𝜃0 + � 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 𝑑𝑑𝑑𝑑� +
𝑚𝑚2
0
𝑑𝑑 𝑡𝑡 𝑦𝑦(𝜏𝜏)𝜙𝜙(𝜏𝜏)
𝑃𝑃(𝑡𝑡)
𝑑𝑑𝑑𝑑
�𝑒𝑒 −𝛽𝛽𝛽𝛽 𝑄𝑄0 𝜃𝜃0 + ∫0 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 𝑚𝑚 2
𝑑𝑑𝑑𝑑� (1.10)
On a :
𝑡𝑡
𝑑𝑑 −𝛽𝛽𝛽𝛽 𝑦𝑦(𝜏𝜏)𝜙𝜙(𝜏𝜏)
�𝑒𝑒 𝑄𝑄0 𝜃𝜃0 + � 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 𝑑𝑑𝑑𝑑�
𝑑𝑑𝑑𝑑 𝑚𝑚2
0
𝑡𝑡
𝑦𝑦(𝜏𝜏)𝜙𝜙(𝜏𝜏) 𝑦𝑦(𝜏𝜏)𝜙𝜙(𝜏𝜏) 𝑑𝑑𝑑𝑑
= −𝛽𝛽𝑒𝑒 −𝛽𝛽𝛽𝛽 𝑄𝑄0 𝜃𝜃0 + � −𝛽𝛽 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 2
𝑑𝑑𝑑𝑑 + �𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 2
�
𝑚𝑚 𝑚𝑚 𝜏𝜏=𝑡𝑡
𝑑𝑑𝑑𝑑
0
𝑡𝑡
−𝛽𝛽𝛽𝛽
𝑦𝑦(𝜏𝜏)𝜙𝜙(𝜏𝜏) 𝑦𝑦(𝑡𝑡)𝜙𝜙(𝑡𝑡)
= −𝛽𝛽𝑒𝑒 𝑄𝑄0 𝜃𝜃0 − 𝛽𝛽 � 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 2
𝑑𝑑𝑑𝑑 +
𝑚𝑚 𝑚𝑚2
0
𝑡𝑡
𝑦𝑦(𝜏𝜏)𝜙𝜙(𝜏𝜏) 𝑦𝑦(𝑡𝑡)𝜙𝜙(𝑡𝑡)
= −𝛽𝛽 �𝑒𝑒 −𝛽𝛽𝛽𝛽 𝑄𝑄0 𝜃𝜃0 + � 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 2
𝑑𝑑𝑑𝑑� +
𝑚𝑚 𝑚𝑚2
0
𝑡𝑡 𝑦𝑦(𝜏𝜏)𝜙𝜙(𝜏𝜏)
De (1.9) on tire : �𝑒𝑒 −𝛽𝛽𝛽𝛽 𝑄𝑄0 𝜃𝜃0 + ∫0 𝑒𝑒 −𝛽𝛽(𝑡𝑡−𝜏𝜏) 𝑚𝑚 2
𝑑𝑑𝑑𝑑� = 𝑃𝑃(𝑡𝑡)−1 𝜃𝜃(𝑡𝑡)
10
Chapitre I Méthodes Moindres carrés : cas continu
𝜙𝜙(𝑡𝑡)𝜙𝜙(𝑡𝑡)𝑇𝑇 𝑦𝑦(𝑡𝑡)𝜙𝜙(𝑡𝑡)
= −𝑃𝑃(𝑡𝑡) � 2
� 𝜃𝜃(𝑡𝑡) + 𝑃𝑃(𝑡𝑡)
𝑚𝑚 𝑚𝑚2
L’algorithme des moindres carrés récursif avec facteur d'oubli est donc le suivant :
donc la matrice 𝑃𝑃−1 est croissante et peut prendre de très grandes valeurs. Dans ce cas, la
matrice 𝑃𝑃 peut devenir arbitrairement petite et par conséquent alourdi l’adaptation dans
11
Chapitre I Méthodes Moindres carrés : cas continu
[4]. Une manière d'éviter cette complication est de modifier l’algorithme des moindres carrés
comme suit:
𝜃𝜃̇ = 𝑃𝑃(𝑡𝑡)𝜉𝜉(𝑡𝑡)𝜙𝜙(𝑡𝑡)
� 𝜙𝜙(𝑡𝑡)𝜙𝜙 𝑇𝑇 (𝑡𝑡)
𝑃𝑃̇ = �𝛽𝛽𝑃𝑃(𝑡𝑡) − 𝑃𝑃(𝑡𝑡) 𝑚𝑚 2
𝑃𝑃(𝑡𝑡) et ‖𝑃𝑃(𝑡𝑡)‖ ≤ ℛ0 (1.17)
0 Ailleur
ℛ0 est une matrice constante qui sert comme une limite supérieure pour ‖𝑃𝑃 ‖. Ceci garantit
que 𝑃𝑃(𝑡𝑡) ∈ ℒ∞ et elle est désigné sous le nom Moindres carrés modifié avec facteur d'oubli.
Cette nouvelle version garantit les mêmes propriétés que la version dite Moindres carrés pures
avec réinitialisation. Ils peuvent être établis en utilisant a même fonction Lyaponov
𝑑𝑑𝑃𝑃 −1 𝑑𝑑𝑃𝑃 −1
précédente et l’identité = −𝑃𝑃−1 𝑃𝑃̇𝑃𝑃−1 . En établie que 𝑑𝑑𝑑𝑑 et 𝑉𝑉̇ sont par :
𝑑𝑑𝑑𝑑
𝑇𝑇
𝑑𝑑𝑃𝑃−1 −1
𝜙𝜙𝜙𝜙
=�−𝛽𝛽𝑃𝑃 + Si ‖𝑃𝑃‖ ≤ ℛ0
𝑑𝑑𝑑𝑑 𝑚𝑚2
0 Ailleurs
Où 𝑃𝑃 −1 (0)
= 𝑃𝑃0−1 , qui conduit à :
𝜉𝜉 2 𝑚𝑚2 𝛽𝛽 𝑇𝑇 −1
− 𝜃𝜃� 𝑃𝑃 𝜃𝜃� si ‖𝑃𝑃‖ ≤ ℛ0
𝑉𝑉̇ = �− 2 2
−𝜉𝜉 2 𝑚𝑚2 Ailleur
𝜉𝜉 2 𝑚𝑚 2
Puisque 𝑃𝑃(𝑡𝑡) est bornée et définie positif et que 𝑉𝑉̇ ≤ − ≤ 0, alors 𝜉𝜉m, 𝜉𝜉 ∈ ℒ2 . Le
2
Preuve
Si ns , ϕ ∈ ℒ∞ et ϕ est PE alors l’algorithme des moindres carrés récursif avec facteur d'oubli
𝛽𝛽 > 0 donnée par
16
Chapitre I Méthodes Moindres carrés : cas continu
𝜃𝜃̇ = 𝑃𝑃(𝑡𝑡)𝜉𝜉(𝑡𝑡)𝜙𝜙(𝑡𝑡)
� 𝜙𝜙 (𝑡𝑡)𝜙𝜙 𝑇𝑇 (𝑡𝑡) (1.18)
𝑃𝑃̇ = 𝛽𝛽𝛽𝛽 − 𝑃𝑃(𝑡𝑡) 2
𝑃𝑃(𝑡𝑡) , 𝑃𝑃(0) = 𝑃𝑃0 = 𝑄𝑄0−1
𝑚𝑚
R
𝑢𝑢(𝑡𝑡) C y(t)
𝑑𝑑y 1 1
= 𝑢𝑢 − y (1.20)
𝑑𝑑𝑑𝑑 𝑅𝑅𝑅𝑅 𝑅𝑅𝑅𝑅
Pour éviter la dérivation le modèle précédent est modifié en ajoutant des deux côtés de
l’égalité précédente la quantité suivante : 𝜆𝜆𝜆𝜆
𝑑𝑑𝑑𝑑 1 1
+ 𝜆𝜆 𝑦𝑦 = − 𝑦𝑦 + 𝑢𝑢 + 𝜆𝜆 𝑦𝑦 (1.21)
𝑑𝑑𝑑𝑑 𝑅𝑅𝑅𝑅 𝑅𝑅𝑅𝑅
𝑑𝑑 1 1
� + 𝜆𝜆� 𝑦𝑦 = [𝜆𝜆 − ]𝑦𝑦 + 𝑢𝑢
𝑑𝑑𝑑𝑑 𝑅𝑅𝑅𝑅 𝑅𝑅𝑅𝑅
Apres l’arrangement :
1 1 1 1
𝑦𝑦(𝑡𝑡) = �𝜆𝜆 − � 𝑦𝑦(𝑡𝑡) + 𝑢𝑢(𝑡𝑡)
𝑅𝑅𝑅𝑅 (𝑆𝑆 + 𝜆𝜆) 𝑅𝑅𝑅𝑅 (𝑆𝑆 + 𝜆𝜆)
17
Chapitre I Méthodes Moindres carrés : cas continu
1 1 𝑇𝑇
Où 𝜃𝜃 est le vecteur paramètres donné part : 𝜃𝜃 = [𝜃𝜃1 𝜃𝜃2 ]𝑇𝑇 = �𝜆𝜆 − �
𝑅𝑅𝑅𝑅 𝑅𝑅𝑅𝑅
Pour le circuit (filtre RC) donnée ci haut avec R=50 Ω et C= 200𝜇𝜇𝜇𝜇 ; on réalise la
simulation de l’algorithme des moindres carré avec les paramètres suivant : Pi=0.1 et B=0,
L0=0.5, 𝜃𝜃(0) = [0 ,0] . Les résultats obtenu pour ces paramètres sont données par les figures
ces dessous.
18
Chapitre I Méthodes Moindres carrés : cas continu
La Fig. 1.1 représente les deux sorties, la sortie du système réel et celle du modèle.
On peut constater que la sortie du modèle suit la sortie du système réel, il le suit
asymptotiquement.
Les paramètres correspondante a ces sortie sont donnée par la Fig. 2.2. En effet en
constate que ces paramètres elle est bornée et qui ne divergent pas.
6. Conclusion
Dans ce chapitre, nous avons présenté l’algorithme des moindres carrés. En effet, on a
présenté le développement mathématique de cet algorithme avec l’étude de convergence des
différents signaux. Cette étude montre que l’algorithme est applicable aux systèmes stable ou
non. Les différentes déclinaisons de cet algorithme ont étés présentées. Nous avons
implémenté l’algorithme «des moindres carré pur» au système électrique simple «Filtre RC».
19
Chapitre II Méthode Moindres carrés : cas discret
1. Introduction:
2. Norme [1] [8] : pour les séquences discrètes nous définissons la norme ℓ𝑝𝑝 comme
suit :
∞ 1⁄𝑝𝑝
Et la norme ℓ∞ :
‖𝑥𝑥‖∞ ≜ 𝑠𝑠𝑠𝑠𝑠𝑠|𝑥𝑥𝑖𝑖 |
𝑖𝑖≥1
Le modèle ARMA (Auto Regressive Moving Average) est un modèle régressive qui
contient une entrée et un bruit 𝜀𝜀(𝑡𝑡) qui perturbe la sortie [13] [14].Le système à identifier
évolue sous l’effet d’une entrer de commande u(t) et d’une perturbation 𝜀𝜀(𝑡𝑡) celle-ci peut
affecter l’entrée, la sortie ou un autre état du système et cela peut être représenté par la figure
ci dessus
𝜀𝜀(𝑡𝑡)
20
Chapitre II Méthode Moindres carrés : cas discret
On se place dans le contexte temps discret c’est à dire que le temps est 𝑡𝑡 = 0,1,2, … ;Le
système étant supposé linéaire et stationnaire on peut donc le représenter par un modèle de la
forme :
𝑦𝑦(𝑡𝑡) + 𝑎𝑎1 𝑦𝑦(𝑡𝑡 − 1) + ⋯ + 𝑎𝑎𝑛𝑛𝑛𝑛 𝑦𝑦(𝑡𝑡 − 𝑛𝑛𝑎𝑎 ) = 𝑏𝑏1 𝑢𝑢(𝑡𝑡 − 1) + ⋯ + 𝑏𝑏𝑛𝑛𝑛𝑛 𝑢𝑢(𝑡𝑡 − 𝑛𝑛𝑏𝑏 )
Les entiers 𝑛𝑛𝑎𝑎 𝑒𝑒𝑒𝑒 𝑛𝑛𝑏𝑏 𝑑𝑑, les degrés constants définissent la structure du modèle et les
réel 𝑎𝑎𝑖𝑖 , 𝑏𝑏𝑗𝑗 sont les paramètres du modèle [14] .et la forme du modèle Auto Regressive
Moving Average (moyenne mobile) est donné comme suite :
Tell que :
𝑦𝑦(𝑡𝑡) = 𝜙𝜙(𝑡𝑡)𝑇𝑇 𝜃𝜃 ∗
Le modèle ARMAX (Auto Regressive Moving Average with eXogenous input) est un
modèle auto régressif qui inclut des entrées et un bruit blanc de moyenne nulle. Dont 𝜉𝜉(𝑡𝑡)
est une fonction de bruit qui dépend de la manier qu’il affect le système: Dans ce cas on en le
considère comme un bruit blanc qui perturbera la sortie bruité de notre système dont il
permet de modéliser des perturbations non-mesurables dans le modèle; et c’est une suite de
variables aléatoires non-corrélées E (𝜉𝜉(𝑡𝑡) 𝜉𝜉(𝜏𝜏)) = 0 , ∀𝑡𝑡 ≠ 𝜏𝜏 [14] [15].
21
Chapitre II Méthode Moindres carrés : cas discret
𝜉𝜉(𝑡𝑡)
1
𝐴𝐴(𝑞𝑞−1 )
𝐵𝐵�𝑞𝑞−1 �
𝑢𝑢(𝑡𝑡) 𝑦𝑦(𝑡𝑡)
𝐴𝐴(𝑞𝑞−1 )
Définition [14] [15] : on appelle prédicteur optimal de la sortie 𝑦𝑦(𝑡𝑡) , sur la base des
informations disponibles à l’instant 𝑡𝑡 − 1, le nombre réel, noté
Notation
Tell que : 𝜙𝜙(𝑡𝑡) = [−𝑦𝑦(𝑡𝑡 − 1) … … , −𝑦𝑦(𝑡𝑡 − 𝑛𝑛𝑎𝑎 ) 𝑢𝑢(𝑡𝑡 − 𝑑𝑑), … . −𝑢𝑢(𝑡𝑡 − 𝑛𝑛𝑏𝑏 )]
22
Chapitre II Méthode Moindres carrés : cas discret
Si on suppose maintenant que l’erreur est généré par un processus a moyenne mobile
comme suit Ԑ(t) = 𝐶𝐶(𝑞𝑞 −1 )𝜉𝜉(𝑡𝑡) Où 𝐶𝐶(𝑞𝑞 −1 ) = 1 + 𝑐𝑐1 𝑞𝑞 −1 + ⋯ + 𝑎𝑎𝑛𝑛𝑛𝑛 𝑞𝑞 −𝑛𝑛𝑛𝑛 est supposé
stable dans ce cas le modèle du notre système devient :
𝐵𝐵(𝑞𝑞 −1 ) 𝐴𝐴(𝑞𝑞 −1 )
𝑦𝑦� �𝑡𝑡�𝜃𝜃 ∗ , 𝑡𝑡 − 1� = 𝜙𝜙(𝑡𝑡)𝑇𝑇 𝜃𝜃 ∗ = 𝑢𝑢(𝑡𝑡) + �1 − � 𝑦𝑦(𝑡𝑡)
𝐶𝐶(𝑞𝑞 −1 ) 𝐶𝐶(𝑞𝑞 −1 )
Ou 𝜃𝜃 ∗ définé par 𝜃𝜃 ∗ = [𝑎𝑎1 … … . 𝑎𝑎𝑛𝑛𝑛𝑛 𝑏𝑏1 … … . 𝑏𝑏𝑛𝑛𝑛𝑛 𝑐𝑐1 … … . 𝑐𝑐𝑛𝑛𝑛𝑛 ]𝑇𝑇
Tel que : 𝑥𝑥 ∈ ℛ 2𝑛𝑛 est le vecteur estimé et où 𝑦𝑦 𝑒𝑒𝑒𝑒 𝑦𝑦 ∗ sont générés selon la régression :
𝑦𝑦 ∗ (𝑡𝑡) = 𝜙𝜙 𝑇𝑇 (𝑡𝑡) 𝑥𝑥
23
Chapitre II Méthode Moindres carrés : cas discret
L’algorithme des moindres carrés non récursif dans le cas discret est obtenu à partir de la
minimisation de la fonction convexe comme suit :
𝑑𝑑𝑑𝑑(𝑥𝑥)
=0
𝑑𝑑𝑑𝑑
𝑡𝑡
𝑑𝑑𝑑𝑑(𝑥𝑥)
= −2 � 𝜙𝜙(𝑖𝑖)[𝑦𝑦(𝑖𝑖) − 𝑥𝑥 𝑇𝑇 𝜙𝜙(𝑖𝑖)] = 0
𝑑𝑑𝑑𝑑
𝑖𝑖=1
𝑡𝑡 𝑡𝑡
𝑡𝑡 −1 𝑡𝑡
Cette dernière relation n’est possible que si la matrice ∑𝑡𝑡𝑖𝑖=1 𝜙𝜙(𝑖𝑖) 𝜙𝜙(𝑡𝑡)𝑇𝑇 est inversible.
Il s’avère qu’en effet cette dernière est inversible ; ceci peut être montré facilement en
considérant que la fonction de coût 𝐽𝐽(𝑥𝑥) est convexe d’une part, et d’autre part sachant que la
deuxième dérivée d’une fonction convexe est positive. La seconde dérivée de 𝐽𝐽(𝑥𝑥) est comme
suit :
𝑡𝑡
𝑑𝑑 2 𝐽𝐽(𝜃𝜃)
= 2 � 𝜙𝜙(𝑖𝑖)𝜙𝜙(𝑖𝑖)𝑇𝑇 > 0
𝑑𝑑𝑑𝑑 2
𝑖𝑖=1
D’où la matrice ∑𝑡𝑡𝑖𝑖=1 𝜙𝜙(𝑖𝑖) 𝜙𝜙(𝑡𝑡)𝑇𝑇 est définie positive et donc inversible.
L’algorithme des MC non récursif est caractérisé par les propriétés données par le
théorème suivant :
24
Chapitre II Méthode Moindres carrés : cas discret
Théorème.
𝑡𝑡
1. S’il existe un instant 𝑡𝑡0 , tel que : ∑𝑖𝑖=1
0
𝜙𝜙(𝑖𝑖) 𝜙𝜙(𝑡𝑡)𝑇𝑇 ≥ 𝛼𝛼𝛼𝛼 > 0 (2.7)
Alors 𝜃𝜃�(𝑡𝑡) = 𝜃𝜃 ∗ ∀𝑡𝑡 ≥ 𝑡𝑡0
1
2. Si 𝑙𝑙𝑙𝑙𝑙𝑙𝑡𝑡→∞ 𝑡𝑡 ∑𝑡𝑡𝑖𝑖=1 𝜙𝜙(𝑖𝑖) 𝜙𝜙(𝑡𝑡)𝑇𝑇 > 0 Alors : 𝑙𝑙𝑙𝑙𝑙𝑙𝑡𝑡→∞ 𝜃𝜃�(𝑡𝑡) = 𝜃𝜃 ∗ (2.8)
Preuve :
En multipliant les deux cotés de l’équation (2.5) par 𝜙𝜙(𝑡𝑡) à gauche on obtient :
𝑡𝑡 𝑡𝑡
𝑡𝑡 𝑡𝑡 𝑡𝑡 −1 𝑡𝑡
1 1 1 1
� 𝜙𝜙(𝑖𝑖) 𝑦𝑦(𝑖𝑖) = � � 𝜙𝜙(𝑖𝑖) 𝜙𝜙(𝑖𝑖)𝑇𝑇 � 𝜃𝜃 ∗ ⟹ 𝜃𝜃 ∗ = � � 𝜙𝜙(𝑖𝑖) 𝜙𝜙(𝑖𝑖)𝑇𝑇 � � � 𝜙𝜙(𝑖𝑖) 𝑦𝑦(𝑖𝑖)�
𝑡𝑡 𝑡𝑡 𝑡𝑡 𝑡𝑡
𝑖𝑖=1 𝑖𝑖=1 𝑖𝑖=1 𝑖𝑖=1
𝑡𝑡 −1 𝑡𝑡 𝑡𝑡 −1 𝑡𝑡
1 1
𝜃𝜃�(𝑡𝑡) = �� 𝜙𝜙(𝑖𝑖) 𝜙𝜙(𝑖𝑖)𝑇𝑇 � � 𝑦𝑦(𝑖𝑖)𝜙𝜙(𝑖𝑖) ⟹ 𝜃𝜃� (𝑡𝑡) = � � 𝜙𝜙(𝑖𝑖) 𝜙𝜙(𝑖𝑖)𝑇𝑇 � � � 𝜙𝜙(𝑖𝑖) 𝑦𝑦(𝑖𝑖)�
𝑡𝑡 𝑡𝑡
𝑖𝑖=1 𝑖𝑖=1 𝑖𝑖=1 𝑖𝑖=1
Remarque
Si {𝜙𝜙(𝑖𝑖)} effectue un balayage persistant alors (2.7) et (2.8) sont satisfaites (et
l’inverse n’est pas forcément vrai).
25
Chapitre II Méthode Moindres carrés : cas discret
𝑡𝑡 −1
𝑡𝑡
𝑡𝑡
Dans ce cas l’équation (2.11) peut être réécrite en fonction de l’équation (2.12) :
D’où :
En multipliant par 𝑃𝑃(𝑡𝑡) on trouve finalement l’écriture récursive de l’estimation donnée par :
26
Chapitre II Méthode Moindres carrés : cas discret
Après arrangent on a :
𝑃𝑃(𝑡𝑡 − 1)𝜙𝜙(𝑡𝑡)
𝑃𝑃(𝑡𝑡)𝜙𝜙(𝑡𝑡) = (2.16)
1 + 𝜙𝜙(𝑡𝑡)𝑇𝑇 𝑃𝑃(𝑡𝑡 − 1)𝜙𝜙(𝑡𝑡)
initiation
27
Chapitre II Méthode Moindres carrés : cas discret
𝑡𝑡
−1 −1
𝑃𝑃(𝑡𝑡) = 𝑃𝑃(0) + � 𝜙𝜙(𝑖𝑖) 𝜙𝜙(𝑖𝑖)𝑇𝑇
𝑖𝑖=1
𝑡𝑡
𝑃𝑃(𝑡𝑡) −1
= 𝑃𝑃0−1 + � 𝜙𝜙(𝑖𝑖) 𝜙𝜙(𝑖𝑖)𝑇𝑇 (2.19)
𝑖𝑖=1
Pour que cette algorithme donne lieu à la vrai valeur de 𝑃𝑃(𝑡𝑡)−1 , il faut que 𝑃𝑃0−1 soit très
1
petit. Alors on le choisit comme suit 𝑃𝑃0−1 = 𝛼𝛼
𝐼𝐼 . Ou 𝛼𝛼 >> 1 soit 𝛼𝛼 = 102 , 103 ….
Théorème.
𝜆𝜆 (𝑃𝑃−1 )
1) �𝜃𝜃�(𝑡𝑡) − 𝜃𝜃 ∗ � ≤ 𝐾𝐾�𝜃𝜃�(0) − 𝜃𝜃 ∗ � Ou 𝐾𝐾 = 𝑚𝑚𝑚𝑚𝑚𝑚 0 �
𝜆𝜆𝑚𝑚𝑚𝑚𝑚𝑚 (𝑃𝑃0−1 )
𝑒𝑒(𝑡𝑡)
2) � � ∈ ℓ2
�1+𝜙𝜙(𝑡𝑡)𝑇𝑇 𝜙𝜙 (𝑡𝑡)
5. Différentes déclinaisons
L’adaptation paramétrique par l’algorithme des MCR (2.17. 𝑎𝑎 − 𝑐𝑐) s’arrête dés que la
matrice de gain 𝑃𝑃(𝑡𝑡) tende vers zéro ( 𝑃𝑃(𝑡𝑡) ≈ 0); Or c’est précisément ce qui se passe en
présence de la condition d’excitation persistante PE [9][10]. En effet, si {𝜙𝜙(𝑡𝑡)} effectue un
balayage persistant et à partir de 𝑃𝑃(𝑡𝑡)−1 = 𝑃𝑃(𝑡𝑡 − 1)−1 + 𝜙𝜙(𝑡𝑡)𝜙𝜙(𝑡𝑡)𝑇𝑇 on peur écrire :
𝑘𝑘𝑘𝑘
−1 −1
𝑃𝑃(𝑘𝑘𝑁𝑁) = 𝑃𝑃(0) + � 𝜙𝜙(𝑖𝑖) 𝜙𝜙(𝑖𝑖)𝑇𝑇
𝑖𝑖=1
𝑘𝑘 (𝑗𝑗 +1)𝑁𝑁 𝑘𝑘
−1 𝑇𝑇 −1
= 𝑃𝑃(0) + � � 𝜙𝜙(𝑖𝑖) 𝜙𝜙(𝑖𝑖) ≥ 𝑃𝑃(0) + � 𝛼𝛼𝛼𝛼 ≥ 𝑘𝑘𝑘𝑘𝑘𝑘
𝑗𝑗 =1 𝑖𝑖=𝑗𝑗𝑗𝑗 𝑗𝑗 =1
1
Se qui implique que 𝑃𝑃(𝑘𝑘𝑘𝑘) ≤ 𝐾𝐾𝐾𝐾
𝐼𝐼, d’où 𝑃𝑃(𝑘𝑘𝑘𝑘) → 0 quant 𝑘𝑘 → ∞ ;
28
Chapitre II Méthode Moindres carrés : cas discret
R
U (t) C UC(t)
1 𝑑𝑑𝑈𝑈𝐶𝐶 1
𝑈𝑈 = + 𝑈𝑈 (2.32)
𝑅𝑅𝑅𝑅 𝑑𝑑𝑑𝑑 𝑅𝑅𝑅𝑅 𝐶𝐶
1 1
𝑅𝑅𝑅𝑅
𝑈𝑈(𝑆𝑆) = 𝑆𝑆𝑆𝑆𝐶𝐶 (𝑆𝑆) + 𝑅𝑅𝑅𝑅 𝑈𝑈𝐶𝐶 (𝑆𝑆) (2.33)
1
U C (S)
= RC
1 (2.34)
U(S) S+
RC
𝑘𝑘 𝑇𝑇𝑇𝑇 𝑘𝑘𝑘𝑘
�⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯�
𝑆𝑆 + 𝑘𝑘 𝑍𝑍 − 𝑒𝑒 −𝑘𝑘𝑘𝑘
1 1
𝑇𝑇𝑇𝑇
𝑅𝑅𝑅𝑅 �⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯� 𝑍𝑍
𝑅𝑅𝑅𝑅
1 1
𝑆𝑆 + 𝑅𝑅𝑅𝑅 𝑍𝑍 − 𝑒𝑒 −𝑅𝑅𝑅𝑅 𝑇𝑇
UC (Z) 𝑎𝑎𝑎𝑎
=
U(Z) 𝑍𝑍 − 𝑒𝑒 −𝑎𝑎𝑎𝑎
34
Chapitre II Méthode Moindres carrés : cas discret
1
UC (Z) = U (Z)𝑒𝑒 −𝑎𝑎𝑎𝑎 + 𝑎𝑎U(Z)
𝑍𝑍 C
1
𝑏𝑏 = 𝑒𝑒 −𝑅𝑅𝑅𝑅 𝑇𝑇 sont les paramètres à identifier.
1
Avec 𝑎𝑎 = 𝑅𝑅𝑅𝑅 et
Pour le circuit (filtre RC) donnée ci haut avec R=50Ω et C=200𝜇𝜇𝜇𝜇 ; on réalise la
simulation de l’algorithme des moindres carré avec les paramètres suivant : 𝜃𝜃(0) = [𝜃𝜃1 𝜃𝜃2 ] =
[0.2 0.2], Pi=0.1 et B=2, L0=0.5 ; les résultats obtenu pour ces paramètres sont données par
les figures ces dessous ; en premier lieux, on prend une entrée constante ; en second on
prendra une entrée constante avec une variation de paramètre.
35
Chapitre II Méthode Moindres carrés : cas discret
La Fig. 2.3 représente la sortie du système réel et celle du modèle. On peut constater
de cette figure que la sortie du modèle suit parfaitement la variation de la sortie du système
réel.
Les paramètres correspondants a ces sortie sont donnée par la Fig. 2.4. En effet dans
cette dernière on déduit que ces paramètres sont bornées et qu’il ne divergent pas.
Dans cette deuxième simulation on fait le test d’une entrée variable. Pour ce faire on
maintien l’entrée à U=1, et on ajute une autre entrée variable avec une variation de paramètre
dans une période donné par (5s), qui influencera sur la rapidité du modèle, et pour ce faire on
change la valeur du condensateur C entre deux valeurs: C1= 470 10-6 𝜇𝜇𝜇𝜇 et C2=47 10-6 𝜇𝜇𝜇𝜇.
36
Chapitre II Méthode Moindres carrés : cas discret
La Fig. 2.5 représente la sortie du système réel et celle du modèle. D’après les
résultats obtenu on déduit que la variation de paramètre dans une période donné par (5s) a
influencé sur la rapidité du modèle et qui suit parfaitement la variation de la sortie du
système réel. Montrera plus pris qu’il le suit parfaitement.
Les paramètres correspondants a ces sortie sont donnée par la Fig. 2.6. En effet dans
cette dernière on déduit que ces paramètres sont bornés et qu’ils ne divergent pas.
37
Chapitre II Méthode Moindres carrés : cas discret
7. Conclusion :
Dans ce chapitre, nous avons présenté l’algorithme des moindres carrés dans le cas
décrit et leurs différentes déclinaisons. En effet, on a fait une étude globale sur la convergence
de certain signaux et cela et obtenu après la représentation du développement mathématique
de cet algorithme. Et de même ce dernier est applicable pour tous les systèmes dynamiques
stables ou instables. Cet algorithme «des moindres carrés» à été implémenté au système
électrique simple «Filtre RC».
38
Bibliographie
[1] P. A. Ioannou, J. Sun. Robust Adaptive Control . Dover publication, Inc. Mineola, New
York, 1996.
[2] Eykhoff, P. System Identification: Parameter and State Estimation, John Wiley & Sons,
Inc., New York, 1974.
[3] Ljung L. and T. Soderstrom, Theory and Practice of Recursive Identification, MIT Press,
Cambridge, Massachusetts, 1983.
[4] Middleton, R.H and G.C. Goodwin, Digital Control and Estimation: A Unified Approach.
Prentice Hall, Englewood Cliffs, New Jersey, 1990.
[6] Mathias André, Concavité / Convexité, cours de École Polytechnique – Crest, M1 EPP
2009.
[7] Etienne Miquey, Fonctions convexes, Atelier Maths JPS - 10 Janvier 2011.
[8] Denis Diderot, Topologie des espaces vectoriels de dimension finie, Université Paris 7 –
Année 2005/2006.
[9] Youness Mir, Approximation par la méthode des moindres carrés, Mémoire de doctorat,
Faculté des Sciences Université de Sherbrooke, Canada, Novembre 2007.
[10] Christophe Hurlin et Papa MB.P. N’Diaye y, Méthode d’Estimation des Moindres
Carrés Modifiés, Juin 1998.
[11] Michel Llibre, Resolution de systemes lineaires : Moindres carres récursifs et Filtre de
Kalman discret. ONERA, the franch aerospace LAB. Décembre 2008.
[13] B. SALEMI1, B. REMY, Mise en place de modèles paramétriques autorégressifs de type
« ARX » pour l’extrapolation de températures d’équipements dans la nacelle d’un système
propulsif, Congrès Français de Thermique, SFT 2011, Perpignan, 24-27 Mai 2011.
[15] Michel ETIQUE, Cours Automatique avancée (AAV), 134 pages, Haute Ecole
d'Ingéniérie et de Gestion. Suisse. Mars 2006.
[18] Lughofer, E. et P. Angelov (2011). Handling drifts and shifts in on-line data streams
with evolving fuzzy systems. Applied Soft Computing 11(2), 2057–2068.
[21] Philippe LE BRUN, Choix et alimentation des machines à courant continu, Janvier
2000.