Interpolation Grassmannienne en Mécanique
Interpolation Grassmannienne en Mécanique
THÈSE
pour l'obtention du Grade de
Docteur de l'Université de La Rochelle
École Doctorale: EUCLIDE
Laboratoire: LaSIE
Mention: Mécanique
présentée par:
Rapporteurs :
Mejdi Azaiez Professeur, INP de Bordeaux
David Neron Professeur, ENS Paris Saclay
Examinateurs :
Joël Bensoam Directeur de recherche, IRCAM-Paris
Alain Cimetiere Professeur, ISAE. ENSMA Poitiers
Abdallah El Hamidi MCF-HDR, Université de La Rochelle
Anthony Gravouil Professeur, INSA Lyon
Jean-Pierre Raymond Professeur, Université de Touluse 3
Aziz Hamdouni Professeur, Université de La Rochelle
ii
À ma famille
Remerciements
Finalement, j'ai le plaisir d'écrire cette dernière feuille qui, à la fois, marque
la n de ce premier exercice de recherche scientique et qui me permet de dédier
une pensée à toutes les personnes qui ont contribué à ce que ce travail arrive à sa
n.
v
Je tiens aussi à remercier particulièrement Amandine, qui a décidé de tra-
cer, avec moi, un chemin commun et pour qui j'éprouve gratitude et admiration.
Merci inniment pour tout le soutien et la joie que tu m'apportes chaque jour.
Finalement, je souhaite dire un grand merci à ma belle-famille. Je vous remercie
profondément pour votre amitié et votre soutien pendant toutes ces années.
Rolando Mosquera
vi
Introduction
Une des méthodes de réduction de modèles les plus populaires est celle ba-
sée sur la décomposition orthogonale aux valeurs propres, dite POD (Proper
Orthogonal Decomposition). Il s'agit d'une méthode de projection, basée sur la
construction d'une base optimale au sens énergétique 1 associée à une famille don-
née de clichés correspondant à la solution complète du problème considéré.
vii
Une façon de construire des modèles réduits évoluant en fonction du para-
mètre λ se fait via la méthode des bases réduites (RB) basées sur les solutions
complètes obtenues pour une famille nie λ1 , · · · , λN de N valeurs du paramètre
λ. Pour les détails de cette méthode, on peut consulter [32, 58].
Une autre alternative pour construire des modèles réduits évoluant en fonction
d'un paramètre est l'utilisation de la méthode de Décomposition Propre Générali-
sée (PGD). Cette méthode permet de chercher une approximation de la solution
d'une EDP d'une façon progressive et sous la forme de somme de produits de
fonctions à variables séparées, tout en considérant les paramètres comme variable
de la solution [1214].
D'une part, en mécanique des uides, ces méthodes sont en réalité coûteuses
lorsqu'on s'intéresse à l'évolution paramétrique. D'autre part, quand la valeur
cible du paramètre ne fait pas partie des valeurs considérées dans la PGD, il faut
recourir à une méthode d'interpolation [50]. Or l'interpolation en PGD est une
notion qui pose des vraies dicultés théoriques pour l'instant.
En s'appuyant sur de nombreuses applications en mécanique des uides, on
peut armer qu'actuellement, la méthode de réduction la plus ecace, y compris
pour l'évolution paramétrique est la méthode POD. Aussi, nous nous intéressons
dans cette thèse à l'évolution paramétrique de la POD.
Deux approches se présentent :
1. La première approche consiste à interpoler directement le modèle réduit.
Dans le cas linéaire, on dispose d'un cadre théorique clair permettant de
donner un sens à l'interpolation du modèle réduit (ou champ de vecteurs
associé au système dynamique réduit). Par contre, dans le cas non linéaire
les choses restent moins évidentes et le cadre théorique est à construire.
Cette approche ne sera pas abordée dans cette thèse.
2. La deuxième approche consiste à interpoler la base POD pour une valeur du
paramètre λ à partir des bases POD obtenues pour les valeurs λ1 , · · · , λN du
paramètre. Ensuite, on construit le modèle réduit par projection Galerkin
sur la base POD interpolée. Cette approche qui fait l'objet de cette thèse a
le mérite d'avoir un cadre mathématique bien clair.
Comme cela a déjà été remarqué par Amsallem et Farhat [9], ce qui est im-
portant pour l'interpolation des bases POD, ce n'est pas la base elle-même mais
le sous-espace vectoriel qu'elle engendre. Or, l'ensemble des sous-espaces vecto-
riels d'une dimension xée m d'un espace vectoriel de dimension n > m a la
structure d'une variété diérentielle, dénommée la variété de Grassmann. Il s'agit
d'une variété qui possède une structure mathématique riche. En eet, la variété
de Grassmann a une structure d'une variété riemannienne pour laquelle on peut
calculer les applications exponentielle géodésique et son inverse (dénie locale-
ment, appelée logarithme géodésique) d'une manière explicite via des opérations
viii
matricielles. Ces applications dénissent un diéomorphisme local entre la variété
de Grassmann et l'espace vectoriel tangent à la variété en un point donné.
En se basant sur ces propriétés, Amsallem et Farhat [9] ont proposé une mé-
thode d'interpolation des bases POD sur la variété de Grassmann via l'espace
vectoriel tangent en un point de référence. Le principe est le suivant : partant
de N points Φ̄1 , · · · Φ̄N sur la variété de Grassmann correspondant aux valeurs
λ1 , · · · , λN du paramètre, on choisit un point de référence Φ̄r , on envoie, à l'aide
de l'application logarithme géodésique, ces points sur l'espace tangent en ce point
de référence, on eectue une interpolation classique sur cet espace puis on ramène
le point interpolé sur la variété de Grassmann via l'exponentielle géodésique. Ce
dernier point est le résultat de l'interpolation recherché sur la variété de Grass-
mann. Utilisée avec succès, cette méthode a néanmoins quelques limites :
1. Le domaine de validité de cette interpolation n'est pas clairement explicité.
2. Dans plusieurs applications, le résultat de l'interpolation dépend du choix
du point de référence. Un choix non pertinent de ce point de référence peut
conduire à de mauvais résultats.
Notre travail porte sur l'interpolation sur la variété de Grassmann. Il a deux
objectifs essentiels :
1. Clarier et écrire d'une manière auto-contenue les outils mathématiques
permettant la compréhension de l'interpolation sur la variété de Grassmann.
2. Proposer de nouvelles méthodes d'interpolation plus performantes.
Les contributions majeures de cette thèse sont donc les suivantes :
1. Spécier le cadre mathématique de la méthode d'interpolation existante et
proposer une estimation de l'erreur d'interpolation et un critère pour le
choix du point de référence.
2. Nous proposons une nouvelle méthode d'interpolation sur la variété de
Grassmann appelée IDW-G, qui est indépendante du choix du point de
référence.
3. En se basant sur les matrices de covariances statistiques, associées aux bases
POD considérées comme des variables aléatoires, nous proposons une se-
conde méthode d'interpolation étendant la méthode de krigeage aux variétés
grassmanniennes.
4. Grâce à la construction des géodésiques sur les variétés de Grassmann,
nous proposons une troisième méthode généralisant l'algorithme de Neville
d'interpolation de Lagrange sur un espace vectoriel à l'interpolation sur les
variétés de Grassmann. Notre algorithme sera dénommé "Méthode Neville
Grassmannien".
5. Nous proposons aussi une interpolation basée sur la notion de barycentre
généralisé sur une variété grassmannienne qui sera une alternative explicite
à IDW-G.
ix
Toutes ces nouvelles méthodes d'interpolation sont en général valables dans toute
variété riemannienne sous des hypothèses topologiques et métriques raisonnables.
Dans le chapitre 3, nous avons décrit une méthode d'interpolation, sur la va-
riété de Grassmann, introduite par D. Amsallem et C. Farhat dans [9]. On peut
résumer brièvement cette méthode comme suit : on dispose de N points Φ̄1 , · · · Φ̄N
sur la variété de Grassmann correspondant aux valeurs λ1 , · · · , λN du paramètre
λ et on souhaite faire une interpolation sur cette variété. On commence par choisir
un point de référence Φ̄r . On envoie, à l'aide de l'application logarithme géodé-
sique, ces points sur l'espace tangent en ce point de référence Φ̄r , on eectue
une interpolation classique sur cet espace puis on ramène le point interpolé sur
la variété de Grassmann via l'exponentielle géodésique. Ce dernier point est le
résultat de l'interpolation recherché sur la variété de Grassmann. Dans [9], d'une
part le domaine de validité de cette interpolation n'est pas clairement explicité et
d'autre part, le résultat de l'interpolation dépend fortement du choix du point de
référence. Ce dernier point a été mis en évidence par des simulations numériques
sur l'équation de Burgers et sur l'écoulement instationnaire bidimensionnel d'un
uide autour d'un cylindre.
x
Dans le chapitre 4, nous avons proposé une méthode d'interpolation dont le
domaine de validité est clairement spécié et qui ne dépend pas du choix d'un
point de référence. Pour cela, nous avons étendu la méthode IDW (Inverse Dis-
tance Weighting) aux variétés de Grassmann, notre méthode est dénommée par
IDW-G. Cette méthode est basée sur la minimisation d'une fonction quadratique
en la distance géodésique aux points d'interpolation pondérée par des coecients
dépendant de l'inverse à la distance aux paramètres d'interpolation. Nous avons
montré la convergence de notre méthode de minimisation sous des conditions
assez raisonnables. Cet algorithme donne d'excellents résultats comparé à celui
introduit dans [9]. Notre algorithme est itératif et nos résultats dépendent de la
manière dont les coecients de pondération varient en fonction de l'inverse à la
distance aux paramètres d'interpolation. Pour nous aranchir du caractère itéra-
tif de la méthode IDW-G, nous en avons proposé une version directe, via la notion
de barycentre généralisé. Cette méthode est nettement plus rapide et donne les
mêmes résultats que ceux de IDW-G.
xi
clef de la construction d'un modèle réduit invariant est la construction d'une
connexion associée à un bré principal du groupe.
La troisième annexe reproduit un article accepté dans le journal DCDS - S de
l'AIMS. Cet article porte sur la méthode IDW-G.
xii
Table des matières
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii
xiii
TABLE DES MATIÈRES
4 IDW Grassmannienne 75
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.2 IDW-Grassmannien . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.3 Algorithme IDW-G . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4 Validation numérique . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.5 Le barycentre généralisé (BG) . . . . . . . . . . . . . . . . . . . . 86
4.6 Validation numérique . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
xiv
TABLE DES MATIÈRES
Annexe 133
B.1 Courbure sectionnelle de la variété de Grassmann . . . . . . . . . 133
B.1.1 Base de l'espace horizontal . . . . . . . . . . . . . . . . . . 133
C IDW-G 135
Bibliographie 155
xv
TABLE DES MATIÈRES
xvi
Chapitre 1
Contents
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 POD discrète dans . . . . . . . . . . . . . . . . . .
Rn 3
1.1.2 POD dans un espace de Hilbert de dimension nie . . 7
1.2 POD dans l'espace de Hilbert L2 (0, T ; H) . . . . . . . 10
1.3 Propriétés transmises par la donnée à la base POD . 13
1.4 POD-Galerkine . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.1 La base POD et les modèles d'ordre réduit . . . . . . . 15
1.4.2 Exemple d'un écoulement 2D autour d'un cylindre . . 16
1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)
1.1 Introduction
La décomposition orthogonale aux valeurs propres, désignée par POD (Proper
Orthogonal Decomposition), est un outil théorique et pratique qu'on rencontre
dans des domaines variés comme la turbulence, les statistiques, le traitement du
signal, l'optimisation de forme, etc ... [1, 16, 21, 31, 64]. Cette méthode est connue
sous d'autres appellations : décomposition de Karhunen-Loève ou analyse en com-
posantes principales.
où H ∗ = H\{0} et
φ φ
Pφ (u(t)) = u(t),
kφk H kφkH
est la projection de u(t) sur la droite engendrée par le vecteur φ. A partir de ce
problème, on dénit une base hilbertienne de H , qui est solution de (1.1).
La base obtenue s'appelle la base POD. A la diérence des autres bases clas-
siques, comme les bases polynomiales, d'ondelettes ou de Fourier, elle n'est pas
a priori bien adaptée à un élément quelconque de H , car elle a été construite à
partir d'une donnée de référence u pour satisfaire une condition spécique.
2
1.1. INTRODUCTION
n ≥ n0 et rang(Y ) = m < rang(X). Si l'on note σ1 (X), · · · , σn0 (X) les valeurs
singulières de X , alors :
n 0
X
1. kX − Y k2F ≥ σi (X)2
i=m+1
n 0
X
kX − Xm k2F = σi (X)2
i=m+1
3
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)
Maintenant, si l'on considère une matrice u non nulle dans l'espace vectoriel
R avec m 6 rang(u), on a
n×n0
pour tout A ∈ O(m). Ainsi, si l'on note Ψ = {ΨA : A ∈ O(m)}, on peut dénir
l'ensemble
Gm (Rn ) = {Ψ : Ψ ∈ Rn×m , t ΨΨ = Im }
et par (1.3) l'application
Nu : Gm (Rn ) → R+
Ψ 7→ ku − Ψ t ΨukF
4
1.1. INTRODUCTION
Ainsi
Φ t Φu = Φ [ Σm 0m,n0 −m ] t V (1.4)
On décompose Φ0 = Φ00n,r−m Φ000
n,n0−r et on trouve que :
U Σ = Φn,m Φ00n,r−m Φ000 n,n0−r Σ
Σ m 0 0
= Φn,m Φ00n,r−m Φ000 n,n0−r
0 Σr−m 0
0 0 0
= [ ΦΣm Φ Σr−m 0 ] , avec Σr−m = diag(σm+1 , · · · , σr )
00
donc
u = [ ΦΣm Φ00 Σr−m 0 ] t V (1.5)
Ainsi de (1.4) et (1.5), on a
u − Φ t Φu = [ ΦΣ Φ00 Σr−m 0 ] t V − Φ [ Σm Om,n0 −m ] t V
= ([ ΦΣ Φ00 Σr−m 0 ] − [ ΦΣm Om,n0 −m ]) t V
= [ 0 Φ00 Σr−m 0 ] t V
fonction Nu .
Φ t Φu = Φ Σm t Vm
qui est la factorisation en valeurs singulières de rang m de u, ainsi la proposition
1.1.2 peut être vue comme un cas particulier du théorème de Eckart-Young-
Schmidt-Mirsky.
ku − uΦ kF = min ku − Y kF . (1.7)
Y ∈Rn×n0 , rang(Y )=m
5
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)
Maintenant pour dénir une base POD, d'abord on considère u = [u1 , · · · , un0 ]
où ui = u(ti ) ∈ Rn avec ti ∈ {t1 · · · , tn0 }. Pour prendre en compte la moyenne
arithmétique sur l'ensemble T = {t1 · · · , tn0 }, on peut refaire tous les calculs de
la proposition 1.4, en imposant à la matrice V ∈ Rn ×n , de la SVD de u, d'être
0 0
orthonormale par rapport au produit scalaire Sn0 = n10 In0 c'est à dire :
t
V Sn0 V = In0
Xr
1 t 2
ku − Φ ΦukF = σi2 (1.8)
n0 i=m+1
on a
PΦ (u) = [PΦ (u1 ) · · · PΦ (un0 )]
u = uΦ + u⊥
Φ (1.9)
6
1.1. INTRODUCTION
u = U Σ tV (1.10)
et
t
U Sn U = Ir , t
V Sn0 V = Ir (1.11)
où Σ = diag(σ1 , · · · , σr ). Cette décomposition est appelée SVD généralisée de u
Preuve . A partir de (1.10) et (1.11) on a
e V = V Σ2 où K
K e = t u Sn u Sn0 et U = u Sn0 V Σ−1 (1.12)
K U = U Σ2 où K = u Sn0 t u Sn et V = t u Sn U Σ−1 (1.13)
et comme toute matrice symétrique dénie positive admet une racine carrée, on
trouve que
t 1/2 e t −1/2
D = Sn0 K Sn0
1/2 1/2 0 0
= t
(u Sn0 ) Sn (u Sn0 ) ∈ Rn ×n
est une matrice symétrique, réelle, positive et non nulle. Alors il existe r valeurs
propres non nulles λ1 ≥ · · · ≥ λr > 0 = λr+1 = · · · = λn0 , une matrice de vecteurs
propres A ∈ Rn ×r avec t A A = Ir tel que
0
p p
D A = A Σ2 avec Σ = diag( λ1 , · · · , λr ).
7
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)
√
Ainsi en posant V = t Sn−1/2
0 A, U = u Sn0 V Σ−1 et σi = λi , on obtient une
SVD de u.
On peut suivre le même raisonnement à partir de (1.13), pour trouver une SVD
de u.
Corollaire 1.1.6 Une SVD (U, Σ, V ) généralisée d'une matrice u ∈ Rn×n de
0
e , Σ, Ve ) de Sn1/2 u S 1/2
rang r, peut être obtenue à partir d'une SVD (U n0 avec
te e = t Ve Ve = Ir
UU
1/2
De plus, si Sn0 = √1 In0
n0
alors (U, Σ, V ) peut être obtenue par une SVD (Û , Σ̂, V̂ )
t 1/2
de Sn u avec
t
Û Û = t V̂ V̂ = Ir
Preuve . Pour la première partie on prend :
e et V = t S −1/2
U = t Sn−1/2 U Ve
n0
et pour la deuxième
1 1
U = t Sn−1/2 Û , Σ = √ Σ̂ et V = √ V̂
n0 n0
Dans ce qui suit on va considérer un espace de Hilbert (H, (., .)H ) de dimen-
sion n, muni d'une base B = {Xi }16i6n . Soient y1 , y2 ∈ H et Y1 , Y2 ∈ Rn×1
les vecteurs de coordonnées dans la basse B. On a (y1 , y2 )H = t Y1 Sn Y2 où
Sn = ( (Xi , Xj )H ) ∈ Rn×n est la matrice associée au produit scalaire de la base
B . Si l'on note (Y1 , Y2 )Sn = t Y1 Sn Y2 , alors pour un élément y de H de vecteur
de coordonnées Y , on a
kY k2Sn = t
Y Sn Y
t
= Y Sn1/2 t Sn1/2 Y
= t (t Sn1/2 Y ) t Sn1/2 Y
= kt Sn1/2 Y k22
8
1.1. INTRODUCTION
Preuve . En eet,
2
Xm
kui − PΨ (ui )k2H =
ui − (ui , ψk )H ψk
k=1 H
n !
2
X Xm Xn
=
Uli Hl − (Ui , φk )Sn φlk Hl
l=1 k=1 l=1 H
!
2
X n X m
=
Uli − (Ui , φk )Sn φlk Hl
l=1 k=1 H
2
Xm
=
Ui − (Ui , φk )Sn φk
k=1 Sn
Ainsi,
n0 n 0 m
X X X
kui − PΨ (ui )k2H = kUi − (Ui , φk )Sn φk k2Sn
i=1 i=1 k=1
!
2
n0
X m
X
t
=
Sn1/2 Ui − (Ui , φk )Sn φk
i=1 k=1 2
n 0
X
t 1/2
=
( Sn U)i − (t Sn1/2 Φ t Φ Sn U)i
2
2
i=1
G^
m (R ) = {Ψ : Ψ ∈ R
n n×m
, t
Ψ Sn Ψ = Im }
9
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)
1/2
formée par les m premiers vecteurs singuliers à gauche de la SVD de t Sn U
(comme dans le corollaire 1.1.6) . Les vecteurs ϕ1 , · · · , ϕm donc sa matrice de
e , est appelée base POD de u d'ordre m.
coordonnées dans la base B est Φ
Preuve . En eet,
m
X
kPL(Bm ) (Lu)k2H = k (Lu, Lφk )H Lφk k2H
k=1
m
X
= |(Lu, Lφk )H |2
k=1
Xm
= k (u, φk )H φk k2H
k=1
= kPBm (u)k2H
10
1.2. POD DANS L'ESPACE DE HILBERT L2 (0, T ; H)
Donc,
Soit u ∈ L2 (0, T, H) non nul avec 0 < T < ∞, on va chercher la base POD comme
un problème de minimisation sur la variété de Grassmann Gm (H). La démons-
tration suit exactement la même démarche que dans la présentation classique,
donc on va rappeler seulement quelques passages qui vont permettre de faire le
lien avec le cas de la dimension nie. Tous les résultats se trouvent dans [37].
Nu : Gm (H) 7−→ R+
R
1
Bm 7−→ T
ku(t) − PBm (u(t))k2H dt
[0,T ]
Par la proposition 1.2.1, l'application Nu est bien dénie. Elle ne fait que traduire
que l'expression qu'on cherche à minimiser est invariante par isométrie. Pour
construire le point réalisant le minimum de Nu , on introduit l'opérateur
K : H → H
R (1.15)
1
φ 7→ T
( u(t), φ )H u(t)dt
[0,T ]
déni par Z
e )(t) = 1
(Kf ( u(t), u(s) )H f (s)ds
T [0,T ]
11
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)
1
φk = p (u, Vk )L2 (0,T ) (1.17)
e
λT
On peut dénir la POD dans le cadre plus général d'un espace de Hilbert
complexe(voir [36]). On peut aussi faire toute la construction de la POD sur un
ensemble mesurable muni d'un opérateur de moyenne.
12
1.3. PROPRIÉTÉS TRANSMISES PAR LA DONNÉE À LA BASE POD
Mais sachant que la donnée u(t) a une régularité supérieure, c.à.d celle de H(Ω),
pour presque tout t ∈ [0, T ], peut-on espérer que la base POD hérite de cette
régularité ? La réponse est donnée par le lemme suivant :
Lemme 1.3.1 Soient u ∈ L2 ([0, T ], H(Ω)) et (ϕi )i>1 la famille POD de u, obte-
nue via le produit scalaire de L2 (Ω), correspondant aux valeurs propres strictement
positives. Alors ϕi ∈ H(Ω), pour tout i > 1.
Preuve. Pour tout i > 1, notons λi > 0 la valeur propre associée à la fonction
propre ϕi . Donc on a
Z T
1
ϕi = hu (t) , ϕi iL2 (Ω) u (t) dt.
T λi 0
est dans L2 ([0, T ]) et u(t) ∈ H(Ω), pour presque tout t ∈ [0, T ]. Par conséquent,
d'après la théorie classique de l'intégration au sens de Bochner, on a
Z T
1
ϕi = f (t) u (t) dt ∈ H(Ω).
T λi 0
13
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)
Une fois la régularité de la base POD assurée, est-ce que les conditions aux
limites satisfaites par la donnée u sont transmises à la base POD ? Ou encore,
est-ce que la condition d'incompressibilité dans les équations de Navier-Stokes est
transmise du champ de vitesse à la base POD ? La réponse à ces questions peut
être donnée dans le cadre général suivant :
Lemme 1.3.2 Soient u ∈ L2 ([0, T ], H(Ω)) et (ϕi )i>1 la famille POD de u, obte-
nue via le produit scalaire de L2 (Ω), correspondant aux valeurs propres strictement
positives. Soit B un espace de Banach et L : H(Ω) −→ B une application linéaire
continue. Si L u(t) = 0, pour presque tout t ∈ [0, T ], alors Lϕi = 0, pour tout
i > 1.
est bien linéaire continue. Donc on est dans le cadre du lemme précédent.
14
1.4. POD-GALERKINE
est bien linéaire continue. Donc on est dans le cadre du lemme précédent.
1.4 POD-Galerkine
1.4.1 La base POD et les modèles d'ordre réduit
Les bases POD fournissent un cadre approprié pour les modèles d'ordre réduit
(ROM) via la méthode de Galerkin. Supposons que les données u(x, t) soient la
solution d'une équation aux dérivées partielles d'évolution, comme les équations
de Navier-Stokes pour les écoulements incompressibles, qui seront considérées
dans la section de simulation numérique dans les chapitres suivants. Ces équations
peuvent être écrites symboliquement comme :
∂u
(x, t) = F (u), x ∈ Ω ⊂ Rd , t > 0, (1.27)
∂t
où F (u) ne contient que des dérivées spatiales de u et le terme source. L'en-
semble Ω est le domaine spatial étudié. Pour compléter le problème diérentiel
d'évolution (1.27), nous avons besoin d'une condition initiale
u(x, 0) = u0 (x) (1.28)
15
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)
de u qui a des conditions aux limites homogènes [65]. Ces conditions aux limites
homogènes sont alors prises en compte dans l'espace de Hilbert H ⊂ {H 1 (Ω)}d ⊂
{L2 (Ω)} . Par conséquent, chaque vecteur de la base POD Φ = {φ1 , · · · , φm }
d
satisfait les conditions aux limites. Le modèle d'ordre réduit est ensuite dérivé
par la projection de Galerkin des équations aux dérivées partielles (1.27) sur le
sous-espace POD de dimension m. C'est-à-dire, si on écrit
m
X
e(x, t) =
u ak (t)φk (x),
k=1
où
Mkj = hϕk ; ϕj iL2 (Ω) ,
et * !+
m
X
Fk (a1 , · · · , am ) = ϕk ; F ai ϕi ,
i=1 L2 (Ω)
16
1.4. POD-GALERKINE
-5
u( . , 0) = u0 ∈ {L2 (Ω)}
2
avec div u0 = 0 (1.34)
17
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)
w(x, t) = 0 sur Γ1 ×]0, T ]
n (x) = 0, sur Γ2 ∪ Γ3 ×]0, T ]
w(x, t).~
B(w) =
w(x, t) = 0, sur Γ5 ×]0, T ]
n (x) = 0, sur Γ4 ×]0, T ]
D(w(x, t)).~
∂
ρ( ∂t
e+
u e+u
ū.∇ ū + ū.∇ u e.∇ ū + u e ), ϕ − (∇.σ(u), ϕ) = (f, ϕ)
e.∇ u
m
X
Ainsi, pour PΦ (e
u(t)) = aj (t) φj et ϕ = φi avec Φ = {φ1 , · · · , φm } une base
j=1
POD de ue, on obtient
m
X m
X
a0i (t) = aj (t) Bji + aj (t)al (t) Cj`i + Di (1.35)
j=1 j,`=1
avec
Z
Bji = − (ρ(ū.∇ φj + φj .∇ ū), φi ) − T r(µ D(φj ).∇φi )dΩ
Ω
Cj`i = −(φj .∇φ` , φi )
Z
Di = (f, φi ) + ρ(ū.∇ ū, φi ) + T r(µ D(ū).∇ φi )dΩ
Ω
Pour construire les bases POD, pour le nombre de Reynolds Re = 110, les snap-
shots utilisés sont calculés par le software Fenics, en utilisant des éléments nis
de type Taylor-Hood P2/P1 sur le maillage représenté en gure 1.3.
Le maillage 1.3 n'est pas uniforme, il comprend 10199 n÷uds et est rané
près du cylindre. Le plus petit élément est inscrit dans un cercle de diamètre
0.0494m, et le plus grand dans un cercle de diamètre 0.6292m.
18
1.4. POD-GALERKINE
Figure 1.3
Sur les gures 1.6 et 1.7 on a reporté les modèles réduits associés aux bases
POD construites respectivement avec 4 et 14 modes. On peut voir que le modèle
réduit associé à une base POD avec 4 modes, donne une approximation impor-
tante du modèle uctuant.
19
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)
Figure 1.6 Modèle réduit associé à une base POD avec 4 modes .
Figure 1.7 Modèle réduit associé à une base POD avec 14 modes.
Sur la gure 1.8 on compare les coecients temporels ai (t) obtenus directe-
ment par la projection de la solution sur une base POD et les coecients dyna-
miques âi (t) obtenus comme solution du système dynamique 1.35. On peut voir
que les modes temporels dynamiques approchent bien les coecients obtenus par
projection.
20
1.5. CONCLUSION
1.5 Conclusion
Dans ce chapitre on a présenté le principe de la construction de la base POD
et son utilisation pour construire un modèle réduit, qu'on a appliqués sur les
équations de Navier-Stokes. On a illustré cette méthode sur l'exemple classique
d'un écoulement 2D autour d'un cylindre pour Re = 110. On a vu que cette
méthode peut être ecace pour prédire des écoulement instationnaires.
21
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)
22
Chapitre 2
Géométrie de la variété de
Grassmann
Contents
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Généralités sur les variétés diérentielles . . . . . . . 25
2.2.1 Variété diérentielle . . . . . . . . . . . . . . . . . . . 25
2.2.2 Variété quotient . . . . . . . . . . . . . . . . . . . . . 26
2.2.3 Variété riemannienne . . . . . . . . . . . . . . . . . . . 26
2.3 La variété de Grassmann . . . . . . . . . . . . . . . . . 30
2.3.1 Structure diérentiable . . . . . . . . . . . . . . . . . . 31
2.3.2 Structure riemannienne . . . . . . . . . . . . . . . . . 35
2.3.3 Application exponentielle, rayon d'injectivité et loga-
rithme géodésique . . . . . . . . . . . . . . . . . . . . 42
2.3.4 Courbure sectionnelle et convexité . . . . . . . . . . . 47
2.3.5 La variété de Stiefel . . . . . . . . . . . . . . . . . . . 48
2.3.6 Distance géodésique et angles principaux . . . . . . . . 49
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 54
23
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
2.1 Introduction
Comme on a vu au chapitre 1, la détermination de la solution réduite ne
dépend pas de la base, mais du sous-espace vectoriel engendré par cette base.
En eet, étant donnée la matrice u ∈ Rn×n (qui représente le modèle complet),
0
la base POD associée peut être représentée par une matrice Φ ∈ Rn×m avec
t
Φ Φ = Im et engendre un unique sous-espace vectoriel de dimension m de Rn .
Toute autre base orthonormale de cet espace vectoriel peut être représentée par
la matrice ΦA, avec A ∈ O(m). Si l'on note le modèle réduit par uΦ , on a
uΦ = Φ t Φu
= (ΦA) t (ΦA)u. (2.1)
alors, le modèle réduit est déterminé par l'espace engendré par la base POD.
24
2.2. GÉNÉRALITÉS SUR LES VARIÉTÉS DIFFÉRENTIELLES
U1 U2 M
ϕ1 ϕ2
ϕ2 ◦ ϕ−1
1
u
u u
R n Rn
ϕ1 (U1 ∩ U2 ) ϕ2 (U1 ∩ U2 )
25
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
graph(∼) = {(x, y) ∈ M × M : x ∼ y}
Les résultats suivants nous permettent de savoir quand l'espace quotient d'une
variété admet une structure de variété diérentielle. Pour une démonstration voir
[54].
26
2.2. GÉNÉRALITÉS SUR LES VARIÉTÉS DIFFÉRENTIELLES
Cette longueur est invariante par reparamétrage régulier. On peut dénir aussi
une distance sur la variété M , associée à la métrique g . En eet, soient x, y ∈ M ,
on dénit
d(x, y) = inf l(α)
α∈Ωx,y
où Ωx,y est l'ensemble des courbes α : [a, b] → M , C 1 par morceaux avec α(a) = x
et α(b) = y .
Proposition 2.2.7 La fonction d dénit une distance sur M , et la topologie
associée à cette distance coïncide avec la topologie initiale de la variété M.
b. Connexion ane
Dans cette partie, on considère une variété M de dimension n > 1 et on note
par X(M ) l'ensemble de champs de vecteurs sur M .
Dénition 2.2.8 Une connexion ane sur une variété M est une application
∇ : X(M ) × X(M ) → X(M )
(X, Y ) 7→ ∇X Y
vériant les propriétés suivantes :
i) ∇f X1 +gX2 Y = f ∇X1 Y + g∇X2 Y
ii) ∇X (Y1 + Y2 ) = ∇X Y1 + ∇X Y2
iii) ∇X (f Y ) = (X.f )Y + f ∇X Y
Pour tous X, X1 , X2 , Y, Y1 , Y2 ∈ X(M ) et f, g ∈ C ∞ (M )
Un champ de vecteurs déni le long d'une courbe lisse γ : I → M avec γ̇ 6= 0
est une application lisse V : I → T M telle que V (t) ∈ Tγ(t) M pour tout t ∈ I .
On note par X(γ) l'ensemble des champs de vecteurs dénis le long de γ .
27
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
iii) dt
D
(X ◦ γ)(t) = (∇γ̇ X)(γ(t))
Pour tous a, b ∈ R ; V, W ∈ X(γ); f ∈ C ∞ (M ) et X ∈ X(M ).
Dénition 2.2.10 Une courbe γ : I → M est une géodésique de la connexion
ane ∇ si D
dt
γ̇ = 0.
Si l'on considère X ∈ X(M ) avec X ◦ γ = γ̇ , alors γ est une géodésique si
(∇X X)(γ(t)) = 0 pour tout t ∈ I . Soit (U, ϕ = (x1 , · · · , xn )) une carte locale de
n
X
M on peut écrire ϕ ◦ γ = γ i ei où γ i = xi ◦ γ et {ei }16i6n est la base canonique
i=1
de Rn . Ainsi, pour k ∈ {1, · · · , n} et γ(t) ∈ U on a :
X
γ̈ k (t) + γ̇ i (t)γ̇ j (t)Γkij (γ(t)) = 0 (2.2)
i,j
P
où ∇∂i ∂j = k Γkij ∂k et Γkij sont les symboles de Christoel associés à la connexion
ane ∇.
28
2.2. GÉNÉRALITÉS SUR LES VARIÉTÉS DIFFÉRENTIELLES
exp : D → M
(q, v) 7→ γq,v (1) = γq, |v|
v (|v|)
Proposition 2.2.14
(i) Étant donné un point x0 ∈ M , il existe un voisinage U de x0 et un nombre
ε > 0 tels que
1. Pour tous x, y ∈ U , il existe un unique vecteur v ∈ Tx M , de norme
inférieure à ε et tel que expx (v) = y .
2. Pour tout x ∈ U , l'application expx est un diéomorphisme de la boule
ouverte de centre 0x et de rayon ε de Tx M dans son image.
3. Pour tout vecteur v , de norme inférieure à ε, la courbe expx (tv), avec
t ∈ [0, 1], réalise la distance de x à y .
(ii) Une courbe paramétrée proportionnellement à la longueur d'arc est une géo-
désique, si et seulement si elle réalise localement la distance riemannienne
entre ses points.
Étant donnée une variété riemannienne (M, g), on peut montrer qu'il existe
une unique connexion ∇, appelée connexion de Levi-Civita vériant en plus des
conditions de la dénition 2.2.8, les deux conditions suivantes :
∇ est symétrique (ou sans torsion) :
∇X Y − ∇Y X = [X, Y ]
29
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
Rn×m
∗ × GLm (R) −→ R∗n×m
(X, A) 7→ XA
c'est-à-dire comme l'espace quotient R∗n×m/GLm (R), où GLm (R) est l'ensemble de
matrices inversibles de taille m × m.
30
2.3. LA VARIÉTÉ DE GRASSMANN
Figure 2.2 Un point de G1 (Rn ) est une droite passant par 0 dans Rn .
Preuve . i) Il est évident que π est une application continue par dénition de la
topologie sur Gm (Rn ). Pour montrer que π est une application ouverte, il sut
de remarquer que si U ⊂ Rn×m
∗ est un sous-ensemble ouvert alors :
[
π −1 (π(U)) = UA
A∈GLm (R)
F : Rn×m
∗ × Rn×m
∗ −→ Rn×m
(X, Y ) 7→ Y − X(t XX)−1 t XY
31
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
l'ensemble :
VI := {X ∈ R∗n×m : X I ∈ GLm (R)}
Preuve . La preuve de i) est élémentaire. Montrons alors ii), pour cela il sut
de remarquer que X I ∈ GLm (R) vérie :
I
X(X I )−1 = Im
et par suite
(XA2 )I = (XA1 )I (A−1
1 A2 )
D'oùA−1
1 A2 = Im .
32
2.3. LA VARIÉTÉ DE GRASSMANN
Preuve . Pour i), comme π est une application ouverte et surjective, il sut de
remarquer que {VI }I est un recouvrement ouvert de R∗n×m . Pour la partie ii), si
l'on prend X ∈ π −1 (π(VI )), alors, il existe Y ∈ VI tel que X ∼ Y , donc X = Y A
avec A ∈ GLm (R), ainsi grâce à la partie i) du lemme précèdent, on obtient
X ∈ VI . Le point iii) est une conséquence immédiate de la proposition 2.3.2.
Preuve . A partir de ii) du lemme 2.3.3 on déduit que sI est bien dénie ; en
plus si X ∈ VI est tel que π(X) = L alors sI (L) = X(X I )−1 .
D'autre part, comme
sI ◦ π|VI (X) = X(X I )−1
alors les paires {(π(VI ), ϕI )}I dénissent une structure de variété diérentiable
sur Gm (Rn ) de dimension m × (n − m).
par ϕ−1
I (Y ) = π(A), où A est déni par A = Im et A = Y . Comme l'application
I I 0
ϕI (ϕ−1
I (Y )) = ϕI (π(A))
0
= (sI (π(A)))I
I 0
= A(AI )−1 )
car AI = Im
0
= AI
= Y
33
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
et
I0
ϕ−1
I (ϕ I (L)) = ϕ−1
I (s I (L))
= ϕ−1
I (B(B I −1 I 0
) ) où B ∈ VI est tel que π(B) = L
= π (B(B I )−1
= π(B)
= L
Maintenant supposons que π(VI ) ∩ π(VJ ) 6= ∅, on va montrer que
ϕJ ◦ ϕ−1
I : ϕI (π(VI ) ∩ π(VJ )) → ϕJ (π(VI ) ∩ π(VJ ))
est diérentiable.
Ainsi on a montré que la variété de Grassmann Gm (Rn ) est une variété dié-
rentiable de dimension m × (n − m).
Exemple 2.3.8 (Structure diérentiable sur la droite projective) A toute
droite D non verticale dans R2 , on peut lui associer sa pente p = ϕ1 (D), qui
est le réel tel que (1, p) ∈ D. Si la droite D n'est pas horizontale, elle possède
une anti-pente a = ϕ2 (D), qui est le réel a tel que (a, −1) ∈ D. Les deux ap-
plications pente et anti-pente, constituent des cartes, et le changement de carte
1 : p 7→ a = 1/p est un C -diéomorphisme de R\{0} sur R\{0}. Cet atlas
ϕ2 ◦ ϕ−1
dénit une structure diérentielle sur la droite projective.
34
2.3. LA VARIÉTÉ DE GRASSMANN
p
a
1
-1
Figure 2.3 Un point de G1 (R2 ) est une droite passant par 0 dans R2 .
sition suivante :
Rn×m = TY π −1 (X̄) ⊕ (TY π −1 (X̄))⊥
Le sous-espace HY := (TY π −1 (X̄))⊥ est appelé espace horizontal en Y , et le
sous-espace VY := TY π −1 (X̄) est appelé espace vertical en Y .
35
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
VY = Y Rm×m
et
HY = {Z ∈ Rn×m : t ZY = 0}
Les projections associées sont
PYv : Rn×m → VY
Z 7→ Y (t Y Y )−1 t Y Z
et
PYh : Rn×m → HY
Z 7→ Z − Y (t Y Y )−1 t Y Z
appelées respectivement projections verticale et horizontale.
Lemme 2.3.9 Soit Y ∈ π −1 (X̄), alors l'application (dY π)|HY : HY → TX̄ Gm (Rn )
est un isomorphisme.
Preuve . En eet, il est évident que VY ⊂ Ker dY π et comme π est une submer-
sion, on a
Ainsi, on a montré que VY = Ker dY π donc dY π|HY est une application linéaire
injective, on conclut en remarquant que dim HY = dim(Gm (Rn )).
36
2.3. LA VARIÉTÉ DE GRASSMANN
Z̄ 7→ Z(t Y Z)−1 t Y Y
sY est bien dénie et vérie
π|UY ◦ sY = id (2.5)
Si on considère la section transversale ane EY := {W ∈ R∗n×m : t Y (W −Y ) = 0},
orthogonale à la bre Y GLm (R), on a clairement Im(sY ) = EY et donc
sY : π(UY ) → EY
est une bijection entre une partie de Gm (Rn ) et le sous-espace ane EY de R∗n×m .
Maintenant, soit Z̄ ∈ π(UY ), on va montrer que Im dZ̄ sY = HY . En eet,
On peut remarquer que sur toute variété M qui vérie une condition de type
2.4, on peut dénir une métrique Riemannienne sur la variété quotient. Munie de
cette métrique, la variété M / ∼ est appelée variété quotient Riemannienne de
M.
37
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
Proposition 2.3.13 Avec les mêmes hypothèses que dans la proposition précé-
dente, si en plus M est un espace vectoriel (ou un ouvert dans un espace vectoriel)
et la métrique est horizontalement invariante alors on a
38
2.3. LA VARIÉTÉ DE GRASSMANN
Théorème 2.3.16 Soit t 7→ γ(t) ∈ Gm (Rn ) une courbe lisse avec γ 0 (t) 6= 0 pour
tout t, et soit Y0 ∈ π −1 (γ(0)). Alors
n m
i) Il existe un unique relèvement horizontal t 7→ Y (t) ∈ R∗ × avec condition
initiale Y (0) = Y0 .
n m
ii) t 7→ γ(t) ∈ Gm (Rn ) est une géodésique, si et seulement si, t 7→ Y (t) ∈ R∗ ×
est une géodésique.
Proposition 2.3.17 Soit t 7→ γ(t) ∈ Gm (Rn ) une courbe lisse et soit t 7→ Y (t) ∈
n m ¯ ∈
R∗ × la courbe horizontale associée à γ par le théorème précédent. Soit t 7→ ξ(t)
T Gm (Rn ) un champ de vecteurs déni le long de la courbe γ . Alors le champ ξ¯
est transporté parallèlement le long de γ , si et seulement si,
Preuve . D'abord, comme HY (t) ⊂ TY (t) (R∗n×m ) on a que ξ est un champ le long
de la courbe Y . Maintenant, étant donné que Ddtξ̄ (t) = ∇ ¯ γ̇(t) ξ¯ est un élément de
Tγ(t) Gm (R ) et que (dY (t) π)|HY (t) : HY (t) → Tγ(t) Gm (Rn ) est un isomorphisme
n
linéaire, alors
Dξ¯ Dξ¯
(t) = 0 ⇐⇒ (dY (t) π)−1
|HY (t) (t) = 0 ∈ Rn×m .
dt dt
= ξ(t)
et
= Ẏ (t)
39
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
mais PYh(t) (∇Ẏ (t) ξ) = 0 si et seulement si ∇Ẏ (t) ξ ∈ VY (t) = Y (t)Rm×m . Comme ∇
est la connexion Riemannienne dans l'espace vectoriel Rn×m , on obtient
(∇Ẏ (t) ξ) = (∇X Z)(Y (t))
= dY (t) Z(X ◦ Y (t))
= dY (t) Z(Ẏ (t))
d
= (Z ◦ Y )(s)
ds |s=t
d
= ξ(s)
ds |s=t
donc PYh(t) (∇Ẏ (t) ξ) = 0, si et seulement si, il existe M (t) ∈ Rm×m tel que
˙ = Y (t)M (t).
ξ(t) (2.8)
De (2.8) on obtient
˙
M (t) = (t Y (t)Y (t))−1 t Y (t)ξ(t) (2.9)
D'autre part, ξ(s) ∈ HY (s) implique que t Y (s)ξ(s) = 0, donc
t ˙ =0
Ẏ (s)ξ(s) +t Y (s)ξ(s) (2.10)
ainsi, en combinant (2.10) et (2.9) on obtient
M (t) = −(t Y (t)Y (t))−1 t Ẏ (t)ξ(t)
et nalement en substituant M (t) dans (2.8) on conclut que
˙ + Y (t)(t Y (t)Y (t))−1 t Ẏ (t)ξ(t) = 0.
ξ(t)
Maintenant, on dispose de tous les éléments qui vont nous permettre de trouver
une expression pour une géodésique t 7→ γ(t) ∈ Gm (Rn ) avec point initial γ(0) =
Y (0) et une vitesse initiale γ̇(0) ∈ Tγ(0) Gm (Rn ), où t 7→ Y (t) est la courbe
horizontale associée à γ . La géodésique γ est caractérisée par ∇γ̇ γ̇ = 0, ceci nous
dit que le vecteur tangent à γ est transporté parallèlement le long de γ .
Soit ξY0 l'unique vecteur tangent dans HY0 tel que dY0 π(ξY0 ) = γ̇(0) où Y0 = Y (0).
On considère une décomposition en valeurs singulières ξY0 (t Y0 Y0 )−1/2 = U Σ t V .
Avec ces hypothèses, on a le théorème suivant :
40
2.3. LA VARIÉTÉ DE GRASSMANN
41
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
et la matrice
Q = Y0 A | Ẏ0 AΣ−1 ∈ Rn×2m
où Y0 A | Ẏ0 AΣ−1 est la matrice formée par les blocs matriciels Y0 A et Ẏ0 AΣ−1 .
La solution de notre équation s'écrit alors
Im
Y (t)A = Qexp(Xt)I2m,m où I2m,m :=
0
En eet, Ẏ (t)A = Qexp(Xt)XI2m,m et Ÿ (t)A = Qexp(Xt)X 2 I2m,m donc
Ÿ (t)A + Y (t)AΣ2 = Q exp(Xt)X 2 I2m,m + Q exp(Xt)I2m,m Σ2
= Qexp(Xt) X 2 I2m,m + I2m,m Σ2
2
−Σ2 Σ
= Qexp(Xt) +
0 0
= 0
et clairement Y (t)A = Qexp(Xt)I2m,m vérie les conditions initiales demandées.
(2.13)
Finalement, comme γ(t) = span Y(t) et V ( Y Y ) t t 1/2
est inversible on a bien
γ(t) = span(Y0 (t Y0 Y0 )−1/2 V cos(Σt) + U sin(Σt))
42
2.3. LA VARIÉTÉ DE GRASSMANN
et
U Σt V = (dY0 π)−1 (v)(t Y0 Y0 )−1/2
est une décomposition en valeurs singulières.
La valeur du rayon d'injectivité pour Gm (Rn ) est donnée par le théorème qui
suit :
Théorème 2.3.21 Soient n, m deux entiers positifs tels que min{m, n−m} > 2,
alors le rayon d'injectivité de la variété de Grassmann Gm (Rn ) est π/2.
Proposition 2.3.22 Soit Bd (Ȳ0 , π/2) la boule dans Gm (Rn ) pour la topologie
induite par la distance géodésique et Z̄ ∈ Bd (Ȳ0 , π/2), alors :
exp−1
Ȳ0
(Z̄)(t Y0 Y0 )−1/2 = dY0 π(U arctan(Σ̃)t V )
43
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
ainsi |σi | < π/2, pour tout 1 6 i 6 m. Donc il existe un unique σ̃i ∈ R tel
que tan−1 σ̃i = σi pour tout 1 6 i 6 m. En posant Σ̃ := diag(σ̃1 , · · · , σ̃m ) on a
Σ = tan−1 (Σ̃).
On va montrer que les σ̃i sont les valeurs singulières de π|−1
UY0 (Z̄) − Y 0 (t Y0 Y0 )−1/2 .
D'abord d(Z̄, Ȳ0 ) < π/2 implique que Z̄ ∩ Ȳ0⊥ = ∅ (i.e., t Y0 Z ∈ GLm (R), donc
Z ∈ UY0 ). On peut remarquer aussi que
PYh0 (π|−1 −1
UY (Z̄)) = π|UY (Z̄) − Y0 ,
0 0
44
2.3. LA VARIÉTÉ DE GRASSMANN
Par suite, on a
π|−1 t
UY0 (Z̄) := Z( Y0 Z)
−1 t
Y 0 Y0
= Y0 A + Ẏ0 AΣ−1 Σ̃ (t Y0 Y0 )−1 (t Y0 Y0 )
= Y0 + Ẏ0 AΣ−1 Σ̃A−1
et
π|−1 t
UY (Z̄) − Y0 = Ẏ0 ( Y0 Y0 )
−1/2
V Σ−1 Σ̃t V (t Y0 Y0 )1/2
0
où
U Σ̃t V = (π|−1 t
UY (Z̄) − Y0 )( Y0 Y0 )
−1/2
0
45
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
ainsi
arccos(| < p, x > |) | < p, x > |
exp−1
p̄ (x̄) = p dp π x − | < p, x > |p) .
1 − | < p, x > |2 < p, x >
on a :
2 −1/2 Γ
expp (Γ) = (1 + ||y|| ) p + ||y||
||Γ||
Γ
= | < p, x > | p + ||y||
||Γ||
p Γ
= | < p, x > |p + 1 − | < p, x > |2
||Γ||
= x.
46
2.3. LA VARIÉTÉ DE GRASSMANN
47
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
Proposition 2.3.30 La variété de Stiefel St(m, n), est de dimension nm− m(m+1)
2
et pour chaque X ∈ St(m, n),
TX St(m, n) = {W ∈ Rn×m : t W X + t X W = 0}
X ∼ Y, si et seulement si, X = Y
f
C : St(m, n) −→ Gm (Rn )
X̃ 7→ X
48
2.3. LA VARIÉTÉ DE GRASSMANN
Dans les exemples d'interpolation qu'on présentera dans les chapitres suivants,
on considère la variété de Grassmann comme
Gm (Rn ) = { X̄ : X ∈ St(m, n) }
où X, Y ∈ Gm (Rn ), v ∈ TX Gm (Rn ) et
Uα Σtα Vα = Y (t XY )−1 − X
sont des décompositions en valeurs singulières.
49
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
50
2.3. LA VARIÉTÉ DE GRASSMANN
on a bien θ = arctan(kyk).
On a bien constaté dans cet exemple que la notion intuitive de distance entre
deux droites dans R2 , coïncide avec celle de distance riemannienne sur la variété
de Grassmann G1 (R2 ). Maintenant, pour passer aux dimensions supérieures, on
va introduire la notion d'angles principaux.
Cette quantité 0 6 θ(u, v) 6 π/2, est intrinsèque aux droites, car elle ne dépend
pas des générateurs, et elle est aussi invariante par isométrie. Maintenant, soient V
et V 0 deux sous-espaces vectoriels de Rn , on voudrait mesurer la proximité de ces
deux sous-espaces. La notion des angles principaux introduite par Jordan [38],
répond à cette question. Pour notre étude, on peut simplement considérer des
sous-espaces ayant la même dimension. Toutes les démonstrations des résultats,
énoncées dans cette partie, se trouvent dans [19], [29] et [71].
σi (P A, P B) = σi (Ā, B̄)
4. Si C̄, D̄ ∈ Gm (Rn ) sont tels que σi (C̄, D̄) = σi (Ā, B̄), alors il existe Q ∈
O(n) tel que
QA = C et QB = D
51
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
Théorème 2.3.36 Soient R̄, Ȳ dans Gm (Rn ) avec d(R̄, Ȳ ) < π/2, alors
1. l'équation de la géodésique qui réalise la distance entre R̄, Ȳ , s'écrit
où Ũ Σ̃ t Ṽ = Y (t R Y )−1 − R
2. d(R̄, Ȳ ) = k tan−1 (Σ̃)kF
3. Soit t R Y = U Σ t V , alors :
c'est-à-dire
dθ (R̄, Ȳ ) = d(R̄, Ȳ )
Maintenant,
γ(0) = R Ṽ
= R
et comme
cos(tan−1 (Σ̃)) = Σ̃−1 sin(tan−1 (Σ̃)) = (Im + Σ̃2 )−1/2
52
2.3. LA VARIÉTÉ DE GRASSMANN
on a,
= L(γ)
= kγ 0 (t)kg
= k tan−1 (Σ̃)kF
Ainsi, on a montré les points 1 et 2. Pour montrer le point 3, on part de l'expres-
sion Ũ Σ̃ t Ṽ = Y (t R Y )−1 − R, d'un côté on a :
t
[Y (t R Y )−1 − R][Y (t R Y )−1 − R] = t (t RY )−1 (t RY )−1 − Im
= t [(U Σ t V )−1 ][(U Σ t V )−1 ] − Im
= t [V Σ−1 t U ][V Σ−1 t U ] − Im
= [U Σ−1 t V ][V Σ−1 t U ] − Im
= U Σ−2 t U − Im
= U (Σ−2 − Im ) t U
d'un autre côté,
t
[Ũ Σ̃ t Ṽ ] Ũ Σ̃ t Ṽ = Ṽ Σ̃2 t Ṽ
53
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
pour tout P ∈ O(n). Alors d s'écrit en fonction des angles θi (Ā, B̄) pour 1 6 i 6
m.
m
!1/2
X
Chordal d(Ā, B̄) = sin(θi ) 2 √1 kA t A
2
− B t BkF
i=1
2.4 Conclusion
Dans ce chapitre on a présenté les principaux aspects géométriques de la va-
riété de Grassmann. Nous avons étudié en détail sa structure topologique, dié-
rentielle, métrique et la distance géodésique. On a démontré que les applications
exponentielle et logarithme géodésiques admettent des représentations uniques
en termes de matrices et que la distance géodésique entre deux points s'exprime
en termes des angles principaux. On a présenté aussi la variété de Stiefel et on a
54
2.4. CONCLUSION
55
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN
56
Chapitre 3
Grassmann
Contents
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 58
3.2 Exemple : Interpolation sur le cercle S 1 . . . . . . . . 61
3.3 Interpolation sur la variété de Grassmann dans le cas
général Gm (Rn ) . . . . . . . . . . . . . . . . . . . . . . . 65
3.3.1 Choix du point de référence. . . . . . . . . . . . . . . . 66
3.3.2 Estimation de l'erreur d'interpolation . . . . . . . . . . 67
3.4 Exemples d'applications . . . . . . . . . . . . . . . . . 69
3.4.1 Équation de Burgers . . . . . . . . . . . . . . . . . . . 69
3.4.2 Écoulement autour d'un cylindre . . . . . . . . . . . . 71
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 73
57
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN
3.1 Introduction
Nous nous intéressons à l'interpolation des bases POD correspondant aux so-
lutions d'équations aux dérivées partielles d'évolution paramétrique. Un exemple
intéressant est celui des équations de Navier-Stokes où le paramètre variable est
le nombre de Reynolds. Dans de tels problèmes, la solution dépend d'un para-
mètre λ ∈ RP . Supposons que la solution, qui appartient à un espace de fonction
H , soit connue pour λ1 , · · · , λN . Ces solutions sont en général calculées avec des
méthodes de discrétisation aux coûts de calcul élevés tels que les éléments nis,
les volumes nis, etc. Notre objectif est de construire des modèles réduits (de
faible dimension) pour calculer une approximation de la solution pour une nou-
velle valeur de paramètre λ.
Exemple 3.1.1 Soient Φ̄1 et Φ̄2 deux points diérents dans G1 (R3 ), grâce à la
proposition 2.3.31, la variété de Grassmann G1 (R3 ) est diéomorphe à la variété
quotient S 2 /x ∼ −x donc nous pouvons considérer Φ1 , Φ2 ∈ S 2 avec Φ1 6= −Φ2 .
Si on considère l'interpolateur comme une droite passant par Φ1 et Φ2 , les points
interpolés s'écrivent :
D(λ) = Φ1 + λ(Φ2 − Φ1 ).
Pour λ = 21 , on a |D(λ)|2 = 1
2
+ 1
2
< Φ1 , Φ2 >6= 1. On représente cette situation
dans le graphique suivant :
58
3.1. INTRODUCTION
vλ
b
v4
v1 b b
b
u
b
v5
u u
v2
b
u
expΦr
u
u
Φ̄λ
Φ̄4
−1
expΦ̄r Φ̄r Φ̄5
Φ̄2
Gm (Rn )
Φ̄1
59
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN
Dans l'exemple suivant nous allons comparer la base POD obtenue par une
interpolation naïve et la base POD obtenue par une interpolation grassmannienne
[9] dans le cas de l'écoulement 2D autour d'un cylindre (paragraphe 1.4.2).
Exemple 3.1.2 Nous calculons les solutions complètes pour les nombres de Rey-
nolds Re ∈ {100, 120, 130, 160, 170, 200}. Pour chaque solution, nous calculons la
base POD associée. Maintenant, on considère une nouvelle valeur Re = 110 et
on note Φ la base POD associée. Soit ai (t) le coecient temporel projeté sur la
base Φ, associé au mode Φi , c'est-à-dire
ai (t) = (u, Φi ).
60
3.2. EXEMPLE : INTERPOLATION SUR LE CERCLE S1
t(v − p)
γ(t) = p cos(t||v − p||) + sin(t||v − p||)
||t(v − p)||
v−p
expp (v) = p cos(||v − p||) + sin(||v − p||)
||v − p||
61
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN
On s'aperçoit que tous les points sur le cercle admettent une seule pré-image
dans l'espace tangent Tp S 1 sauf −p. Le plus grand nombre positif r, tel que l'ap-
plication expp : Ir (p) → S 1 est un diéomorphisme, s'appelle rayon d'injectivité
en p. Dans le cas du cercle il est égal à π . On peut mettre en évidence cette valeur
k
62
3.2. EXEMPLE : INTERPOLATION SUR LE CERCLE S1
63
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN
64
3.3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN DANS LE CAS
GÉNÉRAL GM (RN )
Ainsi
y
p
expq (β(t)) = p cos(tc) + sin(tc)
||y||
α(t) − p
= cos(||α(t) − p||) + sin(α(t) − p)
||α(t) − p||
= expp (α(t))
65
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN
où π|−1
Ur
: π(Ur ) → Ur est l'application dénie par
π|−1
U
(Y ) = Y ( t Φr Y )−1
r
66
3.3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN DANS LE CAS
GÉNÉRAL GM (RN )
et
exp−1
Φ¯r
(Φi ) = dΦr π(Γi )
où
Hr = {Z ∈ Rn×m : t
Φr Z = 0}
est l'espace horizontal au point Φr . Ainsi, on peut choisir une méthode d'inter-
polation dans l'espace vectoriel Hr ⊂ Rn×m pour interpoler les matrices {Γi }N i=1 .
Soit Γλ la matrice interpolée associée au paramètre λ, par la proposition 2.3.19 à
partir de la décomposition
U Σ t U = Γλ ( t Φr Φr )−1/2
Barycentre géodésique
Une autre possibilité pour choisir un point de référence Φr ∈ Gm (Rn ), est de
considérer le barycentre du triangle géodésique, formé par les points Φr0 , Φr1 et
Φr2 où, λr0 , λr1 , λr2 sont les paramètres les plus proches du paramètre λ.
67
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN
5 Γλ = Interpolateur(Γ1 , · · · , ΓN , λ)
6 U Σ t V = Γλ ( t Φr Φr )−1/2
7 ΦI (λ) ← Φr ( t Φr Φr )1/2 V cos(Σ) + U sin(Σ) t V (t Φr Φr )1/2
8 retourner ΦI (λ)
68
3.4. EXEMPLES D'APPLICATIONS
P
D'un autre côté, l'application P (λ) := qj=1 Pj (λ)ej ∈ TΦr Gm (Rn ) est telle
que P (λi ) = v(λi ) pour tout i ∈ {1, · · · , N } et
q
X
2
||v(λ) − P (λ)|| = |vj (λ) − Pj (λ)|2
j=1
2 X
q
(λ − λ0 ) · · · (λ − λN )
6 ||vjN +1 ||2∞ .
(N + 1)! j=1
Donc,
|(λ − λ0 ) · · · (λ − λN )|
||v(λ) − P (λ)|| 6 M (3.3)
(N + 1)!
q
!1/2
X
où M = ||vjN +1 ||2∞ .
j=1
où C = Kr M
1 2
ut (x, t) + 2 (u(x, t) )x − νuxx (x, t) = 0 pour x ∈ Ω
u(0, t) = u(2, t) = 0 (3.4)
u(x, 0) = sin(π x).
69
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN
Dans la gure 3.8 on compare les coecients projetés ai (t) et les coecients
dynamiques interpolés âIi (t). Les résultats obtenus sont très satisfaisants, on re-
marque que les coecients temporels dominants (le premier et le deuxième) obte-
nus par le système dynamique réduit associé à la base interpolée sont les mêmes
que ceux obtenus par la POD exacte.
70
3.4. EXEMPLES D'APPLICATIONS
% d'erreur de reconstruction
Base interpolée 9.1677737640655907e-06
Base de référence 7.7764191778745097e-08
Pour chaque solution nous calculons la base POD associée et nous considérons
la nouvelle valeur Re = 150. Comme dans l'exemple 3.1.2 on note ai (t) et âi (t)
les coecients temporels projetés et dynamiques associés à la base de référence.
On note âIi (t) les coecients dynamiques associés à la base interpolée.
Dans la gure 3.9 on compare les coecients temporels ai (t), âi (t) et âIi (t).
On s'aperçoit que le coecient interpolé reproduit les mêmes résultats que ceux
obtenus par la POD de référence.
Pour avoir une information plus précise de coecients temporels, dans la gure
71
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN
La gure (3.10) nous montre que les deux premiers coecients interpolés
approchent bien les coecients associés à la base de référence. Cependant, les
coecient 3 et 4 sont moins précis.
Pour chaque solution nous calculons la base POD associée et nous considérons
la nouvelle valeur Re = 150. Nous prenons comme point de référence les bases
associées à 100 et 170.
72
3.5. CONCLUSION
La gure (3.11) nous montre que la base interpolée obtenue en prenant comme
point de référence la base associée à Re = 100 est moins précise que la base
interpolée obtenu en prenant comme point de référence la base associée à Re =
170.
3.5 Conclusion
Dans ce chapitre on a présenté la méthode d'interpolation sur la variété de
Grassmann proposée par Amsallem et Farhat [9]. Nous avons discuté les hypo-
thèses sous lesquelles la méthode s'applique et nous avons présenté une estimation
73
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN
locale de l'erreur d'interpolation ainsi qu'un autre critère pour choisir le point de
référence. Nous avons vu que cette méthode permet exploiter toutes les méthodes
d'interpolation existantes dans un espace vectoriel, à condition d'avoir choisi un
point de référence. Cependant, comme on l'a vu au chapitre 2, la variété de
Grassmann Gm (Rn ) n'est pas un espace vectoriel, mais une variété de dimension
m × (n − m) et possède une courbure sectionnelle non-constante appartenant à
[0, 2]. Elle possède donc une géométrie plus riche que celle d'un espace vectoriel
d'où l'importance de développer d'autres méthodes d'interpolation.
74
Chapitre 4
IDW Grassmannienne
Contents
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 76
4.2 IDW-Grassmannien . . . . . . . . . . . . . . . . . . . . 77
4.3 Algorithme IDW-G . . . . . . . . . . . . . . . . . . . . 79
4.4 Validation numérique . . . . . . . . . . . . . . . . . . . 83
4.5 Le barycentre généralisé (BG) . . . . . . . . . . . . . . 86
4.6 Validation numérique . . . . . . . . . . . . . . . . . . . 89
4.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 92
75
CHAPITRE 4. IDW GRASSMANNIENNE
4.1 Introduction
Dans le cas d'un espace vectoriel la méthode de pondération par Distance
Inverse (IDW) est une méthode classique d'interpolation, largement utilisée dans
l'analyse spatiale en géographie et en hydrologie [25, 28, 74] pour prédire des
phénomènes dans des zones non échantillonnées. Soient y(λ1 ), · · · , y(λN ) N points
d'un espace vectoriel E associés aux paramètres Λ = {λ1 , · · · λN } ⊂ RP et λ
un nouveau paramètre. Dans la méthode IDW les points y(λ1 ), · · · , y(λN ) sont
pondérés de telle sorte que l'inuence d'un point par rapport à un autre diminue
avec la distance entre les paramètres de Λ et le paramètre λ. Plus précisément,
le point interpolé ŷ(λ) est donné par
N
X
ŷ(λ) = αi (λ)y(λi ), (4.1)
i=1
X N
1 1
où αi (λ) = q
, avec S(λ) = q
, et q ∈ N∗ .
S(λ) d(λi , λ) i=1
d(λ, λi )
N
X
On a (α1 (λ), · · · , αN (λ)) ∈ [0, 1] N
et αi (λ) = 1. Ainsi le point est un
i=1
barycentre pondéré des points y(λ1 ), · · · , y(λN ). Il peut être aussi caractérisé en
termes de la distance de l'espace E par
N
1X
ŷ(λ) = arg min αi (λ) ky(λi ) − yk2E . (4.2)
y∈E 2 i=1
Nous allons utiliser cette notion de barycentre pondéré de Karcher pour gé-
néraliser la méthode IDW au cas de la variété de Grassmann Gm (Rn ). Nous
1. Notion introduite par Élie Cartan en 1920 dans le cadre des groupes de Lie à courbure
non-positive.
76
4.2. IDW-GRASSMANNIEN
4.2 IDW-Grassmannien
Soient y(λ1 ), · · · , y(λN ), N points de la variété de Grassmann Gm (Rn ), as-
sociés à l'ensemble de paramètres Λ = {λ1 , · · · , λN } où λi ∈ RP , pour tout
i ∈ {1, · · · , N } (P ∈ N, P ≥ 1). Dans la suite, on note y(λi ) = yi . Pour chaque
λ ∈ RP , on dénit l'application associée aux points y1 , · · · , yN par :
Fλ : Gm (Rn ) −→ R+
N
X
y 7→ Fλ (y) = 1
2
αi (λ) d2 (y, yi )
i=1
N
X
où (α1 (λ), · · · , αN (λ)) ∈ [0, 1]N avec αi (λ) = 1 et d est la distance rie-
i=1
i=1 peuvent dépendre des paramètres
mannienne sur Gm (Rn ). Les poids {αi (λ)}N
{λi }i=1 .
N
(Pλ )
ŷ(λ) = arg min Fλ (y)
y∈Gm (Rn )
N
X
∇Fλ (x) = − αi (λ) exp−1
x (yi ). (4.4)
i=1
77
CHAPITRE 4. IDW GRASSMANNIENNE
1 π
rc = min{rI , √ }
2 4
π
=
4
De plus, grâce au théorème 2.3.29, pour r < rc , la boule B(y ∗ , r) est forte-
ment convexe.
(ii) Pour r < 4√π 2 l'application y 7→ d2 (y, z) est strictement convexe pour tout
z dans B(y ∗ , r), [4, 40]. Ainsi, on peut assurer l'unicité du Problème (Pλ ) à
l'intérieur de la boule, de rayon égal à min{ 4√π 2 , rc } = 4√π 2 .
D'autre part, une démonstration de (4.4) se trouve dans [39].
1
αi (λ) = (4.5)
S(λ) d(λ, λi )q
N
X 1
où S(λ) = q
, avec q ∈ N∗ , on retrouve l'algorithme classique d'interpo-
i=1
d(λ, λi )
lation de pondération à l'inverse de la distance (IDW) dans un espace vectoriel.
Dans le cas de la variété de Grassmann Gm (Rn ), cet algorithme sera noté par
IDW-G.
78
4.3. ALGORITHME IDW-G
Alors,
(i) expyb` (w` ) = span Y` (t Y` Y` )−1/2 V` cos(Σ` ) + U` sin(Σ` ) , où
(ii) exp−1
yb (yi ) = U` tan (Σ` ) V` , où
e −1 e te
`
e Σ
U`
e t Ve = [Φi (t Y Φi )−1 (t Y Y ) − Y ](t Y Y )−1/2
` ` ` ` ` ` ` `
est une SVD.
Lemme 4.3.1 Si les points y1 , · · · , yN se trouvent dans la boule B(y ∗ , r) alors,
pour chaque y ∈ B(y ∗ , r), il existe 0 < ty 6 21 , tel que si ∇Fλ (y) 6= 0
79
CHAPITRE 4. IDW GRASSMANNIENNE
80
4.3. ALGORITHME IDW-G
Preuve . S'il existe `∗ ∈ N tel que ∇Fλ (ŷ` ∗ ) = 0, alors par le théorème 4.2.1, ŷ`∗
est la solution du problème (Pλ ) et par construction ŷ` = ŷ`∗ pour tout ` > `∗ .
Ainsi la suite (ŷl ) converge vers la solution du problème (Pλ ).
Maintenant, on suppose que ∇Fλ (ŷ` ) 6= 0 pour tout ` ∈ N, par le lemme 4.3.1
on obtient :
t
Fλ (ŷ` ) − Fλ (γŷ` (t)) > ||∇Fλ (ŷ` )||2
2
tŷ`
Fλ (ŷ` ) − Fλ (γŷ` (tŷ` )) > ||∇Fλ (ŷ` )||2
2
tŷ`
Fλ (ŷ` ) − Fλ (ŷ`+1 ) > ||∇Fλ (ŷ` )||2 , car ŷ`+1 = γŷ` (tŷ` )
2
tŷ`
Fλ (ŷ` ) > ||∇Fλ (ŷ` )||2 + Fλ (ŷ`+1 )
2
> Fλ (ŷ`+1 ) > 0
Ainsi, la suite Fλ (ŷ` ) est convergente. D'un autre côté, soit ŷ ∈ B(y ∗ , r) une valeur
d'adhérence de la suite (yˆ` )` , alors par continuité (Fλ (yˆ` ))` converge vers Fλ (ŷ).
Comme
tyb`
y`+1 ) >
y` ) − Fλ (b
Fλ (b y` )||2 ,
||∇Fλ (b ∀` ∈ N
2
alors par continuité des applications y 7−→ ty et y 7−→ ∇Fλ y sur B(y ∗ , r), on
obtient 0 > k∇Fλ (by )k et donc ∇Fλ (b
y ) = 0. Ainsi, la suite (b
y` )` admet yb comme
unique valeur d'adhérence.
81
CHAPITRE 4. IDW GRASSMANNIENNE
82
4.4. VALIDATION NUMÉRIQUE
Dans le tableaux 4.1 nous comparons les erreurs de reconstruction pour les
deux méthodes. On peut voir que les ordres de grandeur des erreurs sont les
mêmes pour les deux méthodes.
Méthode % Erreur de reconstruction
Reference 4.0030984515359185e-05
IDW-G 4.8036660718029034e-05
G-Spline O3 4.741833294352852e-05
Nous allons conrmer ces résultats, en comparant dans la gure 4.1 les trois
coecients dynamiques âi (t), âI,IDW
i
G
(t) et âI,G
i (t). Nous voyons que les coe-
cients temporels associés aux bases interpolées approchent bien ceux obtenus par
la base POD de référence.
83
CHAPITRE 4. IDW GRASSMANNIENNE
Dans le tableaux 4.2 nous comparons les erreurs de reconstruction associées aux
bases interpolées et celles obtenues à partir de la base de référence.
Dans la gure (4.2) nous comparons les coecients dynamiques âi (t) associés
à la base de référence avec ceux associés aux bases interpolées. Nous voyons que
les deux premiers coecients associés aux bases interpolées approchent bien ceux
associés à la base de référence. Cependant, la IDW-G est plus précise pour les
derniers coecients.
84
4.4. VALIDATION NUMÉRIQUE
Pour une estimation plus précise, dans la gure (4.3) nous comparons les
écarts relatifs des coecients temporels. Nous nous apercevons plus clairement
que les derniers coecients associés à la méthode IDW-G sont plus précis que
ceux obtenus par l'interpolation de Amsallem et Faraht [9].
85
CHAPITRE 4. IDW GRASSMANNIENNE
L'algorithme d'interpolation IDW-G que l'on a proposé ici, n'a pas besoin de
point de référence et en plus, il donne de meilleurs résultats sur les cas étudiés que
l'algorithme d'interpolation AF-G. Cependant, il présente le défaut d'être itératif.
Ainsi nous proposons un algorithme explicite basé sur une notion de barycentre
généralisé.
1
3
b
y1 1 y2
2 Q
86
4.5. LE BARYCENTRE GÉNÉRALISÉ (BG)
cela il sut de remplacer les segments de droites dans un espace vectoriel pour
les géodésiques dans une variété riemannienne, comme le montre la gure (4.6)
ci-dessous.
Φ3
Gm (Rn )
Φ1 Φ2
Exemple 4.5.2 Si l'on remplace M par l'espace vectoriel Rn , alors pour chaque
1 6 i 6 N − 1, on obtient :
i+1
X
1
Qi = αk yk
α1 + · · · + αi+1 k=1
N
X
Ainsi, QN −1 = αk yk est le barycentre de l'ensemble des points Y , pondéré par
k=1
les poids de W .
Dénition 4.5.3 Soient { Φ(λ1 ), Φ(λ2 ), Φ(λ3 ) } trois points de la variété de Grass-
mann Gm (R ) associés aux paramètres {λ1 , λ2 , λ3 } ⊂ RP .
n
87
CHAPITRE 4. IDW GRASSMANNIENNE
2. αi (λk ) = δi,k
Pour un nouveau paramètre λ ∈ RP , la valeur estimée de Φ(λ) est donnée par
où
pour i = 1, 2
ΓQi−1 ,Φ(λi+1 ) : [0, 1] → Gm (Rn )
7 retourner QN −1
Remarques 4.5.4
1. Un grand avantage de la méthode d'interpolation basée sur la notion de
barycentre généralise, est qu'elle permet un calcul exact et très rapide.
88
4.6. VALIDATION NUMÉRIQUE
Dans le tableau 4.3 nous comparons les erreurs de reconstruction associées aux
bases interpolées et celles obtenues à partir de la base de référence.
Dans la gure (4.7) nous comparons les coecients dynamiques âi (t) associés
à la base de référence avec ceux associés aux bases interpolées. Nous voyons que
la méthode IDW-G et BG, donne les mêmes approximations.
89
CHAPITRE 4. IDW GRASSMANNIENNE
90
4.6. VALIDATION NUMÉRIQUE
91
CHAPITRE 4. IDW GRASSMANNIENNE
4.7 Conclusion
La méthode IDW-G est une nouvelle méthode d'interpolation sur la variété de
Grassmann qui ne dépend pas d'un choix du point de référence. Cette méthode
généralise au cadre de variétés riemanniennes la méthode de pondération par in-
verse de la distance (IDW). Nous avons constaté dans les exemples traités, que
les résultats obtenus par la IDW-G sont plus pertinents que ceux obtenus par la
méthode d'Amsallem et Farhat [9]. Cependant, l'algorithme IDW-G est itératif.
Ainsi, nous avons proposé un algorithme d'interpolation explicite, qui est une
variante de la IDW-G, basé sur un notion de barycentre généralisé (BG). Cette
méthode est plus précise que les méthodes IDW-G et AF-G pour les cas traités.
92
Chapitre 5
Contents
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 94
5.2 Krigeage Grassmannien . . . . . . . . . . . . . . . . . . 95
5.2.1 Semi-variogramme expérimental . . . . . . . . . . . . . 99
5.2.2 Variogramme analytique . . . . . . . . . . . . . . . . . 100
5.3 Validation numérique . . . . . . . . . . . . . . . . . . . 101
5.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 105
93
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN
5.1 Introduction
Soient x(λ1 ), · · · , x(λN ), N points dans un espace vectoriel E , associés aux
paramètres Λ = {λ1 , · · · , λN } ⊂ RP . Étant donné le nouveau paramètre λ ∈ RP ,
pour déterminer la valeur estimée x̂(λ) de x(λ) par la méthode d'interpolation
IDW, on considère des poids αi (λ) ∈ R comme fonction de d(λ, λi ), de façon à
ce que les paramètres les plus proches aient plus d'inuence dans l'interpolation.
N
X
La valeur estimée est le barycentre pondéré x̂(λ) = αi (λ) x(λi ).
i=1
94
5.2. KRIGEAGE GRASSMANNIEN
Dénition 5.2.2 Soit δ : (Ω, F, P) → (E, B(E)), une variable aléatoire de carré
intégrable. La moyenne de Fréchet de δ , noté par M(δ), est dénie par
Z
M(δ) = argmin kδ(w) − xk2E dP(w).
x∈E Ω
Dénition 5.2.3 Le variogramme d'un processus aléatoire du second ordre {δλ }λ∈D ,
est la fonction γE : D × D → R, dénie par
γE (λ + h, λ0 + h) = γE (λ, λ0 )
95
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN
suivantes :
1. Il existe Φ̄r ∈ Gm (Rn ) avec d( Φr , Φ(λi ) ) < π2 pour tout i ∈ {1, · · · , N }.
2. Il existe un processus aléatoire Z , indexée par D, et à valeur dans TΦ̄r Gm (Rn )
de la forme Z = µ + δ , tel que :
Z(λi ) = exp−1
Φ̄r
(Φ(λi ))
pour tout i ∈ {1, · · · , N }, où µ est un champ aléatoire, δ est un proces-
sus aléatoire, indexée par D, et à valeur dans TΦ̄r Gm (Rn ) intrinsèquement
stationnaire et exp−1
Φ̄r
est l'inverse de l'exponentielle géodésique.
Alors, étant donné λ∗ ∈ D, il existe (α1 (λ∗ ), · · · , αN (λ∗ )) ∈ RN telle que
2
X N
∗
(α1 (λ ), · · · , αN (λ )) = argmin E
∗ ∗ αi Z(λi ) − Z(λ )
(5.2)
(α1 ,··· ,αN )∈RN
i=1
XN
αi = 1
i=1
N
X
∗
Ẑ(λ ) = αi (λ∗ ) Z(λi ) est appelé valeur estimée de Z(λ∗ ).
i=1
N
X N
X
∗
αi Z(λi ) − Z(λ ) = αi (µ + δi ) − µ − δ∗
i=1 i=1
N
! N
X X
= αi µ−µ+ αi δi − δ∗
i=1 i=1
N
X
= αi (δi − δ∗ )
i=1
96
5.2. KRIGEAGE GRASSMANNIEN
Donc,
2
2
X N
X N
E
αi Z(λi ) − Z(λ∗ )
= E
α i δi − δ∗
i=1 i=1
2
X N
XN
= E
α i δi
− 2 αi < δi , δ∗ > + kδ∗ k2
i=1 i=1
" N N
#
X X
=E αi αj < δi , δj > − αi kδi k2 +
i,j=1 i=1
| {z }
(a)
" N N
#
X 2
X 2
E αi kδi k − 2 αi < δi , δ∗ > + kδ∗ k
i=1 i=1
| {z }
(b)
N
X N
X N
X
(a) = αi αj < δi , δj > − αj αi kδi k2
i,j=1 j=1 i=1
N
X N N
1X 1X
= αi αj < δi , δj > − αi αj kδi k2 − αi αj kδj k2
i,j=1
2 i,j=1 2 i,j=1
N
1X
=− αi αj −2 < δi , δj > + kδi k2 + kδj k2
2 i,j=1
N
1X
=− αi αj kδi − δj k2
2 i,j=1
et le terme (b)
97
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN
N
X N
X
2
(b) = αi kδi k − 2 αi < δi , δ∗ > + kδ∗ k2
i=1 i=1
XN
= αi kδi k2 − 2 < δi , δ∗ > + kδ∗ k2
i=1
XN
= αi kδi − δ∗ k2
i=1
Ainsi, on a
2 " # " N #
XN
1
N
X X
2 2
E
αi Z(λi ) − Z(λ∗ )
= E − αi αj kδi − δj k + E αi kδi − δ∗ k
2
i=1 i,j=1 i=1
N N
1X 2
X
=− αi αj E kδi − δj k + αi E kδi − δ∗ k2
2 i,j=1 i=1
N
X N
X
=− αi αj v(λi − λj ) + 2 αi v(λi − λ∗ )
i,j=1 i=1
G ∈ RN ×N et G∗ ∈ RN ×1 (5.3)
98
5.2. KRIGEAGE GRASSMANNIEN
99
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN
9 a ← hd+1
10 c ← ṽd+1
100
5.3. VALIDATION NUMÉRIQUE
deux modèles classiques de variogrammes de type sphérique, qui sont bien adaptés
à nos exemples tests.
1. Modèle sphérique de palier c et de portée a :
(
c 3h
2a
− 1 h3
2 a3
pour 0 6 h 6 a
ṽ(h) =
c pour h > a.
2. Modèle pentasphérique de palier c et de portée a :
(
c 15 h
8a
− 5 h3
4 a3
+ 3 h5
8 a5
pour 0 6 h 6 a
ṽ(h) =
c pour h > a.
Ainsi, pour un nouveau paramètre λ∗ ∈ D en choisissant un modèle analytique,
on peut calculer les matrices G et G∗ comme dans 5.3.
101
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN
Pour une estimation plus précise, dans la gure (5.3) nous comparons les er-
reurs relatives ∆CD et ∆CL des coecients aérodynamiques. Comme le montre la
gure (5.3) nous retrouvons que la méthode de krigeage grassmannien reproduit
presque les mêmes coecients associés à la base de référence. C'est une méthode
plus précise que celles que nous avons proposées dans les chapitres précédentes
Maintenant, pour le nombre de Reynolds, nous allons prendre les valeurs sui-
vantes :
{100, 160, 170, 180, 200}
et nous allons comparer les méthodes de krigeage grassmannien, IDW-G et celles
d'Amsallem et Farhat [9]. Nous interpolons en
Re = 110.
102
5.3. VALIDATION NUMÉRIQUE
Dans la gure (5.4) nous comparons les coecients dynamiques âi (t) associés
à la base de référence avec ceux associés aux bases interpolées. Nous voyons
que les trois méthodes d'interpolation donnent une bonne approximation des
deux premiers coecients. Cependant, pour les deux derniers coecients, c'est le
krigeage et la méthode IDW-G qui donnent les meilleurs résultats.
Pour une estimation plus précise, dans la gure (5.5) nous comparons les er-
reurs relatives des coecients temporels ∆â(t) et nous constatons là encore, que
c'est le krigeage grassmannien qui donne les meilleures approximations.
103
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN
5.4 Conclusion
Dans ce chapitre nous avons présenté la méthode de krigeage grassmannien.
Cette méthode est basée sur une notion statistique qui prend en compte l'or-
ganisation spatial de données. Les coecients de pondération par krigeage sont
déterminés comme solution d'un problème de minimisation de la variance de l'er-
reur d'approximation. Nous avons constaté la performance de cette méthode dans
les exemples.
105
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN
106
Chapitre 6
Grassmannien
Contents
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 108
6.2 Algorithme d'interpolation Neville Grassmannien . . 109
6.2.1 Barycentre entre deux points . . . . . . . . . . . . . . 109
6.2.2 Algorithme de Neville Grassmannien . . . . . . . . . . 110
6.3 Validation numérique . . . . . . . . . . . . . . . . . . . 113
6.4 Bilan des diérentes méthodes d'interpolation . . . . 116
6.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 119
107
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE
6.1 Introduction
L'algorithme de Neville fournit une méthode récursive permettant de construire
l'interpolation des fonctions régulières par des polynômes de Lagrange. Il est basé
sur l'interpolation linéaire deux points par deux points. Illustrons le principe de
l'algorithme sur un exemple simple de l'interpolation à partir de trois points.
Soient y1 , y2 , y3 trois points dans Rn , associés aux paramètres {λ1 , λ2 , λ3 } ⊂ R.
Pour un paramètre λ on souhaite construire l'interpolation donnée par un poly-
nôme de degré deux passant par les trois points. Pour cela, on considère d'abord
le segment de droite passant par y1 en λ1 et y2 en λ2 :
λ2 − λ λ − λ1
Γ1,2 (λ) = y1 + y2
λ2 − λ1 λ2 − λ1
et le segment de droite passant par y2 en λ2 et y3 en λ3 :
λ3 − λ λ − λ2
Γ2,3 (λ) = y2 + y3
λ3 − λ2 λ3 − λ2
On peut remarquer que Γ1,2 (λ) est le barycentre de y1 et y2 pondéré respective-
λ2 − λ λ − λ1
ment par les poids et . Une remarque similaire peut être faite
λ2 − λ1 λ2 − λ1
pour Γ2,3 (λ).
y1 y2 y3
Γ(λ)
108
6.2. ALGORITHME D'INTERPOLATION NEVILLE GRASSMANNIEN
La dénition 6.2.1 est locale, en eet par théorème 2.3.21 si y1 , y2 se trouvent dans
une boule de rayon π2 , l'existence de la géodésique Γy1 ,y2 est assurée. Dans le cas
où l'on travaille dans un espace vectoriel E et non dans Gm (Rn ), la géodésique
qui relie y1 à y2 est le segment de droite
Γy1 ,y2 (λ) = (1 − λ) y1 + λ y2
ainsi,
Γy1 ,y2 (α2 ) = α1 y1 + α2 y2
est le barycentre pondéré de y1 , y2 .
Pour deux points, le barycentre donné par la dénition 6.2.1 coïncide avec le
barycentre au sens de Karcher, comme nous allons le montrer dans la proposition
suivante :
Proposition 6.2.2 Le barycentre de y1 et y2 pondéré par α1 , α2 ∈ [0, 1] avec
α1 + α2 = 1, donné par la dénition 6.2.1 coïncide avec le barycentre au sens de
Karcher, c'est-à-dire, si l'on note ŷ = Γy1 ,y2 (α2 ), alors
ŷ = arg min F (y)
y∈Gm (Rn )
109
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE
y1 (y2 ). Alors la
Soit Γy1 ,y2 (λ) = expy1 (λv) la géodésique reliant y1 à y2 où v = exp−1
courbe γ1 : [0, 1] → Gm (R ) dénie par γ1 (λ) = Γy1 ,y2 (α2 (1−λ)) est la géodésique
n
reliant ŷ à y1 et
exp−1 0
ŷ (y1 ) = γ1 (0)
= −α2 Γ0y1 ,y2 (α2 )
= −α2 Φα2 ,0 Γ0y1 ,y2 (0)
= −α2 Φα2 ,0 (v)
où Φα2 ,0 : Ty1 Gm (Rn ) → Ty Gm (Rn ) est le transport parallèle le long de Γy1 ,y2 .
De même, la courbe γ2 : [0, 1] → Gm (Rn ), dénie par γ2 (λ) = Γy1 ,y2 (α2 + α1 λ)
est la géodésique reliant ŷ à y2 et vérie
exp−1 0
ŷ (y2 ) = γ2 (0)
= α1 Γ0y1 ,y2 (α2 )
= α1 Φα2 ,0 Γ0y1 ,y2 (0)
= α1 Φα2 ,0 (v)
Γ1,3 : R → Gm (Rn )
telle que
Γ1,3 (λ1 ) = y1 , Γ1,3 (λ2 ) = y2 et Γ1,3 (λ3 ) = y3 . (6.3)
D'abord, nous considérons l'application
λ − λ1
Γ1,2 (λ) = Γ y1 , y2 , λ1 , λ2 ,
λ2 − λ1
110
6.2. ALGORITHME D'INTERPOLATION NEVILLE GRASSMANNIEN
où
λ − λ1
Γ y1 , y2 , λ1 , λ2 ,
λ2 − λ1
est une reparamétrisation de l'unique géodésique passant par y1 en λ = 0 et par
y2 en λ = 1, donnée par le théorème 2.3.36. Ainsi, nous avons
111
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE
et
Ainsi, nous avons construit une application Γ1,3 (λ) : R → Gm (Rn ) qui vérie
(6.3). Dans le cas d'un nombre ni de points, la méthode s'énonce comme suit.
Γ(λi ) = yi (6.4)
où
λ − λi
Γ(yi , yi+1 , λi , λi+1 , )
λi+1 − λi
est une reparamétrisation de l'unique géodésique donnée par le théorème 2.3.36,
passant par yi en λ = 0, yi+1 en λ = 1. Nous avons
Γi,i+1+j (λk ) = yk
112
6.3. VALIDATION NUMÉRIQUE
Dans la gure (6.2) nous comparons les coecients dynamiques âi (t) associés à
la base de référence avec ceux associés aux bases interpolées. Nous voyons que les
trois méthodes d'interpolation donnent une bonne approximation des deux pre-
miers coecients. Cependant, pour les deux derniers coecients, les algorithmes
de Neville grassmannien et de Krigeage donnent les meilleures prédictions.
Dans la gure (6.3) nous comparons les erreurs relatives dynamiques Ɖ(t)
associées à la base de référence avec celles associées aux bases interpolées. Nous
voyons que là encore ce sont les algorithmes de Neville grassmannien et de Kri-
geage grassmannien qui sont les plus précis.
113
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE
114
6.3. VALIDATION NUMÉRIQUE
115
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE
116
6.4. BILAN DES DIFFÉRENTES MÉTHODES D'INTERPOLATION
Cas 4.
Re ∈ {100, 160, 170, 180, 200}
La valeur cible du nombre de Reynolds est Re = 110.
117
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE
Case 5.
Re ∈ {100, 120, 130, 140, 200}
La valeur cible est Re = 190.
118
6.5. CONCLUSION
6.5 Conclusion
Dans ce chapitre nous avons présenté l'algorithme d'interpolation de Neville
grassmannien. Cette méthode généralise la notion d'interpolation polynomiale de
Lagrange au cadre des variétés riemanniennes en utilisant les géodésiques et ne
dépend pas du choix d'un point de référence.
Les comparaisons avec les autres méthodes, sur la conguration de l'écou-
lement 2D autour d'un cylindre, pour diérents jeux de valeurs du nombre de
Reynlods, montre que c'est l'algorithme d'interpolation de Neuville Grassmanien
qui est le plus performant parmi les diérents algorithmes proposés dans cette
thèse.
Dans ce chapitre, nous avons décrit l'algorithme d'interpolation de Neuville
Grassmanien dans le cas où le paramètre λ ∈ R. Pour λ ∈ RP , nous pouvons gé-
néraliser cet algorithme, mais son écriture devient moins aisée. Sous la forme ac-
tuelle, nous suggérons l'utilisation de l'algorithme d'interpolation Neuville Grass-
mannien pour λ ∈ R ou λ ∈ R2 . Pour une très grande valeur de P , l'algorithme
proposé peut devenir coûteux en temps de calcul.
119
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE
120
Chapitre 7
Conclusions et perspectives
Conclusions
Dans cette thèse, nous avons apporté de nouvelles contributions aux méthodes
d'interpolation sur les variétés de Grassmann. Ces variétés sont les objets mathé-
matiques adéquats en réduction de modèle par POD puisque les problèmes réduits
qui en découlent sont invariants par transformations orthogonales des bases POD.
Après avoir précisé le cadre théorique nécessaire aux méthodes d'interpolation
sur les variétés de Grassmann, nous avons explicité les opérations matricielles
sous-jacentes qui permettent la réalisation eective des algorithmes d'interpola-
tion sur ces variétés ainsi que le domaine de leur validité. Partant de l'algorithme
introduit par D. Amsallem et C. Farhat [9], nous avons proposé quatre nouveaux
algorithmes dont l'ecacité a été mise en évidence aussi bien sur le plan de la
précision des résultats que sur le plan du temps de calcul. L'algorithme de D.
Amsallem et C. Farhat repose sur le choix d'un point de référence (parmi les
points d'interpolation) dont l'espace tangent va jouer le rôle d'espace d'interpo-
lation. Par conséquent la qualité des résultats dépend fortement de ce point de
référence, mais on ne dispose pas d'une méthode ecace pour le choisir.
Dans un premier temps, nous avons proposé une méthode d'interpolation dont
le domaine de validité est clairement spécié et qui ne dépend pas du choix d'un
point de référence. Pour cela, nous avons étendu la méthode IDW (Inverse Dis-
tance Weighting) aux variétés de Grassmann, notre méthode est dénommée par
IDW-G. Cette méthode est basée sur la minimisation d'une fonction quadratique
en la distance géodésique aux points d'interpolation pondérée par des coecients
dépendant de l'inverse à la distance aux paramètres d'interpolation. Nous avons
montré la convergence de notre méthode de minimisation sous des conditions
assez raisonnables. Cet algorithme donne d'excellents résultats comparé à celui
introduit dans [9]. Notre algorithme est itératif et nos résultats dépendent de
la manière dont les coecients de pondération varient en fonction de l'inverse
à la distance aux paramètres d'interpolation. Pour nous aranchir du caractère
121
CHAPITRE 7. CONCLUSIONS ET PERSPECTIVES
itératif de la méthode IDW-G, nous en avons proposé une version directe, via
la notion de barycentre généralisé. Cette est méthode nettement plus rapide et
donne quasiment les mêmes résultats que ceux de IDW-G.
Ensuite, nous avons proposé une extension de la méthode de krigeage aux
variétés grassmanniennes. Cette méthode possède quelques similarités avec la
méthode IDW-G dans la mesure où la valeur estimée de l'interpolé est cherchée
également comme un barycentre pondéré. Cependant, les coecients de pondéra-
tion sont calculés de manière optimale en se basant sur les matrices de covariances
statistiques associées aux points d'interpolation considérés.
Le dernier algorithme que nous avons proposé est une extension de l'algo-
rithme de Neville qui calcule le polynôme d'interpolation de Lagrange de manière
récursive à partir de l'interpolation linéaire entre deux points. En remplaçant les
droites par les géodésiques, nous avons étendu cet algorithme aux variétés de
Grassmann, il est dénommé : Méthode de Neville Grassmannienne. Les ré-
sultats numériques de cette méthode sont excellents au niveau de la qualité des
approximations et également au niveau du temps de calcul.
Tous nos algorithmes ont été testés dans le cas d'un écoulement instationnaire
bidimensionnel d'un uide autour d'un cylindre.
Perspectives
Ce travail de thèse ouvre de nombreuses perspectives tant théoriques que
numériques. Nous pouvons citer quelques perspectives à court terme.
Sur le plan théorique, nous souhaitons établir des théorèmes de comparaison
entre les diérentes méthodes proposées dans cette thèse. La diculté fondamen-
tale est que, contrairement aux cas des espaces vectoriels, la notion d'interpolation
n'est pas simple à dénir sur les variétés, car des notions comme les polynômes
n'ont pas de sens. Cependant, la variété de Grassmann possède une structure
de variété algébrique lisse. Aussi, on peut espérer que les outils de la géométrie
algébrique puisse nous fournir des pistes pour répondre à la question.
Toujours sur le plan théorique, un grand enjeu est de construire une méthode
d'interpolation des champs de vecteurs des systèmes dynamiques réduits. Une
première question théorique importante est quelle est la structure géométrique
de l'espace de ces champs de vecteurs ? Peut-on construire une structure rieman-
nienne permettant des calculs explicites ? Ce sont des questions ouvertes dont
les retombées pratiques sont très importantes pour la réduction de modèles des
problèmes non linéaires.
Sur un plan similaire aux questions précédentes, comment interpoler direc-
tement non les bases POD mais les solutions réduites, qui peuvent être écrites
comme somme des produits tensoriels des bases POD par des fonctions tempo-
relles. C'est une question qui peut se généraliser à l'interpolation des solutions
réduites obtenues par PGD. La structure géométrique des espaces des produits
122
tensoriels est un bré au-dessus des variétés de Grassmann. Une procédure d'in-
terpolation préservant cette structure n'est pas évidente à exhiber. Cependant
les méthodes de construction de connexions sur les brés fournissent une réponse
possible qu'il faudra rendre opératoire.
Enn, sur le plan de la mise en oeuvre numérique, nous souhaitons montrer
l'ecacité des approches proposées dans cette thèse en traitant diérentes con-
gurations en mécanique des solides et des uides. En particulier, nos approches
sont actuellement en train d'être utilisées pour étudier l'évolution des modèles
réduits en fonction de la forme des rotors pour l'étude des écoulements dans les
machines tournantes. Une attention plus particulière sera portée à la méthode de
Kriegeage grassmanien, qui ouvre des perspectives d'applications plus générales
que les autres méthodes, car elle nous permet de tenir compte des incertitudes
sur les bases POD ou sur les formes des corps.
>−>−>−>−>−>−>
123
CHAPITRE 7. CONCLUSIONS ET PERSPECTIVES
124
Annexe A
telle que :
g.(h.u) = (g h).u
e.u = u
pour tout g, h ∈ G, u ∈ M et e est l'élément neutre du groupe G.
Nous souhaitons construire un modèle réduit de (A.1) par POD qui préserve
la symétrie par le groupe G. L'idée consiste à séparer le problème sous la forme :
125
ANNEXE A. MODÈLES RÉDUITS INVARIANTS PAR L'ACTION D'UN GROUPE
DE LIE
et de chercher le modèle réduit pour γ̃(t) qui peut être interprété comme la forme
de la solution et déterminer l'équation de g(t) vu comme un transport.
Si l'équation (A.3) est réduite via la POD, on voit que le problème (A.1) se ra-
mène à la détermination de la famille de vecteurs ξ(t) ∈ g, t ∈ R+ .
Par la suite, nous allons décrire une méthode pour déterminer ξ(t) proposée
par Clarence Rowley et Jerrold Marsden [55, 56], basé sur la détermination d'un
bré principal.
126
3. Soit x ∈ M et O(x) = {g.x : g ∈ G} l'orbite de x. Alors
Tx O(x) = {ξM (x) : ξ ∈ g}
où
d
| {exp(tξ).x}
ξM (x) =
dt t=0
est le générateur innitésimal associé à ξ , et g est l'algèbre de Lie de G.
Dénition A.0.2 Une connexion principale sur le bré π : M → M/G est une
application A : T M → g linéaire dans chaque espace tangent, telle que pour tout
x ∈ M , v ∈ T M , ξ ∈ g et g ∈ G on ait :
1. A(ξM (x)) = ξ pour ξ ∈ g et x ∈ M
2. A est équivariant, c'est-à-dire
Φg : M −→ M
x 7→ g.x
est le diéomorphisme associé à g .
Dénition A.0.3 Soient A : T M → g une connexion principale et x ∈ M . On
dénit l'espace horizontal en x par Hx = Ker A|Tx M .
Proposition A.0.4 Soit g ∈ G et x ∈ M , alors
1. Hg.x = dx Φg (Hx )
2. Tx M = Tx O(x) ⊕ KerA|Tx M
3. L'application dx π|Hx : Hx → Tx̄ M/G est un isomorphisme.
Preuve . La partie 1 suit directement la dénition de connexion principale. La
partie 2 est une conséquence de la partie 3 de la proposition A.0.1. En eet, étant
donné vx ∈ Tx M , on a
vx − (A(vx ))M (x) ∈ KerA|Tx M .
Finalement, comme Tx O(x) ⊂ Ker(dx π) et dx π est surjective, on a
dimKer(dx π) = dimTx O(x)
ainsi Ker(dx π) = Tx O(x) et on conclut en utilisant la partie 2.
127
ANNEXE A. MODÈLES RÉDUITS INVARIANTS PAR L'ACTION D'UN GROUPE
DE LIE
128
A.1. CONSTRUCTION DE LA FAMILLE ξ(T ) VIA LES CONNEXIONS
PRINCIPALES
129
ANNEXE A. MODÈLES RÉDUITS INVARIANTS PAR L'ACTION D'UN GROUPE
DE LIE
130
A.2. DÉTERMINATION DE LA CONNEXION A DANS LE CAS D'UNE
VARIÉTÉ RIEMANNIENNE
Le tenseur d'inertie muni l'algèbre de Lie g d'un produit scalaire de telle sorte
que l'application Φx : G → M est une isométrie dans l'identité e ∈ G. En eet,
soient ξ , η ∈ g on a
< ξ, η > = (ξM (x), ηM (x))
= (de Φx (ξ), de Φx (η)) .
Soit η ∈ g, on a
I(g.x)(Adg ξ)(η) = < I(g.x)(Adg ξ), η >
= < (Adg ξ)M (g.x), ηM (g.x) >
= < dx Φg (ξM (x)), dx Φg (dg.x Φg−1 (ηM (g.x))) >
= < dx Φg (ξM (x)), dx Φg ((Adg−1 η)M (x)) >
= < ξM (x), (Adg−1 (ξ))M (x) >
= < I(x)ξ, Adg−1 (ξ) >
= I(x)(ξ) ◦ Adg−1 (η).
Maintenant, pour que A soit équivariant on doit montrer que :
J(dx Φg (vx )) = I(g.x)(Adg (A(vx )))
or grâce à la relation précédente on est ramené a montrer que :
J(dx Φg (vx )) = I(x)(A(vx )) ◦ Adg−1 .
Soit η ∈ g, on a
I(x)A(vx )(Adg−1 (η)) = < I(x)(A(vx )), Adg−1 (η) >
= < (A(vx ))M (x), (Adg−1 (η))M (x) >
= < (A(vx ))M (x), dg.x Φg−1 (ηM (g.x)) >
131
ANNEXE A. MODÈLES RÉDUITS INVARIANTS PAR L'ACTION D'UN GROUPE
DE LIE
Comme
(A(vx ))M (x) = vx + u
avec u ∈ Ker(A|Tx M ) = Tx O(x)⊥ et dg.x Φg−1 (Tg.x O(g.x)) = Tx O(x), alors
132
Annexe B
de Grassmann
133
ANNEXE B. COURBURE SECTIONNELLE DE LA VARIÉTÉ DE GRASSMANN
on dénit
wi = ei − PR̄ (ei )
où [R | ei ] est la matrice de Rn×(m+1) donc sa colonne m + 1 est le vecteur ei .
Après orthonormalisation on obtient une basse de R̄⊥ , qu'on notera encore par
i=1 . Ainsi, pour tout i ∈ {1, · · · , n − m} et j ∈ {1, · · · , m} les matrices
{wi }n−m
Hij = [0 · · · wi · · · 0] (B.1)
où wi est placé dans la j -ième colonne, forment une base orthonormale de HR .
134
Annexe C
IDW-G
135
ANNEXE C. IDW-G
Rolando Mosquera,
Aziz Hamdouni, Abdallah El Hamidi∗ , Cyrille Allery
Université de La Rochelle
Avenue M. Crépeau
17042 La Rochelle, France
136
2 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY
perform an interpolation (see Section 3 for more details). Finally, one returns to
the manifold Gm (H) via the (reciprocal) exponential mapping from the tangent
space TH (r) Gm (H) to get the desired approximation of u(λ) on Gm (H).
m
The disadvantage of the method developed in [7] is its dependence of the reference
point and the lack of a strategy for choosing this reference point.
In what follows, we will study an interpolation method on Grassmann manifolds
based on the Inverse Distance Weighting (IDW).
The present paper is organized as follows: In Section 2, we recall some classical facts
on Proper Orthogonal Decomposition (POD) for evolution problems and their based
Reduced Order Model. In Section 3, a brief presentation of the Grassmann manifold
and the underlying tools used in the paper is carried out. Section 4 is dedicated to
the introduction of the Grassmann-IDW algorithm. The convergence of the G-IDW
is performed in Section 5, following ideas developed by Karcher [14] and Huiling
Le [13]. Finally, numerical simulations on isothermal fluid flows around a circular
137
ANNEXE C. IDW-G
cylinder are given to compare our approach to that developed by Amsallem et al.
[7].
The optimality of bases (ϕk (x))k≥1 is to be understood in the sense that any
N
X
truncated series expansion ak (t) ϕk (x) of u(x, t) in this basis has the smallest
k=1
mean-square truncation error among all the other orthonormal bases in the sense
of L2 ([0, T ]; H) norm. More precisely, for a given data u ∈ L2 ([0, T ]; H), consider
the operator
R : H −→ H
Z T
ϕ 7−→ R ϕ := hu(t) ; ϕiH u(t) dt,
0
where h· ; ·iH stands for the inner product in the Hilbert space H, the endowed norm
will be denoted by k · k. It is well known that the operator R is linear, bounded, non-
negative, self-adjoint and compact. Thus, there exists a complete orthonormal basis
of H consisting of eigenfunctions of R with corresponding nonnegative eigenvalues.
Each nonzero eigenvalue of R has a finite multiplicity and 0 is the only possible
accumulation point of the spectrum of R. We denote by (λk )k≥1 and (ϕk )k≥1 the
sequences of positive eigenvalues of R, repeated as many times as their multiplicity
and sorted in decreasing order and the associated eigenfunctions, respectively. The
importance of the orthonormal basis (ϕk )k≥1 lies in the fact that it is optimal in
the following sense : for any integer N ≥ 1 and for any rank-m orthonormal family
{ψk , 1 ≤ k ≤ N } in H, it holds :
Z T
Xm
2
Z T
Xm
2
u(t) − hu(t) ; ψk iH ψk
dt ≥
u(t) − hu(t) ; ϕk iH ϕk
dt. (1)
0
0
k=1 k=1
Equivalently, if HN = span {ϕ1 , ϕ2 , · · · , ϕN } and ΠV denotes the orthogonal pro-
jection operator on a subspace V in H, then
idH − ΠHN u
2 ≤
idH − ΠVN u
2
L ([0,T ];H) L ([0,T ];H)
For sharp POD convergence results, we refer the reader to [8, 9], where the authors
proved that the POD expansion converges with exponential accuracy for parame-
terized transient heat equations or Poisson equations with bivariate functions.
138
4 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY
On the other hand, the original data u can be completely represented by the eigen-
functions corresponding to positive eigenvalues of the operator R, i.e.,
+∞
X
u(t) = h u(t) , ϕk iH ϕk for any t ∈ [0, T ].
k=1
Moreover, the operator K has the same properties as R and share together the
same positive eigenvalues and the same multiplicities. Furthermore, eigenfunctions
(ϕk )k≥1 of R and eigenfunctions (fk )k≥1 of K can be found one from the other by :
1 1
∀ t ∈ [0, T ], fk (t) = √ (A∗ ϕk ) (t) and ϕk = √ Afk .
λk λk
In the finite dimension case, the data u is a real array in Rn×Nt
uij := u(xi , tj )1≤i≤n, 1≤j≤Nt .
1≤i≤n, 1≤j≤Nt
2.1. POD based Reduced Order Models. The POD bases provide a suitable
framework for Reduced Order Models via the Galerkin’s method. Suppose that the
given data u(x, t) is the solution of an evolution partial differential equation, as the
Navier-Stokes equations for incompressible flows which will be considered in the
numerical simulation section. Such equations can be written symbolically as :
∂u
(x, t) = F (u), x ∈ Ω ⊂ Rd , t ≥ 0, (6)
∂t
139
ANNEXE C. IDW-G
where F is a differential operator that contains only spatial derivatives and where
Ω is the spatial domain under study. To complete the evolution differential problem
(6), we need an initial condition
u(x, 0) = u0 (x) (7)
and adequate boundary conditions.
Notice that for stationary boundary conditions, the POD basis is usually computed
Z
1 T
for the fluctuating part v(x, t) = u(x, t) − u(x, t) dt of u which has homo-
T 0
geneous boundary conditions [25]. These homogeneous boundary conditions are
d d
then taken into account in the Hilbert space H ⊂ H 1 (Ω) ⊂ L2 (Ω) . Conse-
quently, every eigenfunction of the POD basis (ϕk )1≤k≤m satisfies the boundary
conditions. The reduced order model is then derived by Galerkin projection of the
partial differential equations (6) onto the POD subspace of dimension m. That is,
if we write
m
X
v(x, t) = ak (t)ϕk (x),
k=1
then the vector (ak )1≤k≤m satisfies the ordinary differential system
m
X d aj
Mkj = Fk (a1 , · · · , am ), 1 ≤ k ≤ m,
j=1
dt
where
Mkj = hϕk ; ϕj iL2 (Ω) ,
and * !+
m
X
Fk (a1 , · · · , am ) = ϕk ; F a i ϕi ,
i=1 L2 (Ω)
with the initial condition
ak (0) = hϕk ; u0 iH .
Notice that if the POD basis is performed with the L2 (Ω) inner product, then the
m×m matrix Mkj = δkj , the matrix identity. This will be the case in our numerical
applications.
140
6 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY
The Grassmann manifold is a compact topological space and thanks to the canonical
projection, denoted by
π : Rn×m
∗ → Gm (Rn ),
it can be endowed by a differentiable manifold structure so that π is a submersion
([20]).
3.1. Metric on the Grassmann Manifold. On each point X ∈ R∗n×m , on con-
structs a metric gX which is right-invariant by GLm (R), i.e.,
gXA (Y1 A, Y2 A) = gX (Y1 , Y2 ),
defined by
gX (Y1 , Y2 ) = tr[(t XX)−1 t Y1 Y2 ].
for every Y1 , Y2 ∈ Rn×m
∗ and A ∈ GLm (R). This metric induces, by the submer-
sion π, a Riemannian metric on Gm (Rn ). Moreover, on constructs a Riemannian
connection on Gm (Rn ), which allows the definition of geodesics and the geodesic
exponential mapping on Gm (Rn ) [1].
3.2. Exponential and logarithm mappings, injectivity radius. Let X ∈
Gm (Rn ) and v ∈ TX Gm (Rn ). The geodesic of initial point γ(0) = X and ini-
tial velocity γ 0 (0) = v, can written in the form
γ(t) = X(t XX)−1/2 V cos(t Σ) + U sin(t Σ)
where (dX π)−1 (v) (t XX)−1/2 = U Σ t V is the singular value decomposition (dX π
denotes the tangent map associated to π).
The geodesic exponential mapping is defined by expX (v) = γ(1) and has a unique
matricial representation given by:
X(t XX)−1/2 V cos(Σ) + U sin(Σ).
On the other hand, since d0X expX = I, then the inverse function theorem implies
that expX is a local diffeomorphism at 0X , the null vector of TX Gm (Rn ).
Definition 3.1. Let X ∈ Gm (Rn ), the injectivity radius of (Gm (Rn ), g) at X, is
defined by
rI X = sup {ρ > 0 : expX : B(0X , ρ) → expX (B(0X , ρ)) is a diffeomorphism}
and the injectivity radius of Gm (Rn ) is defined by
rI = inf{rI X : X ∈ Gm (Rn )}
and its value is given by the following result:
Theorem 3.2. [28] Let n, m be two positive integers such that min{m, n − m} ≥ 2.
Then the injectivity radius of Gm (Rn ) is equal to π/2.
The proof of Theorem 3.2 can be found in [15]. This Theorem gives the radius of
the ball where the reciprocal mapping of the geodesic exponential is defined, it is
−1
denoted by expX or logX . More precisely, for Y ∈ Gm (Rn ), with d(X, Y ) < π2 ,
−1
expX (Y ) is represented by the matrix
Uα tan−1 (Σα ) t Vα
where
Uα Σtα Vα = [Y (t XY )−1 (t XX) − X] (t XX)−1/2
is the singular value decomposition.
141
ANNEXE C. IDW-G
142
8 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY
N
X
where α1 (λ), · · · , αN (λ) are nonnegative real numbers satisfying αi (λ) = 1 and
i=1
d is the Riemannian distance on Gm (Rn ). The weights (αi (λ))1≤i≤N may depend
on the parameters (λi )1≤i≤N .
Proof. We carry out an adaptation of the proof given by Karcher in the framework
of the Grassmann manifold, [14] . The key point of the proof is the fact that the
radius of the ball B(y ∗ , r) where Problem (Pλ ) has its unique solution satisfies
π
0 < r < 4√ 2
. Indeed,
(i) The convexity radius of Gm (Rn ) is rc = π4 . As mentioned before, the in-
jectivity radius of Gm (Rn ) is rI = π2 and its sectional curvature belongs to
[0, 2], then the upper bound of the sectional curvature is 4 = 2. Therefore, it
follows that
1 π
rc = min{rI , √ }
2 4
π
=
4
Moreover, Theorem 3.8 asserts that for 0 < r < rc , the ball B(y ∗ , r) is strongly
convex.
π
(ii) For 0 < r < 4√ 2
, the mapping y 7→ d2 (y, z) is strictly convex on B(y ∗ , r), for
∗
any z dans B(y , r), [14, 2]. Whence, (Pλ ) has a unique solution in a ball of
radius equal to min{ 4√ π
2 c
π
, r } = 4√ 2
, which achieves the proof.
143
ANNEXE C. IDW-G
that is, yb(λ) is not other than the wighted barycenter of y1 · · · , yN in the space V .
For example, with the following choice of weights
1
αi (λ) = (9)
S(λ) d(λ, λi )p
N
X 1
where S(λ) = and p > 0, we find the standard Inverse Distance
i=1
d(λ, λi )p
Weighting (IDW) algorithm in vector spaces. In the Grassmann manifold Gm (Rn ),
we will denote this algorithm by IDW-G.
yb` = span(Y` ), where Y` ∈ Rn×m ∗
!
N
X
−1
γyb` (t) = expyb` −t αi (λ) expyb (yi ) .
`
i=1
Then,
(i) expyb (w` ) = span Y` (t Y` Y` )−1/2 V` cos(Σ` ) + U` sin(Σ` ) , where
`
w` = U` Σ` t V` (t Y` Y` )1/2 is an SVD.
(ii) exp−1 e tan−1 (Σ
e ) t Ve , where
b` (yi )
y =U` ` `
e Σ
U e t Ve = [Φi (t Y Φi )−1 (t Y Y ) − Y ](t Y Y )−1/2 is an SVD.
` ` ` ` ` ` ` ` `
Lemma 5.1. If {y1 , · · · , yN } ⊂ B(y ∗ , r) then for any y ∈ B(y ∗ , r), there exists
0 < ty ≤ 21 such that, if ∇Fλ (y) 6= 0, it holds:
144
10 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY
d
(Fλ ◦ γy )(t) ≤ − ||∇Fλ (y)||2 + ||∇Fλ (y)||2 t
dt
−1
≤ ||∇Fλ (y)||2 .
2
Therefore,
d
(Fλ ◦ γy )(t) < 0, since ∇Fλ (y) 6= 0 (11)
dt
and consequently, the function t 7−→ (Fλ ◦ γy )(t) is strictly decreasing on ]0, ty ]. A
direct integration of (11) yields to
t
Fλ (y) − Fλ (γy (t)) ≥ ||∇Fλ (y)||2 , ∀ t ∈ ]0, ty ].
2
At this stage, we can state and show the following convergence result.
Theorem 5.2 (Convergence). If {y1 , · · · , yN } ⊂ B(y ∗ , r) then for any y ∈ B(y ∗ , r),
y` : ` ∈ N} defined by
the sequence {b
yb0 = y,
yb`+1 = expyb` (−tyb` ∇Fλ (b
y` )),
Proof. If there is `∗ ∈ N such that ∇Fλ (b y`∗ ) = 0, then by Theorem 4.1, yb`∗ is the
solution of (Pλ ) and by construction yb` = yb`∗ for any ` ≥ `∗ , which ends the claim.
145
ANNEXE C. IDW-G
Hence, the sequence (Fλ (by` ))` is convergent. On one hand, let yb ∈ B(y ∗ , r) be
an adherence value of the sequence (b y` )` , then (Fλ (b
y` ))` converges to Fλ (b
y ), by
continuity. On the other hand, since
tyb`
y` ) − Fλ (b
Fλ (b y`+1 ) ≥ y` )||2 ,
||∇Fλ (b ∀` ∈ N
2
then, by the continuity of the mappings y 7−→ ty and y 7−→ ∇Fλ y on B(y ∗ , r), we
get 0 ≥ k∇Fλ (b
y )k and thus ∇Fλ (b y` )` has yb as unique
y ) = 0. Hence, the sequence (b
adherence value. Which achieves the proof.
Data:
i. N bases: Φ(λ1 ), · · · , Φ(λN ) ∈ Rn×m
∗ .
ii. The new parameter: λ ∈ RP .
iii. A tolerance number: e.
1
In applications, one can choose tR = and the weights αi (λj ) = δij , the Kronecker
N
symbols, for every (i, j) ∈ {1, · · · , N }2 . For λ ∈
/ {λ1 , · · · , λN }, one defines for
146
12 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY
every i ∈ {1, · · · , N }
N
X
1 1
αi (λ) = , where S(λ) = , p ≥ 1.
S(λ) d(λ, λi )p d(λ, λk )p
k=1
Hereafter, we carry out some numerical results which compare the approach of
Amsallem et al. [7] and our IDW-G algorithm.
In Figures 4 and 5, the interpolation algorithm developed in [7], our Grassmann
IDW algorithm and the full solution computed by the finite elements method are
referenced respectively by ”Grass”, ”IDW-G” and ”Full”.
v=0, du/dy=0
u=0, v=0
u=U σ n=0 H
v=0
v=0, du/dy=0
L1 L2
length-height space variables will be denoted by (x, y) and the planar velocity field
will be denoted by (u, v). At every point (x, y) on the boundary of the domain,
n(x, y) will denote the unit normal outward vector to the boundary. Finally, the
euclidean inner product in the plane will be denoted by ”·”.
The boundary conditions are as follows :
• On the vertical boundaries : a horizontal inflow (u(0, y), v(0, y)) = (U, 0) is
applied on the left boundary. For the right boundary, a homogeneous output
boundary condition is imposed. More precisely, we have on the right boundary
: σ(u, v) · n = (0, 0), where σ denotes the stress tensor.
• On the horizontal boundaries : homogeneous Neumann conditions on the
horizontal component ∂u ∂y = 0 and homogeneous Dirichlet conditions on the
vertical component v = 0 are imposed.
• On the cylinder boundary : homogeneous Dirichlet boundary conditions (u, v) =
(0, 0) are applied.
We assume that the fluid dynamics is governed by the classical adimensional incom-
UD
pressible Navier-Stokes equations. The Reynolds number is defined by Re = ,
ν
147
ANNEXE C. IDW-G
To built the POD bases, the used snapshots are computed with the free Finite
Elements software Fenics using Taylor-Hood P2 /P1 elements. The mesh including
17290 elements is non uniform and refined near the cylinder. To ensure homogeneous
boundary conditions, the velocity field and the pressure are splitted into the mean
and fluctuating parts as follows:
u(x, t, Re) = u(x) + u0 (x, t, Re) and p(x, t, Re) = p(x) + p0 (x, t, Re),
where u(x), p(x) are the mean parts of the velocity field and the pressure respec-
tively, and POD is then applied to the fluctuating velocity u0 and the fluctuating
pressure p0 . By keeping the only most POD energetic vectors :
Nu Np
X X
0
u (x, t, Re) ' u
ai (t, Re)Φ i (x, Re) and 0
p (x, t, Re) ' bi (t, Re)Φpi (x, Re),
i=1 i=1
(12)
the temporal coefficient ai (i = 1, . . . , Nu ) and bi (i = 1, . . . , Np ) are computed by
solving a set of differential equations of small size Nu + Np . This reduced order
model, that is very fast to solve, is obtained by applying Galerkin projection of
the momentum equations onto each velocity and pressure POD vectors Φu i , ∇Φpi
respectively (for more details, we refer the interested reader to [16][26]). For this
application, we fix Nu = Np = 8.
A bunch of velocity and pressure POD bases corresponding to five Reynolds numbers
(Rebunch = [70, 80, 90, 150, 180]) are computed. This set of POD bases is interpo-
lated on the Grassmann manifold by the method developed by Amsallem ”Grass”
and by our approach ”IDW-G”, to obtain a valid basis for different Reynolds num-
bers (Reint = 140, 160, 170, 190). For each Reynolds number of the bunch, 150
snapshots uniformly distributed on the time of two oscillations period of the wake
are chosen to build the spatial POD basis. For these Reynolds numbers, the flow
oscillates with Von Karman streets and a vertex shedding is observed (see Fig 2).
The availability of the two interpolation approaches to compute the drag coefficient
CD and the lift coefficient CL are tested. Theses coefficients are expressed such as:
FD FL
CD = and CL = , (13)
0.5ρU 2 D 0.5ρU 2 D
where FD , FL are the drag and the lift forces exerted by the fluid on the cylinder
respectively and ρ is the density of the fluid.
In the IDW-G interpolation method, one interesting parameter is the power p ap-
pearing in the weight coefficient given in (9). The influence of this power p is drawn
on Figure (Fig. 3). It is observed that the value p = 1 does not give satisfactory
results. For higher values of the power p, the results are more accurate. Hereafter,
we will choose p = 3. Figures (Fig. 4) and (Fig. 5) compare predictions of the ROM
built with the two interpolations approaches and predictions of the full model. This
figures show that our IDW-G proposed method gives more accurate results than the
the Grassmann one, moreover the drag and lift coefficients are properly recovered.
148
14 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY
A more judicious choice of such weighting functions can be carried out via krig-
ing technics [23], this is the subject of a work in progress. Moreover, we notice
that the proposed method can be applied not only for interpolation but also for
extrapolation, as it can be observed for the value Re = 190, which is outside of the
interpolation set. This observation will be studied more carefully in a future work.
REFERENCES
149
ANNEXE C. IDW-G
1.44 0.8
1.42 0.6
1.40 0.4
0.2
1.38
Drag coefficient
Lift Coefficient
0.0
1.36
0.2
1.34
0.4
p=1 p=1
1.32 p=2 0.6 p=2
p=3 p=3
1.30 p=4 0.8 p=4
Full Full
1.28 1.0
0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5
Times Times
1.45 1.0
p=1
p=2
p=3
1.40 0.5 p=4
Full
Drag coefficient
Lift Coefficient
1.35 0.0
p=1
1.30 p=2 0.5
p=3
p=4
Full
1.25 1.0
0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5
Times Times
[6] Y. Aminov, The Geometry of Submanifolds, Gordon and Breach Science Publishers, 2001.
[7] D. Amsallem, C. Farhat, An interpolation method for adapting reduced order models and
application to aeroelasticity, Amer. Inst. Aeronaut. Astronaut., 46 (7) (2008) 1803-1813.
[8] M. Azaı̈ez, F. Ben Belgacem, T. Chacón Rebollo, Error bounds for POD expansions of param-
eterized transient temperatures, Comput. Methods Appl. Mech. Engrg., 305 (2016) 501-51.
[9] M. Azaı̈ez, F. Ben Belgacem, Karhunen-Loève’s truncation error for bivariate functions,
Comput. Methods Appl. Mech. Engrg., 290 (2015) 57-72.
[10] B. Denis de Senneville, A. El Hamidi, C. Moonen, A direct PCA-based approach for real-time
description of physiological organ deformations, IEEE Transactions on Medical Imaging, 34
(4) (2015) 974-982.
[11] B. Haasdonk, M. Ohlberger, G. Rozza, A reduced basis method for evolution schemes with
parameter-dependent explicit operators, Electron. Trans. Numer. Anal., 32 (2008) 145-161.
[12] D. Hömberg, S. Volkwein, Control of laser surface hardening by a reduced-order approach
utilizing proper orthogonal decomposition, Math. Comput. Model., 38 (2003) 1003-1028.
150
16 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY
1.46 1.0
IDW-G
1.44 0.8 Grass
Full
1.42 0.6
1.40 0.4
Drag coefficient
Lift coefficient
1.38 0.2
1.36 0.0
1.34 0.2
1.32 0.4
IDW-G
1.30 Grass 0.6
Full
1.28 0.8
0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5
Times Times
1.45 1.5
IDW-G
Grass
1.40 Full
1.0
1.35
0.5
Drag coefficient
Lift coefficient
1.30
0.0
1.25
IDW-G 0.5
1.20
Grass
Full
1.15 1.0
0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5
Times Times
[13] Huiling Le. Estimation of Riemannian barycenters, LMS J. Comput. Math., 7 (2004) 193-200.
[14] H. Karcher, Riemannian center of mass and mollifier smoothing, Comm. Pure Appl. Math.
30 (1977) 509-541.
[15] S. E. Kozlov, Geometry of real Grassmannian manifolds, Zap. Nauchn. Semin. POMI, 246
(1997) 108-129.
[16] C. Leblond, C. Allery, C. Inard, An optimal projection method for the reduce order modeling
of incompressible flows, Comp. Meth, in Applied Mechanics and Engineering, 200 (33) (2011)
2507-2527.
[17] K. Kunisch, S. Volkwein, Control of Burgers equation by a reduced order approach using
proper orthogonal decomposition, J. Optim. Theory Appl., 102 (1999) 345-371.
[18] E. Longatte, E. Liberge, M. Pomarède, J.F. Sigrist, A. Hamdouni, Parametric study of flow-
induced vibrations in cylinder arrays under single-phase fluid cross flows using POD-ROM,
Journal of Fluids and Structures 78 (2018) 314?330.
151
ANNEXE C. IDW-G
1.50 1.5
IDW-G
1.45 Grass
1.0 Full
1.40
0.5
Drag coefficient
Lift coefficient
1.35
1.30
0.0
1.25
IDW-G 0.5
1.20 Grass
Full
1.15 1.0
0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5
Times Times
1.45 1.5
IDW-G
Grass
1.40 Full
1.0
1.35
0.5
Drag coefficient
Lift coefficient
1.30
0.0
1.25
IDW-G 0.5
1.20
Grass
Full
1.15 1.0
0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5
Times Times
[19] Y. Lu, N. Blal, A. Gravouil, Space time POD based computational vademecums for parametric
studies: application to thermo-mechanical problems, Advanced Modeling and Simulation in
Engineering Sciences, 5 (1) (2018) 1-27.
[20] W. Milnor, J. D. Stasheff, Characteristic classes, Ann. Math. Studies, Princeton University
Press, 1974.
[21] A.T. Patera and G. Rozza, A Posteriori Error Estimation for Parametrized Partial Differ-
ential Equations, MIT Pappalardo Graduate Monographs in Mechanical Engineering, 2007.
[22] P. Petersen, Riemannian geometry, Springer-Verlag, 2006.
[23] D. Pigoli, A. Menafoglio, P. Secchi, Kriging prediction for manifold-valued random fields,
Journal of Multivariate Analysis, 145 (2016) 117-131.
[24] S. Roujol, M. Ries, B. Quesson, C. Moonen, B. Denis de Senneville, Real-time MR-
thermometry and dosimetry for interventional guidance on abdominal organs, Magnetic Res-
onance in Medicine, 63 (2010) 1080-7.
152
18 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY
[25] L. Sirovich, Turbulence and the dynamics of coherent structures, parts I-III, Quart. Appl.
Math. 45 (3) (1987) 561-590.
[26] A. Tallet, C. Allery, C. Leblond, E. Liberge, A minimum residual projection to build coupled
velocity-pressure POD-ROM for incompressible Navier-Stokes equations, Comm. in Nonlin.
Science and Num. Simulation, 22 (1) (2015) 909-932.
[27] S. Volkwein, Optimal control of a phase-field model using the proper orthogonal decomposition,
Z. Angew. Math. Mech., 81 (2001) 83-97.
[28] Y. C. Wong, Differential geometry of Grassmann manifolds, Proc Natl Acad Sci U S A. 57
(3) (1967) 589-94.
E-mail address: [Link] meza@[Link]
E-mail address: ahamdoun@[Link]
E-mail address: aelhamid@[Link]
E-mail address: callery@[Link]
153
ANNEXE C. IDW-G
154
Bibliographie
155
BIBLIOGRAPHIE
156
BIBLIOGRAPHIE
[26] Edelman,E. and Arias, T.A. and Smith, [Link] Geometry of Algorithm with
Orthogonality Constraints, SIAM J. Matrix Anal Appl., Vol. 20, No. 2, 1999,
pp. 303-353.
[27] Ferziger, Joel H., and Milovan Peric. Computational methods for uid dyna-
mics. Springer Science & Business Media, 2012.
[28] Lu, George Y., and David W. Wong. An adaptive inverse-distance weighting
spatial interpolation technique. Computers & geosciences 34.9 (2008) : 1044-
1055.
[29] G. Golub and C. Van Loan, Matrix Computations, 4th Ed., John Hopkins
University Press, Baltimore, MD, 2013.
[30] Gallot, S. Hulin, D. Lafontaine J. Riemannian Geometry, Springer, 1990.
[31] Holmes, P. J., Lumley, J., Berkooz, J., Mattingly, J., and Wittenberg, R. Low
dimensional models of coherent structures in turbulence. Phys. Rev. Section
Phys. Lett. 4 (1997), 338-384.
[32] B. Haasdonk, M. Ohlberger, G. Rozza, A reduced basis method for evolu-
tion schemes with parameter-dependent explicit operators, Electron. Trans.
Numer. Anal., 32 (2008) 145-161.
[33] D. Hömberg, S. Volkwein, Control of laser surface hardening by a reduced-
order approach utilizing proper orthogonal decomposition, Math. Comput.
Model., 38 (2003) 1003-1028.
[34] Huiling Le. Estimation of Riemannian barycenters, LMS J. Comput. Math.,
7 (2004) 193-200.
[35] Huiling Le. Locating Fréchet means with application to shape spaces. Ad-
vances in Applied Probabilities, 33 :324-338, 2001.
[36] P. Holmes, [Link] and G. Berkooz. Turbulence, coherent Structures,
Dynamical Systems and Symmetry. Cambrige University Press. 1998
[37] T. Henri and J.P. Yvon. Stability of the POD and convergence of the POD
Galerkin method for parabolic problems. Prépublication 03-03, Intitut de Re-
cherche Mathématique de Rennes, janvier 2003.
[38] C. Jordan, Essai sur la géométrie à n dimensions, Amer. Math. Monthly 3
(1875) 103-174.
[39] Jost, Jürgen, and Jèurgen Jost. Riemannian geometry and geometric analy-
sis. Vol. 42005. Berlin : Springer, 2008.
[40] H. Karcher, Riemannian center of mass and mollier smoothing, Comm.
Pure Appl. Math. 30 (1977) 509-541.
[41] Karoubi, Max. K-theory : An introduction. Vol. 226. Springer Science &
Business Media, 2008.
[42] S. E. Kozlov, Geometry of real Grassmannian manifolds, Zap. Nauchn. Se-
min. POMI, 246 (1997) 108-129.
157
BIBLIOGRAPHIE
158
BIBLIOGRAPHIE
[58] A.T. Patera and G. Rozza, A Posteriori Error Estimation for Parametrized
Partial Dierential Equations, MIT Pappalardo Graduate Monographs in
Mechanical Engineering, 2007.
[59] P. Petersen, Riemannian geometry, Springer-Verlag, 2006.
[60] Henri, Thibault, and Jean-Pierre Yvon. Convergence estimates of POD-
Galerkin methods for parabolic problems. IFIP Conference on System Mo-
deling and Optimization. Springer, Boston, MA, 2003.
[61] D. Pigoli, A. Menafoglio, P. Secchi, Kriging prediction for manifold-valued
random elds, Journal of Multivariate Analysis, 145 (2016) 117-131.
[62] S. Roujol, M. Ries, B. Quesson, C. Moonen, B. Denis de Senneville, Real-time
MR-thermometry and dosimetry for interventional guidance on abdominal
organs, Magnetic Resonance in Medicine, 63 (2010) 1080-7.
[63] Rahman,I., Drori, I., Stodden, V., Donoho, D. and Schröder, P., Multiscale
Representations for Manifold-Valued Data, Multiscale Model. Simul., Vol. 4,
2005, pp. 1201-1232.
[64] Solari, G., Carassale, L., and Tubino, F. Proper orthogonal decomposition in
wind engineering. part 1 : A state-of-the-art and some prospects. Wind and
Structures, An International Journal 10, 2 (2007), 153-176
[65] L. Sirovich, Turbulence and the dynamics of coherent structures, parts I-III,
Quart. Appl. Math. 45 (3) (1987) 561-590.
[66] Sirovich, L. Turbulence and the dynamics of coherent structures part I :
coherent structures Quarterly of applied mathematics, JSTOR, 1987, 45,
561-571
[67] Stein, Michael L. Interpolation of spatial data : some theory for kriging.
Springer Science Business Media, 2012.
[68] Stewart, Gilbert W. Matrix algorithms volume 2 : eigensystems. Vol. 2. Siam,
2001.
[69] A. Tallet, C. Allery, C. Leblond, E. Liberge, A minimum residual projec-
tion to build coupled velocity-pressure POD-ROM for incompressible Navier-
Stokes equations, Comm. in Nonlin. Science and Num. Simulation, 22 (1)
(2015) 909-932.
[70] S. Volkwein, Optimal control of a phase-eld model using the proper ortho-
gonal decomposition, Z. Angew. Math. Mech., 81 (2001) 83-97.
[71] Neretin, Yu A. Lectures on Gaussian integral operators and classical groups.
Vol. 13. European Mathematical Society, 2011.
[72] Chikuse, Yasuko. Statistics on special manifolds. Vol. 174. Springer Science
& Business Media, 2012.
[73] Y. C. Wong, Dierential geometry of Grassmann manifolds, Proc Natl Acad
Sci U S A. 57 (3) (1967) 589-94.
159
BIBLIOGRAPHIE
160
Thèse de Rolando MOSQUERA
Interpolation on Grassmann manifolds and applications to reduced order
methods in mechanics
Abstract This dissertation deals with interpolation on Grassmann manifolds and its
applications to reduced order methods in mechanics and more generally for systems of
evolution partial dierential systems.
After a description of the POD method, we introduce the theoretical tools of grass-
mannian geometry which will be used in the rest of the thesis. This chapter gives this
dissertation a mathematical rigor in the performed algorithms, their validity domain,
the error estimate with respect to the grassmannian distance on one hand and also a
self-contained character to the manuscript.
In our rst work, we present a grassmannian version of the well-known Inverse Dis-
tance Weighting (IDW) algorithm. In this method, the interpolation on a point can
be considered as the barycenter of the interpolation points where the used weights are
inversely proportional to the distance between the considered point and the given in-
terpolation points. In our method, denoted by IDW-G, the geodesic distance on the
Grassmann manifold replaces the euclidean distance in the standard framework of eu-
clidean spaces. The advantage of our algorithm that we show the convergence under
some general assumptions, does not require a reference point unlike the method of
Amsallem-Farhat. Moreover, to carry out this, we nally proposed a direct method,
thanks to the notion of generalized barycenter instead of an earlier iterative method.
However, our IDW-G algorithm depends on the choice of the used weighting coecients.
The second work deals with an optimal choice of the weighting coecients, which
take into account of the spatial autocorrelation of all interpolation points. Thus, each
weighting coecient depends of all interpolation points an not only on the distance bet-
ween the considered point and the interpolation point. It is a grassmannian version of
the Kriging method, widely used in Geographic Information System (GIS). Our grass-
mannian Kriging method require also the choice of a reference point.
In our last work, we develop a grassmannian version of Neville's method which allow
the computation of the Lagrange interpolation polynomial in a recursive way via the
linear interpolation of two points. The generalization of this algorithm to grassmannian
manifolds is based on the extension of interpolation of two points (geodesic/straight
line) that we can do explicitly. This algorithm does not require the choice of a reference
point, it is easy to implement and very quick. Furthermore, the obtained numerical
results are notable and better than all the algorithms described in this dissertation.
BIBLIOGRAPHIE
2
Thèse de Rolando MOSQUERA
Interpolation sur les variétés grassmanniennes et applications à la réduction
de modèles en mécanique
Résumé Ce mémoire de thèse concerne l'interpolation sur les variétés de Grassmann
et ses applications à la réduction de modèles en mécanique et plus généralement aux
systèmes d'équations aux dérivées partielles d'évolution.
Après une description de la méthode POD, nous introduisons les fondements théo-
riques en géométrie des variétés de Grassmann, qui seront utilisés dans le reste de la
thèse. Ce chapitre donne à ce mémoire à la fois une rigueur mathématique au niveau des
algorithmes mis au point, leur domaine de validité ainsi qu'une estimation de l'erreur
en distance grassmannienne mais également un caractère auto-contenu "self-contained"
du manuscrit.
Dans notre premier travail, nous présentons une version grassmannienne d'un al-
gorithme connu dans la littérature sous le nom de Pondération par Distance Inverse
(IDW). Dans cette méthode, l'interpolé en un point donné est considéré comme le
barycentre des points d'interpolation où les coecients de pondération utilisés sont
inversement "proportionnels" à la distance entre le point considéré et les points d'inter-
polation. Dans notre méthode, notée IDW-G, la distance géodésique sur la variété de
Grassmann remplace la distance euclidienne dans le cadre standard des espaces eucli-
diens. L'avantage de notre algorithme, dont on a montré la convergence sous certaines
conditions assez générales, est qu'il ne requiert pas de point de référence contrairement
à la méthode de Amsallem-Farhat. Pour remédier au caractère itératif (point xe) de
notre première méthode, nous proposons une version directe via la notion de barycentre
généralisé. Notons enn que notre algorithme IDW-G dépend nécessairement du choix
des coecients de pondération utilisés.
Dans notre second travail, nous proposons une méthode qui permet un choix op-
timal des coecients de pondération, tenant compte de l'auto-corrélation spatiale de
l'ensemble des points d'interpolation. Ainsi, chaque coecient de pondération dépend
de tous les points d'interpolation et non pas seulement de la distance entre le point
considéré et un point d'interpolation. Il s'agit d'une version grassmannienne de la mé-
thode de Krigeage, très utilisée en géostatique. La méthode de Krigeage grassmannienne
utilise également le point de référence.
Dans notre dernier travail, nous proposons une version grassmannienne de l'algo-
rithme de Neville qui permet de calculer le polynôme d'interpolation de Lagrange de
manière récursive via l'interpolation linéaire entre deux points. La généralisation de cet
BIBLIOGRAPHIE
algorithme sur une variété grassmannienne est basée sur l'extension de l'interpolation
entre deux points (géodésique/droite) que l'on sait faire de manière explicite. Cet al-
gorithme ne requiert pas le choix d'un point de référence, facile d'implémentation et
très rapide. De plus, les résultats numériques obtenus sont remarquables et nettement
meilleurs que tous les algorithmes décrits dans ce mémoire.
Mot-clefs : Dynamique des uides computationnelle, Bases réduites, Variété de
Grassmann, Interpolation, Réduction de modèles (ROM), Pondération par Distance
Inverse (IDW), Krigeage, Barycentre.
lasie
Laboratoire des Sciences de l'Ingénieur pour