100% ont trouvé ce document utile (1 vote)
311 vues182 pages

Interpolation Grassmannienne en Mécanique

Ce document présente une méthode d'interpolation sur les variétés grassmanniennes pour la construction de modèles réduits dépendant de paramètres. L'approche consiste à interpoler la base POD pour une nouvelle valeur de paramètre à partir des bases POD obtenues pour différentes valeurs de paramètre, puis à projeter le modèle sur la base interpolée.

Transféré par

Manel Medjtouh
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (1 vote)
311 vues182 pages

Interpolation Grassmannienne en Mécanique

Ce document présente une méthode d'interpolation sur les variétés grassmanniennes pour la construction de modèles réduits dépendant de paramètres. L'approche consiste à interpoler la base POD pour une nouvelle valeur de paramètre à partir des bases POD obtenues pour différentes valeurs de paramètre, puis à projeter le modèle sur la base interpolée.

Transféré par

Manel Medjtouh
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Interpolation sur les variétés grassmanniennes et

applications à la réduction de modèles en mécanique


Rolando Mosquera Meza

To cite this version:


Rolando Mosquera Meza. Interpolation sur les variétés grassmanniennes et applications à la réduction
de modèles en mécanique. Mécanique des fluides [[Link]-ph]. Université de La Rochelle, 2018.
Français. �NNT : 2018LAROS008�. �tel-02009786�

HAL Id: tel-02009786


[Link]
Submitted on 6 Feb 2019

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
UNIVERSITÉ DE LA ROCHELLE

THÈSE
pour l'obtention du Grade de
Docteur de l'Université de La Rochelle
École Doctorale: EUCLIDE
Laboratoire: LaSIE
Mention: Mécanique
présentée par:

Rolando MOSQUERA MEZA


Interpolation sur les variétés grassmanniennes et
applications à la réduction de modèles en
mécanique
sous la direction de Aziz Hamdouni et Abdallah El Hamidi
Thèse soutenue le 26 juin 2018 devant le jury composé de:

Rapporteurs :
Mejdi Azaiez Professeur, INP de Bordeaux
David Neron Professeur, ENS Paris Saclay

Examinateurs :
Joël Bensoam Directeur de recherche, IRCAM-Paris
Alain Cimetiere Professeur, ISAE. ENSMA Poitiers
Abdallah El Hamidi MCF-HDR, Université de La Rochelle
Anthony Gravouil Professeur, INSA Lyon
Jean-Pierre Raymond Professeur, Université de Touluse 3
Aziz Hamdouni Professeur, Université de La Rochelle
ii
À ma famille
Remerciements

Finalement, j'ai le plaisir d'écrire cette dernière feuille qui, à la fois, marque
la n de ce premier exercice de recherche scientique et qui me permet de dédier
une pensée à toutes les personnes qui ont contribué à ce que ce travail arrive à sa
n.

Je remercie Messieurs les professeurs Mejdi Azaiez et David Neron d'avoir


acceptés d'être les rapporteurs de ma thèse, et dont les remarques et les encoura-
gements ont été particulièrement précieux pour parfaire cette étude. Je remercie
également tous les membres du jury pour leur présence et leur intérêt pour mon
travail.
Je tiens à adresser de chaleureux remerciements à mes directeurs de thèse,
Aziz Hamdouni et Abdallah El Hamidi, qui sont des sources inépuisables de
connaissances, et qui ont toujours su me donner "la lumière" pour trouver la
bonne direction sur ce chemin scientique. Merci pour votre exigence, votre pa-
tience, votre amitié et votre générosité.

J'adresse un remerciement tout spécial à mi amigo Antoine, pour tous les


échanges scientiques et moins scientiques partagés, qui n'ont fait que m'appor-
ter joies et connaissances. Je voudrais remercier très amicalement mes collègues
de bureau, le bureau 64, Antonio, Hein et Jana pour toutes les discussions et les
échanges pendant ces années de doctorat, qui me laissent des souvenirs impéris-
sables.

Dans ce dernier paragraphe, je souhaite exprimer ma plus profonde recon-


naissance à mes parents qui m'ont soutenu depuis toujours. Yo les agradesco con
toda la fuerza de mi ser por haber formado un hombre de valores y de gran fuerza
interior. Yo agradesco a mi hermano Jean y a mis hermanas Susanne y Mery,a
pesar de que están lejos siempre los llevo en mi corazón.
Quiero agradecer a mi hija Maria por todos los años que estuvo a mi lado,
siempre te llevo en mi corazón mi muelitas. Je voudrais remercier aussi le der-
nier petit rayon de soleil qui est arrivé dans ma vie, ma lle Clémentine-Elina.
Maintenant que la thèse est nie, je te promets que c'est papa qui lira les histoires
le soir.

v
Je tiens aussi à remercier particulièrement Amandine, qui a décidé de tra-
cer, avec moi, un chemin commun et pour qui j'éprouve gratitude et admiration.
Merci inniment pour tout le soutien et la joie que tu m'apportes chaque jour.
Finalement, je souhaite dire un grand merci à ma belle-famille. Je vous remercie
profondément pour votre amitié et votre soutien pendant toutes ces années.

Encore merci à tous...

Rolando Mosquera

vi
Introduction

La plupart des simulations numériques des problèmes réels de mécanique sont


souvent très coûteuses à la fois en temps de calcul et en capacité de stockage en
mémoire. Par exemple, il est bien connu que le nombre de degrés de liberté dans
la simulation directe des écoulements turbulents est supérieur à 107 . Le temps
CPU nécessaire pour simuler une seconde est de plusieurs semaines sur des ma-
chines disposant d'un millier de processeurs. Ce qui explique l'engouement pour
les méthodes de réduction de modèles depuis plus d'une décennie. De nos jours,
la réduction de modèles est devenue très répandue dans les sciences de l'ingénieur
en général et en mécanique en particulier.

Une des méthodes de réduction de modèles les plus populaires est celle ba-
sée sur la décomposition orthogonale aux valeurs propres, dite POD (Proper
Orthogonal Decomposition). Il s'agit d'une méthode de projection, basée sur la
construction d'une base optimale au sens énergétique 1 associée à une famille don-
née de clichés correspondant à la solution complète du problème considéré.

Les problèmes de mécanique des uides, d'interaction uide-structure, de mé-


canique des structures et autres, dépendent généralement d'un ensemble de pa-
ramètres donnés, par exemple le nombre de Reynolds, le nombre de Rayleigh, les
constantes des matériaux, la forme géométrique des structures, que l'on notera ici
par λ ∈ Rp , p > 1. Les modèles réduits associés à ces problèmes dépendent eux
aussi de ces paramètres. La question naturelle qui se pose est, pour un paramètre
donné, comment construire le modèle réduit associé ?
Akkari et al. [7] ont étudié le domaine de validité d'un modèle réduit dépen-
dant d'un paramètre λ construit par projection de type Galerkin sur une base
POD pour un paramètre xé λ0 . Pour les équations aux dérivées partielles quasi-
linéaires, ce domaine de validité est xé grâce à une estimation d'erreur établie
par les auteurs entre la solution complète et celle du modèle réduit en fonction de
la régularité de la solution et du nombre de modes gardés. Des résultats similaires
ont été obtenus pour les équations de Navier-Stokes [5] et pour les équations de
Burgers [6]. Des travaux numériques sur la sensibilité paramétrique pour les pro-
blèmes d'interaction uide-structure ont été réalisés dans [49].
1. On donnera un sens précis à cette notion dans le chapitre I

vii
Une façon de construire des modèles réduits évoluant en fonction du para-
mètre λ se fait via la méthode des bases réduites (RB) basées sur les solutions
complètes obtenues pour une famille nie λ1 , · · · , λN de N valeurs du paramètre
λ. Pour les détails de cette méthode, on peut consulter [32, 58].

Une autre alternative pour construire des modèles réduits évoluant en fonction
d'un paramètre est l'utilisation de la méthode de Décomposition Propre Générali-
sée (PGD). Cette méthode permet de chercher une approximation de la solution
d'une EDP d'une façon progressive et sous la forme de somme de produits de
fonctions à variables séparées, tout en considérant les paramètres comme variable
de la solution [1214].
D'une part, en mécanique des uides, ces méthodes sont en réalité coûteuses
lorsqu'on s'intéresse à l'évolution paramétrique. D'autre part, quand la valeur
cible du paramètre ne fait pas partie des valeurs considérées dans la PGD, il faut
recourir à une méthode d'interpolation [50]. Or l'interpolation en PGD est une
notion qui pose des vraies dicultés théoriques pour l'instant.
En s'appuyant sur de nombreuses applications en mécanique des uides, on
peut armer qu'actuellement, la méthode de réduction la plus ecace, y compris
pour l'évolution paramétrique est la méthode POD. Aussi, nous nous intéressons
dans cette thèse à l'évolution paramétrique de la POD.
Deux approches se présentent :
1. La première approche consiste à interpoler directement le modèle réduit.
Dans le cas linéaire, on dispose d'un cadre théorique clair permettant de
donner un sens à l'interpolation du modèle réduit (ou champ de vecteurs
associé au système dynamique réduit). Par contre, dans le cas non linéaire
les choses restent moins évidentes et le cadre théorique est à construire.
Cette approche ne sera pas abordée dans cette thèse.
2. La deuxième approche consiste à interpoler la base POD pour une valeur du
paramètre λ à partir des bases POD obtenues pour les valeurs λ1 , · · · , λN du
paramètre. Ensuite, on construit le modèle réduit par projection Galerkin
sur la base POD interpolée. Cette approche qui fait l'objet de cette thèse a
le mérite d'avoir un cadre mathématique bien clair.
Comme cela a déjà été remarqué par Amsallem et Farhat [9], ce qui est im-
portant pour l'interpolation des bases POD, ce n'est pas la base elle-même mais
le sous-espace vectoriel qu'elle engendre. Or, l'ensemble des sous-espaces vecto-
riels d'une dimension xée m d'un espace vectoriel de dimension n > m a la
structure d'une variété diérentielle, dénommée la variété de Grassmann. Il s'agit
d'une variété qui possède une structure mathématique riche. En eet, la variété
de Grassmann a une structure d'une variété riemannienne pour laquelle on peut
calculer les applications exponentielle géodésique et son inverse (dénie locale-
ment, appelée logarithme géodésique) d'une manière explicite via des opérations

viii
matricielles. Ces applications dénissent un diéomorphisme local entre la variété
de Grassmann et l'espace vectoriel tangent à la variété en un point donné.
En se basant sur ces propriétés, Amsallem et Farhat [9] ont proposé une mé-
thode d'interpolation des bases POD sur la variété de Grassmann via l'espace
vectoriel tangent en un point de référence. Le principe est le suivant : partant
de N points Φ̄1 , · · · Φ̄N sur la variété de Grassmann correspondant aux valeurs
λ1 , · · · , λN du paramètre, on choisit un point de référence Φ̄r , on envoie, à l'aide
de l'application logarithme géodésique, ces points sur l'espace tangent en ce point
de référence, on eectue une interpolation classique sur cet espace puis on ramène
le point interpolé sur la variété de Grassmann via l'exponentielle géodésique. Ce
dernier point est le résultat de l'interpolation recherché sur la variété de Grass-
mann. Utilisée avec succès, cette méthode a néanmoins quelques limites :
1. Le domaine de validité de cette interpolation n'est pas clairement explicité.
2. Dans plusieurs applications, le résultat de l'interpolation dépend du choix
du point de référence. Un choix non pertinent de ce point de référence peut
conduire à de mauvais résultats.
Notre travail porte sur l'interpolation sur la variété de Grassmann. Il a deux
objectifs essentiels :
1. Clarier et écrire d'une manière auto-contenue les outils mathématiques
permettant la compréhension de l'interpolation sur la variété de Grassmann.
2. Proposer de nouvelles méthodes d'interpolation plus performantes.
Les contributions majeures de cette thèse sont donc les suivantes :
1. Spécier le cadre mathématique de la méthode d'interpolation existante et
proposer une estimation de l'erreur d'interpolation et un critère pour le
choix du point de référence.
2. Nous proposons une nouvelle méthode d'interpolation sur la variété de
Grassmann appelée IDW-G, qui est indépendante du choix du point de
référence.
3. En se basant sur les matrices de covariances statistiques, associées aux bases
POD considérées comme des variables aléatoires, nous proposons une se-
conde méthode d'interpolation étendant la méthode de krigeage aux variétés
grassmanniennes.
4. Grâce à la construction des géodésiques sur les variétés de Grassmann,
nous proposons une troisième méthode généralisant l'algorithme de Neville
d'interpolation de Lagrange sur un espace vectoriel à l'interpolation sur les
variétés de Grassmann. Notre algorithme sera dénommé "Méthode Neville
Grassmannien".
5. Nous proposons aussi une interpolation basée sur la notion de barycentre
généralisé sur une variété grassmannienne qui sera une alternative explicite
à IDW-G.

ix
Toutes ces nouvelles méthodes d'interpolation sont en général valables dans toute
variété riemannienne sous des hypothèses topologiques et métriques raisonnables.

Le présent document est organisé en 6 chapitres et trois annexes.


Dans le chapitre 1, nous avons présenté le principe de la construction de la base
POD et son utilisation pour construire un modèle réduit exploitable de manière
ecace au niveau numérique. Nous avons montré le résultat simple mais fonda-
mental qui indique que le modèle réduit, obtenu par projection sur la base POD,
ne dépend pas de la base POD elle-même mais du sous-espace vectoriel qu'elle
engendre. Nous avons donné une illustration de cette méthode sur l'exemple clas-
sique d'un écoulement instationnaire bidimensionnel autour d'un cylindre pour
un nombre de Reynolds Re = 110.

Le second chapitre introduit alors l'ensemble des sous-espaces vectoriels de


dimension m > 1 d'un espace vectoriel de dimension n > m. Cet ensemble, qui a
la structure de variété, est bien connu en mathématiques sous le nom de Variété
de Grassmann. Nous avons décrit dans ce chapitre tous les éléments théoriques
nécessaires aux méthodes d'interpolation sur la variété de Grassmann qui seront
développées dans les chapitres qui suivront. Après avoir détaillé la structure dif-
férentielle et riemannienne de cette variété, vue comme une variété quotient d'un
espace matriciel, nous avons déni l'application exponentielle géodésique, le rayon
d'injectivité et l'application logarithme géodésique. D'autres notions très utiles
pour justier la convergence des méthodes de descente du gradient sur la variété
de Grassmann ont été présentées : courbure sectionnelle, convexité, distance géo-
désique, angles principaux, etc.

Dans le chapitre 3, nous avons décrit une méthode d'interpolation, sur la va-
riété de Grassmann, introduite par D. Amsallem et C. Farhat dans [9]. On peut
résumer brièvement cette méthode comme suit : on dispose de N points Φ̄1 , · · · Φ̄N
sur la variété de Grassmann correspondant aux valeurs λ1 , · · · , λN du paramètre
λ et on souhaite faire une interpolation sur cette variété. On commence par choisir
un point de référence Φ̄r . On envoie, à l'aide de l'application logarithme géodé-
sique, ces points sur l'espace tangent en ce point de référence Φ̄r , on eectue
une interpolation classique sur cet espace puis on ramène le point interpolé sur
la variété de Grassmann via l'exponentielle géodésique. Ce dernier point est le
résultat de l'interpolation recherché sur la variété de Grassmann. Dans [9], d'une
part le domaine de validité de cette interpolation n'est pas clairement explicité et
d'autre part, le résultat de l'interpolation dépend fortement du choix du point de
référence. Ce dernier point a été mis en évidence par des simulations numériques
sur l'équation de Burgers et sur l'écoulement instationnaire bidimensionnel d'un
uide autour d'un cylindre.

x
Dans le chapitre 4, nous avons proposé une méthode d'interpolation dont le
domaine de validité est clairement spécié et qui ne dépend pas du choix d'un
point de référence. Pour cela, nous avons étendu la méthode IDW (Inverse Dis-
tance Weighting) aux variétés de Grassmann, notre méthode est dénommée par
IDW-G. Cette méthode est basée sur la minimisation d'une fonction quadratique
en la distance géodésique aux points d'interpolation pondérée par des coecients
dépendant de l'inverse à la distance aux paramètres d'interpolation. Nous avons
montré la convergence de notre méthode de minimisation sous des conditions
assez raisonnables. Cet algorithme donne d'excellents résultats comparé à celui
introduit dans [9]. Notre algorithme est itératif et nos résultats dépendent de la
manière dont les coecients de pondération varient en fonction de l'inverse à la
distance aux paramètres d'interpolation. Pour nous aranchir du caractère itéra-
tif de la méthode IDW-G, nous en avons proposé une version directe, via la notion
de barycentre généralisé. Cette méthode est nettement plus rapide et donne les
mêmes résultats que ceux de IDW-G.

Le chapitre 5 est dédié à la méthode de Krigeage. Il s'agit d'une méthode


d'interpolation basée sur les matrices de covariances statistiques associées aux
points d'interpolation. En considérant les matrices de covariances statistiques as-
sociées aux bases POD, vues comme des variables aléatoires, nous proposons une
troisième méthode d'interpolation étendant la méthode de krigeage aux variétés
grassmanniennes. Cette méthode possède quelques similarités avec la méthode
IDW-G dans la mesure où la valeur estimée de l'interpolé est cherchée également
comme un barycentre pondéré. Cependant, les coecients de pondération sont
calculés de manière optimale en se basant sur les matrices de covariances statis-
tiques associées aux points d'interpolation considérés.

Le dernier chapitre concerne une extension de l'algorithme de Neville qui cal-


cule le polynôme d'interpolation de Lagrange de manière récursive à partir de
l'interpolation linéaire entre deux points. En remplaçant les droites par les géo-
désiques, nous avons étendu cet algorithme aux variétés de Grassmann, il est
dénommé par Méthode de Neville Grassmannienne. Les résultats numériques de
cette méthode sont excellents au niveau de la qualité des approximations et éga-
lement au niveau du temps de calcul.

Enn trois annexes accompagnent notre manuscrit :


La première annexe porte sur le calcul eectif de la courbure sectionnelle de
la variété de Grassmann. Un algorithme de calcul de cette courbure est présenté
ainsi que le lien avec l'estimation de l'erreur d'interpolation.
Dans la deuxième annexe, nous présentons une méthode de construction de
modèles réduits invariants par l'action d'un groupe de Lie. Il s'agit d'une approche
proposée par Marsden, inspirée des théorèmes de la réduction symplectique. La

xi
clef de la construction d'un modèle réduit invariant est la construction d'une
connexion associée à un bré principal du groupe.
La troisième annexe reproduit un article accepté dans le journal DCDS - S de
l'AIMS. Cet article porte sur la méthode IDW-G.

xii
Table des matières

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii

1 La décomposition orthogonale aux valeurs propres (POD) 1


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 POD discrète dans Rn . . . . . . . . . . . . . . . . . . . . 3
1.1.2 POD dans un espace de Hilbert de dimension nie . . . . . 7
1.2 POD dans l'espace de Hilbert L2 (0, T ; H) . . . . . . . . . . . . . 10
1.3 Propriétés transmises par la donnée à la base POD . . . . . . . . 13
1.4 POD-Galerkine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.1 La base POD et les modèles d'ordre réduit . . . . . . . . . 15
1.4.2 Exemple d'un écoulement 2D autour d'un cylindre . . . . . 16
1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2 Géométrie de la variété de Grassmann 23


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Généralités sur les variétés diérentielles . . . . . . . . . . . . . . 25
2.2.1 Variété diérentielle . . . . . . . . . . . . . . . . . . . . . 25
2.2.2 Variété quotient . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.3 Variété riemannienne . . . . . . . . . . . . . . . . . . . . . 26
2.3 La variété de Grassmann . . . . . . . . . . . . . . . . . . . . . . . 30
2.3.1 Structure diérentiable . . . . . . . . . . . . . . . . . . . . 31
2.3.2 Structure riemannienne . . . . . . . . . . . . . . . . . . . . 35
2.3.3 Application exponentielle, rayon d'injectivité et logarithme
géodésique . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3.4 Courbure sectionnelle et convexité . . . . . . . . . . . . . . 47
2.3.5 La variété de Stiefel . . . . . . . . . . . . . . . . . . . . . . 48
2.3.6 Distance géodésique et angles principaux . . . . . . . . . . 49
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

3 Interpolation sur la variété de Grassmann 57


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.2 Exemple : Interpolation sur le cercle S 1 . . . . . . . . . . . . . . . 61
3.3 Interpolation sur la variété de Grassmann dans le cas général Gm (Rn ) 65
3.3.1 Choix du point de référence. . . . . . . . . . . . . . . . . . 66

xiii
TABLE DES MATIÈRES

3.3.2 Estimation de l'erreur d'interpolation . . . . . . . . . . . . 67


3.4 Exemples d'applications . . . . . . . . . . . . . . . . . . . . . . . 69
3.4.1 Équation de Burgers . . . . . . . . . . . . . . . . . . . . . 69
3.4.2 Écoulement autour d'un cylindre . . . . . . . . . . . . . . 71
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

4 IDW Grassmannienne 75
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.2 IDW-Grassmannien . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.3 Algorithme IDW-G . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4 Validation numérique . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.5 Le barycentre généralisé (BG) . . . . . . . . . . . . . . . . . . . . 86
4.6 Validation numérique . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

5 Méthode de Krigeage Grassmannien 93


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.2 Krigeage Grassmannien . . . . . . . . . . . . . . . . . . . . . . . . 95
5.2.1 Semi-variogramme expérimental . . . . . . . . . . . . . . . 99
5.2.2 Variogramme analytique . . . . . . . . . . . . . . . . . . . 100
5.3 Validation numérique . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

6 Algorithme d'interpolation Grassmann-Neville 107


6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.2 Algorithme d'interpolation Neville Grassmannien . . . . . . . . . 109
6.2.1 Barycentre entre deux points . . . . . . . . . . . . . . . . 109
6.2.2 Algorithme de Neville Grassmannien . . . . . . . . . . . . 110
6.3 Validation numérique . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.4 Bilan des diérentes méthodes d'interpolation . . . . . . . . . . . 116
6.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

7 Conclusions et perspectives 121


A Modèles réduits invariants par l'action d'un groupe de Lie 125
Annexe 125
A.0.1 Connexion sur un bré principal . . . . . . . . . . . . . . . 126
A.1 Construction de la famille ξ(t) via les connexions principales . . . 128
A.2 Détermination de la connexion A dans le cas d'une variété Rie-
mannienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
A.2.1 Connexion mécanique . . . . . . . . . . . . . . . . . . . . 131

B Courbure sectionnelle de la variété de Grassmann 133

xiv
TABLE DES MATIÈRES

Annexe 133
B.1 Courbure sectionnelle de la variété de Grassmann . . . . . . . . . 133
B.1.1 Base de l'espace horizontal . . . . . . . . . . . . . . . . . . 133

C IDW-G 135
Bibliographie 155

xv
TABLE DES MATIÈRES

xvi
Chapitre 1

La décomposition orthogonale aux

valeurs propres (POD)

Contents
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 POD discrète dans . . . . . . . . . . . . . . . . . .
Rn 3
1.1.2 POD dans un espace de Hilbert de dimension nie . . 7
1.2 POD dans l'espace de Hilbert L2 (0, T ; H) . . . . . . . 10
1.3 Propriétés transmises par la donnée à la base POD . 13
1.4 POD-Galerkine . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.1 La base POD et les modèles d'ordre réduit . . . . . . . 15
1.4.2 Exemple d'un écoulement 2D autour d'un cylindre . . 16
1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 21

1
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)

1.1 Introduction
La décomposition orthogonale aux valeurs propres, désignée par POD (Proper
Orthogonal Decomposition), est un outil théorique et pratique qu'on rencontre
dans des domaines variés comme la turbulence, les statistiques, le traitement du
signal, l'optimisation de forme, etc ... [1, 16, 21, 31, 64]. Cette méthode est connue
sous d'autres appellations : décomposition de Karhunen-Loève ou analyse en com-
posantes principales.

Le cadre mathématique de la POD est le suivant : Soient un espace de Hil-


bert (H, (., .)H ) séparable et un ensemble discret T ou continu T = [0, T ], muni
d'un opérateur de moyenne < . >. Soit m ∈ N∗ , on note par Em une famille
orthonormée de m vecteurs de H , et par
PEm : H → H
la projection orthogonale sur le sous-espace vectoriel engendré par Em .

Étant donné u ∈ L2 (0, T ; H), la POD répond à la question suivante :


trouver une base hilbertienne Φ de H telle que pour chaque sous ensemble ortho-
normal Φm , formé par les m premiers vecteurs de Φ, on a



ku(t) − PΦm (u(t))k2H 6 ku(t) − PEm (u(t))k2H (1.1)
pour tout ensemble de m vecteurs orthonormaux Em de H .

Pour résoudre le problème (1.1), on cherche les solutions du problème :




max∗ kPφ (u(t))k2H (1.2)
φ ∈H

où H ∗ = H\{0} et  
φ φ
Pφ (u(t)) = u(t),
kφk H kφkH
est la projection de u(t) sur la droite engendrée par le vecteur φ. A partir de ce
problème, on dénit une base hilbertienne de H , qui est solution de (1.1).

La base obtenue s'appelle la base POD. A la diérence des autres bases clas-
siques, comme les bases polynomiales, d'ondelettes ou de Fourier, elle n'est pas
a priori bien adaptée à un élément quelconque de H , car elle a été construite à
partir d'une donnée de référence u pour satisfaire une condition spécique.

Avec des outils élémentaires d'algèbre linéaire, on va introduire la structure d'en-


semble sous-jacent de la variété de Grassmann et on cherche les solutions du pro-
blème de minimisation (1.1) comme un point sur cet ensemble. Cette approche

2
1.1. INTRODUCTION

met en évidence que dans la recherche de la meilleure base pour représenter u,


l'objet mathématique qu'on étudie est l'espace engendré par la base et non la base
proprement dite. Ainsi, la variété de Grassmann représente le cadre naturel pour
l'étude d'interpolation de bases POD réduites, comme on verra dans le chapitre 3.

La première partie de ce chapitre est consacrée à un rappel de la POD et de


ses principales propriétés. On va montrer l'équivalence entre une décomposition
en valeurs singulières (SVD) généralisée et la POD. Dans le cas d'un espace de
Hilbert de dimension nie, on va utiliser le théorème d'approximation de Eckart-
Young-Schmidt-Mirsky pour résoudre le problème (1.1). Ce théorème nous montre
aussi comment utiliser la SVD pour le calcul numérique d'une base POD.

Dans la deuxième partie, on commence par un bref rappel de la méthode


POD-Galerkine, ensuite on présente une application sur les équations de Navier-
Stokes, qui modélise l'écoulement d'un uide newtonien incompressible autour
d'un cylindre 2D pour des nombres de Reynolds de l'ordre 102 .

1.1.1 POD discrète dans Rn


On commence par énoncer le théorème de Eckart-Young-Schmidt-Mirsky (pour
une démonstration voir [68]).
Théorème 1.1.1 (Eckart-Young-Schmidt-Mirsky) Soient X, Y ∈ Rn×n avec
0

n ≥ n0 et rang(Y ) = m < rang(X). Si l'on note σ1 (X), · · · , σn0 (X) les valeurs
singulières de X , alors :
n 0
X
1. kX − Y k2F ≥ σi (X)2
i=m+1

2. Si X = U Σ V est une SVD de X , alors


t

n 0
X
kX − Xm k2F = σi (X)2
i=m+1

où Xm = Um Σm t Vm avec Um = [U1 · · · Um ] ∈ Rn×m , Σm = diag(σ1 , · · · , σm )


0
et Vm = [V1 · · · Vm ] ∈ Rn ×m .
[Link] est la norme associée au produit scalaire de Frobenius déni sur l'espace
0
Rn×n .
La matrice Xm s'appelle factorisation singulière de rang m de X .

On se place d'abord dans le cadre mathématique le plus simple, celui où


H = Rn et T = {t1 , · · · , tn0 } muni de la moyenne arithmétique. On considère
l'espace euclidien Rn muni du produit scalaire associé à sa base canonique. Un

3
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)

ensemble orthonormal {ψ1 , · · · , ψm } dans Rn , peut-être identié à la matrice


Ψ = [ψ1 · · · ψm ] ∈ Rn×m avec t ΨΨ = Im , et engendre un unique sous-espace
vectoriel de dimension m dans Rn . Toute autre base orthonormale de cet espace
vectoriel peut être représentée par la matrice ΨA, avec A ∈ O(m), où O(m) est
l'ensemble de matrices orthogonales. Ainsi, l'ensemble des bases orthonormales
de ce sous-espace vectoriel est représenté par l'ensemble

{ΨA : A ∈ O(m)} ⊂ R∗n×m .

Maintenant, si l'on considère une matrice u non nulle dans l'espace vectoriel
R avec m 6 rang(u), on a
n×n0

ku − (ΨA) t (ΨA)ukF = ku − Ψ t ΨukF (1.3)

pour tout A ∈ O(m). Ainsi, si l'on note Ψ = {ΨA : A ∈ O(m)}, on peut dénir
l'ensemble
Gm (Rn ) = {Ψ : Ψ ∈ Rn×m , t ΨΨ = Im }
et par (1.3) l'application

Nu : Gm (Rn ) → R+
Ψ 7→ ku − Ψ t ΨukF

est bien dénie, i.e., ne dépend pas du représentant de la classe d'équivalence.


Dans la proposition suivante on va montrer qu'il existe un sous-espace vectoriel
de dimension m, qui minimise Nu .
Proposition 1.1.2 Soit u = U Σ t V , une décomposition en valeurs singulières
réduite c'est à dire :
0
 U ∈ Rn×n avec t U U = In0
 
Σr 0 0 0
 Σ= ∈ Rn ×n , Σr = diag(σ1 , · · · , σr ) avec σi > 0, i = 1, · · · , r.
0 0
 V ∈ O(n0 )
Si l'on considère la décomposition U = [ Φ Φ0 ], avec Φ ∈ Rn×m , avec m 6 r,
alors
Nu (Φ) = min Nu (Ψ)
Ψ∈Gm (Rn )

Preuve . On peut écrire


t t
Φ UΣ = Φ [ Φ Φ0 ] Σ
 
Σr 0 0
= [ Im 0m,n0 −m ] ∈ Rm×n
0 0
= [ Σm 0m,n0 −m ] , avec Σm = diag(σ1 , · · · , σm )

4
1.1. INTRODUCTION

Ainsi
Φ t Φu = Φ [ Σm 0m,n0 −m ] t V (1.4)
 
On décompose Φ0 = Φ00n,r−m Φ000
n,n0−r et on trouve que :
 
U Σ = Φn,m Φ00n,r−m Φ000 n,n0−r Σ
 
  Σ m 0 0
= Φn,m Φ00n,r−m Φ000 n,n0−r
 0 Σr−m 0 
0 0 0
= [ ΦΣm Φ Σr−m 0 ] , avec Σr−m = diag(σm+1 , · · · , σr )
00

donc
u = [ ΦΣm Φ00 Σr−m 0 ] t V (1.5)
Ainsi de (1.4) et (1.5), on a
u − Φ t Φu = [ ΦΣ Φ00 Σr−m 0 ] t V − Φ [ Σm Om,n0 −m ] t V
= ([ ΦΣ Φ00 Σr−m 0 ] − [ ΦΣm Om,n0 −m ]) t V
= [ 0 Φ00 Σr−m 0 ] t V

Maintenant comme t Φ00 Φ00 = Ir−m et la norme de Frobenius est orthogonalement


invariante, on a :
r
X
ku − Φ t
Φuk2F = σi2 (1.6)
i=m+1

donc par le théorème 1.1.1 la matrice Φ Φu de rang m, réalise le minimum de la


t

fonction Nu .

On peut observer qu'à partir de la relation (1.4) si l'on note Vm = [v1 · · · vm ] ∈


R on a
n0 ×m

Φ t Φu = Φ Σm t Vm
qui est la factorisation en valeurs singulières de rang m de u, ainsi la proposition
1.1.2 peut être vue comme un cas particulier du théorème de Eckart-Young-
Schmidt-Mirsky.

Dans la suite l'ensemble Φ, sera identié à l'unique sous-espace vectoriel de Rn en-


gendré par les colonnes d'un élément quelconque de Φ. On notera aussi uΦ = Φt Φu
la projection orthogonale sur l'espace Φ. Avec ces notations, la proposition 1.1.2
peut être énoncée de la façon suivante :
Proposition 1.1.3 0
Soit u ∈ Rn×n une matrice non-nulle, alors pour chaque
m 6 rang(u), il existe un sous-espace vectoriel Φ de Rn de dimension m tel que :

ku − uΦ kF = min ku − Y kF . (1.7)
Y ∈Rn×n0 , rang(Y )=m

5
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)

De plus si u = U Σ t V est une SVD réduite de u comme dans la proposition 1.1.2,


alors Φ = [φ1 · · · φm ] et
rang(u)
X
ku − uΦ k2F = σi2
i=m+1

Maintenant pour dénir une base POD, d'abord on considère u = [u1 , · · · , un0 ]
où ui = u(ti ) ∈ Rn avec ti ∈ {t1 · · · , tn0 }. Pour prendre en compte la moyenne
arithmétique sur l'ensemble T = {t1 · · · , tn0 }, on peut refaire tous les calculs de
la proposition 1.4, en imposant à la matrice V ∈ Rn ×n , de la SVD de u, d'être
0 0

orthonormale par rapport au produit scalaire Sn0 = n10 In0 c'est à dire :
t
V Sn0 V = In0

ainsi, l'équation (1.6) devient

Xr
1 t 2
ku − Φ ΦukF = σi2 (1.8)
n0 i=m+1

Dénition 1.1.4 L'ensemble des vecteurs orthonormaux φ1 , · · · , φm , s'appelle


base POD d'ordre m, et chaque vecteur s'appelle mode POD.

Si l'on considère PΦ : Rn×n → Rn×n , le projecteur associé à la matrice


0 0

Φ = [φ1 · · · φm ] ∈ Rn×m et PΦ : Rn → Rn , la projection sur le sous-espace Φ,


c'est-à-dire :
m
X
PΦ (u) = (u, φk )φk
k=1

on a
PΦ (u) = [PΦ (u1 ) · · · PΦ (un0 )]

Ainsi on peut parler de décomposition de u dans la base POD Φ et on a,

u = uΦ + u⊥
Φ (1.9)

Résoudre le problème 1.1 à partir du théorème de Eckart-Young-Schmidt-Mirsky,


donne une méthode de construction pratique de la base POD à partir de la
SVD, ainsi comme les algorithmes de calcul ecaces d'une SVD sont déjà bien
implémentés dans toutes les bibliothèques numériques d'algèbre linaire, on peut
facilement calculer une base POD.

6
1.1. INTRODUCTION

Figure 1.1  Décomposition orthogonale de u

1.1.2 POD dans un espace de Hilbert de dimension nie


On commence par montrer une proposition qui sera très utile dans la suite,
pour faire le lien entre une SVD et le calcul d'une base POD. Les détails de calcul
sont donnés dans la référence [15].
Proposition 1.1.5 (SVD généralisée) 0
Soient u ∈ Rn×n une matrice non-
0
0

nulle de rang r, Sn ∈ Rn×n et Sn0 ∈ Rn ×n deux matrices symétriques dénies


0
positives. Alors il existe U ∈ Rn×r , V ∈ Rn ×r et σ1 ≥ · · · ≥ σr > 0 tels que

u = U Σ tV (1.10)
et
t
U Sn U = Ir , t
V Sn0 V = Ir (1.11)
où Σ = diag(σ1 , · · · , σr ). Cette décomposition est appelée SVD généralisée de u
Preuve . A partir de (1.10) et (1.11) on a
e V = V Σ2 où K
K e = t u Sn u Sn0 et U = u Sn0 V Σ−1 (1.12)
K U = U Σ2 où K = u Sn0 t u Sn et V = t u Sn U Σ−1 (1.13)
et comme toute matrice symétrique dénie positive admet une racine carrée, on
trouve que
t 1/2 e t −1/2
D = Sn0 K Sn0
1/2 1/2 0 0
= t
(u Sn0 ) Sn (u Sn0 ) ∈ Rn ×n

est une matrice symétrique, réelle, positive et non nulle. Alors il existe r valeurs
propres non nulles λ1 ≥ · · · ≥ λr > 0 = λr+1 = · · · = λn0 , une matrice de vecteurs
propres A ∈ Rn ×r avec t A A = Ir tel que
0

p p
D A = A Σ2 avec Σ = diag( λ1 , · · · , λr ).

7
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)


Ainsi en posant V = t Sn−1/2
0 A, U = u Sn0 V Σ−1 et σi = λi , on obtient une
SVD de u.
On peut suivre le même raisonnement à partir de (1.13), pour trouver une SVD
de u.
Corollaire 1.1.6 Une SVD (U, Σ, V ) généralisée d'une matrice u ∈ Rn×n de
0

e , Σ, Ve ) de Sn1/2 u S 1/2
rang r, peut être obtenue à partir d'une SVD (U n0 avec

te e = t Ve Ve = Ir
UU
1/2
De plus, si Sn0 = √1 In0
n0
alors (U, Σ, V ) peut être obtenue par une SVD (Û , Σ̂, V̂ )
t 1/2
de Sn u avec
t
Û Û = t V̂ V̂ = Ir
Preuve . Pour la première partie on prend :
e et V = t S −1/2
U = t Sn−1/2 U Ve
n0

et pour la deuxième
1 1
U = t Sn−1/2 Û , Σ = √ Σ̂ et V = √ V̂ 
n0 n0

Dans ce qui suit on va considérer un espace de Hilbert (H, (., .)H ) de dimen-
sion n, muni d'une base B = {Xi }16i6n . Soient y1 , y2 ∈ H et Y1 , Y2 ∈ Rn×1
les vecteurs de coordonnées dans la basse B. On a (y1 , y2 )H = t Y1 Sn Y2 où
Sn = ( (Xi , Xj )H ) ∈ Rn×n est la matrice associée au produit scalaire de la base
B . Si l'on note (Y1 , Y2 )Sn = t Y1 Sn Y2 , alors pour un élément y de H de vecteur
de coordonnées Y , on a
kY k2Sn = t
Y Sn Y
t
= Y Sn1/2 t Sn1/2 Y
= t (t Sn1/2 Y ) t Sn1/2 Y
= kt Sn1/2 Y k22

Proposition 1.1.7 Soit u = {u1 , · · · , un0 } ⊂ H avec la matrice de coordonnées


0
U = [U1 , · · · , Un0 ] ∈ Rn×n . Soit Ψ = {ψ1 , · · · , ψm } un ensemble orthonormal
dans H avec la matrice de coordonnées Φ = [φ1 , · · · , φm ] ∈ Rn×m , si l'on considère
la matrice Φe = t Sn1/2 Φ ; alors
n0
X
kui − PΨ (ui )k2H = kt Sn1/2 U − Φ e t S 1/2 Uk2
e tΦ
n F (1.14)
i=1

8
1.1. INTRODUCTION

Preuve . En eet,
2
Xm

kui − PΨ (ui )k2H = ui − (ui , ψk )H ψk

k=1 H
n ! 2
X Xm Xn

= Uli Hl − (Ui , φk )Sn φlk Hl

l=1 k=1 l=1 H
! 2
X n X m

= Uli − (Ui , φk )Sn φlk Hl

l=1 k=1 H
2
Xm

= Ui − (Ui , φk )Sn φk

k=1 Sn

Ainsi,
n0 n 0 m
X X X
kui − PΨ (ui )k2H = kUi − (Ui , φk )Sn φk k2Sn
i=1 i=1 k=1
! 2
n0
X m
X
t
= Sn1/2 Ui − (Ui , φk )Sn φk

i=1 k=1 2
n 0
X t 1/2
= ( Sn U)i − (t Sn1/2 Φ t Φ Sn U)i 2
2
i=1

= kt Sn1/2 U − t Sn1/2 Φ t Φ Sn Uk2F


= kt Sn1/2 U − (t Sn1/2 Φ) t (t Sn1/2 Φ) t Sn1/2 Uk2F
= e tΦ
kt Sn1/2 U − Φ e t Sn1/2 Uk2F

Cette proposition nous montre que dans un espace de Hilbert de dimension


nie, les solutions du problème 1.1 sont celles du problème de minimisation de
projecteurs pour la norme de Frobenius.

D'autre part, si l'on considère l'ensemble

G^
m (R ) = {Ψ : Ψ ∈ R
n n×m
, t
Ψ Sn Ψ = Im }

qui est une généralisation de la variété de Grassmann qui prend en compte le


produit scalaire Sn , on se retrouve dans le même cadre mathématique que la
dénition 1.1.4 de POD dans Rn . Ainsi la solution du problème 1.1 sera un point
de cette variété de Grassmann.
Dénition 1.1.8 Soient u = {u(t1 ), · · · , u(tn0 )} ⊂ H et U ∈ Rn×n la matrice de
0

coordonnées associée à u. Pour chaque m 6 rang(U), soit Φ e ∈ Rn×m la matrice

9
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)

1/2
formée par les m premiers vecteurs singuliers à gauche de la SVD de t Sn U
(comme dans le corollaire 1.1.6) . Les vecteurs ϕ1 , · · · , ϕm donc sa matrice de
e , est appelée base POD de u d'ordre m.
coordonnées dans la base B est Φ

1.2 POD dans l'espace de Hilbert L2(0, T ; H)


Dans cette section, on considère un espace de Hilbert séparable H de dimen-
sion innie. On va montrer qu'on peut généraliser tous les concepts mathéma-
tiques rencontrés dans la dénition 1.1.8 et ainsi chercher les solutions du pro-
blème (1.1), comme un point de la variété de Grassmann d'un espace de Hilbert.
Pour tout ensemble orthonormal Bm = {φ1 , · · · , φm } dans H , on dénit l'en-
semble
Bm = {L(Bm ) : L ∈ Isom(H) }
où Isom(H) désigne l'ensemble de toutes les isométries sur H et L(Bm ) =
{Lφ1 , · · · , Lφm } ⊂ H . Ainsi, on dénit la variété de Grassmann dans l'espace
de Hilbert H , comme

Gm (H) = {Bm : Bm ⊂ H, est un ensemble orthonormal}.

De manière analogue, on considère la projection PBm : H → H , sur l'espace


engendré par Bm . C'est à dire
m
X
PBm (u) = (u, φk )H φk
k=1

Proposition 1.2.1 Soient L : H → H une isométrie et u ∈ H . On a

kLu − PL(Bm ) (Lu)kH = ku − PBm (u)kH

Preuve . En eet,
m
X
kPL(Bm ) (Lu)k2H = k (Lu, Lφk )H Lφk k2H
k=1
m
X
= |(Lu, Lφk )H |2
k=1
Xm
= k (u, φk )H φk k2H
k=1
= kPBm (u)k2H

10
1.2. POD DANS L'ESPACE DE HILBERT L2 (0, T ; H)

Donc,

kLu − PL(Bm ) (Lu)k2H = kLuk2H − kPL(Bm ) (Lu)k2H


= kuk2H − kPBm (u)k2H
= ku − PBm (u)k2H

Soit u ∈ L2 (0, T, H) non nul avec 0 < T < ∞, on va chercher la base POD comme
un problème de minimisation sur la variété de Grassmann Gm (H). La démons-
tration suit exactement la même démarche que dans la présentation classique,
donc on va rappeler seulement quelques passages qui vont permettre de faire le
lien avec le cas de la dimension nie. Tous les résultats se trouvent dans [37].

Théorème 1.2.2 L'application Nu : Gm (H) → R+ dénie par

Nu : Gm (H) 7−→ R+
R
1
Bm 7−→ T
ku(t) − PBm (u(t))k2H dt
[0,T ]

admet un point minimum.

Par la proposition 1.2.1, l'application Nu est bien dénie. Elle ne fait que traduire
que l'expression qu'on cherche à minimiser est invariante par isométrie. Pour
construire le point réalisant le minimum de Nu , on introduit l'opérateur

K : H → H
R (1.15)
1
φ 7→ T
( u(t), φ )H u(t)dt
[0,T ]

et l'opérateur des corrélations temporelles


e : L2 ([0, T ]) → L2 ([0, T ])
K
(1.16)
f 7→ ef
K

déni par Z
e )(t) = 1
(Kf ( u(t), u(s) )H f (s)ds
T [0,T ]

Ke est un opérateur compact, autoadjoint et positif, donc (voir [18]) il admet


une famille de valeurs propres positives λ e1 ≥ · · · λ
ek ≥ · · · ≥ 0 et une base ortho-
normale {vk } ⊂ L2 ([0, T ]) de vecteurs propres associés.

11
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)

e une valeur propre de K


Soit λ e , r=dim ker (K e . Si {Vk }16k6r est une base
e − λI)
orthonormale de ker( K e , alors les vecteurs
e − λI)

1
φk = p (u, Vk )L2 (0,T ) (1.17)
e
λT

forment une base orthonormale de ker(K − λI)e . Et réciproquement, pour toute


valeur propre λ de K avec r=dim ker (K − λI) e : Si {φk }16k6r est une base
orthonormale de ker(K − λI), alors les vecteurs
1
Vk = √ (u, φk )H (1.18)
λT

forment une base orthonormale de ker(K − λI)e . Ainsi K et K


e ont les mêmes
valeurs propres non nulles avec la même multiplicité.

La classe Bm de l'ensemble des vecteurs orthonormaux Bm = {φ1 , · · · , φm } ⊂


H , déni par Z
1
φk = √ u(t)vk (t)dt (1.19)
λk T [0,T ]

est le point réalisant le minimum de l'application Nu . En plus


Z +∞
X
1
ku(t) − PBm (u(t))k2H dt = λk −→ 0 (1.20)
T [0,T ] k=m+1
m→+∞

Dénition 1.2.3 L'ensemble des vecteurs orthonormaux Bm = {φ1 , · · · , φm } de


H , déni par (1.19), s'appelle base POD de u d'ordre m.

Remarques 1.2.4 Les notions mathématiques utilisées pour dénir la POD,


dans le cas d'un espace de Hilbert de dimension innie, sont simplement des
généralisations naturelles de celles utilisées dans le cas de dimension nie. En
eet, en dimension nie, la matrice u Sn0 t u Sn , dénie dans l'équation (1.13), est
simplement la matrice associée à l'opérateur K donnée dans 1.21, et la matrice
t
u Sn u Sn0 dénie dans l'équation (1.12) est la matrice de K e donnée dans 1.16.
Le théorème 1.2.2, est la généralisation naturelle de la proposition 1.1.3 dans le
cas d'un espace de Hilbert de dimension innie.

On peut dénir la POD dans le cadre plus général d'un espace de Hilbert
complexe(voir [36]). On peut aussi faire toute la construction de la POD sur un
ensemble mesurable muni d'un opérateur de moyenne.

12
1.3. PROPRIÉTÉS TRANSMISES PAR LA DONNÉE À LA BASE POD

1.3 Propriétés transmises par la donnée à la base


POD
La méthode POD est classiquement utilisée dans le cadre suivant : soit H(Ω)
un espace de Hilbert qui s'injecte continûment dans L2 (Ω), c'est à dire que :
∃ C > 0 tel que ∀ u ∈ H(Ω), kukL2 (Ω) 6 C kukH(Ω) ,

où k · kH(Ω) et k · kL2 (Ω) désignent les normes de H(Ω) et L2 (Ω), respectivement.


On se donne une fonction u ∈ L2 ([0, T ], H(Ω)) et on eectue la POD via le
produit scalaire de L2 (Ω). Autrement dit, la base POD est obtenue via le produit
scalaire de l'espace le moins régulier. On sait que la base POD est par construction
dans L2 (Ω), puisqu'elle est constituée des fonctions propres de l'opérateur :
K : L2 (Ω) −→ L2 (Ω)
Z T (1.21)
1
ϕ 7−→ T
hu (t) , ϕiL2 (Ω) u (t) dt,
0

Mais sachant que la donnée u(t) a une régularité supérieure, c.à.d celle de H(Ω),
pour presque tout t ∈ [0, T ], peut-on espérer que la base POD hérite de cette
régularité ? La réponse est donnée par le lemme suivant :

Lemme 1.3.1 Soient u ∈ L2 ([0, T ], H(Ω)) et (ϕi )i>1 la famille POD de u, obte-
nue via le produit scalaire de L2 (Ω), correspondant aux valeurs propres strictement
positives. Alors ϕi ∈ H(Ω), pour tout i > 1.

Preuve. Pour tout i > 1, notons λi > 0 la valeur propre associée à la fonction
propre ϕi . Donc on a
Z T
1
ϕi = hu (t) , ϕi iL2 (Ω) u (t) dt.
T λi 0

De plus, pour tout i > 1, la fonction


f : [0, T ] −→ R
(1.22)
t 7−→ hu (t) , ϕi iL2 (Ω)

est dans L2 ([0, T ]) et u(t) ∈ H(Ω), pour presque tout t ∈ [0, T ]. Par conséquent,
d'après la théorie classique de l'intégration au sens de Bochner, on a
Z T
1
ϕi = f (t) u (t) dt ∈ H(Ω). 
T λi 0

13
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)

Une fois la régularité de la base POD assurée, est-ce que les conditions aux
limites satisfaites par la donnée u sont transmises à la base POD ? Ou encore,
est-ce que la condition d'incompressibilité dans les équations de Navier-Stokes est
transmise du champ de vitesse à la base POD ? La réponse à ces questions peut
être donnée dans le cadre général suivant :

Lemme 1.3.2 Soient u ∈ L2 ([0, T ], H(Ω)) et (ϕi )i>1 la famille POD de u, obte-
nue via le produit scalaire de L2 (Ω), correspondant aux valeurs propres strictement
positives. Soit B un espace de Banach et L : H(Ω) −→ B une application linéaire
continue. Si L u(t) = 0, pour presque tout t ∈ [0, T ], alors Lϕi = 0, pour tout
i > 1.

Preuve. Pour tout i > 1, on a


Z T 
1
L ϕi = L hu (t) , ϕi iL2 (Ω) u (t) dt
T λi 0
Z T
= hu (t) , ϕi iL2 (Ω) L (u (t)) dt, par continuité de L
0
= 0.
Dans les exemples qui suivent, on utilisera les mêmes notations que précédem-
ment.

Exemple 1.3.3 (Conditions aux limites de Dirichlet homogènes)


Considérons le cas où u ∈ L2 ([0, T ], H 1 (Ω)). Soit Γ un sous-ensemble de ∂Ω
de mesure non nulle. Si u Γ = 0 alors ϕi Γ = 0, pour tout i > 1.
Dans ce cas, l'application
1
L : H 1 (Ω) −→ H 2 (Γ)
(1.23)
u 7−→ u Γ

est bien linéaire continue. Donc on est dans le cadre du lemme précédent.

Exemple 1.3.4 (Conditions aux limites de Neumann homogènes)


Considérons le cas où u ∈ L2 ([0, T ], H 1 (Ω)). Soit Γ un sous-ensemble de ∂Ω de
mesure non nulle. Si ∂u | = 0 alors ∂ϕ
∂ν Γ
i
∂ν Γ
| = 0, pour tout i > 1.
Dans ce cas, l'application
1
L : H 1 (Ω) −→ H − 2 (Γ)
(1.24)
∂u
u 7−→ ∂ν Γ

14
1.4. POD-GALERKINE

est bien linéaire continue. Donc on est dans le cadre du lemme précédent.

Si u ∈ L2 ([0, T ], H 2 (Ω)) alors dans ce cas, l'application


1
L : H 2 (Ω) −→ H 2 (Γ)
(1.25)
∂u
u 7−→ ∂ν Γ

est bien linéaire continue.

Exemple 1.3.5 ( Condition d'incompressibilité)


Dans le cas des équations de Navier-Stokes, la condition d'incompressibilité du
uide en considération se traduit par :
div u = 0 dans Ω.
où u est le champ de vitesse du uide et Ω ⊂ Rd est le domaine spatial contenant
le uide, supposé borné et Lipschitzien.
On suppose que u ∈ Hdiv (Ω) := {u ∈ [H 1 (Ω)]d : div u = 0}. Alors dans ce
cas, l'application
L : Hdiv (Ω) −→ L2 (Ω)
(1.26)
u 7−→ div u
est bien linéaire continue. Donc div Φi = 0, pour tout i > 1.

1.4 POD-Galerkine
1.4.1 La base POD et les modèles d'ordre réduit
Les bases POD fournissent un cadre approprié pour les modèles d'ordre réduit
(ROM) via la méthode de Galerkin. Supposons que les données u(x, t) soient la
solution d'une équation aux dérivées partielles d'évolution, comme les équations
de Navier-Stokes pour les écoulements incompressibles, qui seront considérées
dans la section de simulation numérique dans les chapitres suivants. Ces équations
peuvent être écrites symboliquement comme :
∂u
(x, t) = F (u), x ∈ Ω ⊂ Rd , t > 0, (1.27)
∂t
où F (u) ne contient que des dérivées spatiales de u et le terme source. L'en-
semble Ω est le domaine spatial étudié. Pour compléter le problème diérentiel
d'évolution (1.27), nous avons besoin d'une condition initiale
u(x, 0) = u0 (x) (1.28)

15
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)

et des conditions aux limites appropriées.


Pour les conditions aux limites stationnaires, la base de POD est généralement
calculée pour la partie uctuante
Z T
1
e(x, t) = u(x, t) −
u u(x, t) dt
T 0

de u qui a des conditions aux limites homogènes [65]. Ces conditions aux limites
homogènes sont alors prises en compte dans l'espace de Hilbert H ⊂ {H 1 (Ω)}d ⊂
{L2 (Ω)} . Par conséquent, chaque vecteur de la base POD Φ = {φ1 , · · · , φm }
d

satisfait les conditions aux limites. Le modèle d'ordre réduit est ensuite dérivé
par la projection de Galerkin des équations aux dérivées partielles (1.27) sur le
sous-espace POD de dimension m. C'est-à-dire, si on écrit
m
X
e(x, t) =
u ak (t)φk (x),
k=1

alors le vecteur (ak )16k6m satisfait le système diérentiel ordinaire


m
X d aj
Mkj = Fk (a1 , · · · , am ), 1 6 k 6 m,
j=1
dt


Mkj = hϕk ; ϕj iL2 (Ω) ,
et * !+
m
X
Fk (a1 , · · · , am ) = ϕk ; F ai ϕi ,
i=1 L2 (Ω)

avec la condition initiale :


ak (0) = hϕk ; u0 iH .
Notons que si la base POD est déterminée avec le produit interne L2 (Ω), alors la
matrice Mkj de taille m × m n'est autre que la matrice identité. Ce sera le cas
dans les applications numériques.

1.4.2 Exemple d'un écoulement 2D autour d'un cylindre


On décrit brièvement les équations gouvernant un uide newtonien incom-
pressible autour d'un cylindre xe 2D. Ce modèle sera utilisé pour construire le
modèle réduit via la base POD et tester les méthodes d'interpolation dévelop-
pées dans les chapitres qui suivent. On va rappeler rapidement les équations de
Navier-Stokes qui modélisent cet écoulement et le modèle réduit obtenu par la
projection de Galerkin sur une base POD.

16
1.4. POD-GALERKINE

-5

Figure 1.2  Domaine spatial Ω ⊂ R2 . Le cylindre centré en (xc , yc ) de rayon


0.5 est exclu de Ω.

Le domaine spatial Ω ⊂ R2 est décrit dans la gure suivante :


Les équations de Navier-Stokes qui modélisent l'écoulement sont :
( ∂
ρ( ∂t u + (u.∇) u) − div σ(u) = f sur Ω×]0, T [
(1.29)
div u = 0 sur Ω×]0, T [
avec des conditions aux bords données par :

u(x, t) = (1, 0) sur Γ1 ×]0, T ] (1.30)


n (x)
u(x, t).~ = 0, sur Γ2 ∪ Γ3 ×]0, T ] (1.31)
u(x, t) = 0, sur Γ5 ×]0, T ] (1.32)
n (x)
σ(u(x, t)).~ = 0, sur Γ4 ×]0, T ] (1.33)

et la condition initiale donnée par,

u( . , 0) = u0 ∈ {L2 (Ω)}
2
avec div u0 = 0 (1.34)

f ∈ L2 (0, T ; {L2 (Ω)} ) est un vecteur de forces donné et


2

 ρ est la densité du uide,


 µ la viscosité dynamique,
 σ(u) = 2 µ D(u) − pI2 est le tenseur des contraintes,
 D(u) = 21 (∇ u + t ∇ u) est le tenseur des taux de déformation,
 n
~ la normale au bord ∂Ω = Γ1 ∪ Γ2 ∪ Γ3 ∪ Γ4 ∪ Γ5 .

17
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)

Maintenant, pour associer à l'équation 1.29 un modèle POD-Galerkin réduit,


à partir d'une série connue de clichés u(t1 ), ·R· · , u(tn0 ), on décompose le champ de
vitesse u, en une partie stationnaire ū(x) = [0,T ] u(x, t)dt et une partie uctuante
e = u − ū. Ainsi, u(t) évolue dans l'espace V = {w ∈ H 1 (Ω)2 : B(w) = 0} où
u


 w(x, t) = 0 sur Γ1 ×]0, T ]



 n (x) = 0, sur Γ2 ∪ Γ3 ×]0, T ]
 w(x, t).~
B(w) =

 w(x, t) = 0, sur Γ5 ×]0, T ]




n (x) = 0, sur Γ4 ×]0, T ]
D(w(x, t)).~

Si l'on pose u = ue + ū dans l'équation 1.29, pour tout ϕ ∈ V on a,



ρ( ∂t
e+
u e+u
ū.∇ ū + ū.∇ u e.∇ ū + u e ), ϕ − (∇.σ(u), ϕ) = (f, ϕ)
e.∇ u

m
X
Ainsi, pour PΦ (e
u(t)) = aj (t) φj et ϕ = φi avec Φ = {φ1 , · · · , φm } une base
j=1
POD de ue, on obtient

m
X m
X
a0i (t) = aj (t) Bji + aj (t)al (t) Cj`i + Di (1.35)
j=1 j,`=1

avec
Z
Bji = − (ρ(ū.∇ φj + φj .∇ ū), φi ) − T r(µ D(φj ).∇φi )dΩ

Cj`i = −(φj .∇φ` , φi )
Z
Di = (f, φi ) + ρ(ū.∇ ū, φi ) + T r(µ D(ū).∇ φi )dΩ

Pour construire les bases POD, pour le nombre de Reynolds Re = 110, les snap-
shots utilisés sont calculés par le software Fenics, en utilisant des éléments nis
de type Taylor-Hood P2/P1 sur le maillage représenté en gure 1.3.

Le maillage 1.3 n'est pas uniforme, il comprend 10199 n÷uds et est rané
près du cylindre. Le plus petit élément est inscrit dans un cercle de diamètre
0.0494m, et le plus grand dans un cercle de diamètre 0.6292m.

18
1.4. POD-GALERKINE

Figure 1.3

Sur la gure 1.4 on a reporté le module du champ vitesse complet u(x, t) où


l'on voit apparaître les détachements tourbillonnaires autours du cylindre. Et sur
la gure 1.5, on montre le champ uctuant complet.

Figure 1.4  Module du vecteur vitesse pour Re = 110 .

Figure 1.5  Module du champ uctuant pour Re = 110.

Sur les gures 1.6 et 1.7 on a reporté les modèles réduits associés aux bases
POD construites respectivement avec 4 et 14 modes. On peut voir que le modèle
réduit associé à une base POD avec 4 modes, donne une approximation impor-
tante du modèle uctuant.

19
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)

Figure 1.6  Modèle réduit associé à une base POD avec 4 modes .

Figure 1.7  Modèle réduit associé à une base POD avec 14 modes.

Sur la gure 1.8 on compare les coecients temporels ai (t) obtenus directe-
ment par la projection de la solution sur une base POD et les coecients dyna-
miques âi (t) obtenus comme solution du système dynamique 1.35. On peut voir
que les modes temporels dynamiques approchent bien les coecients obtenus par
projection.

20
1.5. CONCLUSION

Figure 1.8  Coecients temporels projetés ai (t) et dynamiques â(t)


pour Re = 110.

1.5 Conclusion
Dans ce chapitre on a présenté le principe de la construction de la base POD
et son utilisation pour construire un modèle réduit, qu'on a appliqués sur les
équations de Navier-Stokes. On a illustré cette méthode sur l'exemple classique
d'un écoulement 2D autour d'un cylindre pour Re = 110. On a vu que cette
méthode peut être ecace pour prédire des écoulement instationnaires.

Le c÷ur de cette thèse concerne l'utilisation et l'évolution paramétrique des


bases POD, en particulier l'interpolation des bases POD à partir de valeurs
connues pour un certain nombre de paramètres. Au préalable, comme il a été
mentionné précédemment, l'interpolation des bases POD utilise la variété de
Grassmann, ainsi dans le Chapitre 2, on introduira les outils nécessaires pour
la compréhension de la variété de Grassmann ainsi que les calculs eectifs d'un
certain nombre d'opérations qui interviendront dans la dénition de l'interpola-
tion sur cette variété.

21
CHAPITRE 1. LA DÉCOMPOSITION ORTHOGONALE AUX VALEURS PROPRES
(POD)

22
Chapitre 2

Géométrie de la variété de

Grassmann

Contents
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Généralités sur les variétés diérentielles . . . . . . . 25
2.2.1 Variété diérentielle . . . . . . . . . . . . . . . . . . . 25
2.2.2 Variété quotient . . . . . . . . . . . . . . . . . . . . . 26
2.2.3 Variété riemannienne . . . . . . . . . . . . . . . . . . . 26
2.3 La variété de Grassmann . . . . . . . . . . . . . . . . . 30
2.3.1 Structure diérentiable . . . . . . . . . . . . . . . . . . 31
2.3.2 Structure riemannienne . . . . . . . . . . . . . . . . . 35
2.3.3 Application exponentielle, rayon d'injectivité et loga-
rithme géodésique . . . . . . . . . . . . . . . . . . . . 42
2.3.4 Courbure sectionnelle et convexité . . . . . . . . . . . 47
2.3.5 La variété de Stiefel . . . . . . . . . . . . . . . . . . . 48
2.3.6 Distance géodésique et angles principaux . . . . . . . . 49
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 54

23
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

2.1 Introduction
Comme on a vu au chapitre 1, la détermination de la solution réduite ne
dépend pas de la base, mais du sous-espace vectoriel engendré par cette base.
En eet, étant donnée la matrice u ∈ Rn×n (qui représente le modèle complet),
0

la base POD associée peut être représentée par une matrice Φ ∈ Rn×m avec
t
Φ Φ = Im et engendre un unique sous-espace vectoriel de dimension m de Rn .
Toute autre base orthonormale de cet espace vectoriel peut être représentée par
la matrice ΦA, avec A ∈ O(m). Si l'on note le modèle réduit par uΦ , on a

uΦ = Φ t Φu
= (ΦA) t (ΦA)u. (2.1)

alors, le modèle réduit est déterminé par l'espace engendré par la base POD.

Ainsi, dans l'étude de l'interpolation de bases réduites, il faut s'assurer que


la base interpolée dépend du sous-espace engendré et non pas de la base choisie
pour cet espace. Donc le bon objet à étudier est l'ensemble des sous-espaces vec-
toriels d'une certaine dimension d'un espace vectoriel donné. Cet ensemble n'est
pas un espace vectoriel mais une variété diérentielle qu'on appelle variété de
Grassmann. Cette structure mathématique est le bon objet pour développer des
méthodes d'interpolation de bases réduites.

Dans ce chapitre, on se propose d'introduire les notions nécessaires pour la


compréhension de la structure de cette variété. On a choisi d'être le plus exhaus-
tif possible pour être auto-contenu. En particulier, on va présenter d'une manière
claire et rigoureuse l'origine de la détermination de l'expression explicite de l'ex-
ponentielle géodésique et de son inverse dénommé logarithme géodésique. Nous
introduirons aussi des notions importantes utiles pour les chapitres suivants, qui
sont la distance géodésique, la courbure sectionnelle, le rayon de convexité ainsi
que le rayon d'injectivité de la variété de Grassmann, qui sera utilisé dans ce
chapitre pour dénir l'inverse de l'exponentielle géodésique.

Ce chapitre est organisé de la manière suivante : dans la section (2.2.1) on va


rappeler les notions fondamentales des variétés diérentielles : connexion ane,
métrique riemannienne et espaces topologiques quotient. Dans la section (2.3)
on va expliciter un atlas diérentiable de la variété de Grassmann ainsi qu'une
métrique riemannienne. On montrera que l'application exponentielle géodésique
et sa réciproque admettent des représentations en termes de matrices. On nira
la section en décrivant la distance géodésique, les angles principaux et la variété
de Stiefel.

24
2.2. GÉNÉRALITÉS SUR LES VARIÉTÉS DIFFÉRENTIELLES

2.2 Généralités sur les variétés diérentielles


Toutes les dénitions et résultats introduits dans cette section se trouvent
dans [24, 30, 39, 46, 47].

2.2.1 Variété diérentielle


Dénition 2.2.1 Une carte locale d'un espace topologique séparé M , est un
couple (U, ϕ) où U est un ouvert de M et ϕ : U → ϕ(U ) ⊂ Rn est un ho-
méomorphisme, avec n ∈ N. Deux cartes (U1 , ϕ1 ), (U2 , ϕ2 ) avec U1 ∩ U2 6= 0 sont
dites compatibles si
ϕ2 ◦ ϕ−1
1 : ϕ1 (U1 ∩ U2 ) → ϕ2 (U1 ∩ U2 )

est un diéomorphisme. Comme le montre la gure (2.1) ci-dessous.

U1 U2 M

ϕ1 ϕ2

ϕ2 ◦ ϕ−1
1

u
u u

R n Rn
ϕ1 (U1 ∩ U2 ) ϕ2 (U1 ∩ U2 )

Figure 2.1  Cartes compatibles


Dénition 2.2.2 Une variété diérentielle de dimension n est un espace topo-
logique séparé M , muni d'un ensemble de cartes A = {ϕi : Ui → ϕ(Ui ) ⊂ Rn }i∈I
maximal (au sens qu'il contient toute carte compatible avec celles de A), deux à
deux compatibles et telle que {Ui }i∈I est un recouvrement ouvert de M .
Dénition 2.2.3 Soit M une variété diérentielle de dimension n et p ∈ M .
L'espace tangente en p noté par Tp M est l'ensemble déni par
Tp M = {γ 0 (0) : γ est une courbe tracée dans M telle que γ(0) = p}
muni de la structure d'espace vectoriel induite par la bijection.
Tp M → Rn
γ 0 (0) 7→ (ϕ ◦ γ)0 (0)
où (U, ϕ) est une carte en p.

25
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

2.2.2 Variété quotient


Soit M une variété diérentielle munie d'une relation d'équivalence ∼. Soit
x ∈ M , on note par x̄ la classe d'équivalence de x et par M/ ∼ l'ensemble des
classes d'équivalence. Si l'on munit cet ensemble de la topologie quotient 1 alors,
par construction, la projection π : M → M/ ∼ est une application continue.

Le graphe d'une relation d'équivalence est déni par :

graph(∼) = {(x, y) ∈ M × M : x ∼ y}

Les résultats suivants nous permettent de savoir quand l'espace quotient d'une
variété admet une structure de variété diérentielle. Pour une démonstration voir
[54].

Théorème 2.2.4 L'espace quotient M/ ∼ est une variété diérentielle si les


conditions suivantes sont vériées :
i) Le graph(∼) est une sous-variété de M × M
ii) La projection π1 : graph(∼) → M dénie par π1 (x, y) = x est une submer-
sion.
iii) Le graph(∼) est une partie fermée de M × M
La dimension de la variété quotient M/ ∼ est donnée par :

dim(M/ ∼) = 2dim(M ) − dim(graph(∼))

Proposition 2.2.5 Soit M/ ∼ une variété quotient de la variété M


i) Si dim(M/ ∼) < dim(M ), alors pour chaque x ∈ M , π −1 (x̄) est une sous-
variété de M de dimension dim(M ) − dim(M/ ∼).
ii) Si dim(M/ ∼) = dim(M ) alors la classe d'équivalence π −1 (x̄) est un en-
semble discret de points de M .

2.2.3 Variété riemannienne


a. Métrique riemannienne
Dénition 2.2.6 Une métrique riemannienne g de classe C k sur une variété
diérentielle M est la donnée d'une famille gp de formes bilinéaires symétriques
dénies positives sur les espaces tangents Tp M , de sorte que pour tous champs
de vecteurs X et Y de classe C k , la fonction g(X,Y) soit de classe C k . La paire
(M, g) est appelée variété riemannienne.
1. La topologie quotient est celle dénie par la continuité de la projection canonique π .

26
2.2. GÉNÉRALITÉS SUR LES VARIÉTÉS DIFFÉRENTIELLES

Étant donnée une variété riemannienne (M, g) connexe et [a, b] ⊂ R , la longueur


d'une courbe C 1 par morceaux α : [a, b] → M , est dénie par :
Z b
l(α) = kα0 (t)kdt
a

Cette longueur est invariante par reparamétrage régulier. On peut dénir aussi
une distance sur la variété M , associée à la métrique g . En eet, soient x, y ∈ M ,
on dénit
d(x, y) = inf l(α)
α∈Ωx,y

où Ωx,y est l'ensemble des courbes α : [a, b] → M , C 1 par morceaux avec α(a) = x
et α(b) = y .
Proposition 2.2.7 La fonction d dénit une distance sur M , et la topologie
associée à cette distance coïncide avec la topologie initiale de la variété M.

La preuve de cette proposition repose sur le fait que la géométrie riemannienne


est proche, localement, de la géométrie euclidienne et sur le fait qu'en géométrie
euclidienne, le segment est la courbe qui réalise le plus court chemin. Pour une
démonstration voir [39].

b. Connexion ane
Dans cette partie, on considère une variété M de dimension n > 1 et on note
par X(M ) l'ensemble de champs de vecteurs sur M .
Dénition 2.2.8 Une connexion ane sur une variété M est une application
∇ : X(M ) × X(M ) → X(M )
(X, Y ) 7→ ∇X Y
vériant les propriétés suivantes :
i) ∇f X1 +gX2 Y = f ∇X1 Y + g∇X2 Y
ii) ∇X (Y1 + Y2 ) = ∇X Y1 + ∇X Y2
iii) ∇X (f Y ) = (X.f )Y + f ∇X Y
Pour tous X, X1 , X2 , Y, Y1 , Y2 ∈ X(M ) et f, g ∈ C ∞ (M )
Un champ de vecteurs déni le long d'une courbe lisse γ : I → M avec γ̇ 6= 0
est une application lisse V : I → T M telle que V (t) ∈ Tγ(t) M pour tout t ∈ I .
On note par X(γ) l'ensemble des champs de vecteurs dénis le long de γ .

L'opérateur dérivée covariante D


dt
: X(γ) → X(γ) est déni par :
D
V (t) = (∇X Y )(γ(t))
dt

27
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

où X, Y ∈ X(M ) et localement X ◦ γ = γ̇ et Y ◦ γ = V , i.e., si X1 ◦ γ = γ̇ ,


Y1 ◦ γ = V et X2 ◦ γ = γ̇ , Y2 ◦ γ = V , alors
(∇X1 Y1 )(γ(t)) = (∇X2 Y2 )(γ(t))
Comme γ̇ 6= 0, on peut montrer que de tels champs X, Y existent et que la
dérivée covariante est bien dénie. On observe que γ̇ est un champ le long de γ .
Proposition 2.2.9 La dérivée covariante le long d'une courbe γ vérie les pro-
priétés suivantes :
i) dt
D D
(aV + bW ) = a dt D
V + b dt W
ii) dt (f V ) = f V + f dt V
D 0 D

iii) dt
D
(X ◦ γ)(t) = (∇γ̇ X)(γ(t))
Pour tous a, b ∈ R ; V, W ∈ X(γ); f ∈ C ∞ (M ) et X ∈ X(M ).
Dénition 2.2.10 Une courbe γ : I → M est une géodésique de la connexion
ane ∇ si D
dt
γ̇ = 0.
Si l'on considère X ∈ X(M ) avec X ◦ γ = γ̇ , alors γ est une géodésique si
(∇X X)(γ(t)) = 0 pour tout t ∈ I . Soit (U, ϕ = (x1 , · · · , xn )) une carte locale de
n
X
M on peut écrire ϕ ◦ γ = γ i ei où γ i = xi ◦ γ et {ei }16i6n est la base canonique
i=1
de Rn . Ainsi, pour k ∈ {1, · · · , n} et γ(t) ∈ U on a :
X
γ̈ k (t) + γ̇ i (t)γ̇ j (t)Γkij (γ(t)) = 0 (2.2)
i,j
P
où ∇∂i ∂j = k Γkij ∂k et Γkij sont les symboles de Christoel associés à la connexion
ane ∇.

La caractérisation des géodésiques (2.2) est un système d'équations diéren-


tielles (non linéaire) du second ordre en les coordonnées γ . Alors par le théorème
de Cauchy-Lipschitz, pour tout point p et tout vecteur v ∈ Tp M , il existe une
unique géodésique γ : I → M dénie sur un intervalle ouvert maximal I contenant
0 tel que γ(0) = p et γ̇(0) = v ; on note cette géodésique γv,p .
Proposition 2.2.11 Soit ε > 0 et γp,v une géodésique dénie sur l'intervalle
] − ε, ε[, alors pour c > 0, la géodésique γp,cv est dénie sur l'intervalle ] − εc , εc [ et
γp,cv (t) = γp,v (ct).
Proposition 2.2.12 Soit p ∈ M , il existe un voisinage V de p dans M , un réel
ε > 0 et une application γ : ] − 2, 2[×U → M ; où
U = {(q, w) : q ∈ V, w ∈ Tq M avec |w| < ε}
tel que γq,w (t) := γ(t, q, w), t ∈] − 2, 2[ est l'unique géodésique sur M qui passe
par q en t = 0 avec une vitesse initiale w, pour tout (q, w) ∈ U .

28
2.2. GÉNÉRALITÉS SUR LES VARIÉTÉS DIFFÉRENTIELLES

Pour une démonstration de la proposition 2.2.12 voir [47].


Dénition 2.2.13 Soit D = {(q, v) : q ∈ M, v ∈ Tq M } tel que γq,v (t) existe pour
tout t ∈ [0, 1]. On dénit l'application exponentielle par :

exp : D → M
(q, v) 7→ γq,v (1) = γq, |v|
v (|v|)

A partir de la proposition 2.2.12, on peut dénir B(0, ε) = {v : v ∈ Tq M, |v| < ε}


tel que exp soit déni pour v ∈ B(0, ε), on note par expq (v) = exp(q, v) pour
v ∈ B(0, ε).

Soit x ∈ M , on note d0x expx l'application linéaire tangente de expx au point


0x ∈ Tx M . On peut montrer que d0x expx = IdTx M . Ainsi, le théorème d'inversion
locale entraîne que l'application exponentielle est un diéomorphisme local en
0x ∈ Tx M .

Proposition 2.2.14
(i) Étant donné un point x0 ∈ M , il existe un voisinage U de x0 et un nombre
ε > 0 tels que
1. Pour tous x, y ∈ U , il existe un unique vecteur v ∈ Tx M , de norme
inférieure à ε et tel que expx (v) = y .
2. Pour tout x ∈ U , l'application expx est un diéomorphisme de la boule
ouverte de centre 0x et de rayon ε de Tx M dans son image.
3. Pour tout vecteur v , de norme inférieure à ε, la courbe expx (tv), avec
t ∈ [0, 1], réalise la distance de x à y .
(ii) Une courbe paramétrée proportionnellement à la longueur d'arc est une géo-
désique, si et seulement si elle réalise localement la distance riemannienne
entre ses points.

Étant donnée une variété riemannienne (M, g), on peut montrer qu'il existe
une unique connexion ∇, appelée connexion de Levi-Civita vériant en plus des
conditions de la dénition 2.2.8, les deux conditions suivantes :
 ∇ est symétrique (ou sans torsion) :

∇X Y − ∇Y X = [X, Y ]

 ∇ est compatible avec la métrique :

X.g(Y, Z) = g(∇X Y, Z) + g(∇X Z, Y )

pour tous champs de vecteurs X, Y et Z .

29
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

2.3 La variété de Grassmann


Soient n, m deux entiers avec m 6 n, la variété de Grassmann notée par
Gm (Rn ) est l'ensemble de tous les R-sous-espaces vectoriels de Rn de dimension
m. Dans cette section on va étudier sa structure diérentiable et métrique qui vont
nous permettre de trouver les formules explicites pour l'exponentielle géodésique
et son inverse. La variété de Grassmann Gm (Rn ) peut être réalisée de plusieurs
façons. En voici quelques-unes :
1. Si l'on note Rn×m
∗ l'ensemble de matrices de taille n × m, dont les colonnes
sont linéairement indépendantes ; la variété de Grassmann peut être réalisée
à partir de la relation d'équivalence dénie sur Rn×m
∗ :

X ∼ Y si et seulement si span(X) = span(Y ) (2.3)

où span(X) dénote le sous-espace vectoriel engendré par les colonnes de


la matrice X , que l'on notera par X̄ dans toute la suite. L'application
π : R∗n×m → Gm (Rn ), qui à chaque matrice X associe sa classe d'équivalence
X̄ , s'appelle projection canonique.
2. Comme une partie de l'ensemble de matrices symétriques ; plus précisément

Gm (Rn ) ≡ X ∈ Rn×n : t X = X, X 2 = X et trX = m

3. On peut aussi réaliser la variété de Grassmann comme un espace homogène


à partir de l'action à droite :

Rn×m
∗ × GLm (R) −→ R∗n×m
(X, A) 7→ XA

c'est-à-dire comme l'espace quotient R∗n×m/GLm (R), où GLm (R) est l'ensemble de
matrices inversibles de taille m × m.

Toutes ces réalisations de la variété de Grassmann sont diéomorphes et nous


permettent d'étudier ses caractéristiques topologiques et métriques, on peut trou-
ver plus de proprétés sur ces variétés dans [2,26,52]. Dans notre cas, la réalisation
de la variété de Grassmann Gm (Rn ) qui est la plus pertinente pour l'interpola-
tion est celle décrite en 1. En eet, on va se retrouver à manipuler des matrices
de taille réduite n × m, ce qui représente un grand avantage du point de vue
numérique, car dans la pratique m  n.

Exemple 2.3.1 (L'espace projectif) Pour m = 1, G1 (Rn ) est l'ensemble de


toutes les droites passant par 0 dans Rn . On peut penser l'espace projectif comme
l'ensemble de toutes les directions (sans orientation) dans Rn .

30
2.3. LA VARIÉTÉ DE GRASSMANN

Figure 2.2  Un point de G1 (Rn ) est une droite passant par 0 dans Rn .

2.3.1 Structure diérentiable


Proposition 2.3.2 Soient X, Y ∈ Rn×m
∗ , la relation d'équivalence 2.3 vérie les
propriétés suivantes :
i) La projection canonique π : Rn×m
∗ → Gm (Rn ) est une application continue
et ouverte.
ii) Gm (Rn ) est un espace topologique séparé.

Preuve . i) Il est évident que π est une application continue par dénition de la
topologie sur Gm (Rn ). Pour montrer que π est une application ouverte, il sut
de remarquer que si U ⊂ Rn×m
∗ est un sous-ensemble ouvert alors :
[
π −1 (π(U)) = UA
A∈GLm (R)

Pour ii), il sut de montrer que

graph(∼) := {(X, Y ) ∈ R∗n×m × Rn×m


∗ :X ∼Y}

est un sous-ensemble fermé.

En eet, graph(∼) = F −1 (0n×m ) où

F : Rn×m
∗ × Rn×m
∗ −→ Rn×m
(X, Y ) 7→ Y − X(t XX)−1 t XY

est une application continue.

31
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

Maintenant, on va construire un atlas diérentiable sur la variété de Grass-


mann. Soit X ∈ Rn×m et soit I = {i1 , · · · , im } une famille d'entiers tels que
1 6 i1 < · · · < im 6 n. On note par X I , la sous-matrice de X , formée par
les lignes i1 , · · · , im , et par X I la sous-matrice de X , formée par les lignes res-
0

tantes. On a clairement X I ∈ Rm×m et X I ∈ R(n−m)×m . On considère également


0

l'ensemble :
VI := {X ∈ R∗n×m : X I ∈ GLm (R)}

Lemme 2.3.3 L'ensemble VI vérie les propriétés suivantes :


i) Si X ∈ VI et A ∈ GLm (R) alors XA ∈ VI .
ii) Soit X ∈ VI , alors il existe une unique matrice A ∈ GLm (R) telle que
(XA)I = Im .

Preuve . La preuve de i) est élémentaire. Montrons alors ii), pour cela il sut
de remarquer que X I ∈ GLm (R) vérie :
I
X(X I )−1 = Im

En eet, pour tout 1 6 j 6 m et 1 6 α 6 m, on a


m
X
I
X(X I )−1 iα j
= Xiα l (X I )−1
lj
l=1
m
X
= (X I )iα l (X I )−1
lj
l=1

= X I (X I )−1 iα j
= (Im )iα j

Maintenant, soient A1 , A2 ∈ GLm (R) tels que (XA1 )I = (XA2 )I = Im . Alors,

XA2 = XA1 (A−1


1 A2 )

et par suite
(XA2 )I = (XA1 )I (A−1
1 A2 )

D'oùA−1
1 A2 = Im .

Proposition 2.3.4 L'ensemble {VI }I vérie les propriétés suivantes :


i) {π(VI )}I est un recouvrement ouvert de Gm (Rn ).
ii) π −1 (π(VI )) = VI .
iii) π|VI : VI → π(VI ) est une application continue et ouverte.

32
2.3. LA VARIÉTÉ DE GRASSMANN

Preuve . Pour i), comme π est une application ouverte et surjective, il sut de
remarquer que {VI }I est un recouvrement ouvert de R∗n×m . Pour la partie ii), si
l'on prend X ∈ π −1 (π(VI )), alors, il existe Y ∈ VI tel que X ∼ Y , donc X = Y A
avec A ∈ GLm (R), ainsi grâce à la partie i) du lemme précèdent, on obtient
X ∈ VI . Le point iii) est une conséquence immédiate de la proposition 2.3.2.

Proposition 2.3.5 L'application sI : π(VI ) → VI qui à chaque élément L de


π(VI ) lui associe sI (L), l'unique représentation matricielle de L dans VI telle que
(sI (L))I = Im , est une section continue de π|VI .

Preuve . A partir de ii) du lemme 2.3.3 on déduit que sI est bien dénie ; en
plus si X ∈ VI est tel que π(X) = L alors sI (L) = X(X I )−1 .
D'autre part, comme
sI ◦ π|VI (X) = X(X I )−1

est une application continue, par dénition de la topologie quotient, on déduit


que sI est une application continue. Finalement on a π|VI ◦ sI = idπ(VI ) .

Proposition 2.3.6 Soit ϕI : π(VI ) → R(n−m)×m l'application dénie par


0
ϕI (L) = (sI (L))I

alors les paires {(π(VI ), ϕI )}I dénissent une structure de variété diérentiable
sur Gm (Rn ) de dimension m × (n − m).

Preuve . On a déjà vu que {π(VI )}I est un recouvrement ouvert de Gm (Rn ), on


va montrer que ϕI admet un inverse continue. En eet, on dénit l'application

ϕI−1 : R(n−m)×m → π(VI )

par ϕ−1
I (Y ) = π(A), où A est déni par A = Im et A = Y . Comme l'application
I I 0

Y 7→ A est continue de R (n−m)×m


dans VI on déduit que ϕ−1
I est une application
continue.
En outre,

ϕI (ϕ−1
I (Y )) = ϕI (π(A))
0
= (sI (π(A)))I
I 0
= A(AI )−1 )
car AI = Im
0
= AI
= Y

33
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

et
 
I0
ϕ−1
I (ϕ I (L)) = ϕ−1
I (s I (L))
 
= ϕ−1
I (B(B I −1 I 0
) ) où B ∈ VI est tel que π(B) = L

= π (B(B I )−1
= π(B)
= L
Maintenant supposons que π(VI ) ∩ π(VJ ) 6= ∅, on va montrer que
ϕJ ◦ ϕ−1
I : ϕI (π(VI ) ∩ π(VJ )) → ϕJ (π(VI ) ∩ π(VJ ))

est diérentiable.

En eet, soit Y ∈ ϕI (π(VI ) ∩ π(VJ )) et soit A ∈ Rn×m tel que AI = Im , AI =


0

Y , on a
ϕJ (ϕ−1
I (Y )) = ϕJ (π(A))
0
= (sJ (π(A)))J
J 0
= A(AJ )−1 )
0
= AJ (AJ )−1
ainsi ϕJ ◦ ϕ−1
I est diérentiable.

Proposition 2.3.7 La projection canonique π : Rn×m


∗ → Gm (Rn ) est une sub-
mersion.
Preuve . Il sut de remarquer que les sections sI : π(VI ) → VI sont diéren-
tiables. En eet soit Y ∈ R (n−m)×m
, alors
sI ◦ ϕ−1
I (Y ) = sI (π(A))
= A(AI )−1
= A
où A ∈ Rn×m est telle que AI = Im et AI = Y , donc sI est diérentiable.
0

Ainsi on a montré que la variété de Grassmann Gm (Rn ) est une variété dié-
rentiable de dimension m × (n − m).
Exemple 2.3.8 (Structure diérentiable sur la droite projective) A toute
droite D non verticale dans R2 , on peut lui associer sa pente p = ϕ1 (D), qui
est le réel tel que (1, p) ∈ D. Si la droite D n'est pas horizontale, elle possède
une anti-pente a = ϕ2 (D), qui est le réel a tel que (a, −1) ∈ D. Les deux ap-
plications pente et anti-pente, constituent des cartes, et le changement de carte
1 : p 7→ a = 1/p est un C -diéomorphisme de R\{0} sur R\{0}. Cet atlas
ϕ2 ◦ ϕ−1
dénit une structure diérentielle sur la droite projective.

34
2.3. LA VARIÉTÉ DE GRASSMANN

p
a
1

-1

Figure 2.3  Un point de G1 (R2 ) est une droite passant par 0 dans R2 .

2.3.2 Structure riemannienne


Dans la section précédente on a explicité une structure diérentiable sur la
variété de Grassmann Gm (Rn ), dans cette partie on va montrer comment munir
la variété de Grassmann d'une métrique riemannienne. On renvoie le lecteur à
[2, 20, 26, 73] pour plus de détails.

Métrique sur la variété de Grassmann


L'ouvert Rn×m
∗ muni de la métrique g dénie par

gY (Z1 , Z2 ) = tr((t Y Y )−1 t Z 1 Z2 )

est une variété riemannienne, où Y ∈ R∗n×m et Z1 , Z2 ∈ Rn×m . Clairement, cette


métrique est invariante par l'action à droite du groupe GLm (R), en eet :
   
tr (t (Y A)Y A)−1 t (Z1 A)Z2 A = tr (t Y Y )−1 t Z1 Z2
pour tout A ∈ GLm (R).

Comme, grâce à la proposition 2.3.7 et au théorème 2.2.4, chaque bre π −1 (X̄)


est une sous-variété de Rn×m
∗ de dimension m2 et étant donné que Rn×m ∗ est un
sous-ensemble ouvert de R n×m
, alors pour chaque Y ∈ π (X̄), on a la décompo-
−1

sition suivante :
Rn×m = TY π −1 (X̄) ⊕ (TY π −1 (X̄))⊥
Le sous-espace HY := (TY π −1 (X̄))⊥ est appelé espace horizontal en Y , et le
sous-espace VY := TY π −1 (X̄) est appelé espace vertical en Y .

35
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

Comme π −1 (Ȳ ) = Y GLm (R), on a

VY = Y Rm×m

et
HY = {Z ∈ Rn×m : t ZY = 0}
Les projections associées sont
PYv : Rn×m → VY

Z 7→ Y (t Y Y )−1 t Y Z

et
PYh : Rn×m → HY

Z 7→ Z − Y (t Y Y )−1 t Y Z
appelées respectivement projections verticale et horizontale.
Lemme 2.3.9 Soit Y ∈ π −1 (X̄), alors l'application (dY π)|HY : HY → TX̄ Gm (Rn )
est un isomorphisme.

Preuve . En eet, il est évident que VY ⊂ Ker dY π et comme π est une submer-
sion, on a

dim π −1 (X̄) = dim(Rn×m ) − dim(Gm (Rn ))


= dim Ker dY π + dim Im dY π − dim(Gm (Rn ))
= dim Ker dY π

Ainsi, on a montré que VY = Ker dY π donc dY π|HY est une application linéaire
injective, on conclut en remarquant que dim HY = dim(Gm (Rn )).

Maintenant, on va montrer comment munir la variété de Grassmann d'une


métrique Riemannienne, pour cela, à chaque vecteur tangent dans Gm (Rn ), on
souhaite associer un seul vecteur tangent dans R∗n×m . D'après le lemme 2.3.9,
on sait que pour tout vecteur tangent ξ¯ ∈ TȲ Gm (Rn ) et pour toute matrice
A ∈ GLm (R), il existe un unique ξY A ∈ HY A tel que dY A π(ξY A ) = ξ¯. Donc pour
dénir une métrique sur la variété de Grassmann, on doit montrer que l'expression
suivante :
gY A (ξY A , ηY A ) (2.4)
est indépendante de A, où η̄ ∈ TȲ Gm (Rn ). Ceci découle de la proposition suivante.
Proposition 2.3.10 Soit Y ∈ Rn×m
∗ et ξ¯ ∈ TȲ Gm (Rn ), alors pour chaque A ∈
GLm (R) on a ξY A = ξY A, où ξY A ∈ HY A et ξY ∈ HY .

36
2.3. LA VARIÉTÉ DE GRASSMANN

Preuve . Soit Y comme dans l'énoncé de la proposition, on considère l'ensemble


UY := {Z ∈ Rn×m ∗ : t Y Z ∈ GLm (R)} qui est un voisinage ouvert de Y . Alors
π(UY ) est l'ensemble de tous les sous-espaces vectoriels de dimension m de Rn qui
ne contient aucune direction orthogonale à Ȳ , en plus comme π est une application
ouverte π(UY ) est un voisinage ouvert de Ȳ . On dénit l'application
sY : π(UY ) −→ UY

Z̄ 7→ Z(t Y Z)−1 t Y Y
sY est bien dénie et vérie
π|UY ◦ sY = id (2.5)
Si on considère la section transversale ane EY := {W ∈ R∗n×m : t Y (W −Y ) = 0},
orthogonale à la bre Y GLm (R), on a clairement Im(sY ) = EY et donc
sY : π(UY ) → EY

est une bijection entre une partie de Gm (Rn ) et le sous-espace ane EY de R∗n×m .
Maintenant, soit Z̄ ∈ π(UY ), on va montrer que Im dZ̄ sY = HY . En eet,

soit γ : I → π(UY ) tel que γ(0) = Z̄ , comme t Y sY (γ(t)) −t Y Y = 0 on a


t
Y dtd |t=0 sY (γ(t)) = 0 donc Im dZ̄ σY ⊂ HY . D'un autre côté

dim TZ̄ π(UY ) = dim Gm (Rn )


= dim HY

et comme dZ̄ sY est injective, grâce à (2.5), alors on a bien


Im dZ̄ sY = HY . (2.6)
Maintenant soit ξ¯ ∈ TȲ Gm (Rn ), pour chaque A ∈ GLm (R) il existe un unique
vecteur tangent ξY A ∈ HY A tel que dY A π(ξY A ) = ξ¯. Or, d'après (2.5) on sait que
¯ = ξ¯ donc le lemme (2.3.9) implique que dȲ sY A (ξ)
dY A π(dȲ sY A (ξ)) ¯ = ξY A . Par
conséquent, comme sY A (Z̄) = sY (Z̄)A on obtient
ξY A = ¯
dȲ sY A (ξ)
= ¯
dȲ (sY .A)(ξ)
= ¯
dȲ sY (ξ).A
= ξY .A

On peut remarquer que sur toute variété M qui vérie une condition de type
2.4, on peut dénir une métrique Riemannienne sur la variété quotient. Munie de
cette métrique, la variété M / ∼ est appelée variété quotient Riemannienne de
M.

37
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

Connexion Riemannienne sur la variété de Grassmann


Soit M une variété Riemannienne et soit M/ ∼ la variété quotient rieman-
nienne associée. On note par (H, M, p) le bré vectoriel qui a pour bre l'espace
horizontal Hx , clairement H est un sous-bré du bré tangent TM. Par le lemme
2.3.9, on sait que l'application tangente dπ|H : H → T (M/ ∼) est telle que sa
restriction à chaque bre est un isomorphisme d'espaces vectoriels, donc par un
résultat classique de la théorie des brés vectoriels, dπ|H est un isomorphisme
dans la catégorie des brés vectoriels [41]. Ainsi étant donné un champ de vec-
teurs X̄ sur M/ ∼, on peut lui associer un champ de vecteurs X sur M déni
par X := (dπ|H )−1 ◦ X̄ ◦ π , ce champ sera appelé le champ de vecteurs horizontal
associé à X̄ . Nous allons annoncer quelques résultats sur les variétés quotients
qui vont nous permettre de trouver une formule explicite pour les géodésiques sur
la variété de Grassmann, pour les preuves correspondantes nous pouvons nous
reporter à Serge Lang [48].
Proposition 2.3.11 Soient ∇ et ∇
¯ , les connexions Riemanniennes respective-
ment sur M et M/ ∼. Alors, pour tous champs de vecteurs X̄, Ȳ sur M/ ∼ et
pour tout a ∈ M on a

(da π)−1 ¯ X̄ Ȳ (ā)) = P h (∇X Y (a))


(∇
|Ha
a

où Pah : Ta M → Ha est la projection horizontale et X, Y sont les champs hori-


zontaux associés.

Dénition 2.3.12 Soit M un espace vectoriel (ou un ouvert dans un espace


vectoriel) muni d'une métrique Riemannienne g [Link] dit que la mé-
trique est horizontalement invariante si, pour tous champs vecteurs X, Y sur M ,
pour tout y ∈ M et η ∈ Hy , on a

dy g(X, Y )(η) = g(dy X(η), Y (y)) + g(X(y), dy Y (η))

Proposition 2.3.13 Avec les mêmes hypothèses que dans la proposition précé-
dente, si en plus M est un espace vectoriel (ou un ouvert dans un espace vectoriel)
et la métrique est horizontalement invariante alors on a

(da π)−1 ¯ X̄ Ȳ (ā)) = P h (da Y (X(a)))


(∇
|
Ha
a

Dénition 2.3.14 ¯ ∈ T Gm (Rn ) un champ vectoriel déni le long de


Soit t 7→ ξ(t)
la courbe t 7→ γ(t) ∈ Gm (Rn ). On dit que le champ ξ¯ est transporté parallèlement
le long de γ si
∇γ̇(t) ξ¯ = 0
pour tout t, où ∇ est la connexion Riemannienne sur la variété de Grassmann.

38
2.3. LA VARIÉTÉ DE GRASSMANN

Dénition 2.3.15 Une courbe t 7→ Y (t) ∈ R∗ ×


n m
est appelée horizontale sur
n m
R∗ × si Ẏ (t) ∈ HY (t) pour tout t.

Théorème 2.3.16 Soit t 7→ γ(t) ∈ Gm (Rn ) une courbe lisse avec γ 0 (t) 6= 0 pour
tout t, et soit Y0 ∈ π −1 (γ(0)). Alors
n m
i) Il existe un unique relèvement horizontal t 7→ Y (t) ∈ R∗ × avec condition
initiale Y (0) = Y0 .
n m
ii) t 7→ γ(t) ∈ Gm (Rn ) est une géodésique, si et seulement si, t 7→ Y (t) ∈ R∗ ×
est une géodésique.

Proposition 2.3.17 Soit t 7→ γ(t) ∈ Gm (Rn ) une courbe lisse et soit t 7→ Y (t) ∈
n m ¯ ∈
R∗ × la courbe horizontale associée à γ par le théorème précédent. Soit t 7→ ξ(t)
T Gm (Rn ) un champ de vecteurs déni le long de la courbe γ . Alors le champ ξ¯
est transporté parallèlement le long de γ , si et seulement si,

˙ + Y (t)(t Y (t)Y (t))−1 t Ẏ (t)ξ(t) = 0


ξ(t) (2.7)

où ξ = (dπ|H )−1 ◦ ξ¯.

Preuve . D'abord, comme HY (t) ⊂ TY (t) (R∗n×m ) on a que ξ est un champ le long
de la courbe Y . Maintenant, étant donné que Ddtξ̄ (t) = ∇ ¯ γ̇(t) ξ¯ est un élément de
Tγ(t) Gm (R ) et que (dY (t) π)|HY (t) : HY (t) → Tγ(t) Gm (Rn ) est un isomorphisme
n

linéaire, alors
 
Dξ¯ Dξ¯
(t) = 0 ⇐⇒ (dY (t) π)−1
|HY (t) (t) = 0 ∈ Rn×m .
dt dt

Soient X̄, Z̄ ∈ X(Gm (Rn )) tels que Z̄ ◦ γ(t) = ξ(t)


¯ , X̄ ◦ γ(t) = γ̇(t) et soient
X, Z ∈ X(Rn×m∗ ) les champs de vecteurs horizontaux associés. On a

Z ◦ Y (t) = (dY (t) π)−1


|H ◦ Z̄ ◦ π ◦ Y (t)
Y (t)

= (dY (t) π)−1 ¯


◦ ξ(t)
|H Y (t)

= ξ(t)

et

X ◦ Y (t) = (dY (t) π)−1


|H ◦ X̄ ◦ π ◦ Y (t)
Y (t)

= (dY (t) π)−1


|H ◦ γ̇(t)
Y (t)

= Ẏ (t)

39
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

La métrique dénie sur la variété de Grassmann étant horizontalement inva-


riante et comme Rn×m
∗ est un sous-ensemble ouvert dans un espace vectoriel, par
la proposition 2.3.13 on a
 
Dξ¯ ¯ X̄ Z̄(γ(t))

(dY (t) π)−1
|HY (t) (t) = (dY (t) π)−1
|HY (t) ∇
dt
= PYh(t) (∇Ẏ (t) ξ)

mais PYh(t) (∇Ẏ (t) ξ) = 0 si et seulement si ∇Ẏ (t) ξ ∈ VY (t) = Y (t)Rm×m . Comme ∇
est la connexion Riemannienne dans l'espace vectoriel Rn×m , on obtient
(∇Ẏ (t) ξ) = (∇X Z)(Y (t))
= dY (t) Z(X ◦ Y (t))
= dY (t) Z(Ẏ (t))
d
= (Z ◦ Y )(s)
ds |s=t
d
= ξ(s)
ds |s=t
donc PYh(t) (∇Ẏ (t) ξ) = 0, si et seulement si, il existe M (t) ∈ Rm×m tel que
˙ = Y (t)M (t).
ξ(t) (2.8)
De (2.8) on obtient
˙
M (t) = (t Y (t)Y (t))−1 t Y (t)ξ(t) (2.9)
D'autre part, ξ(s) ∈ HY (s) implique que t Y (s)ξ(s) = 0, donc
t ˙ =0
Ẏ (s)ξ(s) +t Y (s)ξ(s) (2.10)
ainsi, en combinant (2.10) et (2.9) on obtient
M (t) = −(t Y (t)Y (t))−1 t Ẏ (t)ξ(t)
et nalement en substituant M (t) dans (2.8) on conclut que
˙ + Y (t)(t Y (t)Y (t))−1 t Ẏ (t)ξ(t) = 0.
ξ(t)
Maintenant, on dispose de tous les éléments qui vont nous permettre de trouver
une expression pour une géodésique t 7→ γ(t) ∈ Gm (Rn ) avec point initial γ(0) =
Y (0) et une vitesse initiale γ̇(0) ∈ Tγ(0) Gm (Rn ), où t 7→ Y (t) est la courbe
horizontale associée à γ . La géodésique γ est caractérisée par ∇γ̇ γ̇ = 0, ceci nous
dit que le vecteur tangent à γ est transporté parallèlement le long de γ .
Soit ξY0 l'unique vecteur tangent dans HY0 tel que dY0 π(ξY0 ) = γ̇(0) où Y0 = Y (0).
On considère une décomposition en valeurs singulières ξY0 (t Y0 Y0 )−1/2 = U Σ t V .
Avec ces hypothèses, on a le théorème suivant :

40
2.3. LA VARIÉTÉ DE GRASSMANN

Théorème 2.3.18 La géodésique t 7→ γ(t) s'écrit sous la forme



γ(t) = span Y0 (t Y0 Y0 )−1/2 V cos(Σt) + U sin(Σt)
Cette formule se simplie évidement si on prend Y0 orthonormale.
Preuve . Soient γ, U Σt V et t 7→ Y (t) comme dans les hypothèses du théorème.
Comme γ = π ◦ Y donc γ̇(t) = dY (t) π(Ẏ (t)) et Ẏ (t) ∈ HY (t) ce qui implique que
ξY (t) = Ẏ (t), en particulier ξY0 = Ẏ (0) . Si on prend ξ¯ = γ̇ dans (2.7), on obtient

Ÿ (t) + Y (t)(t Y (t)Y (t))−1 t Ẏ (t)Ẏ (t) = 0 (2.11)


Comme Ẏ (t) ∈ HY (t) , on a
t
Y (t)Ẏ (t) = 0 (2.12)
donc on a t Y (t)Y (t) est constante. D'autre part, grâce à (2.11) et (2.12) on a :
d ht i
Ẏ (t)Ẏ (t) = t Ÿ (t)Ẏ (t) +t Ẏ (t)Ÿ (t)
dt    
t t −1 t t t −1 t
= − Y ( Y Y ) Ẏ Ẏ Ẏ − Ẏ Y ( Y Y ) Ẏ Ẏ
= 0
Donc t Ẏ (t)Ẏ (t) est constante. En outre,
Ẏ (0)(t Y Y )−1/2 = U Σ t V
alors t (U Σt V )(U Σt V ) = V Σ2 t V , et en multipliant à droite par (t Y Y )−1/2 dans
l'expression (2.11), on obtient :
Ÿ (t)(t Y Y )−1/2 + Y (t)(t Y Y )−1/2 (t Y Y )−1/2 t Ẏ Ẏ (t Y Y )−1/2 = 0,
puis
Ÿ (t)(t Y Y )−1/2 + Y (t)(t Y Y )−1/2 V Σ2 t V = 0,
et nalement
Ÿ (t)(t Y Y )−1/2 V + Y (t)(t Y Y )−1/2 V Σ2 = 0.
Maintenant, soit A := (t Y0 Y0 )−1/2 V ∈ Rm×m , on doit résoudre l'équation
Ÿ (t)A + Y (t)AΣ2 = 0
avec les conditions initiales Y (0) = Y0 et Ẏ (0) = Ẏ0 ∈ HY0 .
On sait aussi que
Ẏ (0)(t Y0 Y0 )−1/2 = U Σt V
avec U ∈ Rn×m , Σ = diag(σ1 , · · · , σm ) et V ∈ Rm×m tels que t U U = Im , σi > 0
et t V V = Im . Considèrons la matrice antisymétrique
 
0 −Σ
X= ∈ R2m×2m
Σ 0

41
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

et la matrice  
Q = Y0 A | Ẏ0 AΣ−1 ∈ Rn×2m
 
où Y0 A | Ẏ0 AΣ−1 est la matrice formée par les blocs matriciels Y0 A et Ẏ0 AΣ−1 .
La solution de notre équation s'écrit alors
 
Im
Y (t)A = Qexp(Xt)I2m,m où I2m,m :=
0
En eet, Ẏ (t)A = Qexp(Xt)XI2m,m et Ÿ (t)A = Qexp(Xt)X 2 I2m,m donc
Ÿ (t)A + Y (t)AΣ2 = Q exp(Xt)X 2 I2m,m + Q exp(Xt)I2m,m Σ2

= Qexp(Xt) X 2 I2m,m + I2m,m Σ2
   2 
−Σ2 Σ
= Qexp(Xt) +
0 0
= 0
et clairement Y (t)A = Qexp(Xt)I2m,m vérie les conditions initiales demandées.

En outre, comme X est une matrice antisymétrique, on peut écrire


 
0 −Im
exp(Xt) = cos(Σt)2m×2m + sin(Σt)2m×2m
Im 0
Ainsi,
   
cos(Σt) 0
Y (t)A = Q + Q sin(Σt)
0 Im
   cos(Σt)    0

−1 −1
= Y0 A | Ẏ0 AΣ + Y0 A | Ẏ0 AΣ
0 sin(Σt)
= Y0 A cos(Σt) + Ẏ0 AΣ−1 sin(Σt)
donc
 
t
Y (t) = Y0 ( Y0 Y0 ) −1/2
V cos(Σt) + Ẏ0 ( Y0 Y0 )
t −1/2
V Σ sin(Σt) t V (t Y0 Y0 )1/2
−1

(2.13)
Finalement, comme γ(t) = span Y(t) et V ( Y Y ) t t 1/2
est inversible on a bien
γ(t) = span(Y0 (t Y0 Y0 )−1/2 V cos(Σt) + U sin(Σt))

2.3.3 Application exponentielle, rayon d'injectivité et loga-


rithme géodésique
Proposition 2.3.19 Soit Y¯0 ∈ Gm (Rn ), l'application exponentielle est dénie
par
expY¯0 : TY¯0 Gm (Rn ) −→ Gm (Rn )
v 7−→ expY¯0 (v) = γY¯0 ,v (1)

42
2.3. LA VARIÉTÉ DE GRASSMANN

où γY¯0 ,v (t) = Y (t) avec



Y (t) = Y0 (t Y0 Y0 )−1/2 V cos(Σt) + U sin(Σt) t V (t Y0 Y0 )1/2

et
U Σt V = (dY0 π)−1 (v)(t Y0 Y0 )−1/2
est une décomposition en valeurs singulières.

Preuve . Le théorème 2.3.18, assure l'existence de la géodésique horizontale


Y (t) ∈ Rn×m
∗ qui vérie les conditions initiales Y (0) = Y0 et Ẏ (0) = (dY0 π)−1 (v).

On peut remarquer que d0Y¯0 expY¯0 = I , donc le théorème d'inversion locale


implique que expY¯0 réalise un diéomorphisme local dans 0Y¯0 .

Dénition 2.3.20 Soit X ∈ Gm (Rn ), le rayon d'injectivité de (Gm (Rn ), g) en


X , est déni par

rI (X) = sup{ρ : expX : B(0X̄ , ρ) → expX (B(0X̄ , ρ)) est un diéomorphisme }

et le rayon d'injectivité de Gm (Rn ) est déni par :

rI = inf{rI (X) : X ∈ Gm (Rn )}

La valeur du rayon d'injectivité pour Gm (Rn ) est donnée par le théorème qui
suit :

Théorème 2.3.21 Soient n, m deux entiers positifs tels que min{m, n−m} > 2,
alors le rayon d'injectivité de la variété de Grassmann Gm (Rn ) est π/2.

La preuve du théorème 2.3.21 se trouve dans [42]. Ce théorème nous donne le


rayon de la boule où l'existence de la fonction réciproque de l'exponentielle est
dénie, on la note par expX−1
ou logX . Dans la suite on donnera l'expression de
expX .
−1

Proposition 2.3.22 Soit Bd (Ȳ0 , π/2) la boule dans Gm (Rn ) pour la topologie
induite par la distance géodésique et Z̄ ∈ Bd (Ȳ0 , π/2), alors :

exp−1
Ȳ0
(Z̄)(t Y0 Y0 )−1/2 = dY0 π(U arctan(Σ̃)t V )

où U Σ̃t V = PYh0 (π|−1 t


UY0 (Z̄))( Y0 Y0 )
−1/2
est une décomposition en valeurs singu-
lières.

43
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

Preuve . Par le théorème 2.3.21, il existe une unique géodésique γ : R → Gm (Rn )


telle que
γȲ0 ,v (1) = Z̄ et v = exp−1
Ȳ0
(Z̄),

où γ(t) = Y (t) et t 7→ Y (t) ∈ Rn×m


∗ est la géodésique horizontale associée à γ .
Comme Y (1) = Z̄ , il existe B ∈ GLm (R) tel que
Y (1) = ZB (2.14)
Considérons une décomposition en valeurs singulières
Ẏ0 (t Y0 Y0 )−1/2 = U Σt V.

La relation (2.13) donne


Y (t)A = Y0 Acos(Σt) + Ẏ0 AΣ−1 sin(Σt), (2.15)
où A := (t Y0 Y0 )−1/2 V ∈ GLm (R), et comme
dY0 π : HY0 → TȲ0 Gm (Rn )

est par construction une isométrie, donc si Σ = diag(σ1 , · · · , σm ) alors


d(Ȳ0 , Z̄)2 = d(Ȳ0 , expȲ0 (v))2
= ḡȲ0 (v, v)
= gY0 (Ẏ0 , Ẏ0 )
h  −1 i
= tr (t Y0 Y0 )−1/2 V Σ2 (t Y0 Y0 )−1/2 V
= trΣ2
= σ12 + · · · + σm
2

ainsi |σi | < π/2, pour tout 1 6 i 6 m. Donc il existe un unique σ̃i ∈ R tel
que tan−1 σ̃i = σi pour tout 1 6 i 6 m. En posant Σ̃ := diag(σ̃1 , · · · , σ̃m ) on a
Σ = tan−1 (Σ̃).  
On va montrer que les σ̃i sont les valeurs singulières de π|−1
UY0 (Z̄) − Y 0 (t Y0 Y0 )−1/2 .
D'abord d(Z̄, Ȳ0 ) < π/2 implique que Z̄ ∩ Ȳ0⊥ = ∅ (i.e., t Y0 Z ∈ GLm (R), donc
Z ∈ UY0 ). On peut remarquer aussi que

PYh0 (π|−1 −1
UY (Z̄)) = π|UY (Z̄) − Y0 ,
0 0

où PYh0 : Rn×m → HY0 est la projection horizontale.

A partir de l'identité cos σi = σ̃i−1 sin σi = (1 + σ̃i2 )−1/2 , on s'aperçoit que


cos(tan−1 (Σ̃)) = Σ̃−1 sin(tan−1 (Σ̃)) = (Im + Σ̃2 )−1/2 ∈ GLm (R) (2.16)

44
2.3. LA VARIÉTÉ DE GRASSMANN

Donc, d'après (2.14),(2.15) et (2.16) on obtient


ZBA = Y (1)A
= Y0 A cos(Σ) + Ẏ0 AΣ−1 sin(Σ)
  −1/2
−1 2
= Y0 A + Ẏ0 AΣ Σ̃ Im + Σ̃
  −1/2
Z = Y0 A + Ẏ0 AΣ−1 Σ̃ Im + Σ̃2 (BA)−1 .

Par suite, on a
π|−1 t
UY0 (Z̄) := Z( Y0 Z)
−1 t
Y 0 Y0
 
= Y0 A + Ẏ0 AΣ−1 Σ̃ (t Y0 Y0 )−1 (t Y0 Y0 )
= Y0 + Ẏ0 AΣ−1 Σ̃A−1
et
π|−1 t
UY (Z̄) − Y0 = Ẏ0 ( Y0 Y0 )
−1/2
V Σ−1 Σ̃t V (t Y0 Y0 )1/2
0

= (U Σ̃t V )(t Y0 Y0 )1/2


On conclut donc
(π|−1 t
UY (Z̄) − Y0 )( Y0 Y0 )
−1/2
= U Σ̃t V
0

Comme (dY0 π) (v) = Ẏ0 , on vérie que


−1

(dY0 π)−1 (exp−1


Ȳ0
(Z̄))(t Y0 Y0 )−1/2 = U tan−1 (Σ̃)t V
i.e.,  
exp−1
Ȳ0
( Z̄) = d Y 0 π U tan−1
(Σ̃)t
V ( t
Y 0 Y 0 ) 1/2


U Σ̃t V = (π|−1 t
UY (Z̄) − Y0 )( Y0 Y0 )
−1/2
0

est une décomposition en valeurs singulières.


Exemple 2.3.23 (Exponentielle et logarithme sur l'espace projectif) On
va écrire les applications exponentielle et logarithme dans ce cas particulier.

Soient p̄ ∈ G1 (Rn ) et v ∈ Tp̄ G1 (Rn ). Grâce à la proposition 2.3.19, on sait


que
expp̄ (v) = span(pV cos(Σ) + U sin(Σ)t V )
où U Σt V = (dp π)−1 (v) = Γ ∈ Rn , donc U = Γ
||Γ||
,Σ = ||Γ|| et V = 1. Ainsi
expp̄ (v) = Yp,Γ (1) où
Γ
Yp,Γ (t) = cos(t||Γ||)p + sin(t||Γ||) .
||Γ||

45
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

est la formule bien connue de la géodésique dans S n−1 de point initial p et de


vitesse initiale Γ.

Maintenant, soit x̄ ∈ G1 (Rn ) pour dénir le logarithme, il faut prendre en


compte que d(p̄, x̄) = arccos(| < p, x > |), où < . , . > note le produit scalaire
canonique de Rn . Ainsi, le logarithme sera déni seulement sur G1 (Rn )\C(p̄) où
π
C(p̄) = {z̄ ∈ G1 (Rn ) : d(p̄, z̄) = }
2
s'appelle le cut-locus en p̄. Ainsi, si x̄ ∈ G1 (Rn )\C(p̄) selon 2.3.22 y = s(x̄) =
x < p, x >−1 −p ∈ Rn est tel que
y
exp−1
p (x) = arctan(||y||)
||y||

comme ||y||2 = 1
|<p,x>|2
− 1 et arccos(x) = arctan( 1 − x2 /x), on peut écrire :
 
arccos(| < p, x > |) | < p, x > |
exp−1
p (x) = p x − | < p, x > |p
1 − | < p, x > |2 < p, x >

ainsi
 
arccos(| < p, x > |) | < p, x > |
exp−1
p̄ (x̄) = p dp π x − | < p, x > |p) .
1 − | < p, x > |2 < p, x >

On peut aussi vérier directement que expp (Γ) = x où Γ = y


||y||
arctan(||y||).
En eet,
Γ
expp (Γ) = cos(||Γ||)p + sin(||Γ||)
||Γ||
Γ
= cos(arctan(||y||))p + sin(arctan(||y||))
||Γ||
et comme

cos(arctan(||y||)) = ||y||−1 sin(arctan(||y||)) = (1 + ||y||2 )−1/2

on a :
 
2 −1/2 Γ
expp (Γ) = (1 + ||y|| ) p + ||y||
||Γ||
 
Γ
= | < p, x > | p + ||y||
||Γ||
p Γ
= | < p, x > |p + 1 − | < p, x > |2
||Γ||
= x.

46
2.3. LA VARIÉTÉ DE GRASSMANN

2.3.4 Courbure sectionnelle et convexité


Dénition 2.3.24 Soient ξ, η et ζ champs des vecteurs sur Gm (Rn ). Le tenseur
de courbure de (Gm (Rn ), g) est déni par
R(ξ, η, ζ) = ∇η ∇ξ ζ − ∇ξ ∇η ζ − ∇[η,ξ] ζ
où ∇ est la connexion associée à g et [η, ξ] est le crochet de Lie de η et ξ . En
utilisant la métrique, on peut transformer ce tenseur (3, 1) en un tenseur (4, 0)
que l'on notera encore R :
R(u, v, w, z) = g(R(u, v, w), z)
Quand les vecteurs u et v sont linéairement indépendants, l'expression R(u, v, u, v)
dépend seulement de span{u, v}, qui justie la dénition de la courbure section-
nelle (qui est une généralisation de la courbure de Gauss).
Dénition 2.3.25 Soit X ∈ Gm (Rn ) et P un plan de TX̄ Gm (Rn ). La courbure
sectionnelle de P est dénie par κ(P, X) = R(u, v, u, v), où {u, v} est une base
orthonormée de P.
La théorème suivant montre que Gm (Rn ) possède une courbure sectionnelle po-
sitive et bornée.
Théorème 2.3.26 [73] Soient n, m deux entiers positifs tels que min{m, n −
m} > 2, alors la courbure sectionnelle de la variété de Grassmann Gm (Rn ) varie
entre 0 et 2.
La preuve du théorème 2.3.26 se trouve dans [8].
Dénition 2.3.27 Si 4 est une borne supérieure des courbures sectionnelles sur
Gm (R ), le rayon de convexité rc est déni par
n
 
1 π
rc = min rI (M ), √ .
2 4
Par les théorèmes 2.3.21 et 2.3.26, un calcul direct montre que le rayon de
convexité de la variété de Grassmann est rc = π4 .
Dénition 2.3.28 Une boule B(X, r) ⊂ Gm (Rn ) est dite fortement convexe, si
deux points quelconques dans B(X, r) peuvent être reliés par une unique géodé-
sique qui réalise la distance, et cette géodésique est entièrement contenue dans
B(X, r).
Le théorème suivant donne une condition susante sur le rayon d'une boule pour
qu'elle soit fortement convexe.
Théorème 2.3.29 Soit X ∈ Gm (Rn ). Si r < rc , alors la boule B(X, r) est
fortement convexe.
Pour une preuve de ce théorème on peut voir [59]. Le théorème 2.3.29 montre que
si r < π4 alors la boule B(X, r) est fortement convexe.

47
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

2.3.5 La variété de Stiefel


La variété de Stiefel est l'ensemble de toutes les familles formées de m vecteurs
orthonormaux dans Rn . Plus précisément, un ensemble orthonormal de m vecteurs
dans Rn muni de sa métrique canonique, peut être identié à une matrice X ∈
Rn×m .

Proposition 2.3.30 La variété de Stiefel St(m, n), est de dimension nm− m(m+1)
2
et pour chaque X ∈ St(m, n),

TX St(m, n) = {W ∈ Rn×m : t W X + t X W = 0}

Preuve . En eet, on a St(m, n) = F −1 (Im ) où F : Rn×m → Sym(m) est


l'application dénie par
F (X) = t XX − Im
avec Sym(m) l'espace vectoriel de matrices symétriques. Maintenant, comme pour
chaque X ∈ F −1 (Im ), F est une submersion, on a dim V (m, n) = nm − m(m+1)
2
et on peut vérier que ker dX F = {W ∈ Rn×m : t W X + t X W = 0}.

Sur l'ensemble Rn×m


∗ , on avait considéré la relation d'équivalence

X ∼ Y, si et seulement si, X = Y

où X = {X A : A ∈ GLm (R)}, et on avait réalisé la variété de Grassmann


comme l'ensemble Gm (R) = {X : X ∈ R∗n×m }. D'un autre côté, l'application qui
à chaque Y ∈ St(m, n) et P ∈ O(m), associe Y P ∈ V (m, n), dénit une action
à droite du groupe O(m) sur la variété St(m, n). Si l'on note par Ỹ son orbite,
c'est-à-dire l'ensemble
Ỹ = {Y P : P ∈ O(m) }
et par St(m,
f n) l'ensemble d'orbites, on a le résultat suivant :

Proposition 2.3.31 L'application

f
C : St(m, n) −→ Gm (Rn )
X̃ 7→ X

est une bijection.

Preuve . En eet, soient X1 , X2 ∈ St(m, n) avec X1 = X2 , alors il existe


A ∈ GLm (R) tel que X1 = X2 A. Ainsi, A est la matrice de passage de deux bases
orthonormées, donc A ∈ O(m) et X̃1 = X̃2 . Pour montrer que C est surjectif,
on considère une matrice X dans R∗n×m , alors par la procédure d'orthogonali-
sation de Gram-Schmidt, il existe Q ∈ GLm (R), tel que X Q ∈ St(m, n) alors
Xg f
Q ∈ St(m, n). Maintenant, par dénition C(X gQ) = X Q et comme X = X Q

48
2.3. LA VARIÉTÉ DE GRASSMANN

on a montré que C est surjectif.

À partir de la proposition 2.3.31, on peut montrer que les variétés dénies à


partir des ensembles Rn×m
∗ ou St(m, n) sont diéomorphes. La preuve utilise les
résultats qui se trouvent dans [53].
Remarque 2.3.32 Comme la variété de Stiefel St(m, n) est un espace topolo-
gique compact, alors la variété de Grassmann Gm (Rn ) est compacte.

Dans les exemples d'interpolation qu'on présentera dans les chapitres suivants,
on considère la variété de Grassmann comme

Gm (Rn ) = { X̄ : X ∈ St(m, n) }

où X̄ = {XP : P ∈ O(m) }. Dans ce cas, la représentation matricielle de


l'exponentielle expX (v) est

XV cos(Σ) + U sin(Σ). (2.17)

et celle du logarithme exp−1


X
(Y )

Uα tan−1 (Σα ) t Vα (2.18)

où X, Y ∈ Gm (Rn ), v ∈ TX Gm (Rn ) et

(dX π)−1 (v) = U Σ t V

Uα Σtα Vα = Y (t XY )−1 − X
sont des décompositions en valeurs singulières.

2.3.6 Distance géodésique et angles principaux


La variété de Grassmann Gm (Rn ) est l'ensemble des sous-espaces vectoriels
de dimension m dans Rn . Le choix de travailler avec une réalisation possible
(sous-ensemble de l'espace de projecteur, espace homogène ou ensemble de classes
d'équivalence), se fait en fonction du besoin pratique ou théorique de cet objet
mathématique. Même si la variété de Grassmann n'est pas une sous-variété d'un
espace euclidien, plusieurs de ses propriétés se déduisent quand sa représenta-
tion est vue dans l'espace euclidien sous-jacent. En particulier, l'invariance de la
métrique et des géodésiques peut être caractérisée par ces représentations matri-
cielles.
Dans cette section, on va montrer que la distance riemannienne dénie sur la
variété de Grassmann à partir de sa métrique, coïncide avec celle de la distance

49
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

entre des sous-espaces vectoriels dénie par les angles principaux.

On commence notre analyse avec la variété de Grassmann la plus simple, le


cercle S 1 . Intuitivement, on sait que deux points p, q sur le cercle déterminent
deux arcs, de même longueur si p = −q , et de longueur diérente si p 6= −q .
Ainsi, dans le cas p 6= −q , l'arc le plus petit doit être la géodésique qui réalise
la distance entre p et q . D'un autre côté, si θ est l'angle formé par les droites
engendrées par p et q , alors la longueur de cet arc est égale à θ.

Proposition 2.3.33 Soient p, q , deux points sur le cercle S 1 , avec p =


6 −q . Si
l'on note y = q < p, q >−1 −p, alors l'équation de la géodésique qui réalise la
distance entre p et q , s'écrit :
y
γ(t) = p cos(arctan(kyk) t) + sin(arctan(kyk) t)
kyk

en plus, kγ 0 (t)k = arctan(kyk) et arccos(| < p, q > |) = arctan(kyk).

On illustre cette situation dans la gure (2.4 )ci-dessous

Figure 2.4  Distance géodésique sur le cercle S 1

Preuve . En eet, dans l'exemple 2.3.23 on a déjà vu que la géodésique de


point initial p et vitesse initiale v = exp−1
p (q), s'écrit comme dans l'énoncé de la
proposition. D'un autre côté, si l'on dérive γ et l'on prend sa norme, on trouve
kγ 0 (t)k = arctan(kyk), car kyk > 0. Et nalement, comme

cos(arctan(kyk)) = (1 + kyk2 )−1/2


= < p, q >

50
2.3. LA VARIÉTÉ DE GRASSMANN

on a bien θ = arctan(kyk).

On a bien constaté dans cet exemple que la notion intuitive de distance entre
deux droites dans R2 , coïncide avec celle de distance riemannienne sur la variété
de Grassmann G1 (R2 ). Maintenant, pour passer aux dimensions supérieures, on
va introduire la notion d'angles principaux.

Les angles principaux de Jordan


Étant donnés deux vecteurs u, v dans Rn , la manière naturelle de mesurer
la proximité des espaces engendrés respectivement par u et v , est de considérer
l'angle aigu entre ces deux vecteurs, c'est-à-dire
   
u v

θ(u, v) = arccos ,
kuk kvk

Cette quantité 0 6 θ(u, v) 6 π/2, est intrinsèque aux droites, car elle ne dépend
pas des générateurs, et elle est aussi invariante par isométrie. Maintenant, soient V
et V 0 deux sous-espaces vectoriels de Rn , on voudrait mesurer la proximité de ces
deux sous-espaces. La notion des angles principaux introduite par Jordan [38],
répond à cette question. Pour notre étude, on peut simplement considérer des
sous-espaces ayant la même dimension. Toutes les démonstrations des résultats,
énoncées dans cette partie, se trouvent dans [19], [29] et [71].

Théorème 2.3.34 Soient Ā, B̄ ∈ Gm (Rn ), alors


1. Il existe U, V ∈ O(m) et Σ = diag(σ1 , · · · , σm ) tels que
t
(A U ) BV = Σ

2. Les nombres 1 ≥ σ1 ≥ · · · σm ≥ 0 sont déterminés uniquement par Ā et B̄ .


Si l'on note θi = cos−1 (σi (Ā, B̄)) où σi (Ā, B̄) = σi pour tout 1 6 i 6 m,
alors les nombres 0 6 θ1 · · · , θm 6 π/2 sont appelés les angles principaux
entre Ā et B̄ .
3. Pour tout P ∈ O(n), on a

σi (P A, P B) = σi (Ā, B̄)

4. Si C̄, D̄ ∈ Gm (Rn ) sont tels que σi (C̄, D̄) = σi (Ā, B̄), alors il existe Q ∈
O(n) tel que
QA = C et QB = D

On peut également introduire les angles principaux à travers la notion de vecteurs


principaux. En eet, pour Ā, B̄ ∈ Gm (Rn ), les i-ièmes vecteurs principaux (pi , qi )

51
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

pour 1 6 i 6 m sont dénis par récurrence comme solutions du problème de


minimisation suivant :
min | < p, q > |
p∈span{p1 ,··· ,pi−1 }⊥ , |p|=1
q∈span{q1 ,··· ,qi−1 }⊥ , |q|=1

avec p0 = q0 = 0 ∈ Rn . Ainsi, les angles principaux sont dénis par


θi = cos−1 (| < pi , qi > |)

pour 1 6 i 6 m. Si U, V , sont les matrices de la partie 1 du théorème 2.3.34, alors


AU = [p1 · · · pm ] et BV = [q1 · · · qm ].
Dénition 2.3.35 La distance entre les sous-espaces Ā et B̄ dans Gm (Rn ), est
dénie par
m
!1/2
X
dθ (Ā, B̄) = θi2
i=1

où AB = U ΣV , Σ = diag(σ1 , · · · , σm ) et θi = cos−1 (σi ) pour tout 1 6 i 6 m.


t

Théorème 2.3.36 Soient R̄, Ȳ dans Gm (Rn ) avec d(R̄, Ȳ ) < π/2, alors
1. l'équation de la géodésique qui réalise la distance entre R̄, Ȳ , s'écrit

γ(t) = R Ṽ cos( tan−1 (Σ̃) t) + Ũ sin( tan−1 (Σ̃) t)

où Ũ Σ̃ t Ṽ = Y (t R Y )−1 − R
2. d(R̄, Ȳ ) = k tan−1 (Σ̃)kF
3. Soit t R Y = U Σ t V , alors :

k cos−1 (Σ)kF = k tan−1 (Σ̃)kF

c'est-à-dire
dθ (R̄, Ȳ ) = d(R̄, Ȳ )

Preuve . D'après les théorèmes 2.3.18, 2.3.21 et la proposition 2.2.14, on sait γ


est la géodésique qui réalise la distance entre γ(0) et γ(1).

Maintenant,

γ(0) = R Ṽ
= R

et comme
cos(tan−1 (Σ̃)) = Σ̃−1 sin(tan−1 (Σ̃)) = (Im + Σ̃2 )−1/2

52
2.3. LA VARIÉTÉ DE GRASSMANN

on a,

γ(1) = R Ṽ cos( tan−1 (Σ̃) ) + Ũ sin( tan−1 (Σ̃) )


= RṼ (Im + Σ̃2 )−1/2 + Ũ Σ̃(Im + Σ̃2 )−1/2
= (RṼ + Y (t RY )−1 Ṽ − RṼ )(Im + Σ̃2 )−1/2
= Y (t RY )−1 Ṽ (Im + Σ̃2 )−1/2
= Y
D'un autre côté, soit α(t) = R Ṽ cos( tan−1 (Σ̃) t) + Ũ sin( tan−1 (Σ̃) t), alors
α0 (t) = −R Ṽ sin( tan−1 (Σ̃) t) tan−1 (Σ̃) + Ũ cos( tan−1 (Σ̃) t) tan−1 (Σ̃)
ainsi,
kγ 0 (t)kg = kdα(t) π(α0 (t))kg
= kα0 (t)kF
et comme α(t) est une géodésique, elle a une vitesse constante, donc,
kγ 0 (t)kg = kα0 (0)kF
= kŨ tan−1 (Σ̃)kF
= k tan−1 (Σ̃)kF
Finalement,
d(R̄, Ȳ ) = inf L(β)
β∈ΩR̄,Ȳ

= L(γ)
= kγ 0 (t)kg
= k tan−1 (Σ̃)kF
Ainsi, on a montré les points 1 et 2. Pour montrer le point 3, on part de l'expres-
sion Ũ Σ̃ t Ṽ = Y (t R Y )−1 − R, d'un côté on a :
t
[Y (t R Y )−1 − R][Y (t R Y )−1 − R] = t (t RY )−1 (t RY )−1 − Im
= t [(U Σ t V )−1 ][(U Σ t V )−1 ] − Im
= t [V Σ−1 t U ][V Σ−1 t U ] − Im
= [U Σ−1 t V ][V Σ−1 t U ] − Im
= U Σ−2 t U − Im
= U (Σ−2 − Im ) t U
d'un autre côté,
t
[Ũ Σ̃ t Ṽ ] Ũ Σ̃ t Ṽ = Ṽ Σ̃2 t Ṽ

53
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

Maintenant, comme les valeurs singulières sont uniques, on a Σ̃2 = Σ−2 − Im ,


ainsi, p
1 − σi2
σ̃i =
σi
pour tout 1 6 i 6 m. Donc,
p !
1 − σi2
tan−1 (σ̃i ) = tan−1
σi
= cos−1 (σi )
= θi

et on a k cos−1 (Σ)kF = k tan−1 (Σ̃)kF .

On nit ce chapitre en énonçant un théorème de Wong [73], qui caractérise


toute distance entre sous-espaces de Rn , invariant par rotation.
Théorème 2.3.37 Soit d : Gm (Rn ) × Gm (Rn ) → R+ une distance telle que

d(P A, P B) = d(Ā, B̄)

pour tout P ∈ O(n). Alors d s'écrit en fonction des angles θi (Ā, B̄) pour 1 6 i 6
m.

Voici quelques distances bien connues entre sous-espaces.


Angles principaux En fonction des bases orthonormales

Asimov d(Ā, B̄) = θm kt ABk2

m
!1/2
X
Chordal d(Ā, B̄) = sin(θi ) 2 √1 kA t A
2
− B t BkF
i=1

Projection d(Ā, B̄) = sin(θm ) kA t A − B t Bk2

2.4 Conclusion
Dans ce chapitre on a présenté les principaux aspects géométriques de la va-
riété de Grassmann. Nous avons étudié en détail sa structure topologique, dié-
rentielle, métrique et la distance géodésique. On a démontré que les applications
exponentielle et logarithme géodésiques admettent des représentations uniques
en termes de matrices et que la distance géodésique entre deux points s'exprime
en termes des angles principaux. On a présenté aussi la variété de Stiefel et on a

54
2.4. CONCLUSION

donné son lien avec la variété de Grassmann.

Dans le chapitre suivant, on étudie la méthode d'interpolation proposée par


Amsallem et Farhat [9].

55
CHAPITRE 2. GÉOMÉTRIE DE LA VARIÉTÉ DE GRASSMANN

56
Chapitre 3

Interpolation sur la variété de

Grassmann

Contents
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 58
3.2 Exemple : Interpolation sur le cercle S 1 . . . . . . . . 61
3.3 Interpolation sur la variété de Grassmann dans le cas
général Gm (Rn ) . . . . . . . . . . . . . . . . . . . . . . . 65
3.3.1 Choix du point de référence. . . . . . . . . . . . . . . . 66
3.3.2 Estimation de l'erreur d'interpolation . . . . . . . . . . 67
3.4 Exemples d'applications . . . . . . . . . . . . . . . . . 69
3.4.1 Équation de Burgers . . . . . . . . . . . . . . . . . . . 69
3.4.2 Écoulement autour d'un cylindre . . . . . . . . . . . . 71
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 73

57
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN

3.1 Introduction
Nous nous intéressons à l'interpolation des bases POD correspondant aux so-
lutions d'équations aux dérivées partielles d'évolution paramétrique. Un exemple
intéressant est celui des équations de Navier-Stokes où le paramètre variable est
le nombre de Reynolds. Dans de tels problèmes, la solution dépend d'un para-
mètre λ ∈ RP . Supposons que la solution, qui appartient à un espace de fonction
H , soit connue pour λ1 , · · · , λN . Ces solutions sont en général calculées avec des
méthodes de discrétisation aux coûts de calcul élevés tels que les éléments nis,
les volumes nis, etc. Notre objectif est de construire des modèles réduits (de
faible dimension) pour calculer une approximation de la solution pour une nou-
velle valeur de paramètre λ.

Comme déjà signalé dans l'introduction, ce modèle réduit sera construit à


partir de la projection du problème complet sur la base POD. Pour ce faire, nous
allons construire une interpolation de la base POD pour le paramètre λ, repre-
senté par la matrice Φ(λ), à partir des bases POD pré-calculées Φ(λ1 ) · · · , Φ(λN ),
pour les valeurs λ1 , · · · , λN du paramètre.
Une première idée naïve qui pourrait apparaître naturelle, est de faire une inter-
polation directement comme si on était dans un espace vectoriel. On interpolerait
alors par la méthode des polynômes de Lagrange, de bases radiales, splines [44,57].
Or cette approche n'est pas correcte. En eet, comme on l'a déjà remarqué au
chapitre 2, le modèle réduit ne dépend pas de la base elle même, mais dépend
du sous-espace vectoriel engendré. Or comment on l'a vu précédemment, un tel
ensemble n'est pas un espace vectoriel, mais une variété diérentielle, appelée
variété de Grassmann Gm (Rn ).

Pour illustrer cette situation on considère l'exemple suivant :

Exemple 3.1.1 Soient Φ̄1 et Φ̄2 deux points diérents dans G1 (R3 ), grâce à la
proposition 2.3.31, la variété de Grassmann G1 (R3 ) est diéomorphe à la variété
quotient S 2 /x ∼ −x donc nous pouvons considérer Φ1 , Φ2 ∈ S 2 avec Φ1 6= −Φ2 .
Si on considère l'interpolateur comme une droite passant par Φ1 et Φ2 , les points
interpolés s'écrivent :

D(λ) = Φ1 + λ(Φ2 − Φ1 ).

Pour λ = 21 , on a |D(λ)|2 = 1
2
+ 1
2
< Φ1 , Φ2 >6= 1. On représente cette situation
dans le graphique suivant :

58
3.1. INTRODUCTION

Figure 3.1  Interpolation naïve dans G1 (R3 )


Amsallem et Farhat [9] proposent d'utiliser les applications exponentielle et loga-
rithme géodésique pour se ramener à une interpolation dans un espace vectoriel.
On note par Φ(λ1 ), · · · , Φ(λN ) les sous-espaces vectoriels engendrés par les co-
lonnes de chaque matrice, que dans la suite on notera simplement par Φ1 , · · · , ΦN .

Intuitivement, cette méthode s'eectue de la façon suivante : soit λ un nouveau


paramètre, pour trouver la base interpolée associée, on choisit d'abord un point
Φr appelé point de référence, et on considère v1 , · · · , vN des points dans l'espace
tangent TΦr Gm (Rn ), qui sont les logarithmes géodésiques de Φ̄i au point Φ̄r :
vi = logΦ̄r (Φ̄i )
On eectue une interpolation classique dans cet espace tangent et on trouve le
vecteur interpolé associé à λ. Finalement, par l'application exponentielle géodé-
sique on revient à la variété de Grassmann. Cette procédure s'illustre dans le
graphique suivant :
TΦ̄r Gm (Rn )


b
v4
v1 b b

b
u
b
v5
u u
v2
b
u

expΦr
u
u

Φ̄λ
Φ̄4
−1
expΦ̄r Φ̄r Φ̄5

Φ̄2
Gm (Rn )
Φ̄1

Figure 3.2  Idée géométrique de l'interpolation de Grassmann

59
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN

Dans l'exemple suivant nous allons comparer la base POD obtenue par une
interpolation naïve et la base POD obtenue par une interpolation grassmannienne
[9] dans le cas de l'écoulement 2D autour d'un cylindre (paragraphe 1.4.2).

Exemple 3.1.2 Nous calculons les solutions complètes pour les nombres de Rey-
nolds Re ∈ {100, 120, 130, 160, 170, 200}. Pour chaque solution, nous calculons la
base POD associée. Maintenant, on considère une nouvelle valeur Re = 110 et
on note Φ la base POD associée. Soit ai (t) le coecient temporel projeté sur la
base Φ, associé au mode Φi , c'est-à-dire

ai (t) = (u, Φi ).

D'un autre côté, soit ΦG la base interpolée sur la variété de Grassmann et


ΦL la base interpolée par une méthode naïve. Nous notons âG i (t) et âi (t) les
L

coecients dynamiques associés aux bases interpolées.

Dans la gure 3.3 on compare ces coecients projetés et on peut rapidement se


convaincre qu'une interpolation naïve donne de mauvais résultats. Par contre, les
coecients associées à la base obtenue par une interpolation sur la variété de
Grassmann, sont presque les mêmes que ceux obtenus à partir de la base POD
de référence.

Figure 3.3  Comparaison entre une interpolation linéaire et grassmannienne.

Dans la table 3.1, on compare les erreurs de reconstruction associées aux


bases interpolées ΦG et ΦL . Ces résultats ne font que conrmer que la variété de
Grassmann est le bon objet mathématique pour interpoler les bases POD.

60
3.2. EXEMPLE : INTERPOLATION SUR LE CERCLE S1

Méthode % d'erreur de reconstruction


Reference 6.35e-06
Spline O1 5.10e-01
GS O1 1.45e-03

Table 3.1  Erreur de reconstruction ku−PΦ uk2F


kuk2F

Dans ce chapitre nous allons présenter la méthode d'interpolation proposée


par Amsallem et Farhat [9]. Nous allons discuter les hypothèses sous lesquelles
cette méthode peut s'appliquer et nous donnerons aussi des estimations de l'er-
reur d'interpolation. Nous proposerons un autre critère pour choisir le point de
référence et nous présenterons quelques applications.

Auparavant, pour expliciter l'approche nous allons commencer par traiter le


cas le plus simple de variété Grassmannienne G1 (R2 ) qui est diéomorphe à S 1 .

3.2 Exemple : Interpolation sur le cercle S 1


Application exponentielle. On considère le cercle S 1 avec la métrique induite
de R2 et soient p ∈ S 1 , v ∈ Tp S 1 . Pour trouver l'application exponentielle, il faut
trouver l'unique courbe γ d'accélération nulle, partant de p et de vitesse initiale
égale à v , donc l'application exponentielle de v en p est dénie par γ(1). On a
montré, au chapitre précédent, que cette courbe s'écrit sous la forme :

t(v − p)
γ(t) = p cos(t||v − p||) + sin(t||v − p||)
||t(v − p)||

On peut décrire géométriquement l'application exponentielle de la façon sui-


vante : on considère le repère orthonormé B = {p, ||v−p||
v−p
} et sur le cercle au repère
B , on considère le point qui fait un angle ||v − p|| avec p. L'expression analytique
est la suivante :

v−p
expp (v) = p cos(||v − p||) + sin(||v − p||)
||v − p||

61
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN

Figure 3.4  Application exponentielle sur le cercle S 1

On s'aperçoit que tous les points sur le cercle admettent une seule pré-image
dans l'espace tangent Tp S 1 sauf −p. Le plus grand nombre positif r, tel que l'ap-
plication expp : Ir (p) → S 1 est un diéomorphisme, s'appelle rayon d'injectivité
en p. Dans le cas du cercle il est égal à π . On peut mettre en évidence cette valeur
k

sur la gure suivante : e

Figure 3.5  Rayon d'injectivité sur le cercle S 1

Application logarithme. Soit p ∈ S 1 , étant donné un autre point q ∈ S 1 , on


veut trouver le vecteur v ∈ Tp S 1 en fonction de q tel que expp (v) = q . On va
réaliser ce calcul dans le cas où l'angle formé par p et q appartient à ] − π2 , π2 [.
On considère q cos(θ) qui est un vecteur sur la droite passant par q avec θ =
cos(| < p, q > |), donc le vecteur q cos(θ)−1 ∈ Tp S 1 , et nalement on multiplie ce

62
3.2. EXEMPLE : INTERPOLATION SUR LE CERCLE S1

vecteur par l'angle θ. L'expression analytique est la suivante :


y
exp−1
p (q) = arctan(||y||)
||y||

avec y = q < p, q >−1 − p

Figure 3.6  Application logarithme sur le cercle S 1

Soient SN = {p1 , · · · , pN } N points du cercle à partir desquels on souhaite


construire un point interpolé à partir de la méthode décrite en introduction. Pour
pouvoir appliquer cette méthode, il faut choisit un point de référence pr tel que
son opposé n'appartienne pas à SN , comme on peut le voir dans la gure 3.5.
Ceci est possible, si la condition suivante est satisfaite :
π
d(pi , pj ) <
2
pour tout points pi , pj dans SN .

Inuence du point de référence. Une question naturelle concernant la mé-


thode d'interpolation proposée dans [9] est l'inuence du point de référence. Nous
allons montrer que dans le cas de l'espace S 1 ' G1 (R2 ) le résultat n'en dépend
pas. Mais ce résultat n'est pas vrai dans le cas général d'une variété grassman-
nienne Gm (Rn ).
Proposition 3.2.1 Soient p, q ∈ S 1 , avec < p, q >6= 0. On considère les droites

p (q) − p) et β(t) = expq (p) + t(q − expq (p))


α(t) = p + t(exp−1 −1 −1

alors expp (α(t)) = expq (β(t)) pour tout 0 < t < 1.

63
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN

Preuve . Soient y = q < p, q >−1 −p et w = p < q, p >−1 −q, on a


y
exp−1
p (q) = arctan(||y||) + p ∈ Tp S 1
||y||
w
exp−1
q (p) = arctan(||w||) + q ∈ Tq S 1
||w||
On peut montrer que ||y|| = ||w|| et comme p 6= q on a ||y|| > 0. Ainsi, si l'on
note c = arctan(||y||) ∈]0, π/2[, on a ||α(t) − p|| = tc, ||β(t) − q|| = (1 − t)c et
α(t) − p y β(t) − q w
= et =
||α(t) − p|| ||y|| ||β(t) − q|| ||w||
donc
β(t) − q
expq (β(t)) = q cos(||β(t) − q||) + sin(||β(t) − q||)
||β(t) − q||
w
= q cos((1 − t)c) + sin((1 − t)c)
||w||
w w
= (q cos(c) + sin(c)) cos(tc) + (q sin(c) − cos(c)) sin(tc)
||w|| ||w||
Maintenant comme
cos(arctan(||y||)) = ||y||−1 sin(arctan(||y||)) = (1 + ||y||2 )−1/2
on a
w
q cos(c) + sin(c) = (1 + ||y||2 )−1/2 (q + w)
||w||
= < p, q > (p < q, p >−1 )
= p
et
w w
q sin(c) − cos(c) = ||y||(1 + ||y||2 )−1/2 (q − ) car ||y|| = ||w||
||w|| ||w||2
(1 + ||y||2 )−1/2
= (q||y||2 − w)
||y||
   
< p, q > 1− < p, q >2
= q −w
||y|| < p, q >2
   
1 1− < p, q >2 −1
= q − < p, q > (p < q, p > −q)
||y|| < p, q >
   
1 1− < p, q >2
= q + < p, q > − p
||y|| < p, q >
1 
= q < p, q >−1 −p
||y||
1
= y
||y||

64
3.3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN DANS LE CAS

GÉNÉRAL GM (RN )

Ainsi
y
p
expq (β(t)) = p cos(tc) + sin(tc)
||y||
α(t) − p
= cos(||α(t) − p||) + sin(α(t) − p)
||α(t) − p||
= expp (α(t))

La gure ci-dessous illustre le résultat démontré.

Figure 3.7  Choix du point de référence sur le cercle S 1

3.3 Interpolation sur la variété de Grassmann dans


le cas général Gm(Rn)
Dans cette section, on va décrire la procédure d'interpolation sur la variété
de Grassmann Gm (Rn ). On a vu au chapitre 2 que les formules de l'application
exponentielle et logarithme sont des généralisations naturelles de celles du cercle.
Ainsi, l'étude de cette méthode dans le cas du cercle S 1 , va nous aider à mieux
comprendre l'interpolation dans le cas général.
Obtenir un résultat concernant le choix du point de référence comme dans le cas
du cercle, n'est pas immédiat, car la géométrie de la variété de Grassmann dans
le cas général est plus riche que celle du cercle. En eet, Gm (Rn ) est une variété
de dimension m × (n − m) et à la diérence du cercle S 1 qui est une variété à
courbure constante, la variété de Grassmann pour min{n, n − m} ≥ 2 possède

65
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN

une courbure sectionnelle, non constante comprise entre 0 et 2 [42].

On considère N points Φ(λ1 ), · · · , Φ(λN ) sur la variété de Grassmann Gm (Rn ),


et λ ∈ RP un nouveaux paramètre. Nous allons décrire l'algorithme de l'interpo-
lation dans le cas général, où les matrices Φ(λ1 ), · · · , Φ(λN ) de Rn×m sont telles
que leurs colonnes forment une famille libre de Rn ( i.e t Φ(λi )Φ(λi ) ∈ GLm (R)).

3.3.1 Choix du point de référence.


Comme nous l'avons mentionné dans l'introduction, cette méthode nécessite
de choisir un point de référence Φr ∈ Gm (Rn ). Il semble naturel de considérer, le
point Φr associé au paramètre λr tel que :
|λ − λr | = min{|λ − λi | : pour tout 1 6 i 6 N }. (3.1)
Maintenant, pour assurer l'unicité du point interpolé dans l'espace tangent
TΦr Gm (Rn ) nous avons besoin que l'application exponentielle
expΦr : TΦr Gm (Rn ) → Gm (Rn )
soit injective, or grâce au théorème 2.3.21, nous savons que le rayon d'injectivité
de Gm (Rn ) pour min{m, n − m} > 2 est π/2, ainsi nous allons supposer que les
points Φ(λ1 ), · · · , Φ(λN ) se trouvent dans une boule de rayon π/4, c'est-à-dire,
d(Φ(λi ), Φ(λj )) < π/4 (3.2)
pour tout i, j ∈ {1, · · · , N }.

Nous pouvons remarquer que la contrainte min{m, n − m} > 2 est raison-


nable, par exemple, dans l'étude d'interpolation de bases réduites, m représente
le nombre de modes retenus et n le degré de liberté du problème complet.

Grâce à 3.2 nous avons que pour tout i ∈ {1, · · · , N }, Φi ∈ Ur où


Ur = {Y : det( t Φr Y ) 6= 0}.
Pour chaque i ∈ {1, · · · , N }, on considère une décomposition en valeurs singu-
lières h i 1
Ui Σi t Vi = π|−1
U
(Φi ) − Φr (t Φr .Φr ) 2
r

où π|−1
Ur
: π(Ur ) → Ur est l'application dénie par

π|−1
U
(Y ) = Y ( t Φr Y )−1
r

c'est une section locale de la projection π . Grâce à la proposition 2.3.22, on a


Γi = Ui tan−1 (Σi ) t Vi ( t Φi Φi )1/2 ∈ Hr

66
3.3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN DANS LE CAS

GÉNÉRAL GM (RN )

et
exp−1
Φ¯r
(Φi ) = dΦr π(Γi )

Hr = {Z ∈ Rn×m : t
Φr Z = 0}
est l'espace horizontal au point Φr . Ainsi, on peut choisir une méthode d'inter-
polation dans l'espace vectoriel Hr ⊂ Rn×m pour interpoler les matrices {Γi }N i=1 .
Soit Γλ la matrice interpolée associée au paramètre λ, par la proposition 2.3.19 à
partir de la décomposition

U Σ t U = Γλ ( t Φr Φr )−1/2

on a expφ¯r (v) = Y (1) où v = dΦr π(Γλ ) et


 
Y (t) = Φr (t Φr Φr )1/2 V cos(Σ t) + U sin(Σ t) t V ( t Φr Φr )1/2 .

Ainsi, la matrice Y (1) représente le point interpolé sur la variété de Grassmann


Gm (Rn ).

Barycentre géodésique
Une autre possibilité pour choisir un point de référence Φr ∈ Gm (Rn ), est de
considérer le barycentre du triangle géodésique, formé par les points Φr0 , Φr1 et
Φr2 où, λr0 , λr1 , λr2 sont les paramètres les plus proches du paramètre λ.

L'algorithme d'interpolation sur la variété de Grassmann peut être résumé de


la façon suivante :

3.3.2 Estimation de l'erreur d'interpolation


Soient Λ ⊂ R, un intervalle et Φ : Λ → Gm (Rn ), une application de classe
CN +1
telle qu'on connait les valeurs Φ(λ0 ), · · · , Φ(λN ). On choisit un point Φr ∈
Gm (R ) et on considère la méthode d'interpolation de Lagrange sur l'espace tan-
n

gent TΦr Gm (Rn ). Étant donné un nouveau paramètre λ ∈ Λ et en notant ΦI (λ)


la valeur interpolée dans la variété Gm (Rn ), on souhaite étudier l'erreur d'inter-
polation
d(Φ(λ), ΦI (λ))
où d est la distance géodésique sur la variété de Grassmann.
Par construction, la valeur interpolée ΦI (λ) est l'image par l'application exponen-
tielle expΦr : TΦr Gm (Rn ) → Gm (Rn ) de la valeur interpolée dans l'espace tangent.
Ainsi, à partir de l'erreur d'interpolation commise dans l'espace horizontale HΦr
on va donner une estimation de l'erreur d'interpolation dans la variété Gm (Rn ).

67
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN

Algorithme 1 : Interpolation sur la variété de Grassmann Gm (Rn )


Données :
i. N paramètres : λ1 , · · · , λN ∈ R.
ii. N bases : Φ(λ1 ), · · · , Φ(λN ) ⊂ R∗n×m .
iii. Le nouveau paramètre : λ ∈ R.

Résultat : base interpôlée ΦI (λ)


1 Choisir un point de référence Φr comme dans (3.1).
2 pour i = 1 à N faire
1
3 Ui Σi t Vi = [Φi ( t Φr Φi )−1 − Φr ] ( t Φr Φr ) 2
4 Γi ← exp−1 −1 t t
Φr (Φi ) = Ui tan (Σi ) Vi ( Φi Φi )
1/2

5 Γλ = Interpolateur(Γ1 , · · · , ΓN , λ)
6 U Σ t V = Γλ ( t Φr Φr )−1/2
 
7 ΦI (λ) ← Φr ( t Φr Φr )1/2 V cos(Σ) + U sin(Σ) t V (t Φr Φr )1/2

8 retourner ΦI (λ)

Proposition 3.3.1 Si l'on considère la méthode d'interpolation de Lagrange comme


méthode d'interpolation sur l'espace tangent TΦr Gm (Rn ), alors il existe une constante
non-négative C telle que :
|(λ − λ0 ) · · · (λ − λN )|
d(Φ(λ), ΦI (λ)) 6 C
(N + 1)!
Preuve . Soit v = exp−1
Φ ◦Φ : Λ → TΦ Gm (R ) et {ej }j=1 une base orthonormale
r
n
r
q

de TΦr Gm (Rn ) où q = (n − m) × n. Alors on peut écrire


q
X
v(λ) = vj (λ)ej .
j=1

Comme vj ∈ C N +1 (Λ), il existe des polynômes P1 , · · · , Pq de degrés inférieurs


ou égaux à N tels que pour chaque j ∈ {1, · · · , q}, on a :
1. Pj (λi ) = vj (λi ) pour tout i ∈ {1, · · · , q}.
2. Pour λ ∈ Λ, il existe ηj ∈ Λ, tel que :
(λ − λ0 ) · · · (λ − λN ) N +1
vj (λ) − Pj (λ) = vj (ηj ).
(N + 1)!
Ainsi, on a :
|(λ − λ0 ) · · · (λ − λN )| N +1
|vj (λ) − Pj (λ)| 6 ||vj ||∞
(N + 1)!

68
3.4. EXEMPLES D'APPLICATIONS

P
D'un autre côté, l'application P (λ) := qj=1 Pj (λ)ej ∈ TΦr Gm (Rn ) est telle
que P (λi ) = v(λi ) pour tout i ∈ {1, · · · , N } et

q
X
2
||v(λ) − P (λ)|| = |vj (λ) − Pj (λ)|2
j=1
 2 X
q
(λ − λ0 ) · · · (λ − λN )
6 ||vjN +1 ||2∞ .
(N + 1)! j=1

Donc,
|(λ − λ0 ) · · · (λ − λN )|
||v(λ) − P (λ)|| 6 M (3.3)
(N + 1)!
q
!1/2
X
où M = ||vjN +1 ||2∞ .
j=1

Maintenant, comme ΦI = expΦr ◦P : Λ → Gm (Rn ) et l'application exponen-


tielle
expΦr : TΦr Gm (Rn ) → Gm (Rn )
est lisse, donc localement lipschitzienne, il existe une constante Kr , tel que :

d(Φ(λ), ΦI (λ)) 6 Kr ||v(λ) − P (λ)||

et à partir de 3.3, on obtient


|(λ − λ0 ) · · · (λ − λN )|
d(Φ(λ), ΦI (λ)) 6 C
(N + 1)!

où C = Kr M

3.4 Exemples d'applications


3.4.1 Équation de Burgers
On considère un champ de vitesse u(t) ∈ L2 (Ω), avec Ω =]0, 2[, t ∈ R+ et
la viscosité cinématique ν . Le mouvement du uide est décrit par l'équation de
Burgers


 1 2
ut (x, t) + 2 (u(x, t) )x − νuxx (x, t) = 0 pour x ∈ Ω
u(0, t) = u(2, t) = 0 (3.4)


u(x, 0) = sin(π x).

69
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN

Pour la viscosité nous allons considérer les valeurs suivantes :


ν1 ν2 ν3 ν4 ν5
0.005 0.01 0.04 0.08 0.1
Pour chacune des valeurs de la viscosité, une solution de l'équation (3.4) est
obtenue avec des opérateurs de diérences nies centrées, en temps et en espace
sur un intervalle de temps de 6 secondes avec un pas de temps dt = 0.01s. On
calcule les bases PODs associées aux solutions avec 4 modes.
Maintenant, on considère une nouvelle valeur ν ∗ = 0.06 et on note par Φν ∗
la base POD associé. Soit ai (t) le coecient temporel projeté sur la base Φν ∗ ,
associé au mode Φν ∗ ,i , c'est-à-dire
ai (t) = (u, Φν ∗ ,i ).
D'un autre côté, on choisit Φν2 comme point de référence et on calcule la base
interpolée ΦIν ∗ . Pour chaque 1 6 i 6 4 on note âIi (t) les coecients dynamiques
associés à la base interpolée.

Dans la gure 3.8 on compare les coecients projetés ai (t) et les coecients
dynamiques interpolés âIi (t). Les résultats obtenus sont très satisfaisants, on re-
marque que les coecients temporels dominants (le premier et le deuxième) obte-
nus par le système dynamique réduit associé à la base interpolée sont les mêmes
que ceux obtenus par la POD exacte.

Figure 3.8  Comparaison des coecients temporels projetés a(t) et dynamique


âI (t) pour ν = 0.06.

Dans le tableau 3.2 on compare les erreurs de reconstruction pour la base


Φν ∗ et la base interpolée ΦIν ∗ . On constate que l'erreur de reconstruction asso-
ciée au modèle réduit issu de la base interpolée est très proche de l'erreur de
reconstruction associée au modèle réduit issu de la base exacte Φν ∗ .

70
3.4. EXEMPLES D'APPLICATIONS

% d'erreur de reconstruction
Base interpolée 9.1677737640655907e-06
Base de référence 7.7764191778745097e-08

Table 3.2  Erreur de reconstruction ku−PΦ uk2F


kuk2F

3.4.2 Écoulement autour d'un cylindre


Pour le nombre de Reynolds, nous allons prendre les valeurs suivantes :

{100, 160, 170, 180, 200}.

Pour chaque solution nous calculons la base POD associée et nous considérons
la nouvelle valeur Re = 150. Comme dans l'exemple 3.1.2 on note ai (t) et âi (t)
les coecients temporels projetés et dynamiques associés à la base de référence.
On note âIi (t) les coecients dynamiques associés à la base interpolée.

Dans la gure 3.9 on compare les coecients temporels ai (t), âi (t) et âIi (t).
On s'aperçoit que le coecient interpolé reproduit les mêmes résultats que ceux
obtenus par la POD de référence.

Figure 3.9  Comparaison des coecients temporels pour Re = 150.

Pour avoir une information plus précise de coecients temporels, dans la gure

71
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN

3.10, nous comparons les erreurs


|âi (t) − âIi (t)|
Ɖi (t) =
Ai
s
Z T
1
où Ai = [âi (t)]2 dt.
T 0

La gure (3.10) nous montre que les deux premiers coecients interpolés
approchent bien les coecients associés à la base de référence. Cependant, les
coecient 3 et 4 sont moins précis.

Figure 3.10  Ɖi (t) pour Re = 150.

Inuence du point de référence. La méthode d'interpolation proposée par


Amsallem et Farhat [9] s'eectue après avoir choisit un point de référence. Dans les
exemples précédents nous avons considéré comme point de référence, celui associé
au paramètre le plus proche du paramètre visé. Nous allons mettre en évidence
comment le choix du point de référence a une inuence sur la base interpolée.
Pour le nombre de Reynolds, nous allons prendre les valeurs suivantes :

{100, 160, 170, 180, 200}.

Pour chaque solution nous calculons la base POD associée et nous considérons
la nouvelle valeur Re = 150. Nous prenons comme point de référence les bases
associées à 100 et 170.

72
3.5. CONCLUSION

Dans la gure 3.11 nous comparons les erreurs relatives


|CDref (t) − CD
I
(t)|
∆CD (t) = (3.5)
Cd
et
|CLref (t) − CLI (t)|
∆CL (t) = (3.6)
Cl

 CDref , CDI sont les coecients de traînée associés respectivement aux bases
de référence et interpolée.
 CLref , CLI sont les coecients de portance associée respectivement aux bases
de référence et interpolée.
s
Z T h i2
1
 Cd = ref
CD (t) dt
T 0
s
Z T h i2
1
 Cl = CLref (t) dt
T 0

La gure (3.11) nous montre que la base interpolée obtenue en prenant comme
point de référence la base associée à Re = 100 est moins précise que la base
interpolée obtenu en prenant comme point de référence la base associée à Re =
170.

Figure 3.11  Inuence du point de référence pour Re = 150.

3.5 Conclusion
Dans ce chapitre on a présenté la méthode d'interpolation sur la variété de
Grassmann proposée par Amsallem et Farhat [9]. Nous avons discuté les hypo-
thèses sous lesquelles la méthode s'applique et nous avons présenté une estimation

73
CHAPITRE 3. INTERPOLATION SUR LA VARIÉTÉ DE GRASSMANN

locale de l'erreur d'interpolation ainsi qu'un autre critère pour choisir le point de
référence. Nous avons vu que cette méthode permet exploiter toutes les méthodes
d'interpolation existantes dans un espace vectoriel, à condition d'avoir choisi un
point de référence. Cependant, comme on l'a vu au chapitre 2, la variété de
Grassmann Gm (Rn ) n'est pas un espace vectoriel, mais une variété de dimension
m × (n − m) et possède une courbure sectionnelle non-constante appartenant à
[0, 2]. Elle possède donc une géométrie plus riche que celle d'un espace vectoriel
d'où l'importance de développer d'autres méthodes d'interpolation.

Dans le prochain chapitre, en s'inspirant de la méthode de Pondération par


Distance Inverse (IDW), nous allons proposer une nouvelle méthode d'interpola-
tion sur la variété de Grassmann Gm (Rn ), qui n'a pas besoin de point de référence.

74
Chapitre 4

IDW Grassmannienne

Contents
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 76
4.2 IDW-Grassmannien . . . . . . . . . . . . . . . . . . . . 77
4.3 Algorithme IDW-G . . . . . . . . . . . . . . . . . . . . 79
4.4 Validation numérique . . . . . . . . . . . . . . . . . . . 83
4.5 Le barycentre généralisé (BG) . . . . . . . . . . . . . . 86
4.6 Validation numérique . . . . . . . . . . . . . . . . . . . 89
4.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 92

75
CHAPITRE 4. IDW GRASSMANNIENNE

4.1 Introduction
Dans le cas d'un espace vectoriel la méthode de pondération par Distance
Inverse (IDW) est une méthode classique d'interpolation, largement utilisée dans
l'analyse spatiale en géographie et en hydrologie [25, 28, 74] pour prédire des
phénomènes dans des zones non échantillonnées. Soient y(λ1 ), · · · , y(λN ) N points
d'un espace vectoriel E associés aux paramètres Λ = {λ1 , · · · λN } ⊂ RP et λ
un nouveau paramètre. Dans la méthode IDW les points y(λ1 ), · · · , y(λN ) sont
pondérés de telle sorte que l'inuence d'un point par rapport à un autre diminue
avec la distance entre les paramètres de Λ et le paramètre λ. Plus précisément,
le point interpolé ŷ(λ) est donné par
N
X
ŷ(λ) = αi (λ)y(λi ), (4.1)
i=1

X N
1 1
où αi (λ) = q
, avec S(λ) = q
, et q ∈ N∗ .
S(λ) d(λi , λ) i=1
d(λ, λi )
N
X
On a (α1 (λ), · · · , αN (λ)) ∈ [0, 1] N
et αi (λ) = 1. Ainsi le point est un
i=1
barycentre pondéré des points y(λ1 ), · · · , y(λN ). Il peut être aussi caractérisé en
termes de la distance de l'espace E par
N
1X
ŷ(λ) = arg min αi (λ) ky(λi ) − yk2E . (4.2)
y∈E 2 i=1

Karcher [40] 1 généralise la notion de barycentre (4.2) au cadre des varié-


tés riemanniennes (M, g). C'est-à-dire, le barycentre de l'ensemble de points
{y(λ1 ), · · · , y(λN )} de M pondérés par les poids de Λ, est cherché comme le
point
N
1X
ŷ(λ) = arg min αi (λ) d2 (y, yi ). (4.3)
y∈M 2
i=1

où d est la distance riemannienne de M . Le point qui réalise le minimum


s'appelle barycentre de Karcher. Cependant, à la diérence d'un espace vectoriel,
l'existence et l'unicité restent des notions locales. Plus tard on verra que c'est la
géométrie de la variété qui joue le rôle principal.

Nous allons utiliser cette notion de barycentre pondéré de Karcher pour gé-
néraliser la méthode IDW au cas de la variété de Grassmann Gm (Rn ). Nous
1. Notion introduite par Élie Cartan en 1920 dans le cadre des groupes de Lie à courbure
non-positive.

76
4.2. IDW-GRASSMANNIEN

appellerons cette méthode IDW-G.

4.2 IDW-Grassmannien
Soient y(λ1 ), · · · , y(λN ), N points de la variété de Grassmann Gm (Rn ), as-
sociés à l'ensemble de paramètres Λ = {λ1 , · · · , λN } où λi ∈ RP , pour tout
i ∈ {1, · · · , N } (P ∈ N, P ≥ 1). Dans la suite, on note y(λi ) = yi . Pour chaque
λ ∈ RP , on dénit l'application associée aux points y1 , · · · , yN par :

Fλ : Gm (Rn ) −→ R+

N
X
y 7→ Fλ (y) = 1
2
αi (λ) d2 (y, yi )
i=1

N
X
où (α1 (λ), · · · , αN (λ)) ∈ [0, 1]N avec αi (λ) = 1 et d est la distance rie-
i=1
i=1 peuvent dépendre des paramètres
mannienne sur Gm (Rn ). Les poids {αi (λ)}N
{λi }i=1 .
N

On considère le problème de minimisation suivante :



 Pour chaque λ ∈ R , trouver ŷ(λ) ∈ Gm (R ) tel que :
 P n

(Pλ )

 ŷ(λ) = arg min Fλ (y)
y∈Gm (Rn )

Comme la variété de Grassmann Gm (Rn ) est un ensemble compact (voir


2.3.32) et Fλ une application continue, le Problème (Pλ ) admet au moins une
solution. À partir de maintenant, on suppose que les entiers m et n satisfont la
condition
min{m, n − m} ≥ 2.

Théorème 4.2.1 Si les points y1 , · · · , yN sont contenus dans la boule B(y ∗ , r)


où y ∗ ∈ Gm (Rn ) et r < 4√π
2
. Alors, pour tout λ ∈ RP le Problème (Pλ ) admet
une solution unique ŷ(λ) dans B(y ∗ , r) caractérisée par ∇Fλ (ŷ(λ)) = 0 où

N
X
∇Fλ (x) = − αi (λ) exp−1
x (yi ). (4.4)
i=1

77
CHAPITRE 4. IDW GRASSMANNIENNE

Preuve . Ce théorème est une adaptation du théorème de Karcher dans le cas


de la variété de Grassmann [40]. Le point important de la démonstration est que
le rayon de la boule B(y ∗ , r) où le Problème (Pλ ) admet une solution unique
satisfait r < 4√π 2 . Cela provient des deux conditions suivantes :
(i) Le rayon de convexité de Gm (Rn ) est rc = π4 . Comme on l'a vu au chapitre
2, le rayon d'injectivité de Gm (Rn ) est rI = π2 et sa courbure sectionnelle
varient entre [0, 2]. La borne supérieure de la courbure sectionnelle est alors
4 = 2. Ainsi, on trouve que

1 π
rc = min{rI , √ }
2 4
π
=
4

De plus, grâce au théorème 2.3.29, pour r < rc , la boule B(y ∗ , r) est forte-
ment convexe.
(ii) Pour r < 4√π 2 l'application y 7→ d2 (y, z) est strictement convexe pour tout
z dans B(y ∗ , r), [4, 40]. Ainsi, on peut assurer l'unicité du Problème (Pλ ) à
l'intérieur de la boule, de rayon égal à min{ 4√π 2 , rc } = 4√π 2 .
D'autre part, une démonstration de (4.4) se trouve dans [39].

Remarques 4.2.2 Supposant qu'à la place de la variété Grassmann Gm (Rn ), on


considère un espace vectoriel V . Alors si on choisit αi (λ) = ϕ(d(λ,λ
1
i ))
où ϕ est une
fonction continue de λ avec lim ϕ(λ) = 0, la solution ŷ(λ) du problème (Pλ ) est
λ→λi
explicitement donnée par
N
X
ŷ(λ) = αi (λ) yi
i=1

c'est-à-dire, ŷ(λ) est le barycentre pondéré des points y1 · · · , yN dans l'espace


vectoriel V . Par exemple pour

1
αi (λ) = (4.5)
S(λ) d(λ, λi )q

N
X 1
où S(λ) = q
, avec q ∈ N∗ , on retrouve l'algorithme classique d'interpo-
i=1
d(λ, λi )
lation de pondération à l'inverse de la distance (IDW) dans un espace vectoriel.
Dans le cas de la variété de Grassmann Gm (Rn ), cet algorithme sera noté par
IDW-G.

78
4.3. ALGORITHME IDW-G

4.3 Algorithme IDW-G


Grâce au théorème (4.2.1), la solution ŷ(λ) du Problème (Pλ ) dans B(y ∗ , r)
vérie
N
X
αi (λ) exp−1
ŷλ (yi ) = 0 (4.6)
i=1

contrairement au cas d'un espace vectoriel, dans la variété Gm (Rn ), l'équation


(4.6) ne peut pas être résolue d'une manière explicite. Ainsi on propose l'algo-
rithme itérative suivante :



 Initialisation : yb0 ∈ B(y ∗ , r)



 !

 XN
−1
yb`+1 = expyb` − tyb` αi (λ) expyb (yi )
`

 ( i=1 ! )

 N
X


 αi (λ) exp−1 ∈ B(y ∗ , r)
tyb` = sup t ∈ [0, 1] : expyb` − t
 yb` (yi )
i=1

Pour simplier on note


 N

 X

 w` = − tyb` αi (λ) exp−1
 yb (yi ),

 `

 i=1





 yi = span(Φi ), where Φi ∈ R∗n×m



 yb` = span(Y` ), where Y` ∈ R∗n×m



 !

 N

 X

 αi (λ) exp−1
 γyb` (t) = expyb` −t yb` (yi ) .
i=1

Alors,

(i) expyb` (w` ) = span Y` (t Y` Y` )−1/2 V` cos(Σ` ) + U` sin(Σ` ) , où

w` (t Y` Y` )−1/2 = U` Σ` t V` est une SVD.

(ii) exp−1
yb (yi ) = U` tan (Σ` ) V` , où
e −1 e te
`

e Σ
U`
e t Ve = [Φi (t Y Φi )−1 (t Y Y ) − Y ](t Y Y )−1/2
` ` ` ` ` ` ` `
est une SVD.
Lemme 4.3.1 Si les points y1 , · · · , yN se trouvent dans la boule B(y ∗ , r) alors,
pour chaque y ∈ B(y ∗ , r), il existe 0 < ty 6 21 , tel que si ∇Fλ (y) 6= 0

79
CHAPITRE 4. IDW GRASSMANNIENNE

1. Fλ ◦ γy est strictement décroissante sur ]0, ty ] où γy (t) = expy (−t∇Fλ (y)).

2. Fλ (y) − Fλ (γy (t)) > 2t ||∇Fλ (y)||2 pour tout t ∈]0, ty ].


Preuve . On dénit
1
sup{t ∈ [0, 1] : γy (t) ∈ B(y ∗ , r)}
ty =
2
à partir du lemme 4 de [34] on a ty ∈]0, 12 ] et
d2
2
(Fλ ◦ γy )(t) 6 k∇Fλ (y)k2 (4.7)
dt
pour tout t ∈ [0, ty ].

D'un autre côté, on a


(Fλ ◦ γy )0 (0) = dy Fλ (γy0 (0))
= gy (∇Fλ (x), γy0 (0))
= gy (∇Fλ (y), −∇f (y))
= −||∇Fλ (y)||2 < 0 (4.8)
pour tout t ∈ [0, ty ]. Maintenant, grâce à 4.7 et 4.8 on obtient
d
(Fλ ◦ γy )(t) 6 −||∇Fλ (y)||2 + ||∇Fλ (y)||2 t (4.9)
dt
−1
6 ||∇Fλ (y)||2 < 0,
2
Alors,
d
(Fλ ◦ γy )(t) < 0 car ∇Fλ (y) 6= 0
dt
et ainsi la fonction t → (Fλ ◦ γy )(t) est strictement décroissante sur ]0, ty ]. Une
intégration directe de (4.9), conduit à :
t
Fλ (y) − Fλ (γy (t)) > ||∇Fλ (y)||2
2
pour tout t ∈]0, ty ].

On peut alors énoncer et montrer le résultat de convergence d'algorithme.


Théorème 4.3.2 (Convergence) Si les points y1 , · · · , yN se trouvent dans la
boule B(y , r), alors pour tout y ∈ B(y ∗ , r) la suite {ŷ` : ` ∈ N} dénie par

ŷ0 = y et ŷ`+1 = expŷ` (−tŷ` ∇Fλ (ŷ` ))


converge vers yb, l'unique solution du Problème (Pλ ) dans B(y ∗ , r).

80
4.3. ALGORITHME IDW-G

Preuve . S'il existe `∗ ∈ N tel que ∇Fλ (ŷ` ∗ ) = 0, alors par le théorème 4.2.1, ŷ`∗
est la solution du problème (Pλ ) et par construction ŷ` = ŷ`∗ pour tout ` > `∗ .
Ainsi la suite (ŷl ) converge vers la solution du problème (Pλ ).

Maintenant, on suppose que ∇Fλ (ŷ` ) 6= 0 pour tout ` ∈ N, par le lemme 4.3.1
on obtient :

t
Fλ (ŷ` ) − Fλ (γŷ` (t)) > ||∇Fλ (ŷ` )||2
2
tŷ`
Fλ (ŷ` ) − Fλ (γŷ` (tŷ` )) > ||∇Fλ (ŷ` )||2
2
tŷ`
Fλ (ŷ` ) − Fλ (ŷ`+1 ) > ||∇Fλ (ŷ` )||2 , car ŷ`+1 = γŷ` (tŷ` )
2
tŷ`
Fλ (ŷ` ) > ||∇Fλ (ŷ` )||2 + Fλ (ŷ`+1 )
2
> Fλ (ŷ`+1 ) > 0

Ainsi, la suite Fλ (ŷ` ) est convergente. D'un autre côté, soit ŷ ∈ B(y ∗ , r) une valeur
d'adhérence de la suite (yˆ` )` , alors par continuité (Fλ (yˆ` ))` converge vers Fλ (ŷ).
Comme

tyb`
y`+1 ) >
y` ) − Fλ (b
Fλ (b y` )||2 ,
||∇Fλ (b ∀` ∈ N
2

alors par continuité des applications y 7−→ ty et y 7−→ ∇Fλ y sur B(y ∗ , r), on
obtient 0 > k∇Fλ (by )k et donc ∇Fλ (b
y ) = 0. Ainsi, la suite (b
y` )` admet yb comme
unique valeur d'adhérence.

L'algorithme IDW-G peut être résumé de la manière suivante :

81
CHAPITRE 4. IDW GRASSMANNIENNE

Algorithme 2 : Algorithme IDW-G.


Données :
i. N bases : Φ(λ1 ), · · · , Φ(λN ) ∈ R∗n×m .
ii. Un nouveau paramètre : λ ∈ RP .
iii. Une tolérance : e.

Résultat : La base IDW-G interpolée ΦI (λ)


1 Choisir les poids α1 , · · · , αN comme dans (4.5), par exemple.
2 Initialisation : Choisir Φ0 ∈ Rn×m
∗ et soit R = Φ0 .
N
!
X
3 Calculer R = expR −tR R (Φi ) .
αi (λ) exp−1
i=1

X N

4 Calculer Res = tR αi (λ) exp−1
R (Φi .
)

i=1
5 si Res 6 e alors
6 Return yb = R
7 sinon
8 Calculer encore R et Res

Dans les applications, on considère tR = 1


N
et les coecients α1 , · · · , αN sont
dénis de la façon suivante :
1. Si λ = λk avec λk ∈ Λ, alors
(
1 si i = k
αi (λ) = (4.10)
0 si i 6= k

pour tout i ∈ {1, · · · , N }


2. Si λ ∈
/ Λ, on dénit
1
αi (λ) = (4.11)
S(λ).d(λ, λi )2
N
X 1
où S(λ) = .
i=1
d(λ, λi )2

82
4.4. VALIDATION NUMÉRIQUE

4.4 Validation numérique


Exemple 4.4.1 (Equation de Burgers) Nous reprenons l'équation de Burgers
3.4 et considérons l'ensemble des valeurs du paramètre suivant :
{0.005, 0.01, 0.04, 0.08, 0.1}.
Maintenant, nous considérons une nouvelle valeur ν = 0.007 et nous interpolons
par les méthodes IDW-G et la méthode proposée par Amsallem et Farhat [9],
notée isi G-Splin O3 (car l'interpolation sur l'espace tangent est basée sur des
splines cubiques). On note âi (t) les coecients dynamiques associés à la base de
référence et âI,IDW
i
G
(t) , âI,G
i (t) les coecients dynamiques associées aux bases
interpolées.

Dans le tableaux 4.1 nous comparons les erreurs de reconstruction pour les
deux méthodes. On peut voir que les ordres de grandeur des erreurs sont les
mêmes pour les deux méthodes.
Méthode % Erreur de reconstruction
Reference 4.0030984515359185e-05
IDW-G 4.8036660718029034e-05
G-Spline O3 4.741833294352852e-05

Table 4.1  Erreur de reconstruction ku−PΦ uk2F


kuk2F
pour ν = 0.007.

Nous allons conrmer ces résultats, en comparant dans la gure 4.1 les trois
coecients dynamiques âi (t), âI,IDW
i
G
(t) et âI,G
i (t). Nous voyons que les coe-
cients temporels associés aux bases interpolées approchent bien ceux obtenus par
la base POD de référence.

Figure 4.1  Comparaison de coecients temporels pour ν = 0.007.

83
CHAPITRE 4. IDW GRASSMANNIENNE

Exemple 4.4.2 (Écoulement autour d'un cylindre) Pour le nombre de Rey-


nolds, nous allons prendre les valeurs suivantes :

{100, 160, 170, 180, 200}.

Nous allons interpoler en Re = 110, par la méthode IDWG et celle d'Amsallem


et Farhat [9].

Dans le tableaux 4.2 nous comparons les erreurs de reconstruction associées aux
bases interpolées et celles obtenues à partir de la base de référence.

Méthode % Erreur de reconstruction


Référence 6.3467811e-06
IDWG 2.8361855e-02
G-Spline O3 5.7297314e-02

Table 4.2  Erreur de reconstruction ku−PΦ uk2F


kuk2F
pour Re = 110.

Dans la gure (4.2) nous comparons les coecients dynamiques âi (t) associés
à la base de référence avec ceux associés aux bases interpolées. Nous voyons que
les deux premiers coecients associés aux bases interpolées approchent bien ceux
associés à la base de référence. Cependant, la IDW-G est plus précise pour les
derniers coecients.

Figure 4.2  Comparaison de coecients temporels pour Re = 110.

84
4.4. VALIDATION NUMÉRIQUE

Pour une estimation plus précise, dans la gure (4.3) nous comparons les
écarts relatifs des coecients temporels. Nous nous apercevons plus clairement
que les derniers coecients associés à la méthode IDW-G sont plus précis que
ceux obtenus par l'interpolation de Amsallem et Faraht [9].

Figure 4.3  Ɖ(t) pour Re = 110.


Dans la gure (4.4) nous comparons les coecients de portance et de traînée
associés à la base de référence et ceux associés aux bases interpolées. Nous nous
apercevons que la méthode IDW-G est celle qui donne les meilleurs résultats.

Figure 4.4  CD et CL pour Re = 110.

85
CHAPITRE 4. IDW GRASSMANNIENNE

L'algorithme d'interpolation IDW-G que l'on a proposé ici, n'a pas besoin de
point de référence et en plus, il donne de meilleurs résultats sur les cas étudiés que
l'algorithme d'interpolation AF-G. Cependant, il présente le défaut d'être itératif.
Ainsi nous proposons un algorithme explicite basé sur une notion de barycentre
généralisé.

4.5 Le barycentre généralisé (BG)


Dans cette partie nous allons introduire la notion de barycentre généralisé
(BG) sur une variété riemannienne. Cette nouvelle notion est fondée sur le fait
que le barycentre de trois points dans un espace vectoriel, peut être obtenu de la
manière suivante :
soient y1 , y2 et y3 trois points de R2 , nous considérons le segment de droite reliant
y1 et y2
Γy1 ,y2 (t) = (1 − t) y1 + t y2
et le segment de droite reliant Q et y3 avec Q = Γy1 ,y2 ( 21 ), c'est-à-dire
ΓQ,y3 (t) = (1 − t) Q + t y3 .
Alors,
 
1 2 1
ΓQ,y3 = Q + y3
3 3 3
1
= (y1 + y2 + y3 )
3
est le barycentre de {y1 , y2 , y3 }, comme le montre la gure (4.5) ci-dessous.
y3

1
3

b
y1 1 y2
2 Q

Figure 4.5  Barycentre d'un triangle.


Nous pouvons faire le même raisonnement pour atteindre le barycentre d'un
nombre ni de points. Nous allons généraliser cette notion au cas des variétés rie-
manniennes pour un nombre ni de points et pour des poids quelconques. Pour

86
4.5. LE BARYCENTRE GÉNÉRALISÉ (BG)

cela il sut de remplacer les segments de droites dans un espace vectoriel pour
les géodésiques dans une variété riemannienne, comme le montre la gure (4.6)
ci-dessous.

Φ3

Gm (Rn )

Φ1 Φ2

Figure 4.6  Barycentre d'un triangle.


Dénition 4.5.1 Soit Y = {y1 , · · · , yN } un ensemble de N points d'une variété
N
X
riemannienne (M, g) et W = {α1 , · · · , αN } ⊂]0, 1[ tel que αi = 1. Pour tout
i=1
1 6 i 6 N − 1, on dénit
 
αi+1
Q0 = y1 Qi = ΓQi−1 ,yi+1
α1 + · · · + αi+1

où ΓQi−1 ,yi+1 : [0, 1] → M est la géodésique reliant Qi−1 à yi+1 . Le barycentre


généralisé de l'ensemble Y pondéré par les poids W , est déni comme le point
QN −1 de M .

Exemple 4.5.2 Si l'on remplace M par l'espace vectoriel Rn , alors pour chaque
1 6 i 6 N − 1, on obtient :
i+1
X
1
Qi = αk yk
α1 + · · · + αi+1 k=1

N
X
Ainsi, QN −1 = αk yk est le barycentre de l'ensemble des points Y , pondéré par
k=1
les poids de W .

Dénition 4.5.3 Soient { Φ(λ1 ), Φ(λ2 ), Φ(λ3 ) } trois points de la variété de Grass-
mann Gm (R ) associés aux paramètres {λ1 , λ2 , λ3 } ⊂ RP .
n

Soient α1 , α2 , α3 : RP → R fonctions de pondération tels que :


1. α1 (λ) + α2 (λ) + α3 (λ) = 1

87
CHAPITRE 4. IDW GRASSMANNIENNE

2. αi (λk ) = δi,k
Pour un nouveau paramètre λ ∈ RP , la valeur estimée de Φ(λ) est donnée par

Q2 = ΓQ1 ,Φ(λ3 ) (α3 (λ))


ˆ pour i = 1, 2
ΓQi−1 ,Φ(λi+1 ) : [0, 1] → Gm (Rn )

est la géodésique reliant Qi−1 à Φ(λi+1 ) donnée par le théorème 2.3.36.


 
α2 (λ)
ˆ Q1 = ΓQ0 ,Φ(λ2 )
α1 (λ) + α2 (λ)
ˆ Q0 = Φ(λ1 )

Dans les applications nous considérons comme fonctions de pondération celles


dénies dans 4.10 et 4.11.
Pour un nombre ni de points l'algorithme de la méthode du barycentre généralisé
(BG) peut être résumé de la manière suivante :
Algorithme 3 : Algorithme du barycentre généralisé (BG).
Données :
i. N bases : Φ(λ1 ), · · · , Φ(λN ) ∈ R∗n×m .
ii. Un nouveau paramètre : λ ∈ RP .

Résultat : La base interpolée ΦI (λ)


1 Choisir les poids α1 (λ), · · · , αN (λ) comme dans (4.5), par exemple.
2 Q0 = Φ(λ1 ).
3 pour i = 1 à N − 1 faire
4 Ui Σi t Vi = Φ(λi+1 )( t Qi−1 Φ(λi+1 ))−1 − Qi−1
αi+1 (λ)
5 βi ← α1 (λ)+···+αi+1 (λ)
  
6 Qi ← Qi−1 Vi cos tan−1 (Σi ) βi + Ui sin tan−1 (Σi ) βi

7 retourner QN −1

Remarques 4.5.4
1. Un grand avantage de la méthode d'interpolation basée sur la notion de
barycentre généralise, est qu'elle permet un calcul exact et très rapide.

88
4.6. VALIDATION NUMÉRIQUE

2. Le barycentre généralisé coïncide avec la notion de barycentre classique


dans le cas d'un espace vectoriel. Mais il ne correspond pas au barycentre au
sens de Karcher [40]. Cependant, notre algorithme dénit bien une méthode
d'interpolation explicite et sans point de référence.

4.6 Validation numérique


Exemple 4.6.1 (Écoulement autour d'un cylindre) Pour le nombre de Rey-
nolds, nous allons prendre les valeurs suivantes :

{100, 160, 170, 180, 200}.

Nous allons interpoler en Re = 110, par la méthode IDWG et celle d'Amsallem


et Farhat [9].

Dans le tableau 4.3 nous comparons les erreurs de reconstruction associées aux
bases interpolées et celles obtenues à partir de la base de référence.

Méthode % Erreur de reconstruction


Reference 6.3467811e-06
BG 2.7673231e-02
IDW-G 2.8361855e-02
G-Spline O3 5.7297314e-02

Table 4.3  Erreur de reconstruction ku−PΦ uk2F


kuk2F
pour Re = 110.

Dans la gure (4.7) nous comparons les coecients dynamiques âi (t) associés
à la base de référence avec ceux associés aux bases interpolées. Nous voyons que
la méthode IDW-G et BG, donne les mêmes approximations.

89
CHAPITRE 4. IDW GRASSMANNIENNE

Figure 4.7  Comparaison de coecients temporels pour Re = 110.


Pour une estimation plus précise, dans la gure (6.9) nous comparons les
écarts relatifs des coecients temporels. Nous nous apercevons que la IDWG et
la méthode de BG, donnent les mêmes résultats.

Figure 4.8  Ɖ(t) pour Re = 110.

90
4.6. VALIDATION NUMÉRIQUE

Pour le nombre de Reynolds, nous allons prendre les valeurs suivantes :

{100, 120, 130, 160, 170, 200}.

et nous allons comparer les méthodes IDW-G et BG. Nous interpolons en


Re = 190.

Dans le tableau 4.4 nous comparons les erreurs de reconstruction associées


aux bases interpolées et celles obtenues à partir de la base de référence. Nous
pouvons voir que la méthode BG, est plus précise que la méthode IDW-G.

Méthode % Erreur de reconstruction


Référence 5.5957489e-05
BG 5.5957489e-05
IDWG 1.0625390e-03

Table 4.4  Erreur de reconstruction ku−PΦ uk2F


kuk2F
pour Re = 190.

Dans la gure (4.9) nous comparons les coecients de portance CD et de


traînée CL associés à la base de référence et ceux associés aux bases interpolées
BG et IDW-G. Nous nous apercevons que la méthode IDW-G et la méthode de
BG, donnent les mêmes résultats.

Figure 4.9  Comparaison de coecients aérodynamiques pour Re = 190.


Pour une estimation plus précise, dans la gure (4.10), nous comparons les er-
reurs relatifs des coecients aérodynamiques ∆CD et ∆CL dénis respectivement
dans (3.5) et (3.6) respectivement. Nous nous apercevons que pour le deuxième
coecient, la méthode de BG est légèrement plus précise que la méthode IDW-G.

91
CHAPITRE 4. IDW GRASSMANNIENNE

Figure 4.10  ∆CD et ∆CL pour Re = 190.

4.7 Conclusion
La méthode IDW-G est une nouvelle méthode d'interpolation sur la variété de
Grassmann qui ne dépend pas d'un choix du point de référence. Cette méthode
généralise au cadre de variétés riemanniennes la méthode de pondération par in-
verse de la distance (IDW). Nous avons constaté dans les exemples traités, que
les résultats obtenus par la IDW-G sont plus pertinents que ceux obtenus par la
méthode d'Amsallem et Farhat [9]. Cependant, l'algorithme IDW-G est itératif.
Ainsi, nous avons proposé un algorithme d'interpolation explicite, qui est une
variante de la IDW-G, basé sur un notion de barycentre généralisé (BG). Cette
méthode est plus précise que les méthodes IDW-G et AF-G pour les cas traités.

Les méthodes IDW-G et BG, dépendent du choix des fonctions de pondéra-


tion. Dans le chapitre suivant on va développer une méthode d'interpolation basée
sur la méthode du krigeage [22, 67], qui permet un choix pertinent des fonctions
de pondération.

92
Chapitre 5

Méthode de Krigeage Grassmannien

Contents
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 94
5.2 Krigeage Grassmannien . . . . . . . . . . . . . . . . . . 95
5.2.1 Semi-variogramme expérimental . . . . . . . . . . . . . 99
5.2.2 Variogramme analytique . . . . . . . . . . . . . . . . . 100
5.3 Validation numérique . . . . . . . . . . . . . . . . . . . 101
5.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 105

93
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN

5.1 Introduction
Soient x(λ1 ), · · · , x(λN ), N points dans un espace vectoriel E , associés aux
paramètres Λ = {λ1 , · · · , λN } ⊂ RP . Étant donné le nouveau paramètre λ ∈ RP ,
pour déterminer la valeur estimée x̂(λ) de x(λ) par la méthode d'interpolation
IDW, on considère des poids αi (λ) ∈ R comme fonction de d(λ, λi ), de façon à
ce que les paramètres les plus proches aient plus d'inuence dans l'interpolation.
N
X
La valeur estimée est le barycentre pondéré x̂(λ) = αi (λ) x(λi ).
i=1

La méthode d'interpolation par krigeage est une technique géostatistique sou-


vent utilisée en géosciences [22, 67]. Cette méthode peut-être comparée à la mé-
thode IDW, dans la mesure où la valeur estimée x̂(λ), est cherchée aussi comme
N
X
un barycentre pondéré x̂(λ) = αi (λ) x(λi ). Mais, à la diérence de la méthode
i=1
IDW, les facteurs de pondération αi (λ) du krigeage sont plus "sophistiqués". En
eet, dans la méthode de krigeage, chaque donnée x(λi ) est considérée comme
la réalisation d'une fonction aléatoire et sous des hypothèses classiques, les poids
sont cherchés comme la solution du problème de minimisation suivant :
" N
#
X
(α1 (λ), · · · , αN (λ)) = argmin V αi x(λi ) − x(λ)
(α1 ,··· ,αN )∈RN i=1
XN
αi = 1
i=1

où V est la variance statistique. À diérence de l'IDW, où les poids αi (λ) dé-


pendent seulement de la distance par rapport à l'emplacement de prévision, dans
la méthode de krigeage, les poids αi (λ) prennent en compte aussi l'organisation
spatiale générale des points donnés. En eet, on quantie l'auto-corrélation spa-
tiale au travers du semi-variogramme expérimental pour utiliser cette information
dans les poids αi (λ).

En s'inspirant de la méthode d'interpolation par krigeage dans le cas d'un


espace vectoriel, on présente une méthode d'interpolation par krigeage sur la va-
riété de Grassmann, qu'on va appeler méthode de Krigeage Grassmannien et qui
peut-être comparée à la méthode IDW-G, développée dans le chapitre 4.

Étant donnés Φ(λ1 ), · · · Φ(λN ), N points sur la variété de Grassmann Gm (Rn )


associés aux paramètres Λ = {λ1 , · · · , λN } ⊂ D où D ⊂ RP , l'interpolation par
méthode de Krigeage Grassmannien comprend principalement deux étapes :
1. À partir des donnés Φ(λ1 ), · · · Φ(λN ), et en utilisant la distance géodésique
de la variété, on dénit un semi-variogramme expérimental 5.7, associé aux

94
5.2. KRIGEAGE GRASSMANNIEN

distances entre les données. Le semi-variogramme expérimental, donne ainsi


des informations sur l'auto-corrélation spatiale des données.
2. An de pouvoir estimer le semi-variogramme théorique pour des autres
distances possibles, on choisit un modèle analytique pour modéliser le semi-
variogramme expérimental.

5.2 Krigeage Grassmannien


Soit (Ω, F, P) un espace probabilisé, E un espace vectoriel muni de la tribu
borélienne notée B(E) et D une partie de RP .
Dénition 5.2.1 Un processus aléatoire de second ordre indexé par D et à va-
leurs dans E , est une famille de variables (champs) aléatoires

{δλ : (Ω, F, P) → (E, B(E))}λ∈D

de carré intégrable, qu'on notera simplement par {δλ }λ∈D .

Soient δ1 , δ2 , deux variables aléatoires de carrés intégrables, on note


Z
E[kδ1 − δ2 k ] =
2
kδ1 (w) − δ2 (w)k2E dP(w).

Dénition 5.2.2 Soit δ : (Ω, F, P) → (E, B(E)), une variable aléatoire de carré
intégrable. La moyenne de Fréchet de δ , noté par M(δ), est dénie par
Z
M(δ) = argmin kδ(w) − xk2E dP(w).
x∈E Ω

Dénition 5.2.3 Le variogramme d'un processus aléatoire du second ordre {δλ }λ∈D ,
est la fonction γE : D × D → R, dénie par

γE (λ, λ0 ) = E[kδλ − δλ0 k2 ] − kM(δλ ) − M(δλ0 )k2E .

Dénition 5.2.4 Un processus aléatoire {δλ }λ∈D est appelée intrinsèquement


stationnaire si,
i) Il existe x̄ ∈ E , tel que M(δλ ) = x̄ pour tout λ ∈ D. C'est-à-dire la moyenne
ne dépend pas de la localisation spatiale.
ii) Le variogramme γE : D × D → R est invariant par translation, c'est-à-dire

γE (λ + h, λ0 + h) = γE (λ, λ0 )

pour tout λ, λ0 ∈ D, h ∈ RP avec λ + h, λ0 + h ∈ D.

95
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN

À tout processus aléatoire intrinsèquement stationnaire {δλ }λ∈D , on peut as-


socier l'application v : RP → R, appelée semi-variogramme dénie par :
1  
v(h) = E kδλ+h − δλ k2 . (5.1)
2
On peut remarquer que le semi-variogramme est une fonction positive, paire et
nulle en h = 0, c'est-à-dire de type négatif conditionnel [23].
Théorème 5.2.5 Soient Φ(λ1 ), · · · Φ(λN ), N points sur la variété de Grassmann
Gm (R ) associés aux paramètres Λ = {λ1 , · · · , λN } ⊂ D. On fait les hypothèses
n

suivantes :
1. Il existe Φ̄r ∈ Gm (Rn ) avec d( Φr , Φ(λi ) ) < π2 pour tout i ∈ {1, · · · , N }.
2. Il existe un processus aléatoire Z , indexée par D, et à valeur dans TΦ̄r Gm (Rn )
de la forme Z = µ + δ , tel que :
Z(λi ) = exp−1
Φ̄r
(Φ(λi ))
pour tout i ∈ {1, · · · , N }, où µ est un champ aléatoire, δ est un proces-
sus aléatoire, indexée par D, et à valeur dans TΦ̄r Gm (Rn ) intrinsèquement
stationnaire et exp−1
Φ̄r
est l'inverse de l'exponentielle géodésique.
Alors, étant donné λ∗ ∈ D, il existe (α1 (λ∗ ), · · · , αN (λ∗ )) ∈ RN telle que

 2 
X N
∗ 
(α1 (λ ), · · · , αN (λ )) = argmin E
∗ ∗  αi Z(λi ) − Z(λ ) (5.2)
(α1 ,··· ,αN )∈RN
i=1
XN
αi = 1
i=1

N
X

Ẑ(λ ) = αi (λ∗ ) Z(λi ) est appelé valeur estimée de Z(λ∗ ).
i=1

Preuve . On note δi = δλ pour tout i ∈ {1, · · · , N } et δ∗ = δλ .


i

N
X
Soit (α1 , · · · , αN ) ∈ RN avec αi = 1, on a :
i=1

N
X N
X

αi Z(λi ) − Z(λ ) = αi (µ + δi ) − µ − δ∗
i=1 i=1
N
! N
X X
= αi µ−µ+ αi δi − δ∗
i=1 i=1
N
X
= αi (δi − δ∗ )
i=1

96
5.2. KRIGEAGE GRASSMANNIEN

Donc,

 2   2 
X N X N

E  αi Z(λi ) − Z(λ∗ )  = E  α i δi − δ∗ 

i=1 i=1
 2 
X N XN

= E  α i δi − 2 αi < δi , δ∗ > + kδ∗ k2 

i=1 i=1
" N N
#
X X
=E αi αj < δi , δj > − αi kδi k2 +
i,j=1 i=1
| {z }
(a)

" N N
#
X 2
X 2
E αi kδi k − 2 αi < δi , δ∗ > + kδ∗ k
i=1 i=1
| {z }
(b)

On réécrit le terme (a)

N
X N
X N
X
(a) = αi αj < δi , δj > − αj αi kδi k2
i,j=1 j=1 i=1
N
X N N
1X 1X
= αi αj < δi , δj > − αi αj kδi k2 − αi αj kδj k2
i,j=1
2 i,j=1 2 i,j=1
N
1X 
=− αi αj −2 < δi , δj > + kδi k2 + kδj k2
2 i,j=1
N
1X
=− αi αj kδi − δj k2
2 i,j=1

et le terme (b)

97
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN

N
X N
X
2
(b) = αi kδi k − 2 αi < δi , δ∗ > + kδ∗ k2
i=1 i=1
XN

= αi kδi k2 − 2 < δi , δ∗ > + kδ∗ k2
i=1
XN
= αi kδi − δ∗ k2
i=1

Ainsi, on a

 2  " # " N #
XN 1
N
X X
2 2
E  αi Z(λi ) − Z(λ∗ )  = E − αi αj kδi − δj k + E αi kδi − δ∗ k
2
i=1 i,j=1 i=1
N N
1X  2
X  
=− αi αj E kδi − δj k + αi E kδi − δ∗ k2
2 i,j=1 i=1
N
X N
X
=− αi αj v(λi − λj ) + 2 αi v(λi − λ∗ )
i,j=1 i=1

Si l'on note α = t [α1 · · · αN ] ∈ RN ×1 et qu'on considère les matrices

G ∈ RN ×N et G∗ ∈ RN ×1 (5.3)

dénies par Gij = v(λi − λj ) et (G∗ )i = v(λi − λ∗ ) pour tout i, j ∈ {1, · · · , N },


alors on peut écrire
 2 
XN

E  αi Z(λi ) − Z(λ∗ )  = −t αGα + 2 t αG∗

i=1

Maintenant, soit 1N = t [1 · · · 1] ∈ RN ×1 , on doit minimiser −t αGα + 2 t αG∗


sous la contrainte t α1N = 1. On considère le lagrangien

L(α, µ) = −t αGα + 2 t αG∗ + 2 µ(t α1N − 1)

où µ ∈ R, on a ∂α L(α, µ) = −2 Gα + 2G∗ + 2 µ1N ainsi, au point

α = G−1 (G∗ + µ1N )

98
5.2. KRIGEAGE GRASSMANNIEN

∂α L(α, µ) = 0 et comme α doit vérier aussi la contrainte t α1N = 1 on obtient


1 − t 1N G−1 G∗
µ= t 1 G−1 G
N ∗
donc  
1 − t 1N G−1 G∗

α(λ ) = G −1
G∗ + t 1N (5.4)
1N G−1 G∗
Ainsi, α(λ∗ ) ∈ RN est la solution du problème 5.2.

5.2.1 Semi-variogramme expérimental


Le modèle probabiliste donné dans le théorème 5.2.5, sur lequel se base la mé-
thode de krigeage Grassmannien, suppose la connaissance de la fonction aléatoire
δ . Toutefois dans la pratique, celle-ci est rarement connue. À partir des données
disponibles Φ(λ1 ), · · · , Φ(λN ) ∈ Gm (Rn ) et en utilisant la distance sur la variété
de Grassmann, on va obtenir empiriquement un semi-variogramme expérimental
qui permet d'estimer le semi-variogramme théorique. On considère les nombres :
m(Λ) = min{kλi − λj k : 1 6 i < j 6 N } (5.5)
M (Λ) = max{kλi − λj k : 1 6 i < j 6 N } (5.6)
et d ∈ N, tel que d m(Λ) < M (Λ).

Si l'on note hi = i m(Λ) pour tout i ∈ {1, · · · , d}, h0 = 0 et hd+1 = M (Λ)


alors h = (h0 , · · · , hd+1 ) ∈ Rd+2 . On dénit les ensembles :

N (hi ) = {(λp , λq ) ∈ Λ × Λ : 1 6 p < q 6 N et hi−1 < kλp − λq k 6 hi }


pour tout i ∈ {1, · · · , d + 1}. Le graphique suivant donne une idée de la
construction des ensembles N (hi ).

Figure 5.1  Construction du semi-variogramme expérimental.

99
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN

Ainsi, le variogramme expérimental associé aux données Φ(λ1 ), · · · , Φ(λN )


peut-être déni comme le vecteur v = (v(0), · · · , v(d + 1)) ∈ Rd+2 , où
1 X
v(i) = d2 ( Φ(λp ), Φ(λq ) ) (5.7)
Card(N (hi ))
(λp ,λq )∈N (hi )

pour tout i ∈ {1, · · · , d + 1}, v(0) = 0 et d est la distance géodésique sur la


variété de Grassmann. Comme dans le cas d'un espace vectoriel la valeur a = hd+1
sera nommée  portée  et le terme c = v(d + 1)  palier .

L'algorithme pour le semi-variogramme expérimental peut-être résumé comme


suit
Algorithme 4 : Semi-variogramme expérimental.
Données :
i. Liste de N paramètres : Λ = {λ1 , · · · , λN } ⊂ RP .
ii. Liste de N bases : Z = {Φ(λ1 ), · · · , Φ(λN )} ⊂ R∗n×m .

Résultat : portée a et palier c


1 Choisir m(Λ), M (Λ), d et h comme dans 5.5, 5.6.
2 pour i = 1 à d + 1 faire
3 pour p = 1 à N faire
4 pour q = p + 1 à N faire
5 si hi < kλp − λq k 6 hi alors
6 N (hi ) ← d2 (Zp , Zq )

7 si Card(N (hi )) 6= 0 alors


1
8 ṽi ← Card(N (hi ))
sum(N (hi ))

9 a ← hd+1
10 c ← ṽd+1

5.2.2 Variogramme analytique


Introduit dans la section précédente, le semi-variogramme expérimental, es-
time le semi-variogramme théorique à partir d'un nombre ni et connu de dis-
tances. Toutefois, il ne permet pas d'estimer le semi-variogramme théorique pour
d'autres distances possibles. Ainsi, on doit modéliser le semi-variogramme expé-
rimental par une fonction ṽ : R → R+ de type négatif conditionnel. Cette étape
est une étape clé dans le krigeage Grassmannien et, est similaire à une analyse de
régression dans laquelle une ligne ou une courbe continue est ajustée aux points
de données. Le choix d'une fonction comme modèle se fait selon l'auto-corrélation
spatiale des données et de la connaissance préalable du phénomène. On présente

100
5.3. VALIDATION NUMÉRIQUE

deux modèles classiques de variogrammes de type sphérique, qui sont bien adaptés
à nos exemples tests.
1. Modèle sphérique de palier c et de portée a :
(  
c 3h
2a
− 1 h3
2 a3
pour 0 6 h 6 a
ṽ(h) =
c pour h > a.
2. Modèle pentasphérique de palier c et de portée a :
(  
c 15 h
8a
− 5 h3
4 a3
+ 3 h5
8 a5
pour 0 6 h 6 a
ṽ(h) =
c pour h > a.
Ainsi, pour un nouveau paramètre λ∗ ∈ D en choisissant un modèle analytique,
on peut calculer les matrices G et G∗ comme dans 5.3.

Pour un ensemble donné Z = {Φ(λ1 ), · · · , Φ(λN )} de N points sur la variété


de Grassmann Gm (Rn ) associés aux paramètres Λ = {λ1 , · · · , λN } ⊂ RP et
λ ∈ RP , un nouveau paramètre, les étapes de la méthode de krigeage grasmannien
peuvent être résumées de la façon suivante :
1. Construire le semi-variogramme expérimental à l'aide de l'algorithme 4,
donc calculer la portée a et le palier c, associés à notre modèle.
2. Modéliser le semi-variogramme expérimental et obtenir les matrices
G ∈ RN ×N et G∗ ∈ RN ×1 comme, dans 5.3.
3. Trouver les poids α1 (λ), · · · αN (λ) à l'aide de l'équation 5.4 et calculer l'es-
N
X
timation Ẑ(λ) = Φr (Φ(λi )).
αi (λ∗ ) exp−1
i=1

4. À l'aide de l'exponentielle géodésique, calculer Φ̂(λ) = expΦ̄r (Ẑ(λ)).

5.3 Validation numérique


Exemple 5.3.1 (Écoulement autour d'un cylindre) Pour le nombre de Rey-
nolds, nous allons prendre les valeurs suivantes :

{100, 120, 130, 160, 170, 200}.

Nous allons interpoler en Re = 110, par la méthode de krigeage grassmannien et


par la méthode IDW-G.

Dans la gure (5.2) nous comparons les coecients de portance et de traînée


associes à la base de référence et ceux associés aux bases interpolées. Nous nous
apercevons que le krigeage donne les meilleurs résultats.

101
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN

Figure 5.2  CD et CL pour Re = 110.

Pour une estimation plus précise, dans la gure (5.3) nous comparons les er-
reurs relatives ∆CD et ∆CL des coecients aérodynamiques. Comme le montre la
gure (5.3) nous retrouvons que la méthode de krigeage grassmannien reproduit
presque les mêmes coecients associés à la base de référence. C'est une méthode
plus précise que celles que nous avons proposées dans les chapitres précédentes

Figure 5.3  ∆CD et ∆CL pour Re = 110.

Maintenant, pour le nombre de Reynolds, nous allons prendre les valeurs sui-
vantes :
{100, 160, 170, 180, 200}
et nous allons comparer les méthodes de krigeage grassmannien, IDW-G et celles
d'Amsallem et Farhat [9]. Nous interpolons en
Re = 110.

102
5.3. VALIDATION NUMÉRIQUE

Dans la gure (5.4) nous comparons les coecients dynamiques âi (t) associés
à la base de référence avec ceux associés aux bases interpolées. Nous voyons
que les trois méthodes d'interpolation donnent une bonne approximation des
deux premiers coecients. Cependant, pour les deux derniers coecients, c'est le
krigeage et la méthode IDW-G qui donnent les meilleurs résultats.

Figure 5.4  Comparaison de coecients temporels pour Re = 110.

Pour une estimation plus précise, dans la gure (5.5) nous comparons les er-
reurs relatives des coecients temporels ∆â(t) et nous constatons là encore, que
c'est le krigeage grassmannien qui donne les meilleures approximations.

Dans la gure (5.6) nous comparons les coecients de portance et de traînée


associés à la base de référence et ceux associés aux bases interpolées. Les résul-
tats conrment les performances de la méthode de krigeage par rapport à celles
proposées dans les chapitres précédents.
Pour une analyse plus minutieuse, dans la gure (5.7) nous comparons les
erreurs relatives des coecients aérodynamiques. Nous nous apercevons que c'est
le krigeage qui donne les meilleurs approximations.

103
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN

Figure 5.5  Ɖ(t) pour Re = 110.

Figure 5.6  CD et CL pour Re = 110.

Figure 5.7  ∆CD et ∆CL pour Re = 110.


104
5.4. CONCLUSION

5.4 Conclusion
Dans ce chapitre nous avons présenté la méthode de krigeage grassmannien.
Cette méthode est basée sur une notion statistique qui prend en compte l'or-
ganisation spatial de données. Les coecients de pondération par krigeage sont
déterminés comme solution d'un problème de minimisation de la variance de l'er-
reur d'approximation. Nous avons constaté la performance de cette méthode dans
les exemples.

Dans le chapitre suivant, nous reviendrons à la méthode d'interpolation par


les polynômes de Lagrange grâce à l'algorithme de Neville. Nous donnerons une
version grassmannienne de cet algorithme qui permet d'obtenir une méthode d'in-
terpolation intrinsèque n'ayant pas besoin d'un point de référence.

105
CHAPITRE 5. MÉTHODE DE KRIGEAGE GRASSMANNIEN

106
Chapitre 6

Algorithme d'interpolation Neville

Grassmannien

Contents
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 108
6.2 Algorithme d'interpolation Neville Grassmannien . . 109
6.2.1 Barycentre entre deux points . . . . . . . . . . . . . . 109
6.2.2 Algorithme de Neville Grassmannien . . . . . . . . . . 110
6.3 Validation numérique . . . . . . . . . . . . . . . . . . . 113
6.4 Bilan des diérentes méthodes d'interpolation . . . . 116
6.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 119

107
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE

6.1 Introduction
L'algorithme de Neville fournit une méthode récursive permettant de construire
l'interpolation des fonctions régulières par des polynômes de Lagrange. Il est basé
sur l'interpolation linéaire deux points par deux points. Illustrons le principe de
l'algorithme sur un exemple simple de l'interpolation à partir de trois points.
Soient y1 , y2 , y3 trois points dans Rn , associés aux paramètres {λ1 , λ2 , λ3 } ⊂ R.
Pour un paramètre λ on souhaite construire l'interpolation donnée par un poly-
nôme de degré deux passant par les trois points. Pour cela, on considère d'abord
le segment de droite passant par y1 en λ1 et y2 en λ2 :
λ2 − λ λ − λ1
Γ1,2 (λ) = y1 + y2
λ2 − λ1 λ2 − λ1
et le segment de droite passant par y2 en λ2 et y3 en λ3 :
λ3 − λ λ − λ2
Γ2,3 (λ) = y2 + y3
λ3 − λ2 λ3 − λ2
On peut remarquer que Γ1,2 (λ) est le barycentre de y1 et y2 pondéré respective-
λ2 − λ λ − λ1
ment par les poids et . Une remarque similaire peut être faite
λ2 − λ1 λ2 − λ1
pour Γ2,3 (λ).

Maintenant, considérons le barycentre de Γ1,2 (λ) et Γ2,3 (λ) pondéré respec-


λ −λ λ−λ
tivement par les poids 3 et 1
, on obtient un polynôme de degré
λ3 − λ1 λ3 − λ1
deux
λ3 − λ λ − λ1
Γ(λ) = Γ1,2 (λ) + Γ2,3 (λ) (6.1)
λ3 − λ1 λ3 − λ1
tel que
Γ(λ1 ) = y1 , Γ(λ2 ) = y2 et Γ(λ3 ) = y3 .
Par unicité, le polynôme Γ est le polynôme interpolant de Lagrange passant par
les trois points y1 , y2 et y3 . Cette construction est illustrée dans la gure (6.1).

y1 y2 y3

Γ1,2 (λ) Γ2,3 (λ)

Γ(λ)

Figure 6.1  Algorithme de Neville.

108
6.2. ALGORITHME D'INTERPOLATION NEVILLE GRASSMANNIEN

L'équation (6.1) peut être récrite sous la forme suivante :


Γ(λ) = α1 (λ) Γ1,2 (λ) + α2 (λ) Γ2,3 (λ) (6.2)

λ3 − λ λ − λ1
α1 (λ) = et α2 (λ) = .
λ3 − λ1 λ3 − λ1
Nous pouvons ensuite utiliser la même idée pour un nombre ni quelconque
de points de Rn .
Cet algorithme peut être généralisé au cas d'une variété de Grassman en
remplaçant les segments de droite par les géodésiques sur la variété.

6.2 Algorithme d'interpolation Neville Grassman-


nien
6.2.1 Barycentre entre deux points
Dénition 6.2.1 Le barycentre généralisé de deux points y1 , y2 de la variété
Gm (Rn ) pondéré par α1 , α2 ∈ [0, 1] avec α1 + α2 = 1, est déni comme Γy1 ,y2 (α2 ),
où Γy1 ,y2 : [0, 1] → Gm (Rn ) est l'unique géodésique reliant et réalisant la distance
entre y1 à y2 .

La dénition 6.2.1 est locale, en eet par théorème 2.3.21 si y1 , y2 se trouvent dans
une boule de rayon π2 , l'existence de la géodésique Γy1 ,y2 est assurée. Dans le cas
où l'on travaille dans un espace vectoriel E et non dans Gm (Rn ), la géodésique
qui relie y1 à y2 est le segment de droite
Γy1 ,y2 (λ) = (1 − λ) y1 + λ y2
ainsi,
Γy1 ,y2 (α2 ) = α1 y1 + α2 y2
est le barycentre pondéré de y1 , y2 .

Pour deux points, le barycentre donné par la dénition 6.2.1 coïncide avec le
barycentre au sens de Karcher, comme nous allons le montrer dans la proposition
suivante :
Proposition 6.2.2 Le barycentre de y1 et y2 pondéré par α1 , α2 ∈ [0, 1] avec
α1 + α2 = 1, donné par la dénition 6.2.1 coïncide avec le barycentre au sens de
Karcher, c'est-à-dire, si l'on note ŷ = Γy1 ,y2 (α2 ), alors
ŷ = arg min F (y)
y∈Gm (Rn )

où F (y) = 21 α1 d2 (y, y1 ) + 12 α2 d2 (y, y2 ).

109
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE

Preuve . Grâce au théorème 4.2.1, pour montrer cette proposition, il sut de


montrer que ∇F (ŷ) = 0, ou d'une manière équivalente, il faut montrer que l'on
a:
α1 exp−1 −1
ŷ (y1 ) + α2 expŷ (y2 ) = 0

y1 (y2 ). Alors la
Soit Γy1 ,y2 (λ) = expy1 (λv) la géodésique reliant y1 à y2 où v = exp−1
courbe γ1 : [0, 1] → Gm (R ) dénie par γ1 (λ) = Γy1 ,y2 (α2 (1−λ)) est la géodésique
n

reliant ŷ à y1 et

exp−1 0
ŷ (y1 ) = γ1 (0)
= −α2 Γ0y1 ,y2 (α2 )

= −α2 Φα2 ,0 Γ0y1 ,y2 (0)
= −α2 Φα2 ,0 (v)

où Φα2 ,0 : Ty1 Gm (Rn ) → Ty Gm (Rn ) est le transport parallèle le long de Γy1 ,y2 .

De même, la courbe γ2 : [0, 1] → Gm (Rn ), dénie par γ2 (λ) = Γy1 ,y2 (α2 + α1 λ)
est la géodésique reliant ŷ à y2 et vérie

exp−1 0
ŷ (y2 ) = γ2 (0)
= α1 Γ0y1 ,y2 (α2 )

= α1 Φα2 ,0 Γ0y1 ,y2 (0)
= α1 Φα2 ,0 (v)

ainsi, on a α1 expŷ−1 (y1 ) + α2 expŷ−1 (y2 ) = 0.

6.2.2 Algorithme de Neville Grassmannien


Pour simplier la présentation, nous allons d'abord expliciter cette méthode
dans le cas de trois points.

Soient y1 , y2 et y3 trois points de la variété de Grassmann Gm (Rn ), associés


aux paramètres λ1 , λ2 , λ3 ∈ R. Nous allons construire une application

Γ1,3 : R → Gm (Rn )

telle que
Γ1,3 (λ1 ) = y1 , Γ1,3 (λ2 ) = y2 et Γ1,3 (λ3 ) = y3 . (6.3)
D'abord, nous considérons l'application
 
λ − λ1
Γ1,2 (λ) = Γ y1 , y2 , λ1 , λ2 ,
λ2 − λ1

110
6.2. ALGORITHME D'INTERPOLATION NEVILLE GRASSMANNIEN

où  
λ − λ1
Γ y1 , y2 , λ1 , λ2 ,
λ2 − λ1
est une reparamétrisation de l'unique géodésique passant par y1 en λ = 0 et par
y2 en λ = 1, donnée par le théorème 2.3.36. Ainsi, nous avons

Γ1,2 (λ1 ) = y1 et Γ1,2 (λ2 ) = y2 .

De même, nous pouvons considérer l'application


 
λ − λ2
Γ2,3 (λ) = Γ y2 , y3 , λ2 , λ3 ,
λ3 − λ2
où  
λ − λ2
Γ y2 , y3 , λ2 , λ3 ,
λ3 − λ2
est une reparamétrisation de l'unique géodésique passant par y2 en λ = 0 et par
y3 en λ = 1, et nous avons

Γ2,3 (λ2 ) = y2 et Γ2,3 (λ3 ) = y3 .

Nous pouvons alors écrire :

Γ1,3 (λ) = Γ (Γ1,2 (λ), Γ2,3 (λ), λ1 , λ3 , α2 (λ))



λ3 − λ λ − λ1
α1 (λ) = , α2 (λ) =
λ3 − λ1 λ3 − λ1
et
Γ (Γ1,2 (λ), Γ2,3 (λ), λ1 , λ3 , α2 (λ))
est une reparamétrisation de l'unique géodésique passant par Γ1,2 (λ) en λ = 0 et
par Γ2,3 (λ) en λ = 1.

L'application Γ1,3 (λ) vérie :

Γ1,3 (λ1 ) = Γ (Γ1,2 (λ1 ), Γ2,3 (λ1 ), λ1 , λ3 , α2 (λ1 ))


= Γ (Γ1,2 (λ1 ), Γ2,3 (λ1 ), λ1 , λ3 , 0)
= Γ1,2 (λ1 )
= y1

Γ1,3 (λ2 ) = Γ (Γ1,2 (λ2 ), Γ2,3 (λ2 ), λ1 , λ3 , α2 (λ2 ))


= Γ (y2 , y2 , λ1 , λ3 , α2 (λ2 ))
= y2

111
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE

et

Γ1,3 (λ3 ) = Γ (Γ1,2 (λ3 ), Γ2,3 (λ3 ), λ1 , λ3 , α2 (λ3 ))


= Γ (Γ1,2 (λ3 ), Γ2,3 (λ3 ), λ1 , λ3 , 1)
= Γ2,3 (λ3 )
= y3

Ainsi, nous avons construit une application Γ1,3 (λ) : R → Gm (Rn ) qui vérie
(6.3). Dans le cas d'un nombre ni de points, la méthode s'énonce comme suit.

Soient y1 , · · · , yN ∈ Gm (Rn ) et λ1 , · · · , λN ∈ R. Par récurrence, nous allons


construire une application Γ : R → Gm (Rn ), telle que

Γ(λi ) = yi (6.4)

pour tout i ∈ {1, · · · N }.

D'abord, pour chaque i ∈ {1, · · · , N − 1}, nous considérons l'application


 
λ − λi
Γi,i+1 (λ) = Γ yi , yi+1 , λi , λi+1 ,
λi+1 − λi


λ − λi
Γ(yi , yi+1 , λi , λi+1 , )
λi+1 − λi
est une reparamétrisation de l'unique géodésique donnée par le théorème 2.3.36,
passant par yi en λ = 0, yi+1 en λ = 1. Nous avons

Γi,i+1 (λi ) = yi et Γi,i+1 (λi+1 ) = yi+1 .

Maintenant, pour chaque j ∈ {2, · · · , N − 1} on dénit la courbe


 
λ − λi
Γi,i+1+j (λ) = Γ Γi,i+j (λ), Γi+1,i+1+j (λ), λi , λi+1+j ,
λi+1+j − λi

où i ∈ {1, · · · , N − 1 − j}. La courbe Γi,i+1+j (λ) est telle que

Γi,i+1+j (λk ) = yk

pour tout k ∈ {i, · · · , i + 1 + j}. Ainsi Γ = Γ1,N vérie la condition 6.4.

112
6.3. VALIDATION NUMÉRIQUE

L'algorithme de Neville Grassmannien peut être résumé comme suit :

Algorithme 5 : Algorithme Neville Grassmannien.


Données :
i. Liste de N paramètres : Λ = {λ1 , · · · , λN } ⊂ R.
ii. Liste de N bases : Z = {Φ(λ1 ), · · · , Φ(λN )} ⊂ Rn×m
∗ .
iii. Le nouveau paramètre : λ ∈ R.

Résultat : La base interpolée ΦI (λ)


1 pour j = 1 à N faire
2 Zj =[ ]
3 pour i = 1 à N − j faire
4 z ← Γ(Z(i), Z(i + 1), Λ(i), Λ(i + j + 1), λ)
5 Zj ← [Zj (1), · · · , Zj (i − 1), z]
6 Z ← Zj
7 ΦI (λ) ← Z(0)

6.3 Validation numérique


Exemple 6.3.1 (Écoulement autour d'un cylindre) Nous reprenons la même
conguration d'écoulement que dans les chapitres précédents. Les calculs complets
sont eectués pour les valeurs du nombre de Reynolds Re ∈ {100, 160, 170, 180, 200}.
La valeur du nombre de Reynolds cible est Re = 110. Nous eectuons dans la suite
une interpolation des bases POD par les algorithmes de Neville grassmannien,
Krigegage et d'Amsallem et Farhat.

Dans la gure (6.2) nous comparons les coecients dynamiques âi (t) associés à
la base de référence avec ceux associés aux bases interpolées. Nous voyons que les
trois méthodes d'interpolation donnent une bonne approximation des deux pre-
miers coecients. Cependant, pour les deux derniers coecients, les algorithmes
de Neville grassmannien et de Krigeage donnent les meilleures prédictions.

Dans la gure (6.3) nous comparons les erreurs relatives dynamiques Ɖ(t)
associées à la base de référence avec celles associées aux bases interpolées. Nous
voyons que là encore ce sont les algorithmes de Neville grassmannien et de Kri-
geage grassmannien qui sont les plus précis.

113
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE

Figure 6.2  Coecients dynamiques â(t) et âI (t) pour Re = 110.

Figure 6.3  Ɖ(t) pour Re = 110.

Dans la gure (6.4) nous comparons les coecients de portance et de traînée


associés à la base de référence et ceux associés aux bases interpolées. Nous ob-
servons que les algorithmes de Neville-Grassmannien et de Krigeage donnent des
résultats comparables. Cependant, l'algorithme de Krigeage est plus précis que

114
6.3. VALIDATION NUMÉRIQUE

celui de Neville-Grassmannien pour ce cas là.

Figure 6.4  CD et CL pour Re = 110.


Dans la gure (6.8) nous comparons les erreurs relatives ∆CD et ∆CL . Les
résultats obtenus sont semblables à ceux portant sur les coecients de portance
et de trainée.

Figure 6.5  ∆CD et ∆CL pour Re = 110.

115
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE

6.4 Bilan des diérentes méthodes d'interpolation


Dans cette section nous allons comparer toutes les méthodes d'interpolation
proposées dans les chapitres précédents. Nous considérons la même congura-
tion d'écoulement autour d'un cylindre. Pour le choix des valeurs du nombre de
Reynolds Re, nous considérons cinq cas dans lesquels nous reportons les erreurs
relatives ∆CD et ∆CL dans les diérentes gures.
Cas 1.
Re ∈ {100, 120, 130, 160, 170, 200}
La valeur cible du nombre de Reynolds est Re = 150.

Figure 6.6  ∆CD et ∆CL pour Re = 150.


Cas 2.
Re ∈ {100, 120, 130, 160, 170, 200}
La valeur cible du nombre de Reynolds est Re = 190.

Figure 6.7  ∆CD et ∆CL pour Re = 190.

116
6.4. BILAN DES DIFFÉRENTES MÉTHODES D'INTERPOLATION

Cas 4.
Re ∈ {100, 160, 170, 180, 200}
La valeur cible du nombre de Reynolds est Re = 110.

Figure 6.8  ∆CD et ∆CL pour Re = 110.


Dans la gure (6.9) nous comparons les erreurs relatives Ɖ(t).

Figure 6.9  Ɖ(t) pour Re = 110.


Case 4.
Re ∈ {100, 120, 130, 140, 200}
La valeur cible est Re = 110.

117
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE

Figure 6.10  ∆CD et ∆CL pour Re = 110.

Case 5.
Re ∈ {100, 120, 130, 140, 200}
La valeur cible est Re = 190.

Figure 6.11  ∆CD et ∆CL pour Re = 190.

Comme nous pouvons l'observer sur les diérentes gures de comparaison


des erreurs relatives des coecients aérodynamiques, l'algorithme d'interpolation
de Neuville Grassmanien est le plus précis pour les diérentes congurations
considérées.

118
6.5. CONCLUSION

6.5 Conclusion
Dans ce chapitre nous avons présenté l'algorithme d'interpolation de Neville
grassmannien. Cette méthode généralise la notion d'interpolation polynomiale de
Lagrange au cadre des variétés riemanniennes en utilisant les géodésiques et ne
dépend pas du choix d'un point de référence.
Les comparaisons avec les autres méthodes, sur la conguration de l'écou-
lement 2D autour d'un cylindre, pour diérents jeux de valeurs du nombre de
Reynlods, montre que c'est l'algorithme d'interpolation de Neuville Grassmanien
qui est le plus performant parmi les diérents algorithmes proposés dans cette
thèse.
Dans ce chapitre, nous avons décrit l'algorithme d'interpolation de Neuville
Grassmanien dans le cas où le paramètre λ ∈ R. Pour λ ∈ RP , nous pouvons gé-
néraliser cet algorithme, mais son écriture devient moins aisée. Sous la forme ac-
tuelle, nous suggérons l'utilisation de l'algorithme d'interpolation Neuville Grass-
mannien pour λ ∈ R ou λ ∈ R2 . Pour une très grande valeur de P , l'algorithme
proposé peut devenir coûteux en temps de calcul.

119
CHAPITRE 6. ALGORITHME D'INTERPOLATION GRASSMANN-NEVILLE

120
Chapitre 7

Conclusions et perspectives

Conclusions
Dans cette thèse, nous avons apporté de nouvelles contributions aux méthodes
d'interpolation sur les variétés de Grassmann. Ces variétés sont les objets mathé-
matiques adéquats en réduction de modèle par POD puisque les problèmes réduits
qui en découlent sont invariants par transformations orthogonales des bases POD.
Après avoir précisé le cadre théorique nécessaire aux méthodes d'interpolation
sur les variétés de Grassmann, nous avons explicité les opérations matricielles
sous-jacentes qui permettent la réalisation eective des algorithmes d'interpola-
tion sur ces variétés ainsi que le domaine de leur validité. Partant de l'algorithme
introduit par D. Amsallem et C. Farhat [9], nous avons proposé quatre nouveaux
algorithmes dont l'ecacité a été mise en évidence aussi bien sur le plan de la
précision des résultats que sur le plan du temps de calcul. L'algorithme de D.
Amsallem et C. Farhat repose sur le choix d'un point de référence (parmi les
points d'interpolation) dont l'espace tangent va jouer le rôle d'espace d'interpo-
lation. Par conséquent la qualité des résultats dépend fortement de ce point de
référence, mais on ne dispose pas d'une méthode ecace pour le choisir.
Dans un premier temps, nous avons proposé une méthode d'interpolation dont
le domaine de validité est clairement spécié et qui ne dépend pas du choix d'un
point de référence. Pour cela, nous avons étendu la méthode IDW (Inverse Dis-
tance Weighting) aux variétés de Grassmann, notre méthode est dénommée par
IDW-G. Cette méthode est basée sur la minimisation d'une fonction quadratique
en la distance géodésique aux points d'interpolation pondérée par des coecients
dépendant de l'inverse à la distance aux paramètres d'interpolation. Nous avons
montré la convergence de notre méthode de minimisation sous des conditions
assez raisonnables. Cet algorithme donne d'excellents résultats comparé à celui
introduit dans [9]. Notre algorithme est itératif et nos résultats dépendent de
la manière dont les coecients de pondération varient en fonction de l'inverse
à la distance aux paramètres d'interpolation. Pour nous aranchir du caractère

121
CHAPITRE 7. CONCLUSIONS ET PERSPECTIVES

itératif de la méthode IDW-G, nous en avons proposé une version directe, via
la notion de barycentre généralisé. Cette est méthode nettement plus rapide et
donne quasiment les mêmes résultats que ceux de IDW-G.
Ensuite, nous avons proposé une extension de la méthode de krigeage aux
variétés grassmanniennes. Cette méthode possède quelques similarités avec la
méthode IDW-G dans la mesure où la valeur estimée de l'interpolé est cherchée
également comme un barycentre pondéré. Cependant, les coecients de pondéra-
tion sont calculés de manière optimale en se basant sur les matrices de covariances
statistiques associées aux points d'interpolation considérés.
Le dernier algorithme que nous avons proposé est une extension de l'algo-
rithme de Neville qui calcule le polynôme d'interpolation de Lagrange de manière
récursive à partir de l'interpolation linéaire entre deux points. En remplaçant les
droites par les géodésiques, nous avons étendu cet algorithme aux variétés de
Grassmann, il est dénommé :  Méthode de Neville Grassmannienne.  Les ré-
sultats numériques de cette méthode sont excellents au niveau de la qualité des
approximations et également au niveau du temps de calcul.
Tous nos algorithmes ont été testés dans le cas d'un écoulement instationnaire
bidimensionnel d'un uide autour d'un cylindre.

Perspectives
Ce travail de thèse ouvre de nombreuses perspectives tant théoriques que
numériques. Nous pouvons citer quelques perspectives à court terme.
Sur le plan théorique, nous souhaitons établir des théorèmes de comparaison
entre les diérentes méthodes proposées dans cette thèse. La diculté fondamen-
tale est que, contrairement aux cas des espaces vectoriels, la notion d'interpolation
n'est pas simple à dénir sur les variétés, car des notions comme les polynômes
n'ont pas de sens. Cependant, la variété de Grassmann possède une structure
de variété algébrique lisse. Aussi, on peut espérer que les outils de la géométrie
algébrique puisse nous fournir des pistes pour répondre à la question.
Toujours sur le plan théorique, un grand enjeu est de construire une méthode
d'interpolation des champs de vecteurs des systèmes dynamiques réduits. Une
première question théorique importante est quelle est la structure géométrique
de l'espace de ces champs de vecteurs ? Peut-on construire une structure rieman-
nienne permettant des calculs explicites ? Ce sont des questions ouvertes dont
les retombées pratiques sont très importantes pour la réduction de modèles des
problèmes non linéaires.
Sur un plan similaire aux questions précédentes, comment interpoler direc-
tement non les bases POD mais les solutions réduites, qui peuvent être écrites
comme somme des produits tensoriels des bases POD par des fonctions tempo-
relles. C'est une question qui peut se généraliser à l'interpolation des solutions
réduites obtenues par PGD. La structure géométrique des espaces des produits

122
tensoriels est un bré au-dessus des variétés de Grassmann. Une procédure d'in-
terpolation préservant cette structure n'est pas évidente à exhiber. Cependant
les méthodes de construction de connexions sur les brés fournissent une réponse
possible qu'il faudra rendre opératoire.
Enn, sur le plan de la mise en oeuvre numérique, nous souhaitons montrer
l'ecacité des approches proposées dans cette thèse en traitant diérentes con-
gurations en mécanique des solides et des uides. En particulier, nos approches
sont actuellement en train d'être utilisées pour étudier l'évolution des modèles
réduits en fonction de la forme des rotors pour l'étude des écoulements dans les
machines tournantes. Une attention plus particulière sera portée à la méthode de
Kriegeage grassmanien, qui ouvre des perspectives d'applications plus générales
que les autres méthodes, car elle nous permet de tenir compte des incertitudes
sur les bases POD ou sur les formes des corps.

>−>−>−>−>−>−>

123
CHAPITRE 7. CONCLUSIONS ET PERSPECTIVES

124
Annexe A

Modèles réduits invariants par

l'action d'un groupe de Lie

Soit M une variété diérentielle éventuellement de dimension innie, munie


d'une action d'un groupe de Lie G. Plus précisément, il existe une application
G × M −→ M
(g, u) 7→ g.u

telle que :
ˆ g.(h.u) = (g h).u
ˆ e.u = u
pour tout g, h ∈ G, u ∈ M et e est l'élément neutre du groupe G.

Soit X un champ de vecteurs sur M équivariant sous l'action de G. C'est-à-


dire :
X(g.u) = g.X(u)
pour tout g ∈ G et u ∈ M . On s'intéresse ici aux problèmes d'évolution que l'on
peut écrire formellement :

 du = X(u)
dt (A.1)

u(0) = u0
On voit alors que si u est une solution du problème (A.1), alors v = g.u est solu-
tion de (A.1) avec v(0) = g.u0 pour tout g ∈ G.

Nous souhaitons construire un modèle réduit de (A.1) par POD qui préserve
la symétrie par le groupe G. L'idée consiste à séparer le problème sous la forme :

u(t) = g(t). γ̃(t) (A.2)

125
ANNEXE A. MODÈLES RÉDUITS INVARIANTS PAR L'ACTION D'UN GROUPE
DE LIE

et de chercher le modèle réduit pour γ̃(t) qui peut être interprété comme la forme
de la solution et déterminer l'équation de g(t) vu comme un transport.

Si on injecte (A.2) dans l'équation (A.1), on obtient


dγ̃ dg
g. + . γ̃ = g. X(γ̃)
dt dt
ce qui donne :
dγ̃ dg
= X(γ̃) − g −1 . γ̃
dt dt
Soit ξ un vecteur de l'algèbre de Lie g associée à G. Si on considère le générateur
innitésimal associé à ξ
d
ξM (v) = | {exp(tξ).v}
dt t=0
alors l'équation d'évolution pour γ̃ s'écrit :
dγ̃
= X(γ̃) − ξM (γ̃) (A.3)
dt
avec


 g −1 (t) dg(t) = ξ(t)
dt (A.4)

 g(0) = e

Si l'équation (A.3) est réduite via la POD, on voit que le problème (A.1) se ra-
mène à la détermination de la famille de vecteurs ξ(t) ∈ g, t ∈ R+ .

Par la suite, nous allons décrire une méthode pour déterminer ξ(t) proposée
par Clarence Rowley et Jerrold Marsden [55, 56], basé sur la détermination d'un
bré principal.

A.0.1 Connexion sur un bré principal


On va rappeler quelques résultats obtenus à partir de l'action d'un groupe de
Lie sur une variété diérentielle. Pour plus de détails on peut se reporter [53].

Proposition A.0.1 Soit Φ : G × M → M une action propre et libre du groupe


de Lie G sur la variété M . Alors
1. L'ensemble d'orbites M/G admet une structure de variété lisse telle que la
projection π : M → M/G est une submersion.
2. La projection π : M → M/G dénit sur M une structure de G-bré princi-
pale à gauche.

126
3. Soit x ∈ M et O(x) = {g.x : g ∈ G} l'orbite de x. Alors
Tx O(x) = {ξM (x) : ξ ∈ g}

d
| {exp(tξ).x}
ξM (x) =
dt t=0
est le générateur innitésimal associé à ξ , et g est l'algèbre de Lie de G.
Dénition A.0.2 Une connexion principale sur le bré π : M → M/G est une
application A : T M → g linéaire dans chaque espace tangent, telle que pour tout
x ∈ M , v ∈ T M , ξ ∈ g et g ∈ G on ait :
1. A(ξM (x)) = ξ pour ξ ∈ g et x ∈ M
2. A est équivariant, c'est-à-dire

A(g.v) = Adg (A(v))



ˆ
G × T M −→ T M
(g, vx ) 7→ [Link] = dx Φg (vx )
est l'action tangente.

ˆ
Φg : M −→ M
x 7→ g.x
est le diéomorphisme associé à g .
Dénition A.0.3 Soient A : T M → g une connexion principale et x ∈ M . On
dénit l'espace horizontal en x par Hx = Ker A|Tx M .
Proposition A.0.4 Soit g ∈ G et x ∈ M , alors
1. Hg.x = dx Φg (Hx )
2. Tx M = Tx O(x) ⊕ KerA|Tx M
3. L'application dx π|Hx : Hx → Tx̄ M/G est un isomorphisme.
Preuve . La partie 1 suit directement la dénition de connexion principale. La
partie 2 est une conséquence de la partie 3 de la proposition A.0.1. En eet, étant
donné vx ∈ Tx M , on a
vx − (A(vx ))M (x) ∈ KerA|Tx M .
Finalement, comme Tx O(x) ⊂ Ker(dx π) et dx π est surjective, on a
dimKer(dx π) = dimTx O(x)
ainsi Ker(dx π) = Tx O(x) et on conclut en utilisant la partie 2.

127
ANNEXE A. MODÈLES RÉDUITS INVARIANTS PAR L'ACTION D'UN GROUPE
DE LIE

Proposition A.0.5 Soit γ(t) ∈ M/G une courbe et x0 ∈ π −1 (γ(0)). Alors il


existe un unique relèvement horizontal γ̃(t) ∈ M (c'est-à-dire γ̃ 0 (t) ∈ Hγ̃(t) ) tel
que γ̃(0) = x0 .
A tout champ de vecteur X équivariant sur M , on peut associer un champ de
vecteurs X̄ sur M/G déni par
X̄(x̄) = dx π(X(x))
Cette dénition est indépendante du représentant de la classe de x. En eet,
soit g ∈ G, on a
dg.x π(X(g.x)) = dg.x π(dx Φg (X(x)))
= dx (π ◦ Φg )(X(x))
= dx π(X(x))

A.1 Construction de la famille ξ(t) via les connexions


principales
Lemme A.1.1 Soient x ∈ M , g ∈ G et ξ ∈ g. Si l'on considère l'application
Φx : G → M dénie par Φx (h) = h.x, alors
dx Φg (ξM (x)) = dg Φx ◦ de Lg (ξ)
où Lg : G → G est la translation à gauche dénie par Lg (h) = g h.
Preuve . En eet
 
d
dx Φg (ξM (x) = dx Φg exp(tξ).x
dt |t=0
 
d x
= dx Φg Φ (exp(tξ))
dt |t=0
= dx Φg (de Φx (ξ)
= de (Φg ◦ Φx )(ξ)
= de (Φx ◦ Lg )(ξ)
= dg Φx ◦ de Lg (ξ)
Théorème A.1.2 Soit X un champ équivariant sur M , γ une courbe intégrale
pour le champ X̄ induit sur M/G et γ̃ son relèvement horizontal. Soit g(t) une
courbe dans G avec g(0) = e. Si c(t) = g(t).γ̃(t) est une courbe intégrale pour X ,
alors la courbe g(t) satisfait l'équation diérentielle

g(t)−1 . g 0 (t) = A(X(γ̃(t)))


où ξ(t) = g(t)−1 . g 0 (t) := dg(t) Lg(t)−1 (g 0 (t))

128
A.1. CONSTRUCTION DE LA FAMILLE ξ(T ) VIA LES CONNEXIONS

PRINCIPALES

Preuve . On calcule la dérivée de la courbe c(t) = Φ(g(t), γ̃(t))


d
c0 (s) = |t=s Φ(g(t), γ̃(t))
dt
d
= |t=s Φ ◦ (g(t), γ̃(t))
dt
= d(g(s),γ̃(s)) Φ(g 0 (s), γ̃ 0 (s))
= d(g(s),γ̃(s)) Φ(g 0 (s), 0γ̃(s) ) + d(g(s),γ̃(s)) Φ(0g(s) , γ̃ 0 (s))
d d
= d(g(s),γ̃(s)) Φ ◦ |t=s (g(t), γ̃(s)) + d(g(s),γ̃(s)) Φ ◦ |t=s (g(s), γ̃(t))
dt dt
d d
= |t=s Φ(g(t), γ̃(s)) + |t=s Φ(g(s), γ̃(t))
dt dt
d
= |t=s Φγ̃(s) (g(t)) + dγ̃(s) Φg(s) (γ̃ 0 (s))
dt
d
= |t=s Φγ̃(s) (g(t)) + g(s).γ̃ 0 (s)
dt
Maintenant si l'on considère la courbe ξ(s) = dg(s) Lg(s)−1 (g 0 (s)) ∈ g, par le lemme
A.1.1 on obtient :
d
|t=s Φγ̃(s) (g(t)) = dg(s) Φγ̃(s) (g 0 (s))
dt
= dg(s) Φγ̃(s) ◦ de Lg(s) (ξ(s))
= dγ̃(s) Φg(s) (ξ(s)M (γ̃(s)))
= g(s). (ξ(s)M (γ̃(s)))
On a aussi montré :
c0 (t) = g(t).[(ξ(t))M (γ̃(t)) + γ̃ 0 (t)].
D'un autre côté, comme le champ de vecteurs X est équivariant on a
c0 (t) = X (c(t))
= X (g(t). γ̃(t))
= g(t). X (γ̃(t))
ainsi en comparant les deux résultats précédents on en déduit
(ξ(t))M (γ̃(t)) + γ̃ 0 (t) = X(γ̃(t))
et donc
A(ξ(t))M (γ̃(t))) + A(γ̃ 0 (t)) = A(X(γ̃(t))).
Maintenant, comme A(ξ(t))M (γ̃(t))) = ξ(t) et la courbe γ̃ est horizontale on
obtient alors le système d'équations diérentielles :
g(t)−1 . g 0 (t) = A(X(γ̃(t))) (A.5)

129
ANNEXE A. MODÈLES RÉDUITS INVARIANTS PAR L'ACTION D'UN GROUPE
DE LIE

A.2 Détermination de la connexion A dans le cas


d'une variété Riemannienne
Dans le cas où M est une variété riemannienne, il existe une connexion prin-
cipale naturelle dénommée connexion mécanique, et qui est construite à partir
de la connexion riemannienne sur M . Cette construction se fait via l'application
moment. On suppose donc que (M, (. , .) ) est une variété riemannienne, munie
d'une action libre et propre d'un groupe de Lie G.
Dénition A.2.1 L'application moment J : T M → g∗ est dénie par
< J(vx ), η >= (vx , ηM (x))Tx M ×Tx M
où x ∈ M, Vx ∈ Tx M et η ∈ g.
Exemple A.2.2 (Moment linéaire) Soit M = (R3 )n et G = (R3 , +) le groupe
additif, on considère l'action linéaire
g.(x1 , · · · , xn ) = (g + x1 , · · · , g + xn )
alors, l'application moment J : T (R3 )n → (R3 )∗ est donnée par J(vx ) =< vx , . >.
En eet, soit η ∈ R3 on a
d
ηM (x) = |t=0 exp(tη).x
dt
d
= |t=0 (exp(tη) + x1 , · · · , exp(tη) + xn )
dt
d
= |t=0 (tη + x1 , · · · , tη + xn )
dt
= (η, · · · , η)
ainsi < J(vx ), η >= (vx , (η, · · · , η)).
Exemple A.2.3 (Moment angulaire) Soient M = R3 et G = SO(3). On
considère l'action
SO(3) × R3 −→ R3
(g, x) 7→ g.x
L'application moment associée est donnée par
< J(vx ), η >=< vx , η.x >
où η ∈ so(3) et vx ∈ T R3 .
Dénition A.2.4 Étant donné x ∈ M , le tenseur d'inertie est l'application
I(x) : g → g∗ dénie par :
I(x)(ξ) : g −→ R
η 7→ < I(x)ξ, η >:= (ξM (x), ηM (x))

130
A.2. DÉTERMINATION DE LA CONNEXION A DANS LE CAS D'UNE

VARIÉTÉ RIEMANNIENNE

Le tenseur d'inertie muni l'algèbre de Lie g d'un produit scalaire de telle sorte
que l'application Φx : G → M est une isométrie dans l'identité e ∈ G. En eet,
soient ξ , η ∈ g on a
< ξ, η > = (ξM (x), ηM (x))
= (de Φx (ξ), de Φx (η)) .

A.2.1 Connexion mécanique


Théorème A.2.5 Soit M une variété riemannienne et Φ : G × M → M une
action propre et libre par isométrie du groupe de lie G sur M . Alors l'application
A : T M → g dénie par
A(vx ) = I(x)−1 (J(vx ))
est une connexion principale sur le G-bré π : M → M/G.
Preuve . Il est évident que A est linéaire sur chaque bre et pour tout x ∈ M
et ξ ∈ g, par dénition J(ξM (x)) = I(x)ξ alors A(ξM (x)) = ξ . Pour montrer
l'équivariance de l'application A, on va montrer d'abord la relation suivante :
I(g.x)(Adg ξ) = I(x)(ξ) ◦ Adg−1
pour tout x ∈ M, ξ ∈ g et g ∈ G.

Soit η ∈ g, on a
I(g.x)(Adg ξ)(η) = < I(g.x)(Adg ξ), η >
= < (Adg ξ)M (g.x), ηM (g.x) >
= < dx Φg (ξM (x)), dx Φg (dg.x Φg−1 (ηM (g.x))) >
= < dx Φg (ξM (x)), dx Φg ((Adg−1 η)M (x)) >
= < ξM (x), (Adg−1 (ξ))M (x) >
= < I(x)ξ, Adg−1 (ξ) >
= I(x)(ξ) ◦ Adg−1 (η).
Maintenant, pour que A soit équivariant on doit montrer que :
J(dx Φg (vx )) = I(g.x)(Adg (A(vx )))
or grâce à la relation précédente on est ramené a montrer que :
J(dx Φg (vx )) = I(x)(A(vx )) ◦ Adg−1 .
Soit η ∈ g, on a
I(x)A(vx )(Adg−1 (η)) = < I(x)(A(vx )), Adg−1 (η) >
= < (A(vx ))M (x), (Adg−1 (η))M (x) >
= < (A(vx ))M (x), dg.x Φg−1 (ηM (g.x)) >

131
ANNEXE A. MODÈLES RÉDUITS INVARIANTS PAR L'ACTION D'UN GROUPE
DE LIE

Comme
(A(vx ))M (x) = vx + u
avec u ∈ Ker(A|Tx M ) = Tx O(x)⊥ et dg.x Φg−1 (Tg.x O(g.x)) = Tx O(x), alors

I(x)A(vx )(Adg−1 (η)) = < vx , dg.x Φg−1 (ηM (g.x)) >


= < dg.x Φg−1 (dx Φg (vx )), dg.x Φg−1 (ηM (g.x)) >
= < dx Φg (vx )), ηM (g.x) >
= < J(dx Φg (vx )), η >

donc A est équivariant.

132
Annexe B

Courbure sectionnelle de la variété

de Grassmann

B.1 Courbure sectionnelle de la variété de Grass-


mann
Leichtweiss et Wong [73] ont trouvé la formule B.1.1 pour la courbure sec-
tionnelle de la variété de Grassmann Gm (Rn ). On peut écrire cette formule à
condition de connaître une base de l'espace horizontal dans un point donné de la
variété. On va proposer un algorithme pour construire une base de l'espace hori-
zontal donc utiliser cette formule pour calculer la courbure sectionnelle associée
aux bases PODs.
Lemme B.1.1 (Formule de Leichtweiss-Wong) [8] Soient A, B deux vec-
teurs tangents représentés en terme de matrices de taille (n − m) × m, alors la
courbure sectionnelle de la variété Grassmann Gm (Rn ) est donnée par la formule :
2 tr( Λ1 t Λ1 + Λ2 t Λ2 )
K(A, B) =
4 tr(A t A) tr(B t B) − [tr(A t B + B t A)]2
où Λ1 = A t B − B t A et Λ2 = t A B − t B A.

B.1.1 Base de l'espace horizontal


On considère la variété de Grassmann Gm (Rn ) avec n − m > 1 et m 6
n − m. Étant donné R̄ ∈ Gm (Rn ) par le lemme 2.3.9, on sait que l'espace
tangente TR̄ Gm (Rn ) est isométrique à l'espace horizontal HR ⊂ Rn×m . Ainsi,
si l'on construit une base de cet espace, alors tout vecteur de TR̄ Gm (Rn ) sera
représenté par une unique matrice α ∈ R(n−m)×m . Comme par construction
HR = {Z ∈ Rn×m : t ZR = 0}, c'est-à-dire
Z = [Z1 · · · Zm ] ∈ HR ⇐⇒ Zj ∈ Span(R)⊥

133
ANNEXE B. COURBURE SECTIONNELLE DE LA VARIÉTÉ DE GRASSMANN

pour tout j ∈ {1, · · · , m}, alors à partir d'une base {wi }N


i=1 de R̄ , on pourrait

dénir une base de l'espace horizontal HR .

On considère la base canonique {ei }ni=1 de Rn et PR̄ : Rn → Rn la projection


orthogonale sur R̄ . On va dénir la base {wi }n−m
i=1 par récurrence de la façon
suivante : pour chaque i ∈ {2, · · · , n} si
rang [R | ei ] > rang [R | ei−1 ]

on dénit
wi = ei − PR̄ (ei )
où [R | ei ] est la matrice de Rn×(m+1) donc sa colonne m + 1 est le vecteur ei .
Après orthonormalisation on obtient une basse de R̄⊥ , qu'on notera encore par
i=1 . Ainsi, pour tout i ∈ {1, · · · , n − m} et j ∈ {1, · · · , m} les matrices
{wi }n−m

Hij = [0 · · · wi · · · 0] (B.1)
où wi est placé dans la j -ième colonne, forment une base orthonormale de HR .

On a montré que pour Γ ∈ HR il existe (Ai,j ) ∈ R(n−m)×m avec


Ai,j =< Γj , wi >

où Γ = [ Γ1 · · · Γm ]. Ainsi, par la proposition B.1.1 on peut calculer la courbure


sectionnelle pour toute paire de vecteurs tangents dans Gm (Rn ). L'algorithme
pour la courbure peut être résumé comme suit.

Algorithme 6 : Courbure sectionnelle de Gm (Rn )


Données :
i. Un point : R̄ ∈ Gm (Rn )
ii. Deux vecters tangents : u = [u1 · · · um ], v = [v1 · · · vm ] ∈ HR .
Résultat : La courbure sectionnelle K(u, v)
1 Construire une base {Hij }16i6n−m, 16j6m de HR comme dans B.1.
2 pour i = 1 à n − m faire
3 pour j = 1 à m faire
4 Aij ←< uj , wi >
5 Bij ←< vj , wi >
6

7 retourner K(u, v) ← 4 tr(A 2 tr( Λ1 t Λ1 +Λ2 t Λ2 )


t A) tr(B t B)−[tr(A t B+B t A)]2

134
Annexe C

IDW-G

135
ANNEXE C. IDW-G

Manuscript submitted to doi:10.3934/[Link]


AIMS’ Journals
Volume X, Number 0X, XX 200X pp. X–XX

POD BASIS INTERPOLATION VIA INVERSE DISTANCE


WEIGHTING ON GRASSMANN MANIFOLDS

Rolando Mosquera,
Aziz Hamdouni, Abdallah El Hamidi∗ , Cyrille Allery
Université de La Rochelle
Avenue M. Crépeau
17042 La Rochelle, France

(Communicated by Alain Miranville)

Abstract. An adaptation of the Inverse Distance Weighting (IDW) method


to the Grassmann manifold is carried out for interpolation of parametric POD
bases. Our approach does not depend on the choice of a reference point on
the Grassmann manifold to perform the interpolation, moreover our results
are more accurate than those obtained in [7]. In return, our approach is not
direct but iterative and its relevance depends on the choice of the weighting
functions which are inversely proportional to the distance to the parameter.
More judicious choices of such weighting functions can be carried out via kriging
technics [23], this is the subject of a work in progress.

1. Introduction. The present work deals with interpolation on Grassmann man-


ifolds. More precisely, we are interested to the interpolation of Proper Orthogonal
Decomposition (POD) bases corresponding to the solutions of parametric evolution
partial differential equations. An interesting example is the Navier-Stokes equa-
tions where the varying parameter is the Reynolds number. In such problems, the
solution depends on a parameter λ, describing a set in RP .
Suppose that the solution, which belongs to a function space H, is known for
(λk )1≤k≤N . These solutions are in general computed with high computational
costs discretization type methods as Finite Elements, Finite Volumes, Discontinuous
Galerkin, etc. Our goal is to use low-dimensional parametric methods to compute
an approximation of the solution for a new parameter value λ ∈ RP .
In various problems in fluid mechanics or fluid structure interaction, the POD ba-
sis is computed for a given Reynolds number or for other flow parameters. This
basis is then used to build a reduced model to predict the flow for other values of
these parameters. The question concerning the domain of validity of this reduced
model arises then naturally. In Akkari et al. [5], for quasilinear parabolic partial
differential equations, this domain of validity was specified according to the solu-
tion regularity and the number of modes considered in the reduced model. Similar
results was obtained for Navier-Stokes equations [3] and for Burgers equations [4].
Numerical works on parametric sensitivity for fluid structure interaction problems
was performed in [18]. In [19], the authors carried out a non-intrusive strategy for

2010 Mathematics Subject Classification. 65K05, 65D18, 65F15.


Key words and phrases. Proper orthogonal decomposition, sensitivity, compact operators.
∗ Corresponding author: Abdallah El Hamidi.

136
2 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY

building computational vademecums dedicated to real-time simulations of nonlinear


thermo-mechanical problems.
These methods are also used in control theory [17, 27, 12], in medical imaging
[10, 24], where one often seeks to use the POD basis to represent data although
time-interval variation, spatial domain variation or parameter variation may occur.
One classical way to perform such approximations is the use of Reduced Basis (RB)
methods. RB-methods consist on the approximation of the manifold solution M,
i.e., the set of parametric solutions, by a low-dimensional subspace Hm ⊂ H. In
this topic, one popular way is the construction of such a subspace via the snapshots
(u(λk ))1≤k≤N as, for example, Hm = span{u(λk ) : 1 ≤ k ≤ N } and use Galerkin
type techniques to compute an approximation um (λ) ∈ Hm of u(λ) ∈ M. We refer
the interested reader to [21, 11] and the references therein.
Another way to approximate the parametric solution u for a new parameter value
λ ∈ RP from given data (u(λk ))1≤k≤N via POD techniques is the interpolation
on Grassmann manifolds. We describe briefly this method and refer the reader to
[7] for more details. This procedure can be summarized as follows: for each k ∈
{1, 2, · · · , N }, consider the rank-m POD basis (ϕi (λk ))1≤i≤m and the corresponding
(k)
spanned subspace Hm = Span {ϕi (λk ) : 1 ≤ i ≤ m} ⊂ H, (in the framework
[7], the space H has a large but finite dimension). Now, denote by Gm (H) the
Grassmann manifold consisting of all m-dimensional subspaces of H. Then the m
(k)
subspaces Hm can be seen as points on this manifold Gm (H). For a new parameter
value λ, the question is how to compute a good approximation of the rank-m POD
basis to the solution u(λ), or in a more relevant way, how to find its corresponding
point in the Grassmann manifold Gm (H)? Indeed, it is known from the work of
Amsallem and Farhat [7] that the appropriate objects to interpolate are not the
POD bases but the underlying spanned subspaces. To answer this question, the
idea developed in [7] is to choose a reference parameter value λr ∈ {λk : 1 ≤ k ≤
(r)
N }, to consider the POD subspace Hm as a reference point on the Grassmann
manifold Gm (H). Let us denote by TH (r) Gm (H) the tangent space to the manifold
m
(r)
Gm (H) at the point Hm . Then, the logarithm mapping at the reference point
(r)
Hm denoted by log(r) : Gm (H) −→ TH (r) Gm (H) allows to map (in a local
  m
(k)
way) all points Hm on the tangent space TH (r) Gm (H) where one can
1≤k≤N m

perform an interpolation (see Section 3 for more details). Finally, one returns to
the manifold Gm (H) via the (reciprocal) exponential mapping from the tangent
space TH (r) Gm (H) to get the desired approximation of u(λ) on Gm (H).
m
The disadvantage of the method developed in [7] is its dependence of the reference
point and the lack of a strategy for choosing this reference point.
In what follows, we will study an interpolation method on Grassmann manifolds
based on the Inverse Distance Weighting (IDW).
The present paper is organized as follows: In Section 2, we recall some classical facts
on Proper Orthogonal Decomposition (POD) for evolution problems and their based
Reduced Order Model. In Section 3, a brief presentation of the Grassmann manifold
and the underlying tools used in the paper is carried out. Section 4 is dedicated to
the introduction of the Grassmann-IDW algorithm. The convergence of the G-IDW
is performed in Section 5, following ideas developed by Karcher [14] and Huiling
Le [13]. Finally, numerical simulations on isothermal fluid flows around a circular

137
ANNEXE C. IDW-G

INVERSE DISTANCE WEIGHTING ON GRASSMANN MANIFOLDS 3

cylinder are given to compare our approach to that developed by Amsallem et al.
[7].

2. Proper Orthogonal Decomposition (POD). The usual mathematical frame-


work for POD is the space L2 ([0, T ]; H), where [0, T ] and H denote respectively
a time-interval and a separable Hilbert space of spatial functions. In this con-
text, the aim of POD is to decompose a given space-time dependent flow field
u ∈ L2 ([0, T ]; H) into an optimal orthonormal system of spatial modes (ϕk )k≥1 ⊂ H
and their corresponding temporal amplitudes (ak (t))k≥1 as the following
X
u(x, t) = ak (t) ϕk (x).
k≥1

The optimality of bases (ϕk (x))k≥1 is to be understood in the sense that any
N
X
truncated series expansion ak (t) ϕk (x) of u(x, t) in this basis has the smallest
k=1
mean-square truncation error among all the other orthonormal bases in the sense
of L2 ([0, T ]; H) norm. More precisely, for a given data u ∈ L2 ([0, T ]; H), consider
the operator
R : H −→ H
Z T
ϕ 7−→ R ϕ := hu(t) ; ϕiH u(t) dt,
0
where h· ; ·iH stands for the inner product in the Hilbert space H, the endowed norm
will be denoted by k · k. It is well known that the operator R is linear, bounded, non-
negative, self-adjoint and compact. Thus, there exists a complete orthonormal basis
of H consisting of eigenfunctions of R with corresponding nonnegative eigenvalues.
Each nonzero eigenvalue of R has a finite multiplicity and 0 is the only possible
accumulation point of the spectrum of R. We denote by (λk )k≥1 and (ϕk )k≥1 the
sequences of positive eigenvalues of R, repeated as many times as their multiplicity
and sorted in decreasing order and the associated eigenfunctions, respectively. The
importance of the orthonormal basis (ϕk )k≥1 lies in the fact that it is optimal in
the following sense : for any integer N ≥ 1 and for any rank-m orthonormal family
{ψk , 1 ≤ k ≤ N } in H, it holds :
Z T Xm
2
Z T Xm
2


u(t) − hu(t) ; ψk iH ψk dt ≥ u(t) − hu(t) ; ϕk iH ϕk dt. (1)
0 0
k=1 k=1
Equivalently, if HN = span {ϕ1 , ϕ2 , · · · , ϕN } and ΠV denotes the orthogonal pro-
jection operator on a subspace V in H, then
   

idH − ΠHN u 2 ≤ idH − ΠVN u 2
L ([0,T ];H) L ([0,T ];H)

for every m−dimensional subspace Vm ⊂ H. Furthermore, we have the error of this


optimal representation :
  +∞
X

idH − ΠHN u 2 = λk −→ 0 as N goes to + ∞. (2)
L ([0,T ];H)
k=N +1

For sharp POD convergence results, we refer the reader to [8, 9], where the authors
proved that the POD expansion converges with exponential accuracy for parame-
terized transient heat equations or Poisson equations with bivariate functions.

138
4 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY

On the other hand, the original data u can be completely represented by the eigen-
functions corresponding to positive eigenvalues of the operator R, i.e.,
+∞
X
u(t) = h u(t) , ϕk iH ϕk for any t ∈ [0, T ].
k=1

There is an alternative characterization of POD basis via correlation operator. In-


deed, consider the linear operator
A : L2 ([0, T ]) −→ H
Z T
(3)
f 7−→ A f := u(t) f (t) dt,
0

then the adjoint operator of A, denoted by A∗ is defined by


A∗ : H −→ L2 ([0, T ])
(4)
ϕ 7−→ A∗ ϕ := hu(t) ; ϕiH .
It is straightforward to verify that
R = A A∗ .
We define the correlation operator K = A∗ A. A direct computation shows that
K : L2 ([0, T ]) −→ L2 ([0, T ])
Z T (5)

f 7−→ K f := A A f = hu(t) ; u(s)iH f (s) ds.
0

Moreover, the operator K has the same properties as R and share together the
same positive eigenvalues and the same multiplicities. Furthermore, eigenfunctions
(ϕk )k≥1 of R and eigenfunctions (fk )k≥1 of K can be found one from the other by :
1 1
∀ t ∈ [0, T ], fk (t) = √ (A∗ ϕk ) (t) and ϕk = √ Afk .
λk λk
In the finite dimension case, the data u is a real array in Rn×Nt

uij := u(xi , tj )1≤i≤n, 1≤j≤Nt .
1≤i≤n, 1≤j≤Nt

In this case, the operator A can be represented by the real matrix


A ∈ Mn,Nt (R), with Aij = u(xi , tj ).
On the other hand, the adjoint operator A∗ can be represented by the matrix
T
A ∈ MNt ,n (R). It follows that rank-N POD bases are full-rank matrices of Nx
rows and N columns.

2.1. POD based Reduced Order Models. The POD bases provide a suitable
framework for Reduced Order Models via the Galerkin’s method. Suppose that the
given data u(x, t) is the solution of an evolution partial differential equation, as the
Navier-Stokes equations for incompressible flows which will be considered in the
numerical simulation section. Such equations can be written symbolically as :
∂u
(x, t) = F (u), x ∈ Ω ⊂ Rd , t ≥ 0, (6)
∂t

139
ANNEXE C. IDW-G

INVERSE DISTANCE WEIGHTING ON GRASSMANN MANIFOLDS 5

where F is a differential operator that contains only spatial derivatives and where
Ω is the spatial domain under study. To complete the evolution differential problem
(6), we need an initial condition
u(x, 0) = u0 (x) (7)
and adequate boundary conditions.
Notice that for stationary boundary conditions, the POD basis is usually computed
Z
1 T
for the fluctuating part v(x, t) = u(x, t) − u(x, t) dt of u which has homo-
T 0
geneous boundary conditions [25]. These homogeneous boundary conditions are
 d  d
then taken into account in the Hilbert space H ⊂ H 1 (Ω) ⊂ L2 (Ω) . Conse-
quently, every eigenfunction of the POD basis (ϕk )1≤k≤m satisfies the boundary
conditions. The reduced order model is then derived by Galerkin projection of the
partial differential equations (6) onto the POD subspace of dimension m. That is,
if we write
m
X
v(x, t) = ak (t)ϕk (x),
k=1
then the vector (ak )1≤k≤m satisfies the ordinary differential system
m
X d aj
Mkj = Fk (a1 , · · · , am ), 1 ≤ k ≤ m,
j=1
dt

where
Mkj = hϕk ; ϕj iL2 (Ω) ,
and * !+
m
X
Fk (a1 , · · · , am ) = ϕk ; F a i ϕi ,
i=1 L2 (Ω)
with the initial condition
ak (0) = hϕk ; u0 iH .
Notice that if the POD basis is performed with the L2 (Ω) inner product, then the
m×m matrix Mkj = δkj , the matrix identity. This will be the case in our numerical
applications.

3. The Grassmann Manifold. Let m, n be two positive integers with m ≤ n.


The set of all R-subspaces of Rn of dimension m, is a differentiable manifold of
dimension m × (n − m), called the Grassmann manifold and usually denoted by
Gm (Rn ). Let Rn×m
∗ be the set of all matrices of size n × m, whose column vectors
are linearly independent; one defines on this set the following equivalence relation
X ∼ Y, if and only if ∃ A ∈ GLm (R) such that : X = Y A,
where GLm (R) denotes the linear group of degree m, i.e., the set of m×m invertible
matrices. The Grassmann manifold can be realized as the set of such equivalence
classes. More precisely,
Gm (Rn ) = { X : X ∈ Rn×m
∗ }.
where
X = {X A : A ∈ GLm (R)}.

140
6 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY

The Grassmann manifold is a compact topological space and thanks to the canonical
projection, denoted by
π : Rn×m
∗ → Gm (Rn ),
it can be endowed by a differentiable manifold structure so that π is a submersion
([20]).
3.1. Metric on the Grassmann Manifold. On each point X ∈ R∗n×m , on con-
structs a metric gX which is right-invariant by GLm (R), i.e.,
gXA (Y1 A, Y2 A) = gX (Y1 , Y2 ),
defined by
gX (Y1 , Y2 ) = tr[(t XX)−1 t Y1 Y2 ].
for every Y1 , Y2 ∈ Rn×m
∗ and A ∈ GLm (R). This metric induces, by the submer-
sion π, a Riemannian metric on Gm (Rn ). Moreover, on constructs a Riemannian
connection on Gm (Rn ), which allows the definition of geodesics and the geodesic
exponential mapping on Gm (Rn ) [1].
3.2. Exponential and logarithm mappings, injectivity radius. Let X ∈
Gm (Rn ) and v ∈ TX Gm (Rn ). The geodesic of initial point γ(0) = X and ini-
tial velocity γ 0 (0) = v, can written in the form
γ(t) = X(t XX)−1/2 V cos(t Σ) + U sin(t Σ)
where (dX π)−1 (v) (t XX)−1/2 = U Σ t V is the singular value decomposition (dX π
denotes the tangent map associated to π).

The geodesic exponential mapping is defined by expX (v) = γ(1) and has a unique
matricial representation given by:
X(t XX)−1/2 V cos(Σ) + U sin(Σ).
On the other hand, since d0X expX = I, then the inverse function theorem implies
that expX is a local diffeomorphism at 0X , the null vector of TX Gm (Rn ).
Definition 3.1. Let X ∈ Gm (Rn ), the injectivity radius of (Gm (Rn ), g) at X, is
defined by

rI X = sup {ρ > 0 : expX : B(0X , ρ) → expX (B(0X , ρ)) is a diffeomorphism}
and the injectivity radius of Gm (Rn ) is defined by

rI = inf{rI X : X ∈ Gm (Rn )}
and its value is given by the following result:
Theorem 3.2. [28] Let n, m be two positive integers such that min{m, n − m} ≥ 2.
Then the injectivity radius of Gm (Rn ) is equal to π/2.
The proof of Theorem 3.2 can be found in [15]. This Theorem gives the radius of
the ball where the reciprocal mapping of the geodesic exponential is defined, it is
−1
denoted by expX or logX . More precisely, for Y ∈ Gm (Rn ), with d(X, Y ) < π2 ,
−1
expX (Y ) is represented by the matrix
Uα tan−1 (Σα ) t Vα
where
Uα Σtα Vα = [Y (t XY )−1 (t XX) − X] (t XX)−1/2
is the singular value decomposition.

141
ANNEXE C. IDW-G

INVERSE DISTANCE WEIGHTING ON GRASSMANN MANIFOLDS 7

3.3. Sectional curvature and convexity.


Definition 3.3. Let ξ, η and ζ be three vector fields on Gm (Rn ). The curvature
tensor on the manifold (Gm (Rn ), g) is defined by
R(ξ, η, ζ) = ∇η ∇ξ ζ − ∇ξ ∇η ζ − ∇[η,ξ] ζ,
where ∇ is the connection associated to g and [η, ξ] is the Lie bracket of η and ξ.
Using the metric, one can transform this (3, 1)−tensor to an (4, 0)−tensor, denoted
again by R:
R(u, v, w, z) = g(R(u, v, w), z).
When the two vectors u and v are linearly independent, the expression R(u, v, u, v)
depends only on span{u, v}, which justifies the definition of sectional curvature (that
is a generalization of Gauss curvature).
Definition 3.4. Let X ∈ Gm (Rn ) and P a plane in TX Gm (Rn ). The sectional
curvature of P is defined by κ(P, X) = R(u, v, u, v), where {u, v} is an orthonormal
basis of P.
The following Theorem shows that Gm (Rn ) has a positive and bounded sectional
curvature.
Theorem 3.5. [28] Let n and m two positive integers such that min{m, n−m} ≥ 2,
then the sectional curvature of Gm (Rn ) belongs to [0, 2].
The proof of Theorem 3.5 can be found in [6].
Definition 3.6. If 4 is an upper bound of the sectional curvature in Gm (Rn ), then
the convexity radius rc of Gm (Rn ) is defined by
1 π
rc = min{rI , √ }.
2 4
Applying Theorems 3.2 and 3.5, a direct computation gives that the convexity radius
of the Grassmann manifold Gm (Rn ) is rc = π4 .
Definition 3.7. A ball B(X, r) ⊂ Gm (Rn ) is said to be strongly convex if any
pair of points in B(X, r) can be joined by a unique geodesic, achieving the distance
between them, and this geodesic is contained in B(X, r).
The next Theorem gives a sufficient condition on the radius of a ball to be strongly
convex.
Theorem 3.8. Let X ∈ Gm (Rn ). If r < rc , then the ball B(X, r) is strongly
convex.
π
The proof of Theorem 3.8 can be found in [22]. Applying Theorem 3.8, if r < 4
then B(X, r) is strongly convex.

4. Grassmannian IDW (IDW-G). Let {y(λ1 ), · · · , y(λN )} be N given points


on the Grassmann manifold Gm (Rn ) corresponding to the set of parameters Λ =
{λ1 , · · · , λN } where λi ∈ RP , for every i ∈ {1, · · · , N } and P is a positive integer.
In what follows, we will set y(λi ) = yi . For every λ ∈ RP , we define the mapping
associated to the points y1 , · · · , yN by:
Fλ : Gm (Rn ) −→ R+
N
1X
y 7−→ Fλ (y) = αi (λ) d2 (y, yi )
2 i=1

142
8 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY

N
X
where α1 (λ), · · · , αN (λ) are nonnegative real numbers satisfying αi (λ) = 1 and
i=1
d is the Riemannian distance on Gm (Rn ). The weights (αi (λ))1≤i≤N may depend
on the parameters (λi )1≤i≤N .

Now, consider the minimization problem



 For every λ ∈ R , find
P
 yb(λ) ∈ Gm (Rn ) such that :
(Pλ )

 yb(λ) = arg minn Fλ (y)
y∈Gm (R )

Since the Grassmann manifold Gm (Rn ) is compact and Fλ is a continue mapping


on Gm (Rn ) then Problem (Pλ ) has at least one solution. From now on, we suppose
that the integers m and n satisfy the following assumption:
min{m, n − m} ≥ 2. (8)
Theorem 4.1. Suppose that the points y1 , · · · , yN are contained in a certain ball
B(y ∗ , r), where y ∗ ∈ Gm (Rn ) and 0 < r < 4√π
2
. Then, for every λ ∈ RP , Problem

(Pλ ) has a unique solution yb(λ) in B(y , r) characterized by ∇Fλ (by (λ)) = 0, where
N
X
∇Fλ (x) = αi (λ) exp−1
x (yi ).
i=1

Proof. We carry out an adaptation of the proof given by Karcher in the framework
of the Grassmann manifold, [14] . The key point of the proof is the fact that the
radius of the ball B(y ∗ , r) where Problem (Pλ ) has its unique solution satisfies
π
0 < r < 4√ 2
. Indeed,
(i) The convexity radius of Gm (Rn ) is rc = π4 . As mentioned before, the in-
jectivity radius of Gm (Rn ) is rI = π2 and its sectional curvature belongs to
[0, 2], then the upper bound of the sectional curvature is 4 = 2. Therefore, it
follows that
1 π
rc = min{rI , √ }
2 4
π
=
4
Moreover, Theorem 3.8 asserts that for 0 < r < rc , the ball B(y ∗ , r) is strongly
convex.
π
(ii) For 0 < r < 4√ 2
, the mapping y 7→ d2 (y, z) is strictly convex on B(y ∗ , r), for

any z dans B(y , r), [14, 2]. Whence, (Pλ ) has a unique solution in a ball of
radius equal to min{ 4√ π
2 c
π
, r } = 4√ 2
, which achieves the proof. 

Remark 1. Assume that instead of the Grassmann manifold Gm (Rn ) we have a


1
real vector space V . Then by choosing αi (λ) = , where θ is a continuous
θ(d(λ, λi ))
function of λ satisfying lim θ(λ) = 0, the solution yb(λ) of Problem (Pλ ) is explicitly
λ→λi
given by
N
X
yb(λ) = αi (λ) yi
i=1

143
ANNEXE C. IDW-G

INVERSE DISTANCE WEIGHTING ON GRASSMANN MANIFOLDS 9

that is, yb(λ) is not other than the wighted barycenter of y1 · · · , yN in the space V .
For example, with the following choice of weights
1
αi (λ) = (9)
S(λ) d(λ, λi )p
N
X 1
where S(λ) = and p > 0, we find the standard Inverse Distance
i=1
d(λ, λi )p
Weighting (IDW) algorithm in vector spaces. In the Grassmann manifold Gm (Rn ),
we will denote this algorithm by IDW-G.

5. Algorithme IDW-G. The solution yb(λ) of Problem (Pλ ) in B(y ∗ , r) satisfies


N
X
αi (λ) exp−1
bλ (yi ) = 0.
y (10)
i=1
In the Grassmann manifold Gm (Rn ), the equation (10) can not be solved in an
explicit way, unlike in vector spaces. For this, we suggest the following iterative
algorithm:
 ∗
Initialization : yb0 ∈ B(y , r)



 !

 XN

yb`+1 = expyb − tyb` αi (λ) expy−1
b` (yi )
`

 ( i=1 ! )

 XN

 −1
tyb = sup t ∈ [0, 1] : expyb − t
 ∗
αi (λ) expyb (yi ) ∈ B(y , r)
` ` `
i=1
For sake of simplicity, we denote
 N

 X
 w = − t αi (λ) expy−1

 ` yb` b` (yi ),



 i=1





 yi = span(Φi ), where Φi ∈ Rn×m ∗




 yb` = span(Y` ), where Y` ∈ Rn×m ∗



 !

 N

 X

 −1
 γyb` (t) = expyb` −t αi (λ) expyb (yi ) .
`
i=1
Then,

(i) expyb (w` ) = span Y` (t Y` Y` )−1/2 V` cos(Σ` ) + U` sin(Σ` ) , where
`

w` = U` Σ` t V` (t Y` Y` )1/2 is an SVD.
(ii) exp−1 e tan−1 (Σ
e ) t Ve , where
b` (yi )
y =U` ` `

e Σ
U e t Ve = [Φi (t Y Φi )−1 (t Y Y ) − Y ](t Y Y )−1/2 is an SVD.
` ` ` ` ` ` ` ` `

Lemma 5.1. If {y1 , · · · , yN } ⊂ B(y ∗ , r) then for any y ∈ B(y ∗ , r), there exists
0 < ty ≤ 21 such that, if ∇Fλ (y) 6= 0, it holds:

1. Fλ ◦ γy is strictly decreasing on ]0, ty ], where γy (t) = expy (−t∇Fλ (y)).

144
10 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY

2. Fλ (y) − Fλ (γy (t)) ≥ 2t ||∇Fλ (y)||2 , for any t ∈]0, ty ].

Proof. Let us define:


1 n o
ty = sup t ∈ [0, 1] : γy (t) ∈ B(y ∗ , r) .
2
Applying Lemma 4 in [13], we get that

 1
 0 < ty ≤ ,

 2

 2
 d (Fλ ◦ γy )(t) ≤ k∇Fλ (y)k2 ,

for any t ∈ [0, ty ].
dt2
On the other hand, since

(Fλ ◦ γy )0 (0) = dy Fλ (γy0 (0))


= gy (∇Fλ (x), γy0 (0))
= gy (∇Fλ (y), −∇Fλ (y))
= − ||∇Fλ (y)||2 < 0

we obtain, for any t ∈ [0, ty ]

d
(Fλ ◦ γy )(t) ≤ − ||∇Fλ (y)||2 + ||∇Fλ (y)||2 t
dt
−1
≤ ||∇Fλ (y)||2 .
2
Therefore,
d
(Fλ ◦ γy )(t) < 0, since ∇Fλ (y) 6= 0 (11)
dt
and consequently, the function t 7−→ (Fλ ◦ γy )(t) is strictly decreasing on ]0, ty ]. A
direct integration of (11) yields to
t
Fλ (y) − Fλ (γy (t)) ≥ ||∇Fλ (y)||2 , ∀ t ∈ ]0, ty ]. 
2
At this stage, we can state and show the following convergence result.

Theorem 5.2 (Convergence). If {y1 , · · · , yN } ⊂ B(y ∗ , r) then for any y ∈ B(y ∗ , r),
y` : ` ∈ N} defined by
the sequence {b

 yb0 = y,

yb`+1 = expyb` (−tyb` ∇Fλ (b
y` )),

converges to yb, the unique solution of Problem (Pλ ) in B(y ∗ , r).

Proof. If there is `∗ ∈ N such that ∇Fλ (b y`∗ ) = 0, then by Theorem 4.1, yb`∗ is the
solution of (Pλ ) and by construction yb` = yb`∗ for any ` ≥ `∗ , which ends the claim.

145
ANNEXE C. IDW-G

INVERSE DISTANCE WEIGHTING ON GRASSMANN MANIFOLDS 11

y` ) 6= 0 pour tout ` ∈ N, then by Lemma 5.1, we get


Now, if ∇Fλ (b
t
y` ) − Fλ (γyb` (t)) ≥
Fλ (b ||∇Fλ (by` )||2
2
tyb`
y` ) − Fλ (γyb` (tyb` )) ≥
Fλ (b ||∇Fλ (by` )||2
2
tyb`
y` ) − Fλ (b
Fλ (b y`+1 ) ≥ ||∇Fλ (by` )||2 , since yb`+1 = γyb` (tyb` )
2
tyb`
y` ) ≥
Fλ (b ||∇Fλ (by` )||2 + Fλ (b
y`+1 )
2
> Fλ (by`+1 ) ≥ 0

Hence, the sequence (Fλ (by` ))` is convergent. On one hand, let yb ∈ B(y ∗ , r) be
an adherence value of the sequence (b y` )` , then (Fλ (b
y` ))` converges to Fλ (b
y ), by
continuity. On the other hand, since
tyb`
y` ) − Fλ (b
Fλ (b y`+1 ) ≥ y` )||2 ,
||∇Fλ (b ∀` ∈ N
2
then, by the continuity of the mappings y 7−→ ty and y 7−→ ∇Fλ y on B(y ∗ , r), we
get 0 ≥ k∇Fλ (b
y )k and thus ∇Fλ (b y` )` has yb as unique
y ) = 0. Hence, the sequence (b
adherence value. Which achieves the proof. 

The IDW-G algorithm can be summarized as follows:

Data:
i. N bases: Φ(λ1 ), · · · , Φ(λN ) ∈ Rn×m
∗ .
ii. The new parameter: λ ∈ RP .
iii. A tolerance number: e.

Result: The IDW-G interpolated basis ΦI (λ)


Choose the weights α1 , · · · , αN as in (9), for example.
Initialization: Choose Φ0 ∈ Rn×m
∗ and set R = Φ0 .
N
!
X
−1
Compute R = expR −tR αi (λ) expR (Φi ) .
i=1

X N

Compute Res = tR αi (λ) exp−1
R (Φi ) .

i=1
if Res ≤ e then
Return yb = R
else
Compute again R and Res
end
Algorithm 1: IDW-G algorithm.

1
In applications, one can choose tR = and the weights αi (λj ) = δij , the Kronecker
N
symbols, for every (i, j) ∈ {1, · · · , N }2 . For λ ∈
/ {λ1 , · · · , λN }, one defines for

146
12 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY

every i ∈ {1, · · · , N }
N
X
1 1
αi (λ) = , where S(λ) = , p ≥ 1.
S(λ) d(λ, λi )p d(λ, λk )p
k=1

Hereafter, we carry out some numerical results which compare the approach of
Amsallem et al. [7] and our IDW-G algorithm.
In Figures 4 and 5, the interpolation algorithm developed in [7], our Grassmann
IDW algorithm and the full solution computed by the finite elements method are
referenced respectively by ”Grass”, ”IDW-G” and ”Full”.

6. Application to the flow around a circular cylinder. In what follows, we


consider a planar isothermal fluid flow around a circular cylinder of diameter D in
a rectangular channel. The dimensions of the rectangular domain are: the length
L = 26D and the height H = 10D. The cylinder center is located at L1 = 6D and
H/2 from the left and bottom boundaries, respectively, (see Fig 1). Hereafter, the

v=0, du/dy=0

u=0, v=0

u=U σ n=0 H
v=0

v=0, du/dy=0

L1 L2

Figure 1. Geometrical properties of the flow around a circular cylinder

length-height space variables will be denoted by (x, y) and the planar velocity field
will be denoted by (u, v). At every point (x, y) on the boundary of the domain,
n(x, y) will denote the unit normal outward vector to the boundary. Finally, the
euclidean inner product in the plane will be denoted by ”·”.
The boundary conditions are as follows :
• On the vertical boundaries : a horizontal inflow (u(0, y), v(0, y)) = (U, 0) is
applied on the left boundary. For the right boundary, a homogeneous output
boundary condition is imposed. More precisely, we have on the right boundary
: σ(u, v) · n = (0, 0), where σ denotes the stress tensor.
• On the horizontal boundaries : homogeneous Neumann conditions on the
horizontal component ∂u ∂y = 0 and homogeneous Dirichlet conditions on the
vertical component v = 0 are imposed.
• On the cylinder boundary : homogeneous Dirichlet boundary conditions (u, v) =
(0, 0) are applied.
We assume that the fluid dynamics is governed by the classical adimensional incom-
UD
pressible Navier-Stokes equations. The Reynolds number is defined by Re = ,
ν

147
ANNEXE C. IDW-G

INVERSE DISTANCE WEIGHTING ON GRASSMANN MANIFOLDS 13

where ν is the fluid viscosity.

To built the POD bases, the used snapshots are computed with the free Finite
Elements software Fenics using Taylor-Hood P2 /P1 elements. The mesh including
17290 elements is non uniform and refined near the cylinder. To ensure homogeneous
boundary conditions, the velocity field and the pressure are splitted into the mean
and fluctuating parts as follows:

u(x, t, Re) = u(x) + u0 (x, t, Re) and p(x, t, Re) = p(x) + p0 (x, t, Re),

where u(x), p(x) are the mean parts of the velocity field and the pressure respec-
tively, and POD is then applied to the fluctuating velocity u0 and the fluctuating
pressure p0 . By keeping the only most POD energetic vectors :

Nu Np
X X
0
u (x, t, Re) ' u
ai (t, Re)Φ i (x, Re) and 0
p (x, t, Re) ' bi (t, Re)Φpi (x, Re),
i=1 i=1
(12)
the temporal coefficient ai (i = 1, . . . , Nu ) and bi (i = 1, . . . , Np ) are computed by
solving a set of differential equations of small size Nu + Np . This reduced order
model, that is very fast to solve, is obtained by applying Galerkin projection of
the momentum equations onto each velocity and pressure POD vectors Φu i , ∇Φpi
respectively (for more details, we refer the interested reader to [16][26]). For this
application, we fix Nu = Np = 8.
A bunch of velocity and pressure POD bases corresponding to five Reynolds numbers
(Rebunch = [70, 80, 90, 150, 180]) are computed. This set of POD bases is interpo-
lated on the Grassmann manifold by the method developed by Amsallem ”Grass”
and by our approach ”IDW-G”, to obtain a valid basis for different Reynolds num-
bers (Reint = 140, 160, 170, 190). For each Reynolds number of the bunch, 150
snapshots uniformly distributed on the time of two oscillations period of the wake
are chosen to build the spatial POD basis. For these Reynolds numbers, the flow
oscillates with Von Karman streets and a vertex shedding is observed (see Fig 2).

The availability of the two interpolation approaches to compute the drag coefficient
CD and the lift coefficient CL are tested. Theses coefficients are expressed such as:

FD FL
CD = and CL = , (13)
0.5ρU 2 D 0.5ρU 2 D

where FD , FL are the drag and the lift forces exerted by the fluid on the cylinder
respectively and ρ is the density of the fluid.

In the IDW-G interpolation method, one interesting parameter is the power p ap-
pearing in the weight coefficient given in (9). The influence of this power p is drawn
on Figure (Fig. 3). It is observed that the value p = 1 does not give satisfactory
results. For higher values of the power p, the results are more accurate. Hereafter,
we will choose p = 3. Figures (Fig. 4) and (Fig. 5) compare predictions of the ROM
built with the two interpolations approaches and predictions of the full model. This
figures show that our IDW-G proposed method gives more accurate results than the
the Grassmann one, moreover the drag and lift coefficients are properly recovered.

148
14 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY

Figure 2. Isovalue of the velocity magnitude for Re=180 at the


first snapshot.

7. Conclusion. We have adapted the Inverse Distance Weighting method on the


Grassmann manifold to perform interpolation of parametric POD bases. The ad-
vantages of our approach is to overcome the choice of a reference point on the
Grassmann manifold and offers a better quality of results comparing to those ob-
tained by Amsalle et al. [7]. In return, our approach is not direct but iterative,
moreover its relevance depends on the choice of the weighting function:
1
αi (λ) = .
S(λ) d(λ, λi )p
The numerical experiments have shown that the results are more accurate for p ≥ 2.

A more judicious choice of such weighting functions can be carried out via krig-
ing technics [23], this is the subject of a work in progress. Moreover, we notice
that the proposed method can be applied not only for interpolation but also for
extrapolation, as it can be observed for the value Re = 190, which is outside of the
interpolation set. This observation will be studied more carefully in a future work.

REFERENCES

[1] P. A. Absil, R. Mahony, R. Sepulchre, Riemannian geometry of Grassmann manifolds with


a view on algorithmic computation, Acta Applicandae Mathematicae, 80 (2) (2004) 199-220.
[2] B. Afsari, Riemannian Lp center of mass: existence, uniqueness, and convexity, Proc. Amer.
Math. Soc. 139 (2011), 655-673.
[3] N. Akkari, A. Hamdouni, E. Liberge, M. Jazar, A mathematical and numerical study of the
sensitivity of a reduced order model by POD (ROM–POD), for a 2D incompressible fluid
flow, Journal of Computational and Applied Mathematics, 270 (2014) 522-530.
[4] N. Akkari, A. Hamdouni, M. Jazar, Mathematical and numerical results on the sensitivity of
the POD approximation relative to the Burgers equation, Applied Mathematics and Compu-
tation, 247 (2014) 951-961.
[5] N. Akkari, A. Hamdouni, E. Liberge, M. Jazzar, On the sensitivity of the POD technique for
a parameterized quasi-nonlinear parabolic equation, Advanced Modeling and Simulation in
Engineering Sciences, 2 (2014) 1-16

149
ANNEXE C. IDW-G

INVERSE DISTANCE WEIGHTING ON GRASSMANN MANIFOLDS 15

1.44 0.8

1.42 0.6

1.40 0.4
0.2
1.38
Drag coefficient

Lift Coefficient
0.0
1.36
0.2
1.34
0.4
p=1 p=1
1.32 p=2 0.6 p=2
p=3 p=3
1.30 p=4 0.8 p=4
Full Full
1.28 1.0
0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5
Times Times

a) CD for Re=160 b) CL for Re=160

1.45 1.0
p=1
p=2
p=3
1.40 0.5 p=4
Full
Drag coefficient

Lift Coefficient

1.35 0.0

p=1
1.30 p=2 0.5
p=3
p=4
Full
1.25 1.0
0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5
Times Times

c) CD for Re=190 d) CL for Re=190

Figure 3. Influence of the power p of the IDW-G interpolation on


the prediction of the drag and lift for Reynolds number Re = 160
and Re = 190.

[6] Y. Aminov, The Geometry of Submanifolds, Gordon and Breach Science Publishers, 2001.
[7] D. Amsallem, C. Farhat, An interpolation method for adapting reduced order models and
application to aeroelasticity, Amer. Inst. Aeronaut. Astronaut., 46 (7) (2008) 1803-1813.
[8] M. Azaı̈ez, F. Ben Belgacem, T. Chacón Rebollo, Error bounds for POD expansions of param-
eterized transient temperatures, Comput. Methods Appl. Mech. Engrg., 305 (2016) 501-51.
[9] M. Azaı̈ez, F. Ben Belgacem, Karhunen-Loève’s truncation error for bivariate functions,
Comput. Methods Appl. Mech. Engrg., 290 (2015) 57-72.
[10] B. Denis de Senneville, A. El Hamidi, C. Moonen, A direct PCA-based approach for real-time
description of physiological organ deformations, IEEE Transactions on Medical Imaging, 34
(4) (2015) 974-982.
[11] B. Haasdonk, M. Ohlberger, G. Rozza, A reduced basis method for evolution schemes with
parameter-dependent explicit operators, Electron. Trans. Numer. Anal., 32 (2008) 145-161.
[12] D. Hömberg, S. Volkwein, Control of laser surface hardening by a reduced-order approach
utilizing proper orthogonal decomposition, Math. Comput. Model., 38 (2003) 1003-1028.

150
16 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY

1.46 1.0
IDW-G
1.44 0.8 Grass
Full
1.42 0.6
1.40 0.4
Drag coefficient

Lift coefficient
1.38 0.2
1.36 0.0
1.34 0.2
1.32 0.4
IDW-G
1.30 Grass 0.6
Full
1.28 0.8
0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5
Times Times

a) CD for Re=140 b) CL for Re=140

1.45 1.5
IDW-G
Grass
1.40 Full
1.0

1.35
0.5
Drag coefficient

Lift coefficient

1.30
0.0
1.25

IDW-G 0.5
1.20
Grass
Full
1.15 1.0
0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5
Times Times

c) CD for Re=160 d) CL for Re=160

Figure 4. Comparison of the drag and lift coefficients obtained by


the two interpolations methods IDW-G and Grassmann and those
obtained with the full model for Re=140 and 160.

[13] Huiling Le. Estimation of Riemannian barycenters, LMS J. Comput. Math., 7 (2004) 193-200.
[14] H. Karcher, Riemannian center of mass and mollifier smoothing, Comm. Pure Appl. Math.
30 (1977) 509-541.
[15] S. E. Kozlov, Geometry of real Grassmannian manifolds, Zap. Nauchn. Semin. POMI, 246
(1997) 108-129.
[16] C. Leblond, C. Allery, C. Inard, An optimal projection method for the reduce order modeling
of incompressible flows, Comp. Meth, in Applied Mechanics and Engineering, 200 (33) (2011)
2507-2527.
[17] K. Kunisch, S. Volkwein, Control of Burgers equation by a reduced order approach using
proper orthogonal decomposition, J. Optim. Theory Appl., 102 (1999) 345-371.
[18] E. Longatte, E. Liberge, M. Pomarède, J.F. Sigrist, A. Hamdouni, Parametric study of flow-
induced vibrations in cylinder arrays under single-phase fluid cross flows using POD-ROM,
Journal of Fluids and Structures 78 (2018) 314?330.

151
ANNEXE C. IDW-G

INVERSE DISTANCE WEIGHTING ON GRASSMANN MANIFOLDS 17

1.50 1.5
IDW-G
1.45 Grass
1.0 Full
1.40

0.5
Drag coefficient

Lift coefficient
1.35

1.30
0.0

1.25
IDW-G 0.5
1.20 Grass
Full
1.15 1.0
0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5
Times Times

a) CD for Re=170 b) CL for Re=170

1.45 1.5
IDW-G
Grass
1.40 Full
1.0

1.35
0.5
Drag coefficient

Lift coefficient

1.30
0.0
1.25

IDW-G 0.5
1.20
Grass
Full
1.15 1.0
0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5
Times Times

c) CD for Re=190 d) CL for Re=190

Figure 5. Comparison of the drag and lift coefficients obtained by


the two interpolations methods IDW-G and Grassmann and those
obtained with the full model for Re=170 and 190.

[19] Y. Lu, N. Blal, A. Gravouil, Space time POD based computational vademecums for parametric
studies: application to thermo-mechanical problems, Advanced Modeling and Simulation in
Engineering Sciences, 5 (1) (2018) 1-27.
[20] W. Milnor, J. D. Stasheff, Characteristic classes, Ann. Math. Studies, Princeton University
Press, 1974.
[21] A.T. Patera and G. Rozza, A Posteriori Error Estimation for Parametrized Partial Differ-
ential Equations, MIT Pappalardo Graduate Monographs in Mechanical Engineering, 2007.
[22] P. Petersen, Riemannian geometry, Springer-Verlag, 2006.
[23] D. Pigoli, A. Menafoglio, P. Secchi, Kriging prediction for manifold-valued random fields,
Journal of Multivariate Analysis, 145 (2016) 117-131.
[24] S. Roujol, M. Ries, B. Quesson, C. Moonen, B. Denis de Senneville, Real-time MR-
thermometry and dosimetry for interventional guidance on abdominal organs, Magnetic Res-
onance in Medicine, 63 (2010) 1080-7.

152
18 R. MOSQUERA, A. HAMDOUNI, A. EL HAMIDI, C. ALLERY

[25] L. Sirovich, Turbulence and the dynamics of coherent structures, parts I-III, Quart. Appl.
Math. 45 (3) (1987) 561-590.
[26] A. Tallet, C. Allery, C. Leblond, E. Liberge, A minimum residual projection to build coupled
velocity-pressure POD-ROM for incompressible Navier-Stokes equations, Comm. in Nonlin.
Science and Num. Simulation, 22 (1) (2015) 909-932.
[27] S. Volkwein, Optimal control of a phase-field model using the proper orthogonal decomposition,
Z. Angew. Math. Mech., 81 (2001) 83-97.
[28] Y. C. Wong, Differential geometry of Grassmann manifolds, Proc Natl Acad Sci U S A. 57
(3) (1967) 589-94.
E-mail address: [Link] meza@[Link]
E-mail address: ahamdoun@[Link]
E-mail address: aelhamid@[Link]
E-mail address: callery@[Link]

153
ANNEXE C. IDW-G

154
Bibliographie

[1] Allery, C. Contribution à l'identication des bifurcations et à l' étude des


écoulements uides par des systèmes d'ordre faible (POD). PhD thesis, Uni-
versité de Poitiers, 2002.
[2] P. A. Absil, R. Mahony, R. Sepulchre, Riemannian geometry of Grassmann
manifolds with a view on algorithmic computation, Acta Applicandae Ma-
thematicae, 80 (2) (2004) 199-220.
[3] P.A. Absil, R. Mahony and R. Sepulchre. Optimization Algorithms on Matrix
Manifolds. Princeton University Press, 2009.
[4] B. Afsari, Riemannian Lp center of mass : existence, uniqueness, and
convexity, Proc. Amer. Math. Soc. 139 (2011), 655-673.
[5] N. Akkari, A. Hamdouni, E. Liberge, M. Jazar, A mathematical and nume-
rical study of the sensitivity of a reduced order model by POD (ROMPOD),
for a 2D incompressible uid ow, Journal of Computational and Applied
Mathematics, 270 (2014) 522-530.
[6] N. Akkari, A. Hamdouni, M. Jazar, Mathematical and numerical results on
the sensitivity of the POD approximation relative to the Burgers equation,
Applied Mathematics and Computation, 247 (2014) 951-961.
[7] N. Akkari, A. Hamdouni, E. Liberge, M. Jazzar, On the sensitivity of the
POD technique for a parameterized quasi-nonlinear parabolic equation, Ad-
vanced Modeling and Simulation in Engineering Sciences, 2 (2014) 1-16
[8] Y. Aminov, The Geometry of Submanifolds, Gordon and Breach Science
Publishers, 2001.
[9] D. Amsallem, C. Farhat, An interpolation method for adapting reduced order
models and application to aeroelasticity, Amer. Inst. Aeronaut. Astronaut.,
46 (7) (2008) 1803-1813.
[10] M. Azaïez, F. Ben Belgacem, T. Chacón Rebollo, Error bounds for POD
expansions of parameterized transient temperatures, Comput. Methods Appl.
Mech. Engrg., 305 (2016) 501-51.
[11] M. Azaïez, F. Ben Belgacem, Karhunen-Loève's truncation error for biva-
riate functions, Comput. Methods Appl. Mech. Engrg., 290 (2015) 57-72.

155
BIBLIOGRAPHIE

[12] A. Ammar, B. Mokdad, F. Chinesta, R. Keunings, A new family of solvers for


some classes of multidimensional partial dierential equations encountered in
kinetic theory modeling of complex uids, Journal of Non-Newtonian Fluid
Mechanics 139 (2006) 153-176.
[13] A. Ammar, B. Mokdad, F. Chinesta, R. Keunings, A new family of solvers for
some classes of multidimensional partial dierential equations encountered in
kinetic theory modeling of complex uids. Part II : transient simulation using
space-time separated representations, J. Non-Newtonian Fluid Mechanics 144
(2007) 98-121.
[14] F. Chinesta, R. Keunings, A. Leygue, The Proper Generalized Decomposition
for Advanced Numerical Simulations. A Primer. Springer (2014)
[15] Abdi, Hervé. Singular value decomposition (SVD) and generalized singular
value decomposition." Encyclopedia of Measurement and Statistics. Thou-
sand Oaks (CA) : Sage (2007) : 907-912.
[16] Berkooz, G., Holmes, P., and Lumley, J. The proper orthogonal decomposition
in the analysis of turbulent ows. Annual review of uid Mechanics 25 (1993),
539575.
[17] B. Denis de Senneville, A. El Hamidi, C. Moonen, A direct PCA-based ap-
proach for real-time description of physiological organ deformations, IEEE
Transactions on Medical Imaging, 34 (4) (2015) 974-982.
[18] H. Brézis. Analyse fonctionnelle : théorie et [Link]. 91. Paris : Du-
nod, 1999.
[19] A. Björck and G. H. Golub, Numerical methods for computing angles between
linear subspaces, Math. Comp., 27 (1973), no. 123, pp. 579-594.
[20] Begelfor. E. and Werman, M., Ane Invariance Revisited, Proceedings of the
2006 IEEE Computer Society Conference on Computer Vision and Pattern
Recognition, Vol. 2, 2006, pp. 2087-2094.
[21] Couplet, M. Modélisation POD-Galerkine réduite pour le contrôle des écou-
lements instationnaires. PhD thesis, Université Paris 13, 2005.
[22] Cressie, NoëlThe origins of kriging. Mathematical geology, 1990, vol. 22, no
3, p. 239-252
[23] Christakos, George. On the problem of permissible covariance and variogram
models. Water Resources Research 20.2 (1984) : 251-265.
[24] Do Carmo, Manfredo P. Dierential Geometry of Curves and Surfaces : Re-
vised and Updated Second Edition. Courier Dover Publications, 2016.
[25] Shepard, Donald. A two-dimensional interpolation function for irregularly-
spaced data. Proceedings of the 1968 23rd ACM national conference. ACM,
1968.

156
BIBLIOGRAPHIE

[26] Edelman,E. and Arias, T.A. and Smith, [Link] Geometry of Algorithm with
Orthogonality Constraints, SIAM J. Matrix Anal Appl., Vol. 20, No. 2, 1999,
pp. 303-353.
[27] Ferziger, Joel H., and Milovan Peric. Computational methods for uid dyna-
mics. Springer Science & Business Media, 2012.
[28] Lu, George Y., and David W. Wong. An adaptive inverse-distance weighting
spatial interpolation technique. Computers & geosciences 34.9 (2008) : 1044-
1055.
[29] G. Golub and C. Van Loan, Matrix Computations, 4th Ed., John Hopkins
University Press, Baltimore, MD, 2013.
[30] Gallot, S. Hulin, D. Lafontaine J. Riemannian Geometry, Springer, 1990.
[31] Holmes, P. J., Lumley, J., Berkooz, J., Mattingly, J., and Wittenberg, R. Low
dimensional models of coherent structures in turbulence. Phys. Rev. Section
Phys. Lett. 4 (1997), 338-384.
[32] B. Haasdonk, M. Ohlberger, G. Rozza, A reduced basis method for evolu-
tion schemes with parameter-dependent explicit operators, Electron. Trans.
Numer. Anal., 32 (2008) 145-161.
[33] D. Hömberg, S. Volkwein, Control of laser surface hardening by a reduced-
order approach utilizing proper orthogonal decomposition, Math. Comput.
Model., 38 (2003) 1003-1028.
[34] Huiling Le. Estimation of Riemannian barycenters, LMS J. Comput. Math.,
7 (2004) 193-200.
[35] Huiling Le. Locating Fréchet means with application to shape spaces. Ad-
vances in Applied Probabilities, 33 :324-338, 2001.
[36] P. Holmes, [Link] and G. Berkooz. Turbulence, coherent Structures,
Dynamical Systems and Symmetry. Cambrige University Press. 1998
[37] T. Henri and J.P. Yvon. Stability of the POD and convergence of the POD
Galerkin method for parabolic problems. Prépublication 03-03, Intitut de Re-
cherche Mathématique de Rennes, janvier 2003.
[38] C. Jordan, Essai sur la géométrie à n dimensions, Amer. Math. Monthly 3
(1875) 103-174.
[39] Jost, Jürgen, and Jèurgen Jost. Riemannian geometry and geometric analy-
sis. Vol. 42005. Berlin : Springer, 2008.
[40] H. Karcher, Riemannian center of mass and mollier smoothing, Comm.
Pure Appl. Math. 30 (1977) 509-541.
[41] Karoubi, Max. K-theory : An introduction. Vol. 226. Springer Science &
Business Media, 2008.
[42] S. E. Kozlov, Geometry of real Grassmannian manifolds, Zap. Nauchn. Se-
min. POMI, 246 (1997) 108-129.

157
BIBLIOGRAPHIE

[43] K. Kunisch, S. Volkwein, Control of Burgers equation by a reduced order


approach using proper orthogonal decomposition, J. Optim. Theory Appl.,
102 (1999) 345-371.
[44] Lancaster, Peter, and Kestutis Salkauskas. Curve and surface tting : an
introduction. Academic press, 1986.
[45] C. Leblond, C. Allery, C. Inard, An optimal projection method for the reduce
order modeling of incompressible ows, Comp. Meth, in Applied Mechanics
and Engineering, 200 (33) (2011) 2507-2527.
[46] Lafontaine, Jacques. Introduction aux variétés diérentielles. EDP sciences,
2012.
[47] Lee, John M. Smooth manifolds. Introduction to Smooth Manifolds. Springer,
New York, NY, 2003. 1-29.
[48] Lang, Serge. Dierential and Riemannian manifolds, Vol. 160 of. Graduate
Texts in Mathematics 185 (1995)
[49] E. Longatte, E. Liberge, M. Pomarède, J.F. Sigrist, A. Hamdouni, Para-
metric study of ow-induced vibrations in cylinder arrays under single-phase
uid cross ows using POD-ROM, Journal of Fluids and Structures 78 (2018)
314-330.
[50] Y. Lu, N. Blal, A. Gravouil, Space time POD based computational vademe-
cums for parametric studies : application to thermo-mechanical problems,
Advanced Modeling and Simulation in Engineering Sciences, 5 (1) (2018)
1-27.
[51] P. Ladevèze, J.C. Passieux, D. Néron, The LATIN multiscale computational
method and the Proper Generalized Decomposition, Computer Methods in
Applied Mechanics and Engineering 199 (2010) 1287-1296.
[52] W. Milnor, J. D. Stashe, Characteristic classes, Ann. Math. Studies, Prin-
ceton University Press, 1974.
[53] Abraham, Ralph, Jerrold E. Marsden, and Jerrold E. Marsden. Foundations
of mechanics. Vol. 36. Reading, Massachusetts : Benjamin/Cummings Pu-
blishing Company, 1978.
[54] Abraham, Ralph, Jerrold E. Marsden, and Tudor Ratiu. Manifolds, tensor
analysis, and applications. Vol. 75. Springer Science & Business Media, 2012.
[55] Rowley, Clarence W., and Jerrold E. Marsden. Reconstruction equations and
the Karhunen-Loève expansion for systems with symmetry. Physica D : Non-
linear Phenomena 142.1-2 (2000) : 1-19.
[56] Rowley, Clarence W., et al. Reduction and reconstruction for self-similar
dynamical systems. Nonlinearity 16.4 (2003) : 1257.
[57] Phillips, George M. Interpolation and approximation by polynomials. Vol. 14.
Springer Science & Business Media, 2003.

158
BIBLIOGRAPHIE

[58] A.T. Patera and G. Rozza, A Posteriori Error Estimation for Parametrized
Partial Dierential Equations, MIT Pappalardo Graduate Monographs in
Mechanical Engineering, 2007.
[59] P. Petersen, Riemannian geometry, Springer-Verlag, 2006.
[60] Henri, Thibault, and Jean-Pierre Yvon. Convergence estimates of POD-
Galerkin methods for parabolic problems. IFIP Conference on System Mo-
deling and Optimization. Springer, Boston, MA, 2003.
[61] D. Pigoli, A. Menafoglio, P. Secchi, Kriging prediction for manifold-valued
random elds, Journal of Multivariate Analysis, 145 (2016) 117-131.
[62] S. Roujol, M. Ries, B. Quesson, C. Moonen, B. Denis de Senneville, Real-time
MR-thermometry and dosimetry for interventional guidance on abdominal
organs, Magnetic Resonance in Medicine, 63 (2010) 1080-7.
[63] Rahman,I., Drori, I., Stodden, V., Donoho, D. and Schröder, P., Multiscale
Representations for Manifold-Valued Data, Multiscale Model. Simul., Vol. 4,
2005, pp. 1201-1232.
[64] Solari, G., Carassale, L., and Tubino, F. Proper orthogonal decomposition in
wind engineering. part 1 : A state-of-the-art and some prospects. Wind and
Structures, An International Journal 10, 2 (2007), 153-176
[65] L. Sirovich, Turbulence and the dynamics of coherent structures, parts I-III,
Quart. Appl. Math. 45 (3) (1987) 561-590.
[66] Sirovich, L. Turbulence and the dynamics of coherent structures part I :
coherent structures Quarterly of applied mathematics, JSTOR, 1987, 45,
561-571
[67] Stein, Michael L. Interpolation of spatial data : some theory for kriging.
Springer Science Business Media, 2012.
[68] Stewart, Gilbert W. Matrix algorithms volume 2 : eigensystems. Vol. 2. Siam,
2001.
[69] A. Tallet, C. Allery, C. Leblond, E. Liberge, A minimum residual projec-
tion to build coupled velocity-pressure POD-ROM for incompressible Navier-
Stokes equations, Comm. in Nonlin. Science and Num. Simulation, 22 (1)
(2015) 909-932.
[70] S. Volkwein, Optimal control of a phase-eld model using the proper ortho-
gonal decomposition, Z. Angew. Math. Mech., 81 (2001) 83-97.
[71] Neretin, Yu A. Lectures on Gaussian integral operators and classical groups.
Vol. 13. European Mathematical Society, 2011.
[72] Chikuse, Yasuko. Statistics on special manifolds. Vol. 174. Springer Science
& Business Media, 2012.
[73] Y. C. Wong, Dierential geometry of Grassmann manifolds, Proc Natl Acad
Sci U S A. 57 (3) (1967) 589-94.

159
BIBLIOGRAPHIE

[74] Zimmerman, Dale, et al. An experimental comparison of ordinary and uni-


versal kriging and inverse distance weighting. Mathematical Geology 31.4
(1999) : 375-390.

160
Thèse de Rolando MOSQUERA
Interpolation on Grassmann manifolds and applications to reduced order
methods in mechanics
Abstract This dissertation deals with interpolation on Grassmann manifolds and its
applications to reduced order methods in mechanics and more generally for systems of
evolution partial dierential systems.

After a description of the POD method, we introduce the theoretical tools of grass-
mannian geometry which will be used in the rest of the thesis. This chapter gives this
dissertation a mathematical rigor in the performed algorithms, their validity domain,
the error estimate with respect to the grassmannian distance on one hand and also a
self-contained character to the manuscript.

The interpolation on Grassmann manifolds method introduced by David Amsallem


and Charbel Farhat is afterward presented. This method is the starting point of the
interpolation methods that we will develop in this thesis. The method of Amsallem-
Farhat consists in chosing a reference interpolation point, mapping forward all interpo-
lation points on the tangent space of this reference point via the geodesic logarithm,
performing a classical interpolation on this tangent space and mapping backward the
interpolated point to the Grassmann manifold by the geodesic exponential function.
We carry out the inuence of the reference point on the quality of the results through
numerical simulations.

In our rst work, we present a grassmannian version of the well-known Inverse Dis-
tance Weighting (IDW) algorithm. In this method, the interpolation on a point can
be considered as the barycenter of the interpolation points where the used weights are
inversely proportional to the distance between the considered point and the given in-
terpolation points. In our method, denoted by IDW-G, the geodesic distance on the
Grassmann manifold replaces the euclidean distance in the standard framework of eu-
clidean spaces. The advantage of our algorithm that we show the convergence under
some general assumptions, does not require a reference point unlike the method of
Amsallem-Farhat. Moreover, to carry out this, we nally proposed a direct method,
thanks to the notion of generalized barycenter instead of an earlier iterative method.
However, our IDW-G algorithm depends on the choice of the used weighting coecients.

The second work deals with an optimal choice of the weighting coecients, which
take into account of the spatial autocorrelation of all interpolation points. Thus, each
weighting coecient depends of all interpolation points an not only on the distance bet-
ween the considered point and the interpolation point. It is a grassmannian version of
the Kriging method, widely used in Geographic Information System (GIS). Our grass-
mannian Kriging method require also the choice of a reference point.

In our last work, we develop a grassmannian version of Neville's method which allow
the computation of the Lagrange interpolation polynomial in a recursive way via the
linear interpolation of two points. The generalization of this algorithm to grassmannian
manifolds is based on the extension of interpolation of two points (geodesic/straight
line) that we can do explicitly. This algorithm does not require the choice of a reference
point, it is easy to implement and very quick. Furthermore, the obtained numerical
results are notable and better than all the algorithms described in this dissertation.
BIBLIOGRAPHIE

Keywords : Computational Fluid Dynamics, Reduced bases, Reduced order mo-


dels (ROM), Grassmann Manifold, Interpolation, Inverse Distance Weighting (IDW),
Kriging, Center of mass.

2
Thèse de Rolando MOSQUERA
Interpolation sur les variétés grassmanniennes et applications à la réduction
de modèles en mécanique
Résumé Ce mémoire de thèse concerne l'interpolation sur les variétés de Grassmann
et ses applications à la réduction de modèles en mécanique et plus généralement aux
systèmes d'équations aux dérivées partielles d'évolution.

Après une description de la méthode POD, nous introduisons les fondements théo-
riques en géométrie des variétés de Grassmann, qui seront utilisés dans le reste de la
thèse. Ce chapitre donne à ce mémoire à la fois une rigueur mathématique au niveau des
algorithmes mis au point, leur domaine de validité ainsi qu'une estimation de l'erreur
en distance grassmannienne mais également un caractère auto-contenu "self-contained"
du manuscrit.

Ensuite, on présente la méthode d'interpolation sur les variétés de Grassmann in-


troduite par David Amsallem et Charbel Farhat. Cette méthode sera le point de départ
des méthodes d'interpolation que nous développerons dans les chapitres suivants. La
méthode de Amsallem-Farhat consiste à choisir un point d'interpolation de référence,
envoyer l'ensemble des points d'interpolation sur l'espace tangent en ce point de réfé-
rence via l'application logarithme géodésique, eectuer une interpolation classique sur
cet espace tangent puis revenir à la variété de Grassmann via l'application exponen-
tielle géodésique. On met en évidence par des essais numériques l'inuence du point de
référence sur la qualité des résultats.

Dans notre premier travail, nous présentons une version grassmannienne d'un al-
gorithme connu dans la littérature sous le nom de Pondération par Distance Inverse
(IDW). Dans cette méthode, l'interpolé en un point donné est considéré comme le
barycentre des points d'interpolation où les coecients de pondération utilisés sont
inversement "proportionnels" à la distance entre le point considéré et les points d'inter-
polation. Dans notre méthode, notée IDW-G, la distance géodésique sur la variété de
Grassmann remplace la distance euclidienne dans le cadre standard des espaces eucli-
diens. L'avantage de notre algorithme, dont on a montré la convergence sous certaines
conditions assez générales, est qu'il ne requiert pas de point de référence contrairement
à la méthode de Amsallem-Farhat. Pour remédier au caractère itératif (point xe) de
notre première méthode, nous proposons une version directe via la notion de barycentre
généralisé. Notons enn que notre algorithme IDW-G dépend nécessairement du choix
des coecients de pondération utilisés.

Dans notre second travail, nous proposons une méthode qui permet un choix op-
timal des coecients de pondération, tenant compte de l'auto-corrélation spatiale de
l'ensemble des points d'interpolation. Ainsi, chaque coecient de pondération dépend
de tous les points d'interpolation et non pas seulement de la distance entre le point
considéré et un point d'interpolation. Il s'agit d'une version grassmannienne de la mé-
thode de Krigeage, très utilisée en géostatique. La méthode de Krigeage grassmannienne
utilise également le point de référence.

Dans notre dernier travail, nous proposons une version grassmannienne de l'algo-
rithme de Neville qui permet de calculer le polynôme d'interpolation de Lagrange de
manière récursive via l'interpolation linéaire entre deux points. La généralisation de cet
BIBLIOGRAPHIE

algorithme sur une variété grassmannienne est basée sur l'extension de l'interpolation
entre deux points (géodésique/droite) que l'on sait faire de manière explicite. Cet al-
gorithme ne requiert pas le choix d'un point de référence, facile d'implémentation et
très rapide. De plus, les résultats numériques obtenus sont remarquables et nettement
meilleurs que tous les algorithmes décrits dans ce mémoire.
Mot-clefs : Dynamique des uides computationnelle, Bases réduites, Variété de
Grassmann, Interpolation, Réduction de modèles (ROM), Pondération par Distance
Inverse (IDW), Krigeage, Barycentre.

lasie
Laboratoire des Sciences de l'Ingénieur pour

l'Environnement, Avenue Michel Crépeau


17042 LA ROCHELLE

Vous aimerez peut-être aussi