TenseursM2 2024
TenseursM2 2024
24 janvier 2024
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Malédiction de la dimensionalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Exemples de problèmes en grande dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Équation de Fokker-Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Équation de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Autres familles de méthodes numériques pour contrer la malédiction de la
dimensionalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
4 Algorithmes gloutons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.1 Algorithme glouton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.1.1 Problème de référence: Lax-Milgram . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.1.2 Dictionnaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.1.3 Algorithmes gloutons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.1.4 Algorithme de directions alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2 Cas de la résolution de l’équation de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.2.1 Au niveau continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2.2 Discrétisation en éléments finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.1 Malédiction de la dimensionalité 1
1
Introduction
Le but de ce cours est de vous présenter les fondements théoriques et les principaux algo-
rithmes utilisés d’une famille de méthodes, appelées méthodes de tenseurs , méthodes tensorielles
ou méthodes de faible rang, utilisées pour traiter efficacement des problèmes en grande dimension.
On peut rencontrer ce type de problèmes dans des champs d’application extrêmement divers:
physique, mécanique, économie, sciences sociales, chimie, etc. Nous allons en donner quelques
exemples précis dès la prochaine section.
U := (Ui1 ,i2 ,...,id )1≤i1 ≤N1 ,1≤i2 ≤N2 ,...,1≤id ≤Nd ∈ RN1 ×N2 ×...×Nd
où d ∈ N∗ est appelé l’ordre du tenseur et où N1 , . . . ,Nd ∈ N∗ ; identifier l’ensemble des
composantes de ce tenseur par une approche naı̈ve requiert d’identifier N1 × N2 × . . . × Nd
scalaires. Dans le cas simplifié où N1 = N2 = . . . = Nd = N pour N ∈ N∗ , cela implique
d’identifier N d scalaires.
• soit une fonction u dépendant de d variables x1 , . . . ,xd appartenant respectivement à des en-
sembles Ω1 , . . . ,Ωd , sous-ensembles boréliens de Rp1 , . . . ,Rpd respectivement avec p1 , . . . ,pd ∈
N∗ . On a alors ß
Ω1 × . . . × Ωd → K,
u:
(x1 , . . . ,xd ) 7→ u(x1 , . . . ,xd ).
La fonction u est alors en général définie comme la solution d’une équation aux dérivées par-
tielles définie sur le domaine Ω := Ω1 × . . . × Ωd .
Quel est le lien entre fonctions et tenseurs? Supposons que nous cherchions ici à calculer une
approximation numérique d’une fonction
ß
Ω1 × . . . Ωd → R
u:
(x1 , . . . ,xd ) 7→ u(x1 , . . . ,xd )
dépendant de d variables comme celle que nous avons introduite ci-dessus. Une approche numérique
naı̈ve consiste alors à introduire, pour tout 1 ≤ j ≤ d, une famille libre de Nj fonctions φj1 (xj ), . . . ,φjNj (xj )
(avec Nj ∈ N∗ ) définies sur Ωj et ne dépendant que de la variable xj , i.e. telles que
®
j Ωj → R
∀1 ≤ ij ≤ Nj , φij :
xj 7→ φjij (xj ).
2 1 Introduction
Un exemple classique dans le cas où Ωj est un intervalle de R (où un domaine de Rpj ) est de choisir
la famille φj1 , . . . ,φjNj comme la famille des fonctions éléments finis P1 associée à un maillage du
domaine Ωj .
La fonction u(x1 , . . . ,xd ) est alors approchée comme une combinaison linéaire de tous les pro-
duits de fonctions à une variable de la forme φ1i1 (x1 )φ2i2 (x2 ) . . . φdid (xd ), soit
N1
X Nd
X
u(x1 , . . . ,xd ) ≈ ... Ui1 ,...,id φ1i1 (x1 )φ2i2 (x2 ) . . . φdid (xd ),
i1 =1 id =1
où U := (Ui1 ,...,id )1≤i1 ≤N1 ,...,1≤id ≤Nd ∈ RN1 ×...×Nd est un tenseur d’ordre d à identifier. Dans le
cas où N1 = . . . = Nd = N , il faut donc identifier N d scalaires pour déterminer l’approximation
numérique de la fonction u.
On voit donc qu’approcher numériquement une fonction dépendant de d variables par des
approches naı̈ves ou standards nécessitent de résoudre des problèmes dont le nombre d’inconnues
dépend de manière exponentielle du nombre de variables dont la fonction dépend. Bien sûr,
lorsque d le nombre de variables est grand, de telles approches sont juste impossibles à mettre en
oeuvre numériquement: ce phénomène s’appelle la malédiction de la dimensionalité ou encore le
fléau de la dimension (curse of dimensionality en anglais), d’après le nom qui lui a été donné par
Richard Bellman en 1961. Il est alors nécessaire de faire appel à des méthodes numériques dédiées
pour la résolution des problèmes en grande dimension, qui permettent de réduire la complexité de
tels systèmes de manière systématique, tout en conservant une bonne qualité d’approximation des
modèles obtenus. Les méthodes de tenseurs qui font l’objet de ce cours sont une famille de méthodes
numériques dont l’objectif est précisément de contourner cette malédiction de la dimensionalité.
Donnons ici quelques exemples d’équations aux dérivées partielles dont les solutions sont des
fonctions dépendant d’un grand nombre de variables.
Un premier exemple d’équations aux dérivées partielles en grande dimension est l’équation de
Fokker-Planck. Celle-ci est en particulier extrêmement importante en physique statistique ou en
finance. Cette équation permet de modéliser la distribution de probabilités de la solution d’une
équation différentielle stochastique en dimension d ∈ N∗ .
Soit (Ω,F,P) un espace de probabilités et soit (Xt (ω))t≥0 un processus aléatoire à valeurs dans
Rd . Pour tout t ≥ 0 et tout ω ∈ Ω, on note Xt1 (ω), . . . ,Xtd (ω) les composantes de Xt (ω) de telle
sorte que Xt (ω) = (Xt1 (ω), . . . ,Xtd (ω)).
Supposons que le processus (Xt )≥0 soit solution d’ue équation différentielle stochastique de la
forme :
dXt = F (Xt ) dt + σ dBt (1.1)
où (Bt )t≥0 est un mouvement brownien en dimension d, σ > 0 et F : Rd → Rd est une application
régulière.
En physique statistique, le processus (Xt )t≥0 peut représenter l’évolution de la position des
atomes composant un système moléculaire. Si le système est composé de N atomes, on a alors
d = 3N . L’application F modélise alors le champ des forces exercées sur chacun des atomes et
σ > 0 représente un niveau de bruit stochastique qui est proportionnel à la valeur de la température
du système.
En finance, (Xt )t≥0 peut représenter l’évolution des prix d’un portefeuille d’actions au sens où
Xti représente le prix à l’instant t de l’action i du portefeuille.
1.3 Autres familles de méthodes numériques pour contrer la malédiction de la dimensionalité 3
Dans ces deux situations, connaı̂tre la distribution de probabilité u(t,x1 , . . . ,xd ) pour (t,x1 , . . . ,xd ) ∈
R+ × Rd du processus (Xt )t≥0 permet de pouvoir estimer toutes les propriétés statistiques de ce
dernier. Rappelons que u est définie comme la fonction (pour être parfaitement rigoureux, il s’agit
en réalité d’une mesure de probabilités) telle que pour tout ensemble mesurable B ⊂ Rd ,
ˆ
P [Xt ∈ B] = u(t,x1 , . . . ,xd ) dx1 . . . dxd .
B
Si (Xt )t≥0 est solution de l’équation différentielle stochastique (1.1), sa densité de probabilité
u est alors solution de l’équation de Fokker-Planck:
σ2
∂t u − ∆x1 ,...,xd u + divx1 ,...,xd (F u) = 0, dans R+ × Rd . (1.2)
2
En pratique, d peut être très grand (soit 3 fois le nombre d’atomes dans un système moléculaire,
soit le nombre d’actions dans le portefeuille). En conséquence, l’utilisation de méthodes numériques
classiques pour résoudre (1.2) est en général inenvisageable à cause de la malédiction de la dimen-
sionalité.
(R3 )d
ß
→ R
V :
(x1 , . . . ,xd ) 7→ V (x1 , . . . ,xd )
est de choisir optimalement l’espace vectoriel de petite dimension. Souvent, ce choix est fait en
utilisant des notions de sparsité. Dans des contextes où la grande dimension du problème est liée
au fait que l’on cherche à approcher la solution d’un modèle dépendant d’un grand nombre de
paramètres, la méthode des bases réduites offre une approche intéressante, en particulier lorsqu’il
s’agit d’approcher des problèmes elliptiques ou paraboliques. Le cours de M. Albert Cohen présente
une introduction à cette famille de méthodes.
La deuxième grande famille de méthodes est constituée des approches dites non-linéaires. Dans
ce type d’approches, on cherche à approcher les fonctions de grande dimension dans des ensembles
qui ne sont pas des espaces vectoriels, mais plus généralement des variétés. Les méthodes de
tenseurs qui font l’objet de ce cours sont une famille d’approches non-linéaires. Parmi celles-ci,
nous pouvons également citer les approches basées sur l’utilisation de réseaux de neurones et
d’apprentissage automatique. Le cours de M. Bruno Després présente une introduction à ce type
d’approches.
2.1 Préliminaires 5
2
Produits tensoriels d’espaces de Hilbert
Le but de ce chapitre est d’introduire les définitions fondamentales sur les notions de produits
tensoriels d’espaces de Hilbert. Deux cas particuliers attireront notre attention: les produits ten-
soriels d’espaces de dimension finie et les produits tensoriels d’espaces de fonctions comme les
espaces de Lebesgue.
2.1 Préliminaires
Nous rappelons au lecteur les notions d’espace complété d’espaces pré-hilbertiens et d’espaces
vectoriels normés (sous-entendu pour le corps des réels R).
2.1.1 Isométrie
Nous rappelons ici la définition d’une isométrie.
Définition 2.1. Soit (E,k · kE ) et (F,k · kF ) deux espaces vectoriels normés. On dit qu’une appli-
cation linéaire J : E → F est une isométrie si et seulement si elle préserve la norme, i.e.
∀u ∈ E, kJ(u)kF = kukE .
Faisons ici quelques remarques.
Remarque 2.1. Une isométrie est nécessairement une application injective. En effet, soit u ∈ E
telle que J(u) = 0. On a alors kukE = kJ(u)kF = 0 et nécessairement u = 0. Le noyau de J est
donc bien réduit à {0}.
En particulier, J : E → J(E), où J(E) désigne l’image de E par J définit un isomorphisme.
Définition 2.2. Soit (E,k · kE ) et (F,k · kF ) deux espaces vectoriels normés. On dit que ces deux
espaces sont isométriquement isomorphes si et seulement si il exsite une isométrie J : E → F
telle que J(E) = F . On dit que J est un isomorphisme isométrique et on note alors F ≈ E.
Remarque 2.2. On utilise très souvent l’abus de langage suivant: lorsque deux espaces vectoriels
normés (E,k · kE ) et (F,k · kF ) sont isométriquement isomorphes, on identifie souvent E à F et
on dit que ces espaces sont égaux ou identiques et on écrira (E,h·,·iE ) = (F,h·,·iF ). De plus, si
K ⊂ E est un sous-espace vectoriel de E, il pourra arriver d’écrire K ⊂ F , ce qui est un abus de
langage pour signifier plus précisément J(K) ⊂ F où J est une isométrie de E dans F telle que
J(E) = F .
On rappelle ici qu’un espace pré-hilbertien est un espace vectoriel muni d’un produit scalaire,
mais qui n’est pas nécessairement complet pour la norme associée. Un espace vectoriel muni d’un
produit scalaire qui est complet pour la norme associée est un espace de Hilbert.
Proposition 2.1. Soit (E,h·,·iE ) et (F,h·,·iF ) deux espaces pré-hilbertiens. Alors une application
linéaire J : E → F est une isométrie si et seulement si elle préserve le produit scalaire, i.e.
6 2 Produits tensoriels d’espaces de Hilbert
Démonstration. La preuve est une conséquence directe des identités de polarisation pour les es-
paces pré-hilbertiens: si (E,h·,·iE ) est un espace pré-hilbertien et si on note k · kE la norme associée
au produit scalaire h·,·iE , alors on a
ku + vk2E − ku − vk2E
∀u,v ∈ E, hv,uiE := .
4
Définition-Théorème 2.1. Soit H0 un espace pré-hilbertien muni d’un produit scalaire h·,·iH0 ,
dont on note k · kH0 la norme associée. Alors, il existe un espace de Hilbert H (muni d’un produit
scalaire h·,·iH et de la norme associée k · kH ) et une isométrie J : H0 → H tels que J(H0 ) est
dense dans H.
L’espace de Hilbert H est unique à isomorphime isométrique près et est appelé le complété de
H0 .
Remarque 2.3. En identifiant l’espace H0 à son image par J, J(H0 ), on peut alors écrire H0 ⊂ H
(en utilisant un léger abus de notation).
Démonstration. Nous ne prouverons ici ce résultat que dans le cas où H0 est un espace pré-
hilbertien séparable.
Soit K ⊂ N et (ek )k∈K un système orthonormé de H0 tel que l’ensemble des combinaisons
linéaires finies de {ek }k∈K soit dense dans H0 . On note H00 l’espace dual de H0 , c’est-à-dire
l’ensemble des formes linéaires f : H0 → R continues, i.e. telles que
Lemme 2.1. L’espace H00 est un espace de Hilbert séparable par rapport au produit scalaire
X
∀f,g ∈ H00 , (f,g)H00 = f (ek )g(ek ),
k∈K
Soit H l’espace dual de H00 . Alors H est aussi un espace de Hilbert. On note J : H0 → H
l’application linéaire qui à un élément v0 ∈ H0 renvoie la fonctionnelle Fv0 ∈ H = (H00 )0 telle que
Montrons que J est une application bijective de H0 dans J(H0 ) qui préserve le produit scalaire.
En effet, il est facile de vérifier que pour tout v0 ∈ H0 ,
Cette relation implique en particulier que le noyau de J est réduit à {0} et que J est donc
injective. Elle est donc bijective de H0 dans J(H0 ). Par ailleurs, on peut vérifier que J préserve
bien le produit scalaire en utilisant l’identité de polarisation.
Il nous reste à montrer que J(H0 ) est dense dans H. Supposons qu’il existe F ∈ H tel que
hF,J(v0 )iH = 0 pour tout v0 ∈ H0 . Si {fj }j∈N est une base orthonormée de H00 , alors on a
2.1 Préliminaires 7
X
hF,J(v0 )iH = F (fj )J(v0 )(fj )
j∈N
X
= F (fj )fj (v0 )
j∈N
= 0.
Comme cette relation est vraie pour tout v0 ∈ H0 , cela implique que j∈N F (fj )fj = 0 dans H00 .
P
Ceci implique alors que F (fj ) = 0 pour tout j ∈ N et donc F = 0. L’espace J(H0 ) est donc bien
dense dans H.
Montrons maintenant que H est unique à isométrie près. Soit H ‹ un espace de Hilbert et
J : H0 → H une isométrie telle que J(H0 ) soit dense dans H.
e ‹ e ‹
On considère alors l’application S : J(H0 ) → J(He 0 ) comme S = Je◦ J −1 où J −1 : J(H0 ) → H0
est l’inverse de l’application J restreinte à J(H0 ). Il est facile de voir que S est alors une isométrie.
C’est donc une application continue et on peut l’étendre de manière unique en une application
S : J(H0 ) = H → J(H e 0) = H ‹ dont on peut facilement vérifier qu’elle est une isométrie. D’où le
résultat.
Démonstration (Preuve du Lemme 2.1). Montrons d’abord que pour tout f ∈ H00 , kf k2H 0 =
0
(f,f )H00 .
Montrons d’abord que pour tout f ∈ H00 , (f,f )H00 ≤ kf k2H 0 .
P 0
Pour tout K ∈ N, on note vK := k∈K,k≤K f (ek )ek . On a alors
X
kvK k2H0 = |f (ek )|2 .
k∈K,k≤K
De plus, X
f (vK ) = |f (ek )|2 .
k∈K,k≤K
Montrons l’inégalité inverse. Soit > 0 et soit v0 ∈ H0 tel que kv0 kH0 = 1 et |f (v0 )| ≥ kf kH00 −.
On a alors v0 = k∈K hek ,v0 iH0 ek avec k∈K |hek ,v0 iH0 |2 = 1.
P P
Comme f est une forme linéaire continue, on peut montrer que
X
f (v0 ) = hek ,v0 if (ek ),
k∈K
Montrons maintenant que H00 munit de ce produit scalaire est un espace de Hilbert. Il suffit
donc de montrer qu’il est complet pour la norme associé.
Soit (fn )n∈N une suite de Cauchy dans H00 . Il est aisé de voir que pour tout v0 ∈ H0 , la suite
(fn (v0 ))n∈N est alors une suite de Cauchy dans R qui est complet. Elle est donc convergente et on
note sa limite f (v0 ). Montrons que l’application f : H0 3 v0 7→ f (v0 ) appartient à H00 et que la
suite (fn )n∈N converge vers f dans H00 . Il est aisé de voir que f est une application linéaire. De
plus, comme (fn )n∈N est de Cauchy dans H00 , elle est bornée et il existe une constante C > 0 telle
que pour tout n ∈ N, kfn kH00 ≤ C. Il est aisé de vérifier que nécessairement pour tout v0 ∈ H0 ,
|f (v0 )| ≤ Ckv0 kH0 ce qui implique bien que f ∈ H00 .
On a par ailleurs
soit
∀ > 0, ∃N ∈ N, ∀n ≥ N , ∀p ≥ 0, ∀v0 ∈ V0 , |fn (v0 ) − fn+p (v0 )| ≤ kv0 kH0 .
Ceci implique que
soit encore
∀ > 0, ∃N ∈ N, kfn − f kH00 ≤ .
La suite (fn )n∈N converge donc bien vers f dans H00 , donc H00 est bien un espace de Hilbert.
Il reste à montrer qu’il est séparable. Pour ce faire, il suffit de montrer que l’ensemnle {fk }k∈K
des formes linéaires continues sur H0 définies par
fk (el ) = δkl
Ce résultat peut être étendu de manière plus général à des espaces vectoriels normés. Plus
précisément, nous admettrons le théorème ci-dessous.
Définition-Théorème 2.2. Soit V0 un espace vectoriel normé muni d’une norme k · k. Alors, il
existe un espace de Banach V (muni d’une norme k · kV ) et une isométrie J : V0 → V tels que
J(V0 ) soit dense dans V .
L’espace de Banach V est unique à isomorphisme isométrique près et est appelé le complété
de V0 .
2.2.1 Définition
Soit H1 , H2 deux espaces de Hilbert sur R, munis respectivement des produits scalaires h·,iH1
et h·,·iH2 . Pour tout u1 ∈ H1 et tout u2 ∈ H2 , on note u1 ⊗ u2 : H1 × H2 → R la forme bilinéaire
continue définie par
∀v1 ∈ H1 , ∀v2 ∈ H2 , u1 ⊗ u2 (v1 ,v2 ) := hu1 ,v1 iH1 hu2 ,v2 iH2 .
N
Soit H1 a H2 l’espace vectoriel engendré par ces formes (i.e. l’ensemble des combinaisons
linéaires finies de telles formes). Cet espace vectoriel est également appelé produit tensoriel algébrique
des espaces H1 et H2 . N N N
On munit l’espace H1 a H2 de la forme hermitienne h·,·i⊗ : (H1 a H2 ) × (H1 a H2 ) → R
définie par
∀u1 ,v1 ∈ H1 , ∀u2 ,v2 ∈ H2 , hu1 ⊗ u2 ,v1 ⊗ v2 i⊗ := hu1 ,v1 iH1 hu2 ,v2 iH2
= u1 ⊗ u2 (v1 ,v2 ).
N
et étendue
N à tout l’espace H1 a H2 par bilinéarité. En particulier, on a que pour tout η ∈
H1 a H2 , et pour tout v1 ∈ H1 et v2 ∈ H2 ,
ce qui implique que hη,ηi⊗ ≥ 0 et hη,ηi⊗ = 0 si et seulement si dk1 ,k2 = 0 pour tout 1 ≤ k1 ≤ K1
et 1 ≤ k2 ≤ K2 . D’où le résultat.
On appelle la norme k · k⊗ norme produit croisé (cross product en anglais) ou norme canonique.
Définition
N 2.3. On définit le produit tensoriel
N (canonique) des espaces H1 et H2 comme le complété
de H1 a H2 muni, et on note celui-ci H1 H2 .
N
Remarque 2.5. Par définition, H1 H2 est donc un espace de Hilbert.
Proposition 2.3. Soit I,J ⊂ N deux sous-ensembles de N et soit (ei )i∈I une base orthonor-
N une base orthonormale de H2 . Alors (ei ⊗ fj )(i,j)∈I×J forme une base
male de H1 et (fj )j∈J
orthonormale de H1 H2 .
Démonstration.
N Le fait que l’ensemble {ei ⊗ fj , (i,j) ∈ I × J } forme une famille orthonormale de
H1 H2 est clair par définition.
Soit S l’espace vectoriel engendré par cet ensembleN (l’ensemble des combinaisons linéaires finies
de ces éléments). Montrons que S est dense dans H1 H2 .
N k·k⊗ k·k⊗
Montrons tout d’abord que H1 a H2 ⊂ S où S désigne la fermeture de S pour la
norme k · k⊗ . Soit u ∈ H1 et v ∈ H2 et soit (αi )i∈I ∈ RI et (βj )j∈J ∈ RJ tels que
X X
u= αi ei et v = βj f j .
i∈I j∈J
On a alors en particulier
X X
kuk2H1 = |αi |2 < +∞ and kvk2H2 = |βj |2 < +∞.
i∈I j∈J
En conséquence, on a que X
|αi βj |2 < +∞,
(i,j)∈I×J
et X
αi βj ei ⊗ fj
(i,j)∈I×J
N
Cette quantité tend donc bien vers 0N
lorsque I et J tendent vers N
l’infini. L’ensemble H1 a H2 est
donc bien
Ninclus dans S. Comme H1 H2 est le complété de H1 a H2 , on a donc nécessairement
que H1 H2 = S. D’où le résultat.
2.2 Produits tensoriels d’espaces de Hilbert 11
η(u1 ,u2 )
kηkL2 (H1 ,H2 ) = sup
u1 ∈H1 ,u2 ∈H2 ku1 kH1 ku2 kH2
hη,u1 ⊗ u2 i⊗
= sup
u1 ∈H1 ,u2 ∈H2 ku1 ⊗ u2 k⊗
hη,ξi⊗
≤ sup
ξ∈H1
N
H2 kξk⊗
≤ kηk⊗ .
Comme L2 (H1 ,H2 ) est N un espace de Banach, il est par conséquent aisé de montrer par densité
que nécessairement, H1 H2Nest un sous-espace vectoriel de L2 (H1 ,H2 ) et que l’inégalité (2.1)
est vérifiée pour tout η ∈ H1 H2 .
Attention cependant, il n’y a pas égalité entre ces normes ni entre ces espaces (sauf dans le cas
où H1 et H2 sont de dimension finie).
En effet, supposons que H1 = H2 = H et que l’espace de Hilbert H soit de dimension infinie.
Soit (ei )i∈N une base hilbertienne de H.
Soit a : H × H → R la forme bilinéaire définie par
X
∀u,v ∈ H, a(u,v) = hu,ei iH hv,ei iH .
i∈N
kak⊗ = +∞.
Pour ceux qui désirent aller plus loin et qui suivent ou ont suivi le cours de théorie spectrale,
on peut montrer qu’on peut identifier L2 (H,H) avec N l’ensemble des opérateurs linéaires bornés
(continus) de H dans H. Par ailleurs, l’espace H H peut être identifié avec l’ensemble des
opérateurs de Hilbert-Schmidtde H dans H.
∗
Remarque N 2.6. N Soit d ∈ N et H1 , . . . ,Hd d espaces de Hilbert. On définit le produit tenso-
riel H1 . . . Hd de la même manière que ce qui a été décrit précédemment pour le cas de
deuxNespaces
N de [Link] plus, N pour toute permutation σ de l’ensemble {1, . . . ,d}, on a que
H1 . . . Hd = Hσ(1) . . . Hσ(d) (à isométrie près).
Soit I1 , . . . ,Id ⊂ N des sous-ensembles de N et pour tout 1 ≤ j ≤ d, soit {ejij }ij ∈Ij une
base hilbertienne deNHj . Alors
N l’ensemble
N {e1i1 ⊗ e2i2 × . . . × edid }i1 ∈I1 ,i2 ∈I2 ,...,id ∈Id forme une base
hilbertienne de H1 H2 . . . Hd .
12 2 Produits tensoriels d’espaces de Hilbert
Le but de cette section est de faire le lien entre la définition abstraite des produits tensoriels
d’espaces introduite à la section précédente et aux notions de tenseurs classiques dans le cas où
on considère des espaces de dimension finie.
Soit N1 ,N2 ∈ N∗ et considérons H1 = RN1 et H2 = RN2 muni chacun de leur norme euclidienne
canonique. Nous allons montrer la proposition suivante.
Proposition 2.5. L’espace RN1 ⊗ RN2 est isométriquement isomorphe à RN1 ×N2 muni du produit
scalaire de Frobenius, défini par
Remarque 2.7. Le produit scalaire de Frobenius entre deux matrices A,B ∈ RN1 ×N2 est parfois
noté hA,BiF = A : B. On l’appelle aussi le produit doublement contracté de A par B.
Exercice 2.2. Soit A := (Aij )1≤i≤N1 ,1≤j≤N2 ,B := (Bij )1≤i≤N1 ,1≤j≤N2 ∈ RN1 ×N2 . Montrer que
N1 X
X N2
hA,BiF = Aij Bij
i=1 j=1
et prouver que h·,·iF définit bien un produit scalaire sur RN1 ×N2 .
Soit (e1 , . . . ,eN1 ) la base canonique de H1 et (f1 , . . . ,fN2 ) la base canonique de H2 . D’après
la Proposition 2.3, on sait alorsNque {ei ⊗ fj }1≤i≤N1 ,1≤j≤N2 forme une base orthonormale de
RN1
N N2
R . En particulier, RN1 RN2 muni de la norme produit est un espace vectoriel de di-
mension N1 × N2 .
Définissons l’application
RN1 ×N2
®
RN1
N N2
R →
J : PN1 PN2
i=1 j=1 uij ei ⊗ fj 7→ (uij )1≤i≤N1 ,1≤j≤N2 .
Exercice 2.3. (1) Montrer que pour tout u = (ui )1≤i≤N1 ∈ RN1 et tout v = (vj )1≤j≤N2 ,
∀1 ≤ i ≤ N1 , 1 ≤ j ≤ N2 , J(u ⊗ v)ij = ui vj .
En déduire que
J(u ⊗ v) = uT v.
(2) Montrer que J est un isomorphisme isométrique.
On peut donc identifier RN1 R avec RN1 ×N2 muni du produit scalaire de Frobenius.
N N2
Proposition 2.6. Soit d ∈ N∗ , N1 , . . . ,Nd ∈ N∗ . On suppose N qu’on N munit RN1 , . . . ,RNd de leur
N1
produit scalaire euclidien canonique. Le produit tensoriel R . . . RNd est isométriquement
N1 ×...×Nd
isomorphe à R muni du produit scalaire de Frobenius suivant: pour tout A = (Ai1 ,...,id )1≤i1 ≤N1 ,...,1≤id ≤Nd ,B =
(Bi1 ,...,id )1≤i1 ≤N1 ,...,1≤id ≤Nd ∈ RN1 ×...×Nd ,
N1
X Nd
X
hA,BiF := ... Ai1 ,...,id Bi1 ,...,id .
i1 =1 id =1
2.2 Produits tensoriels d’espaces de Hilbert 13
Le but de cette section est de faire le lien entre les produits tensoriels d’espaces de fonctions et
des espaces fonctionnels que vous connaissez mieux, à savoir les espaces de Lebesgue et les espaces
de Sobolev.
Dans toute la suite de cette section, nous noterons Ω1 ⊂ Rp1 , Ω2 ⊂ Rp2 , ..., Ωd ⊂ Rpd des
ensembles ouverts avec p1 , · · · ,pd ∈ N∗ et soit Ω := Ω1 × · · · × Ωd .
Nous aurons besoin du résultat préliminaire suivant, qui énonce un résultat de densité dans
∞
l’espace des fonctions
N CN à support compact.
Soit D(Ω1 ) a · · · a D(Ωd ) le sous-ensemble de D(Ω) des combinaisons linéaires finies de
fonctions de la forme φ1 ⊗ · · · ⊗ φd où φ1 ∈ D(Ω1 ), ..., φd ∈ D(Ωd ) et où
ß
Ω = Ω1 × · · · × Ωd → R
φ1 ⊗ · · · ⊗ φd :
(x1 , · · · ,xd ) 7→ φ1 (x1 ) · · · φd (xd ).
k∂ α φ − ∂ α φn kL∞ (Ω) −→ 0.
n→+∞
La preuve de ce résultat repose sur le résultat suivant qui est une extension du théorème de
Stone-Weierstrass, dont nous ne rappellerons pas la preuve ici.
k∂ α f − ∂ α Pn kL∞ (K) −→ 0.
n→+∞
Démonstration. Pour simplifier, nous ne prouvons ce résultat ici que dans le cas où d = 2, mais
la preuve s’étend aisément au cas où d est un entier quelconque.
Soit φ ∈ D(Ω1 × Ω2 ). Il existe alors K ⊂ Ω1 et L ⊂ Ω2 deux sous-ensembles compacts tels que
Supp φ ⊂ K × L. On définit également deux fonctions η1 ∈ D(Ω1 ) et η2 ∈ D(Ω2 ) telles que η1 = 1
sur K et η2 = 1 sur L. On note également K ‹ le support de η et L e le support de η2 , qui vérifient
K⊂K ‹ et L ⊂ L.
e Il est aisé de vérifier qu’on a alors φ(x1 ,x2 ) = φ(x1 ,x2 )η1 (x1 )η2 (x2 ) pour tout
(x1 ,x2 ) ∈ Ω1 × Ω2 . Autrement dit φ = φη1 ⊗ η2 .
D’après le théorème de Stone-Weierstrass, comme le domaine K × L est un sous-domaine
compact de Rp1 × Rp2 , il exsiste une suite de fonctions polynômiales (Pn )n∈N telles que pour tout
α ∈ Np1 +p2 avec |α| ≤ q,
k∂α φ − ∂α Pn kL∞ (K×
f L) −→ 0.
n→+∞
‹
‹×L
En particulier, ceci implique, puisque φ = 0 sur K e \ K × L, que
D’autre part, on a
Nous allons voir dans la suite de cette section comment ce résultat permet d’identifier natu-
rellement les produits tensoriels d’espaces fonctionnels classiques comme les espaces de Lebesgue
et les espaces de Sobolev.
Espaces de Lebesgue L2
J(u1 ⊗ u2 )(x1 ,x2 ) = u1 (x1 )u2 (x2 ) pour presque tout (x1 ,x2 ) ∈ Ω1 × Ω2 .
(3) En déduire que l’espace H1 H2 est isométriquement isomorphe à la fermeture dans L2 (Ω1 ×
N
PK
Ω2 ) de l’ensemble des fonctions qui s’écrivent sous la forme Ω1 ×Ω2 3 (x1 ,x2 ) 7→ k=1 ck u1k (x1 )u2k (x2 )
pour K ∈ N∗ et ck ∈ R, u1k ∈ L2 (Ω1 ) et u2k ∈ L2 (Ω2 ) pour tout 1 ≤ k ≤ K.
(4) Montrer que H1 H2 est isométriquement isomorphe à L2 (Ω1 ×Ω2 ) en utilisant la Proposition 2.7.
N
Théorème 2.2. Le produit tensoriel L2 (Ω1 ) L2 (Ω2 ) est isométriquement isomorphe à L2 (Ω1 ×
N
Ω2 ).
Nous identifierons les deux espaces par la suite et nous utiliserons la notation u1 ⊗ u2 pour
désigner J(u1 ⊗ u2 ) ∈ L2 (Ω1 × Ω2 ).
Le Théorème 2.5 peut se généraliser dans le cas du produit tensoriels de d espaces de Lebesgue
avec d ∈ N∗ .
∗ pj
Théorème 2.3. Soit d ∈ NN N 2tout 1 ≤ j ≤ d, soit Ωj un sous-ensemble2 borélien de R
et pour
∗ 2
avec pj ∈ N . Alors L (Ω1 ) · · · L (Ωd ) est isométriquement isomorphe à L (Ω1 × · · · × Ωd ).
2.2 Produits tensoriels d’espaces de Hilbert 15
Espaces de Bochner
L’espace L2µ
(Ω; V ) est appelé un espace de Bochner. Il s’agit d’un espace de Hilbert, muni du
produit scalaire suivant:
ˆ
∀u,v ∈ L2µ (Ω; V ) , hv,uiL2µ (Ω;V ) := hv(t),u(t)iV dµ(t).
Ω
et H2 = V .
On considère une application linéaire J : H1 a H2 → L2µ (Ω; V ) définie comme suit (puis
N
étendue par linéarité): pour tout u ∈ L2µ (Ω) et pour tout v ∈ V , J(u⊗v) est la fonction appartenant
à L2µ (Ω; V ) telle que
(3) En déduire que l’espace H1 H2 est isométriquement isomorphe à la fermeture dans L2µ (Ω; V )
N
PK
de l’ensemble des fonctions qui s’écrivent sous la forme Ω 3 t 7→ k=1 ck uk (t)vk pour K ∈ N∗
et ck ∈ R, uk ∈ L2µ (Ω) et vk ∈ V pour tout 1 ≤ k ≤ K.
(4) En admettant que l’ensemble des combinaisons linéaires finies de fonctions de la forme N Ω3
t 7→ φ(t)v avec φ ∈ D(Ω) et v ∈ V sont denses dans L2µ (Ω; V ), en déduire que H1 H2 est
isométriquement isomorphe à L2µ (Ω; V ).
Théorème 2.4. Le produit tensoriel L2µ (Ω) V est isométriquement isomorphe à L2µ (Ω; V ).
N
Espaces de Sobolev
L’objet de cette section est d’attirer votre attention sur le cas particulier des espaces de Sobolev,
qui est différent de celui des espaces de Lebesgue vu précédemment.
On considère H1 = H01 (Ω1 ) et H2 = H01 (Ω2 ) munis de leurs produits scalaires. On rappelle
que ˆ ˆ
∀u1 ,v1 ∈ H01 (Ω1 ), hv1 ,u1 iH01 (Ω1 ) := v1 u1 + ∇v1 · ∇u1 .
Ω1 Ω1
J(u1 ⊗ u2 )(x1 ,x2 ) = u1 (x1 )u2 (x2 ) pour presque tout (x1 ,x2 ) ∈ Ω1 × Ω2 .
L’espace H01 (Ω1 ) H01 (Ω2 ) n’est donc pas isométriquement isomorphe à H01 (Ω1 × Ω2 )! On
N
peut cependant identifier cet espace avec un autre espace de Sobolev, appelé espace de Sobolev
avec dérivées mixtes.
Plus précisément, on définit
1
(Ω1 × Ω2 ) := u ∈ H 1 (Ω1 × Ω2 ), ∂x1 ∂x2 u ∈ L2 (Ω1 × Ω2 ) .
Hmix
1 1
On munit alors l’espace Hmix (Ω1 ×Ω2 ) du produit scalaire suivant: pour tout u,v ∈ Hmix (Ω1 ×Ω2 ),
ˆ
hv,uiHmix
1 (Ω1 ×Ω2 ) := vu + ∇v · ∇u + ∂x1 ∂x2 v∂x1 ∂x2 u.
Ω1 ×Ω2
1
Exercice 2.7. Montrer que Hmix (Ω1 × Ω2 ) est un espace de Hilbert muni de ce produit scalaire.
1
On définit l’espace H0,mix (Ω1 × Ω2 ) comme la fermeture de l’ensemble des fonctions C ∞ à
1
support compact D(Ω1 × Ω2 ) dans l’espace Hmix (Ω1 × Ω2 ).
1
N
Exercice 2.8. (1) Montrer que J (H1 a H2 ) est inclus dans H0,mix (Ω1 × Ω2 ).
Ä ä
1
N
(2) Montrer que J est une isométrie de (H1 a H2 ,h·,·i⊗ ) dans H0,mix (Ω1 × Ω2 ),h·,·iHmix
1 (Ω1 ×Ω2 ) .
1
N N
(3) Montrer que J (H1 a H2 ) est dense dans H0,mix (Ω1 × Ω2 ). En déduire que H1 H2 est
1
isométriquement isomorphe à H0,mix (Ω1 × Ω2 ).
Nous avons donc montré le résultat suivant:
Théorème 2.5. Le produit tensoriel H01 (Ω1 ) H01 (Ω2 ) est isométriquement isomorphe à H0,mix
1
N
(Ω1 ×
Ω2 ).
Attention! Le produit tensoriel H01 (Ω1 ) H01 (Ω2 ) n’est donc pas isométriquement isomorphe
N
à H01 (Ω1 × Ω2 )! Méfiez-vous!
• Norme injective:
z(u1 ,u2 )
kzk∨ := sup hz,u1 ⊗ u2 i⊗ = sup .
ku k ku k
u1 ∈ H1 , u2 ∈ H2 , u1 ∈ H1 , u2 ∈ H2 1 H1 2 H2
ku1 ⊗ u2 k⊗ = 1
N
On peut aisément voir que k · k∧ et k · k∨ définissent des
N normes sur H1 a H2 (non associées
à des produits scalaires) et que l’on a, pour tout z ∈ H1 a H2 ,
Remarque 2.8. Attention! Hormis dans le cas où les espaces H1 et H2 sont de dimension finie,
il n’y a en général pas d’égalité entre ces différents espaces.
Proposition 2.9. Soit H1 et H2 deux espaces de Hilbert séparables. Soient A et B deux opérateurs
N et compacts sur H1 et H2 respectivement. Alors A ⊗ B est un opérateur compact sur
bornés
H1 H2 .
∀u1 ,v1 ∈ H1 , ∀u2 ,v2 ∈ H2 , a ⊗ b(v1 ⊗ v2 ,u1 ⊗ u2 ) = a(v1 ,u1 )b(v2 ,u2 )
N N
et étendue à tout (H1 a H2 ) × (H1 a H2 ) par sesquilinéarité.
N N
Proposition 2.10. La forme sesquilinéaire a ⊗ b est continue sur (H1 a H2 ) × (H1 a H2 )
et peut
N être étendue
N par continuité de manière unique à une forme sesquilinéaire continue sur
(H1 H2 ) × (H1 H2 ). On note également cette forme a ⊗ b.
La suite et fin de cette section n’est pas à lire en première lecture. Il s’agit de compléments
pour ceux d’entre vous qui suivent le cours de Théorie Spectrale. On ne suppose plus ici que A et
B soient des opérateurs bornés, mais uniquement à domaines denses.
Soit A un opérateur Nsur H1 de domaine dense D(A) et B un opérateur sur H N2 de domaine dense
D(B). Soit D := D(A) a D(B). Il est alors clair N que D est dense dans H 1 H2 par définition.
On peut alors définir l’opérateur A ⊗ B sur H1 H2 , de domaine D tel que
Définition 2.6. • Un opérateur non borné T sur un espace vectoriel normé X à valeurs dans
un espace vectoriel normé Y , de domaine D(T ) dense dans X est dit fermé si et seulement
si son graphe, c’est-à-dire l’ensemble {(x,y) ∈ D(T ) × Y, y = T x}, est un sous-ensemble fermé
de X × Y .
• Un opérateur non borné T sur un espace vectoriel normé X à valeurs dans un espace vectoriel
normé Y , de domaine D(T ) dense dans X est dit fermable si et seulement si l’adhérence de
son graphe dans X × Y est le graphe d’un opérateur fermé noté T . L’opérateur T est alors
unique et appelé la fermeture de l’opérateur T .
On rappelle ici quelques caractérisations séquentielles utiles des opérateurs fermés et fermables.
Proposition 2.11. • L’opérateur T est fermé si et seulement si pour toute suite (xn )n∈N dans
D(T ) admettant dans X une limite x et telle que la suite (T (xn ))n∈N converge dans Y vers
une limite y, alors on a x ∈ D(T ) et y = T (x).
• L’opérateur T est fermable si et seulement si pour toute suite (xn )n∈N dans D(T ) convergeant
vers 0 et que la suite (T (xn ))n∈N converge dans Y vers une limite y, alors on a y = 0.
3
Décomposition orthogonale propre
TO COMPLETE
4.1 Algorithme glouton 21
4
Algorithmes gloutons
Nous avons vu dans un chapitre précédent comment la méthode POD pouvait être utilisée
pour compresser un tenseur ou une fonction en grande dimension. On a enNparticulier vu qu’elle
permettait d’obtenir une approximation optimale d’un tenseur u ∈ H1 H2 appartenant au
produit tensoriel canonique de deux espaces de Hilbert par des tenseurs de rang plus petit ou égal
à un certain entier r choisi, au moyen des décompositions POD tronquées de ce tenseur.
Cependant, la POD se heurte aux limitations intrinsèques suivantes:
(1) La décomposition POD nécessite de connaı̂tre le tenseur u pour être calculée: elle peut être
utile pour compresser un tenseur connu mais pas pour résoudre une EDP dont on ne connaı̂t
pas la solution;
(2) Il n’existe pas d’équivalent de la décomposition POD dans N leNcas où N u est un élément du
produit tensoriel de plus de trois espaces de Hilbert H1 H2 · · · Hd ; cela peut être un
problème lorsque l’on cherche à approcher des fonctions de plus de trois variables;
(3) enfin, la solution u d’EDPs classiques peut appartenir à des espaces de fonctions qu’on ne
peut pas identifier comme des produits tensoriels canoniques d’espaces de fonctions dépendant
uniquement d’une variable. Plus précisément, considérons par exemple u ∈ H01 (Ω1 × · · · × Ωd )
l’unique solution du problème de Laplace:
ß
−∆x1 ,··· ,xd u(x1 , · · · ,xd ) = f (x1 , · · · ,xd ), pour (x1 , · · · ,xd ) ∈ Ω := Ω1 × · · · × Ωd ,
u(x1 , · · · ,xd ) = 0, pour (x1 , · · · ,xd ) ∈ ∂Ω.
1
Nous avons vu au N
1
N 2 1que H0 (Ω1 × · · · × Ωd ) n’est pas égal au produit tensoriel
chapitre
canonique H0 (Ω1 ) · · · H0 (Ωd ).
Les algorithmes gloutons sont une première famille de méthodes numériques qui permettent de
contourner ces limitations de la POD pour calculer des approximations de rang faible de fonctions
dépendant d’un grand nombre de variables. Le prix à payer est que ces approximations ne jouiront
pas des mêmes propriétés d’optimalité que celles des décompositions POD tronquées que nous
avons vues au chapitre précédent. Nous allons en particulier illustrer ces algorithmes gloutons sur
l’exemple de la résolution du problème de Laplace mentionné ci-dessus.
∀v ∈ V, a(u,v) = l(v).
où
1
∀v ∈ V, E(v) := a(v,v) − l(v).
2
La fonction u est alors de manière équivalente l’unisue solution du problème variationnel sui-
vant:
∀v ∈ V, a(u,v) = l(v),
avec V := H01 (Ω1 × · · · × Ωd ), et pour tout v,w ∈ V ,
ˆ
l(v) := f v,
ˆΩ
a(v,w) := ∇x1 ,··· ,xd v · ∇x1 ,··· ,xd w
Ω
d ˆ
X
= ∇xi v · ∇xi w.
i=1 Ω
4.1.2 Dictionnaire
L’ingrédient essentiel d’un algorithme glouton pour la résolution de problèmes de type Lax-
Milgram comme celui évoqué ci-dessus est la notion de dictionnaire. Nous en donnons la définition
ci-dessous.
Remarque 4.1. L’ensemble Σ est un ensemble faiblement fermé si et seulement si pour toute suite
(zn )n∈N d’éléments de Σ convergeant faiblement dans V vers un élément z de V , alors z appartient
nécessairement à Σ. Si un ensemble est faiblement fermé dans V , alors il est nécessairement fermé
(au sens de la convergence forte) dans V . Cependant, la contraposée est fausse. Un ensemble
(fortement) fermé dans V peut ne pas être faiblement fermé dans V . La faible fermeture est donc
une notion plus exigeante que la notion de fermeture habituelle au sens de la convergence forte.
Nous donnons ci-dessous quelques exemples simples de dictionnaires, ainsi que d’ensembles qui
ne sont pas des dictionnaires.
Nous considèrerons deux cas particuliers:
1 1 1
(a) soit V := NH0 (Ω N1 × · · · × Ωd ) et V1 := H0 (Ω1 ), ..., Vd := H0 (Ωd ). Attention, on rappelle ici que
V 6= V1 · · · Vd !
N N
(b) soit V1 , · · · ,Vd sont des espaces de Hilbert quelconques et V = V1 · · · Vd . Un exemple de
telle situation est lorsque V = L2 (Ω1 × · · · × Ωd ), V1 = L2 (Ω1 ), ..., Vd = L2 (Ωd ).
Considérons tout d’abord ici le cas où le dictionnaire est l’ensemble constitué des produits
tensoriels purs dans le cas (a) ou (b). Plus précisément, on note
Σ1 := r1 ⊗ · · · ⊗ rd , r1 ∈ V1 , · · · , rd ∈ Vd
Soit R ∈ N∗ tel que R ≥ 2. Considérons maintenant le cas où d = 2 et où le dictionnaire est
l’ensemble constitué des tenseurs de rang canonique plus petit que R. Ici, la situation est différente
dans le cas (a) ou dans le cas (b). Plus précisément, on note
( R )
X
1 2 1 2
ΣR := rk ⊗ rk , rk ∈ V1 , rk ∈ V2 , 1 ≤ k ≤ R
k=1
Soit R ∈ N∗ tel que R ≥ 2. Considérons maintenant le cas général où d ≥ 3 et où le dictionnaire
est l’ensemble constitué des tenseurs de rang canonique plus petit que R. Ici, la situation est
différente dans le cas (a) ou dans le cas (b). Plus précisément, on note
( R )
X
1 d 1 d
ΣR := rk ⊗ · · · ⊗ rk , rk ∈ V1 , · · · , rk ∈ Vd , 1 ≤ k ≤ R
k=1
(m)
De même, l’unique solution sn ∈ V2 de (4.11) est également l’unique solution de
s(m)
n = argmin Jn−1 (rn(m) ,s) = argmin E(un−1 + rn(m) ⊗ s).
s∈V2 s∈V2
En pratique, on observe numériquement que cet algorithme de point fixe converge très souvent
exponentiellement vite en fonction du nombre d’itérations m.
avec f ∈ L2 ((0,1)2 ), sous la forme d’une somme de fonctions produits tensoriels, i.e. sous la forme
n
X n
X
u(x1 ,x2 ) ≈ rk ⊗ sk (x1 ,x2 ) = rk (x1 )sk (x2 ),
k=1 k=1
où chaque terme apparaissant dans la somme ci-dessus est calculé de manière itérative, et où pour
tout 1 ≤ k ≤ n, rk ,sk ∈ H01 (0,1).
Dans ce cas, en particulier, V1 = V2 = H01 (0,1) et V = H01 ((0,1)2 ). De plus, pour tout v,w ∈ V ,
ˆ
a(v,w) = ∂x1 v∂x1 w + ∂x2 v∂x2 w
(0,1)2
et ˆ
l(v) = f v.
(0,1)2
4.2 Cas de la résolution de l’équation de Laplace 27
Dans cette section, nous allons présenter en détails comment l’algorithme glouton pur et l’al-
gorithme des directions alternées présenté précédemment pour des problèmes de Lax-Milgram
généraux peut être mis en oeuvre en pratique dans le cas de l’équation de Laplace.
Dans ce cas particulier, l’algorithme glouton s’écrit comme suit:
• Initialisation: Soit u0 (x1 ,x2 ) := 0.
• Itération n ≥ 1: On choisit rn ,sn ∈ H01 (0,1) comme une solution du problème de minimisation
A l’itération n de l’algorithme, on recherche donc un couple (rn ,sn ) ∈ (H01 (0,1))2 solution du
problème de minimisation
Pn−1
où un−1 (x1 ,x2 ) = k=1 rk (x1 )sk (x2 ) est la somme des termes calculés aux itérations précédentes.
∗
Pour tout n ∈ N , on définit l’application Jn−1 : H01 (0,1) × H01 (0,1) → R comme suit:
On rappelle que l’espace H01 (0,1) × H 1 (0,1), muni du produit scalaire défini par
∀(r1 ,s1 ),(r2 ,s2 ) ∈ H01 (0,1)×H01 (0,1), h(r1 ,s2 ),(r2 ,s2 )iH01 (0,1)×H01 (0,1) := hr1 ,r2 iH01 (0,1) +hs1 ,s2 iH01 (0,1) ,
(2) Montrer que (rn ,sn ) ∈ H01 (0,1)2 est de manière équivalente solution du système d’EDPs
couplées suivant:
0 2 2 00
krn´kL2 (0,1) sn (x2 ) + krn kL2 (0,1) (−sn (x2 ))
1
= 0 f (x1 ,x2 )rn (x1 ) dx1
´1 Ä´ 1
ä
0
− 0 ∂x1 un−1 (x1 ,x2 )rn (x1 ) dx1 + ∂x2 0 ∂x2 un−1 (x1 ,x2 )rn (x1 ) dx1 ,
(4.15)
0 2 2 00
ks k r (x ) + ks k (−r (x ))
n L (0,1) n 1 n L (0,1) n 1
´1
2 2
= f (x ,x )s (x ) dx
−´1 ∂ u
1 2 n 2 2 Ä´ 1
0 ä
(x ,x )s0 (x ) dx + ∂
0 x2 n−1 1 2 n 2 2 x1 ∂ u
0
(x ,x )s (x ) dx .
x1 n−1 1 2 n 2 2
28 4 Algorithmes gloutons
et
∀r ∈ H01 (0,1), asn (rn ,r) = lf,un−1 ,sn (r), (4.17)
rn
où a : H01 (0,1)
× H01 (0,1)
→ R et a : H01 (0,1) × H01 (0,1)
sn
→ R sont deux formes bilinéaires
symmétriques et continues, et où lf,un−1 ,rn : H01 (0,1) → R
et lf,un−1 ,sn : H01 (0,1) → R sont
des formes linéaires continues, dont on donnera les expressions en fonction de a, l rn et sn .
Montrer de plus que si rn 6= 0 (resepctivement sn 6= 0), arn (respectivement asn ) est coercive.
(4) En déduire pour tout rn ∈ H01 (0,1) tel que rn 6= 0 (respectivement pour tout sn ∈ H01 (0,1)
tel que sn 6= 0), il existe une unique solution sn ∈ H01 (0,1) (resepctivement rn ∈ H01 (0,1)) au
problème variationnel (4.16) (respectivement (4.17)).
PP
(5) On suppose qu’il existe P ∈ N∗ tel que f (x1 ,x2 ) = p=1 fp1 (x1 )fp2 (x2 ) où pour tout 1 ≤ p ≤ P ,
fp1 ,fp2 ∈ L2 (0,1). Montrer que
PP
lf,un−1 ,rn (s) = Ä p=1 hfp1 ,rn iL2 (0,1) hfp2 ,siL2 (0,1)
Pn−1 0 0 0 0
ä (4.18)
− k=1 hrk ,rn iL2 (0,1) hsk ,s iL2 (0,1) + hrk ,rn iL2 (0,1) hsk ,siL2 (0,1)
et
PP
lf,un−1 ,sn (r) = Ä p=1 hfp2 ,sn iL2 (0,1) hfp1 ,riL2 (0,1)
Pn−1 0 0 0 0
ä (4.19)
− k=1 hsk ,sn iL2 (0,1) hrk ,r iL2 (0,1) + hsk ,sn iL2 (0,1) hrk ,riL2 (0,1)
Pn−1
On rappelle que un−1 (x1 ,x2 ) = k=1 rk (x1 )sk (x2 ).
En pratique, le système d’équations (4.7) est résolu par un algorithme de point fixe, qui s’écrit
plus précisément comme suit: soit > 0 un critère d’erreur fixé.
Algorithme de directions alternées:
(0) (0)
(1) Initialisation: On choisit (rn ,sn ) ∈ H01 (0,1) aléatoirement.
(m)
(2) Itération m ≥ 1: On définit rn ∈ H01 (0,1) comme l’unique solution du problème
(m−1) (m−1)
∀r ∈ H01 (0,1), asn (rn(m) ,r) = lf,un−1 ,sn (r).
(m)
Puis, on définit sn ∈ H01 (0,1) comme l’unique solution du problème
(m) (m)
∀s ∈ H01 (0,1), arn (s(m)
n ,s) = l
f,un−1 ,rn
(s).
(m) (m) (m−1) (m−1) (m)
Si krn ⊗ sn − rn ⊗ sn kH01 ((0,1)2 ) < , on arrête l’algorithme et on définit rn = rn
(m)
et sn = sn . Sinon, on passe à l’itération suivante: m := m + 1.
En pratique, on observe numériquement que cet algorithme de point fixe converge très souvent
exponentiellement vite en fonction du nombre d’itérations m.
4.2 Cas de la résolution de l’équation de Laplace 29
Nous présentons dans cette partie comment l’algorithme PGD présenté dans la section précédente
peut être implémenté en pratique à l’aide d’une discrétisation en éléments finis. Le but du TP
sur la méthode PGD sera d’implémenter l’algorithme discret décrit ci-dessous. Nous nous plaçons
toujours dans le cas où d = 2 pour simplifier.
Soit (φi )1≤i≤I une famille libre de fonctions de H01 (0,1), qui sera typiquement une base de
fonctions éléments finis. On note VI := Vect{φi (x),1 ≤ i ≤ I}. On note D := (Dij )1≤i,j≤I ∈ RI×I
et M := (Mij )1≤i,j≤I ∈ RI×I les matrices définies comme suit:
ˆ 1 ˆ 1
∀1 ≤ i,j ≤ I, Dij := φ0i φ0j et Mij := φi φj .
0 0
PP
On suppose également qu’il existe P ∈ N∗ tel que f (x1 ,x2 ) = 1 2
p=1 fp (x1 )fp (x2 ) où pour
tout 1 ≤ p ≤ P , fp1 ,fp2 ∈ L2 (0,1). Pour tout 1 ≤ p ≤ P , on note Fp1 := (Fp,i
1
)1≤i≤I ∈ RI et
2 2 I
Fp := (Fp,i )1≤i≤I ∈ R les vecteurs définis comme suit:
ˆ 1 ˆ 1
1
∀1 ≤ i ≤ I, Fp,i := fp1 φi et 2
Fp,i := fp2 φi .
0 0
A l’itération n ∈ N∗ de l’algorithme, on cherche à approcher les solutions rn ,sn ∈ H01 (0,1) des
équations (4.17) et (4.16) par des fonctions rnI ,sIn ∈ VI solutions de
I I I
∀sI ∈ VI , arn (sIn ,sI ) = lf,un−1 ,rn (sI ), (4.20)
et I I I
∀rI ∈ VI , asn (rnI ,rI ) = lf,un−1 ,sn (rI ), (4.21)
Pn−1
où uIn−1 (x1 ,x2 ) = I I
k=1 rk (x1 )sk (x2 ) est la somme des termes calculés aux itérations précédentes.
Exercice 4.3. (1) Soit R = (Ri )1≤i≤I ,S = (Si )1≤i≤I ∈ RI . Montrer que si rI ,sI ∈ VI sont les
fonctions définies comme
I
X I
X
rI (x) = Ri φi (x) et sI (x) = Si φi (x),
i=1 i=1
alors
ˆ 1 ˆ 1
(rI )0 (x)(sI )0 (x) dx = RT DS = S T DR et rI (x)sI (x) dx = RT M S = S T M R.
0 0
(2) Pour tout 1 ≤ k ≤ n, on note Rk := (Rk,i )1≤i≤I ∈ RI et Sk := (Sk,i )1≤i≤I ∈ RI les vecteurs
des coordonnées des fonctions rkI et sIk dans la base (φi )1≤i≤I de telle sorte que:
I
X I
X
rkI (x1 ) = Rk,i φi (x1 ) et sIk (x2 ) = Sk,i φi (x2 ).
i=1 i=1
Montrer que rnI ,sIn ∈ VI sont solutions des équations (4.20) et (4.21) si et seulement si Rn et
Sn sont solutions des systèmes matriciels couplés suivants:
(3) Ecrire l’algorithme de point fixe présenté à la section précédente pour le calcul des fonctions
rn ,sn ) sous forme discrétisée.