0% ont trouvé ce document utile (0 vote)
61 vues34 pages

TenseursM2 2024

Transféré par

fugu fugu
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
61 vues34 pages

TenseursM2 2024

Transféré par

fugu fugu
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Virginie Ehrlacher & Mi-Song Dupuy

Méthodes de tenseurs pour les problèmes


en grande dimension

24 janvier 2024

Sorbone Université - M2 Mathématiques et Applications


Table des matières V

Table des matières

1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Malédiction de la dimensionalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Exemples de problèmes en grande dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Équation de Fokker-Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Équation de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Autres familles de méthodes numériques pour contrer la malédiction de la
dimensionalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Produits tensoriels d’espaces de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5


2.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1 Isométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.2 Complété d’un espace pré-hilbertien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.3 Complété d’un espace vectoriel normé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Produits tensoriels d’espaces de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.2 Espaces de dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.3 Espaces de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3 Complément 1: Espaces injectifs et projectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Complément 2: Produits tensoriels d’opérateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.1 Produits tensoriels d’opérateurs bornés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.2 Produits tensoriels de formes sesquilinéaires continues . . . . . . . . . . . . . . . . . . . 17
2.4.3 Produits tensoriels d’opérateurs fermables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3 Décomposition orthogonale propre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19


3.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.1 Théorème de diagonalisation des opérateurs auto-adjoints compacts . . . . . . . 19

4 Algorithmes gloutons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.1 Algorithme glouton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.1.1 Problème de référence: Lax-Milgram . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.1.2 Dictionnaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.1.3 Algorithmes gloutons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.1.4 Algorithme de directions alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2 Cas de la résolution de l’équation de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.2.1 Au niveau continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2.2 Discrétisation en éléments finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.1 Malédiction de la dimensionalité 1

1
Introduction

Le but de ce cours est de vous présenter les fondements théoriques et les principaux algo-
rithmes utilisés d’une famille de méthodes, appelées méthodes de tenseurs , méthodes tensorielles
ou méthodes de faible rang, utilisées pour traiter efficacement des problèmes en grande dimension.
On peut rencontrer ce type de problèmes dans des champs d’application extrêmement divers:
physique, mécanique, économie, sciences sociales, chimie, etc. Nous allons en donner quelques
exemples précis dès la prochaine section.

1.1 Malédiction de la dimensionalité


Mais commençons tout d’abord par préciser ce qui est entendu par problèmes en grande di-
mension dans le cadre de ce cours. Par problèmes en grande dimension, nous voulons désigner des
problèmes, définis par un système d’équations mathématiques, et dont la solution est
• soit un tenseur (dimension finie), c’est-à-dire un élément

U := (Ui1 ,i2 ,...,id )1≤i1 ≤N1 ,1≤i2 ≤N2 ,...,1≤id ≤Nd ∈ RN1 ×N2 ×...×Nd

où d ∈ N∗ est appelé l’ordre du tenseur et où N1 , . . . ,Nd ∈ N∗ ; identifier l’ensemble des
composantes de ce tenseur par une approche naı̈ve requiert d’identifier N1 × N2 × . . . × Nd
scalaires. Dans le cas simplifié où N1 = N2 = . . . = Nd = N pour N ∈ N∗ , cela implique
d’identifier N d scalaires.
• soit une fonction u dépendant de d variables x1 , . . . ,xd appartenant respectivement à des en-
sembles Ω1 , . . . ,Ωd , sous-ensembles boréliens de Rp1 , . . . ,Rpd respectivement avec p1 , . . . ,pd ∈
N∗ . On a alors ß
Ω1 × . . . × Ωd → K,
u:
(x1 , . . . ,xd ) 7→ u(x1 , . . . ,xd ).
La fonction u est alors en général définie comme la solution d’une équation aux dérivées par-
tielles définie sur le domaine Ω := Ω1 × . . . × Ωd .
Quel est le lien entre fonctions et tenseurs? Supposons que nous cherchions ici à calculer une
approximation numérique d’une fonction
ß
Ω1 × . . . Ωd → R
u:
(x1 , . . . ,xd ) 7→ u(x1 , . . . ,xd )

dépendant de d variables comme celle que nous avons introduite ci-dessus. Une approche numérique
naı̈ve consiste alors à introduire, pour tout 1 ≤ j ≤ d, une famille libre de Nj fonctions φj1 (xj ), . . . ,φjNj (xj )
(avec Nj ∈ N∗ ) définies sur Ωj et ne dépendant que de la variable xj , i.e. telles que
®
j Ωj → R
∀1 ≤ ij ≤ Nj , φij :
xj 7→ φjij (xj ).
2 1 Introduction

Un exemple classique dans le cas où Ωj est un intervalle de R (où un domaine de Rpj ) est de choisir
la famille φj1 , . . . ,φjNj comme la famille des fonctions éléments finis P1 associée à un maillage du
domaine Ωj .
La fonction u(x1 , . . . ,xd ) est alors approchée comme une combinaison linéaire de tous les pro-
duits de fonctions à une variable de la forme φ1i1 (x1 )φ2i2 (x2 ) . . . φdid (xd ), soit

N1
X Nd
X
u(x1 , . . . ,xd ) ≈ ... Ui1 ,...,id φ1i1 (x1 )φ2i2 (x2 ) . . . φdid (xd ),
i1 =1 id =1

où U := (Ui1 ,...,id )1≤i1 ≤N1 ,...,1≤id ≤Nd ∈ RN1 ×...×Nd est un tenseur d’ordre d à identifier. Dans le
cas où N1 = . . . = Nd = N , il faut donc identifier N d scalaires pour déterminer l’approximation
numérique de la fonction u.
On voit donc qu’approcher numériquement une fonction dépendant de d variables par des
approches naı̈ves ou standards nécessitent de résoudre des problèmes dont le nombre d’inconnues
dépend de manière exponentielle du nombre de variables dont la fonction dépend. Bien sûr,
lorsque d le nombre de variables est grand, de telles approches sont juste impossibles à mettre en
oeuvre numériquement: ce phénomène s’appelle la malédiction de la dimensionalité ou encore le
fléau de la dimension (curse of dimensionality en anglais), d’après le nom qui lui a été donné par
Richard Bellman en 1961. Il est alors nécessaire de faire appel à des méthodes numériques dédiées
pour la résolution des problèmes en grande dimension, qui permettent de réduire la complexité de
tels systèmes de manière systématique, tout en conservant une bonne qualité d’approximation des
modèles obtenus. Les méthodes de tenseurs qui font l’objet de ce cours sont une famille de méthodes
numériques dont l’objectif est précisément de contourner cette malédiction de la dimensionalité.

1.2 Exemples de problèmes en grande dimension

Donnons ici quelques exemples d’équations aux dérivées partielles dont les solutions sont des
fonctions dépendant d’un grand nombre de variables.

1.2.1 Équation de Fokker-Planck

Un premier exemple d’équations aux dérivées partielles en grande dimension est l’équation de
Fokker-Planck. Celle-ci est en particulier extrêmement importante en physique statistique ou en
finance. Cette équation permet de modéliser la distribution de probabilités de la solution d’une
équation différentielle stochastique en dimension d ∈ N∗ .
Soit (Ω,F,P) un espace de probabilités et soit (Xt (ω))t≥0 un processus aléatoire à valeurs dans
Rd . Pour tout t ≥ 0 et tout ω ∈ Ω, on note Xt1 (ω), . . . ,Xtd (ω) les composantes de Xt (ω) de telle
sorte que Xt (ω) = (Xt1 (ω), . . . ,Xtd (ω)).
Supposons que le processus (Xt )≥0 soit solution d’ue équation différentielle stochastique de la
forme :
dXt = F (Xt ) dt + σ dBt (1.1)
où (Bt )t≥0 est un mouvement brownien en dimension d, σ > 0 et F : Rd → Rd est une application
régulière.
En physique statistique, le processus (Xt )t≥0 peut représenter l’évolution de la position des
atomes composant un système moléculaire. Si le système est composé de N atomes, on a alors
d = 3N . L’application F modélise alors le champ des forces exercées sur chacun des atomes et
σ > 0 représente un niveau de bruit stochastique qui est proportionnel à la valeur de la température
du système.
En finance, (Xt )t≥0 peut représenter l’évolution des prix d’un portefeuille d’actions au sens où
Xti représente le prix à l’instant t de l’action i du portefeuille.
1.3 Autres familles de méthodes numériques pour contrer la malédiction de la dimensionalité 3

Dans ces deux situations, connaı̂tre la distribution de probabilité u(t,x1 , . . . ,xd ) pour (t,x1 , . . . ,xd ) ∈
R+ × Rd du processus (Xt )t≥0 permet de pouvoir estimer toutes les propriétés statistiques de ce
dernier. Rappelons que u est définie comme la fonction (pour être parfaitement rigoureux, il s’agit
en réalité d’une mesure de probabilités) telle que pour tout ensemble mesurable B ⊂ Rd ,
ˆ
P [Xt ∈ B] = u(t,x1 , . . . ,xd ) dx1 . . . dxd .
B

Si (Xt )t≥0 est solution de l’équation différentielle stochastique (1.1), sa densité de probabilité
u est alors solution de l’équation de Fokker-Planck:

σ2
∂t u − ∆x1 ,...,xd u + divx1 ,...,xd (F u) = 0, dans R+ × Rd . (1.2)
2
En pratique, d peut être très grand (soit 3 fois le nombre d’atomes dans un système moléculaire,
soit le nombre d’actions dans le portefeuille). En conséquence, l’utilisation de méthodes numériques
classiques pour résoudre (1.2) est en général inenvisageable à cause de la malédiction de la dimen-
sionalité.

1.2.2 Équation de Schrödinger

Mentionnons ici un autre exemple tiré d’applications en chimie quantique.


Considérons un système composé de d électrons, considérés comme des particules quantiques de
masse m. Leur état, à un instant de temps t > 0, est représentée par une fonction u(t,·) : (R3 )d 3
(x1 , . . . ,xd ) 7→ u(t,x1 , . . . ,xd ), appelée fonction d’onde´ qui a l’interprétation probabiliste suivante.
Si B ⊂ (R3 )d est un ensemble mesurable, la quantité B |u(t,x1 , . . . ,xd )|2 dx1 . . . dxd représente la
probabilité de trouver, à un instant t, les électrons à des positions appartenant à l’ensemble B.
Noter que cette interprétation implique que u doit vérifier la condition de normalisation
ˆ
|u(t,x1 , . . . ,xd )|2 dx1 . . . dxd = 1.
(R3 )d

L’équation permettant de modéliser l’évolution de la fonction d’onde u, appelée équation de


Schrödinger, s’écrit
~2
i~∂t u = − ∆x ,...,xd u + V u,
2m 1
où ~ est la constante de Planck réduite, et où

(R3 )d
ß
→ R
V :
(x1 , . . . ,xd ) 7→ V (x1 , . . . ,xd )

est une fonction représentant le potentiel d’interaction du système d’électrons.


Là encore, il s’agit d’une équation aux dérivées partielles de grande dimension lorsque le nombre
d’électrons dans le système est grand, qui ne peut pas être résolue par des approches classiques à
cause de la malédiction de la dimensionalité.

1.3 Autres familles de méthodes numériques pour contrer la


malédiction de la dimensionalité
Citons ici quelques autres approches utilisées pour contrer la malédiction de la dimensionalité.
Celles-ci se décomposent en deux grandes familles de méthodes.
La première grande famille est constituée des approches dites linéaires, qui consistent à appro-
cher des fonctions solutions d’équations aux dérivées partielles et dépendant d’un grand nombre
de variables dans des espaces vectoriels de petite dimension. Tout l’enjeu dans ce type d’approches
4 1 Introduction

est de choisir optimalement l’espace vectoriel de petite dimension. Souvent, ce choix est fait en
utilisant des notions de sparsité. Dans des contextes où la grande dimension du problème est liée
au fait que l’on cherche à approcher la solution d’un modèle dépendant d’un grand nombre de
paramètres, la méthode des bases réduites offre une approche intéressante, en particulier lorsqu’il
s’agit d’approcher des problèmes elliptiques ou paraboliques. Le cours de M. Albert Cohen présente
une introduction à cette famille de méthodes.
La deuxième grande famille de méthodes est constituée des approches dites non-linéaires. Dans
ce type d’approches, on cherche à approcher les fonctions de grande dimension dans des ensembles
qui ne sont pas des espaces vectoriels, mais plus généralement des variétés. Les méthodes de
tenseurs qui font l’objet de ce cours sont une famille d’approches non-linéaires. Parmi celles-ci,
nous pouvons également citer les approches basées sur l’utilisation de réseaux de neurones et
d’apprentissage automatique. Le cours de M. Bruno Després présente une introduction à ce type
d’approches.
2.1 Préliminaires 5

2
Produits tensoriels d’espaces de Hilbert

Le but de ce chapitre est d’introduire les définitions fondamentales sur les notions de produits
tensoriels d’espaces de Hilbert. Deux cas particuliers attireront notre attention: les produits ten-
soriels d’espaces de dimension finie et les produits tensoriels d’espaces de fonctions comme les
espaces de Lebesgue.

2.1 Préliminaires
Nous rappelons au lecteur les notions d’espace complété d’espaces pré-hilbertiens et d’espaces
vectoriels normés (sous-entendu pour le corps des réels R).

2.1.1 Isométrie
Nous rappelons ici la définition d’une isométrie.
Définition 2.1. Soit (E,k · kE ) et (F,k · kF ) deux espaces vectoriels normés. On dit qu’une appli-
cation linéaire J : E → F est une isométrie si et seulement si elle préserve la norme, i.e.
∀u ∈ E, kJ(u)kF = kukE .
Faisons ici quelques remarques.
Remarque 2.1. Une isométrie est nécessairement une application injective. En effet, soit u ∈ E
telle que J(u) = 0. On a alors kukE = kJ(u)kF = 0 et nécessairement u = 0. Le noyau de J est
donc bien réduit à {0}.
En particulier, J : E → J(E), où J(E) désigne l’image de E par J définit un isomorphisme.
Définition 2.2. Soit (E,k · kE ) et (F,k · kF ) deux espaces vectoriels normés. On dit que ces deux
espaces sont isométriquement isomorphes si et seulement si il exsite une isométrie J : E → F
telle que J(E) = F . On dit que J est un isomorphisme isométrique et on note alors F ≈ E.
Remarque 2.2. On utilise très souvent l’abus de langage suivant: lorsque deux espaces vectoriels
normés (E,k · kE ) et (F,k · kF ) sont isométriquement isomorphes, on identifie souvent E à F et
on dit que ces espaces sont égaux ou identiques et on écrira (E,h·,·iE ) = (F,h·,·iF ). De plus, si
K ⊂ E est un sous-espace vectoriel de E, il pourra arriver d’écrire K ⊂ F , ce qui est un abus de
langage pour signifier plus précisément J(K) ⊂ F où J est une isométrie de E dans F telle que
J(E) = F .
On rappelle ici qu’un espace pré-hilbertien est un espace vectoriel muni d’un produit scalaire,
mais qui n’est pas nécessairement complet pour la norme associée. Un espace vectoriel muni d’un
produit scalaire qui est complet pour la norme associée est un espace de Hilbert.
Proposition 2.1. Soit (E,h·,·iE ) et (F,h·,·iF ) deux espaces pré-hilbertiens. Alors une application
linéaire J : E → F est une isométrie si et seulement si elle préserve le produit scalaire, i.e.
6 2 Produits tensoriels d’espaces de Hilbert

∀u,v ∈ E, hJ(u),J(v)iF = hu,viE .

Démonstration. La preuve est une conséquence directe des identités de polarisation pour les es-
paces pré-hilbertiens: si (E,h·,·iE ) est un espace pré-hilbertien et si on note k · kE la norme associée
au produit scalaire h·,·iE , alors on a

ku + vk2E − ku − vk2E
∀u,v ∈ E, hv,uiE := .
4

2.1.2 Complété d’un espace pré-hilbertien

Définition-Théorème 2.1. Soit H0 un espace pré-hilbertien muni d’un produit scalaire h·,·iH0 ,
dont on note k · kH0 la norme associée. Alors, il existe un espace de Hilbert H (muni d’un produit
scalaire h·,·iH et de la norme associée k · kH ) et une isométrie J : H0 → H tels que J(H0 ) est
dense dans H.
L’espace de Hilbert H est unique à isomorphime isométrique près et est appelé le complété de
H0 .

Remarque 2.3. En identifiant l’espace H0 à son image par J, J(H0 ), on peut alors écrire H0 ⊂ H
(en utilisant un léger abus de notation).

Démonstration. Nous ne prouverons ici ce résultat que dans le cas où H0 est un espace pré-
hilbertien séparable.
Soit K ⊂ N et (ek )k∈K un système orthonormé de H0 tel que l’ensemble des combinaisons
linéaires finies de {ek }k∈K soit dense dans H0 . On note H00 l’espace dual de H0 , c’est-à-dire
l’ensemble des formes linéaires f : H0 → R continues, i.e. telles que

kf kH00 := sup |f (v0 )| < +∞.


v0 ∈H0 , kv0 kH0 =1

Lemme 2.1. L’espace H00 est un espace de Hilbert séparable par rapport au produit scalaire
X
∀f,g ∈ H00 , (f,g)H00 = f (ek )g(ek ),
k∈K

qui engendre la norme k · kH00 .

Soit H l’espace dual de H00 . Alors H est aussi un espace de Hilbert. On note J : H0 → H
l’application linéaire qui à un élément v0 ∈ H0 renvoie la fonctionnelle Fv0 ∈ H = (H00 )0 telle que

∀f ∈ H00 , Fv0 (f ) = f (v0 ).

Montrons que J est une application bijective de H0 dans J(H0 ) qui préserve le produit scalaire.
En effet, il est facile de vérifier que pour tout v0 ∈ H0 ,

kJ(v0 )kH = sup |Fv0 (f )| = kv0 kH0 .


f ∈H00 , kf kH 0 =1
0

Cette relation implique en particulier que le noyau de J est réduit à {0} et que J est donc
injective. Elle est donc bijective de H0 dans J(H0 ). Par ailleurs, on peut vérifier que J préserve
bien le produit scalaire en utilisant l’identité de polarisation.
Il nous reste à montrer que J(H0 ) est dense dans H. Supposons qu’il existe F ∈ H tel que
hF,J(v0 )iH = 0 pour tout v0 ∈ H0 . Si {fj }j∈N est une base orthonormée de H00 , alors on a
2.1 Préliminaires 7
X
hF,J(v0 )iH = F (fj )J(v0 )(fj )
j∈N
X
= F (fj )fj (v0 )
j∈N

= 0.

Comme cette relation est vraie pour tout v0 ∈ H0 , cela implique que j∈N F (fj )fj = 0 dans H00 .
P
Ceci implique alors que F (fj ) = 0 pour tout j ∈ N et donc F = 0. L’espace J(H0 ) est donc bien
dense dans H.
Montrons maintenant que H est unique à isométrie près. Soit H ‹ un espace de Hilbert et
J : H0 → H une isométrie telle que J(H0 ) soit dense dans H.
e ‹ e ‹
On considère alors l’application S : J(H0 ) → J(He 0 ) comme S = Je◦ J −1 où J −1 : J(H0 ) → H0
est l’inverse de l’application J restreinte à J(H0 ). Il est facile de voir que S est alors une isométrie.
C’est donc une application continue et on peut l’étendre de manière unique en une application
S : J(H0 ) = H → J(H e 0) = H ‹ dont on peut facilement vérifier qu’elle est une isométrie. D’où le
résultat.

Démonstration (Preuve du Lemme 2.1). Montrons d’abord que pour tout f ∈ H00 , kf k2H 0 =
0
(f,f )H00 .
Montrons d’abord que pour tout f ∈ H00 , (f,f )H00 ≤ kf k2H 0 .
P 0
Pour tout K ∈ N, on note vK := k∈K,k≤K f (ek )ek . On a alors
X
kvK k2H0 = |f (ek )|2 .
k∈K,k≤K

De plus, X
f (vK ) = |f (ek )|2 .
k∈K,k≤K

En conséquence, pour tout K ∈ N,


Ñ é1/2
Å ã
vK X
f = |f (ek )|2 ≤ kf kH00
kvK kH0
k∈K,k≤K

ce qui implique que » X


(f,f )H00 = |f (ek )|2 ≤ kf kH00 < +∞.
k∈K

Montrons l’inégalité inverse. Soit  > 0 et soit v0 ∈ H0 tel que kv0 kH0 = 1 et |f (v0 )| ≥ kf kH00 −.
On a alors v0 = k∈K hek ,v0 iH0 ek avec k∈K |hek ,v0 iH0 |2 = 1.
P P
Comme f est une forme linéaire continue, on peut montrer que
X
f (v0 ) = hek ,v0 if (ek ),
k∈K

ce qui implique que


!1/2 !1/2
X X »
|f (v0 )|2 ≤ |hek ,v0 iH0 |2 |f (ek )|2 = (f,f )H00 .
k∈K k∈K
»
On a donc pour tout  > 0 que kf kH00 ≤ (f,f )H00 + . D’où le résultat.
8 2 Produits tensoriels d’espaces de Hilbert

Montrons maintenant que H00 munit de ce produit scalaire est un espace de Hilbert. Il suffit
donc de montrer qu’il est complet pour la norme associé.
Soit (fn )n∈N une suite de Cauchy dans H00 . Il est aisé de voir que pour tout v0 ∈ H0 , la suite
(fn (v0 ))n∈N est alors une suite de Cauchy dans R qui est complet. Elle est donc convergente et on
note sa limite f (v0 ). Montrons que l’application f : H0 3 v0 7→ f (v0 ) appartient à H00 et que la
suite (fn )n∈N converge vers f dans H00 . Il est aisé de voir que f est une application linéaire. De
plus, comme (fn )n∈N est de Cauchy dans H00 , elle est bornée et il existe une constante C > 0 telle
que pour tout n ∈ N, kfn kH00 ≤ C. Il est aisé de vérifier que nécessairement pour tout v0 ∈ H0 ,
|f (v0 )| ≤ Ckv0 kH0 ce qui implique bien que f ∈ H00 .
On a par ailleurs

∀ > 0, ∃N ∈ N, ∀n ≥ N , ∀p ≥ 0, kfn − fn+p kH00 ≤ ,

soit
∀ > 0, ∃N ∈ N, ∀n ≥ N , ∀p ≥ 0, ∀v0 ∈ V0 , |fn (v0 ) − fn+p (v0 )| ≤ kv0 kH0 .
Ceci implique que

∀ > 0, ∃N ∈ N, ∀v0 ∈ V0 , ∀p ≥ 0, |fn (v0 ) − fn+p (v0 )| ≤ kv0 kH0 ,

En passant à la limite p → +∞ dans l’expression ci-dessus, on obtient alors

∀ > 0, ∃N ∈ N, ∀v0 ∈ V0 , |fn (v0 ) − f (v0 )| ≤ kv0 kH0 ,

soit encore
∀ > 0, ∃N ∈ N, kfn − f kH00 ≤ .
La suite (fn )n∈N converge donc bien vers f dans H00 , donc H00 est bien un espace de Hilbert.
Il reste à montrer qu’il est séparable. Pour ce faire, il suffit de montrer que l’ensemnle {fk }k∈K
des formes linéaires continues sur H0 définies par

fk (el ) = δkl

pour tout k,l ∈ K, forme bien une base Hilbertienne de H00 .

Exercice 2.1. Soit (H,h·,·iH ) un espace de Hilbert et soit H0 un sous-espace vectoriel de H.


k·kH k·kH
Montrer que le complété de (H0 ,h·,·iH ) est alors (H0 ,h·,·iH ) où H0 désigne la fermeture
(ou l’adhérence) de H0 pour la norme k · kH .

2.1.3 Complété d’un espace vectoriel normé

Ce résultat peut être étendu de manière plus général à des espaces vectoriels normés. Plus
précisément, nous admettrons le théorème ci-dessous.

Définition-Théorème 2.2. Soit V0 un espace vectoriel normé muni d’une norme k · k. Alors, il
existe un espace de Banach V (muni d’une norme k · kV ) et une isométrie J : V0 → V tels que
J(V0 ) soit dense dans V .
L’espace de Banach V est unique à isomorphisme isométrique près et est appelé le complété
de V0 .

2.2 Produits tensoriels d’espaces de Hilbert


Dans toute la suite de ces notes de cours, tous les espaces de Hilbert seront supposés être des
espaces de Hilbert séparables sauf mention contraire.
2.2 Produits tensoriels d’espaces de Hilbert 9

2.2.1 Définition

Soit H1 , H2 deux espaces de Hilbert sur R, munis respectivement des produits scalaires h·,iH1
et h·,·iH2 . Pour tout u1 ∈ H1 et tout u2 ∈ H2 , on note u1 ⊗ u2 : H1 × H2 → R la forme bilinéaire
continue définie par

∀v1 ∈ H1 , ∀v2 ∈ H2 , u1 ⊗ u2 (v1 ,v2 ) := hu1 ,v1 iH1 hu2 ,v2 iH2 .
N
Soit H1 a H2 l’espace vectoriel engendré par ces formes (i.e. l’ensemble des combinaisons
linéaires finies de telles formes). Cet espace vectoriel est également appelé produit tensoriel algébrique
des espaces H1 et H2 . N N N
On munit l’espace H1 a H2 de la forme hermitienne h·,·i⊗ : (H1 a H2 ) × (H1 a H2 ) → R
définie par

∀u1 ,v1 ∈ H1 , ∀u2 ,v2 ∈ H2 , hu1 ⊗ u2 ,v1 ⊗ v2 i⊗ := hu1 ,v1 iH1 hu2 ,v2 iH2
= u1 ⊗ u2 (v1 ,v2 ).

N
et étendue
N à tout l’espace H1 a H2 par bilinéarité. En particulier, on a que pour tout η ∈
H1 a H2 , et pour tout v1 ∈ H1 et v2 ∈ H2 ,

hη,v1 ⊗ v2 i⊗ = η(v1 ,v2 ).


N
Proposition 2.2. La forme hermitienne h·,·i⊗ est bien définie sur H1 a H2 et est un produit
scalaire. On notera dans la suite k · k⊗ la norme associée.
N
forme hermitienne h·,·i⊗ est bien défini sur H1 a H2 , il
Démonstration. Pour montrer que la N
faut montrer que pour tout η,ζ ∈ H1 a H2 , la valeur de hη,ζi⊗ ne dépend pas du choix de la
représentation de η et ζ commeNcombinaison linéaire de produits tensoriels purs. Pour cela, il
suffit deNmontrer que si η ∈ H1 a H2 est la forme linéaire identiquement nulle, alors, pour tout
ζ ∈ H1 a H2 , on a hη,ζi⊗ = 0. Supposons que ζ s’écrive comme
K
X
ζ= ck u1k ⊗ u2k ,
k=1

avec ck ∈ R, u1k ∈ H1 et u2k ∈ H2 pour tout 1 ≤ k ≤ K. On a alors


* K +
X
1 2
hη,ζi⊗ = η, ck uk ⊗ uk
k=1 ⊗
K
X
= ck η,u1k ⊗ u2k ⊗
k=1
K
X
= ck η(u1k ,u2k )
k=1
= 0.

La forme bilinéaire h·,·i⊗ est donc bien définie.


Montrons maintenant que h·,·i⊗ est un produit scalaire. Il est facile de voir que, en introdui-
sant une base orthonormale (v11 , . . . ,vK1
1
) de Vect{u11 , . . . ,u1K }, et respectivement (v12 , . . . ,vK
1
2
) de
2 2
Vect{u1 , . . . ,uK }, on peut toujours écrire η sous la forme
K1 X
X K2
η= dk1 ,k2 vk11 ⊗ vk22
k1 =1 k2 =1
10 2 Produits tensoriels d’espaces de Hilbert

pour des coefficients dk1 ,k2 ∈ R. On obtient alors que


K1 X
X K2
hη,ηi⊗ = |dk1 ,k2 |2 ,
k1 =1 k2 =1

ce qui implique que hη,ηi⊗ ≥ 0 et hη,ηi⊗ = 0 si et seulement si dk1 ,k2 = 0 pour tout 1 ≤ k1 ≤ K1
et 1 ≤ k2 ≤ K2 . D’où le résultat.

Remarque 2.4. Pour tout u1 ∈ H1 et u2 ∈ H2 , on a alors

ku1 ⊗ u2 k⊗ = ku1 kH1 ku2 kH2 .

On appelle la norme k · k⊗ norme produit croisé (cross product en anglais) ou norme canonique.

Définition
N 2.3. On définit le produit tensoriel
N (canonique) des espaces H1 et H2 comme le complété
de H1 a H2 muni, et on note celui-ci H1 H2 .
N
Remarque 2.5. Par définition, H1 H2 est donc un espace de Hilbert.

Proposition 2.3. Soit I,J ⊂ N deux sous-ensembles de N et soit (ei )i∈I une base orthonor-
N une base orthonormale de H2 . Alors (ei ⊗ fj )(i,j)∈I×J forme une base
male de H1 et (fj )j∈J
orthonormale de H1 H2 .

Démonstration.
N Le fait que l’ensemble {ei ⊗ fj , (i,j) ∈ I × J } forme une famille orthonormale de
H1 H2 est clair par définition.
Soit S l’espace vectoriel engendré par cet ensembleN (l’ensemble des combinaisons linéaires finies
de ces éléments). Montrons que S est dense dans H1 H2 .
N k·k⊗ k·k⊗
Montrons tout d’abord que H1 a H2 ⊂ S où S désigne la fermeture de S pour la
norme k · k⊗ . Soit u ∈ H1 et v ∈ H2 et soit (αi )i∈I ∈ RI et (βj )j∈J ∈ RJ tels que
X X
u= αi ei et v = βj f j .
i∈I j∈J

On a alors en particulier
X X
kuk2H1 = |αi |2 < +∞ and kvk2H2 = |βj |2 < +∞.
i∈I j∈J

En conséquence, on a que X
|αi βj |2 < +∞,
(i,j)∈I×J

et X
αi βj ei ⊗ fj
(i,j)∈I×J

appartient à S. Par ailleurs, on voit que pour tout I,J ∈ N, on a


2
X X X X X
φ⊗ψ− αi βj ei ⊗ fj = |αi |2 |βj |2 − |αi |2 |βj |2 .
i∈I,i≤I j∈J ,j≤J (i,j)∈I×J i∈I,i≤I j∈J ,j≤J

N
Cette quantité tend donc bien vers 0N
lorsque I et J tendent vers N
l’infini. L’ensemble H1 a H2 est
donc bien
Ninclus dans S. Comme H1 H2 est le complété de H1 a H2 , on a donc nécessairement
que H1 H2 = S. D’où le résultat.
2.2 Produits tensoriels d’espaces de Hilbert 11

Nous utiliserons également dans la suite le résultat suivant:


N
Proposition 2.4. Le produit tensoriel canonique H1 H2 est un sous-espace vectoriel de L2 (H1 ,H2 ),
l’ensemble des formes bilinéaires continues définies sur H1 × H2 , et on a
O η(u1 ,u2 )
∀η ∈ H1 H2 , kηkL2 (H1 ,H2 ) := sup ≤ kηk⊗ . (2.1)
u1 ∈H1 ,u2 ∈H2 ku1 kH1 ku2 kH2
N
Démonstration. Commençons par prouver (2.1) pour η ∈ H1 a H2 . En effet, comme pour tout
u1 ∈ H1 et u2 ∈ H2 , on a ku1 ⊗ u2 k⊗ = ku1 kH1 ku2 kH2 , on a

η(u1 ,u2 )
kηkL2 (H1 ,H2 ) = sup
u1 ∈H1 ,u2 ∈H2 ku1 kH1 ku2 kH2
hη,u1 ⊗ u2 i⊗
= sup
u1 ∈H1 ,u2 ∈H2 ku1 ⊗ u2 k⊗
hη,ξi⊗
≤ sup
ξ∈H1
N
H2 kξk⊗
≤ kηk⊗ .

Comme L2 (H1 ,H2 ) est N un espace de Banach, il est par conséquent aisé de montrer par densité
que nécessairement, H1 H2Nest un sous-espace vectoriel de L2 (H1 ,H2 ) et que l’inégalité (2.1)
est vérifiée pour tout η ∈ H1 H2 .

Attention cependant, il n’y a pas égalité entre ces normes ni entre ces espaces (sauf dans le cas
où H1 et H2 sont de dimension finie).
En effet, supposons que H1 = H2 = H et que l’espace de Hilbert H soit de dimension infinie.
Soit (ei )i∈N une base hilbertienne de H.
Soit a : H × H → R la forme bilinéaire définie par
X
∀u,v ∈ H, a(u,v) = hu,ei iH hv,ei iH .
i∈N

On remarque tout d’abord que a ∈ L2 (H,H), puisqu’avec l’inégalité de Cauchy-Schwarz, on obtient


que
!1/2 !1/2
X X
|a(u,v)| ≤ |hu,ei iH |2 |hv,ei iH |2 = kukH kvkH .
i∈N i∈N
N P
En revanche a ∈
/H H. En effet, on peut remarquer que a = i∈N ei ⊗ ei , ce qui implique que

kak⊗ = +∞.

Pour ceux qui désirent aller plus loin et qui suivent ou ont suivi le cours de théorie spectrale,
on peut montrer qu’on peut identifier L2 (H,H) avec N l’ensemble des opérateurs linéaires bornés
(continus) de H dans H. Par ailleurs, l’espace H H peut être identifié avec l’ensemble des
opérateurs de Hilbert-Schmidtde H dans H.

Remarque N 2.6. N Soit d ∈ N et H1 , . . . ,Hd d espaces de Hilbert. On définit le produit tenso-
riel H1 . . . Hd de la même manière que ce qui a été décrit précédemment pour le cas de
deuxNespaces
N de [Link] plus, N pour toute permutation σ de l’ensemble {1, . . . ,d}, on a que
H1 . . . Hd = Hσ(1) . . . Hσ(d) (à isométrie près).
Soit I1 , . . . ,Id ⊂ N des sous-ensembles de N et pour tout 1 ≤ j ≤ d, soit {ejij }ij ∈Ij une
base hilbertienne deNHj . Alors
N l’ensemble
N {e1i1 ⊗ e2i2 × . . . × edid }i1 ∈I1 ,i2 ∈I2 ,...,id ∈Id forme une base
hilbertienne de H1 H2 . . . Hd .
12 2 Produits tensoriels d’espaces de Hilbert

2.2.2 Espaces de dimension finie

Le but de cette section est de faire le lien entre la définition abstraite des produits tensoriels
d’espaces introduite à la section précédente et aux notions de tenseurs classiques dans le cas où
on considère des espaces de dimension finie.
Soit N1 ,N2 ∈ N∗ et considérons H1 = RN1 et H2 = RN2 muni chacun de leur norme euclidienne
canonique. Nous allons montrer la proposition suivante.

Proposition 2.5. L’espace RN1 ⊗ RN2 est isométriquement isomorphe à RN1 ×N2 muni du produit
scalaire de Frobenius, défini par

∀A,B ∈ RN1 ×N2 , hA,BiF := Tr AT B ,




où AT ∈ RN2 ×N1 est la matrice transposée de la matrice A.

Remarque 2.7. Le produit scalaire de Frobenius entre deux matrices A,B ∈ RN1 ×N2 est parfois
noté hA,BiF = A : B. On l’appelle aussi le produit doublement contracté de A par B.

Exercice 2.2. Soit A := (Aij )1≤i≤N1 ,1≤j≤N2 ,B := (Bij )1≤i≤N1 ,1≤j≤N2 ∈ RN1 ×N2 . Montrer que
N1 X
X N2
hA,BiF = Aij Bij
i=1 j=1

et prouver que h·,·iF définit bien un produit scalaire sur RN1 ×N2 .

Soit (e1 , . . . ,eN1 ) la base canonique de H1 et (f1 , . . . ,fN2 ) la base canonique de H2 . D’après
la Proposition 2.3, on sait alorsNque {ei ⊗ fj }1≤i≤N1 ,1≤j≤N2 forme une base orthonormale de
RN1
N N2
R . En particulier, RN1 RN2 muni de la norme produit est un espace vectoriel de di-
mension N1 × N2 .
Définissons l’application

RN1 ×N2
®
RN1
N N2
R →
J : PN1 PN2
i=1 j=1 uij ei ⊗ fj 7→ (uij )1≤i≤N1 ,1≤j≤N2 .

Exercice 2.3. (1) Montrer que pour tout u = (ui )1≤i≤N1 ∈ RN1 et tout v = (vj )1≤j≤N2 ,

∀1 ≤ i ≤ N1 , 1 ≤ j ≤ N2 , J(u ⊗ v)ij = ui vj .

En déduire que
J(u ⊗ v) = uT v.
(2) Montrer que J est un isomorphisme isométrique.

On peut donc identifier RN1 R avec RN1 ×N2 muni du produit scalaire de Frobenius.
N N2

Ce résultat se généralise très facilement au cas de produits tensoriels de d espaces euclidiens


de dimension finie.

Proposition 2.6. Soit d ∈ N∗ , N1 , . . . ,Nd ∈ N∗ . On suppose N qu’on N munit RN1 , . . . ,RNd de leur
N1
produit scalaire euclidien canonique. Le produit tensoriel R . . . RNd est isométriquement
N1 ×...×Nd
isomorphe à R muni du produit scalaire de Frobenius suivant: pour tout A = (Ai1 ,...,id )1≤i1 ≤N1 ,...,1≤id ≤Nd ,B =
(Bi1 ,...,id )1≤i1 ≤N1 ,...,1≤id ≤Nd ∈ RN1 ×...×Nd ,
N1
X Nd
X
hA,BiF := ... Ai1 ,...,id Bi1 ,...,id .
i1 =1 id =1
2.2 Produits tensoriels d’espaces de Hilbert 13

2.2.3 Espaces de fonctions

Le but de cette section est de faire le lien entre les produits tensoriels d’espaces de fonctions et
des espaces fonctionnels que vous connaissez mieux, à savoir les espaces de Lebesgue et les espaces
de Sobolev.
Dans toute la suite de cette section, nous noterons Ω1 ⊂ Rp1 , Ω2 ⊂ Rp2 , ..., Ωd ⊂ Rpd des
ensembles ouverts avec p1 , · · · ,pd ∈ N∗ et soit Ω := Ω1 × · · · × Ωd .

Fonctions C ∞ à support compact

Nous aurons besoin du résultat préliminaire suivant, qui énonce un résultat de densité dans

l’espace des fonctions
N CN à support compact.
Soit D(Ω1 ) a · · · a D(Ωd ) le sous-ensemble de D(Ω) des combinaisons linéaires finies de
fonctions de la forme φ1 ⊗ · · · ⊗ φd où φ1 ∈ D(Ω1 ), ..., φd ∈ D(Ωd ) et où
ß
Ω = Ω1 × · · · × Ωd → R
φ1 ⊗ · · · ⊗ φd :
(x1 , · · · ,xd ) 7→ φ1 (x1 ) · · · φd (xd ).

On a alors le résultat de densité suivant:


N N
Proposition 2.7. L’ensemble D(Ω1 ) a · · · a D(Ωd ) est dense dans D(Ω) au sens N suivant:
N pour
tout q ∈ N et pour tout φ ∈ D(Ω), il existe une suite de fonctions (φn )n∈N ⊂ D(Ω1 ) a · · · a D(Ωd )
telle que pour tout α ∈ Np1 +p2 +···+pd avec |α| ≤ q, alors

k∂ α φ − ∂ α φn kL∞ (Ω) −→ 0.
n→+∞

La preuve de ce résultat repose sur le résultat suivant qui est une extension du théorème de
Stone-Weierstrass, dont nous ne rappellerons pas la preuve ici.

Théorème 2.1 (Stone-Weierstrass). Soit p ∈ N∗ et K ⊂ Rp un sous-ensemble compact. Soit


f ∈ C ∞ (K) et q ∈ N. Alors il existe une siote de fonctions polynômiales (Pn )n∈N telle que pour
tout α ∈ Np tel que |α| ≤ q, on ait

k∂ α f − ∂ α Pn kL∞ (K) −→ 0.
n→+∞

Démonstration. Pour simplifier, nous ne prouvons ce résultat ici que dans le cas où d = 2, mais
la preuve s’étend aisément au cas où d est un entier quelconque.
Soit φ ∈ D(Ω1 × Ω2 ). Il existe alors K ⊂ Ω1 et L ⊂ Ω2 deux sous-ensembles compacts tels que
Supp φ ⊂ K × L. On définit également deux fonctions η1 ∈ D(Ω1 ) et η2 ∈ D(Ω2 ) telles que η1 = 1
sur K et η2 = 1 sur L. On note également K ‹ le support de η et L e le support de η2 , qui vérifient
K⊂K ‹ et L ⊂ L.
e Il est aisé de vérifier qu’on a alors φ(x1 ,x2 ) = φ(x1 ,x2 )η1 (x1 )η2 (x2 ) pour tout
(x1 ,x2 ) ∈ Ω1 × Ω2 . Autrement dit φ = φη1 ⊗ η2 .
D’après le théorème de Stone-Weierstrass, comme le domaine K × L est un sous-domaine
compact de Rp1 × Rp2 , il exsiste une suite de fonctions polynômiales (Pn )n∈N telles que pour tout
α ∈ Np1 +p2 avec |α| ≤ q,
k∂α φ − ∂α Pn kL∞ (K×
f L) −→ 0.
n→+∞

‹×L
En particulier, ceci implique, puisque φ = 0 sur K e \ K × L, que

k∂α Pn kL∞ (K×


f L\K×L) −→ 0, (2.2)
n→+∞

pour tout α ∈ Np1 +p2 avec |α| ≤ q.


On définit alors φn (x1 ,x2 ) = η1 (x1 )η2 (x2 )PnN
(x1 ,x2 ). D’une part, comme Pn est une fonction
polynômiale, on a nécessairement φn ∈ D(Ω1 ) a D(Ω2 ) pour tout n ∈ N. De plus, on a pour
tout α ∈ Np1 +p2 avec |α| ≤ q,
14 2 Produits tensoriels d’espaces de Hilbert

k∂ α φ − ∂ α φn kL∞ (Ω) = k∂ α φ − ∂ α φn kL∞ (K×


f L)

= k∂ α (φη1 ⊗ η2 ) − ∂ α (Pn η1 ⊗ η2 )kL∞ (K×


f L)

≤ k∂ α (φη1 ⊗ η2 ) − ∂ α (Pn η1 ⊗ η2 )kL∞ (K×


f L\K×L)
‹ + k∂ α (φη1 ⊗ η2 ) − ∂ α (Pn η1 ⊗ η2 )kL∞ (K×L) .

D’une part, en utilisant (2.2), on obtient

k∂ α (φη1 ⊗ η2 ) − ∂ α (Pn η1 ⊗ η2 )kL∞ (K×


f L\K×L) = k∂ α (Pn η1 ⊗ η2 )kL∞ (K×
f L\K×L) −→ 0.
n→+∞
‹ ‹

D’autre part, on a

k∂ α (φη1 ⊗ η2 ) − ∂ α (Pn η1 ⊗ η2 )kL∞ (K×L) = k∂ α φ − ∂ α Pn kL∞ (K×L) −→ 0,


n→+∞

ce qui nous donne le résultat désiré.

Nous allons voir dans la suite de cette section comment ce résultat permet d’identifier natu-
rellement les produits tensoriels d’espaces fonctionnels classiques comme les espaces de Lebesgue
et les espaces de Sobolev.

Espaces de Lebesgue L2

On considère H1 = L2 (Ω1 ) et H2 = L2 (Ω2 ) munis de leurs produits scalaires. On rappelle que


ˆ ˆ
∀u1 ,v1 ∈ L2 (Ω1 ), hv1 ,u1 iL2 (Ω1 ) := v1 u1 et ∀u2 ,v2 ∈ L2 (Ω2 ), hv2 ,u2 iL2 (Ω2 ) := v2 u2 .
Ω1 Ω2

On considère une application linéaire J : H1 a H2 → L2 (Ω1 × Ω2 ) définie comme suit (puis


N
étendue par linéarité): pour tout u1 ∈ L (Ω1 ) et pour tout u2 ∈ L2 (Ω2 ), J(u1 ⊗ u2 ) est la fonction
2

appartenant à L2 (Ω1 × Ω2 ) telle que

J(u1 ⊗ u2 )(x1 ,x2 ) = u1 (x1 )u2 (x2 ) pour presque tout (x1 ,x2 ) ∈ Ω1 × Ω2 .

Exercice 2.4. (1) Montrer que J est bien définie.


(2) Montrer que J est une isométrie de (H1 a H2 ,h·,·i⊗ ) dans L2 (Ω1 × Ω2 ),h·,·iL2 (Ω1 ×Ω2 ) .
N 

(3) En déduire que l’espace H1 H2 est isométriquement isomorphe à la fermeture dans L2 (Ω1 ×
N
PK
Ω2 ) de l’ensemble des fonctions qui s’écrivent sous la forme Ω1 ×Ω2 3 (x1 ,x2 ) 7→ k=1 ck u1k (x1 )u2k (x2 )
pour K ∈ N∗ et ck ∈ R, u1k ∈ L2 (Ω1 ) et u2k ∈ L2 (Ω2 ) pour tout 1 ≤ k ≤ K.
(4) Montrer que H1 H2 est isométriquement isomorphe à L2 (Ω1 ×Ω2 ) en utilisant la Proposition 2.7.
N

Nous avons donc prouvé le résultat suivant:

Théorème 2.2. Le produit tensoriel L2 (Ω1 ) L2 (Ω2 ) est isométriquement isomorphe à L2 (Ω1 ×
N
Ω2 ).

Nous identifierons les deux espaces par la suite et nous utiliserons la notation u1 ⊗ u2 pour
désigner J(u1 ⊗ u2 ) ∈ L2 (Ω1 × Ω2 ).
Le Théorème 2.5 peut se généraliser dans le cas du produit tensoriels de d espaces de Lebesgue
avec d ∈ N∗ .
∗ pj
Théorème 2.3. Soit d ∈ NN N 2tout 1 ≤ j ≤ d, soit Ωj un sous-ensemble2 borélien de R
et pour
∗ 2
avec pj ∈ N . Alors L (Ω1 ) · · · L (Ωd ) est isométriquement isomorphe à L (Ω1 × · · · × Ωd ).
2.2 Produits tensoriels d’espaces de Hilbert 15

Espaces de Bochner

Soit Ω un sous-ensemble borélien de Rp avec p ∈ N∗ et soit µ une mesure de probabilité sur


Ω. Soit V un espace de Hilbert.
On définit ß ˆ ™
L2µ (Ω; V ) := u : Ω → V, ku(t)k2V dµ(t) .

L’espace L2µ
(Ω; V ) est appelé un espace de Bochner. Il s’agit d’un espace de Hilbert, muni du
produit scalaire suivant:
ˆ
∀u,v ∈ L2µ (Ω; V ) , hv,uiL2µ (Ω;V ) := hv(t),u(t)iV dµ(t).

Soit H1 = L2µ (Ω), muni du produit scalaire


ˆ
∀u,v ∈ L2µ (Ω), hv,uiL2µ (Ω) := vu dµ,

et H2 = V .
On considère une application linéaire J : H1 a H2 → L2µ (Ω; V ) définie comme suit (puis
N
étendue par linéarité): pour tout u ∈ L2µ (Ω) et pour tout v ∈ V , J(u⊗v) est la fonction appartenant
à L2µ (Ω; V ) telle que

J(u ⊗ v)(t) = u(t)v pour presque tout t ∈ Ω.

Exercice 2.5. (1) Montrer que J est bien définie.


Ä ä
(2) Montrer que J est une isométrie de (H1 a H2 ,h·,·i⊗ ) dans L2µ (Ω; V ),h·,·iL2µ (Ω;V ) .
N

(3) En déduire que l’espace H1 H2 est isométriquement isomorphe à la fermeture dans L2µ (Ω; V )
N
PK
de l’ensemble des fonctions qui s’écrivent sous la forme Ω 3 t 7→ k=1 ck uk (t)vk pour K ∈ N∗
et ck ∈ R, uk ∈ L2µ (Ω) et vk ∈ V pour tout 1 ≤ k ≤ K.
(4) En admettant que l’ensemble des combinaisons linéaires finies de fonctions de la forme N Ω3
t 7→ φ(t)v avec φ ∈ D(Ω) et v ∈ V sont denses dans L2µ (Ω; V ), en déduire que H1 H2 est
isométriquement isomorphe à L2µ (Ω; V ).

Nous venons donc de montrer le résultat suivant:

Théorème 2.4. Le produit tensoriel L2µ (Ω) V est isométriquement isomorphe à L2µ (Ω; V ).
N

Espaces de Sobolev

L’objet de cette section est d’attirer votre attention sur le cas particulier des espaces de Sobolev,
qui est différent de celui des espaces de Lebesgue vu précédemment.
On considère H1 = H01 (Ω1 ) et H2 = H01 (Ω2 ) munis de leurs produits scalaires. On rappelle
que ˆ ˆ
∀u1 ,v1 ∈ H01 (Ω1 ), hv1 ,u1 iH01 (Ω1 ) := v1 u1 + ∇v1 · ∇u1 .
Ω1 Ω1

Le produit scalaire de H01 (Ω2 ) est défini de manière


N similaire.
On considère une application linéaire J : H1 a H2 → H01 (Ω1 × Ω2 ) définie comme suit (puis
étendue par linéarité): pour tout u1 ∈ H01 (Ω1 ) et pour tout u2 ∈ H01 (Ω2 ), J(u1 ⊗u2 ) est la fonction
appartenant à H01 (Ω1 × Ω2 ) telle que

J(u1 ⊗ u2 )(x1 ,x2 ) = u1 (x1 )u2 (x2 ) pour presque tout (x1 ,x2 ) ∈ Ω1 × Ω2 .

Exercice 2.6. (1) Montrer que J est bien définie.


16 2 Produits tensoriels d’espaces de Hilbert
Ä ä
(2) Montrer que J n’est pas une isométrie de (H1 a H2 ,h·,·i⊗ ) dans H01 (Ω1 × Ω2 ),h·,·iH01 (Ω1 ×Ω2 ) .
N

L’espace H01 (Ω1 ) H01 (Ω2 ) n’est donc pas isométriquement isomorphe à H01 (Ω1 × Ω2 )! On
N
peut cependant identifier cet espace avec un autre espace de Sobolev, appelé espace de Sobolev
avec dérivées mixtes.
Plus précisément, on définit
1
(Ω1 × Ω2 ) := u ∈ H 1 (Ω1 × Ω2 ), ∂x1 ∂x2 u ∈ L2 (Ω1 × Ω2 ) .

Hmix
1 1
On munit alors l’espace Hmix (Ω1 ×Ω2 ) du produit scalaire suivant: pour tout u,v ∈ Hmix (Ω1 ×Ω2 ),
ˆ
hv,uiHmix
1 (Ω1 ×Ω2 ) := vu + ∇v · ∇u + ∂x1 ∂x2 v∂x1 ∂x2 u.
Ω1 ×Ω2

1
Exercice 2.7. Montrer que Hmix (Ω1 × Ω2 ) est un espace de Hilbert muni de ce produit scalaire.
1
On définit l’espace H0,mix (Ω1 × Ω2 ) comme la fermeture de l’ensemble des fonctions C ∞ à
1
support compact D(Ω1 × Ω2 ) dans l’espace Hmix (Ω1 × Ω2 ).
1
N
Exercice 2.8. (1) Montrer que J (H1 a H2 ) est inclus dans H0,mix (Ω1 × Ω2 ).
Ä ä
1
N
(2) Montrer que J est une isométrie de (H1 a H2 ,h·,·i⊗ ) dans H0,mix (Ω1 × Ω2 ),h·,·iHmix
1 (Ω1 ×Ω2 ) .
1
N N
(3) Montrer que J (H1 a H2 ) est dense dans H0,mix (Ω1 × Ω2 ). En déduire que H1 H2 est
1
isométriquement isomorphe à H0,mix (Ω1 × Ω2 ).
Nous avons donc montré le résultat suivant:
Théorème 2.5. Le produit tensoriel H01 (Ω1 ) H01 (Ω2 ) est isométriquement isomorphe à H0,mix
1
N
(Ω1 ×
Ω2 ).
Attention! Le produit tensoriel H01 (Ω1 ) H01 (Ω2 ) n’est donc pas isométriquement isomorphe
N
à H01 (Ω1 × Ω2 )! Méfiez-vous!

2.3 Complément 1: Espaces injectifs et projectifs


N
Soit H1 et H2 deux espaces de Hilbert. On peut munir l’espace vectoriel H1 a H2 de normes
différentes de la norme canonique k · k.
N
Définition 2.4. Soit z ∈ H1 a H2 . On définit
• Norme projective:
(K K
)
X X
1 2 1 2 1 2
kzk∧ := inf kuk ⊗ uk k⊗ , uk ∈ H1 , uk ∈ H2 , 1 ≤ k ≤ K, z = uk ⊗ uk
k=1 k=1

• Norme injective:
z(u1 ,u2 )
kzk∨ := sup hz,u1 ⊗ u2 i⊗ = sup .
ku k ku k
u1 ∈ H1 , u2 ∈ H2 , u1 ∈ H1 , u2 ∈ H2 1 H1 2 H2
ku1 ⊗ u2 k⊗ = 1
N
On peut aisément voir que k · k∧ et k · k∨ définissent des
N normes sur H1 a H2 (non associées
à des produits scalaires) et que l’on a, pour tout z ∈ H1 a H2 ,

kzk∨ ≤ kzk⊗ ≤ kzk∧ .

Définition 2.5. • Le complété de H1 a H2 muni de la norme k · k∧ est un espace de Banach


N
N
noté H1 x H2 et appelé produit tensoriel projectif de H1 et H2 .
2.4 Complément 2: Produits tensoriels d’opérateurs 17

• Le complété de H1 a H2 muni de la norme k · k∨ est un espace de Banach noté H1 | H2 et


N N
appelé produit tensoriel injectif de H1 et H2 . Il est de plus isométriquement isomorphe à
L2 (H1 ,H2 ) l’ensemble des formes bilinéaires continues sur H1 × H2 .

Proposition 2.8. On a les inclusions suivantes (à isomorphisme isométrique près)


O O O
H2 ⊂ H1 H2 ⊂ H1
y }
H1 H2 .

Remarque 2.8. Attention! Hormis dans le cas où les espaces H1 et H2 sont de dimension finie,
il n’y a en général pas d’égalité entre ces différents espaces.

2.4 Complément 2: Produits tensoriels d’opérateurs


2.4.1 Produits tensoriels d’opérateurs bornés

Soit A un opérateur borné


N sur H1 et B un opérateur borné sur H2 . On peut alors définir
l’opérateur A ⊗ B sur H1 a H2 tel que

∀u ∈ H1 , ∀v ∈ H2 , A ⊗ B(u ⊗ v) = (Au) ⊗ (Bv).


N
Exercice 2.9. Montrer que l’opérateur A ⊗ B est bien défini et borné sur H1 a H2N . Montrer
qu’il peut être étendu par continuité de manière unique à un opérateur borné sur H1 H2 . On
note cette extension également A ⊗ B.

Proposition 2.9. Soit H1 et H2 deux espaces de Hilbert séparables. Soient A et B deux opérateurs
N et compacts sur H1 et H2 respectivement. Alors A ⊗ B est un opérateur compact sur
bornés
H1 H2 .

Exercice 2.10. Prouver la Proposition 2.9.

2.4.2 Produits tensoriels de formes sesquilinéaires continues

Soit a : H1 × H1 → R et b : H2 × H N2 → R deux formes


N sesquilinéaires continues. On définit
alors la forme sesquilinéaire a ⊗ b : (H1 a H2 ) × (H1 a H2 ) → R telle que

∀u1 ,v1 ∈ H1 , ∀u2 ,v2 ∈ H2 , a ⊗ b(v1 ⊗ v2 ,u1 ⊗ u2 ) = a(v1 ,u1 )b(v2 ,u2 )
N N
et étendue à tout (H1 a H2 ) × (H1 a H2 ) par sesquilinéarité.
N N
Proposition 2.10. La forme sesquilinéaire a ⊗ b est continue sur (H1 a H2 ) × (H1 a H2 )
et peut
N être étendue
N par continuité de manière unique à une forme sesquilinéaire continue sur
(H1 H2 ) × (H1 H2 ). On note également cette forme a ⊗ b.

2.4.3 Produits tensoriels d’opérateurs fermables

La suite et fin de cette section n’est pas à lire en première lecture. Il s’agit de compléments
pour ceux d’entre vous qui suivent le cours de Théorie Spectrale. On ne suppose plus ici que A et
B soient des opérateurs bornés, mais uniquement à domaines denses.
Soit A un opérateur Nsur H1 de domaine dense D(A) et B un opérateur sur H N2 de domaine dense
D(B). Soit D := D(A) a D(B). Il est alors clair N que D est dense dans H 1 H2 par définition.
On peut alors définir l’opérateur A ⊗ B sur H1 H2 , de domaine D tel que

∀u ∈ D(A), ∀v ∈ D(B), A ⊗ B(u ⊗ v) = (Au) ⊗ (Bv).

Exercice 2.11. Montrer que l’opérateur A ⊗ B est bien défini.


18 2 Produits tensoriels d’espaces de Hilbert

On rappelle ci-dessous les notions d’opérateurs fermés et d’opérateurs fermables.

Définition 2.6. • Un opérateur non borné T sur un espace vectoriel normé X à valeurs dans
un espace vectoriel normé Y , de domaine D(T ) dense dans X est dit fermé si et seulement
si son graphe, c’est-à-dire l’ensemble {(x,y) ∈ D(T ) × Y, y = T x}, est un sous-ensemble fermé
de X × Y .
• Un opérateur non borné T sur un espace vectoriel normé X à valeurs dans un espace vectoriel
normé Y , de domaine D(T ) dense dans X est dit fermable si et seulement si l’adhérence de
son graphe dans X × Y est le graphe d’un opérateur fermé noté T . L’opérateur T est alors
unique et appelé la fermeture de l’opérateur T .

On rappelle ici quelques caractérisations séquentielles utiles des opérateurs fermés et fermables.

Proposition 2.11. • L’opérateur T est fermé si et seulement si pour toute suite (xn )n∈N dans
D(T ) admettant dans X une limite x et telle que la suite (T (xn ))n∈N converge dans Y vers
une limite y, alors on a x ∈ D(T ) et y = T (x).
• L’opérateur T est fermable si et seulement si pour toute suite (xn )n∈N dans D(T ) convergeant
vers 0 et que la suite (T (xn ))n∈N converge dans Y vers une limite y, alors on a y = 0.

On a alors le résultat suivant:


Proposition 2.12. Si A et B sont fermables, l’opérateur A ⊗ B l’est aussi.

Définition 2.7. Si A et B sont des opérateurs fermables, on appelle produit tensoriel de A et B


la fermeture de A ⊗ B. On le note également A ⊗ B.
3 Décomposition orthogonale propre 19

3
Décomposition orthogonale propre

TO COMPLETE
4.1 Algorithme glouton 21

4
Algorithmes gloutons

Nous avons vu dans un chapitre précédent comment la méthode POD pouvait être utilisée
pour compresser un tenseur ou une fonction en grande dimension. On a enNparticulier vu qu’elle
permettait d’obtenir une approximation optimale d’un tenseur u ∈ H1 H2 appartenant au
produit tensoriel canonique de deux espaces de Hilbert par des tenseurs de rang plus petit ou égal
à un certain entier r choisi, au moyen des décompositions POD tronquées de ce tenseur.
Cependant, la POD se heurte aux limitations intrinsèques suivantes:
(1) La décomposition POD nécessite de connaı̂tre le tenseur u pour être calculée: elle peut être
utile pour compresser un tenseur connu mais pas pour résoudre une EDP dont on ne connaı̂t
pas la solution;
(2) Il n’existe pas d’équivalent de la décomposition POD dans N leNcas où N u est un élément du
produit tensoriel de plus de trois espaces de Hilbert H1 H2 · · · Hd ; cela peut être un
problème lorsque l’on cherche à approcher des fonctions de plus de trois variables;
(3) enfin, la solution u d’EDPs classiques peut appartenir à des espaces de fonctions qu’on ne
peut pas identifier comme des produits tensoriels canoniques d’espaces de fonctions dépendant
uniquement d’une variable. Plus précisément, considérons par exemple u ∈ H01 (Ω1 × · · · × Ωd )
l’unique solution du problème de Laplace:
ß
−∆x1 ,··· ,xd u(x1 , · · · ,xd ) = f (x1 , · · · ,xd ), pour (x1 , · · · ,xd ) ∈ Ω := Ω1 × · · · × Ωd ,
u(x1 , · · · ,xd ) = 0, pour (x1 , · · · ,xd ) ∈ ∂Ω.
1
Nous avons vu au N
1
N 2 1que H0 (Ω1 × · · · × Ωd ) n’est pas égal au produit tensoriel
chapitre
canonique H0 (Ω1 ) · · · H0 (Ωd ).
Les algorithmes gloutons sont une première famille de méthodes numériques qui permettent de
contourner ces limitations de la POD pour calculer des approximations de rang faible de fonctions
dépendant d’un grand nombre de variables. Le prix à payer est que ces approximations ne jouiront
pas des mêmes propriétés d’optimalité que celles des décompositions POD tronquées que nous
avons vues au chapitre précédent. Nous allons en particulier illustrer ces algorithmes gloutons sur
l’exemple de la résolution du problème de Laplace mentionné ci-dessus.

4.1 Algorithme glouton


Dans le cadre de ce cours, nous allons illustrer les propriétés des algorithmes gloutons dans le
cas particulier de la résolution d’un problème variationnel de type Lax-Milgram. Il est à noter que
ces algorithmes sont utilisés pour résoudre d’autres types de problèmes (problèmes non-linéaires,
problèmes aux valeurs propres, problèmes d’évolution...), mais nous n’aurons pas le temps de les
aborder dans le cadre de ce cours.
Dans toute la suite du cours, nous considèrerons Ω1 ⊂ Rp1 , Ω2 ⊂ Rp2 , ..., Ωd ⊂ Rpd des
ensembles ouverts, avec p1 ,p2 , . . . ,pd ∈ N∗ . On notera également Ω := Ω1 × · · · × Ωd .
22 4 Algorithmes gloutons

4.1.1 Problème de référence: Lax-Milgram

Soit V un espace de Hilbert, a : V × V → R une forme sesquilinéaire continue symmétrique et


coercive et l : V → R une forme linéaire continue. Alors, d’après le théorème de Lax-Milgram, il
existe une unique solution u ∈ V au problème variationnel:

∀v ∈ V, a(u,v) = l(v).

De plus, u est de manière équivalente l’unique solution du problème de minimisation

u = argmin E(v), (4.1)


v∈V

où
1
∀v ∈ V, E(v) := a(v,v) − l(v).
2

Exemple: Le problème de Laplace

Un premier exemple fondamental est celui de la résolution de l’équation de Laplace. Plus


précisément, on supposera ici que les domaines Ω1 , . . . ,Ωd sont bornés et on cherche u ∈ H01 (Ω1 ×
· · · × Ωd ) l’unique solution de
ß
−∆x1 ,··· ,xd u(x1 , · · · ,xd ) = f (x1 , · · · ,xd ), pour (x1 , · · · ,xd ) ∈ Ω = Ω1 × · · · × Ωd ,
u(x1 , · · · ,xd ) = 0, pour (x1 , · · · ,xd ) ∈ ∂Ω.

La fonction u est alors de manière équivalente l’unisue solution du problème variationnel sui-
vant:
∀v ∈ V, a(u,v) = l(v),
avec V := H01 (Ω1 × · · · × Ωd ), et pour tout v,w ∈ V ,
ˆ
l(v) := f v,
ˆΩ
a(v,w) := ∇x1 ,··· ,xd v · ∇x1 ,··· ,xd w

d ˆ
X
= ∇xi v · ∇xi w.
i=1 Ω

Il est aisé de montrer, en utilisant l’inégalité de Poincaré et l’inégalité de Cauchy-Schwartz, que


a et l satisfont les hypothèses du théorème de Lax-Milgram que nous avons rappelées ci-dessus.

4.1.2 Dictionnaire

L’ingrédient essentiel d’un algorithme glouton pour la résolution de problèmes de type Lax-
Milgram comme celui évoqué ci-dessus est la notion de dictionnaire. Nous en donnons la définition
ci-dessous.

Définition 4.1 (Dictionnaire). Un sous-ensemble Σ ⊂ V est appelé un dictionnaire de V si et


seulement si il vérifie les trois conditions suivantes:
(i) Σ est un cône au sens suivant: pour tout t ∈ R et z ∈ Σ, alors tz ∈ Σ;
(ii)Σ est un ensemble faiblement fermé de V ;
(iii)L’espace vectoriel engendré par les éléments de Σ, Vect{Σ}, c’est-à-dire l’ensemble des com-
binaisons linéaires finies d’éléments de Σ, est dense dans V .
4.1 Algorithme glouton 23

Remarque 4.1. L’ensemble Σ est un ensemble faiblement fermé si et seulement si pour toute suite
(zn )n∈N d’éléments de Σ convergeant faiblement dans V vers un élément z de V , alors z appartient
nécessairement à Σ. Si un ensemble est faiblement fermé dans V , alors il est nécessairement fermé
(au sens de la convergence forte) dans V . Cependant, la contraposée est fausse. Un ensemble
(fortement) fermé dans V peut ne pas être faiblement fermé dans V . La faible fermeture est donc
une notion plus exigeante que la notion de fermeture habituelle au sens de la convergence forte.

Nous donnons ci-dessous quelques exemples simples de dictionnaires, ainsi que d’ensembles qui
ne sont pas des dictionnaires.
Nous considèrerons deux cas particuliers:
1 1 1
(a) soit V := NH0 (Ω N1 × · · · × Ωd ) et V1 := H0 (Ω1 ), ..., Vd := H0 (Ωd ). Attention, on rappelle ici que
V 6= V1 · · · Vd !
N N
(b) soit V1 , · · · ,Vd sont des espaces de Hilbert quelconques et V = V1 · · · Vd . Un exemple de
telle situation est lorsque V = L2 (Ω1 × · · · × Ωd ), V1 = L2 (Ω1 ), ..., Vd = L2 (Ωd ).

Exemple 1: Produits tensoriels purs

Considérons tout d’abord ici le cas où le dictionnaire est l’ensemble constitué des produits
tensoriels purs dans le cas (a) ou (b). Plus précisément, on note

Σ1 := r1 ⊗ · · · ⊗ rd , r1 ∈ V1 , · · · , rd ∈ Vd


l’ensemble des tenseurs de rang au plus 1.


On a alors le résultat suivant:
Proposition 4.1. Dans les cas (a) et (b), Σ1 est un dictionnaire de V .

Exemple 2: Tenseurs de rang plus petit que R dans le cas d = 2

Soit R ∈ N∗ tel que R ≥ 2. Considérons maintenant le cas où d = 2 et où le dictionnaire est
l’ensemble constitué des tenseurs de rang canonique plus petit que R. Ici, la situation est différente
dans le cas (a) ou dans le cas (b). Plus précisément, on note
( R )
X
1 2 1 2
ΣR := rk ⊗ rk , rk ∈ V1 , rk ∈ V2 , 1 ≤ k ≤ R
k=1

l’ensemble des tenseurs de rang canonique plus petit que R.


On a alors le résultat suivant:
Proposition 4.2. Dans le cas (a), ΣR n’est pas un dictionnaire de V . Dans le cas (b), ΣR est un
dictionnaire de V .

Exemple 3: Tenseurs de rang plus petit que R dans le cas d ≥ 3

Soit R ∈ N∗ tel que R ≥ 2. Considérons maintenant le cas général où d ≥ 3 et où le dictionnaire
est l’ensemble constitué des tenseurs de rang canonique plus petit que R. Ici, la situation est
différente dans le cas (a) ou dans le cas (b). Plus précisément, on note
( R )
X
1 d 1 d
ΣR := rk ⊗ · · · ⊗ rk , rk ∈ V1 , · · · , rk ∈ Vd , 1 ≤ k ≤ R
k=1

l’ensemble des tenseurs de rang canonique plus petit que R.


On a alors le résultat suivant:
Proposition 4.3. Dans le cas (a) et (b), ΣR n’est pas un dictionnaire de V .
24 4 Algorithmes gloutons

4.1.3 Algorithmes gloutons


Nous présentons à présent les deux versions les plus classiques d’algorithmes gloutons utilisés
pour résoudre des problèmes de type Lax-Milgram.
Soit Σ un dictionnaire de V . Ces algorithmes sont des algorithmes itératifs dont le but est de
construire, à chaque itération n ∈ N∗ , une approximation un ∈ V de la solution u problème (4.1)
sous la forme
n
X
un = zkn ,
k=1
où pour 1 ≤ k ≤ n, zkn
∈ Σ. Autrement dit, cette approximation sera construite au bout de n
itérations comme la somme de n éléments du dictionnaire Σ.
Un premier algorithme glouton (le plus simple) est l’algorithme glouton pur qui s’écrit
comme suit.
Algorithme glouton pur:
• Initialisation: u0 = 0;
• Itération n ≥ 1: On cherche zn ∈ Σ solution de
zn ∈ argmin E(un−1 + z); (4.2)
z∈Σ

On définit un := un−1 + zn et on passe à l’itération suivante.


Un deuxième algorithme glouton (le plus utilisé en pratique) est l’algorithme glouton or-
thogonal qui consiste à rajouter l’étape suivante à chaque itération: au lieu de calculer un comme
simplement la somme de un−1 et de zn comme dans l’algorithme glouton pur, on construit un
comme la meilleur combinaison linéaire de tous les éléments z1 , . . . ,zn qui ont été calculés par
l’algorithme jusque-là, au sens suivant:
Algorithme glouton orthogonal:
• Initialisation: u0 = 0;
• Itération n ≥ 1: On cherche zn ∈ Σ solution de
zn ∈ argmin E(un−1 + z); (4.3)
z∈Σ

On cherche αn := (α1n , . . . ,αnn ) ∈ Rn solution de


n
!
X
n
α := argmin E un−1 + β k zk . (4.4)
β:=(β1 ,...,βn )∈Rn k=1
Pn
On définit un := k=1 αk zk et on passe à l’itération suivante.
Nous avons alors le théorème suivant:
Théorème 4.1. Toutes les itérations des algorithmes gloutons pur et orthogonal sont bien définies
au sens où, pour tout n ∈ N∗ , il existe toujours au moins une solution zn ∈ Σ aux problèmes de
minimisation (4.2) et (4.3) (pas nécessairement unique) et une unique solution au problème de
minimisation (4.4). De plus, la suite (un )n∈N∗ converge fortement dans V vers u l’unique solution
de (4.1). Enfin, si V est de dimension finie, il existe un réel ρ ∈ (0,1) et une constante C > 0 tels
que
∀n ∈ N∗ , ku − un kV ≤ Cρn . (4.5)
Remarque 4.2. Bien sûr, la valeur de ρ apparaissant dans (4.5) dépend de la dimension de V .
A ce stade, il est naturel de se demander comment calculer un élément zn ∈ Σ solution de (4.2).
Les méthodes choisies dépendent du choix du dictionnaire. Nous présentons ici un algorithme très
classiquement utilisé lorsque Σ = Σ1 est le dictionnaire composé des produits tensoriels purs.
4.1 Algorithme glouton 25

4.1.4 Algorithme de directions alternées


Nous présentons ici l’algorithme de directions alternées qui est le plus classiquement utilisé
pour calculer un élément zn ∈ Σ solution de (4.2) dans le cas où Σ = Σ1 est le dictionnaire
composé des produits tensoriels purs.
Pour simplifier la présentation, nous ne le présentons ici que dans le cas où d = 2 et où on
considère l’algorithme glouton pur. Il se généralise cependant sans difficulté au cas où d ≥ 3 est
un entier quelconque ou pour l’algorithme glouon orthogonal. !
Dans ce cas, le problème (4.2) à résoudre à l’itération n ≥ 1 de l’algorithme glouton (pur ou
orthogonal) se réécrit comme suit:
A l’itération n de l’algorithme, on recherche donc un couple (rn ,sn ) ∈ V1 × V2 solution du
problème de minimisation
(rn ,sn ) ∈ argmin E(un−1 + r ⊗ s), (4.6)
(r,s)∈V1 ×V2
Pn−1
où un−1 = k=1 rk ⊗ sk est la somme des termes calculés aux itérations précédentes.
Pour tout n ∈ N∗ , on définit l’application Jn−1 : V1 × V2 → R comme suit:
∀(r,s) ∈ V1 × V2 , Jn−1 (r,s) := E(un−1 + r ⊗ s).
On rappelle que l’espace V1 × V2 , muni du produit scalaire défini par
∀(r1 ,s1 ),(r2 ,s2 ) ∈ H01 (0,1)×H01 (0,1), h(r1 ,s2 ),(r2 ,s2 )iH01 (0,1)×H01 (0,1) := hr1 ,r2 iH01 (0,1) +hs1 ,s2 iH01 (0,1) ,
est un espace de Hilbert.
Exercice 4.1. (1) Montrer que l’application Jn−1 est différentiable sur V1 × V2 et calculer sa
différentielle en fonction de la forme bilinéaire a et de la forme linéaire l.
(2) En déduire que si (rn ,sn ) ∈ V1 × V2 est une solution de (4.13), alors (rn ,sn ) est solution du
système d’équations couplées:
ß
∀s ∈ V2 , a(rn ⊗ sn ,rn ⊗ s) = l(rn ⊗ s) − a(un−1 ,rn ⊗ s),
(4.7)
∀r ∈ V1 , a(rn ⊗ sn ,r ⊗ sn ) = l(r ⊗ sn ) − a(un−1 ,r ⊗ sn ),

(3) Montrer que ces équations peuvent se réécrire sous la forme:


∀s ∈ V2 , arn (sn ,s) = lun−1 ,rn (s), (4.8)
et
∀r ∈ v1 , asn (rn ,r) = lun−1 ,sn (r), (4.9)
rn sn
où a : V2 × V2 → R et a : V1 × V1 → R sont deux formes bilinéaires symmétriques et
continues, et où lun−1 ,rn : V2 → R et lun−1 ,sn : V1 → R sont des formes linéaires continues,
dont on donnera les expressions en fonction de a, l rn et sn .
(4) On supposera de plus qu’il existe C1 : V1 → R+ et C2 : V2 → R+ tels qeue C1 (r) > 0
pour tout r 6= 0 et C2 (s) > 0 pour tout s 6= 0 et tels que pour tout r ∈ V1 , s ∈ V2 , kr ⊗
skV ≥ max(C1 (r)kskV2 ,C2 (s)krkV1 ). Montrer alors que si rn 6= 0 (respectivement sn 6= 0), arn
(respectivement asn ) est coercive.
(5) En déduire pour tout rn ∈ V1 tel que rn 6= 0 (respectivement pour tout sn ∈ V2 tel que sn 6= 0),
il existe une unique solution sn ∈ V2 (respectivement rn ∈ V1 ) au problème variationnel (4.16)
(respectivement (4.17)).
En pratique, le système d’équations (4.7) est résolu par un algorithme de point fixe, appelé
directions alternées, qui s’écrit plus précisément comme suit:
Algorithme de directions alternées:
(0) (0)
(1) Initialisation: On choisit (rn ,sn ) ∈ V1 × V2 aléatoirement.
26 4 Algorithmes gloutons
(m)
(2) Itération m ≥ 1: On définit rn ∈ V1 comme l’unique solution du problème
(m−1) (m−1)
∀r ∈ V1 , asn (rn(m) ,r) = lun−1 ,sn (r). (4.10)
(m)
Puis, on définit sn ∈ V2 comme l’unique solution du problème
(m) (m)
∀s ∈ V2 , arn (s(m)
n ,s) = l
un−1 ,rn
(s). (4.11)
(m)
Il est par ailleurs facile de voir que l’unique solution rn ∈ V1 de (4.10) est également l’unique
solution de
rn(m) = argmin Jn−1 (r,sn(m−1) ) = argmin E(un−1 + r ⊗ s(m−1)
n ).
r∈V1 r∈V1

(m)
De même, l’unique solution sn ∈ V2 de (4.11) est également l’unique solution de

s(m)
n = argmin Jn−1 (rn(m) ,s) = argmin E(un−1 + rn(m) ⊗ s).
s∈V2 s∈V2

En pratique, on observe numériquement que cet algorithme de point fixe converge très souvent
exponentiellement vite en fonction du nombre d’itérations m.

4.2 Cas de la résolution de l’équation de Laplace


Le but de cette section est de vous illustrer comment les algorithmes gloutons et algorithmes
de directions alternées peuvent être mis en oeuvre sur la résolution de l’équation de Laplace.
Dans cette section, nous supposerons pour simplifier que d = 2 et que Ω1 = Ω2 = (0,1) et ne
considèrerons que l’algorithme glouton pur.
Le principe de l’algorithme est de construire une approximation de la solution u du problème
de Laplace:
chercher u ∈ H01 ((0,1)2 ) solution de

−∆x1 ,x2 u(x1 ,x2 ) = f (x1 ,x2 ), (x1 ,x2 ) ∈ (0,1)2 ?


ß
u(x1 ,x2 ) = 0, (x1 ,x2 ) ∈ ∂(0,1)2 ,

avec f ∈ L2 ((0,1)2 ), sous la forme d’une somme de fonctions produits tensoriels, i.e. sous la forme
n
X n
X
u(x1 ,x2 ) ≈ rk ⊗ sk (x1 ,x2 ) = rk (x1 )sk (x2 ),
k=1 k=1

où chaque terme apparaissant dans la somme ci-dessus est calculé de manière itérative, et où pour
tout 1 ≤ k ≤ n, rk ,sk ∈ H01 (0,1).
Dans ce cas, en particulier, V1 = V2 = H01 (0,1) et V = H01 ((0,1)2 ). De plus, pour tout v,w ∈ V ,
ˆ
a(v,w) = ∂x1 v∂x1 w + ∂x2 v∂x2 w
(0,1)2

et ˆ
l(v) = f v.
(0,1)2
4.2 Cas de la résolution de l’équation de Laplace 27

4.2.1 Au niveau continu

Dans cette section, nous allons présenter en détails comment l’algorithme glouton pur et l’al-
gorithme des directions alternées présenté précédemment pour des problèmes de Lax-Milgram
généraux peut être mis en oeuvre en pratique dans le cas de l’équation de Laplace.
Dans ce cas particulier, l’algorithme glouton s’écrit comme suit:
• Initialisation: Soit u0 (x1 ,x2 ) := 0.
• Itération n ≥ 1: On choisit rn ,sn ∈ H01 (0,1) comme une solution du problème de minimisation

(rn ,sn ) ∈ argmin E (un−1 + r ⊗ s) (4.12)


r,s∈H01 (0,1)

On définit ensuite un = un−1 + rn ⊗ sn .


On voit qu’à l’itération n ≥ 1 de l’algorithme, on a par récurrence
n
X
un = un−1 + rn ⊗ sn = rk ⊗ sk .
k=1

A l’itération n de l’algorithme, on recherche donc un couple (rn ,sn ) ∈ (H01 (0,1))2 solution du
problème de minimisation

(rn ,sn ) ∈ argmin E(un−1 + r ⊗ s), (4.13)


(r,s)∈H01 (0,1)

Pn−1
où un−1 (x1 ,x2 ) = k=1 rk (x1 )sk (x2 ) est la somme des termes calculés aux itérations précédentes.

Pour tout n ∈ N , on définit l’application Jn−1 : H01 (0,1) × H01 (0,1) → R comme suit:

∀(r,s) ∈ H01 (0,1) × H01 (0,1), Jn−1 (r,s) := E(un−1 + r ⊗ s).

On rappelle que l’espace H01 (0,1) × H 1 (0,1), muni du produit scalaire défini par

∀(r1 ,s1 ),(r2 ,s2 ) ∈ H01 (0,1)×H01 (0,1), h(r1 ,s2 ),(r2 ,s2 )iH01 (0,1)×H01 (0,1) := hr1 ,r2 iH01 (0,1) +hs1 ,s2 iH01 (0,1) ,

est un espace de Hilbert.


Exercice 4.2. (1) Montrer que si (rn ,sn ) ∈ H01 (0,1) × H01 (0,1) est une solution de (4.13), alors
(rn ,sn ) est solution du système d’équations couplées: pour tout r,s ∈ H01 (0,1),
 0 2
 krn kL2 (0,1) hsn ,siL2 (0,1) + krn k2L2 (0,1) hs0n ,s0 iL2 (0,1)

= hf,rn ⊗ siL2 ((0,1)2 )



 −h∂x1 un−1 ,rn0 ⊗ siL2 ((0,1)2 ) + h∂x2 un−1 ,rn ⊗ s0 iL2 (0,1)2 ,



(4.14)
ks0 k2 2 hr ,ri 2 + ksn k2L2 (0,1) hrn0 ,r0 iL2 (0,1)

 n L (0,1) n L (0,1)





 = hf,r ⊗ sn iL2 ((0,1)2 )
−h∂x1 un−1 ,r0 ⊗ sn iL2 ((0,1)2 ) + h∂x2 un−1 ,r ⊗ s0n iL2 (0,1)2 .

(2) Montrer que (rn ,sn ) ∈ H01 (0,1)2 est de manière équivalente solution du système d’EDPs
couplées suivant:
 0 2 2 00
 krn´kL2 (0,1) sn (x2 ) + krn kL2 (0,1) (−sn (x2 ))

 1
 = 0 f (x1 ,x2 )rn (x1 ) dx1
´1 Ä´ 1


 ä
0
 − 0 ∂x1 un−1 (x1 ,x2 )rn (x1 ) dx1 + ∂x2 0 ∂x2 un−1 (x1 ,x2 )rn (x1 ) dx1 ,



(4.15)
0 2 2 00
ks k r (x ) + ks k (−r (x ))

n L (0,1) n 1 n L (0,1) n 1

´1

 2 2

= f (x ,x )s (x ) dx

−´1 ∂ u
1 2 n 2 2 Ä´ 1


 0 ä
(x ,x )s0 (x ) dx + ∂

0 x2 n−1 1 2 n 2 2 x1 ∂ u
0
(x ,x )s (x ) dx .
x1 n−1 1 2 n 2 2
28 4 Algorithmes gloutons

(3) Montrer que ces équations peuvent se réécrire sous la forme:

∀s ∈ H01 (0,1), arn (sn ,s) = lf,un−1 ,rn (s), (4.16)

et
∀r ∈ H01 (0,1), asn (rn ,r) = lf,un−1 ,sn (r), (4.17)
rn
où a : H01 (0,1)
× H01 (0,1)
→ R et a : H01 (0,1) × H01 (0,1)
sn
→ R sont deux formes bilinéaires
symmétriques et continues, et où lf,un−1 ,rn : H01 (0,1) → R
et lf,un−1 ,sn : H01 (0,1) → R sont
des formes linéaires continues, dont on donnera les expressions en fonction de a, l rn et sn .
Montrer de plus que si rn 6= 0 (resepctivement sn 6= 0), arn (respectivement asn ) est coercive.
(4) En déduire pour tout rn ∈ H01 (0,1) tel que rn 6= 0 (respectivement pour tout sn ∈ H01 (0,1)
tel que sn 6= 0), il existe une unique solution sn ∈ H01 (0,1) (resepctivement rn ∈ H01 (0,1)) au
problème variationnel (4.16) (respectivement (4.17)).
PP
(5) On suppose qu’il existe P ∈ N∗ tel que f (x1 ,x2 ) = p=1 fp1 (x1 )fp2 (x2 ) où pour tout 1 ≤ p ≤ P ,
fp1 ,fp2 ∈ L2 (0,1). Montrer que
PP
lf,un−1 ,rn (s) = Ä p=1 hfp1 ,rn iL2 (0,1) hfp2 ,siL2 (0,1)
Pn−1 0 0 0 0
ä (4.18)
− k=1 hrk ,rn iL2 (0,1) hsk ,s iL2 (0,1) + hrk ,rn iL2 (0,1) hsk ,siL2 (0,1)

et
PP
lf,un−1 ,sn (r) = Ä p=1 hfp2 ,sn iL2 (0,1) hfp1 ,riL2 (0,1)
Pn−1 0 0 0 0
ä (4.19)
− k=1 hsk ,sn iL2 (0,1) hrk ,r iL2 (0,1) + hsk ,sn iL2 (0,1) hrk ,riL2 (0,1)

Pn−1
On rappelle que un−1 (x1 ,x2 ) = k=1 rk (x1 )sk (x2 ).

En pratique, le système d’équations (4.7) est résolu par un algorithme de point fixe, qui s’écrit
plus précisément comme suit: soit  > 0 un critère d’erreur fixé.
Algorithme de directions alternées:

(0) (0)
(1) Initialisation: On choisit (rn ,sn ) ∈ H01 (0,1) aléatoirement.
(m)
(2) Itération m ≥ 1: On définit rn ∈ H01 (0,1) comme l’unique solution du problème
(m−1) (m−1)
∀r ∈ H01 (0,1), asn (rn(m) ,r) = lf,un−1 ,sn (r).
(m)
Puis, on définit sn ∈ H01 (0,1) comme l’unique solution du problème
(m) (m)
∀s ∈ H01 (0,1), arn (s(m)
n ,s) = l
f,un−1 ,rn
(s).
(m) (m) (m−1) (m−1) (m)
Si krn ⊗ sn − rn ⊗ sn kH01 ((0,1)2 ) < , on arrête l’algorithme et on définit rn = rn
(m)
et sn = sn . Sinon, on passe à l’itération suivante: m := m + 1.

En pratique, on observe numériquement que cet algorithme de point fixe converge très souvent
exponentiellement vite en fonction du nombre d’itérations m.
4.2 Cas de la résolution de l’équation de Laplace 29

4.2.2 Discrétisation en éléments finis

Nous présentons dans cette partie comment l’algorithme PGD présenté dans la section précédente
peut être implémenté en pratique à l’aide d’une discrétisation en éléments finis. Le but du TP
sur la méthode PGD sera d’implémenter l’algorithme discret décrit ci-dessous. Nous nous plaçons
toujours dans le cas où d = 2 pour simplifier.
Soit (φi )1≤i≤I une famille libre de fonctions de H01 (0,1), qui sera typiquement une base de
fonctions éléments finis. On note VI := Vect{φi (x),1 ≤ i ≤ I}. On note D := (Dij )1≤i,j≤I ∈ RI×I
et M := (Mij )1≤i,j≤I ∈ RI×I les matrices définies comme suit:
ˆ 1 ˆ 1
∀1 ≤ i,j ≤ I, Dij := φ0i φ0j et Mij := φi φj .
0 0

PP
On suppose également qu’il existe P ∈ N∗ tel que f (x1 ,x2 ) = 1 2
p=1 fp (x1 )fp (x2 ) où pour
tout 1 ≤ p ≤ P , fp1 ,fp2 ∈ L2 (0,1). Pour tout 1 ≤ p ≤ P , on note Fp1 := (Fp,i
1
)1≤i≤I ∈ RI et
2 2 I
Fp := (Fp,i )1≤i≤I ∈ R les vecteurs définis comme suit:
ˆ 1 ˆ 1
1
∀1 ≤ i ≤ I, Fp,i := fp1 φi et 2
Fp,i := fp2 φi .
0 0

A l’itération n ∈ N∗ de l’algorithme, on cherche à approcher les solutions rn ,sn ∈ H01 (0,1) des
équations (4.17) et (4.16) par des fonctions rnI ,sIn ∈ VI solutions de
I I I
∀sI ∈ VI , arn (sIn ,sI ) = lf,un−1 ,rn (sI ), (4.20)

et I I I
∀rI ∈ VI , asn (rnI ,rI ) = lf,un−1 ,sn (rI ), (4.21)
Pn−1
où uIn−1 (x1 ,x2 ) = I I
k=1 rk (x1 )sk (x2 ) est la somme des termes calculés aux itérations précédentes.

Exercice 4.3. (1) Soit R = (Ri )1≤i≤I ,S = (Si )1≤i≤I ∈ RI . Montrer que si rI ,sI ∈ VI sont les
fonctions définies comme
I
X I
X
rI (x) = Ri φi (x) et sI (x) = Si φi (x),
i=1 i=1

alors
ˆ 1 ˆ 1
(rI )0 (x)(sI )0 (x) dx = RT DS = S T DR et rI (x)sI (x) dx = RT M S = S T M R.
0 0

(2) Pour tout 1 ≤ k ≤ n, on note Rk := (Rk,i )1≤i≤I ∈ RI et Sk := (Sk,i )1≤i≤I ∈ RI les vecteurs
des coordonnées des fonctions rkI et sIk dans la base (φi )1≤i≤I de telle sorte que:
I
X I
X
rkI (x1 ) = Rk,i φi (x1 ) et sIk (x2 ) = Sk,i φi (x2 ).
i=1 i=1

Montrer que rnI ,sIn ∈ VI sont solutions des équations (4.20) et (4.21) si et seulement si Rn et
Sn sont solutions des systèmes matriciels couplés suivants:

AR (Sn )Rn = fRn−1 (Sn ) et AS (Rn )Sn = fSn−1 (Rn ),

où pour tout R,S ∈ RN ,


30 4 Algorithmes gloutons

AR (S) = (S T DS)M + (S T M S)D ∈ RI×I ,


AS (R) = (RT DR)M + (RT M R)D ∈ RI×I ,
P
X n−1
X
fRn−1 (S) = (S T
Fp2 )Fp1 − ((SkT DSk )M Rk + (SkT M Sk )DRk ) ∈ RI ,
p=1 k=1
P
X n−1
X
fSn−1 (R) = (R T
Fp1 )Fp2 − ((RkT DRk )M Sk + (RkT M Rk )DSk ) ∈ RI .
p=1 k=1

(3) Ecrire l’algorithme de point fixe présenté à la section précédente pour le calcul des fonctions
rn ,sn ) sous forme discrétisée.

Vous aimerez peut-être aussi