Cours EDP
Cours EDP
Mathématiques 2
D. Verwaerde et P. Laurent-Gengoux
P. Laurent-Gengoux
Année 2006-2007
2 Analyse des équations aux dérivées partielles
ECP 2006-2007 2
Table des matières
1 Rappels et prérequis 11
1.1 Quelques formules utiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.2 Formule d’intégration par parties en dimension N . . . . . . . . . . . . . . 11
1.1.3 Formule de Stokes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Systèmes d’équations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.1 Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.2 Systèmes d’équations non linéaires . . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Résolution d’un système non linéaire par déformation . . . . . . . . . . . . 17
1.3 Systèmes différentiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 Le problème de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.2 Systèmes différentiels linéaires homogènes . . . . . . . . . . . . . . . . . . 19
1.4 Principes de construction d’équations aux dérivées partielles . . . . . . . . . . . . . 22
1.4.1 Les lois de conservation ou d’équilibre . . . . . . . . . . . . . . . . . . . . 22
1.4.2 Les principes d’extrémalité . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3
4 Analyse des équations aux dérivées partielles
ECP 2006-2007 4
TABLE DES MATIÈRES 5
5 Mathématiques 2
6 Analyse des équations aux dérivées partielles
ECP 2006-2007 6
TABLE DES MATIÈRES 7
7 Mathématiques 2
8 Analyse des équations aux dérivées partielles
ECP 2006-2007 8
Présentation
Objectifs de ce document
Ce document est un document de référence pour le cours d’analyse et d’approximation des équa-
tions aux dérivées partielles. Il est complémentaire des documents décrivant chaque séance qui ont été
distribués à part. Il contient quelques rappels et de nombreux passages qui ne sont pas au programme,
(le programme est défini par les documents décrivant chaque séance). En complément du programme,
axé sur l’analyse qualitative et numérique des équations aux dérivées partielles, nous présentons dans
ce document :
– des résumés des méthodes classiques de calcul de solutions d’équations aux dérivées partielles.
– quelques compléments pour aller plus loin dans l’étude des équations aux dérivées partielles.
– de nombreux exemples non traités en cours.
Nous nous sommes efforcés de maintenir un équilibre entre la généralité et la complication des énon-
cés : les théorèmes ne sont pas énoncés sous la forme la plus générale chaque fois que cela complique
trop les notations ou que cela les rend trop abstraites ; c’est a fortiori vrai pour les démonstrations.
Nous avons évité au maximum de recourir à des notions non élémentaires de calcul différentiel et
surtout d’intégration et d’analyse fonctionnelle. Notamment nous n’utilisons pas le cadre des espaces
de Sobolev ni la théorie des distributions, nous leur consacrons cependant un court chapitre pour
en expliquer l’intérêt. Cette simplification est possible parce que nous ne traitons pas la question de
l’existence des solutions d’une équation aux dérivées partielles, nous nous limitons à l’étude qualita-
tive des solutions.
Position du problème
Nous présentons dans ce document quelques idées pour comprendre les problèmes, en général
d’origine physique, dans lesquels on cherche une ou plusieurs fonctions vérifiant des équations aux
dérivées partielles et des conditions supplémentaires, par exemple les valeurs en certains points de la
fonction inconnue ou de ses dérivées. Le sujet est évidemment très vaste, puisque les équations aux
dérivées partielles modélisent l’ensemble des phénomènes physiques, certains domaines sont encore
mal connus et beaucoup de problèmes sont l’objet de conjectures. Nous n’avons donc pas l’ambition
dans ce court document de faire une synthèse des connaissances actuelles mais nous essayons d’in-
troduire quelques idées simples pour comprendre les problèmes élémentaires.
Prenons l’exemple des équations linéaires ; les solutions d’une équation aux dérivées partielles
linéaire forment un espace de dimension infinie, elles dépendent linéairement, par exemple, des co-
9
10 Analyse des équations aux dérivées partielles
efficients d’une série, ou encore de la donnée d’une ou de plusieurs fonctions arbitraires. “Résoudre
ces équations”, c’est, au mieux, obtenir des représentations de la solution sous forme de séries et
d’intégrales dépendant de fonctions arbitraires. Mais les représentations ainsi obtenues de la solution
générale de l’équation sont peu manipulables, sauf dans quelques cas particuliers, et ne permettent
pas de comprendre quelles conditions supplémentaires déterminent la solution. Le plus souvent on ne
pourra calculer que des approximations des solutions.
Dans le cas général, on peut essayer de déterminer des solutions d’une équation aux dérivées par-
tielles en posant des problèmes de Cauchy, c’est à dire la détermination locale de la solution à partir
de certaines de ses valeurs sur une courbe (si on est en dimension 2). Mais d’une part ce problème,
quand il a une solution (théorème de Cauchy-Kovalevska), n’est pas toujours bien posé : la solution
ne dépend pas toujours de façon stable de ses valeurs sur une courbe et elle dépend d’une infinité
de paramètres (les valeurs sur la courbe). D’autre part les conditions supplémentaires sont aussi en
nombre infini, la détermination des paramètres est donc un problème non trivial.
C’est pourquoi nous ne présenterons pas, comme cela a été fait pour les équations différentielles,
“une théorie générale” reposant sur les propriétés des solutions d’une équation. Nous étudierons de
préférence des problèmes complètement posés ayant en général une solution bien déterminée, pour
lesquels on peut s’appuyer sur l’interprétation physique, pour comprendre les propriétés du problème.
Et nous étudierons des principes généraux qui permettent de comprendre pourquoi un problème est
bien posé, quelles sont les propriétés de ses solutions et comment on peut construire des approxima-
tions des solutions.
ECP 2006-2007 10
Chapitre 1
Rappels et prérequis
En prenant Φ = ∇u on obtient
Z Z Z
∂u
h∇u, ∇vi dΩ = −∆u v dΩ + v dΓ (1.4)
Ω Ω Γ ∂n
∂u
où ∂n = h∇u, ~ni est la dérivée de u dans la direction ~n.
11
12 Analyse des équations aux dérivées partielles
Notion de conditionnement
Dans ce paragraphe nous n’utilisons que la norme euclidienne, qui conduit à des calculs simples,
mais il peut être nécessaire de faire la même étude pour d’autres norme, notamment la norme kxk∞ .
Un système linéaire peut avoir une solution et une seule sans que cette solution soit stable vis à
vis des données. Considérons une perturbation δb du second membre b de (1.5), elle implique une
perturbation δx = A−1 δb de la solution et donc une erreur relative
kδxk2 kA−1 k2 kδbk2
≤
kxk2 kxk2
Or b = Ax implique kbk2 ≤ kAk2 kxk2 et donc
kbk2
kxk2 ≥
kAk2
Il vient
kδxk2 kAk2 kA−1 k2 kδbk2
≤
kxk2 kbk2
Le coefficient d’amplification de l’erreur relative est donc majoré par C(A) = kAk2 kA−1 k2 . D’où
la définition :
ECP 2006-2007 12
CHAPITRE 1. RAPPELS ET PRÉREQUIS 13
Si la matrice A est symétrique définie positive on a kAk2 = λn , où λ1 ≤ ... ≤ λn sont les valeurs
propres de A et kA−1 k2 = λ11 , donc
λn
C(A) =
λ1
est un majorant du coefficient d’amplification de l’erreur relative sur la solution du système (1.5).
Noter que ce majorant est atteint si b et δb sont les vecteurs propres associés à λn et λ1 .
Résolution numérique
Pour résoudre numériquement un système linéaire on utilise deux grandes classes de méthode :
− Les méthodes dites directes qui sont des variantes de la méthode d’élimination de Gauss (dites
aussi méthode du pivot) différent essentiellement par l’ordre des éliminations ce qui revient à définir
une renumérotation des inconnues et des équations.
− Les méthodes itératives, appliquées surtout aux matrices de grande dimension et creuses, sont,
pour les plus efficaces, dérivées de la méthode du gradient conjugué qui est étudiée dans le cours
d’optimisation. Ces méthodes sont des méthodes d’optimisation qui utilisent l’équivalence suivante :
Proposition 3 Soit A une matrice symétrique définie positive. Soit F (x) = 21 hAx, xi − hb, xi. La
fonction F (x) est strictement convexe, tend vers l’infini quand kxk tend vers l’infini, et ∇F (x) =
Ax − b.
Un vecteur x̄ est solution du système linéaire Ax = b si et seulement si x̄ réalise le minimum (unique)
de la fonction F (x) sur Rn .
un système de n équations non linéaires à n inconnues, où A(x) est une application C 1 de Rn dans
lui-même. Un tel système peut être très difficile à analyser et à résoudre numériquement. La théorie
la plus générale qui couvre l’existence des solutions de (1.6) est la “théorie du degré topologique” qui
dépasse le cadre de cette introduction. Nous allons voir quelques conditions suffisantes qui facilitent
l’étude de ce système.
13 Mathématiques 2
14 Analyse des équations aux dérivées partielles
A(x) = ∇F (x)
Les solutions du système sont alors les points stationnaires de F (x). Or l’étude de la fonction F (x)
permet sous certaines conditions d’affirmer l’existence d’au moins un extrémum, son éventuelle uni-
cité ou la présence d’un nombre minimal d’extrémums. Pour l’existence on utilisera la proposition
Proposition 4 Si F (x) tend vers +∞ quand kxk tend vers l’infini alors F (x) admet au moins un
minimum et le système A(x) = 0 admet donc au moins une solution.
et
Proposition 5 Si F (x) est strictement convexe alors F (x) admet au plus un minimum et le système
A(x) = 0 admet donc au plus une solution.
Noter que l’existence locale d’une fonction potentielle équivaut à la symétrie de la matrice jacobienne
et qu’il existe des situations plus générales où l’on peut étudier le nombre d’extrémums de la fonction
F (x) et leur nature, voir le cours d’optimisation, chapitre 1.
x = x − ρA(x)
et on pose f (x) = x − ρA(x). Trouver une solution du système non linéaire équivaut à trouver un
point fixe de l’application f (x).
Rappelons le théorème du point fixe pour les applications contractantes, sous une forme adaptée :
Théorème 2 (Point fixe) Si une fonction f (x) laisse invariante une partie fermée C de Rn et si elle
est lipschitzienne de constante k < 1 pour une norme quelconque, i.e.
alors elle admet un point fixe x̄ et un seul sur C. De plus si x0 est un point quelconque de C la suite
définie par la récurrence
x0 ∈ C quelconque
et
xn = f (xn−1 )
converge vers x̄
ECP 2006-2007 14
CHAPITRE 1. RAPPELS ET PRÉREQUIS 15
Théorème 3 (Brouwer) Si une fonction continue f (x) laisse invariant un convexe compact C de Rn
elle admet (au moins) un point fixe x̄ sur C.
Le plus souvent le convexe C est une boule de Rn . Si le champ de vecteur A(x) est dirigé vers l’ex-
térieur de la boule quand x est sur la sphère frontière, on vérifie que l’application f (x) = x − λA(x)
applique la sphère sur l’intérieur de la boule pour λ assez petit. Au prix d’une petite complication
technique1 on peut appliquer le théorème de Brouwer et on en déduit la proposition :
Proposition 6 (Poincaré) Si il existe r ∈ Rn tel que
Applications monotones
Nous allons voir des conditions pratiques d’application du théorème (2)
Définition 3 Une application A(x) d’un convexe C ⊂ Rn dans Rn est monotone si
hA(x) − A(y), x − yi ≥ 0
Une application A(x) est uniformément monotone si il existe une constante α > 0 telle que
Si A(x) = ∇F (x) la monotonie de A(x) équivaut à la convexité de F (x), voir le cours d’optimisa-
tion, chapitre 2. Dans le cas général on a le théorème :
Théorème 4 Si une application A(x) de Rn dans Rn est uniformément monotone et lipschitzienne,
le système
A(x) = 0
admet une solution et une seule.
On peut étendre ce théorème à une boule de Rn .
Ce théorème est une conséquence immédiate du lemme :
Lemme 1 Si une application A(x) de Rn dans Rn est uniformément monotone, de constante α et
lipschitzienne de constante M , l’application
α2
f (x) = x − (1 − )A(x)
M2
q
α2
est lipchitzienne de constante k = (1 − M2
) < 1 ; elle vérifie donc les condition du théorème de
point fixe (2).
1
Considérer l’application f (x) = Π(x−λA(x)) où Π(x) est la projection sur la boule, cette application envoie la boule
C dans elle-même par construction, elle admet donc un point fixe. Or un point fixe x̄ de f (x) est dans la boule ; si x̄ est
strictement à l’intérieur il n’est pas l’image par Π d’un point extérieur, donc x = x−λA(x), si x̄ est sur la sphère, x̄−λA(x̄)
est à l’intérieur de la boule par définition de λ et donc Π(x̄−λA(x̄)) = x̄−λA(x̄) ; d’où x̄ = Π(x̄−λA(x̄)) = x̄−λA(x̄).
15 Mathématiques 2
16 Analyse des équations aux dérivées partielles
Les points fixes de f (x) sont les solutions de A(x) = 0, ce qui démontre le théorème.
Démonstration du lemme : Rappelons que A(x) est lipschitzienne en norme euclidienne si
(ce qui sera vrai sur tout borné si A(x) est une application C 1 ).
Définissons f (x) = x − λA(x) et montrons que f (x) est une application contractante
et en développant
Choisissons
α
λ=
M2
il vient
α2
hf (x) − f (y), f (x) − f (y)i ≤ (1 − )hx − y, x − yi
M2
− Si le système est associé à un potentiel on peut calculer les solutions qui sont des extrémums
par des méthodes d’optimisation, voir le chapitre 3 du cours d’optimisation.
− Dans le cas général on peut utiliser la méthode de Newton (voir le chapitre 3 du cours d’op-
timisation). La méthode de Newton est une méthode itérative générale de résolution d’un système
non-linéaire A(x) = 0 : connaissant une approximation xk de la solution, on détermine xk+1 en
linéarisant, localement autour de xk ; l’équation A(x) = 0. On a, en développant A(x) à l’ordre 1
autour de xk
A(x) = A(xk ) + DA(xk ).(x − xk ) + (x − xk )kx − xk k
Si on veut que A(xk+1 ) = 0, en négligeant les termes du d’ordre 2, il vient
L’application linéaire DA(x) a pour matrice dans la base canonique de Rn la jacobienne JA(x) .
L’algorithme peut donc s’écrire, en mettant en évidence la résolution du système linéaire de matrice
JA(xk ),
ECP 2006-2007 16
CHAPITRE 1. RAPPELS ET PRÉREQUIS 17
Faire :
Mk = JA(xk )
g k = A(xk )
Mk δ k = −g k
xk+1 = xk + δ k
Tant que kg k k ≥ epskg 0 k
On montre que, si A(x) est deux fois différentiable et si x0 est assez proche d’une solution, les
itérations convergent vers cette solution. On montre de plus que la convergence est quadratique
ce qui fait que, dès que la convergence est amorcée, elle devient très rapide.
En pratique la méthode est souvent instable et le choix d’un point de départ x0 assurant la convergence
peut s’avérer très délicat. La mise oeuvre exige la résolution d’un système linéaire, dont la matrice
JA(xk ) change à chaque itération, ce qui peut être très coûteux si la matrice est pleine et de grande
dimension.
− La méthode de Newton peut être complétée par une stratégie de “déformation par homotopie” :
on introduit un paramètre λ et un système A(x, λ) tel que A(x) = A(x, 1) et que le système A(x, 0) =
0 soit simple à résoudre (par exemple linéaire). On choisit une suite de valeur λ1 = 0 ≤ λk ≤ λp = 1.
De proche en proche on détermine la solution de A(x, λk ) = 0 en initialisant la méthode de Newton
par la solution de A(x, λk−1 ) = 0 jusqu’à atteindre λp = 1. Nous développons cette méthode dans le
paragraphe suivant.
K(U) = F (1.7)
17 Mathématiques 2
18 Analyse des équations aux dérivées partielles
– Euler explicite :
(Uk+1 − Uk )
K0 (Uk ) = F0 (tk )
τ
– Euler implicite :
(Uk+1 − Uk )
K0 (Uk+1 ) = F0 (tk+1 )
τ
que l’on peut réécrire sous la forme :
– Euler explicite :
K0 (Uk )Uk+1 = K0 (Uk )Uk + τ F0 (tk )
– Euler implicite :
K0 (Uk+1 )(Uk+1 − Uk ) = τ F0 (tk )
Pour le schéma explicite il suffit de résoudre à chaque pas un système linéaire dont la matrice K0 (Uk )
peut être explicitement calculée. Dans un problème obtenu par une approximation par éléments finis
d’un problème continu cette matrice est celle d’un problème “linéarisé”, elle sera calculée par les
méthodes étudiées pour les équations linéaires. Pour le schéma implicite (qui est plus stable et permet
des pas plus grands) la matrice fait partie des inconnues, on détermine Uk+1 par une méthode de
point fixe :
V0 = Uk (1.9)
0 i i+1 0 i k 0
K (V )V = K (V )U + τ F (tk ) (1.10)
la suite Vi converge, si le pas τ n’est pas trop grand, vers Uk+1 . On préfère s’assurer à chaque pas
que Uk+1 est solution de :
K(U) = F(tk+1 ) (1.11)
en appliquant localement la méthode de Newton à cette équation :
V0 = Uk (1.12)
0 i i+1 0 i i i
K (V )V = K (V )V − (K(V ) − F(tk+1 )) (1.13)
la suite Vi converge, si le pas τ n’est pas trop grand, vers Uk+1 .
Remarque : La matrice K0 (Uk ) peut ne pas être inversible, ce sera le cas si Uk est point de bifurcation
(i.e. plusieurs branches de solution passent par ce point). En mécanique, par exemple, cette situation
correspond à certaines propriétés du système : passage par une valeur limite du chargement (en cas
d’augmentation de celui-ci il n’y a plus d’équilibre possible) ou encore au phénomène de flambement
(voir le chapitre 1 du cours d’Optimisation).
ECP 2006-2007 18
CHAPITRE 1. RAPPELS ET PRÉREQUIS 19
Les hypothèses peuvent être adaptée à des fonctions définies sur un ouvert de Rn . Énonçons le théo-
rème fondamental d’existence locale d’une solution de (1.14) sous une forme simplifiée
Théorème 5 (Cauchy-Lipschitz) Si f (t, x) est une fonction continue par rapport à (t, x) et C 1 par
rapport à x, alors le problème (1.14) admet au plus une solution et il existe θ ≤ T tel qu’il existe une
solution sur [0, θ[.
Proposition 7 () Si la solution x(t) de (1.14) est bornée sur [0, θ], cette solution peut être prolongée
sur [0, θ0 [ avec θ0 > θ.
(intuitivement, ou bien la solution explose en θ ou bien elle peut être prolongée) on en déduit le
théorème :
Théorème 6 () Si f (t, x) est continue par rapport à (t, x), C 1 par rapport à x, et à croissance au
plus linéaire en x (i.e. ∃M, c / kf (t, x)k ≤ M kxk + c), alors le problème (1.14) admet une solution
et une seule sur [0, T ].
On montre également que la solution de (1.14) dépend continûment de x0 ainsi que de tout paramètre
par rapport auquel f (t, x) est continu. Autrement dit la solution de(1.14) est stable vis à vis des
données du problème.
La solution “générale” d’un système différentiel dans Rn existe donc localement sous des hypothèses
très faibles et elle dépend de n paramètres que l’on peut choisir comme les valeurs initiales d’un
problème de Cauchy. Le théorème (6) est un outil puissant pour montrer l’existence globale de la
solution. Nous n’aurons pas de résultat aussi général pour les équations aux dérivées partielles.
19 Mathématiques 2
20 Analyse des équations aux dérivées partielles
Si la matrice A est diagonalisable sous la forme A = P −1 DP où D est une matrice diagonale dont
les coefficients sont les valeurs propres λi de A ; on en déduit l’écriture plus explicite de exp (tA)
où exp (tD) est la matrice diagonale dont les coefficients sont exp (tD)i,i = exp (tλi ). Le théorème
suivant est une conséquence immédiate de cette expression, et il s’étend à des matrices non diagona-
lisables :
Théorème 7 Toutes les solutions du système différentiel (1.15) tendent vers 0 quand t ↔ +∞ si et
seulement si la partie réelle des valeurs propres de la matrice A est négative.
Analyse qualitative
Définition 5 Soit un produit scalaire h., .i sur Rn . Un système différentiel est conservatif si les solu-
tions du système homogène conservent le carré scalaire hx(t), x(t)i.
Un système différentiel est dissipatif si le carré scalaire hx(t), x(t)i tend vers 0.
Le carré scalaire abstrait que nous introduisons représente souvent une grandeur physique concrète,
une énergie ou une entropie. Nous utiliserons la proposition
Proposition 8 Soit un produit scalaire h., .i sur Rn . Le système (1.15) est dissipatif si et seulement si
la matrice A est définie négative. Le système (1.15) est conservatif si et seulement si la matrice A est
antisymétrique.
Preuve
De (1.15) on déduit
hx, x0 (t)i = hAx, xi
et donc
d 1
hx, xi = hAx, xi
dt 2
Le résultat en découle car A est définie négative si x 6= 0 ⇔ hAx, xi < 0 et A est antisymétrique2 si
et seulement si ∀x hAx, xi = 0.
♦
2
L’antisymétrie de la matrice A, hAx, yi = −hAy, xi, équivaut à
∀x ∈ R2N hAx, xi = 0
En effet si ∀x, hAx, xi = 0 alors ∀x, y hA(x + y), (x + y)i = 0 = hAx, xi + hAy, yi + hAx, yi + hAy, xi =
hAx, yi + hAy, xi, donc hAx, yi = −hAy, xi
ECP 2006-2007 20
CHAPITRE 1. RAPPELS ET PRÉREQUIS 21
Autres problèmes
Si on cherche une solution d’un système différentiel vérifiant d’autres types de conditions que
(1.14) (conditions aux deux extrémités d’un intervalle, condition de périodicité...) , il n’existe pas
de résultat aussi simple d’existence d’une solution. Mais on peut ramener, grace au théorème (6), le
problème à l’étude d’un système d’équations sur Rn par la méthode de “tir” : par exemple si on veut
fixer p < n composantes de x(0) et n − p composantes de x(T ), on considère la solution du problème
(1.14) avec un point de départ x(0) = x0 où p composantes de x0 prennent les valeurs fixées et les
n − p autres composantes prennent des valeurs λ1 , ..., λp libres ; la valeur de la solution x(t) en T
doit vérifier n − p conditions, ce qui fait n − p équations pour les n − p paramètres λi .
Présentons un exemple d’application de cette méthode : on considère un problème aux limites pour
une équation du second ordre
où ∀t ∈ [0, 1], c(t) > 0 ∈ C([0, 1]), f (t) ∈ C([0, 1]). On introduit le problème auxiliaire de Cauchy
00
−x (t) + c(t) x(t) = f (t) pour t ∈ [0, 1]
x(0) = 0 (1.17)
0
x 0) = λ
Ce problème de Cauchy admet une solution unique sur [0, 1] d’après le théorème (6). Pour que (1.16)
ait une solution, nous devons montrer qu’il existe λ tel que (1.17) a une solution x(t) telle que x(1) =
0. En notant x1 (t) la solution de (1.17) pour λ = 1 et f (t) = 0, et x2 (t) la solution de (1.17) pour
λ = 0, on vérifie immédiatement que la solution générale x(t) de (1.17) s’écrit
Pour montrer qu’il existe λ tel que x(1) = 0, il suffit de montrer que x1 (1) 6= 0.
Raisonnons par l’absurde : si x1 (1) = 0 le problème
00
−x (t) + c(t)x(t) = 0 pour t ∈ [0, 1]
x(0) = 0 (1.18)
x(1) = 0
admet comme solution x1 (t) par définition de cette fonction, et cette solution est non nulle puisque
x01 (0) = 1. Or
Z 1 Z 1
00
−x1 (t)x1 (t) dt + c(t)x21 (t) dt = 0
0 0
et, après intégration par parties du premier terme on obtient
Z 1 Z 1
x01 (t)2 dt + c(t)x21 (t) dt = 0
0 0
ce qui implique x1 (t) = 0 puisque c(t) > 0 par hypothèse. Ce qui contredit le fait que x01 (0) = 1.
21 Mathématiques 2
22 Analyse des équations aux dérivées partielles
∇ . Φ(x) = 0
Dans un problème d’évolution, si la variation d’une grandeur définie par une densité ρ(x, t) se traduit
par un flux Φ(x, t), le flux de ce champ à travers le bord de ω vérifie
Z Z
∂ρ
Φn ds + dω = 0
Γ ω ∂t
et donc Z
∂ρ
+ ∇ . x Φ dω = 0
ω ∂t
d’où
∂ρ
+ ∇ . xΦ = 0
∂t
Noter que cette équation s’écrit aussi
∇ . x,t Φ = 0
Exemples
− Soit un fluide de concentration c(x) qui diffuse dans un corps poreux. La diffusion est repré-
sentée par un flux de matière Φ(x). La loi empirique de la diffusion (Loi de Fick) suppose que le
flux Φ est proportionnel au gradient de concentration Φ = −k∇c. La conservation de la matière en
régime permanent implique la nullité du flux total à travers un contour quelconque et s’écrit donc
∇ . Φ = ∇ . (−k∇c) = 0
ECP 2006-2007 22
CHAPITRE 1. RAPPELS ET PRÉREQUIS 23
− Soit un fluide de masse volumique ρ(x, t) dont le mouvement est décrit par le champ de vitesse
u(x, t) ∈ R3 . Le flux de matière est Φ = ρu. La conservation de la masse dans le mouvement se
traduit par
∂ρ
+ ∇ . ρu = 0
∂t
Problème de dynamique
De même limitons nous à l’étude de l’évolution d’un système mécanique. Les problèmes de dy-
namique peuvent s’écrire sous forme “lagrangienne”, en l’absence de frottement et si le champ de
force dérive d’un potentiel :
Théorème 9 (Lagrange) La trajectoire q(t) d’un système est une extrémale de l’intégrale
Z T
A(q) = L(q, q 0 ) dt
0
23 Mathématiques 2
24 Analyse des équations aux dérivées partielles
ECP 2006-2007 24
Chapitre 2
Objectifs
Nous présentons dans ce chapitre les “problèmes modèles” pour l’étude des équations aux déri-
vées partielles ainsi que les grands problèmes de la physique mathématique.
− C’est un“problème aux limites” car la solution est déterminée par des conditions en tous les points
du bord du domaine.
− C’est un problème linéaire car l’opérateur aux dérivées partielles −∆ est linéaire.
− Nous verrons au chapitre 4 la définition d’un opérateur elliptique, elle est liée à la proposition (13)
ci-dessous.
Ce problème se retrouve dans tous les domaines de la physique, citons en particulier :
− Si g = 0, (2.1) est l’équation qui détermine la flèche u(x) des membranes tendues, chargées par
1
Nous ne préciserons pas cette notion, les domaines formés par l’intérieur d’une courbe C 1 et sans point double
conviennent...
25
26 Analyse des équations aux dérivées partielles
La fonction u vérifie ∆u = 0, c’est une fonction harmonique, le problème est donc de déterminer
une fonction harmonique en connaissant ces valeurs aux bords. La théorie des fonctions harmoniques
est très développée, rappelons la propriété essentielle (cf Cours Analyse 1) :
Proposition 10 Une fonction harmonique est localement la partie réelle d’une fonction analytique.
Une fonction u(x) est harmonique si et seulement si elle vérifie la propriété de la moyenne
Z 2π
1
u(x) = u(x + r exp iθ) dθ
2π 0
ECP 2006-2007 26
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 27
− Noter que l’équation ∆u(x) = 0 qui est du second ordre est formellement équivalente, après
élimination de v, au système du premier ordre
∂u ∂v
∂x = ∂y
(2.5)
∂u ∂v
=−
∂y ∂x
Ces équations forment les conditions de Cauchy reliant les parties réelles et imaginaires d’une fonc-
tion analytique.
− En utilisant les propriétés des fonctions analytiques on construit des solutions particulières de (2.4)
dans des domaines simples. Par exemple si Ω est le disque {x / kxk ≤ 1} on a
Z 2π
1 g(φ)(1 − r2 )
u(r, θ) = 2
dφ
2π 0 (r − 2r cos(θ − φ) + 1)
− On retrouve, en appliquant la formule précédente au centre d’un petit disque quelconque, qu’une
fonction harmonique vérifie la propriété de la moyenne (proposition 10).
− Une fonction harmonique sur Ω est C ∞ dans l’intérieur de Ω et même localement développable en
séries entières puisqu’elle est la partie réelle d’une fonction analytique. On en déduit qu’une solution
de (2.4) est régulière.
− Parce qu’elle est localement développable en séries entières, une solution de (2.4) ne peut être
localement nulle sans être partout nulle ; on en déduit qu’une perturbation locale de la donnée au bord
g entraîne une perturbation de la solution sur tout le domaine Ω : il n’y a pas d’effet à distance finie.
− Une fonction harmonique vérifie le principe du maximum :
Proposition 11 Les extrémums d’une fonction harmonique sur Ω sont atteints sur le bord de Ω.
C’est une conséquence de la formule de la moyenne. Cela implique
kuk∞ ≤ kgk∞
et donc la continuité, pour la norme infinie, de la solution u du problème de Laplace par rapport à
la donnée g sur le bord. Une fonction harmonique nulle sur le bord de Ω est donc nulle partout. On
en déduit l’unicité de la solution de (2.4) car si on a deux solutions leur différence est une fonction
harmonique nulle sur le bord et donc nulle partout.
Remarque : pour un domaine Ω de forme quelconque, il n’y a pas de solution explicite de (2.4), ex-
primée à l’aide d’intégrales ou de séries de fonctions usuelles. La dépendance de la solution d’un
problème aux dérivées partielles par rapport à la forme du domaine est non linéaire et elle trop com-
plexe pour s’exprimer par une formule : c’est une des difficultés majeure de la théorie des équations
aux dérivées partielles.
Résumons les propriétés de l’équation de Laplace
Proposition 12 Propriétés de l’équation de Laplace :
− la solution vérifie le principe du maximum (Proposition 11),
− la solution est régulière,
− une perturbation locale est à distance d’influence infinie,
− la solution vérifie le principe du minimum de Dirichlet (2.3).
27 Mathématiques 2
28 Analyse des équations aux dérivées partielles
Proposition 13 Soit
V0 = {u ∈ C 2 (Ω) / u|Γ = 0}
L’opérateur −∆, considéré comme un opérateur de L2 (Ω) dans lui même de domaine V0 , est symé-
trique défini positif.
Les propriétés des opérateurs symétrique définis positifs seront essentielles pour analyser ce pro-
blème.
– On montre que la solution de (2.6) est C ∞ dans tout disque où f est C ∞ (on dit que l’opérateur
∆ est hypo-elliptique).
– On montre que, si f ≥ 0 on a u ≥ 0 sur Ω, et de même, si f ≤ 0 on a u ≤ sur Ω. Ce qui
implique que si f1 ≥ f2 on a u1 ≥ u2 , ou, en d’autre termes, l’opérateur qui à une fonction f
associe la solution u de (2.6) est croissant au sens de l’ordre naturel sur les fonctions.
– Si Ω est R2 tout entier, si f est à support compact et si on astreint u à être nulle à l’infini alors
on a pour la solution une expression explicite bien connue en électrostatique
Z
1
u= ln kx − ykf (y) dΩ
2π R2
– Si Ω = [0, π] × [0, π] est un carré on obtient une solution explicite sous la forme d’un dévelop-
pement en série de Fourier2
X fn,p
u= sin nx sin py (2.7)
n,p
n2 + p2
où
Z π Z π
4
fn,p = 2 f (x, y) sin nx sin py dxdy
π 0 0
2
La convergence de cette série dépend de la vitesse de convergence vers 0 des coefficients de Fourier fn,p de la fonction
f , qui est d’autant plus rapide que la fonction f est plus régulière. Si la fonction f est très régulière la série converge
ponctuellement et peut être dérivée deux fois termes à termes, ce qui permet de justifier son expression et de justifier
l’existence d’une solution C 2 au problème (2.6). Si la fonction f est seulement continue, la série ne converge pas toujours
ponctuellement : en fait le problème n’admet pas toujours de solution au sens ordinaire, il faut utiliser les formulations
faibles ou les distributions pour donner un sens à (2.7), voir le chapitre 6
ECP 2006-2007 28
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 29
Expression de la solution
Développement en séries de Fourier
On peut obtenir une expression de la solution de (2.8) sous la forme d’un développement en série de
Fourier
X
u(x, t) = ak (t) sin (kπx) (2.9)
k
Les conditions aux limites sont automatiquement vérifiées. En reportant dans l’équation (2.8), il vient
et donc X
u(x, t) = ak exp (−k 2 π 2 ct) sin (kπx) (2.10)
k
où la constante ak est définie par la condition initiale comme un coefficient de Fourier de u0 (x)
Z 1
ak = 2 u0 (x) sin (kπx) dx
0
Noter que la série converge très vite, elle est dérivable terme à terme autant de fois que l’on veut, cela
implique que la solution est C ∞ quelle que soit la régularité de la donnée initiale.
29 Mathématiques 2
30 Analyse des équations aux dérivées partielles
Forme intégrale
Si on remplace dans (2.8) l’intervalle ]0, 1[ par R on peut trouver une expression intégrale de la
solution de (2.8) Z +∞
1 y2
u(x, t) = u0 (x − y) p exp(− ))dy
−∞ (4πct) 4ct
Au paragraphe (3.1.6) du chapitre 3 nous verrons comment on peut utiliser la transformation de
Fourier pour trouver cette expression. Nous allons en donner une justification intuitive. Posons
1 x2
G(x, t) = p exp(− )
(4πct) 4ct
Il est immédiat de vérifier que G(x, t) est une solution de (2.8). Cette solution est d’intégrale constante3
Z
G(x, t) dx = 1
R
Et quand t → 0 la fonction G(x, t) se concentre autour du point 0, elle s’interprète donc physique-
ment comme la diffusion d’une densité concentrée au point 0, elle correspond à une condition initiale
de type Dirac en 0 (cf. chapitre 6).
On en déduit intuitivement que la solution générale de (2.8), toujours dans le cas où on a remplacé
l’intervalle [0, 1] par R, est obtenue par superposition des solutions associées à des densités concen-
trées u0 (y) placées en un point y quelconque
Z +∞
u(x, t) = u0 (y)G(x − y, t)dy (2.11)
−∞
On vérifie directement par dérivation sous l’intégrale que u(x, t) est bien solution de (2.8). De plus
quand t → 0, l’intégrale définie par (2.11) tend4 vers u0 .
Propriétés de la solution
− L’expression (2.11) montre qu’une perturbation localisée au temps t = 0 est non nulle pour
tout t > 0, autrement dit la vitesse de propagation d’une perturbation est infinie (mais on peut noter
x2
que l’effet est négligeable si 4ct est grand).
− Les expressions (2.10) et (2.11), montrent que la solution est C ∞ pour tout temps t > 0 quelle
que soit la régularité de la valeur initiale : l’équation est régularisante. On notera que la solution a un
R √
R
3 +∞ 2
Rappelons la formule : −∞ exp(− t2 ) dt = 2π.
4 +∞
Intuitivement, pour étudier la limite quand t → 0 de −∞
G(x, t)φ(x)dx où φ ∈ D(R) est = φ(0) ; on découpe
Z Z Z Z
l’intégrale en trois partie :
+∞ − + +∞
G(x, t)φ(x)dx = G(x, t)φ(x)dx + G(x, t)φ(x)dx + G(x, t)φ(x)dx
R
−∞ −∞ −
+
La première et la troisième intégrales tendent vers 0 tandis que la deuxième vaut à peu près φ(0) −
G(x, t) dx = φ(0)
pour t petit, par continuité de φ(x) en 0 et parce que G(x, t) est concentré autour de 0 pour t petit.
ECP 2006-2007 30
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 31
− La présence d’une exponentielle décroissante montre que la solution, ainsi que toute perturba-
tion de la solution, tend rapidement vers 0.
− Ces mêmes expressions montrent que la solution n’a pas de sens si on inverse le temps : pour
t < 0 les expressions “explosent”, ce qui traduit l’instabilité fondamentale du “problème inverse” de
la diffusion : trouver l’état initial connaissant l’état à un temps t > 0.
− On a
d 1 2
Z 1 Z 1
∂2u
Z
∂u
u dx = 2u dx = c 2u 2 dx (2.12)
dt 0 0 ∂t 0 ∂t
d’où en intégrant par parties la dernière intégrale et en notant que le “crochet” est nul
d 1 2 ∂u 2
Z Z 1
u dx = −c 2 dx < 0
dt 0 0 ∂t
On en déduit la décroissance de kuk22 : nous dirons que l’équation est dissipative.
31 Mathématiques 2
32 Analyse des équations aux dérivées partielles
a est un réel positif, u0 et g sont des fonction C 1 quelconques, mais compatible à l’origine : u0 (0) =
g(0), u00 (0) = g 0 (0).
Ce problème modélise, comme nous le mettrons en évidence par l’expression de la solution, des
phénomènes de transport. C’est un problème de Cauchy, ou à valeur initiale : au temps t = 0 l’état
initial u0 est donné, le problème est de déterminer l’évolution ultérieure. Notons que la détermination
de la solution est complétée par la donnée d’une seule condition aux limites sur x. Nous verrons que
les conditions aux limites nécessaires à la détermination de la solution dépendent ici des valeurs des
coefficients de l’équation.
Solution du problème
Définissons les droites caractéristiques :
Définition 6 Les droites caractéristiques dans le plan (x, t) de l’équation (2.13) sont les droites x −
at = Cte
Proposition 15 Une fonction u(x, t) ∈ C 1 est solution de (2.13) si et seulement si u est une fonction
constante sur les droites caractéristiques.
En effet , sur une droite caractéristique on a x(t) = Cte + at, donc si u est solution de (2.13)
du(x(t), t) ∂u 0 ∂u ∂u ∂u
= x (t) + =a + =0
dt ∂x ∂t ∂x ∂t
On en déduit que la solution est déterminée en un point (x, t) dès qu’elle est connue en un point de la
droite caractéristique passant par ce point. Si on considère toutes les droites caractéristiques passant
par les points (x, 0) avec x ∈ [0, 1] ou par les points (0, t) la solution est déterminée en tous points
de ces droites. Remarquons que si a est négatif, une droite caractéristique passant par un point (x, 0)
recouperait l’axe (0, t), on ne pourrait pas définir indépendamment des conditions sur l’axe (x, 0) et
sur l’axe (0, t) : la possibilité de fixer des conditions aux limites dépend ici du signe de a.
On en déduit l’expression de la solution
ECP 2006-2007 32
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 33
u0 (0) = g(0), u00 (0) = g 0 (0) précisées dans les données et qui rendent u(x, t) continûment dé-
rivable. Notons que d’un point de vue physique la solution correspondant à un transport a un sens
même si ces conditions ne sont pas vérifiées : dans certains problèmes l’hypothèse que les solutions
sont C 1 n’est qu’une exigence mathématique, la solution physique n’est pas nécessairement conti-
nue ; mais alors comment donner un sens à l’équation ? Nous verrons qu’il faut l’interpréter au sens
des distributions.
Remarque 2 : On voit que dans ce problème, quoique très simple, la possibilité de fixer des valeurs au
bord est un problème délicat : c’est général dans les problèmes hyperboliques.
On cherche une fonction u(x, t) du point d’abscisse x, au temps t, u ∈ C 2 ([0, 1]×[0, T ]), solution
du problème
2 2
∂ u 2∂ u
= c
∂t2 ∂x2
u(x, 0) = u (x)
0
(2.16)
∂u
(x, 0) = 0
∂t
u(0, t) = u(1, t) = 0
où u0 (x) ∈ C 2 ([0, L]) est la position initiale. Ce problème se retrouve dans tous les domaines de la
physique, pour modéliser des phénomènes vibratoires unidimensionnels : les cordes vibrantes (u(x, t)
est la position du point x au temps t), les ondes sonores dans un tuyau.... C’est un problème de Cauchy,
ou à valeur initiale : au temps t = 0 l’état initial est donné (position u0 et vitesse nulle pour les cordes
vibrantes), le problème est de déterminer l’évolution ultérieure. Notons que la détermination de la
solution est complétée par la donnée de conditions aux limites sur x. Nous verrons la définition de
l’hyperbolicité au chapitre 5.
33 Mathématiques 2
34 Analyse des équations aux dérivées partielles
X = x + ct, Y = x − ct
Il vient
X +Y X −Y
u(x, y) = u( , ) = ũ(X, Y )
2 2c
On en déduit
∂ 2 ũ
=0
∂X∂Y
∂2u 2
L’équation ∂t2
= c2 ∂∂xu2 est donc formellement équivalente à l’équation
∂ 2 ũ
=0 (2.18)
∂X∂Y
dont la solution, obtenue par deux intégrations successives, a la forme
Décomposition de l’opérateur
En conservant les variables initiales, (2.18) équivaut à écrire l’opérateur aux dérivées partielles dans
équation (2.16) sous la forme :
∂ ∂ ∂ ∂
( + c )( − c )u = 0 (2.19)
∂t ∂x ∂t ∂x
Posons
∂u ∂u
v(x, t) = ( −c )
∂t ∂x
L’équation (2.19) implique
∂v ∂v
(
+c )
∂t ∂x
v est donc solution d’une équation d’advection, et d’après (15) cela implique que v est constante sur
les droites d’équation x − ct = Cte.
De même en posant
∂u ∂u
w(x, t) = ( +c )
∂t ∂x
et en permutant les deux opérateurs aux dérivées partielles dans (2.19) on montre que que w(x, t)
est constante sur les droites d’équation x + ct = Cte. Les droites d’équation x − ct = Cte et
x + ct = Cte sont appelées les caractéristiques, tandis que les fonctions v et w, qui sont constantes
sur les caractéristiques, sont les invariants de Riemann. La détermination des deux invariants permet
de calculer la solution comme nous le détaillerons plus bas.
ECP 2006-2007 34
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 35
Solutions particulières
Définition 7 On appelle harmoniques les solutions de l’équation des ondes qui représentent des mou-
vements dont tous les points oscillent en phase
u(x, t) = u(x)v(t)
Noter que les fonctions vk (x) = ak sin kπx qui définissent la forme des harmoniques sont par
construction les fonctions propres du problème de statique associé au problème de vibration
2
− d vk = k 2 π 2 vk
dx2 (2.20)
u(0, t) = u(1, t) = 0
où Z 1
ak = 2 u0 (x) sin (kπx) dx
0
Noter que la convergence de la série peut être lente (comparer avec (2.10)), elle est de l’ordre de la
série de terme général ak , qui est le coefficient de Fourier de u0 : or si u0 (x) est une fonction irrégu-
lière, sa série de Fourier converge lentement.
Ondes planes
Si le domaine est R on peut trouver des solutions particulières sous la forme d’ondes planes, i.e. de
fonctions de la forme u(x, t) = f (x − at), il vient
∂2u 2
2∂ u
− c = (a2 − c2 )f 00 (x + at)
∂t2 ∂x2
Le second membre est nul si a = ±c. Ce qui montre que, si f (x), g(x) sont deux fonctions C 2
quelconques, les fonctions
u(x, t) = f (x − ct)
et
u(x, t) = g(x + ct)
35 Mathématiques 2
36 Analyse des équations aux dérivées partielles
∂ ũ(X, Y ) ∂ ũ(0, Y )
=
∂Y ∂Y
puis
Z Y
∂ ũ(0, z)
ũ(X, Y ) = dz + ũ(X, 0)
0 ∂Y
RY ∂ ũ(0,z)
d’où en posant h(Y ) = 0 ∂Y dz et g(X) = ũ(X, 0)
Expression de la solution
En utilisant (2.21) on peut obtenir une expression de la solution de (2.16). Il suffit de déterminer
g et h de façon que u(x, 0) = u0 (x) et ∂u
∂t (x, 0) = 0, il vient
1
g(x) = h(x) = u0 (x)
2
et donc
(u0 (x + ct) + u0 (x − ct))
u(x, t) = (2.22)
2
Si nous considérons que dans (2.22) u0 (x) est prolongé par antisymétrie sur [−1, 1] puis rendue pério-
dique de période 2 sur tout R, l’expression (2.22) est valable pour tout couple (x, t) et les conditions
aux limites sont vérifiées
u(0, t) = u0 (ct) + u0 (−ct) = 0
et
u(1, t) = u0 (1 + ct) + u0 (1 − ct) = u0 (−1 + ct) + u0 (1 − ct) = 0
Donc (2.22) définit bien une solution du problème (2.16). Nous avons donc montré la proposition :
u0 (x + ct) + u0 (x − ct)
u(x, t) =
2
ECP 2006-2007 36
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 37
Propriétés de la solution
− Les conditions de régularité que nous avons posées sur u0 sont beaucoup trop restrictives, mais
pour les étendre il nous faudra aussi étendre le sens donné à une solution du problème : si u0 est
simplement continue mais non dérivable la solution (2.22) de (2.16) a bien un sens mathématique et
physique mais elle n’est pas dérivable ! Comme pour l’équation d’advection les solutions physiques
ont un sens qui dépasse le cadre mathématique des fonctions C 1 . Nous verrons qu’il faut poser l’équa-
tion aux dérivées partielles au sens des distributions.
− La forme (2.22) de la solution fait apparaître celle-ci comme la superposition de deux ondes
planes se propageant dans chaque sens à la vitesse c ; en utilisant la linéarité de l’équation on en déduit
que toute perturbation de la solution a encore cette propriété : le problème est à vitesse de propagation
finie. Plus précisément, la solution à l’instant t ne dépend que des valeurs antérieures sur les droites
caractéristiques x + ct = Cte et x − ct = Cte.
− A la différence de l’équation de la diffusion qui est dissipative, l’équation des ondes est conser-
vative : on montre par la même méthode que (2.12) la proposition :
ZL
∂u 2 ∂u
( ) + c2 ( )2 dx = Cte (2.23)
∂t ∂x
0
On en déduit directement l’unicité de la solution. Cette propriété est essentielle car la conservation de
l’énergie garantit que la solution est stable vis à vis d’une perturbation des données.
− La forme 2.22 de la solution fait apparaître que les singularités de la solution (i.e. les points
où elle n’est pas C ∞ ) se propagent : contrairement à l’équation de la diffusion, l’équation des ondes
n’est pas régularisante.
− Nous avons cherché une solution de (2.16) pour t > 0 mais la solution calculée a un sens pour
t < 0 : le problème inverse, retrouver l’état initial à partir de l’état à un temps t > 0, a un sens pour
l’équation des ondes, contrairement à l’équation de la diffusion.
Résumons les propriétés de la solution que nous avons obtenues :
37 Mathématiques 2
38 Analyse des équations aux dérivées partielles
Γ
2
Γ V(x) Ω Γ
0 1
+
Γ
2
Γ
2
Données et hypothèses
Nous étudions un modèle très simplifié en négligeant de nombreux phénomènes.
– Le domaine dans lequel a lieu l’écoulement est Ω ⊂ R2 (pour simplifier) de bord Γ formé de
trois parties Γ0 , Γ1 , Γ2 (voir schéma (2.1)).
– On note u(x, t) la température du gaz (translatée par une température de référence), au point x
et au temps t.
– On note c (resp. k) la chaleur spécifique (resp. la conductivité) du gaz.
– La vitesse du gaz est définie par un champ de vitesse V ~ . On suppose que les débits totaux sur
l’entrée Γ0 et la sortie Γ1 sont égaux et que la masse volumique est constante. On a Vn = 0 sur
les parois (Γ2 ). On suppose que les parois sont thermiquement isolées.
– La réaction produit un dégagement de chaleur par unité de volume de gaz λf (u(x)) avec
u
f (u) = exp( 1+µu ) où λ est un paramètre et µ est une constante qui peut être assez petite.
– La température initiale u0 (x) est connue.
Le problème est essentiellement un transport d’énergie dans un fluide en mouvement avec diffusion
et production de chaleur. On note Φ le vecteur flux de chaleur provenant de la convection et de la
diffusion. On a
Φ = c (V u) − k∇u
ECP 2006-2007 38
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 39
le premier terme représentant le flux de chaleur transporté, le deuxième le flux de chaleur diffusé. La
loi de conservation de l’énergie s’écrit
∂u
c + ∇ . Φ = λf (u)
∂t
u = u0 sur Γ0
(2.24)
u = u1 sur Γ1
Φn = 0 sur Γ2
Analyse de l’équation
− Si k 6= 0, V = 0 et λ = 0, on retrouve une équation de diffusion de la chaleur, avec les mêmes
propriétés que dans l’équation (2.8).
− Si k = 0 l’équation est une équation de transport, nous verrons au chapitre 5 qu’elle est hyper-
bolique. La solution a des propriétés semblables à celle de l’équation d’advection étudiée ci-dessus,
notamment il est nécessaire de retirer la condition aux limites en sortie, i.e. sur le bord Γ1 , pour que
le problème soit cohérent.
− Noter que le terme source λf (u) influence l’étude asymptotique de la solution pour t → +∞ :
par exemple si k = 0, V = 0 et µ = 0 ,on a f (u) = exp u et on obtient une équation différentielle
que l’on peut intégrer
λ
u(x, t) = − ln(exp (−u0 (x)) − t)
c
Il y a une explosion de la température en un temps fini tc = λc exp u0 (x). Si V 6= 0 le phénomène ne
se produit que si la vitesse n’est pas trop grande, sinon le fluide est sorti de l’enceinte avant l’explo-
sion. Si µ 6= 0 est petit, il n’y a pas d’explosion mais une forte élévation de température.
39 Mathématiques 2
40 Analyse des équations aux dérivées partielles
On remplace la fonction T (x) par u(x) et on pose q(x) = c0 T0 sur Γ0 et q(x) = c1 Te4 , il faut donc
trouver la solution u(x) du problème :
−k∆u = 0
∂u
−k ∂n = c0 u − q sur le bord Γ0 (2.27)
∂u 4
−k ∂n = c1 u − q sur le bord Γ1
avec q(x) ≥ 0, c1 , c2 , T0 > 0. L’équation aux dérivées partielles est linéaire, c’est une équation
de Laplace (cf. 2.4), mais il y a une condition non linéaire sur un bord, ce qui rend le problème
globalement non linéaire. Nous étudierons ce type de problème au chapitre 4. Nous verrons que
l’équivalence de ce problème avec un problème d’optimisation permet de montrer l’unicité de la
solution car la fonction potentielle est strictement convexe.
où u(x) est le déplacement d’un point x, et [σ] la matrice des contraintes (noter que l’opérateur
divergence ici appliquée à une matrice, consiste en la divergence de chaque ligne).
Il faut compléter ces équations par la loi de comportement qui relie les contraintes et les déformations ;
un solide est élastique linéaire si cette loi s’écrit
ECP 2006-2007 40
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 41
en sommant sur les indices répétés. En substituant (2.29) dans (2.28) on obtient un système de 3
équations aux dérivées partielles du second ordre. Pour un matériau isotrope on obtient les équation
de Navier
On complète ces équations par les conditions de fixation ou les chargement au bord du solide. Ces
conditions peuvent être variées, les plus simples sont :
− la fixation des déplacements d’un point du bord Γ0 (bord encastré) se traduit par u = 0,
− l’absence de toute force sur un bord, ce qui implique la nullité des contraintes normales sur le bord
Γ1 : σn = 0.
En conclusion les équations d’équilibre s’écrivent sous la forme d’un système linéaire de trois équa-
tions aux dérivées partielles du second ordre avec trois fonctions inconnues (u1 , u2 , u3 ) et trois condi-
tions aux limites en chaque point du bord portant sur les fonctions inconnues et leurs dérivées. Nous
montrerons que c’est un système elliptique. La complexité du problème n’est qu’apparente : nous
montrerons, à l’aide du principe de minimum de l’énergie, que le problème est équivalent à la mini-
misation d’un potentiel quadratique strictement convexe, ce qui implique l’unicité de la solution et
rend le problème formellement semblable au problème de Poisson (2.1).
Extension du modèle
– Pour des solides dont une dimension est très petite on construit des modèles limites : modèles
de coques et modèles de poutres. Dans ces modèles on ajoute des variables (les rotations)
et donc des équations, mais on réduit la dimension du problème (de volumique à surfacique
si on considère un solide mince comme une coque). Dans certains cas on peut éliminer les
variables supplémentaires, on obtient alors des équations aux dérivées partielles d’ordre 4 sur
les déplacements. Pour tous ces modèles le problème est équivalent à la minimisation d’un
potentiel quadratique strictement convexe.
– Pour des déformations importantes les équations d’équilibre doivent s’écrire sur le solide dé-
formé ce qui rend les équations non linéaires : c’est notamment nécessaire pour mettre en
évidence un phénomène comme le flambement ou la perte de stabilité d’une position d’équi-
libre.
– L’éventuelle non linéarité de la loi élastique ne modifie pas essentiellement le problème : il
suffit d’introduire un potentiel non quadratique dans les principes de minimum, la difficulté
vient de ce que les lois naturelles ne conduisent pas à des potentiels convexes. En revanche la
non réversibilité, notamment la plasticité, qui est un phénomène essentiel dans les problèmes de
l’ingénieur, oblige à poser différemment le problème et à considérer l’histoire du chargement :
on obtient un problème d’évolution. La plasticité se traduit par l’existence de seuil sur les
contraintes qui a pour conséquence la possibilité d’apparition de lignes de discontinuité des
déformations.
41 Mathématiques 2
42 Analyse des équations aux dérivées partielles
Fluides incompressibles
Les équations de la dynamique, jointes aux autres hypothèses, permettent de poser le problème
sous la forme
ρ ∂t + ρ∇ hu,ui
∂u
2 −∇.σ =f
∇ . u = 0
u = u0 sur Γ0 (2.33)
u = u1 sur Γ1
u = 0 sur Γ2
où f et un champ de forces et (∇ . σ est le vecteur obtenu en calculant la divergence de chaque ligne
de la matrice σ. On en déduit les équations de Navier-Stokes :
ρ ∂t + ρ∇ hu,ui
∂u
2 − µ∆u + ∇p = f
∇ . u = 0
u = u0 sur Γ0 (2.34)
u = u1 sur Γ1
u = 0 sur Γ2
où ∆u est le vecteur obtenu en calculant le laplacien de chaque composante de u. Notons que les
conditions aux limites que nous imposons sont assez arbitraires : il peut être plus naturel de fixer en
entrée et en sortie des valeurs de la pression ou de fixer une condition de non glissement un = 0 sur
les parois. L’incompressibilité implique une vitesse de propagation infinie des perturbations localisées
(intuitivement un fluide incompressible est la limite d’un fluide faiblement compressible ; or dans un
fluide compressible la vitesse relative de propagation, c’est à dire la vitesse du son, est d’autant plus
grande que le fluide est peu compressible).
ECP 2006-2007 42
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 43
C’est un système d’équations non linéaires que l’on peut écrire sous différentes formes équivalentes
notamment en introduisant le vecteur tourbillon ω = rotu.
Ce système est “parabolique” si µ 6= 0 et, si le coefficient de viscosité µ est “grand” relativement à
la vitesse et aux longueurs caractéristiques du modèle, sa solution a de bonnes propriétés de régula-
rité. Mais la viscosité est très faible pour des fluides comme l’eau ou l’air et les propriétés de cette
équation sont alors très complexes du fait de l’apparition de couches limites, de tourbillons et surtout
de la turbulence. L’existence globale, l’unicité et la régularité de la solution sont encore l’objet de
conjectures.
Modèles simplifiés
Si on néglige la viscosité, on obtient un modèle limite, les équations d’Euler incompressibles
ρ ∂t + ρ∇ hu,ui
∂u
2 + ∇p = f
∇ . u = 0
un = u0 sur Γ0 (2.35)
un = u1 sur Γ1
un = 0 sur Γ2
Notons que nous avons dû relâcher les conditions sur le vitesse : on montre que l’on ne peut pas fixer
toutes les composantes de la vitesse en un point du bord.
Le problème est toujours non linéaire mais les équations sont du premier ordre. Ce modèle a l’avan-
tage de permettre de trouver certaines solutions explicites et de simplifier certains phénomènes, les
couches limites devenant des discontinuités de la solution ; en contrepartie l’apparition de discontinui-
tés oblige à poser le problème en un sens étendu. L’hypothèse que le fluide est de plus irrotationnel,
i.e. rotu = 0, que l’on peut justifier aux petites vitesses, entraîne l’existence d’un potentiel Φ tel que
u = ∇Φ qui vérifie donc
∆Φ = 0
du fait de la condition d’incompressibilité. Compte tenu des conditions aux limites, Φ est solution
d’un problème de Laplace, que l’on peut (curieusement) résoudre directement sans utiliser les équa-
tions de la dynamique qui permettent de calculer a posteriori la pression.
Aux petites vitesses, si on néglige le terme en u2 dans les équations de Navier-Stokes, ce qui revient
à identifier l’accélération totale avec ∂u
∂t , on obtient un système d’équation linéaire du second ordre,
dont nous verrons qu’il est parabolique
∂u
ρ ∂t − µ∆u + ∇p = f
∇ . u = 0
u = u0 sur Γ0 (2.36)
u = u sur Γ
1 1
u = 0 sur Γ2
43 Mathématiques 2
44 Analyse des équations aux dérivées partielles
Ce problème est un problème auxiliaire dans la résolution numérique des équations de Navier-Stokes.
La principale difficulté vient de l’approximation numérique de la condition d’incompressibilité. Ici
encore le problème peut être analysé à l’aide d’un principe du minimum comme pour l’équation de
Poisson (2.1), mais on a un problème d’optimisation sous contraintes, voir le chapitre 4.
Fluides compressibles
Nous négligeons la viscosité, nous notons e l’énergie totale et l’énergie interne. Nous écrivons
comme ci-dessus les équations de la dynamique, qui sont aussi des équations de la conservation de
la quantité de mouvement, de la masse et de l’énergie (d’où le qualificatif de système de lois de
conservation). On obtient les équations d’Euler pour un fluide compressible appelées aussi équations
de la dynamique des gaz
∂ρ
∂t + ∇ . ρu = 0
ρ ∂u + ρ∇ hu,ui + ∇p = f
∂t 2
∂(ρe)
∂t + ∇(ρe + p)u) = 0
u = u 0 sur Γ0
(2.38)
u = u1 sur Γ1
u = 0 sur Γ2
2
avec p = p(ρ, ) et e = + u2
C’est un système d’équations non linéaires. Nous verrons que c’est un système hyperbolique non li-
néaire pour des gaz parfaits. Comme pour tout système hyperbolique une perturbation se propage à
différentes vitesses toujours finies (aux vitesses du fluide presque nulles c’est la vitesse du son), mais
nous verrons que la non linéarité implique l’apparition de discontinuités appelées ondes de chocs. Les
solutions de ce système, comme celui des fluides incompressibles, ont des propriétés très complexes
(tourbillon, turbulence, chocs...) qui font toujours l’objet de conjectures.
Modèles simplifiés
Ce système admet de nombreuses simplifications.
– On construit des linéarisations des équations, notamment, en négligeant aux petites vitesses
l’énergie cinétique et en supposant que les grandeurs varient peu, on obtient l’équation des
ondes sonores
∂ρ ∂u
+ ρ0 =0
∂t 2
∂x (2.39)
∂u c ∂ρ
+ =0
∂t ρ0 ∂x
Les valeurs initiales et au bord sont connues. C’est un système d’équations linéaires du premier
ordre, hyperbolique. En éliminant ρ on retrouve l’équation des ondes. Voir dans le chapitre 5
l’utilisation des caractéristiques pour intégrer l’équation.
– En considérant un écoulement unidimensionnel et en négligeant l’effet de la pression on obtient
l’équation de Riemann ou Burgers, sans viscosité Voir la séance 7.
∂u 1 ∂u2
+ =0 (2.40)
∂t 2 ∂x
ECP 2006-2007 44
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 45
Ce n’est pas un modèle très réaliste mais il permet de mettre en évidence sur une équation
très simple quelques propriétés des écoulements réels. Nous verrons (chapitre 5) que c’est une
équation hyperbolique non linéaire. Voir dans la séance 7 l’utilisation des caractéristiques pour
intégrer cette équation, on en déduit les propriétés remarquables suivantes :
1. Il y a conservation de la valeur de la solution u le long des droites caractéristiques.
2. Le croisement des droites caractéristiques implique l’apparition de lignes de discontinui-
tés (qui représentent physiquement des ondes de choc) même pour des conditions initiales
très régulières.
Analyse
L’analyse de l’équation des cordes vibrantes ainsi que les méthodes que nous avons présentées
ci-dessus pour cette équation s’étendent à l’équation générale des ondes.
45 Mathématiques 2
46 Analyse des équations aux dérivées partielles
Problèmes géométriques
Nous avons considéré plus haut que les équations étaient posées dans un domaine fixé a priori.
Dans de nombreux problèmes ce domaine est variable, on dit que ce sont des problèmes à surface
libre, comme dans les exemples suivant :
− Étude des mouvements d’un liquide, notamment les vagues ou le mouvement de l’eau dans un
réservoir. Quand la variation de la forme du domaine n’est pas trop grande on peut définir le domaine
inconnu comme l’image d’un domaine fixe par une certaine fonction Φ(x). Cette fonction devient
alors une inconnue du problème qui se ramène à une équation plus complexe que l’équation initiale
mais sur un domaine fixe. Mais le domaine peut même se fragmenter comme dans le cas de la forma-
tion de gouttes...
− Grande déformation d’un solide : voir le paragraphe sur l’élasticité.
− Fusion de la glace dans l’eau : la frontière entre la glace et l’eau est alors une inconnue du pro-
blème.
Problèmes d’échelle
− Dans l’écoulement d’un fluide la turbulence est un phénomène qui fait apparaître des mou-
vements à très petite échelle, la complexité de ces mouvements rend nécessaire, dans un calcul nu-
mérique, le remplacement des valeurs exactes des champs inconnus par leur moyenne, en un sens à
préciser. Cela conduit à des modèles de turbulence qui se différencient par les hypothèses supplémen-
taires qui sont faites.
− Une excitation à très haute fréquence crée une onde de longueur très petite. Or une longueur
d’onde très petite ne peut pas être prise en compte dans un calcul numérique à grande échelle. La
prise en compte de ce phénomène dans l’équation des ondes conduit à des modèles asymptotiques
dans lesquels l’étude des ondes se ramène à la théorie de l’optique géométrique plus ou moins enri-
chie pour tenir compte de phénomènes comme la diffraction. Mais si la longueur d’onde est proche
des longueurs des variations géométriques du bord du domaine d’étude il faut revenir à l’équation
des ondes pour étudier l’effet de ces variations géométriques. On peut donc être amener à coupler
l’optique géométrique et une étude directe de l’équation des ondes.
− les hétérogénéïtés d’un milieu continu quand elles sont à très petite échelle, peuvent empêcher
la prise en compte exacte de celles-ci, au moins dans une approximation numérique : c’est le cas des
solides formés de matériaux composites, des fluides comme l’air chargé de gouttelettes d’eau ou de
l’eau contenant des bulles de vapeur. On est conduit à définir des modèles limites dits homogénéï-
sés dans lesquels on remplace les grandeurs usuelles (vitesse, masse volumique), qui ont une forte
variation locale, par leur valeur moyenne. Les équations obtenues peuvent avoir la même forme que
les équations initiales comme dans le cas de la théorie élastique des matériaux composites (le seul
problème est de calculer constantes élastiques du matériau homogénéïsé) ou bien, quand les para-
ECP 2006-2007 46
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 47
mètres des hétérogénéïtés (la densité de bulles par exemple) dépendent de la solution, ces paramètres
s’ajoutent aux grandeurs inconnues initiales et le nombre d’équations peut donc s’accroître.
Couplage géométrique
De nombreux problèmes impliquent la prise en compte de plusieurs modèles selon le point consi-
déré, c’est le cas de l’interaction d’un fluide et d’une structure (l’écoulement d’un fluide par exemple
peut faire vibrer une structure qui en retour fait vibrer le fluide). Une des difficultés vient de ce que
les inconnues utilisées dans la modélisation de chacun des milieux sont de nature différentes : les
déplacements dans le solide et les vitesses dans le fluide.
Couplage intrinsèque
L’étude de la convection naturelle d’un fluide, pour la météorologie par exemple, se modélise par
le couplage des équations de la dynamique des fluides d’une part, de la diffusion et du transport de la
chaleur d’autre part : ce sont en effet les variations de température qui créent les variations de densité
responsables du mouvement de l’air, mais ce mouvement lui-même entraîne un transport de chaleur
responsable de variations de la température. Même si on considère un modèle simplifié linéarisé pour
modéliser l’écoulement du fluide, le couplage fait apparaître une non linéarité.
L’étude des plasmas oblige à coupler les équations de dynamiques des fluides et les équations de
Maxwell puisque ce sont les forces électromagnétiques qui font se mouvoir les particules chargées
mais leur mouvement est lui même la cause d’un champ électromagnétique induit.
47 Mathématiques 2
48 Analyse des équations aux dérivées partielles
ECP 2006-2007 48
Chapitre 3
Objectifs
Nous résumons dans ce chapitre quelques méthodes classiques de résolution ou d’analyse des
équations aux dérivées partielles. Dans certaines parties un peu difficiles nous nous limitons à des
arguments heuristiques.
49
50 Analyse des équations aux dérivées partielles
d’un espace de Banach dans un autre (par exemple de C 2 dans C 1 ) ou, c’est souvent plus pratique,
on considère qu’il opère de façon interne à un espace mais qu’il n’est pas partout défini, par exemple
∂
on considère que ∂x i
opère sur L2 (Rn ) avec un domaine de définition qui est C 1 (Rn ).
P Un opérateur aux dérivées partielles du premier ordre linéaire et homogène s’écrit P (D)(u) =
∂u t
i bj (x) ∂xj . Définissons le champ de vecteurs V (x) = (b1 (x), ..., bn (x)) . On peut écrire de façon
plus synthétique
P (D)(u) = hV, ∇ui
− Un opérateur aux dérivées partielles linéaire et homogène du second ordre à coefficients constants
s’écrit
X ∂2u
P (D)(u) = ai,j
∂xi ∂xj
i,j
∂2u ∂2u
Compte tenu de l’égalité des dérivées croisées ∂xi ∂xj = on peut supposer que ai,j = aj,i . Soit
∂xj ∂xi
P ∂u
A la matrice symétrique de coefficients ai,j . Le vecteur A ∇u a pour composantes j ai,j ∂x i
. On
peut donc écrire de façon plus synthétique
P (D)(u) = ∇ . (A ∇u)
On en déduit pour un opérateur du second ordre à coefficients constants une écriture synthétique :
Nous verrons plus loin (paragraphe 3.1.3) une forme canonique pour les opérateurs linéaires du se-
cond ordre quelconques.
3.1.3 Symétrie
Nous allons mettre en évidence une propriété fondamentale pour la compréhension des équations
aux dérivées partielles : la symétrie ou l’antisymétrie des opérateurs sur des espaces de fonctions
nulles à l’infini ou nulles sur le bord d’un domaine.
∂
Antisymétrie de l’opérateur ∂xi
Les propriétés des opérateurs aux dérivées partielles dépendent des espace de fonctions sur les-
quels on les fait opérer ou de leur domaine de définition. On considère ici que les opérateurs agissent
ECP 2006-2007 50
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 51
sur L2 (Rn ), avec pour domaine D(Rn ), l’espace des fonctions C ∞ à support compact sur Rn , ou sur
l’espace L2 (Ω) avec pour domaine V0 , ce que nous choisissons pour fixer les idées. Notons
Z
hu, vi = uv dΩ
Ω
Le terme de bord est nul comme les fonctions u, v (noter que c’est encore vrai si (A ∇u)n = 0).
Définissons la forme bilinéaire
Z
a(u, v) = hA ∇u, ∇vi dΩ
Ω
Il vient
hP (D)(u), vi = −a(u, v)
La symétrie de l’opérateur résulte de la symétrie de la forme a(u, v). Plutôt que d’avoir un signe “−”
devant la forme bilinéaire, on préfère le mettre devant l’opérateur
51 Mathématiques 2
52 Analyse des équations aux dérivées partielles
P (D)(u) = −∇ . (A ∇u)
est symétrique sur V0 pour le produit scalaire de L2 (Ω). La forme bilinéaire symétrique associée est
Z
a(u, v) = hP (D)(u), vi = hA ∇u, ∇vi dΩ
Ω
Cette propriété de symétrie s’étend à d’autres espaces de fonctions quand les fonctions vérifient
certaines conditions aux limites sur des domaines bornés (voir chapitre 4).
Calcul du transposé
Ce paragraphe peut être laissé de côté en première lecture. La formule d’intégration par parties
permet de calculer le transposé d’un opérateur aux dérivées partielles, nous allons présenter deux
exemples classiques.
V0 = {u ∈ C 1 (Ω) / u = 0 si x ∈ Γ}
~
Appliquons (3.4) en remplaçant Φ par uV
Z Z Z
∇ . (uV )v dΩ = − uV . ∇v dΩ + uv Vn d∂Ω
Ω Ω ∂Ω
1
D’où l’usage de considérer −∆ et non ∆ qui est défini négatif, on préfère toujours le positif au négatif...
ECP 2006-2007 52
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 53
Le terme de bord est nul comme u (mais on pourrait aussi supposer Vn nul et avoir u quelconque)
donc Z Z
hL(u), vi = ∇ . (uV )v dΩ = − uV . ∇v dΩ = hu, Lt (v)i
Ω Ω
Il vient
Proposition 24 L’opérateur Lt (v) = −V . ∇v opérant sur les fonctions C 1 est le transposé de
l’opérateur L(u) = ∇ . (uV ) opérant sur les fonctions C 1 nulles sur le bord.
Cette formule nous servira pour l’étude de l’équation de convection-diffusion.
2) Considérons dans ce paragraphe un champ de vecteurs u(x) = (..., ui (x1 , x2 , x3 ), ...)t et une
fonction scalaire v(x1 , x2 , x3 ), définie sur un domaine Ω . Considérons la divergence “∇ . ” comme
un opérateur de L2 (Ω)3 dans L2 (Ω) de domaine C 1 (Ω) et le gradient “∇” comme un opérateur de
L2 (Ω) dans L2 (Ω)3 de domaine V0 . Si u ∈ C 1 (Ω) et v ∈ V0 la formule (3.4) a bien un sens et
l’intégrale de bord est nulle
Z Z Z
∇ . u v dΩ = − u ∇v dΩ + un v dΓ (3.5)
Ω Ω Γ
d’où Z Z
u ∇v dΩ = − ∇ . u v dΩ (3.6)
Ω Ω
La formule (3.6) exprime que le transposé du gradient, opérant sur les fonctions C 1 nulles sur le bord,
est l’opposé de la divergence opérant sur les champs de vecteurs C 1 .
Nous aurions pu aussi considérer des champs de vecteurs tels que un est nul sur le bord (donc tan-
gents au bord) et des fonctions quelconques : la formule (3.5) exprime alors que le transposé de la
divergence, opérant sur les champs de vecteurs C 1 tangents au bord d’un domaine, est l’opposé du
gradient opérant sur les fonctions C 1 . Elle s’applique par exemple au système d’équations de Stokes
(chapitre 2) qui modélise des fluides incompressibles et montre que l’opérateur aux dérivées partielles
dans ce système est symétrique. Il vient :
Proposition 25 Le transposé de l’opérateur L(u) = ∇u opérant sur les fonctions C 1 nulles sur le
bord est l’opérateur Lt (v) = −∇ . v opérant sur les champs de vecteurs C 1 .
Le transposé de l’opérateur L(v) = ∇ . v opérant sur les champs de vecteurs C 1 tangents au bord
est l’opérateur Lt (u) = −∇u opérant sur les fonctions C 1 .
Noter que on retrouve la symétrie de l’opérateur homogène du second ordre (23) car
P (D)(u) = −∇ . (A ∇u) = ∇t A ∇
53 Mathématiques 2
54 Analyse des équations aux dérivées partielles
Noter que l’on peut supposer ai,j = aj,i du fait que uxi xj = uxj xi . Notons A(x) la matrice symétrique
de coefficient ai,j (x) On vérifie en développant la divergence que
P (D)(u) = ∇ . (A(x) ∇u) + 2hV (x), ∇ui + c(x)u
P ∂a
où nous avons posé 2βj (x) = bj − i ∂xi,ji et nous avons noté V (x) = (β1 , ..., βn )t . Or nous avons
vu (24) que le transposé de l’opérateur L(u) = hV (x), ∇ui est l’opérateur Lt (u) = −∇ . (V (x)u) ;
décomposons donc l’opérateur L(u) en sa partie symétrique
L(u) + Lt (u) = hV (x), ∇ui − ∇ . V (x)u)
et antisymétrique
L(u) − Lt (u) = (hV (x), ∇ui + ∇ . (V (x)u))
Or
∇ . (V (x)u) = ∇ . V (x)u + hV (x), ∇ui
d’où
L(u) + Lt (u) = −∇ . V (x)u
Il vient
P (D)(u) = ∇ . (A(x) ∇u) − ∇ . V (x)u + (hV (x), ∇ui + ∇ . (V (x)u)) + c(x)u
ou encore
P (D)(u) = ∇ . (A(x) ∇u) + γ(x)u + (hV (x), ∇ui + ∇ . (V (x)u))
où on a posé γ(x) = (c(x) − ∇ . V (x)). Considérons que l’opérateur P (D) opère sur L2 (Ω) avec
pour domaine V0 . On vérifie que :
− l’opérateur
P (D)S (u) = ∇ . (A(x) ∇u) + γ(x)u
est symétrique, car en appliquant la formule de Stokes (3.4)
Z Z Z Z
hP (D)S (u), vi = ∇ . (A(x) ∇u)v dΩ + γ(x)uv dΩ = − hA(x) ∇u, vi dΩ + γ(x)uv dΩ
Ω Ω Ω Ω
et cette expression est symétrique en u et v (cette propriété reste vraie dans des espaces plus généraux
que V0 ).
− l’opérateur
P (D)A (u) = hV (x), ∇ui + ∇ . (V u)
est antisymétrique par construction. La forme bilinéaire associée s’écrit
Z Z
hP (D)A (u), vi = (hV (x), ∇ui + ∇ . (V (x)u))v dΩ = ∇ . (V (x)u))v − ∇ . (V (x)v))u dΩ
Ω Ω
R
en utilisant la formule de Stokes (3.4) pour transformer le premier terme, le terme de bord Γ V (x).~nuvds
étant nul (noter que le résultat reste vrai si V (x).~n = 0 aux point du bord où u, v sont non nuls). La
forme est clairement antisymétrique.
Nous préférons changer2 A en −A et énoncer le théorème :
2
Cela permet d’énoncer le résultat suivant : si A est définie positive l’opérateur −∇ . (A(x) ∇u est défini positif ; pour
le mathématicien il faut toujours positiver.
ECP 2006-2007 54
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 55
Théorème 10 Un opérateur linéaire aux dérivées partielles quelconque peut s’écrire sous la forme
canonique
où A(x) est une matrice symétrique et V (x) un champ de vecteurs. Sur l’espace V0 des fonctions
de C 1 (Ω) nulles sur le bord Γ le premier opérateur est symétrique et associé à la forme bilinéaire
symétrique Z Z
a(u, v) = − hA(x) ∇u, ∇vi dΩ + γ(x)uv dΩ
Ω Ω
et le deuxième antisymétrique associé à la forme bilinéaire
Z
b(u, v) = ∇ . (V (x)u))v − ∇ . (V (x)v))u dΩ
Ω
Nous verrons que cette forme canonique est bien préférable à la forme développée : elle permet de
donner un sens physique à l’équation et elle permet de définir de façon cohérente des approximations
conservant ces propriétés de symétrie.
Les fonctions X
exp ihk, xi = exp (i kj xj )
j
(“ondes planes harmoniques”), avec k ∈ Rn , sont les fonctions propres des opérateurs dérivées par-
∂
tielles ∂x i
(en fait toutes les fonctions exponentielles le sont, mais nous nous limitons aux fonctions
bornées)
∂
exp ihk, xi = iki exp ihk, xi
∂xi
La valeur propre iki est imaginaire pure. On en déduit :
Proposition 26 Les fonctions exp ihk, xi (“ondes planes sinusoïdales”) sont des fonctions propres
bornées de tout opérateur linéaire aux dérivées partielles à coefficients constants P (D) avec pour
valeur propre P (ik1 , ..., ikn ).
55 Mathématiques 2
56 Analyse des équations aux dérivées partielles
En particulier ce sont des fonctions propres des opérateurs linéaires aux dérivées partielles du se-
P ∂ ∂
cond ordre, homogènes et à coefficients constants, i,j ai,j ∂x i ∂xj
, avec une valeur propre réelle
P
− i ai,j ki kj .
En recombinant convenablement les parties réelles et imaginaires des ondes planes on obtient des
produits de fonctions trigonométriques, et on vérifie directement que les fonctions produits
Proposition 27 Les fonctions sin k1 x1 cos k2 x2 ... sin kn xn sont des fonctions propres bornées des
opérateurs linéaires aux dérivées partielles du second
P ordre, homogènes et à coefficients constants,
P ∂ ∂
i,j ai,j ∂xi ∂xj , avec une valeur propre réelle − i ai,j ki kj ..
1
Si u, v ∈ L1 (R) v = F(u) ⇔ u = F̄(v)
2π
Si u, v ∈ L1 (R) F(u ∗ v) = F(u)F(v)
du
F( ) = iyF(u)(y)
dx
−ax2 ) 1 √ −x2 )
F(exp ( )(y) = √ 2π exp (
2 a 2a
ECP 2006-2007 56
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 57
Utilisation
On cherche la solution u d’une équation aux dérivées partielles à coefficients constants P (D)u =
f sous la forme d’une transformée de Fourier (ce qui revient à écrire comme une superposition de
modes propres), on cherche donc u sous la forme3
u(x) = F(û(k))
On a
∂
F(û) = F(iki û)
∂xi
et donc
P (D)(u) = F(P (ik1 , ..., ikn )û)
On en déduit
fˆ
û =
P (ik1 , ..., ikn )
puis on remonte à la solution u par une transformation de Fourier inverse et comme la transformée
de Fourier d’un produit est un produit de convolution4 , on trouve une expression de u sous la forme
d’un produit de convolution. En pratique c’est plus compliqué car le polynôme P (ik1 , ..., ikn ) peut
1
s’annuler, la transformée de Fourier de la fonction P (ik1 ,...,ik n)
n’est donc pas toujours définie. Pour
donner un sens précis à ces opérations il faut alors se placer dans le cadre des distributions.
On peut souvent se limiter à des transformées de Fourier partielles, i.e. sur une partie des variables,
de façon à garder un sens aux opérations, c’est ainsi qu’a été calculée la solution de l’équation de la
diffusion donnée en (2.11). Développons cet exemple, en laissant au lecteur la justification précise
des différentes opérations.
3
Avec ces notations nous faisons apparaître que si une fonction u(x) est la transformée de Fourier d’une fonction v(k),
alors u est une superposition d’ondes planes de direction k ∈ Rn et d’amplitude v(k) (il est équivalent, et plus usuel,
d’appliquer la transformée de Fourier aux deux termes de l’équation)
4
voir le cours d’Analyse 1
57 Mathématiques 2
58 Analyse des équations aux dérivées partielles
Exemple
On cherche une fonction u(x, t), u ∈ C 2 (R × [0, ∞]), qui tend vers 0 à l’infini en x, solution du
problème
2
∂u = c ∂ u
∂t ∂x2 (3.7)
u(x, 0) = u0 (x)
où u0 (x) est une fonction qui tend vers 0 à l’infini. Appelons y la variable notée k plus haut et posons
. Il vient
∂u ∂ û(y, t)
= Fy ( )
∂t ∂t
et
∂2u
= Fy (−y 2 û(y, t))
∂x2
d’où, en reportant dans (3.7),
∂ û(y, t)
Fy ( ) = Fy (−y 2 cû(y, t))
∂t
et, puisque la transformée de Fourier est injective,
∂ û(y, t)
= −y 2 cû(y, t)
∂t
d’où, en intégrant cette équation différentielle en t
et
u(x, t) = Fy (û(y, t)) = Fy (û(y, 0)) ∗ Fy (exp (−y 2 ct))
Or, d’après (3.8)
Fy (û(y, 0)) = u0 (x)
D’autre part la transformée de Fourier de exp (−y 2 ) est un résultat classique
1 x2
F(exp (−ay 2 )) = p exp(− )
(4πa) 4a
On en déduit
+∞
x2 y2
Z
1 1
u(x, t) = u0 (x) ∗ p exp(− )= u0 (x − y) p exp(− ))dy
(4πct) 4ct −∞ (4πct) 4ct
ECP 2006-2007 58
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 59
Son principal intérêt est d’être définie pour des fonctions beaucoup plus générales que la transformée
de Fourier, puisque l’exponentielle exp −pt rend l’intégrale convergente pour des fonctions v à crois-
sance polynômiale, tout en ayant les mêmes propriétés fonctionnelles (elle transforme un opérateur
différentiel en la multiplication par un polynôme). Rappelons la formule
On peut chercher d’abord u1 (g) solution d’une équation de Laplace avec f = 0 puis u2 (f ) d’un
problème homogène avec g = 0, on obtient la solution du problème général sous la forme u(f, g) =
u1 (g) + u2 (f ).
En fait il n’est pas nécessaire de résoudre une équation de Laplace ; soit ḡ une fonction C 2 qui pro-
longe g au domaine Ω, on pose ū = u − ḡ et f¯ = f − ∆ḡ ; ū est solution du problème homogène
−k∆u = f¯ si x ∈ Ω
(3.10)
u=0 si x ∈ Γ
59 Mathématiques 2
60 Analyse des équations aux dérivées partielles
La principale difficulté théorique est de caractériser les fonctions g qui se prolongent en une fonction
régulière sur Ω. Cette idée est utilisée pour la recherche de solutions faibles dans le cadre des espaces
de Sobolev (cf. chapitre 6), où le traitement des conditions non homogènes est un problème délicat.
ECP 2006-2007 60
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 61
V0 = {v ∈ C 2 (Ω), / v|Γ = 0}
On impose à la solution particulière de vérifier les conditions aux limites, ce qui revient à poser que
v ∈ V0 . L’amplitude v doit être un vecteur propre du Laplacien −∆ opérant sur V0 . L’opérateur
−∆ admet dans cet espace une base de fonctions propres vk , k ∈ N, orthonormales pour le produit
scalaire de L2 (Ω), associées à des valeurs propres positives λk . On peut donc chercher une solution
particulière sous la forme
u(x, t) = gk (t)vk (x)
00 σλk
avec gk (t) + µk gk (t) = 0 et µk = ρ > 0. D’où en posant
r
σµk
ωk =
ρ
il vient 0
g (0)
gk (t) = gk (0) cos ωk t + k sin ωk t
ωk
Toute superposition de ces vibrations harmoniques est une solution de l’équation des ondes qui vérifie
les conditions aux limites. On cherche donc la solution générale u(x, t) sous la forme
X
u(x, t) = gk (t)vk (x)
k
u(x, 0) = u0 (x)
ce qui implique X
u0 (x) = gk (0)vk (x)
k
61 Mathématiques 2
62 Analyse des équations aux dérivées partielles
Remarque :
La détermination des fonctions propres du Laplacien ne peut se faire en général que numériquement
de manière approchée, mais pour des domaines de forme simple (carré, disque...) on peut déterminer
les fonctions propres par la méthode des solutions à variables séparées.
Cette méthode est très utilisée pour étudier les phénomènes vibratoires tant d’un point de vue théo-
rique pour démontrer l’existence de la solution de (3.11), que d’un point de vue numérique ( on se
limite alors à un nombre fini de termes dans le développement en série). Étendue à une équation avec
une excitation au second membre cette méthode permet d’étudier les phénomènes de résonance.
Cette méthode se couple avec la méthode de décomposition spectrale quand il s’agit de déterminer
les fonctions propres d’un opérateur aux dérivées partielles. Considérons l’exemple de la recherche
des fonctions propres du laplacien opérant sur les fonction nulles sur le bord d’un disque. Il faut donc
trouver les solutions non nulles de l’équation
1 ∂ ∂u 1 ∂2u
−∆u == − (r ) − 2 2 = λu, u(1, θ) = 0
r ∂r ∂r r ∂θ
Cherchons ces fonctions propres sous la forme u(r, θ) = f (r)g(θ). On impose f (1) = 0, pour la
condition aux limites, et g(θ) périodique pour la cohérence de la définition. Il vient
1 1
− (rf 0 (r))0 g(θ) − 2 f (r)g 00 (θ) = λf (r)g(θ)
r r
ECP 2006-2007 62
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 63
ou
r(rf 0 (r))0 g 00 (θ)
− − λr2 =
f (r) g(θ)
ce qui implique l’existence d’une constante C telle que
r(rf 0 (r))0
− − λr2 = C
f (r)
g 00 (θ)
=C
g(θ)
ou encore
−r(rf 0 (r))0 − λr2 f (r) = Cf (r)
g 00 (θ) = Cg(θ)
La périodicité de g implique C < 0. Posons C = −n2 n ∈ N, il vient
f est solution de l’équation différentielle du second ordre écrite sous la forme canonique
C’est l’“équation de Bessel”, qui n’a, à facteur près, qu’une solution bornée, notée Jn (x), qui ne
s’exprime pas à l’aide des fonctions usuelles mais dont les propriétés sont bien connues (cf. par
exemple [13] ou tout ouvrage sur les “fonctions spéciales”). On montre√ que Jn (x) a une infinité de
zéros µkn > 0, k = 1, ..., ∞. La condition f (1) = 0 impose Jn ( λ) = 0, donc λ ne peut être
quelconque si on veut des solutions non nulles6 : λ = (µkn )2 . Finalement on trouve pour λ = (µkn )2
des solutions de la forme
u(r, θ) = Jn (µkn r)(a cos nθ + b sin nθ)
On peut montrer que l’on a obtenu ainsi toutes les fonctions propres.
Principe
Pour résoudre un système linéaire en dimension finie A u = f on peut calculer la matrice inverse
On montre que si λ 6= (µkn )2 il n’y a pas de solution non nulle. Les valeurs propres forment un ensemble discret décrit
6
63 Mathématiques 2
64 Analyse des équations aux dérivées partielles
A−1 colonne par colonne en résolvant les système Aui = ei où ei est un vecteur d’une base , ui est
alors la ième colonne de A−1 . Et on a X
u= ui fi
i
L’équivalent pour une équation linéaire aux dérivées partielles L(u(x)) = f est de résoudre, au sens
des distributions, les équations
L(uy (x)) = δ(y)
où δ(y) est la distribution de Dirac en y (c’est la“réponse” à une charge concentrée), la solution de
L(u(x)) = f est donnée par le principe de superposition sous la forme
Z
u(x) = uy (x)f (y) dy
Exemple
L’application de la méthode des solutions fondamentales à l’équation de Poisson dans R3
ρ
−∆u = pour x ∈ R3 (3.12)
0
est classique si on interprète ce problème comme la détermination du potentiel électrostatique u(x)
associée à une densité de charge ρ(x). La solution fondamentale du Laplacien dans R3 , i.e. une
solution de l’équation aux dérivées partielles
1
−∆u0 = δ0 (3.13)
0
ECP 2006-2007 64
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 65
prise au sens des distributions de D0 (R3 ), est donnée par l’expression bien connue du potentiel asso-
ciée à une charge 1
1 1
u0 (x) =
4π0 kxk2
Si ρ(x) est fonction continue à support compact, la fonction
Z
u(x) = u0 (x − y)ρ(y)dy
R3
est solution de (3.12).
Applications
Les solutions fondamentales sont à la base des méthodes dites intégrales ou d’éléments frontières
pour l’approximation numérique des équations linéaires à coefficients constants ; l’exemple de l’élec-
trostatique est bien connu : pour trouver le potentiel dans un domaine sans charge répartie mais avec
un potentiel connu V0 (s) sur le bord, on cherche une répartition de “charges” q0 (s) sur le bord qui
crée ce potentiel connu V0 (s) sur le bord. Le potentiel à l’intérieur s’obtient alors par une intégrale
sur le bord Z
1 q0 (s)
V (x) = ds
s 4π0 kx − x(s)k
Le potentiel q0 (s) sur le bord est solution d’une équation intégrale à noyau singulier
Z
1 q0 (s)
ds = V0 (t)
s 4π0 kx(t) − x(s)k
qu’il faut résoudre numériquement après approximation par une méthode d’éléments finis. En pra-
tique on procède de façon un peu différente. La méthode est spécialement intéressante pour les pro-
blèmes “extérieurs”, c’est à dire dont le domaine est le complémentaire d’un domaine borné. Elle
peut s’appliquer chaque fois que la solution fondamentale est connue.
65 Mathématiques 2
66 Analyse des équations aux dérivées partielles
Pour justifier l’usage de la formule de Stokes il faut que v ait des propriétés suffisantes de dérivabilité,
nous choisissons ici V = C 1 (Ω).
∂u ∂u
Le terme de bord k ∂n v est connu sur la partie du bord notée Γ1 puisque −k ∂n = g sur ce bord.
Si on choisit la fonction v nulle sur le bord Γ0 le terme de bord s’annule sur Γ0 . On note V0 l’espace
des fonctions de V nulles sur la partie Γ0 du bord.
Définition 9 Nous appellerons espace de fonctions tests l’espace V0 dans lequel on choisit la fonction
v.
Il vient :
u ∈ C 2 (Ω)
u = u0 surZ Γ0
Z Z (3.17)
∂u
∀v ∈ V k ∇u . ∇v dΩ = f v dΩ + k v ds
Ω Ω Γ1 ∂n
On obtient ainsi une première formulation variationnelle du problème, dite aussi formulation faible,
nous allons montrer qu’elle est équivalente à la formulation initiale.
Preuve : si h 6= 0, il existe un point x ∈ Ω et un petit disque B (x) tel que h soit de signe constant sur
ce disque (par exemple > 0) ; choisissons vR ∈ V0 positive R sur B (x) et nulle en dehors de ce disque,
alors on a hv > 0 sur ce disque tandis que Ω hv dΩ = B (x) hv dΩ = 0, ce qui est contradictoire.
♦
Noter que l’on peut prendre comme fonctions test l’espace D(Ω) des fonctions C ∞ à support com-
pact, voir le paragraphe ci-dessous, mais que si l’on prend l’espace des fonctions C 1 d’intégrale nulle
sur Ω la propriété (P) n’est pas vérifiée.
ECP 2006-2007 66
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 67
Démonstration de l’équivalence
Il y a dans l’équivalence des formulations (3.14) et (3.17) deux propriétés distinctes :
1. La formulation (3.17) implique l’équation aux dérivées partielles (3.14).
Supposons que u soit solution de (3.17) alors, en appliquant la formule de Stokes, on montre
que u est solution de (3.15) pour toute fonction v ∈ C01 (Ω) nulle sur tout le bord Γ de Ω (car
alors l’intégrale de bord disparaît). Comme l’espace C01 (Ω) des fonction C 1 nulles sur le bord
a la propriété (P) on en déduit que −∆u − f = 0.
∂u
2. La formulation faible (3.17) implique que u vérifie la condition aux limites −k ∂n = g sur le
bord Γ1 .
Il suffit en effet d’appliquer à nouveau la formule de Stokes à (3.17) mais cette fois pour une
fonction v quelconque dans V0 , on obtient R une intégrale sur Ω qui est nulle puisque u est
∂u
solution de (3.14) et une intégrale de bord Γ1 (−k ∂n − g) vds qui doit donc être nulle. On en
∂u
déduit que cela implique que ∂n = 0 en utilisant la propriété (P) sur C(Γ1 ).
67 Mathématiques 2
68 Analyse des équations aux dérivées partielles
Considérons la formulation (3.15) en prenant pour fonction test v une fonction positive et d’inté-
grale égale à 1, on a :
Z
∀v ∈ V (−k∆u − f ) v dΩ = 0 (3.20)
Ω
que l’on peut interprêter en considérant que les conditions d’équilibre ou de conservation locale
−k∆u − f = 0 sont vérifiées en moyenne pondérée par v. En particulier si v est une des fonctions de
base wi d’une approximation par éléments finis de (3.14) on voit que les équations construites dans
l’approximation traduisent une moyenne locale des équations ponctuelles d’équilibre ou de conserva-
tion .
le problème s’écrit :
∀v ∈ V0 , a(u, v) = L(v) (3.22)
ECP 2006-2007 68
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 69
La forme bilinéaire a(u, v) est symétrique définie positive et elle définit donc un produit scalaire sur
l’espace V0 tandis que L(v) définit une forme linéaire sur cet espace. On obtient ainsi une interpréta-
tion géométrique du problème : la solution u est le vecteur de V0 qui représente la forme linéaire L
à l’aide du produit scalaire a(u, v). Sur un espace de dimension finie on sait que toute forme linéaire
peut être ainsi représentée ; en dimension infinie ce résultat reste vrai dans un espace de Hilbert pour
des formes linéaires continues. Mais V0 n’est pas un espace complet pour la norme déduite du pro-
duit scalaire a(u, v). Cela complique singulièrement
p le raisonnement car il faut introduire l’espace
1
de Sobolev H0 , complété de V0 pour la norme a(u, u) (voir chap. 6), dont l’utilisation pose de
nombreux problèmes techniques, mais c’est cependant ainsi que l’on obtient le cadre le plus général
pour l’étude mathématique des équations aux dérivées partielles de type elliptique. Les formulations
faibles permettent donc de démontrer les résultats mathématiques d’existence et d’unicité de la so-
lution du problème, voir au chapitre 6 plus de détails sur la théorie mathématique de l’existence des
solutions.
Enfin les formulations faibles sont des conséquences directes des principes énergétiques quand
ceux-ci existent, comme nous le verrons ci-dessous.
Nous avons vu au chapitre 1 que les principes du minimum sont à la base des principales théories
de la physique mathématique. On appelle traditionnellement en mathématique calcul des variations
l’étude des extrémums des fonctions J (v) dont la variable v est une fonction7 et dont l’expression
est l’intégrale d’une fonction de v et de ses dérivées.
Nous allons montrer de manière générale que le minimum d’une fonctionnelle doit vérifier une équa-
tions aux dérivées partielles, l’équation d’Euler.
Soit Ω ⊂ Rn , on note encore V0 l’espace des fonctions C 1 nulles sur le bord Γ de Ω. Soit
h(x, u, u1 , ..., un ) une fonction C 2 de x ∈ Ω et de n + 1 variables où (u, u1 , ..., un ) ∈ Rn+1 . On
pose, pour u ∈ V0 : Z
J(u) = h(x, u, ∇u) dΩ
Ω
69 Mathématiques 2
70 Analyse des équations aux dérivées partielles
Posons
∂h ∂h t
∇ ui h = ( , ..., )
∂u1 ∂un
On en déduit le théorème
Théorème 11 Si fonction ū est un minimum de la fonctionnelle J(u), la différentielle DJ(ū).v est
nulle, i.e. ū vérifie Z
∂h
∀v ∈ V0 v + h∇ui h, ∇vi dΩ = 0 (3.24)
Ω ∂u
Nous allons voir que cette condition est la formulation faible d’une équation aux dérivées partielles.
R Appliquons la formule de Stokes (1.2) avec Φ(x) = ∇ui h(u(x)) sur le domaine Ω à l’intégrale
Ω h∇ ui h, ∇vi dΩ, il vient (en supposant toutes les expressions suffisamment dérivables)
Z Z Z
hΦ, ∇vi dΩ = − ∇ . Φ v dΩ + Φn v dΓ
Ω Ω Γ
d’où Z Z Z
∂h
DJ(u).v = v dΩ − ∇ . Φ v dΩ + Φn v dΓ
Ω ∂u Ω Γ
Et, puisque v est nulle sur le bord
Z
∂h
DJ(u).v = ( − ∇ . Φ) v dΩ
Ω ∂u
En notant Z
hf, gi = f g dΩ
Ω
ECP 2006-2007 70
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 71
∂h
∀v ∈ V0 DJ(u).v = h( − ∇ . Φ), vi = 0
∂u
et donc, puisque l’espace V0 a la propriété “P” du paragraphe (3.3.1)
∂h
−∇ . x (∇ui h)(x) + =0 (3.25)
∂u
où nous avons noté ∇ . x la divergence pour insister sur le fait qu’elle est prise par rapport au vecteur
x = (x1 , ..., xn ).
Le théorème d’Euler-Lagrange
∂h
−∇ . x (∇ui h) + =0 (3.26)
∂u
où l’on a posé
∂h ∂h t
∇ ui h = ( , ..., )
∂u1 ∂un
L’équation aux dérivées partielles (3.26) s’appelle l’équation d’Euler associée au problème (3.23).
L’équation d’Euler-Lagrange est une condition nécessaire mais pas suffisante, elle est équivalente
au fait que la différentielle DJ(u) est nulle. L’équivalence du problème (3.23) et du problème aux
dérivées partielles ne sera facile à établir que si la fonction J (u) est convexe, voir le cours d’optimi-
sation pour la démonstration du théorème suivant :
Théorème 13 ( Euler-Lagrange : condition suffisante) Si la fonction J(u) est une fonction convexe
alors l’équation d’Euler (3.26) est une condition nécessaire et suffisante pour que ū soit un minimum
de la fonction J(u). Ce minimum est unique si la fonction J(u) est strictement convexe.
L’équation d’Euler est une équation aux dérivées partielles du second ordre que l’on peut écrire
aussi sous forme développée
X ∂2h ∂2u ∂h
− + =0 (3.27)
∂ui ∂uj ∂xi ∂xj ∂u
i,j
71 Mathématiques 2
72 Analyse des équations aux dérivées partielles
L’équation est linéaire vis à vis des dérivées secondes. Anticipons sur la section suivante : la condi-
tion d’ellipticité (voir ci-dessous la définition (13)) équivaut au caractère défini positif de la forme
quadratique
X ∂2h
Φ(ξ) = ξi ξj
∂ui ∂uj
i,j
qui implique que le hessien de la fonction h(x, u, u1 , ..., un ) considérée comme fonction de (u1 , ..., un )
seulement est défini positif et donc (cf. chapitre 1 du cours d’optimisation) que la fonction h(x, u, u1 , ..., un )
est strictement convexe par rapport au vecteur (u1 , ..., un ). On en déduit un théorème (qui n’est pas
le plus général)
Exemples
Nous verrons de nombreux exemples d’équations aux dérivées partielles qui sont des équations
d’Euler-Lagrange au chapitre 4. Les plus élémentaires sont :
Equation de Laplace
Si
X 1 ∂u
h(x, u, ∇u) = ( )2
2 ∂xi
i
on a
∂u ∂u t
∇ ui h = ( , ..., )
∂x1 ∂xn
et l’équation d’Euler est l’équation de Laplace
−∆u = 0
1 ∂u c2 X ∂u 2
h(t, x, u, ∇u) = ( )2 − ( )
2 ∂t 2 ∂xi
i
on a
∂u ∂u ∂u t
∇ ui h = ( , −c2 , ..., −c2 )
∂t ∂x1 ∂xn
et l’équation d’Euler est l’équation des ondes
∂2u
− c2 ∆u = 0
∂t2
ECP 2006-2007 72
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 73
∇ui h = A(x) ∇u
u2
Z
1
J(u) = hA(x) ∇u, ∇ui + γ(x)
Ω 2 2
est solution de l’équation aux dérivées partielles du second ordre écrite sous la forme canonique
3.4.3 Généralisations
Fonctions vectorielles
Si u = (u1 , . . . , uk , . . . , up ) est une fonction vectorielle, autrement dit si la fonctionnelle
J(u) = J(u1 , . . . , uk , . . . , up )
une fonction ū est un minimum de J(u) si, pour 1 ≤ k ≤ p, ūk est le minimum de la fonction
v → J(ū1 , . . . , v, . . . , ūp ) ; la formule (3.25) reste valide pour chaque fonction uk en considérant que
le gradient ∇uj h de h est en fait un gradient partiel ∇uk h de h par rapport à (uk1 , . . . , ukj , . . . , ukn ), le
j
minimum ū de J(u) doit donc vérifier le système d’équations aux dérivées partielles
∂h
pour 1 ≤ k ≤ p − ∇ . x (∇uk h) + =0 (3.28)
j ∂uk
où l’on a posé
∂h ∂h
∇ uk h = ( k
, ..., k )t
j ∂u1 ∂un
∂h
Définissons la matrice [σ] de coefficients [σ]k,j = ∂ukj
et notons ∇ . [σ] le vecteur dont la composante
k est la divergence de la k ième ligne de [σ]. On peut écrire de façon synthétique
73 Mathématiques 2
74 Analyse des équations aux dérivées partielles
Nous verrons que les équations de l’élasticité sont un exemple de système d’équations d’Euler, la
fonctionnelle associée étant l’énergie potentiel totale.
ECP 2006-2007 74
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 75
Si on minimise sur l’espace des fonctions v qui vérifient seulement : v(0) = v(L) = 0, on montrera
que le minimum u vérifie de plus la condition aux limites u00 (0) = u00 (L) = 0.
d4 u
EI =f (3.32)
dx4
où u(x) est la flèche au point x avec u(0) = u(L) = 0 et EIu00 (0) = EIu00 (L) = 0 (i.e. les moments
de flexion aux extrémités sont nuls). La solution de ce probème est aussi solution du principe du
minimum de l’énergie Z
1 dv
Min J(v) = EI( )2 − f v dΩ (3.33)
Ω 2 dx
où l’espace des déplacements cinématiquement admissibles pour un appui simple est défini par v(0) =
v(L) = 0, (Noter que v 0 (0) et v 0 (L), i.e. les rotations des sections, sont libres). Les conditions de mo-
ment nul aux extrémités, EIu00 (0) = EIu00 (L) = 0, sont alors des conséquences du principe du
minimum.
(la variable uxn ,xn n’apparaît pas à droite dans l’équation). On introduit des variables supplémentaires
pour les dérivées
u i = u xi
on a
uxi xi = ui xi , uxj xj = uj xj ,
et pour les dérivées croisées
uxi xj = ui xj
8
De module de Young E et de moment d’inertie I
75 Mathématiques 2
76 Analyse des équations aux dérivées partielles
ou bien
u xi xj = u j xi
= ui , i = 1, ..., n
u xi
(3.35)
u n xn = f (u, ui ..., ui xj ...)
Mais ce système n’est pas du tout explicite, il faudrait que n’apparaissent à gauche que des dérivées
par rapport à xn . Nous allons faire autrement : remarquons que la symétrie des dérivées secondes
d’une fonction implique
uixj = ujxi
uixn = uxn xi
Or, en faisant xn = 0
C(x1 , ..., xn−1 ) = ui (x1 , ..., 0) − uxi (x1 , ..., 0) = ui (x1 , ..., 0) − hxi (x1 , ..., 0) = 0
et donc
u i = u xi
Remarques :
Si u n’apparaît pas dans l’équation initiale on peut supprimer la première équation qui ne sert qu’à
retrouver u une fois les autres variables déterminées par le système des n autres équations.
Nous avons montré l’équivalence de l’équation initiale et du système d’équations pour un problème
de Cauchy, pour un autre type de problèmes il faut vérifier cette équivalence qui sera dépendante des
conditions supplémentaires posées dans ce problème.
ECP 2006-2007 76
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 77
3.5.2 Exemples
L’équation des ondes
Appliquons ce principe à l’équation des ondes en dimension 2, avec x = (x1 , x2 )
2
∂ u
= c2 ∆u
∂t 2
u(x, 0) = h(x)
(3.37)
∂u
(x, 0) = 0
∂t
u(0, t) = u(1, t) = 0
En supprimant l’équation qui ne sert qu’à retrouver u, on obtient le système du premier ordre
1
ut = u3x1
u2t = u3x2
u3t = c2 (u1x1 + u2x2 ) (3.38)
i
u (x, 0) = hxi (x), 1≤i≤2
3
u (x, 0) = 0
77 Mathématiques 2
78 Analyse des équations aux dérivées partielles
un
ECP 2006-2007 78
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 79
classique9 pour des équations linéaires mais elle se généralise au équations quelconques : on suppose
que toutes les données sont analytiques et on cherche par substitution une fonction analytique solution
de l’équation ; ou, plutôt, on remarque qu’en dérivant les équations du système x0 = f (x) on obtient
des relations de récurrence entre les dérivées en un temps t et que, donc, la connaissance de la valeur
x(0) de la solution détermine toutes les dérivées de la solution en t = 0 et détermine finalement le
développement en séries entières de la solution.
Nous nous posons dans ce paragraphe la question :
De quoi dépend la solution “générale” d’un système d’équations aux dérivées partielles ?
∂u ∂ u 3
Nous utilisons la notation uxi , uxi xj xk ... pour les dérivées partielles ∂x ,
i ∂xi ∂xj ∂xk
... et uxk xl
1 2
pour abréger les répétitions d’indices. Nous appelons fonctions analytiques les fonctions analytiques
réelles, c’est à dire localement développables en série entière.
Considérons pour fixer les idées une équation non linéaire du second ordre à une fonction inconnue
u(x) avec x ∈ R2
f (u, ux1 , ux2 , ux1 x1 , ux1 x2 , ux2 x2 ) = 0 (3.43)
où f est une fonction analytique sur R6 . Nous cherchons une solution analytique u(x1 , x2 ) de (3.43).
L’équation (3.43) est une relation entre les dérivées de la fonction u en un point. Mais en dérivant
l’équation (3.43) nous obtenons d’autres équations entre les dérivées d’ordre supérieur. Ainsi une
équation aux dérivées partielle implique tout un ensemble de relations entre les dérivées partielles en
un point. Nous posons une question plus précise :
Pour fixer les idées supposons que ce point est (0, 0). Supposons que l’on puisse exprimer dans
l’équation (3.43) ux2 x2 en fonction des autres dérivées d’ordre 0, 1, 2
D’après le théorème des fonctions implicites (cours d’Optimisation, chapitre 1) c’est localement pos-
sible en un point où
∂2f
6= 0 (3.45)
∂ux2 x2
et g est alors une fonction analytique. L’équation (3.44) est équivalente à (3.43). En dérivant (3.44) on
peut exprimer successivement toutes les dérivées d’ordre supérieur à 2 en x2 en fonction des dérivées
d’ordre inférieur à 2 en x2 ; on en déduit que l’on peut au plus fixer les dérivées d’ordre 0 et 1 par
rapport à x2 , c’est à dire au point (0, 0) : uxk (0, 0) et ux2 xk (0, 0). Toutes les dérivées uxk xl (0, 0) sont
1 1 1 2
alors déterminées et une fonction u(x1 , x2 ) est localement déterminée par le développement en série
entière, si ce développement converge
X
u(x1 , x2 ) = uxk xl (0, 0)xk1 xl2
1 2
k,l
9
C’est d’ailleurs la méthode originelle de Cauchy qui utilisait le cadre des fonctions analytiques, le théorème énoncé
aujourd’hui dans le cadre des fonction C 1 , et démontré par une méthode de point fixe, est postérieur.
79 Mathématiques 2
80 Analyse des équations aux dérivées partielles
Noter que fixer les dérivées uxk (0, 0) et ux2 xk (0, 0) revient à fixer localement autour de 0 les fonctions
1 1
u(x1 , 0) et ux2 (x1 , 0). Plus précisément, si on considère le problème de Cauchy
ux2 x2 = g(u, ux1 , ux2 , ux1 x1 , ux1 x2 )
u(x1 , 0) = u0 (x1 ) (3.46)
ux2 (x1 , 0) = u1 (x1 )
alors les dérivées uxk (0, 0) et ux2 xk (0, 0) sont déterminées par
1 1
Le problème de Cauchy admet donc une solution analytique et une seule (mais nous avons admis
la convergence de la série !). Le théorème de Cauchy-Kovalevska affirme que le développement
converge et que sa somme est une solution de (3.46).
Définition 10 Le système (3.47) est dit Kovalevskien si les dérivées qui interviennent à droite sont
toutes d’ordre inférieur ou égal à k.
L’équation des ondes (2.16) est donc Kovalevskienne mais pas l’équation de la diffusion (2.8). Les
équations de Navier Stokes (2.34) ne forment pas un système Kovalevskien (à cause du terme de
viscosité) ni les équations d’Euler (2.35) pour les fluides incompressibles (à cause de la condition
d’incompressibilité), mais les équations de la dynamique des gaz (2.38) forment un système Kova-
levskien.
Nous admettrons le théorème :
si x ∈ Rn
uxkn = g(u, uxi ..., uxi xj , ...)
(3.48)
n−1 , 0) = uj (x) pour 0 ≤ j ≤ k − 1
u j (x , ..., x
xn 1
ECP 2006-2007 80
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 81
3.6.3 Commentaires
Le théorème de Cauchy-Kovalevska répond à la question que nous avons posée plus haut dans
le cas des systèmes Kovalevskien avec des données analytiques : la solution générale du système
dépend des données initiales du problème de Cauchy, c’est à dire de k − 1 fonctions de n − 1 va-
riables. Ce résultat est loin de résoudre la question de la détermination locale d’une solution générale
d’un système d’équations aux dérivées partielles comme le fait le théorème de Cauchy-Lipschitz
pour les systèmes différentiels. En effet l’hypothèse d’analyticité des conditions initiales est très forte
(elle interdit en particulier de considérer des données initiales à support compact) et on montre par
des contre-exemples qu’il n’est pas possible d’étendre le théorème, même à des fonctions C ∞ . Plus
précisément, dans la situation générale, on montre que la solution définie par le théorème (3.48) ne
dépend continûment des données initiales pour aucune norme raisonnable. Considérons par exemple
l’équation de Laplace en dimension 2, que nous écrivons ici sous la forme explicite Kovalevskienne
si x ∈ R2
uyy = −ux,x
u(x, 0) = f (x) (3.49)
uy (x, 0) = g(x)
Les fonctions √
uk (x, y) = exp (− k) sin kx exp ky
sont des solutions particulières analytiques de (3.49) avec pour condition initiales
√ √
f (x) = exp (− k) sin kx et g(x) = k exp (− k) sin kx
Quand k → ∞ les conditions initiales tendent vers 0 ainsi que toutes leurs dérivées en tous les sens
raisonnables : pourtant pour y > 0 les fonctions x → uk (x, y) explosent quand k → ∞.
Ce contre-exemple, dû à Hadamard10 , montre que le problème de Cauchy pour le Laplacien est in-
tuitivement mal posé quoique toutes les hypothèses du théorème (3.48) soient vérifiées. De fait une
équation de Laplace ne se rencontre en physique que pour des problèmes aux limites mais jamais pour
un problème à valeur initiale de Cauchy. Nous verrons au chapitre 5 que les systèmes hyperboliques
sont les systèmes Kovalevskiens pour lesquels le problème de Cauchy est bien posé, i.e. continû-
ment dépendant des conditions initiales pour des normes raisonnables, ce qui permet d’étendre les
conditions initiales dans (3.48) à des fonctions de classe C k .
81 Mathématiques 2
82 Analyse des équations aux dérivées partielles
Nous avons écrit l’équation (3.43) sous une forme explicite Kovalevskienne (3.44), sous la condition
(3.45)
∂f
6= 0
∂ux2 x2
Une fois l’équation mise sous forme explicite Kovalevskienne, le théorème de Cauchy-Kovalevska
répond à la question posée initialement. Mais cette opération n’a rien d’intrinsèque, elle dépend de la
variable et du système de coordonnées choisis, aussi nous posons nous la question générale :
Peut-on mettre le système sous forme explicite Kovalevskienne dans un système de coordonnées
quelconque ?
Fixons un point, par exemple (0, 0) et effectuons autour de ce point un changement de variables
quelconque définie par des fonctions analytiques
(on peut supposer φ(0) = 0) et posons u = v(φ(x)). Le changement de variables étant analytique
l’équation, écrite en fonction de v, est toujours définie par des fonctions analytiques. Cherchons à
quelle condition l’équation (3.50), écrite en fonction des nouvelles variables, est Kovalevskienne par
rapport à la variable y2 , c’est à dire à quelle condition
∂f
6= 0
∂vy2 y2
On a, en effectuant des calculs fastidieux mais sans autres astuces que les règles usuelles des dérivées
des fonctions composées
u = v(φ(x))
u x1 = vy1 φ1,x1 + vy2 φ2,x1
u x2
= vy1 φ1,x2 + vy2 φ2,x2
ux1 ,x1 = vy1 ,y1 φ21,x1 + vy1 ,y2 φ1,x2 φ2,x1 + vy2 ,y1 φ1,x2 φ2,x1
+ vy2 ,y2 φ22,x1 + vy1 φ1,x1 x1 + vy2 φ2,x1 x1
(3.51)
ux2 ,x2 = vy1 ,y1 φ21,x2 + vy1 ,y2 φ1,x2 φ2,x2 + vy2 ,y1 φ2,x2 φ1,x2
+ vy2 ,y2 φ22,x2 + vy1 φ1,x2 x2 + vy2 φ2,x2 x2
ux1 ,x2 = vy1 ,y1 φ1,x2 φ1,x1 + vy1 ,y2 φ1,x2 φ2,x1 + vy2 ,y1 φ2,x1 φ1,x2
+ vy2 ,y2 φ2,x1 φ2,x2 + vy1 φ1,x1 x2 + vy2 φ2,x1 x2
Et donc
∂f ∂f ∂f ∂f
= φ22,x1 + φ2,x1 φ2,x1 + φ2 (3.52)
∂vy2 y2 ∂ux1 x1 ∂ux1 x2 ∂ux2 x2 2,x2
L’équation peut donc se mettre sous forme explicite Kovalevskienne (par rapport à vy2 y2 ) si
∂f ∂f ∂f
φ2 + φ2,x1 φ2,x1 + φ2 6= 0 (3.53)
∂ux1 x1 2,x1 ∂ux1 x2 ∂ux2 x2 2,x2
ECP 2006-2007 82
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 83
Sous cette condition l’équation, écrite en fonction de v de façon explicite par rapport à vy2 y2 , vérifie
les conditions du théorème de Cauchy-Kovalevska et le problème de Cauchy associé admet locale-
ment une solution autour, par exemple, du point y1 = 0, y2 = 0 avec des conditions initiales posées
sur la courbe y2 = 0.
Introduisons la définition
Définition 11 Soit une courbe définie implicitement par l’équation S(x1 , x2 ) = 0 (où S(x1 , x2 ) est
analytique) et (y1 , y2 ) un paramètrage local du plan tel que y2 = S(x1 , x2 ) et que y1 paramètre la
courbe. On appelle problème de Cauchy le problème
f (u, ux1 , ux2 , ux1 x1 , ux1 x2 , ux2 x2 ) = 0
u = u0 (y1 ) si y2 = S(x1 , x2 ) = 0 (3.54)
∂u
y2 = u1 (y1 )
∂
Nous avons donc montré la proposition
S(x1 , x2 ) = φ2 (x1 , x2 ) = 0
Courbe caractéristique
Nous étudions les courbes sur lesquelles le problème de Cauchy ne peut pas être posé.
Définition 12 On appelle courbe caractéristique associée à l’équation (3.50) une courbe d’équation
implicite
S(x1 , x2 ) = Cte
où la fonction S(x1 , x2 ) est une solution de l’équation caractéristique
∂f ∂S 2 ∂f ∂S ∂S ∂f ∂S 2
( ) + + ( ) =0 (3.56)
∂ux1 x1 ∂x1 ∂ux1 x2 ∂x1 ∂x2 ∂ux2 x2 ∂x2
Sur une courbe caractéristique la condition (3.55) n’est donc pas vérifiée. Supposons qu’il existe
localement une famille de courbes caractéristiques d’équation S(x1 , x2 ) = Cte. Montrons que sur
ces courbes le problème de Cauchy ne peut pas être posé pour des données initiales quelconques.
Notons φ2 (x1 , x2 ) la fonction S(x1 , x2 ). On peut définir un changement de variables en prenant
y2 = φ2 (x1 , x2 ) et y1 = φ1 (x1 , x2 ) où φ1 (x1 , x2 ) une fonction quelconque indépendante de φ2 . On
pose φ(x) = (φ1 (x), φ2 (x)) et on note v la fonction telle que u(x) = v(φ(x)). L’équation (3.50)
s’écrit en fonction de v
f (v, vy1 , vy2 , vy1 y1 , vy1 y2 , vy2 y2 ) = 0
83 Mathématiques 2
84 Analyse des équations aux dérivées partielles
Proposition 31 Le long d’une courbe caractéristique le problème de Cauchy ne peut pas être posé
pour des données quelconques.
− Si le polynôme P (x) a deux zéros de même signe, la forme quadratique est définie positive ou
négative et l’équation (3.56 n’a pas de solutions non nulles, il n’y a donc pas de surfaces caractéris-
tiques.
− Si polynôme P (x) a deux zéros non nuls et de signes opposés, alors la forme quadratique
Φ(ξ1 , ξ2 ) admet deux directions isotropes11 d’équation ξ1 = λi ξ2 ou λi est un zéro du polynôme12
Q(x) = Φ(x, 1). On déduit alors de (3.56) deux équations
∂S ∂S
= λi (x1 , x2 ) i = 1 ou i = 2 (3.58)
∂x1 ∂x2
On peut choisir l’équation implicite de la courbe sous une forme qui la rend explicite
S(x1 , x2 ) = x1 − f (x2 ) = 0
11
i.e. telle que Φ(ξ2 , ξ2 ) = 0
12
On peut définir en dimension 2 un autre polynôme Q(x) associés à une forme quadratique : Q(x) = Φ(x, 1) =
a1,1 x2 + 2a1,2 x + a2,2 , ce polynôme n’a pas de sens en dimension supérieure. Le lecteur vérifiera que si P (x) a deux
racines de même signe, Q(x) n’a pas de racine réelle, et que si P (x) a deux racines de signes opposés, Q(x) a deux racines
réelles. Ce qui fait que parfois les définitions que nous donnons ci-dessous utilisent le caractère réel ou non des racines du
polynôme Q(x), c’est plus naturel ici, mais ces définitions ne s’étendent pas en dimension supérieure
ECP 2006-2007 84
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 85
en reportant dans (3.58) on voit que la courbe x1 = f (x2 ) est définie par l’équation différentielle
1 = −λi (f (x2 ), x2 )f 0 (x2 )
ou encore , puisque λi 6= 0
1
f 0 (x2 ) = −
λi (f (x2 ), x2 )
Cette équation admet, pour chaque valeur de i, une solution unique telle que f (0) = 0. Il existe donc
deux courbes caractéristiques passant par chaque point.
− Laissons de côté le cas des formes quadratiques dégénérées (voir chapitre 5), notons que si la
forme quadratique est nulle l’équation est en fait une équation aux dérivées partielles d’ordre 1 qui
sera étudiée au chapitre 5.
Nous pouvons conclure :
Proposition 32 Si le polynôme caractéristique P (x) de la matrice de la forme quadratique (3.57) a
deux zéros de même signe, la forme quadratique est définie positive ou négative, l’équation n’admet
pas de courbe caractéristique, on peut donc poser un problème de Cauchy sur toutes les courbes.
Si le polynôme P (x) a deux zéros non nuls de signes opposés, il existe deux familles de courbes
caractéristiques telles que par chaque point il passe exactement deux courbes caractéristiques, le
long desquels le problème de Cauchy ne peut pas être posé pour des données quelconques.
Cela conduit à poser les définitions :
Définition 13 Une équation aux dérivées partielles du second ordre telle que la forme quadratique
(3.57) est définie positive est une équation elliptique.
Une équation aux dérivées partielles du second ordre telle que le polynôme caractéristique de la
forme quadratique (3.57) a deux zéros réels distincts non nuls est une équation hyperbolique.
Les définitions d’équation elliptique ou hyperbolique ne font intervenir que les dérivées d’ordre 2 ;
ces définitions sont locales vis à vis des valeurs de la fonction u et de ses dérivées : selon ces valeurs
l’équation peut changer de type, c’est le cas dans certaines équations de la mécanique des fluides où
le changement de type correspond au passage subsonique/supersonique.
Exemples
Le Laplacien −∆ définit des équations elliptiques
−∆u = 0
−∆u + u = f
~ .∇u = f
−∆u + V
Nous verrons au chapitre 4 des conditions naturelles qui impliquent l’ellipticité d’équations non li-
néaires.
On vérifie que l’équation des ondes (2.16) est hyperbolique.
Pour les opérateurs linéaires nous posons directement les définitions suivantes, cohérentes avec la
définition générale (13) :
85 Mathématiques 2
86 Analyse des équations aux dérivées partielles
Définition 14 Soit un opérateur linéaire aux dérivées partielles du second ordre P (D) pour un po-
lynôme
P (x1 , x2 ) = a + a1 x1 + a2 x2 + a1,1 x21 + 2a1,2 x1 x2 + a2,2 x22
Soit P1 (λ) le polynôme caractéristique de la matrice
a1,1 a1,2
A=
a2,1 a2,1
− si le polynôme caractéristique a deux racines réelles strictement positive, l’opérateur est elliptique,
− si le polynôme caractéristique a deux racines réelles non nulles de signes opposés, l’opérateur est
hyperbolique,
− si le polynôme caractéristique a une racine nulle, l’opérateur est parabolique, nous étudierons cette
situation au chapitre 5.
Si l’opérateur est à coefficients constants, les caractéristiques sont des droites, on montre facilement
qu’un changement de variables linéaire ramène l’opérateur aux formes canoniques suivantes :
− si l’équation est elliptique
−∆u
− si l’équation est hyperbolique
∂2u ∂2u
−
∂x21 ∂x22
∂2u
c’est à dire l’opérateur de l’équation des ondes, ou aussi ∂x1 ∂x2 ,
− si l’équation est parabolique
∂u ∂2u
− 2
∂x1 ∂x2
c’est à dire l’opérateur de l’équation de la diffusion.
ECP 2006-2007 86
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 87
Supposons que la variable x2 représente le temps et que le phénomène physique que modélise cette
équation a une vitesse de propagation finie (par exemple l’équation des ondes). Si on considère un
état initial à support compact, la solution u(x1 , x2 ) est donc, par hypothèse, pour tout t à support
compact. Soit Γ la courbe le long de laquelle se raccordent les parties nulles u− et non nulles u+
de la solution. L’argument précédent montre que la courbe de raccord doit être une caractéristique et
donc que la pente de la caractéristique détermine la vitesse de propagation, ce que nous verrons plus
en détail au chapitre 5.
Le problème de Cauchy
Nous considérons un système d’équations du premier ordre linéaires par rapport aux dérivées par-
tielles (nous avons vu ci-dessus que tout système d’équations aux dérivées partielles pouvait s’écrire
sous la forme d’un système du premier ordre, mais comme cette écriture n’est pas unique les proprié-
tés des différents systèmes obtenus peuvent différer). Soit donc un système de p équations linéaire du
premier ordre à p inconnues que nous écrivons sous la forme
X ∂u
Aj (x, u) = f (x, u) (3.59)
∂xj
j
où u(x) est une fonction C 1 de Ω ⊂ Rn dans Rp , les matrices Aj (x, u) sont carrées de dimension
(p, p) et le vecteur f (x, u) ∈ Rp .
Soit Σ une (hyper)surface dans Rn d’équation implicite S(x1 , ..., xn ) = 0, avec ∇S(x1 , ..., xn ) 6= 0,
et u0 (x) une fonction définie sur cette surface.
Définition 15 Un problème de Cauchy pour le système (3.59) consiste à trouver localement autour
de Σ une solution de (3.59) qui soit égale à u0 sur Σ
X ∂u
Aj (x, u) = f (x, u)
∂xj (3.60)
j
u(x) = u0 (x) si x ∈ Σ
Analyse
Nous allons étudier à quelle condition le problème Cauchy (15) admet une solution analytique. On
∂S
peut toujours supposer ∂x 1
6= 0 quitte à permuter les variables. Choisissons pour nouvel ensemble
de variables y = (y1 , x2 , ..., xn ), avec y1 = S(x1 , ..., xn ). C’est, localement, un changement de
∂S
variables propre car on peut l’inverser : d’après le théorème des fonctions implicites si ∂x 1
6= 0
il existe φ(y1 , x2 , ..., xn ) tel que y1 = S(x1 , ..., xn ) implique x1 = φ(y1 , x2 , ..., xn ). On notera
87 Mathématiques 2
88 Analyse des équations aux dérivées partielles
∂u ∂v ∂S ∂v
= +
∂xj ∂y1 ∂xj ∂xj
et
∂u ∂v ∂S
=
∂x1 ∂y1 ∂x1
On en déduit par substitution
X ∂u X ∂S ∂v X ∂v
Aj (x, u) = Aj (x, u) + Aj (x, u)
∂xj ∂xj ∂y1 ∂xj
j j j>1
Posons
X ∂S
A(x, u) = Aj (x, u)
∂xj
j
Il vient
∂v X ∂v
A(x, u) = f (x, u) − Aj (x, u) (3.61)
∂y1 ∂xj
j>1
Si A(x, u) est inversible pour tout x et pour toutes les fonctions u qui sont dans un voisinage de u0 ,
on peut en déduire pour v, après le changement de variables x = Φ(y), un système aux dérivées
partielles explicite et donc un problème de Cauchy explicite équivalent à (15)
∂v X ∂v
= A(Φ(y), v(Φ(y))−1 f (Φ(y), v(Φ(y))) −
Aj (Φ(y), v(Φ(y)))
∂y1 ∂yj (3.62)
j>1
u(0, y2 , ..., yn ) = u0 (y2 , ..., yn )
Si toutes les données, ainsi que la surface, sont définies par des fonction analytiques on en déduit
que toutes les fonctions du second membre sont analytiques et donc, par le théorème de Cauchy-
Kovalevska (3.48), l’existence et l’unicité d’une solution analytique locale. D’où le théorème :
Théorème 18 Soit Σ une (hyper)surface dans Rn d’équation implicite S(x1 , ..., xn ) = 0, avec
∇S(x1 , ..., xn ) 6= 0 et S(x) analytique, et soit u0 (x) une fonction définie sur cette surface. Si
X ∂S
det Aj (x, u) 6= 0
∂xj
j
pour tous les points x ∈ Σ et pour toutes les fonctions u d’un voisinage de u0 , le problème de Cauchy
(3.60) admet localement une solution analytique.
ECP 2006-2007 88
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 89
Caractéristiques
Pour caractériser les surfaces sur lesquelles le problème de Cauchy n’a pas en général de solutions,
nous posons la définition :
Définition 16 Soit Σ une (hyper)surface dans Rn d’équation implicite S(x1 , ..., xn ) = 0, avec
∇S(x1 , ..., xn ) 6= 0 et S(x) analytique. Si pour une fonction u donnée,
X ∂S
det Aj (x, u) = 0
∂xj
j
en tout point x, Σ est une surface caractéristique pour l’équation aux dérivées partielles (15).
Si le système est non linéaire en u et donc si les matrice Aj (x, u) dépendent de u les surfaces ca-
ractéristiques dépendent des valeurs de u, mais pour les systèmes linéaires en u, même à coefficients
variables, la notion de surface caractéristique ne dépend que de l’équation.
Si pour tous réels (ξ1 , ..., ξn ) non tous nuls on a
X
det ξj Aj (x, u) 6= 0
j
le problème de Cauchy admet localement une solution analytique sur toutes les surfaces analytiques ;
nous poserons donc la définition
Définition 17 Un opérateur aux dérivées partielles du premier ordre, linéaires par rapport aux déri-
vées
X ∂u
Aj (x, u) − f (x, u)
∂xj
j
est elliptique si
X
∀(ξ1 , ..., ξn ) ∈ Rn , ∀u ∈ R det ξj Aj (x, u) = 0 ⇒ ∀j ξj = 0
j
Pour un problème elliptique le problème de Cauchy admet donc toujours une solution analytique.
Mais, et c’est très important, on montre que cette solution est toujours instable par rapport aux don-
nées : le problème de Cauchy est toujours mal posé.
89 Mathématiques 2
90 Analyse des équations aux dérivées partielles
2) Cherchons des solutions au sens classique d’un système d’équations linéaires qui soient conti-
nues partout et dérivables partout sauf éventuellement sur une surface qui serait une surface de dis-
continuité des dérivées normales. Si cette surfaces n’est pas caractéristique les dérivées normales sont
déterminées par les dérivées tangentielles qui sont continues sur la surface comme l’est la solution,
les dérivées normales sont donc aussi continues. Ainsi les surfaces de discontinuité des dérivées sont
nécessairement des surfaces caractéristiques. Un système elliptique n’admet donc pas de telles dis-
continuité.
3) Supposons ici que les matrices Aj (x, u) ne dépendent pas de u. Soit Σ une surface caractéris-
tique. Sur cette surface, définie par y1 = 0, on a l’identité (3.61)
∂v X ∂v
A(y) = f (y, v) − Aj (y)
∂y1 ∂xj
j>1
où nous avons substitué y et v à x et u sans changer les notations des matrices pour ne pas alourdir
les notations. Soit V (y) un vecteur normalisé qui définit le noyau de At (y), on a sur Σ
At (y) V (y) = 0
et donc, pour y1 = 0
X ∂v
hV (y), f (y, v)i − hAtj (y) V (y), i=0
∂xj
j>1
Nous avons obtenu une équation aux dérivées partielles du premier ordre que doivent vérifier les
fonctions vi (0, x2 , ..., xn ). Ce qui montre que v ne peut être choisi arbitrairement sur Σ.
ECP 2006-2007 90
Chapitre 4
Objectifs
Ce chapitre est une introduction aux problèmes aux limites, c’est à dire en général les problèmes
de statique ou de régime permanent. Nous avons vu les exemples les plus classiques de problèmes
aux limites au chapitre 2. Nous verrons que ce sont aussi en général les problèmes associés à des
opérateurs aux dérivées partielles elliptiques. Voir [11] ou [12] pour un exposé plus complet.
4.1 Introduction
4.1.1 Quelques définitions
Voir le chapitre 2 du cours d’optimisation pour plus de détail. On note J(v) une fonction définie
sur un espace normé V , de norme ||v||.
Définition 18 La fonction J(v) est coercive si
∀v ∈ V lim J(v) = +∞
kvk→∞
91
92 Analyse des équations aux dérivées partielles
Problème aux limites pour une équation du second ordre à une inconnue
Commençons par le cas particulier d’une équation du second ordre à une fonction inconnue. Le
problème de référence est le problème de Poisson (cf. (2.1)). L’inconnue est une fonction u(x) de
n variables x = (x1 , ..., xn ) et, bien sûr, on aura normalement n = 2 ou n = 3 ! Nous utilisons
∂u 2
parfois la notation uxi , uxi xj ... pour les dérivées partielles ∂x , ∂ u .... Nous écrivons l’équation
i ∂xi ∂xj
aux dérivées partielles générale du second ordre sous la forme
où g(u, ...uxi ...) est une fonction connue. La condition sur le bord la plus générale fait intervenir
toutes les dérivées mais elle s’exprime souvent en fonction de la dérivée normale d’une fonction
auxiliaire. En pratique l’expression de la condition aux limites peut différer entre les parties du bord.
Définissons certaines conditions aux limites particulières :
Définition 22 Les conditions de Dirichlet sont les conditions aux limites du type u = u0 .
∂u
Les conditions de Neumann sont les conditions aux limites du type k ∂n = g0 où g0 est fixé.
∂u
Les conditions mixte ou de Robin sont les conditions aux limites du type k ∂n + αu = g0 .
Si les constantes u0 et g0 sont nulles les conditions aux limites sont dites homogènes.
Nous essaierons dans ce chapitre de répondre aux questions suivantes :
ECP 2006-2007 92
CHAPITRE 4. LES PROBLÈMES AUX LIMITES 93
où le tenseur à 4 indices Ri,j,k,l (u) et le vecteur Fl ne dépendent que des dérivées partielles d’ordre
inférieur à 1.
Le système de l’élasticité non linéaire (2.28) s’écrit par exemple sous cette forme, le tenseur Ri,j,k,l
vérifiant certaines conditions de symétrie.
Nous définissons un problème aux limites en ne considérant que les conditions aux limites les plus
usuelles. Comme pour l’élasticité on définit une matrice [σ] analogue aux contraintes par la relation
X
σi,j = Ri,j,k,l (u)ukxl
k,l
Les conditions aux limites peuvent mélanger en un même point des conditions aux limites portant sur
une composante de la fonction u
un = hu, ~ni = u0
ou sur les dérivées
σn,n = h[σ]~n, ~ni = g0
σn,t = h[σ]~n, ~ti = g0
En élasticité ces conditions sont naturelles : un appui sans frottement sur une surface se traduit par
un = 0 (contact avec l’appui) et σn,t = 0 (la nullité des cisaillements dans deux directions tangentes
au bord).
93 Mathématiques 2
94 Analyse des équations aux dérivées partielles
Définition 23 Une équation aux dérivées partielles du second ordre est une équation elliptique si la
forme quadratique (4.4) est définie positive ou définie négative. .
Noter que cette définition ne fait dépendre l’ellipticité que des termes du second ordre et que, quitte à
tout multiplier par −1, on s’arrange en général pour rendre la forme positive.
X ∂2u X ∂u
− ai,j (x) + bi (x) + cu = d (4.5)
∂xi ∂xj ∂xi
i,j i
où, quitte à multiplier l’équation par −1, on a fixé les signes de façon que a1,1 ≥ 0.
Définition 24 Une équation linéaire aux dérivées partielles du second ordre (4.5) est elliptique si la
forme quadratique caractéristique
X
ai,j (x)ξi ξj
i,j
est définie positive, autrement dit si la matrice A de coefficient ai,j est définie positive. .
Théorème 20 Un opérateur linéaire aux dérivées partielles quelconque peut s’écrire sous la forme
canonique
où A(x) est une matrice symétrique et V (x) un champ de vecteurs. Sur l’espace V0 des fonctions de
C 1 (Ω) nulles sur le bord Γ, le premier opérateur est symétrique associé à la forme bilinéaire
Z Z
a(u, v) = hA(x) ∇u, ∇vi dΩ + γ(x)uv dΩ
Ω Ω
Proposition 33 Si l’équation linéaire aux dérivées partielles du second ordre (4.5) est elliptique et
si γ(x) ≥ 0 la forme a(u, v) est symétrique définie positive sur V0 .
ECP 2006-2007 94
CHAPITRE 4. LES PROBLÈMES AUX LIMITES 95
La définition générale de l’ellipticité est ici aussi la non existence d’une surface caractéristique.
Le système général de p équations linéaires du second ordre à p fonctions inconnues uk s’écrit
X ∂ 2 uk X ∂uk X
∀l 1 ≤ l ≤ p : − Ri,j,k,l + bj,k,l + ck,l uk = dl (4.6)
∂xi ∂xj ∂xj
i,j,k j,k k
Définition 25 Le système d’équations linéaires aux dérivées partielles du second ordre (4.6) est el-
liptique si la forme quadratique caractéristique
X
Ri,j,k,l ξji ξlk
i,j,k,l
Cela implique :
Proposition 34 Si le système d’équations linéaires aux dérivées partielles du second ordre (4.6) est
elliptique la forme bilinéaire symétrique
∂uk ∂v l
Z X
a(u, v) = Ri,j,k,l
Ω i,j,k,l ∂xi ∂xj
La forme a(u, v) est définie positive sur des sous-espaces de fonctions de C 1 (Ω)p nulles sur certaines
parties du bord.
95 Mathématiques 2
96 Analyse des équations aux dérivées partielles
L’existence d’un potentiel est équivalente à l’existence d’un principe de conservation (le travail ne
dépend pas du chemin suivi), ainsi en mécanique ce potentiel n’existe pas en présence de frottements.
Mathématiquement l’opérateur aux dérivées partielles vérifie une condition de symétrie (Voir le cours
d’Optimisation chapitre 1), que nous n’expliciterons pas dans le cas général, mais qui explique la
symétrie de la forme bilinéaire a(u, v) dans les formulations faibles de ces problèmes. Le problème
de convection-diffusion ou les écoulements de Navier Stokes en régime permanent sont des exemples
de problème de statique qui ne sont pas associés à des potentiels.
Nous considérons dans ce paragraphe des problèmes avec une seule fonction inconnue et nous
nous limitons aux conditions aux limites de type Dirichlet homogène. Nous considérons une fonction
potentielle de la forme Z
J(u) = h(x, u, ∇u) dΩ (4.7)
Ω
Soit V0 l’espace des fonctions C 1 nulles sur le bord Γ de Ω. Nous avons vu (théorème (12)) qu’un
extrémum de la fonction J(u) sur l’espace V0 vérifie les équations d’Euler sous forme faible, c’est à
dire Z
∂h
∀v ∈ V0 v + h∇ui h, ∇vi dΩ = 0 (4.8)
Ω ∂u
où l’on a posé
∂h ∂h t
∇ uj h = ( , ..., )
∂uj 1 ∂un
On en déduit l’équation d’Euler (cf. (3.27)) écrite sous la forme canonique
∂h
−∇ . x (∇uj h) + =0 (4.9)
∂u
et en développant les dérivées (cf. (3.27))
X ∂2h ∂h
f (u, ..., uxi , ..., uxi xj , ...) = − u xi xj + =0 (4.10)
∂uxj ∂uxi ∂u
i,j
à laquelle il faut ajouter, puisque u ∈ V0 la condition uΓ = 0 qui définit un problème aux limites.
L’équation d’Euler (4.10) est une équation quasi-linéaire du second ordre (i.e. elle est linéaire par
rapport aux dérivées secondes).Donc :
Proposition 35 Une condition nécessaire d’extrémalité de la fonction J(u) sur l’espace V0 est que
u vérifie un problème aux limites homogènes pour l’équation d’Euler Edp4FFEulerFort qui est une
équation quasi-linéaire du second membre
ECP 2006-2007 96
CHAPITRE 4. LES PROBLÈMES AUX LIMITES 97
Remarque importante : Les équations aux dérivées partielles peuvent s’écrire sous un grand nombre
de formes équivalentes. Il est notamment tentant, en développant toutes les dérivées, d’obtenir la
forme (4.10) qui parait canonique et qui fait apparaître toutes les dérivées. Pourtant, quand on sait
que l’équation peut être obtenue par un principe de minimum, il est bien préférable d’utiliser la forme
( 4.9) :
− Elle conserve la signification physique des différents termes.
− Elle permet de construire directement les formulations faibles à la base des approximations numé-
riques par la méthode des éléments finis.
− Elle permet de construire de façon cohérente des formules d’approximation aux différences finies.
Théorème 21 Une fonction continue et coercive sur un espace de dimension finie admet un minimum.
Ce théorème est faux sur un espace de Hilbert ou de Banach de dimension infinie. Il ne s’applique
donc pas directement à la fonction potentielle (4.7). Néanmoins nous pouvons nous en servir comme
d’un principe heuristique pour s’assurer de l’existence de la solution d’un problème car si la fonc-
tionnelle est coercive, on pourra souvent en déduire l’existence d’au moins un minimum “dans le
bon espace fonctionnel”. Cela sera vrai en particulier si la fonctionnelle est convexe et continue sur
un espace de Banach dit “réflexif” (comme les espaces Lp (Ω), 1 < p < +∞), mais cette théorie
dépasse le cadre de ce cours.
− Si la fonction potentielle (4.7) est une somme de termes d’ordre de grandeur différent, la coer-
civité de cette fonction va dépendre du terme de l’ordre le plus élevé.
− Quand on construit une approximation numérique du problème par la méthode des éléments
finis, on restreint le principe du minimum à un sous-espace de dimension finie si bien que le théorème
(21) s’applique.
− Quand une fonction dépend d’un paramètre, elle peut être coercive ou non selon les valeurs du
paramètre ; la perte de coercivité pour une valeur d’un paramètre sera ainsi le signe d’une “catastro-
phe” par perte de stabilité ou par disparition complète d’une solution (voir le cours d’Optimisation
chapitre 1 pour un exemple).
Proposition 36 Si la fonction h(x, u, ∇u) est une fonction strictement convexe de (u, ..., uj , ...) alors
la fonction potentielle J(u) définie par (4.7) est une fonction strictement convexe de C 1 (Ω]) dans R.
Elle admet alors au plus un minimum.
97 Mathématiques 2
98 Analyse des équations aux dérivées partielles
ECP 2006-2007 98
CHAPITRE 4. LES PROBLÈMES AUX LIMITES 99
où G(u) ∈ C 1 (R). Nous allons établir les conditions nécessaires que doit vérifier un extrémum de
J(u) sur l’espace C 1 (Ω).
En procédant comme pour le théorème (12), on montre que un extrémum de la fonction J(u) sur
l’espace C 1 (Ω) vérifie
Z X Z
∂h ∂h
1
∀v ∈ C (Ω), DJ(u).v = vx + v dΩ + G0 (u)v dΓ = 0 (4.12)
Ω ∂ui i ∂u Γ
i
Posons
∂h ∂h t
Φ = ∇ ui h = ( , ..., )
∂u1 ∂un
ce qui permet d’écrire plus synthétiquement
Z Z
∂h
DJ(u).v = hΦ, ∇vi dΩ + v dΩ + G0 (u)v dΓ
Ω ∂u Γ
On en déduit Z Z
∂h
DJ(u).v = (−∇ . Φ + )v dΩ + (Φn + G0 (u)) v dΓ
Ω ∂u Γ
Théorème 23 Un extrémum de la fonction J(u) définie par (4.11) est la solution du problème aux
limites suivant pour une équation aux dérivées partielles du second ordre
∂h
−∇ . x (∇ui h) +
=0 si x ∈ Ω
∂u (4.14)
0
h∇ui h, ni = g(u) = G (u) si x ∈ Γ
Interprétation
On peut utiliser ce résultat pour analyser le problème aux limites (4.14). La fonction (4.11) est
la somme de deux termes, la coercivité ou(stricte) convexité de chacun de ces termes assurera, par
exemple, l’existence et l’unicité de la solution de (4.14) ; par contre si le second terme est concave et
tend vers −∞ à l’infini, la coercivité de J(u) n’est pas assurée et la situation peut être complexe pour
ce qui est de l’existence de la solution ou de sa multiplicité.
99 Mathématiques 2
100 Analyse des équations aux dérivées partielles
Nous étudions dans ce paragraphe un problème elliptique linéaire du second ordre qui généralise
tous les exemples du chapitre 2 comme ceux des séances d’exercices.
Soit Ω ⊂ Rn un domaine de bord Γ où nous distinguons deux parties Γ0 et Γ1 . Considérons, pour une
équation aux dérivées partielles linéaires générale du second ordre, le problème aux limites
u ∈ C 2 (Ω)
(−∇ . (A(x) ∇u) + γ(x)u) + (hV (x), ∇ui + ∇ . (V (x)u)) = f si x ∈ Ω
(4.15)
u = u0 si x ∈ Γ0
−(A(x) ∇u) · ~n = C(u − u1 ) si x ∈ Γ1
où :
− A(x) est une matrice symétrique,
− V (x) un champ de vecteurs tel que V (x) · ~n = 0 sur Γ1 ,
− f ∈ C(Ω), u0 et u1 sont deux fonctions définies sur le bord, C est une constante positive.
L’opérateur aux dérivées partielles est l’opérateur linéaire du second ordre le plus général, écrit sous la
forme canonique (théorème (20)). On suppose que l’opérateur est elliptique, i.e. que la matrice A est
définie positive, et que γ(x) ≥ 0. Nous nous plaçons sous des hypothèses un peu plus générales que
dans les paragraphes précédents pour ce qui est des conditions aux limites. Noter que ces hypothèses
sont les hypothèses naturelles, notamment dans l’interprétation du problème comme un problème de
convection-diffusion. (cf. paragraphe 4.3.14).
Formulation faible
Soit
V0 = {v ∈ C 1 (Ω) / v|Γ0 = 0}
Z
b(u, v) = ∇ . (V (x)u))v − ∇ . (V (x)v))u dΩ
Ω
Z Z
L(v) = f v dΩ + Cu1 v ds
Ω Γ1
Z
a1 (u, v) = Cuv ds
Γ1
u ∈ C 2 (Ω), u = u0 sur Γ0
(4.16)
∀v ∈ V0 a(u, v) + a1 (u, v) + b(u, v) = L(v)
Les formes bilinéaires a(u, u) et a1 (u, v) sont symétriques définies positives sur V0 . La forme b(u, v)
est antisymétrique.
La démonstration de l’équivalence est la même que celle qui a été faite au paragraphe (3.3). Les
propriétés des formes bilinéaires ont été établies au paragraphe (3.1.3)
Analyse du problème
On déduit de la formulation faible l’unicité de la solution de (4.15) car s’il existait deux solutions
u1 et u2 on aurait
∀v ∈ V0 a(u1 − u2 , v) + b(u1 − u2 , v) = 0
et donc en particulier, puisque u1 − u2 ∈ V0 ,
a(u1 − u2 , u1 − u2 ) + b(u1 − u2 , u1 − u2 ) = 0
a(u1 − u2 , u1 − u2 ) = 0
Si V (x) = 0, la formulation faible (3.3) n’est autre que l’expression de la nullité de la différen-
tielle de la fonction potentielle J(u) (i.e. DJ(u).v = 0) définie par
Z Z
1 2
J(u) = (hA(x) ∇u, ∇ui + γ(x)u ) dΩ + Cuv ds − L(u)
Ω 2 Γ1
1 1
= a(u, u) + a1 (u, u) − L(u)
2 2
Nous en avons déduit (cf. (4.9)) que le problème (4.15) est l’équation d’Euler-Lagrange associée à la
fonctionnelle J(u). La fonction J(u) est strictement convexe, donc la solution u de (4.15), que nous
supposons existée, est l’unique minimum de J(u).
−k∆u + cu = f si x ∈ Ω
(
∂u (4.17)
k + c1 (u − u0 ) = 0 si x ∈ Γ
∂n
101 Mathématiques 2
102 Analyse des équations aux dérivées partielles
avec k, c, c1 > 0. Soit V l’espace des fonctions C 1 sur Ω. Ce problème aux limites pour une équation
elliptique est du type (4.14). Il est équivalent au problème d’optimisation
k∇vk2 v2 v2
Z Z
Minv∈V J(v) = k + c − f v dΩ + c1 − u0 v dΓ (4.18)
Ω 2 2 Γ 2
L’équivalence vient de la convexité (voir le cours d’Optimisation chapitre 2) de la fonction J(v) qui
s’écrit aussi sous la forme
1
J(v) = a(v, v) − L(v)
2
où Z Z
a(u, v) = (∇u.∇v + c u v) dΩ + c1 u v dΓ
Ω Γ
est une forme bilinéaire symétrique définie positive et
Z Z
L(v) = u0 v dΓ + f v dΩ
Γ Ω
une forme linéaire. Noter que la condition aux limites devient entièrement implicite dans la formu-
lation variationnelle. La fonctionnelle J(v) est strictement convexe et coercive, le problème admet
au plus une solution (La démonstration mathématique de l’existence suppose de préciser le cadre
fonctionnel et la régularité des données, voir chapitre 6).
k∇vk2 v2
Z
Minv∈V J(v) = k(x) + c − f v dΩ (4.20)
Ω 2 2
La variation des coefficients ne crée donc pas de problème particulier. La résolution numérique se
fait avec les mêmes méthodes que celles que nous avons développées pour l’étude de la diffusion
homogène. Noter que si k est discontinu sur des frontières intérieures, la formulation variationnelle
reste valable mais c’est l’équation (4.19) qu’il faut modifier (u n’est plus dérivable sur cette frontière)
en ajoutant une condition de continuité des flux sur la frontière intérieure.
−k∆u − ω 2 u = f si x ∈ Ω
(4.21)
u=0 si x ∈ Γ
Noter en comparaison avec l’exemple précédent que c = −ω 2 est négatif dans (4.17). Soit V0 l’espace
des fonctions C 1 sur Ω nulles sur le bord Γ. Ce problème aux limites pour une équation elliptique est
du type (4.9). La solution de ce problème est un extrémum sur V0 de la fonction
Z
k
J(v) = ( k∇vk2 − ω 2 v 2 − f v) dΩ (4.22)
Ω 2
La fonctionnelle J(v) n’est pas en général convexe, (noter qu’elle est la différence de deux fonctions
convexes).
On peut montrer que si ω 2 < ω02 où ω0 est la pulsation associée à la fréquence fondamentale, J(v) est
encore strictement convexe et coercive, elle a encore un minimum ; mais si ω 2 > ω02 La fonctionnelle
n’est ni convexe ni coercive et la solution u de l’équation d’Euler n’est plus un minimum mais un
point “col”, le problème n’admet pas toujours une solution (Les valeurs de ω pour lesquelles il n’y a
pas de solution sont, à 2π près, les pulsations correspondant aux fréquences de résonance).
Il n’est pas difficile sous ces hypothèses de construire un cadre fonctionnel assurant l’existence
et l’unicité de la solution. La résolution numérique d’un problème quasi-linéaire n’est donc pas très
difficile, puisqu’elle se ramène à un problème d’optimisation standard.
103 Mathématiques 2
104 Analyse des équations aux dérivées partielles
Φ = −k∇u
∇.Φ+q =0
Si les variations de température sont fortes on considère une loi de diffusion non linéaire du type
−k∇ . k∇ukp−2 ∇u = q
(4.26)
u = u0 sur le bord Γ
Ce problème est du type (4.9), avec une équation elliptique. Soit V0 l’espace (affine) des fonctions
C 1 , telles que u = u0 sur Γ. Ce problème équivaut au problème d’optimisation convexe
k∇vkp
Z
Minv∈V0 J(v) = k − qv dΩ (4.27)
Ω p
On montre que c’est un problème d’optimisation pour une fonction strictement convexe coercive pour
une norme convenable. Des difficultés mathématiques apparaissent pour p = 1 (la fonction n’est plus
coercive, ni convexe) et des difficultés numériques pour p proche de 1.
kuk2 γ1
ρ = ρ0 (K − ) 1 (4.28)
2
La conservation de la matière dans tout sous-domaine se traduit par l’équation ∇ . (ρu) = 0. L’écou-
1
lement étant irrotationnel, il existe un potentiel Ψ tel que u = ∇Ψ. On pose q = γ−1 . Le potentiel
Ψ est donc solution du problème aux limites
∇ . (K − 1 k∇Ψk22 )q ∇Ψ) = 0 sur Ω
2 (4.29)
1 ∂Ψ
ρ0 (K − k∇Ψk22 )q
= g sur Γ
2 ∂n
Cette fonctionnelle est convexe si la norme de la vitesse k∇vk2 n’est pas trop grande ( ce qui corres-
pond à des vitesses “subsoniques”), elle ne l’est plus pour des vitesses plus grandes qui correspondent
à la zone supersonique (l’équation est hyperbolique dans cette zone).
L’équation est donc elliptique si et seulement si la matrice M est définie positive (M définie négative
est impossible pour des raisons thermodynamiques évidentes). La solution u est alors un extrémum
de la fonction Z
1
J(v) = < M ∇v, ∇v > −f v dΩ (4.33)
Ω 2
– Cas M (x) définie positive
< M ∇v, ∇v > est alors une forme définie positive et J(v) est donc une fonction strictement
convexe coercive, le problème admet une solution et une seule.
– Cas M semi-définie positive en certains points
La fonction reste convexe, mais pour certaines directions de fonctions v il est possible que
J(v) → −∞ , l’existence n’est plus assurée ; quand la solution existe on montre que celle-ci
peut admettre des lignes de discontinuité de la dérivée. .
– Cas M non définie positive
Nous avons dit ci-dessus que cette situation est ici physiquement incohérente : elle signifie
que la chaleur s’écoule dans le sens des températures croissantes ce qui est contraire aux prin-
cipes de la thermodynamique. La fonction J(v) est dans ce cas convexe sur certaines droites et
105 Mathématiques 2
106 Analyse des équations aux dérivées partielles
concave sur d’autres, la solution est un point “col” pour J(v) dont l’existence n’est pas du tout
assurée. En fait cette situation se présentera dans un cadre tout à fait différent dela diffusion,
1 0
dans les problèmes de vibrations où l’une des variables est le temps. Soit M =
0 −c2
et si on note les variables (t, x) le problème s’écrit sous la forme :
∂2u ∂2u
− c =0 (4.34)
∂t2 ∂x2
et nous posons u = 0 sur le bord. C’est l’équation des cordes vibrantes. Si l’on considère que
le domaine est un carré de côté 1, cela revient à étudier les vibrations d’une corde de longueur
1 dont la position au temps 0 et 1 est horizontale. On montre qu’il y a une infinité de solutions
(par exemple pour c = 1, si f (x) est une fonction arbitraire paire et de période 1, toute fonction
de la forme f (x + t) − f (x − t) est solution).
∇u
φ(u) = −g(k∇uk) (4.35)
k∇uk
où g(t) est une fonction dont nous notons G(t) une primitive. Le problème s’écrit sous la forme d’un
problème aux limites Ce problème est du type (4.9)
−∇ . (g(k∇uk) ∇u ) = f sur Ω
k∇uk (4.36)
u = u sur Γ
0
Nous avons vu (cf. théorème 22) que l’équation (4.36) est elliptique si la fonction h(..., uj , ...) est une
fonction strictement convexe de (u, ..., uj , ...) (ici encore le cas concave est exclu pour des raisons
thermodynamique). c’est à dire si la fonction G(t) est strictement convexe et donc si la fonction
g(t) = G0 (t) est monotone.
– Si la fonction g(t) est croissante et si elle croît au moins linéairement en x à l’infini, G(t) est
convexe coercive et on montre facilement que J(v) est convexe et tend vers l’infini si k∇vk
tend vers l’infini : on pourra montrer l’existence d’une solution et d’une seule.
– Si la fonction g(t) définit une loi de diffusion à “seuil” (i.e. si g(t) tend vers une limite finie
quand t tend vers l’infini, correspondant physiquement à une saturation pour les flux élevés),
G(t) est alors linéaire à l’infini, il n’est pas sûr que J(v) tende vers l’infini quand k∇vk tend
vers l’infini (J(v) est différence de deux fonctions linéaires à l’infini), l’existence d’un mini-
mum et donc de la solution n’est pas assurée : intuitivement si la densité de chaleur fournie
f (x) est trop grande le flux qui ne peut dépasser la valeur de seuil ne peut toujours l’évacuer.
On trouve des phénomènes de ce type dans les problèmes de diffusion, en électrocinétique et
en mécanique (plasticité et endommagement).
−k∆u − u3 = 0 sur Ω
(4.38)
u = 0 sur Γ
k∇vk2 v 4
Z
J(v) = k − dΩ (4.39)
Ω 2 4
Ici J(v), différence de deux fonctions convexes, n’est pas convexe. On montre qu’il y a une infinité
de solutions, dont “l’aspect” est proche des modes propres de la membrane.
107 Mathématiques 2
108 Analyse des équations aux dérivées partielles
de température crée de la chaleur (par réaction chimique ...), le signe du terme correspondant est
dans le mauvais sens et le potentiel J(v) est la différence de deux fonctions convexes. Le cas suivant
(réaction chimique, équilibre d’une étoile...) est caractéristique de ce type de comportement :
−k∆u = exp(λu)
(4.42)
u = 0 sur Γ
Ce problème est équivalent à la recherche d’un extrémum de la fonction
k∇vk22 exp(λv)
Z
J(v) = k − dΩ (4.43)
Ω 2 λ
La fonction J(v) n’est ni convexe ni coercive, On montre qu’il y a en général une infinité de solution.
Γ
2
Γ V(x) Ω Γ
0 1
+
Γ
2
Γ
2
– La température du fluide sur le bord d’entrée Γ0 est connue, égale à T0 , et on suppose que la
température sur le bord de sortie Γ1 est connue et fixée à T1 (cette hypothèse qui n’est pas
naturelle sera discutée plus loin).
– On suppose que la température extérieure Te est nulle et, pour simplifier, on suppose que
u = 0 sur Γ2
Soit :
− V l’espace des fonctions continues sur Ω, qui sont “C 1 par morceaux” ;
− V0 ⊂ V le sous espace des fonctions nulles sur Γ ;
~ ) = ∇u. V
On notera que, en utilisant l’incompressibilité du fluide, on a : ∇ . (uV ~.
On pose u = ū − u0 qui est donc dans V0 . La fonction u est solution du problème canonique :
~ ) = f sur Ω
−k ∆u + c ∇ . (uV
u=0 sur Γ0 et Γ1 ) (4.46)
u = 0 sur Γ2
où
~)
f = k ∆u0 − c : ∇ . (u0 V
On pose Z
a(u, v) = k ∇u ∇v dΩ
Ω
Z
b(u, v) = ~ )v dΩ
c ∇ . (uV (4.47)
ZΩ
L(v) = f v dΩ
Ω
109 Mathématiques 2
110 Analyse des équations aux dérivées partielles
Ce problème est un cas particulier couvert par le théorème 20, où l’opérateur du second ordre est
elliptique. On a donc la proposition :
Proposition 37 L’équation (4.46) est une équation elliptique si la conductivité k est différente de 0,
elle est hyperbolique du premier ordre si k = 0.
Une formulation faible équivalente est
u ∈ V0 et ∀v ∈ V0 a(u, v) + b(u, v) = L(v) (4.48)
où la forme a(u, v) est une forme bilinéaire symétrique définie positive sur l’espace V0 et b(u, v) est
une forme bilinéaire antisymétrique.
L’application v → a(u, v) − L(v) est la différentielle de la fonction J(v) = 21 a(v, v) − L(v). La
non-symétrie de la forme b(u, v) fait que l’application v → b(u, v) ne peut pas être une différentielle.
L’application v → a(u, v) + b(u, v) − L(v) n’est donc pas la différentielle d’une fonction, l’équation
ne dérive pas naturellement de la recherche d’un extrémum d’un potentiel.
Si k = 0 l’équation est hyperbolique, c’est une équation d’advection (cf. (2.13)) il n’est plus pos-
sible de fixer une condition aux limites en chaque point du bord on fixera par exemple une condition
en entrée et rien en sortie. Si k > 0 et k est petit, l’équation est elliptique et il faut une condition en
entrée et en sortie mais il apparaît une “couche limite” en sortie mais aussi des instabilités dans les
résultats numériques qu’il faut corriger par des méthodes adéquates.
−∇ . D((u)) = f~ (4.51)
où la relation contrainte / déformation est non linéaire. Pour des lois convenables, on montre l’exis-
tence d’une densité d’énergie E((v)) et on a une formulation variationnelle du problème
Z Z
Min J(v) = E((v)) dΩ − fj vj dΩ (4.52)
Ω Ω
La fonction énergie potentielle sera coercive pour des matériaux dont le module de Young augmente
avec la déformation, donc des matériaux durcissant. C’est plutôt l’inverse qui est fréquent. Ce qui fait
que l’on a souvent une perte de coercivité. On s’attendra donc à rencontrer les phénomènes suivants :
– perte de stricte convexité et de coercivité (ligne de glissement, ruine plastique).
– ou même perte de convexité (plusieurs états d’équilibre).
111 Mathématiques 2
112 Analyse des équations aux dérivées partielles
Objectifs
Ce chapitre est une introduction aux problèmes d’évolution, qui sont des problèmes de Cauchy
pour un système d’équations aux dérivées partielles. Nous avons vu les exemples les plus classiques
de problèmes d’évolution au chapitre 2. Nous verrons que ce sont aussi en général les problèmes
associés à des opérateurs aux dérivées partielles paraboliques ou hyperboliques.
5.1 Introduction
5.1.1 Quelques définitions
Les problèmes qui nous intéressent modélisent l’état d’un système représenté par p fonction ui (x)
qui dépendent de la position d’un point x et du temps t. L’état du système est déterminé par un sys-
tème d’équations aux dérivées partielles, par un état initial et par les échanges éventuels du système
avec l’extérieur. Traduisons cela en termes mathématiques.
Soit Ω un domaine de Rn (avec bien sûr n = 1, 2, 3) de bord Γ. On note u(x, t) une fonction de
∂2u
Ω × R dans Rp . On utilisera parfois la notation ut , uxi ,t pour les dérivées ∂u
∂t , ∂xi ∂t . Nous définissons
un problème de Cauchy pour un système d’équations aux dérivées partielles sous la forme générale
k
∂ u
k
= g(u, uxi ..., uxi xj , ...) x ∈ Ω, t > 0
∂tj
∂ u (5.1)
(x, 0) = uj (x) x ∈ Ω, pour 0 ≤ j ≤ k − 1
∂tj
+ des conditions "aux limites" en différents points du bord.
où g(u, uxi ..., uxi xj , ...) est une fonction des dérivées à valeur dans Rp et les fonctions uj (x) défi-
nissent l’état initial.
113
114 Analyse des équations aux dérivées partielles
5.1.2 Exemples
Voir au chapitre 2, les problèmes de diffusion, d’écoulement d’un fluide ou d’un gaz et les pro-
blèmes de vibration.
Résumé 2 − Combien de conditions initiales sont-elles nécessaires pour que le problème ait un
sens ?
− Quelles conditions aux limites rendent le problème cohérent ?
− Quelles conditions rendent l’évolution du système “stable” ?
− Comment construire une approximation de la solution ?
Définition 26 Le système (5.1) est dit Kovalevskien si les dérivées qui interviennent à droite sont
toutes d’ordre inférieur ou égal à k.
La première question est résolue partiellement par ce théorème pour les systèmes Kovalevskiens, mais
c’est un résultat qu’il faudra confirmer pour des données plus naturelles que des fonctions analytiques.
Pour les systèmes non Kovalevskiens nous pouvons suivre la démarche du paragraphe (3.6.1) et cher-
cher quelles conditions permettent de déterminer toutes les dérivées en un point.
Les autres questions sont trop difficiles pour être traitées de manière générale. La construction des ap-
proximations est le sujet du chapitre 8. Nous allons distinguer des classes importantes de problèmes.
∂u ∂2u
Equation de la diffusion : =
∂t ∂x2
∂2u
∂u
Equation inverse de la diffusion : = − 2
∂t ∂x
∂u ∂u
Equation d’advection : = −a
∂t ∂x
∂2u 2
2∂ u
Equation des ondes : = c (5.2)
∂t2 ∂x2
∂2u ∂2u
−c2 2
Equation elliptique : =
∂t2 ∂x
∂u ∂3u
Equation d’ordre 3 : = c 3
∂t ∂x
∂2u ∂4u
−c2 4
Equation des ondes de flexion : =
∂t2 ∂x
Conformément à ce que nous avons vu au paragraphe 3.1.4, on peut trouver des solutions particulières
de ces équations sous la forme
Equation de la diffusion :
Les solutions particulières ont la forme
Ce sont des fonctions décroissantes par rapport au temps, d’autant plus vite que la fréquence est
élevée. L’équation de la diffusion est dissipative et régularisante (cf. 2.8). Nous retrouverons ces
propriétés dans les équations paraboliques.
Equation rétrograde de la diffusion :
C’est l’équation que l’on obtient en inversant le temps dans l’équation de la diffusion. Les solutions
particulières ont la forme
u(x, t, ω) = exp (ω 2 t) exp (iωx)
Ce sont des fonctions croissantes par rapport au temps, qui explosent d’autant plus vite que la fré-
quence est élevée. Pour une position initiale quelconque le problème de Cauchy est mal posé. Cela
montre le caractère irréversible de l’évolution dans l’équation de la diffusion.
115 Mathématiques 2
116 Analyse des équations aux dérivées partielles
Equation d’advection :
Les solutions particulières ont la forme
u(x, t, ω) = exp (−aiωt + iωx) = exp iω(x − at)
Toutes les harmoniques sont translatées à la vitesse a. Cette propriété est donc conservée par la solu-
tion générale (cf. 2.13).
Equation des ondes :
Les solutions particulières ont la forme
u(x, t, ω) = exp (±icωt + iωx) = exp iω(x ± ct)
Les harmoniques sont translatées à la vitesse ±c, c’est à dire dans les deux sens, et ne s’amortissent
pas : pour une position initiale quelconque l’équation est conservative et non régularisante. L’équation
des ondes admet donc une propagation symétrique à vitesse constante : la “vitesse du son”. Elle est
équivalente à un système d’équation du premier ordre et l’existence d’une vitesse de propagation finie
est une propriété qui s’étend aux systèmes hyperboliques (cf. 2.16).
Equation elliptique :
Ce n’est qu’une réécriture l’équation de Laplace −∆u = 0. Les solutions particulières ont la forme
u(x, t, ω) = exp (±cωt + iωx)
Les harmoniques donnent deux types de solutions ; pour les unes, les harmoniques de fréquence
élevée s’amortissent très vite, pour les autres elles explosent : le problème de Cauchy est mal posé
pour les équations elliptiques (cf. 3.49), ce qui ne les empêche pas d’avoir des solutions très régulières
(correspondant aux exponentielles décroissantes).
Equation d’ordre 3 :
Les solutions particulières ont la forme
u(x, t, ω) = exp (−icω 3 t + iωx) = exp iω(x − cω 2 t)
Les harmoniques sont translatées vers la droite, mais à une vitesse qui croît avec la fréquence ; l’équa-
tion est conservative mais dispersive : pour une position initiale quelconque une partie du signal s’en
va à l’infini d’autant plus vite que la fréquence est élevée et, comme les hautes fréquences repré-
sentent les irrégularités locales, le signal se régularise.
Equation des ondes de flexion :
C’est l’équation des vibrations d’une poutre en flexion. Les solutions particulières ont la forme
u(x, t, ω) = exp (±icω 2 t + iωx) = exp iω(x ± cωt)
Les harmoniques sont translatées dans les deux sens, mais à une vitesse qui croît avec la fréquence :
il n’y a pas de “vitesse du son”. L’équation est conservative mais dispersive : une partie du signal
s’en va à l’infini et comme les hautes fréquences représentent les irrégularités locales, le signal se
régularise.
L’analyse précédente doit être corrigée si le domaine d’étude est bornée en x et qu’il faut tenir
compte de conditions aux limites : intuitivement les ondes planes se réfléchissent sur les bords et
reviennent perturber la solution. On peut généraliser cette méthode d’analyse et utiliser le comporte-
ment des harmoniques et notamment des harmoniques hautes fréquences pour comprendre certaines
propriétés des équations.
Nous n’allons pas donner la définition la plus générale, nous nous limitons aux équations linéaires
du second ordre : soit u(x, t) une fonction avec x ∈ Ω ⊂ Rn ,
∂u
= ∇ . (A(x) ∇u) + hV (x), ∇ui + f (u)
∂t
où A(x) est une matrice symétrique et V (x) un champ de vecteurs, est parabolique si la matrice A
est symétrique définie positive.
Exemples
Propriétés
Nous retrouvons pour les équations paraboliques les propriétés de l’équation de la diffusion ;
considérons les problème à valeurs initiales
∂u
∂t = ∇ . (A(x) ∇u) + hV (x), ∇ui + f (u)
x ∈ Ω ⊂ Rn , t > 0
(5.3)
u(x, 0) = u0 (x)
u(x) = 0 sur ∂Ω
Une équation parabolique générale a les propriétés que nous avons établies pour l’équation de la
diffusion :
− l’évolution est dissipative en l’absence de termes sources et avec ∇ . V (x) = 0, en effet
Z Z
∂ 2
u dΩ = − hA(x) ∇u, ∇ui dΩ < 0 (5.4)
∂t Ω Ω
117 Mathématiques 2
118 Analyse des équations aux dérivées partielles
où u(x, t) est une fonction C 1 de Ω ⊂ Rn dans Rp , les matrices Aj (x, t, u) sont carrées de dimension
(p, p), A0 (x, t, u) est inversible et le vecteur f (x, t, u) ∈ Rp . Nous posons la définition
a n racines réelles (resp. distinctes) pour toutes les valeurs, non toutes nulles, des réels (ξ1 , ..., ξn ) et
pour tout u ∈ Rp .
Si le système s’écrit
∂u X ∂u
A0 (x, t, u) = Aj (x, t, u) + f (x, t, u)
∂t ∂xj
j
avec A0 symétrique définie positive et toutes les matrices Aj symétriques, on peut inverser A0 et
mettre le système sous la forme explicite en remplaçant Aj par A−1 0 Aj . Or ces matrices
P sont symé-
triques par rapport au produit scalaire défini par A0 , il en est de même de la matrice j ξj Aj (x, t, u).
P (λ) est alors le polynôme caractéristique de cette matrice, il a donc toutes ses racines réelles. On
définit un cas particulier de systèmes hyperboliques :
Définition 29 Le système (5.5) est hyperbolique au sens de Friedrichs si toutes les matrices Aj sont
symétriques et A0 définie positive.
Exemples
− Si on a p = 1 on obtient une équation aux dérivées partielles du premier ordre pour une fonc-
tion inconnue. Le polynôme P (λ) est de degré 1 et a donc toujours une racine réelle. Un système du
premier ordre est toujours hyperbolique.
− L’équation des ondes mises sous la forme d’un système du premier ordre (cf. (3.39)) est un
système hyperbolique de Friedrich.
1
Nous supposons donc en particulier dans ce paragraphe que le système est Kovalevskien (cf. définition 10). Nous avons
vu au paragraphe (3.5) qu’un système quasi-linéaire Kovalevskien d’ordre quelconque pouvait s’écrire de façon équivalente
sous la forme d’un système quasi-linéaire du premier ordre.
− Une équation linéaire du second ordre peut s’écrire sous la forme d’un système du premier
ordre (voir (3.41)). Avec les notations de (3.41)), supposons n = 3 et que x3 est le temps t. Le
polynôme caractéristique du système du premier ordre associé est, en remplaçant λ par ξ3 ,
P P P
i ai,1 ξi i ai,2 ξi i ai,3 ξi 0
ξ3 0 −ξ1 0
P (ξ3 ) = det
0 ξ3 −ξ2 0
0 0 0 ξ3
Ce polynôme n’admet que la racine réelle ξ3 = 0 si l’opérateur est elliptique. Il admet trois racine
réelles si l’opérateur est hyperbolique.
Les problèmes de propagation d’ondes dans un milieu solide, ces problèmes s’écrivent de manière
naturelle sous la forme d’équations du second ordre
∂2u
ρ = L(u) (5.6)
∂t2
où L(u) + f = 0 est l’équation d’équilibre statique d’un système, la force extérieure étant replacée
ici par les force d’inertie. Dans ce type de problème u(x, t) est la position au temps t d’un point dont
la position au repos est x. L’opérateur L(u) est linéaire elliptique. Il peut de façon naturelle dépendre
de x si le solide n’est pas homogène. Le plus souvent il n’est pas utile de calculer la solution de ce
problème. La méthode de décomposition spectrale permet à l’ingénieur de déterminer les propriétés
importantes du système par la connaissance des “modes propres”, c’est à dire des vecteurs propres,
de l’opérateur L(u). Le calcul approché de la solution, si nécessaire, peut être fait par la méthode de
la synthèse harmonique .
Les problèmes d’écoulement d’un fluide (cf. chapitre 2), en l’absence de dissipation, s’écrivent
le plus souvent directement sous la forme d’un système hyperbolique du premier ordre, dérivé d’un
ensemble de lois de conservation. Dans ce type de problème u(x, t) est un vecteur dont les compo-
santes sont : la vitesse de la particule qui passe au point x au temps t (formulation dite “eulerienne”),
la masse volumique et différentes grandeurs caractérisant l’état du fluide. Ces problèmes sont naturel-
lement non linéaires vis à vis de u, notamment à cause de l’expression non linéaire de l’accélération,
tout en restant linéaires par rapport aux dérivées partielles ; en revanche les opérateurs ne dépendent
pas du point x, car dans un fluide en mouvement la position n’a pas de propriété particulière.
Surfaces caractéristiques
En adaptant la définition (16) (car ici une variable t est mise à part) nous posons la définition
119 Mathématiques 2
120 Analyse des équations aux dérivées partielles
Définition 30 Soit Σ une (hyper)surface dans Rn d’équation implicite S(t, x1 , ..., xn ) = 0, avec
∇S(t, x1 , ..., xn ) 6= 0 et S(t, x) analytique. Si, pour une fonction u donnée,
X ∂S ∂S
det Aj (x, u) − A0 (x, u) = 0
∂xj ∂t
j
en tout point, Σ est une surface caractéristique pour l’équation aux dérivées partielles (5.5).
La définition de l’hyperbolicité (cf. Définition 28) signifie donc qu’il y a n équations aux dérivées
partielles du premier ordre explicites
∂S ∂S ∂S
= Φk ( , ..., )
∂t ∂x1 ∂xn
qui déterminent ces surfaces caractéristiques. Nous verrons que cela implique qu’il y a n surfaces
caractéristiques passant par chaque point.
Le problème s’écrit
hV (x), ∇ui + c(x)u = f (x) (5.7)
Les surfaces caractéristiques sont définies implicitement par S(x) = Cte où S(x) est solution de
l’équation homogène associée à (5.7)
Le champ de vecteurs V (x) est donc tangent aux surfaces caractéristiques, ce qui veut aussi dire que
les surfaces caractéristiques sont engendrées par les courbes intégrales de ce champ de vecteurs. Nous
allons voir que l’équation (5.7) est étroitement liée au champ de vecteurs V (x).
Résolution de l’équation
Définition 31 Le système caractéristique associé à l’équation linéaire du premier ordre (5.7) est le
système différentiel 0
x (t) = V (x(t))
(5.9)
x(0) = x0
et les (courbes) caractéristiques sont les courbes intégrales de ce système.
Soit x(t) une courbe solution du système différentiel (5.9), on a
u(x(t))0 = h∇u, x0 (t)i = h∇u, V (x)i
Il vient, en utilisant (5.7) :
Proposition 38 Une fonction u est solution de (5.7) si et seulement si, sur chaque caractéristique, la
fonction h(t) = u(x(t)) est solution de l’équation différentielle ordinaire
h0 (t) + c(x(t))h(t) = f (x(t)) (5.10)
En conclusion, si on sait intégrer le système caractéristique2 (5.9) et intégrer l’équation différentielle
ordinaire3 (5.10), on sait intégrer l’équation (5.7). Plus précisément, si on se donne les valeurs de
u(x) = u0 (x), sur une surface, on calcule les courbes caractéristiques qui partent de la surface (i.e.
on choisit x(0) sur la surface) et on résout l’équation (5.10) avec pour condition initiale u0 (x(0)).
2
En général ce n’est pas possible “analytiquement”.
3
Toujours possible par quadrature.
121 Mathématiques 2
122 Analyse des équations aux dérivées partielles
On en déduit t = θ et on peut donc exprimer l’équation des courbes caractéristiques sous la forme
x = x(t), le système caractéristique s’écrit alors :
x0 (t) = v(x(t))
(5.14)
x(0) = x0
On peut expliciter la solution de (5.12) si on sait calculer le groupe à un paramètre gt (x) associé au
système différentiel caractéristique (5.14) ( i.e. l’application qui a x0 associe la solution x(t) = gt (x0 )
de (5.14)). En effet, étant donné un point (x, t), la solution u(x, t) étant constante sur la caractéristique
passant par ce point, il suffit de “remonter” le long de cette caractéristique pour trouver le point x0 tel
que gt (x0 ) = x ; ce point est x0 = g−t (x), donc u(x, t) = u0 (x0 , t) = u0 (g−t (x)).
Intuitivement u(x, t) est donc un transport d’une fonction u0 (x) le long du “flot” engendré par le
champ de vecteur v(x).
5.2.3 Exemples
Voir la séance 6 et le chapitre 3.
où (b1 , ..., bn )t est un vecteur perpendiculaire au vecteur v = (a1 , ..., an )t et u0 est une fonction d’une
variable réelle.
Les solutions du système caractéristique sont les droites
xk (t) = ak t + xk (0)
où f (x1 , ..., xn−1 ) est une fonction C 1 de n − 1 variables. En particulier, nous utiliserons le résultat
suivant :
∂u ∂u ∂u
x2 − x1 + =0 (5.15)
∂x1 ∂x2 ∂x3
Le système caractéristique est linéaire, il s’écrit
0
x = x2
10
x2 = −x1
(5.16)
x0 = 1
3
x(0) = x0
Il s’intègre facilement
x1 (t) = x1 (0) cos t + x2 (0) sin t
x2 (t) = −x1 (0) sin t + x2 (0) cos t (5.17)
x3 (t) = t + x3 (0)
Les courbes caractéristiques sont des hélices circulaires verticales, le groupe gt fait un “vissage” (une
rotation sur (x1 , x2 ) et une translation sur x3 ). Pour définir la solution générale de (5.15) fixons
u(x1 , x2 , 0) = f (x1 , x2 )
Choisissons de faire partir les courbes caractéristiques du plan x3 = 0, cela revient à poser x3 (0) = 0
dans (5.17), on a donc x3 = t et en inversant les formules (5.17)
x1 (0) = x1 cos x3 − x2 sin x3
(5.18)
x2 (0) = x1 sin x3 + x2 cos x3
Comme la solution u est constante sur les caractéristiques, il vient
u(x1 , x2 , x3 ) = f (x1 (t) cos x3 − x2 (t) sin x3 , x1 (t) sin x3 + x2 (t) cos x3 )
Pour déterminer rapidement la solution “générale” de (5.15) on peut utiliser la méthode suivante :
on trouve par des astuces deux intégrales premières indépendantes S1 (x) et S2 (x) de (5.15) ; or trois
intégrales premières sont liées (i.e. leurs gradients sont liés puisque tous orthogonaux à V (x)) ; on
montre, nous l’admettrons, que cela implique qu’il existe une fonction f telle que
123 Mathématiques 2
124 Analyse des équations aux dérivées partielles
de système caractéristique 0
x = x2
10
x2 = −x1
(5.20)
x0 = x1 + x2
3
x(0) = x0
Des deux premières équations du système caractéristique (5.16) on tire x1 x01 + x2 x02 = 0 d’où (x21 +
x22 )0 = 0 et l’intégrale première S1 (x) = x21 + x22 . La troisième implique x03 + x02 − x01 = 0 et donc
(x3 + x2 − x1 )0 = 0 et l’intégrale première S2 (x) = x3 + x2 − x1 . La solution “générale” s’écrit
donc
u(x1 , x2 , x3 ) = f (x21 + x22 , x3 + x2 − x1 )
où f est une fonction C 1 quelconque de deux variables.
Résolution locale
Nous n’allons pas résoudre directement cette équation mais chercher une équation implicite des
surfaces intégrales. Soit Ψ(x, u) une fonction de n + 1 variables telle que la solution u = u(x), si
elle existe, de l’équation
Ψ(x, u) = 0
soit une solution de (5.21). Rappelons que localement u existe d’après le théorème des fonctions
implicites si ∂Ψ
∂u 6= 0 et que
∂Ψ
∂u ∂x
= − ∂Ψi
∂xi ∂u
La fonction Ψ(u, x) est donc solution d’une équation linéaire homogène dont nous étudié la solution
générale dans le paragraphe précédent. Si on sait résoudre le système différentiel caractéristique aura
une expression de Ψ(x, u), et si on sait résoudre analytiquement l’équation Ψ(x, u) = 0, on aura une
expression de la solution u(x).
∂u ∂u
+A =0 (5.22)
∂t ∂x
Compte tenu de l’importance de ces systèmes pour l’étude locale des systèmes hyperboliques géné-
raux, nous allons en faire une étude directe, indépendante des résultats antérieurs.
On peut ici calculer analytiquement toutes les solutions du système, ce que nous allons faire.
D’après la définition générale (28) on peut poser la définition
Définition 32 Le système (5.22) est un système hyperbolique (resp. strictement) si la matrice A est à
valeurs propres réelles (resp. distinctes) et diagonalisable.
On note λk , Uk (resp. Vk ), valeurs propres et les vecteurs propres normalisés de la matrice A (resp.
At ).
Exemples
L’équation des ondes mises sous la forme d’un système du premier ordre (cf. (3.39)) est un sys-
tème strictement hyperbolique à coefficients constants. Le système (2.4) associé à l’équation de La-
place ∆u = 0 n’est pas hyperbolique, la matrice A est antisymétrique : elle n’a pas de valeurs propres
réelles.
Interprétation
On peut interpréter les systèmes hyperboliques comme les systèmes qui admettent “beaucoup”
d’ondes planes, i.e. des solutions particulières de la forme u(x, t) = U (x − ωt) où U est une fonction
de R dans Rp .
Proposition 42 Le système (5.22) est hyperbolique s’il admet p familles indépendantes d’ondes
planes
Preuve
En effet si on reporte u(x, t) = U (x − ωt) dans (5.22) il vient
u(x, t) est une solution si U 0 est un vecteur propre de A et ω la valeur propre associée. U 0 (θ) reste
proportionnel à un vecteur propre normalisé Uk de A. D’où U (θ) = ck (t)Uk . Il y a donc n familles
d’ondes planes
u(x, t) = ck (x − λk t)Uk
125 Mathématiques 2
126 Analyse des équations aux dérivées partielles
On peut ensuite construire la solution générale comme une superposition d’ondes planes.
∂v ∂v
+ P −1 AP =0 (5.23)
∂t ∂x
et donc
∂v ∂v
+D =0 (5.24)
∂t ∂x
Ce système est découplé puisque la matrice D est diagonale, on en déduit p équations scalaires aux
dérivées partielles sur les composantes vk de v
vk (x, t) = ck (x − λk t)
Si on suppose u(x, 0) = u0 (x) connu, les fonctions ck (x) sont les composantes de u0 (x) dans la base
Uk . En supposant les vecteurs propres Uk et Vk de A et At normalisés4 par les conditions hUk , Vk i =
1, il vient
ck (x) = hu0 (x), Vk i
d’où le théorème
4
Rappelons que hUk , Vl i = 0 si k 6= l : les vecteurs propres d’une matrice et de sa transposée pour des valeurs propres
distinctes sont orthogonales
est X
u(x, t) = hu0 (x − λk t), Vk iUk
k
Dans le cas de l’équation des ondes ces deux vitesses sont de même module et de sens opposé :
on “voit” donc deux fronts se propageant à la même vitesse dans les deux sens.
Proposition 43 Une perturbation localisée d’une solution du système (5.22) se propage à des vitesses
finies. Les différentes vitesses sont les valeurs propres de la matrice A.
Dans le cas de l’équation des ondes la vitesse de propagation est la “vitesse du son”. Nous verrons que
l’existence de deux fronts de propagation est une propriété générale des systèmes hyperboliques5 . Par
contre ce qui se passe à l’intérieur du front (pour les système à coefficients constants il peut y avoir des
zones “calmes”) est plus complexe que dans le cas des équations homogènes à coefficients constants.
Nous allons présenter autrement la méthode d’intégration du système (5.22) du paragraphe pré-
cédent, d’une manière qui se généralise plus facilement aux système à coefficients variables. Intro-
duisons la définition des caractéristiques, cohérentes avec (30) :
Définition 33 Les droites xk (t) = λk t + xk (0) sont les caractéristiques du système (5.22)
dx
= λk (5.26)
dt
5
qui d’ailleurs les caractérise, en un sens à préciser. Les problèmes elliptiques et les systèmes non kovalevskiens ont une
vitesse de propagation infinie
127 Mathématiques 2
128 Analyse des équations aux dérivées partielles
Proposition 44 Il existe p fonctions de u, fk (u) = hVk , ui, où Vk est un vecteur propre de At qui
sont invariantes sur les droites caractéristiques xk (t) = λk t + xk (0). Les fonctions fk sont appelées
invariants de Riemann .
En conclusion pour intégrer (5.22) on calcule les p familles de droites caractéristiques et les invariants
de Riemann le long des caractéristiques, d’où l’on peut déduire la solution u. Supposant connu l’état
initial u(x, 0) en t = 0 pour tout x, il faut donc :
1. construire les caractéristiques passant par un point (x, t),
2. déterminer les invariants de Riemann en t = 0,
3. retrouver le point d’intersection de ces caractéristiques avec l’axe t = 0 et calculer les invariants
en ces points ;
4. on connaît alors la valeur de p invariants en (x, t) ce qui permet de retrouver la valeur de u en
résolvant un système linéaire de p équations à p inconnues.
− Pour p = 2, dans l’exemple du problème des cordes vibrantes modélisée par l’équation des
ondes (2.16) : on peut, et on doit, poser une condition de chaque côté, on pose u1 (0, t) = u1 (L, t) = 0
qui correspond à une fixation de la corde aux deux bouts.
Nous allons analyser plus précisément la situation dans le problème des ondes sonores.
∂ρ ∂ρ ∂u
+ ū + ρ0 ( ) = 0
∂t ∂x ∂x
2 ∂ρ
∂u ∂u c
+ ū + =0
∂t ∂x ρ0 ∂x (5.28)
+ des conditions initiales
+ des conditions en x = 0 et x = L
Proposition 45 Le système d’équations aux dérivées partielles (5.28) est strictement hyperbolique.
Les valeurs propres de la matrice du système sont ū ± c.
Si c > ū l’écoulement est dit subsonique et il y a une droite caractéristique xk (t) = λk t + xk (0) dans
chaque sens.
Si c < ū l’écoulement est dit supersonique et toutes les caractéristiques vont vers “l’aval”, i.e. dans
le sens de l’écoulement.
129 Mathématiques 2
130 Analyse des équations aux dérivées partielles
A une caractéristique xk (t) = λk t + xk (0) est associée une onde plane vk (x − λk t)Uk , on peut donc
remplacer, dans la discussion informelle qui suit, le mot “caractéristique” par “onde plane”. On dit
qu’une caractéristique va vers “l’aval” si la fonction xk (t) est croissante, sinon on dit qu’elle va vers
“l’amont”. En un point (x, t) avec 0 < x < L la détermination de la solution en fonction de l’état
antérieur en τ < t se fait sans problème : si la vitesse est subsonique il faut remonter (dans le temps)
une caractéristique dans chaque sens (une caractéristique vient de l’amont et l’autre vient de l’aval de
l’écoulement) sinon, si la vitesse est supersonique, il faut remonter deux caractéristiques qui viennent
l’amont : dans les deux cas en “remontant dans le temps” ces deux caractéristiques on trouve des va-
leurs connues des deux invariants de Riemann, ce qui permet de déterminer la solution. La différence
étant qu’en écoulement supersonique la solution en un temps t ne dépend que de l’amont.
− En x = 0 si la vitesse ū est subsonique une caractéristique arrive sur ce point et une autre en
part ; un seul invariant de Riemann est donc connu par les instants antérieurs, il faut une seule condi-
tion supplémentaire pour déterminer complètement la solution : on peut fixer u ou ρ.
− En x = L si la vitesse est subsonique une caractéristique arrive sur ce point et une autre en
part ; un seul invariant de Riemann est donc connu par les instants antérieurs, il faut une condition
supplémentaire pour déterminer la solution : on peut fixer u ou ρ.
Supposons que la matrice A a q valeurs propres positives et p − q valeurs propres négatives et que
les conditions imposées au bord sont toutes des conditions linéaires. Considérons la décomposition
en ondes planes (cf. 5.25).
Au point 0 à un temps t “arrivent”, i.e. provenant des temps τ < t, q ondes planes vk (x, t) =
ck (x − λk t) correspondant aux λk négatif. Les valeurs de ces fonctions vk ne peuvent donc être
fixées, elle sont déterminées par les valeurs antérieures de la solution. Mais pour déterminer les p − q
ondes planes qui partent il faut fixer p − q conditions qui d’ailleurs ne peuvent pas être complètement
arbitraires ( nous laisserons de côté ce problème...).
Au point L c’est le contraire, p − q ondes planes arrivent et q ondes planes partent, on doit fixer q
conditions.
En conclusion, on obtient la proposition
Proposition 46 Le nombre de conditions aux limites que l’on doit fixer en chaque point du bord est
égal au nombre de caractéristiques “entrantes” en ce point.
Noter que nous avons laissé de côté le cas particulier des valeurs propres nulles, correspondant aux
caractéristiques parallèles au bord.
Principe énergétique
Dans ce paragraphe nous présentons un autre point de vue, global cette fois, pour analyser les
problèmes hyperboliques : la conservation de grandeurs “globales”. Considérons un système à coef-
ficients constants. Supposons A symétrique 6 .
Si le domaine est R
Considérons le problème de Cauchy, posé sur R
∂u ∂u
+A =0
∂t ∂x
u(x, 0) = u0 (x) (5.29)
lim u(x, t) = 0
x→±∞
∂
Nous avons vu (cf. théorème 22) que l’opérateur ∂x est antisymétrique pour le produit scalaire de
2
L (R) quand cet opérateur agit sur l’espace des fonctions nulles au bord, ici à l’infini. On en déduit
∂
l’antisymétrie de l’opérateur A ∂x pour le produit scalaire de L2 (R)p quand cet opérateur agit sur
l’espace des fonctions vectorielles nulles à l’infini. Montrons ce résultat directement
∂u XZ ∂uj
hA , vi = ai,j vi dx
∂x R ∂x
i,j
et donc
∂u ∂v
, vi = −hA , ui
hA
∂x ∂x
Proposition 47 Le problème (5.27) est “conservatif” en ce sens que, une perturbation de la solution
δu, à support compact, vérifie Z
kδu(x, t)k22 dx = Cte
R
preuve :
En multipliant scalairement l’équation (5.27) par u, le produit scalaire est celui de L2 (R)p que nous
notons comme celui de Rp , autrement dit
Z
hu, vi = hu(x), v(x)i dx
R
6
Ce qui est toujours vrai après un changement de variables quand la matrice du système est diagonalisable : il suffit de
se placer dans la base qui diagonalise A, la matrice est diagonale donc symétrique pour le produit scalaire canonique de
cette base !
131 Mathématiques 2
132 Analyse des équations aux dérivées partielles
il vient
∂u ∂u
h , ui + hA , ui = 0
∂t ∂x
et donc puisque l’opérateur A ∂u 2
∂x est antisymétrique sur L (R)
p
∂u
hA , ui = 0
∂x
d’où
d 1 ∂u
( hu, ui) = h , ui = 0
dt 2 ∂t
d’où le résultat.
♦
et donc Z L
d 1 X ∂ui X
( hu, ui) = − ai,j uj dx + [ ai,j ui uj ]L
0 (5.33)
dt 2 0 ∂x
i,j i,j
d X
hu, ui = [ ai,j ui uj ]L
0 (5.34)
dt
i,j
Si on applique ce résultat de conservation à une perturbation localisée, le crochet est nul tant que la
perturbation n’a pas atteint les bords de l’intervalle. “L’énergie” de la perturbation reste donc conser-
vée pour des temps petits. Ensuite tout dépend des conditions aux limites : dans certains cas le “cro-
chet” peut être toujours nul, dans d’autres cas le crochet peut être dissipatif ou faire entrer de l’énergie.
5.3.2 Système général d’équations linéaires aux dérivées partielles à deux variables
(x, t)
Les systèmes d’équations linéaires aux dérivées partielles plus généraux, même à coefficients
constants, ne sont pas intégrables aussi facilement que l’exemple précédent. Ils ont toujours la pro-
priété d’avoir une vitesse de propagation finie mais la solution n’est plus une somme finie d’ondes
planes ce qui fait qu’une perturbation locale peut remplir le domaine à l’intérieur duquel la perturba-
tion se propage.
Un système de ce type vient par exemple de l’équation des ondes (2.16) si on ajoute un terme de
rappel élastique c1 u ou un terme de frottement c2 ∂u
∂t
∂2u 2
2∂ u ∂u
2
= c 2
− c1 u − c2
∂t ∂x ∂t
Le système correspondant, construit comme ( 3.37) avec pour variables (u, ut , ux ), a pour matrices
0 0 0
A = 0 0 −c2
0 1 0
et
0 1 0
B = c1 c2 0
0 0 0
Noter que les deux termes ajoutés modélisent des phénomènes bien différents, l’un étant conservatif
en énergie et l’autre dissipatif.
Le changement de variables u = P v par passage dans une base de vecteurs propres (cf. 5.24)
donne
∂v ∂v
+D + P −1 BP v = 0 (5.36)
∂t ∂x
où D est la matrice diagonale telle que dk,k = λk . Il ne permet plus de découpler le système, sauf
dans le cas particulier où la matrice B est diagonalisable dans la même base que A, c’est à dire si A
et B commutent. On n’obtiendra pas ici de formules explicites générales de la solution.
Comme pour tous les systèmes hyperboliques une perturbation localisée a une vitesse de propa-
gation finie :
133 Mathématiques 2
134 Analyse des équations aux dérivées partielles
Lemme 3 Soit (X, T ) un point du plan. Les caractéristiques passant par ce point coupent l’axe t = 0
au point xk = X − λk T . Soit [α, β] un intervalle qui contient tous les points xk . Si u0 (x) est nulle
sur [α, β] alors u(X, T ) = 0.
Démonstration : Le principe de la démonstration est d’utiliser la relation différentielle qui existe sur
chaque caractéristique pour obtenir une inégalité qui implique la nullité de la solution. Cette démons-
tration se généralise à des situations plus compliquées, notamment pour les systèmes à coefficients
variables. Utilisons la forme (5.36) de l’équation que nous écrivons
∂v ∂v
+D + B0v = 0
∂t ∂x
Notons que si un point (x, t) est dans C, le domaine de dépendance de (x, t) est inclus dans C. Posons
et c = kB 0 k∞ . On a kB 0 v(., t)k∞ ≤ ckv(., t)k∞ . De (5.36) nous déduisons d’abord sur la caractéris-
tique associée à la valeur propre λk
∂vk ∂vk
vk (xk (t), t)0 = + λk = −(B 0 v)k
∂t ∂x
d’où, puisque pour t = 0, v est nulle comme u0 , en intégrant
Z t
vk (xk (t), t) = −(B 0 v(xk (τ ), τ )k dτ
0
d’où Z t
kvk (xk (t), t)k∞ ≤ c kv(., τ )k dτ
0
Considérons un point (x, t) quelconque de C. L’inégalité précédente est vraie sur chacune des carac-
téristiques xk (τ ) passant par ce point (i.e. telle que xk (t) = x), donc, pour k = 1, ..., p
Z t
|vk (x, t)| ≤ c kv(., τ )k dτ
0
d’où Z t
kv(x, t)k∞ = sup |vk (x, t)| ≤ c kv(., τ )k dτ
k 0
Posons M = sup(x,t)∈C kv(x, t)k∞ on a donc en majorant la fonction sous l’intégrale par M :
Rt
kv(., t)k ≤ cM t. En itérant l’inégalité kv(., t)k ≤ c 0 kv(., τ )k dτ , on en déduit
cM tn
∀n ∈ N kv(., t)k ≤
n!
et donc kv(., t)k = 0 car le second membre tend vers 0 quand n tend vers l’infini. ♦
La matrice A(x) est diagonalisable, les valeurs propres λk (x) et les vecteurs propres Uk (x) de
A(x) et Vk (x) de At (x) dépendent du point (x). Les caractéristiques ne sont plus ici des droites, mais
des courbes solutions de l’équation différentielle
dx
= λk (x(t)) (5.38)
dt
Il y a p familles de caractéristiques, une pour chaque valeur propre, chaque famille formant un ré-
seau de courbes sans intersection d’après le théorème d’unicité de Cauchy-Lipschitz (5). Mais sans
condition supplémentaire ces courbes peuvent exploser en un temps fini (si λk (x) = 1 + x2 une
caractéristique est x(t) = tan (t) qui explose pour t = π2 ).
Intuitivement, dans un milieu hétérogène, une onde initialement plane subit diverses réflexions et
se décompose en une famille continue d’ondes dont la vitesse parait variable : le milieu est dispersif.
135 Mathématiques 2
136 Analyse des équations aux dérivées partielles
Il n’y a donc pas en général “d’invariant de Riemann” (qui signifie qu’une onde ne se disperse pas),
comme dans les systèmes à coefficients constants, qui permettrait d’intégrer le système explicitement.
Comme pour tous les systèmes hyperboliques une perturbation localisée a une vitesse de propa-
gation finie :
Proposition 49 Une perturbation d’une solution du système (5.35) localisée au temps t = 0 à un
intervalle [a, b] se propage à des vitesses finies. Plus précisément au temps t le support de la pertur-
bation est inclus dans l’intervalle [α, β] qui contient toutes les caractéristiques issues de l’intervalle
[a, b].
La proposition découle immédiatement de l’application à des intervalles complémentaires de [a, b] du
lemme :
Lemme 4 Soit (X, T ) un point du plan. Supposons que les caractéristiques passant par ce point
coupent l’axe t = 0 aux points xk . Soit [a, b] un intervalle qui contient tous les points xk . Si u0 (x)
est nulle sur alors u(X, T ) = 0.
La démonstration du lemme 3) s’adapte à ce lemme, la principale différence étant que les caractéris-
tiques sont des courbes.
5.5 Exemples
5.5.1 Burgers, sans viscosité
Voir la séance 8. C’est une équation quasi-linéaire du premier ordre, elle est donc hyperbolique.
(c est la chaleur spécifique et ν le coefficient de diffusion) Les conditions aux limites peuvent être la
donnée de la température ou du flux en chaque point du bord.
– Si le coefficient de diffusion ν est nul, c’est une équation hyperbolique du premier ordre, dont
l’intégration est facile compte tenu de sa signification physique : la chaleur est simplement
transportée le long des lignes de courant. Mais dans ce cas on ne peut fixer la température sur
le bord de Ω que sur les points d’entrée du fluide, les températures ou les flux aux points de
sorties sont une conséquence des équations.
– Si le coefficient de diffusion est grand, on retrouve l’équation parabolique de la diffusion de la
chaleur.
– Pour un coefficient petit, mais non nul, on aura un problème de “couche limite” sur les parties
du bord où le fluide est sortant, voir le paragraphe ci-dessous pour une étude simplifiée de ce
problème.
137 Mathématiques 2
138 Analyse des équations aux dérivées partielles
Le cadre fonctionnel
Objectifs
Ce chapitre est une introduction à la théorie mathématique de l’existence des solutions d’une
équation aux dérivées partielles.
Il reste à préciser l’espace des fonctions tests qui peut varier selon les applications. Pour définir les
formulations faibles de problèmes différentiels du second ordre nous avons utilisé les fonctions C 1
ou C 2 nulles sur le bord. Pour étudier des problèmes différentiels quelconques on considère des
fonctions C ∞ , pour traiter des dérivées d’ordre quelconque, et à support compact pour que toutes les
intégrales soient définies. Pour étudier des fonctions périodiques on considère des fonctions tests C ∞
et périodiques.
139
140 Analyse des équations aux dérivées partielles
Définition 34 Soit Ω un intervalle ouvert de R. Nous utiliserons les espaces des fonctions tests
suivants
D(Ω) = {φ ∈ C ∞ (Ω) / ∃a, b ∈ Ω supp(φ) ⊂ [a, b]}
D(T) = {φ ∈ C ∞ (R) / φ(x) est périodique de période 2π}
(k)
où la convergence est prise au sens de la convergence uniforme et φn est la dérivée d’ordre k de φn .
On définit de même la convergence dans D(T)
φn → φ ⇔ ∀k φ(k)
n →φ
(k)
Définition 35 L’espace des distributions D0 (Ω) (resp. l’espace des distributions périodiques D0 (T))
est l’ensemble des formes linéaires continues sur D(Ω) (resp. D(T )) .
Dans ce qui suit, pour simplifier les notations, nous nous limitons aux distributions sur R, mais l’ex-
tension à un intervalle quelconque est immédiate..
Exemples
Une fonction continue f (x) ∈ C(R) définit de manière unique1 une distribution
Z +∞
< Tf , φ >= f (x)φ(x) dx
−∞
Une fonction localement intégrable (au sens de Lebesgue) définit de même une distribution mais deux
fonctions qui sont égales presque partout définissent la même distribution.
On appelle distribution de Dirac au point a la distribution
Si φ représente un déplacement,< δa , φ >= φ(a) est le travail d’une force ponctuelle d’intensité
1 placée au point a ; nous verrons ci-dessous qu’une distribution de Dirac donne une représentation
mathématique cohérente de la notion de force ponctuelle, charge ponctuelle....
Nous ne décrirons pas les distributions générales, celles que nous considérerons par la suite seront ou
bien des fonctions ou bien des distributions de Dirac. Les distributions sont des objets plus généraux
que les fonctions auxquels nous allons étendre quelques notions usuelles pour les fonctions.
1
Car ∀φ ∈ D(R),
R +∞
f (x)φ(x) dx = 0 ⇒ f = 0
−∞
Valeur en un point
Soit ψn une suite2 de fonctions C ∞ , positives, d’intégrale 1, nulles en dehors de l’intervalle
[a − n1 , a + n1 ].
Pour les lecteurs que la perte des valeurs (des fonctions) angoissent, notons que si f (x) ∈ C(R) on a
Z +∞
f (a) = lim f (x)ψn (x) dx
n −∞
On peut donc définir par extension la valeur en a d’une distribution par la formule
S’il existe une fonction associée à la distribution, on retrouve ses valeurs par cette formule. On peut
vérifier que cette expression donne la valeur 0 à la distribution de Dirac en tous points différents de a.
Le problème est que :
1) cette limite n’existe pas toujours.
2) ces valeurs ne caractérisent pas toujours la distribution comme on le voit pour la distribution de
Dirac, car une fonction nulle sauf en un point définit des intégrales nulles.
Que sont les distributions dérivées de fonctions non dérivables ? Il y a des cas compliqués, mais
− Si f (x) est continue et C 1 par morceaux on aura (Tf )0 = Tf 0 où nous notons f 0 une fonction égale
à la dérivée quand elle est définie et quelconque ailleurs, l’indétermination n’ayant pas d’effet sur la
distribution associée (le vérifier par intégration par parties).
− Si H est la fonction d’Heaviside (H(x) = 0 si x < 0 et H(x) = 1 si x ≥ 0) on vérifie
immédiatement
(TH )0 = δ0
− On vérifie plus généralement que si f (x) est une fonction C 1 sauf aux points xi où la fonction
admet une limite à gauche et à droite, on a
X
−
(Tf )0 = Tf 0 + (f (x+
i ) − f (xi ))δxi
i
141 Mathématiques 2
142 Analyse des équations aux dérivées partielles
Une conséquence immédiate de cette définition est que la dérivée est une opération continue :
Proposition 50 La dérivation des distributions est continue par rapport à la convergence au sens des
distributions
Si Tn → T alors (Tn )0 → T 0
La distribution de Dirac est la limite (au sens des distributions) d’une densité de charge de résultante
1 qui se concentre au point a.
Proposition 51 Si ψn est une suite de fonctions positives, d’intégrale 1, nulles en dehors de l’inter-
valle [a − n1 , a + n1 ] on a
Z +∞
∀φ ∈ D(R) lim ψn (x)φ(x) dx = φ(a)
n −∞
La convergence, prise au sens des distributions, d’une suite de fonctions est une convergence “en
moyenne” .
Extension
Il est possible de définir sur les distributions, par extension, diverses notions usuelles pour une
fonction comme “être positive” ( ∀φ ≥ 0 ∈ D(R) < T, φ >≥ 0), ou bien la translatée θh (T ) d’une
distribution (∀φ ≥ 0 ∈ D(R) < θh (T ), φ >=< T, θ−h (φ) >)... Le principe général R +∞est de traduire
une notion usuelle pour les fonctions en termes de propriétés de la forme linéaire −∞ f (x)φ(x) dx
puis d’étendre la définition.
Noter que nous n’avons pas défini le produit de deux distributions : on montre qu’il n’y a pas de
définition cohérente d’une multiplication continue qui prolongerait la notion de produit de deux fonc-
tions.
Applications élémentaires
Si on applique une force concentrée F au point d’abscisse a, la position d’équilibre ua (x) a la forme
d’une corde pincée. Par passage à la limite en considérant une densité f (x) de résultante F qui tend
vers une charge concentrée F on voit que ua doit vérifier u(a) = u(L) = 0 et
−(Tua )00 = F δa
On vérifie facilement qu’une solution de l’équation (en fait la seule) est la distribution Tua associée à
la fonction
ua (x) = F (L − a)x
x≤a
L (6.2)
F
ua (x) =
a(L − x) x≥a
L
L’usage est de dire que ua est solution au sens des distributions de l’équation
−ua 00 = F δa
Proposition 52 Soit f (x) une fonction localement intégrable 2π-périodique. La série de Fourier de
f converge vers f au sens des distributions
Preuve
On note Sn (f ) la somme des n premiers termes de la série de Fourier de f . Vérifier que
Z 2π Z 2π
Sn (f )(x)φ(x) dx = f (x)Sn (φ)(x) dx
0 0
143 Mathématiques 2
144 Analyse des équations aux dérivées partielles
6.2.1 Rappel
Nous avons vu quelques exemples de problèmes aux limites pour une équation elliptique qui
s’écrivait, après passage à la forme faible, sous la forme
u∈V
(6.3)
∀v ∈ V, a(u, v) = L(v)
où V est, par exemple, l’espace des fonctions C 1 nulles sur le bord d’un domaine, a(u, v) est une
forme bilinéaire symétrique définie positive, L(v) est une forme linéaire sur V .
Si V est un espace de dimension finie n (cas de la recherche d’une approximation par la méthode
des éléments finis), a(u, v) définit un produit scalaire et l’existence de u résulte de ce que toute
forme linéaire peut être représentée par un vecteur à l’aide d’un produit scalaire. Si vk est une base
orthonormée de V pour le produit scalaire a(u, v) on a la forme explicite pour u
n
X
u= L(vk )vk
k=1
Dans le cas général, où V est de dimension infinie, ce résultat est faux sauf si l’espace V est un espace
de Hilbert pour le produit scalaire. Rappelons qu’un espace muni d’un produit scalaire est un espace
de Hilbert si c’est un espace complet pour la norme définie par ce produit scalaire.
Nous n’avons pas supposé la symétrie dep la forme a(u, v). Si on suppose de plus la forme symétrique
les hypothèses impliquent que kuka = a(u, u) définit une norme équivalente à la norme initiale
et que V est donc aussi un espace de Hilbert pour ce produit scalaire. Le théorème de Lax-Milgram
résulte alors du théorème de Riesz :
sur un espace de Hilbert toute forme linéaire peut être représentée par un vecteur à l’aide d’un produit
scalaire.
Si vk est une base orthonormée de V pour le produit scalaire a(u, v) on a l’expression explicite
∞
X
u= L(vk )vk
k=1
Preuve
Soit Vn le sous-espace de V engendré par les vecteur v1 , . . . , vn . On définit un ∈ Vn solution de
∀v ∈ Vn , a(un , v) = L(v)
Comme nous l’avons vu ci-dessus, un s’écrit
n
X
un = L(vk )vk
k=1
Comme de plus p
a(un , un ) = L(un ) ≤ Ckun ka ≤ C a(un , un )
on en déduit a(un , un ) ≤ C 2 . En remplaçant un par son expression il vient
n
X
L(vk )2 ≤ C 2
k=1
on en déduit que la série L(vk ) est de carré sommable et donc que la somme ∞
P
k=1 L(vk )vk est bien
convergente dans V . ♦
Remarquer que le fait que V est un espace de Hilbert, donc complet, sert précisément ici à assurer
l’existence de la limite de la série.
6.2.3 Application
Il y a cependant un obstacle majeur pour appliquer le théorème de Lax-Milgram dans les situations
que nous avons rencontrées dans l’étude des problèmes aux limites : l’espace des fonctions C 1 n’est
pas un espace de Hilbert pour les produits scalaires que nous avons définis.
On peut penser que la méthode choisie pour établir l’existence n’est pas la bonne, cependant on
montre que le problème est plus fondamental : en effet une solution C 2 d’un problème comme le
problème de Laplace ∆u = f n’existe pas sous des hypothèses “naturelles” sur les données, comme
f ∈ C(Ω), le cadre fonctionnel des fonctions plus ou moins dérivables n’apparaît donc pas comme
le plus approprié pour formuler des théorèmes d’existence. Même s’il y a d’autres approches que le
passage par la recherche de solutions faibles et l’approche hilbertienne décrits ci-dessus, celle-ci est
manifestement très générale et intuitive du fait de son interprétation géométrique. Pour la mettre en
oeuvre il faudra cependant un détour compliqué : compléter l’espace V pour obtenir un espace de
Hilbert.
145 Mathématiques 2
146 Analyse des équations aux dérivées partielles
et la norme
√
kukH 1 = < u, u >
Définition 37 L’espace de Sobolev H 1 (Ω) est le complété de C 1 (Ω) pour la norme kukH 1 .
Définition 38 L’espace de Sobolev H01 (Ω) est le complété de V0 pour la norme kukH 1 .
Rappelons que le complété d’un espace vectoriel V pour une norme est un espace vectoriel normé
complet qui contient V et qui est son adhérence. C’est a priori un espace “abstrait” (on peut le
construire comme un quotient de l’ensemble des suites de Cauchy). Rien ne dit donc que H 1 (Ω)
est formé de fonctions. Cependant on montre que H 1 (Ω) peut être identifié au sous-espace de L2 (Ω)
des fonctions dont les dérivées au sens des distributions sont dans L2 (Ω), ce qui signifie, par exemple
pour la dérivée par rapport à x1 , qu’il existe v ∈ L2 (Ω) telle que
Z Z
∂φ
∀φ ∈ D(Ω) vφ dΩ = − u dΩ
Ω Ω ∂x1
On le voit cela reste assez abstrait ! D’autant qu’un élément de L2 (Ω) n’est une fonction que par abus
de langage, car cette fonction est définie à un ensemble de mesure nulle près. Comme le bord de Ω
est de mesure nulle dans Ω on ne peut donc pas sans précaution parler de la restriction au bord d’un
élément de L2 (Ω), nécessaire pour définir les conditions aux limites. Cependant on montre, c’est diffi-
cile, que l’on peut donner un sens à cette restriction pour u ∈ H 1 (Ω) et définir des opérateurs “trace”
qui à u ∈ H 1 (Ω) associe tr(u) ∈ L2 (∂Ω) telle que la trace d’une fonction C 1 soit sa restriction au
1
bord. Toute fonction de L2 (∂Ω) n’étant pas la trace d’une fonction de H 1 (Ω), on note H 2 (∂Ω) le
sous-espace des fonctions de L2 (∂Ω) qui sont des traces (sous-espace que l’on sait caractériser mais
cela nous mènerait très loin...). Avec ce cadre fonctionnel on peut définir les problèmes aux limites
dans un cadre Hilbertien, par exemple
1
u ∈ H (Ω)
1
T r(u) = g ∈ H 2 (∂Ω) (6.4)
∀v ∈ H 1 (Ω), a(u, v) = L(v)
u ∈ V0 (6.5)
∀v ∈ V0 a(u, v) = L(v) (6.6)
1. On vérifie, par Cauchy-Schwarz, que a(u, v) est continue sur H01 (Ω), de même que L(v).
2. La coercivité de a(u, v) n’est pas évidente, elle résulte de l’inégalité de Poincaré que nous
admettrons Z Z
∀u ∈ H01 (Ω), u2 dΩ ≤ Cte (∇u)2 dΩ
Ω Ω
3. On peut donc appliquer le théorème de Lax-Milgram pour obtenir l’existence d’une unique so-
lution u de (6.5) dans H01 (Ω).
4. On peut ensuite vérifier que u est une solution au sens des distributions de l’équation initiale
−∆u = f (6.7)
5. Si f ∈ L2 (Ω) et donc ∆u ∈ L2 (Ω) on montre que les dérivées partielles au sens des distribu-
∂u
tions ∂xi
, i = 1, 2 sont des fonctions et sont dans L2 (Ω) (c’est un résultat délicat à montrer, il
faut d’ailleurs que le domaine Ω soit assez régulier). On en déduit ensuite que u est continue,
ce qui en particulier donne un sens clair à la notion de valeur au bord.
6. Pour montrer que u est éventuellement une fonction C 2 et donc une solution au sens ordinaire,
il faut rajouter des conditions de régularité ; on montre en particulier que si une fonction u est
une solution au sens des distributions de (6.7), u est C ∞ sur tout ouvert où f est C ∞ .
La démarche suivie est donc : montrer, sous des conditions très large, l’existence d’une solution
en un sens “étendu”, préciser ensuite les propriétés de cette solution sous des conditions de
régularité locale plus forte.
147 Mathématiques 2
148 Analyse des équations aux dérivées partielles
Objectifs
Ce chapitre est une introduction à l’approximation numérique des problèmes aux limites. Sans
faire de théorie générale nous développons à partir de quelques exemples les principes de l’approxi-
mation par la méthode des éléments finis.
7.1 Le problème
7.1.1 Présentation
Une solution d’une équation aux dérivées partielles n’est pas en général une fonction “usuelle”
(polynôme, sinus, ...) et l’ensemble des solutions forme un espace de dimension infinie. On peut
parfois (cf. chapitre 3) représenter formellement les solutions par des séries de fonctions usuelles
ou par des intégrales. Mais, sauf pour des domaines simples (carré, disque), ces représentations ne
permettent pas de résoudre les problèmes aux limites : l’ajout des conditions aux limites revient à
poser une infinité d’équations pour une infinité de variables.
Il faut donc faire une approximation pour représenter une fonction plus ou moins régulière, mais a
priori quelconque, par des fonctions usuelles qui ne dépendent que d’un nombre fini de paramètres.
Cela revient à choisir sous-espace d’approximation Vh , de dimension finie, d’un espace V0 où est
cherché a priori la solution exacte.
Comment définir une approximation de la solution du problème dans cet espace ? C’est ce que nous
allons étudier.
149
150 Analyse des équations aux dérivées partielles
Principe
1
On divise le carré selon une grille rectangulaire de pas h = n−1 . Les nœuds de la grille ont
pour coordonnées (xi , yj ) = ((i − 1)h, (j − 1)h) où 1 ≤ i, j ≤ n. L’objectif est de calculer une
approximation ui,j des valeurs de la solution de (7.1) aux points (xi , yj ). Il y a donc n2 valeurs à
calculer ui,j , 1 ≤ (i, j) ≤ n. On écrit une équation en chaque nœud en remplaçant l’équation aux
dérivées partielles exacte par une approximation obtenue en approchant les dérivées exactes par des
différences finies
Un développement limité montre que cette approximation de la dérivée seconde est à h2 près. On a
de même
∂2u u(xi , yj − h) − 2u(xi , yj ) + u(xi , yj + h)
2
(xi , yj ) w
∂y h2
.
151 Mathématiques 2
152 Analyse des équations aux dérivées partielles
Analyse et extensions
− La méthode des différences finies se généralise à des dimensions d’espace quelconques. Telle
que nous l’avons présentée elle ne s’applique qu’à des domaine carrés ou cubiques, mais on peut
l’étendre à des grilles déformées (plus précisément, on déforme une grille par application d’une trans-
formation géométrique). Cela permet d’appliquer cette méthode à des domaines qui ne sont pas trop
déformés (par exemple image d’un carré par une transformation conforme).
− Elle permet d’utiliser des méthodes numériques très efficaces, car la régularité de la grille donne
des propriétés spéciales aux matrices que l’on peut exploiter par des méthodes appropriées (méthode
multi-grille).
− En revanche la méthode des différences finies est inadaptée pour les problèmes à géométrie
complexe. La méthode des éléments finis que nous verrons ci-dessous est plus générale et plus souple
d’utilisation.
− La simplicité relative des calculs que nous avons présentés est trompeuse, la prise en compte
des conditions aux limites est délicate tout comme la construction de la matrice. La conservation
des propriétés de l’équation (symétrie de l’opérateur, existence d’un potentiel...) dans le passage à
l’approximation n’est pas automatique.
les valeurs de la solution exacte aux nœuds de la grille, on peut obtenir, en développant les différents
termes par la formule de Taylor au voisinage du point (xi , yj ), une estimation du type
et donc
kÛ − Uk∞ ≤ kK−1 k∞ Cte h2
kK−1 k∞ ≤ M (7.6)
et surtout la convergence des approximations vers la solution exacte. Cette condition (7.6) est la
stabilité du schéma. Une estimation de ce type est facile1 ici mais délicate dans le cas général. Elle
est liée à une estimation de la plus petite valeur propre de la matrice K. Nous reprendrons l’étude de
l’erreur avec plus de moyen avec la méthode des éléments finis.
1
Principe de la démonstration : si KU = F, on considère la composante maximale en valeur absolue de U ; notons la
ui,j en repassant à la notation en double indice. Vérifier qu’en ce point δi,j = −k(−ui−1,j − ui+1,j − ui,j−1 − ui,j+1 +
4ui,j ) est du même signe que ui,j . De δi,j + cui,j = fi,j on déduit que c|ui,j | ≤ |fi,j | et donc maxk,l |uk,l | ≤ 1c |fi,j | ≤
1
c
maxk,l |fk,l |, i.e. kUk∞ ≤ maxk,l |fk,l | ≤ 1c kFk∞
153 Mathématiques 2
154 Analyse des équations aux dérivées partielles
Principe d’approximation
Soit Vh un sous-espace de dimension finie de V0 , h étant un paramètre qui mesure a priori la
précision de l’approximation et qui peut tendre vers 0. Nous définissons une solution approchée uh
du problème (7.7) en restreignant la formulation variationnelle à Vh . On pose donc le problème
u h ∈ Vh
(7.8)
∀v ∈ Vh , a(uh , v) = L(v)
On peut déjà remarquer une condition nécessaire que doit vérifier l’espace Vh : pour que cela ait un
sens de chercher une solution dans Vh il faut qu’il existe a priori au moins une fonction Πh (u) de Vh
qui soit proche de la solution u et que Πh (u) → u quand h → 0.
Théorème 28 Si a(u, v) est une forme bilinéaire symétrique définie positive, l’approximation uh de
la solution u de (7.7)
p définie par le principe de Ritz-Galerkin est la projection de u sur Vh au sens de
la norme kvk = a(v, v).
Preuve
On a pour v ∈ Vh
a(u−v, u−v) = a(u−uh +uh −v, u−uh +uh −v) = a(u−uh , u−uh )+2a(u−uh , uh −v)+a(uh −v, uh −v)
On en déduit
a(u − uh , u − uh ) ≤ a(u − v, uh − v)
p
puisque a(uh − v, uh − v) ≥ 0. Autrement dit, en posant kvk = a(v, v)
∀v ∈ Vh ku − uh k ≤ ku − vk
♦
On peut donner dans ce cas une autre interprétation intuitive de la méthode de Ritz-Galerkin. Nous
avons vu que, si a(u, v) est une forme bilinéaire symétrique définie positive, la formulation faible
(7.7) est équivalente au problème d’optimisation
u ∈ V0
(7.9)
J(u) ≤ J(v) ∀v ∈ V0
où J(v) = 12 a(v, v) − L(v) est une fonction quadratique strictement convexe. Pour définir uh ∈ Vh
on peut utiliser le problème d’optimisation
Nous avons vu que ces deux problèmes ont une solution est une seule. En conclusion
Le problème (7.8) est donc équivalent, en tenant compte de la linéarité de a(u, v) par rapport à v, au
système de N équations
a(uh , wi ) = L(wi) ∀ 1 ≤ i ≤ N (7.12)
PN
En exprimant uh dans la base wi (uh (x, y) = j=1 uj wj (x, y)), on obtient pour les composantes de
uh un système linéaire de N équations à N inconnues
XN
a( uj wj , wi ) = L(wi ) ∀ 1 ≤ i ≤ N (7.13)
j=1
155 Mathématiques 2
156 Analyse des équations aux dérivées partielles
KU = F (7.15)
Ki,j = a(wj , wi )
Fi = L(wi )
Propriétés du système
Théorème 29 Si la forme bilinéaire a(u, v) est symétrique définie positive le système
KU = F
est à matrice symétrique définie positive, il admet donc une solution et une seule.
Preuve
Si V = (v1 , ..., vj , ..., vN )t est un vecteur quelconque non nul et v = N
P
j=1 vj wj est la fonction
associée, il vient
Vt KV = a(v, v) > 0
♦
En résumé :
-k ∆ u=f K U =F
u ∈ V0 u h ∈ Vh
a(u,v) = L(v) pour v ∈ V0 a(u h ,v) = L(v) pour v ∈ Vh
u ∈ V0 uh ∈ Vh
J(u) <J(v) pour v ∈ V0 J(u h ) <J(v) pour v ∈ Vh
ces fonctions. Elles approchent bien les fonctions très régulières, mais mal les fonctions discontinues2 .
On utilisera des fonctions polynômes, représentées dans une base de polynômes orthogonaux, pour
des problèmes dont la solution est très régulière quand le domaine est un carré ou un cube. C’est le
fondement des méthodes spectrales.
Une fonction quelconque peut être bien approchée par des fonctions affines par morceaux : pour s’en
convaincre il suffit de remarquer qu’une surface quelconque peut être approchée de façon stable par
une surface polyédrique. C’est pourquoi nous choisirons des espaces de “polynômes par morceaux”
sur des partitions convenables du domaine : c’est la méthode des éléments finis.
Il y a une petite difficulté technique pour utiliser des espaces de fonctions polynômes par mor-
ceaux : pour la cohérence et la simplicité de notre exposé il faut que l’espace d’approximation Vh soit
inclus dans l’espace des fonctions tests V0 qui nous a servi à construire des formulations faibles. Or
nous avons toujours utilisé un espace V0 de fonction C 1 mais, en général, les espaces Vh que nous
allons introduire sont des espaces de fonctions continues, mais seulement “dérivables par morceaux”,
c’est à dire sur des sous-domaines d’une partition de Ω. Il nous faut donc étendre les formulations
2
Par exemple la vitesse de convergence d’une série de fourier vers une fonction présentant une discontinuité sur la
dérivée ne peut être de l’ordre de ck ∼ k13
157 Mathématiques 2
158 Analyse des équations aux dérivées partielles
faibles à un espace plus “grand” que V0 qui contiennent les fonctions de Vh . Il est tentant de définir
un “espace de fonctions continues dérivables par morceaux” mais la définition précise de cet espace
pose des problèmes si on ne fixe pas les sous-domaines (faire la somme de deux fonctions oblige à
considérer l’intersection des sous-domaines). Il y a deux solutions pour résoudre cette difficulté :
1) Prendre pour V0 un espace de Sobolev adapté au problème3 , ce qui revient à remplacer la notion
de dérivées par la dérivation au sens faible ou “au sens des distributions” (cf. chapitre 6). Les formu-
lations faibles restent vraies dans ces espaces plus ou moins par définition. Mais cela nous entraîne
un peu loin dans l’analyse fonctionnelle, ce que nous avons voulu éviter dans ce cours.
2) Prendre un espace V0 adapté à chaque approximation : étant donné une partition de Ω en domaines
polygonaux (pour simplifier), on définit V0 comme l’ensemble des fonctions continues et dérivables
sur chaque sous-domaine. Les formules d’intégration par parties et de Stokes restent vraies pour ces
fonctions : il suffit de les appliquer à chaque sous-domaine et de vérifier que les intégrales sur les
frontières intérieures s’annulent deux à deux. On en déduit que les formulations faibles sont vérifiées
en remplaçant les fonctions tests C 1 par les fonctions continues C 1 par morceaux au sens ci-dessus
(ce ne serait pas le cas si les fonctions étaient discontinues).
Définition 39 Nous appelons, par abus de langage, espace des fonctions continues dérivables par
morceaux l’ensemble des fonctions continues sur Ω, dérivables sur une partition (fixe) de Ω en sous
domaines polygonaux. Ces sous-domaines sont ceux qui servent à construire l’espace d’approxima-
tion Vh .
Dans cette section, nous considérons l’exemple (7.1) et non plus la situation générale de la section
précédente. Les méthodes que nous développons se généralisent facilement à la situation générale du
problème (4.3.1).
Notion de maillage
3
Pour le problème (7.1) l’espace H 1 (Ω) convient.
15 16 23 22
12 21
14
13
7 11 20
8
19
3
4
6 10 18
1 2 5 9 17
Nous appelons Wh l’espace des fonctions continues, dont la restriction à chaque triangle du
maillage est affine4 (en abrégé fonctions continues affines par morceaux). Une fonction de Wh est
entièrement définie par ses valeurs aux sommets des triangles, c’est à dire aux nœuds du maillage
et on peut la considérer comme une fonction d’interpolation entre des valeurs arbitraires données
aux nœuds. Le graphe d’une fonction de Wh est une surface polyédrique, dont les facettes sont des
triangles. Deux fonctions de Wh qui coincident aux nœuds sont égales car si deux fonctions affines
prennent les mêmes valeurs aux trois sommets d’un triangle elles sont égales.
Il faut définir une base de Wh . Soit wi la fonction de Wh qui prend la valeur 1 au nœud i et la valeur
0 aux autres nœuds. La fonction wi est nulle sur chaque triangle auquel le nœud i n’appartient pas,
puisqu’elle est alors nulle aux trois sommets du triangle ; elle est donc non nulle seulement sur le
polygone qui entoure le nœud i (Fig. 7.2 ). Son graphe est une petite pyramide qui est centrée sur le
nœud i et qui a pour base le polygone qui entoure le nœud i (Fig. 7.3).
Proposition 56 Soit wi la fonction affine par morceaux qui vaut 1 au nœud i et 0 aux autres nœuds.
Son support est l’ensemble des triangles dont le nœud i est un sommet. Le système de vecteurs
[w1 , ..., wi , ..., wN ] est une base de Wh . Les composantes d’une fonction dans la base sont ses valeurs
aux nœuds.
En effet, si v est une fonction arbitraire de Wh et si (v1 , ..., vi , ..., vN )t est le vecteur formé par ses
valeurs aux nœuds, on a
N
X
v(x, y) = vj wj (x, y) (7.16)
j=1
4
Une fonction affine est une fonction polynôme de degré 1 : u(x, y) = ax + by + c. L’usage courant les appelle aussi
linéaire, terme en toute rigueur réservé à u(x, y) = ax + by.
159 Mathématiques 2
160 Analyse des équations aux dérivées partielles
Pour le démontrer il suffit de remarquer que les deux membres représentent des fonctions de Wh et
que ces deux fonctions prennent la même valeur vi au nœud i.
11
La matrice de raideur K
La matrice de raideur K a pour éléments
Z
Ki,j = a(wj , wi ) = k∇wj · ∇wi + cwi wj dΩ
Ω
Or nous avons vu qu’une fonction de base est nulle hors des triangles auxquels le nœud i appartient,
les deux fonctions wi et wj ne sont donc simultanément non nulles que sur les triangles dont i et j
sont des sommets. Donc Ki,j = 0 si les nœuds i et j ne sont pas adjacents. La matrice de raideur n’a
donc que très peu d’éléments non nuls, on dit qu’elle est creuse. La position des éléments non nuls,
que l’on appelle le profil de la matrice, dépend de la numérotation des nœuds.
En reprenant les conclusions du paragraphe précédent, il vient :
Des méthodes numériques spécialement adaptées aux matrices ayant ces propriétés ont été dévelop-
pées, notamment les méthodes de gradient conjugué, voir le cours d’optimisation .
Les coefficients de K sont des intégrales sur le domaine Ω. Pour les calculer on les décompose
en intégrales sur les triangles du maillage. Précisons :
1. Un triangle Te ne contribue au calcul d’une intégrale
Z
k∇wj · ∇wi + cwi wj dΩ
Ω
2. La contribution du triangle Te de sommet (i, j, k) à un coefficient, par exemple Ki,j , c’est une
intégrale sur ce triangle
Z
e
Ki,j = Te k∇wj · ∇wi + cwi wj dΩ
Comme il contribue à 9 coefficients, on peut ranger ces contributions dans la matrice de raideur
élémentaire e
Ki,i Ki,je e
Ki,k
e e e
Ke = Kj,i Kj,j Kj,k
e
Kk,i e
Kk,j e
Kk,k
161 Mathématiques 2
162 Analyse des équations aux dérivées partielles
1 2
h
Noter que cette matrice, une fois écrite pour un triangle quelconque, contient toute l’information
provenant de la forme bilinéaire a(u, v) qui définit la formulation faible, les autres informations pro-
viennent de la géométrie du domaine, c’est à dire du maillage. D’un point de vue algorithmique nous
avons fait un découplage entre les données géométriques et la forme de l’équation.
Exemple :
Soit un triangle rectangle isocèle Te de côté h (Fig. 7.4). En prenant pour repère les côtés de l’angle
droit il vient
x+y x y
w1 (x, y) = 1 − , w2 (x, y) = , w3 (x, y) =
h h h
d’où 1 1
−h h 0
∇w1 = ∇w2 = ∇w3 =
− h1 0 h
1
e h2
Ki,j = Surf(Te )k∇wj · ∇wi = ∇wj · ∇wi
2
Compte tenu des expressions des gradients, il vient
2 −1 −1
k
Ke = −1 1 0 (7.18)
2
−1 0 1
7 h 3
1
4 2
h
5 h 6
2
c
h 3
1
7
1
6 4
En supposant toujours c = 0 on peut utiliser les formules établies dans le paragraphe précédent
pour calculer les coefficients non nuls de la première ligne de K, il suffit d’ajouter les contributions
de chaque triangle
K1,1 = 4k
K1,2 = K1,3 = K1,4 = K1,5 = −k (7.19)
K1,6 = K1,7 = 0
k(4u1 − u2 − u3 − u4 − u5 ) = F1
163 Mathématiques 2
164 Analyse des équations aux dérivées partielles
finies. On peut remarquer que cela fournit une démonstration naturelle du caractère défini positif de
la matrice du système obtenu par la méthode des différences finies.
a(uh , wi ) = L(wi )
Pour simplifier l’exposé supposons que c = 0. L’équation (7.1) est alors l’équation de la diffusion de
la chaleur en régime permanent dans une plaque mince, u(x) est la température au point x et f (x)
une densité de chaleur fournie à la plaque.
Or
c1 h1
Aire(Te ) =
2
1
et ∇uh est un vecteur dirigé selon la hauteur relative au nœud 1 avec un module égal à h1 . Donc, en
notant n~1 le vecteur unitaire dirigé selon la hauteur
Z
c1
∇uh · ∇w1 dS = k∇uh · ~n1
Te 2
Cette quantité représente le flux de chaleur créé par le champ u à travers le segment formé par les
milieux des côtés (1, 2) et (1, 3) qui est de longueur c21 et de normale ~n1 . Donc a(uh , wi ) est la somme
des flux de chaleur créés par le champ uh à travers le contour représenté Fig. 7.6.
Interprétation du second membre d’une équation
On a Z
L(wi ) = f wi dΩ
Ω
Ce terme est homogène à une quantité de chaleur puisque la fonction f est la densité de chaleur
fournie à la plaque. La somme des fonctions wi est la fonction affine par morceaux qui vaut 1 en
chaque nœud, c’est donc la fonction constante 1. Les fonctions wi apparaissent donc comme des
densités qui concentrent autour du nœud i la densité de chaleur fournie à la plaque. Le second membre
représente une concentration d’une densité de chaleur répartie autour du nœud i.
Nous en déduisons l’interprétation suivante d’une équation :
Résumé 3 Interprétation d’une équation
L’équation i peut s’interpréter comme une équation de conservation de l’énergie entre le flux de
chaleur à travers un contour entourant un nœud et les quantités de chaleur fournies par le milieu
extérieur.
Cette interprétation est très pratique pour décrire les modifications à effectuer dans une équation pour
prendre en compte de manière intuitive des phénomènes physiques qui ne sont pas couverts par la
théorie mathématique décrite dans les paragraphes précédents. Considérons, par exemple, une plaque
chauffée par un rayon laser en un point qui est un nœud i. Comment faut-il modifier les équations
pour en tenir compte ? La quantité de chaleur Q fournie par le laser s’ajoute à la densité de chaleur, il
faut donc ajouter Q au second membre de l’équation relative à ce nœud i.
Cette interprétation montre également la nature de l’approximation effectuée ; en effet la solution
exacte u du problème vérifie le principe de conservation de l’énergie à travers tous les contours inté-
rieurs au domaine, tandis que la solution affine par morceaux uh ne vérifie le principe de conservation
qu’à travers les contours polygonaux formés de segments passant par les milieux des arêtes.
Au premier abord le système linéaire obtenu par la méthode des éléments finis semble plus obscur
et surtout plus compliqué que celui que nous avons obtenu per la méthode des différences finies. Mais
nous avons vu qu’il s’interprète en fait très concrètement et nous allons voir que sa complication n’est
qu’apparente : un programme très court et très général permet de construire toutes les matrices de
raideur. Pour bien comprendre la méthode des éléments finis, on ne peut pas séparer l’introduction des
formulations faibles de l’étude de ce programme : leur intérêt et leur compréhension sont étroitement
lié.
Le problème est le suivant : on se donne un maillage, il faut écrire un programme de calcul de la
matrice de raideur et du second membre du système. Pour comprendre la structure du programme,
remarquons que :
− Le maillage contient toutes les informations géométriques, qui sont décrites par des tableaux (pa-
ragraphe 7.2.5 ci-dessous).
− Toute l’information sur l’équation se résume à l’expression des coefficients de la matrice de raideur
qui sont des intégrales des fonctions de bases et de leurs dérivées.
− Les intégrales sont décomposées en intégrales sur les éléments rassemblées dans les matrices de
raideur élémentaires (paragraphe 7.2.5 ci-dessous).
− Les fonctions de bases wi contiennent toute l’information sur l’approximation. Il faut les calculer
ainsi que leurs dérivées sur chaque élément (paragraphe 7.2.5 ci-dessous).
165 Mathématiques 2
166 Analyse des équations aux dérivées partielles
Pour le maillage de la Fig. (7.2), le haut des tableaux ELEM et COORD est :
1 2 3 0 0
1 3 4
h 0
4 3 8 h h
ELEM = COORD = (7.20)
2 5 3
0 h
3 5 6 2h 0
... ... ... ... ...
On peut numéroter les éléments dans un ordre quelconque, mais il peut être utile de respecter une
orientation pour l’ordre des sommets, nous avons pris le sens trigonométrique. En revanche la ma-
nière de numéroter les nœuds a des conséquences sur la place des éléments non nuls dans la matrice
qui elle même a des conséquences très importante sur le nombre d’opérations dans les algorithmes
d’élimination comme le pivot de Gauss.
Les nœuds situés sur des bords ne sont décrits nulle part ; cela provient de ce que la condition écrite
∂u
en ces nœuds, à savoir ∂n = 0, est devenue implicite dans la formulation du problème.
Nous aurons besoin de la fonction “Description” qui permet d’extraire les abscisses (X(1), X(2), X(3))t
et les ordonnées (Y (1), Y (2), Y (3))t des trois nœuds d’un élément e :
Noter que la structure des données est identique à celle de la séance d’exercice 1 pour un treillis
de barres.
Principe du calcul
La matrice de raideur K a pour coefficients
Z
Ki,j = k∇wj · ∇wi + cwi wj dΩ
Ω
(matrice de masse).
Les coefficients de ces matrices, ainsi que du second membre F sont des intégrales sur le domaine
Ω. Nous allons décomposer ces intégrales en intégrales sur des triangles mais en inversant l’ordre
qui paraît naturel : au lieu de faire une boucle sur les coefficients puis de calculer les intégrales sur
les triangles, nous allons faire une boucle sur les triangles puis calculer toutes les contributions d’un
triangle aux coefficients d’une matrice.
Considérons par exemple le calcul de la matrice de masse K̂. Posons nous la question suivante :
quelles sont les modifications à effectuer dans la matrice K̂ quand on ajoute un triangle au maillage ?
Si on ajoute le triangle Te de sommet (i, j, k) il faut ajouter les intégrales sur ce triangle aux intégrales
qui définissent les coefficients de K̂. Précisons :
R
1. Un triangle Te ne contribue au calcul d’une intégrale Ω cwi wj dΩ que si ce triangle appartient
au support des fonctions wi et wj , ce qui implique d’après la proposition 56 que les nœuds i et
j sont des sommets du triangle Te . Un triangle Te de sommet (i, j, k) ne contribue donc qu’au
calcul de 9 coefficients
K̂i,i K̂i,j K̂i,k
K̂j,i K̂j,j K̂j,k
K̂k,i K̂k,j K̂k,k
2. La contribution du triangle Te à un coefficient K̂i,j auquel il contribue, c’est une intégrale sur
ce triangle Z
e
K̂i,j = cwi wj dS
Te
Comme il contribue à 9 coefficients, on peut ranger ces contributions dans la matrice de raideur
élémentaire Ke (cf. paragraphe 7.2.4)
e
K̂i,i e
K̂i,j e
K̂i,k
e e e
Ke = K̂j,i K̂j,j K̂j,k
e
K̂k,i e
K̂k,j e
K̂k,k
Programme d’assemblage
Nous supposons qu’une fonction “Ke = RaideurElemMasse(X,Y)” calcule la matrice de raideur
élémentaire d’un triangle dont les coordonnées des 3 sommets sont définies par les vecteurs X et Y .
Nous faisons une boucle sur les triangles et nous ajoutons les contributions de ce triangle aux co-
efficients auxquels il contribue. Cette construction de la matrice de raideur à partir des matrices de
raideurs élémentaires s’appelle l’assemblage.
function K = Assemblage(ELEM,COORD)
ne = size(ELEM,1);
N = size(COORD,1);
K = zeros(N,N);
for e = 1:ne,
[X,Y,NOEUD] = Description(ELEM,COORD,e)
167 Mathématiques 2
168 Analyse des équations aux dérivées partielles
Ke = RaideurElemMasse(X,Y);
for iloc=1:3,
i = NOEUD(iloc);
for jloc=1:3,
j = NOEUD(jloc)
K(i,j) = K(i,j) + Ke(iloc,jloc);
end;
end;
endfunction
Commentaires : les numéros e des triangles correspondent aux lignes du tableau ELEM. Pour
un triangle e, la fonction “Description” lit dans le tableau ELEM à la ligne e les numéros des trois
sommets : i = NOEUD(1), j = NOEUD(2), k = NOEUD(3) et lit les coordonnées des trois sommets
dans le tableau COORD. Après le calcul de la matrice Ke , on ajoute les coefficients de la matrice Ke
dans K̂ en parcourant les coefficients de Ke (boucle sur iloc et jloc) ; un coefficient Ke (iloc, jloc)
contribue au coefficient K̂(i, j) dans la matrice K̂.
En utilisant (7.22) calculons les coefficients de Ke . Notons mi le milieu du côté opposé au sommet i
dans le triangle Te , on a
wi (mi ) = 0
1
wi (ml ) = si l 6= i
2
il vient si j 6= i Z
1
cwi wj dS = cSurf(Te ) (7.24)
Te 12
et Z
1
cwi2 dS = cSurf(Te ) (7.25)
Te 6
d’où
2 1 1
cSurf(Te )
Ke = 1 2 1 (7.26)
12
1 1 2
et donc le programme :
function Ke = RaideurElemMasse(X,Y)
P = [X(1), Y(1), 1
X(2), Y(2), 1
X(3), Y(3), 1];
Surf =abs(det(P))/2;
Ke = [2,1,1
1,2,1
1,1,2];
Ke = c/12*Surf*Ke;
On a donc
∂wi
= M1,i
∂x
et
∂wi
= M2,i
∂y
169 Mathématiques 2
170 Analyse des équations aux dérivées partielles
Soit P la matrice
X(1) Y (1) 1
P = X(2) Y (2) 1 (7.29)
X(3) Y (3) 1
On a
1
Surf(Te ) = Det(P )
2
La fonction wi est la fonction affine qui vaut 1 au nœud i et 0 aux deux autres nœuds, ce qui s’écrit
matriciellement pour les trois fonctions de base
1 0 0
PM = 0 1 0
0 0 1
et donc
∇wi · ∇wj = M1,i M1,j + M2,i M2,j
La procédure de calcul de la matrice de raideur élémentaire présentée ci-dessous utilise quelques
macro-instructions matricielles et la procédure “Description”, qui calcule les coordonnées des nœuds,
stockées dans les vecteurs X et Y :
function Ke = RaideurElemLaplacien(X,Y)
P = [X(1), Y(1), 1
X(2), Y(2), 1
X(3), Y(3), 1];
M = P^{-1};
Surf = abs(det(P))/2;
for i=1:3,
for j= 1:3,
Ke(j) = Surf * k * (M(1,i) * M(1,j) + M2,i * M(2,j));
end;
end;
suit le même principe que le calcul de la matrice de raideur. Si on ajoute un triangle Te de sommets
(i, j, k) au maillage, il faut ajouter les intégrales sur ce triangle aux composantes Fi , Fj , Fk de F. Les
intégrales sur un triangle sont calculées par la formule (7.22), pour l’indice i par exemple
q(mj ) + q(mk )
Fie = Surf (Te )
2
On suppose donné un programme Q(X,Y) qui calcule la fonction q(x). On écrit une fonction “Fe =
ForceElementaireX,Y)” qui calcule, sans astuce de programmation, les intégrales sur un triangle des
trois composantes auxquelles ce triangle contribue :
function Fe = ForceElementaire(X,Y);
P = [X(1), Y(1), 1
X(2), Y(2), 1
X(3), Y(3), 1];
Surf = det(P)/2;
Fe(1) = Surf/2*(Q((X(1)+X(2))/2,(Y(1)+Y(2))/2) + Q((X(1)+X(3))/2,(Y(1)+Y(3))/2);
Fe(2) = Surf/2*(Q((X(2)+X(3))/2,(Y(2)+Y(3))/2) + Q((X(2)+X(1))/2,(Y(2)+Y(1))/2);
Fe(3) = Surf/2*(Q((X(3)+X(1))/2,(Y(3)+Y(1))/2) + Q((X(3)+X(2))/2,(Y(3)+Y(2))/2);
function F = Assemblage(ELEM,COORD)
ne = size(ELEM,1);
N = size(COORD,1);
F = zeros(N,N);
for e = 1:ne,
[X,Y,NOEUD] = Description(ELEM,COORD,e)
Fe = ForceElementaire(X,Y);
for iloc=1:3,
i = NOEUD(iloc);
F(i) = F(i) + Fe(iloc);
end;
endfunction
Les gradients des fonctions affines étant constants, l’intégrale est égale à
Z
k∇wj · ∇wi dS = Surf(T )k∇wj · ∇wi
T
171 Mathématiques 2
172 Analyse des équations aux dérivées partielles
θ1
c3
c2
h3 h2
h1
θ3 θ2
3 c1 2
Le gradient de wi est dirigé selon la hauteur passant par i, vers le sommet i, et il est de longueur h1i (pour le
vérifier, calculer le gradient dans le repère formé par la hauteur issu de i et par le côté opposé à i). L’angle des
deux hauteurs issues des nœuds 1 et 2 est θ3 ; il vient
Z
1 1
k∇w1 · ∇w2 dS = −Surf(T ) cos θ3
T h1 h2
Z
k
k∇w1 · ∇w2 dS = − cot θ3
T 2
De même
Z
1 2
k∇w1 · ∇w1 dS = Surf(T )( )
T h1
On a Aire(T ) = 21 h1 c1 ; on découpe le côté c1 en les deux segments définis par le pied de la hauteur ; les
longueurs de ces segments sont h1 cot θ3 et h1 cot θ2 ; il vient
Z
k
k∇w1 · ∇w1 dS = (cot θ2 + cot θ3 )
T 2
Ces coefficients sont nuls d’après la proposition 56 si les nœuds i et j ne sont pas tous les deux sur le
bord Γ.
Dans la structure des données nous ajoutons un tableau BORD de dimension (nb , 2) qui contient,
dans un ordre indifférent, la liste des numéros des nœuds qui sont les extrémités des segments qui
constituent le bord, par exemple pour le maillage de la figure 7.3
1 2
2 5
BORD = 5 9
9 17
... ...
Les coefficients sont calculés par une formule d’intégration de Simpson (nous supposons que le seg-
ment est paramétrée par s ∈ [0, 1])
Z
1
f (s) ds = Long(Se )(f (0) + 4f ( ) + f (1))/6
Se 2
L’assemblage se fait par une boucle sur les segments définis par le tableau BORD :
function [X,Y,NOEUD] = DescriptionBord(BORD,COORD,e)
for i =1:2,
NOEUD(i) = BORD(e,i);
173 Mathématiques 2
174 Analyse des équations aux dérivées partielles
end;
for i=1:2,
X(i) = COORD(NOEUD(i),1);
Y(i) = COORD(NOEUD(i),2);
end;
endfunction;
function Kb = Assemblage(BORD,COORD)
nb = size(BORD,1);
N = size(COORD,1);
KBord = zeros(N,N);
for e = 1:nb,
[X,Y,NOEUD] = DescriptionBord(BORD,COORD,e)
Kbe = RaideurElemBord(X,Y);
for iloc=1:2,
i = NOEUD(iloc);
for jloc=1:2,
j = NOEUD(jloc)
Kb(i,j) = Kb(i,j) + Kbe(iloc,jloc);
end;
end;
endfunction
u|Γ0 = u0
où Γ0 est une partie du bord Γ. Nous étudions les modifications à apporter au paragraphe 7.2.4.
L’espace V0 des fonctions tests de la formulation faible est alors
Pour définir une approximation par la méthode de Ritz-Galerkin dans l’espace Wh des fonctions
continues affines par morceaux, on introduit le sous-espace Vh ⊂ V0 ∩ Wh des fonctions nulles sur le
bord Γ0 . On définit5 une approximation uh ∈ Wh par
uh ∈ Wh , uh |Γ0 = u0
(7.30)
∀v ∈ Vh , a(uh , v) = L(v)
Noter que uh et v ne sont plus dans le même espace. Soit Γ1 le complémentaire de Γ0 dans Γ. Dans
la base wi de Wh , uh s’écrit X X
uh = uj wj + uj wj
j∈Γ1 j∈Γ0
5
Après avoir approché la fonction u0 par son interpolée affine par morceaux
le premier terme étant formé des composantes uj inconnues et le deuxième des composantes connues.
Une base de Vh est obtenue en ne considérant que les fonctions wi associées aux nœuds du maillage
de Ω qui n’appartiennent pas au bord Γ0 . Pour construire un système linéaire il faut renuméroter les
nœuds sans tenir compte des nœuds de Γ0 et prendre en compte dans le programme d’assemblage (cf.
paragraphe 7.2.5) le fait que certains triangles ont pour sommets des nœuds de Γ0 et que les éléments
correspondants des matrices de raideur élémentaires ne sont pas à assembler.
On préfère maintenir tous les nœuds dans la structure des données et utiliser une des deux méthodes
suivantes :
1) Construire la matrice de raideur comme dans l’exemple (7.1) ci-dessus avec Vh = Wh , puis
modifier le système linéaire obtenu en tenant compte que :
− si la ième équation fait intervenir un nœud j de Γ0 , le terme Ki,j uj est connu (uj = u0 (xj )) et doit
donc passer au second membre ;
− l’équation relative à un nœud i qui est sur Γ0 est remplacée par l’équation triviale ui = u0 (xi ).
2) Remplacer la condition de Dirichlet par une condition de Robin sur Γ0 avec une constante C
très grande : intuitivement, avec une interprétation thermique, cela revient à écrire que ce bord est
fixé sur un support très conducteur de la chaleur, ce qui revient à fixer la température du bord à celle
du support. Vu d’une manière plus abstraite, cela revient en utilisant le principe du minimum (7.9) à
ajouter à la fonction potentielle un terme
Z
C
(u − u0 )2 ds
Γ0 2
avec une constante C très grande : c’est la méthode de pénalisation (voir les chapitres 3 et 4 du cours
d’optimisation) appliquée au problème d’optimisation (7.9) pour les contraintes u(x) = u0 (x) en
chaque point de Γ0 .
Concrètement cette méthode se traduit par une opération très simple : la matrice de raideur du pro-
blème (7.1) étant construite, on ajoute une constante C au terme diagonal d’une équation relative à
un nœud du bord Γ0 et Cu0 au second membre.
Termes différentiels
Supposons tous les coefficients constants. Les expressions générales de l’équation 4.3.1 ne posent
pas de problème particulier : chaque terme de l’équation définit une forme bilinéaire qui définit elle-
même une matrice de raideur dans l’approximation. Le calcul de cette matrice de raideur se ramène
par l’utilisation du programme général d’assemblage du paragraphe 7.2.5 au calcul d’une matrice
de raideur élémentaire. Le calcul de cette matrice se fait comme au paragraphe 7.2.5, seule change
e = .... C’est un point très remarquable de la méthode des éléments
l’expression du coefficient Ki,j
finis et du programme que nous avons présenté : une modification de l’équation ne change qu’une
ligne du programme.
175 Mathématiques 2
176 Analyse des équations aux dérivées partielles
Coefficients variables
Si les coefficients dépendent du point x, cela ne change que peut de chose à l’approximation par
la méthode de Ritz-Galerkin ; il faut juste en tenir compte dans le calcul des matrices de raideur élé-
mentaire : les coefficients dépendent des points d’intégration. Souvent, ces coefficients sont constants
par sous-domaines (correspondant à des milieux ou des matériaux différents, voir la séance 5 d’exer-
cices), la structure des données doit en tenir compte : on ajoute à la définition des éléments (tableau
ELEM) une colonne pour coder le sous-domaine auquel l’élément appartient.
Systèmes d’équations
L’approximation des systèmes d’équations, essentiellement ceux de l’élasticité, de l’électroma-
gnétisme ou des écoulements incompressibles, s’effectue en approchant chaque composante de la
solution comme nous l’avons fait pour les équations à une seule fonction inconnue. La définition d’un
système d’équations obtenu par le principe de Ritz-Galerkin appliquée à une formulation faible se fait
comme au paragraphe (7.2.4). La principale difficulté dans l’écriture du programme de construction
du système linéaire vient de ce que les inconnues en chaque nœud ne sont plus des scalaires mais des
vecteurs, la numérotation des inconnues diffère donc de la numérotation des nœuds. Des relations qui
sont scalaires avec une seule inconnue deviennent matricielles et des relations qui étaient matricielles
utilisent des tenseurs à quatre indices...
Éléments quadratiques
Un polynôme du second degré en x, y dépend de 6 coefficients, il est donc défini par ses valeurs
en 6 points. L’espace Wh de ces fonctions peut être décrit de la manière suivante :
− Étant donné un maillage en triangles, nous appelons “nœuds” les sommets et les milieux des côtés.
− Il existe une fonction de Wh et une seule qui prend des valeurs données aux nœuds.
Ces propriétés sont justifiées par les suivantes :
− Sur chaque triangle il y a un polynôme du second degré et un seul qui prend des valeurs données
aux 6 nœuds qui appartiennent à ce triangle, il y a donc une fonction et une seule qui prenne des
valeurs données aux nœuds.
− Une fonction ainsi définie est continue car ses restrictions à deux triangles adjacents sont des
polynômes qui prennent la même valeur aux extrémités et au milieu du côté commun à ces deux
triangles : ils définissent donc sur ce segment deux polynômes du second degré qui coïncident en
7.3.4 Dimension 1 et 3
Nous avons présenté dans ce chapitre la méthode des éléments finis en dimension 2 avec une ap-
proximation par des fonctions continues affines par morceaux sur des maillage en triangles. L’exten-
sion aux dimensions 1 et 3 est naturelle. Il nous suffit de décrire l’espace Wh des fonctions continues
affines par morceaux.
Dimension 1
Un maillage est un découpage de l’intervalle en segments. Les fonctions continues affines par
morceaux sont les fonctions dont le graphe est une ligne brisée sur la base de ces segments. Les
fonctions de base sont des fonctions “triangles”.
Dimension 3
Un maillage est une partition en tétraèdres. Les fonctions continues affines par morceaux sont bien
définies par leurs valeurs aux nœuds car il existe une et une seule fonction affine ax + by + cz + d
qui prend quatre valeurs données aux sommets des tétraèdres. Ces fonctions sont continues car leurs
restrictions à un triangle commun à deux tétraèdres sont affines et prennent les mêmes valeurs aux
sommets du triangle : elles sont donc égales sur ce triangle. Les fonctions de base wi ne sont non
nulles que sur les tétraèdres qui ont le nœud i pour sommet.
Les maillages tridimensionnels sont souvent créés par translation de maillages surfaciques (cf. Fig.
7.8). Selon que les surfaces sont maillées en triangles ou en quadrilatères on crée ainsi des prismes ou
des hexaèdres. On peut définir directement des approximations polynômiales sur ces polyèdres, sans
les redécouper en tétraèdres ; voir la théorie des éléments finis conformes dans ([7] et [6]).
177 Mathématiques 2
178 Analyse des équations aux dérivées partielles
Erreur d’interpolation
Nous donnons dans ce paragraphe à la constante h le sens précis du diamètre du plus grand élé-
ment du maillage. Si u est une fonction continue, on peut définir son interpolation Πh (u) dans Vh , qui
est l’unique fonction de Vh qui prend les mêmes valeurs que u aux nœuds. L’estimation de l’erreur
d’interpolation permet une majoration de la distance de la solution à l’espace d’approximation Vh .
Dans le cas d’une approximation par des éléments affines de on peut démontrer (en utilisant un déve-
loppement de Taylor sur une approximation régulière de u) l’estimation suivante pour l’erreur d’in-
terpolation, pour la norme kukH 1 (définie au paragraphe 6.2.4)
ku − Πh (u)kH 1 ≤ βhkukH 2
La constante β est indépendante du diamètre h du maillage pourvu que ce maillage ne soit pas trop
“irrégulier” ; on peut par exemple démontrer l’existence de cette constante C pour les éléments affines
sur maillages en triangles dont le rapport des rayons du cercle circonscrit et du cercle inscrit reste
majoré indépendamment du diamètre h.
Estimation de l’erreur
La forme faible (7.2) étant définie par une forme bilinéaire a(u, v) symétrique définie positive,
nous avons vu au théorème 28 que la solution approchée uh est la projection de la solution exacte6
u ∈ V0 sur l’espace d’approximation Vh au sens du produit scalaire a(u, v), autrement dit
a(u − uh , u − uh ) ≤ a(u − Πh (u), u − Πh (u))
La forme bilinéaire a(u, v) vérifie, d’après la définition de la norme kukH 1 ,
mkuk2H 1 ≤ a(u, u) ≤ M kuk2H 1 (7.31)
avec m = inf(k, C) et M = sup(k, C). On en déduit
M
ku − uh k2H 1 ≤ ku − Πh (u)k2H 1
m
Et donc
M
ku − uh k2H 1 ≤ β hkuk2H 2
m
La constante β Mm est indépendante de la finesse h du maillage, sous les conditions de “régularité” du
maillage vues au paragraphe précédent.
Avec des conditions plus restrictives sur la frontière de Ω et sur la régularité des données on peut avoir
des estimations d’erreur plus fines, notamment des estimations uniformes et non plus en moyenne
quadratique. Elles sont beaucoup plus délicates à obtenir. La principale difficulté pour obtenir des
estimations d’erreur uniformes est la présence de singularités sur les dérivées de la solution pour
la plupart des “discontinuités” des données aux bord. Ce point délicat, mais riche de conséquences
pratiques, est abordé à la séance d’exercices 2.
Remarquer que l’inégalité (7.31) est ici facile à obtenir parce que C 6= 0, mais elle reste vraie si C = 0
à condition qu’il y ait une condition de Dirichlet sur une partie du bord (voir dans [11] l’inégalité de
Poincaré).
6
Noter qu’il est important ici que Vh ⊂ V0 , ce qui explique pourquoi nous avons étendu les formulations faibles à
l’espace des fonctions continues C 1 par morceaux (paragraphe 7.2.2.
Contrôle de l’erreur
Des tests a posteriori, c’est à dire après qu’une approximation a été calculée, peuvent être effectués
pour estimer l’erreur locale et ainsi vérifier la qualité et le raffinement du maillage. Ces tests sont basés
sur une analyse fine de l’erreur d’approximation, voir ([3]).
A priori, il est clair que le pas du maillage doit au minimum permettre la représentation des variations
de la solution : par exemple dans le cas d’une approximation par des fonctions affines par morceaux
il faut au moins quatre intervalles pour représenter une arche de sinusoïde.
Le point le plus délicat est la prise en compte des singularités de la fonction (cf. séance d’exercices
2). S’il est nécessaire de les représenter, le maillage doit suivre des règles précises.
7.5 Maillage
Un maillage d’un domaine Ω est un ensemble de domaine polygonaux disjoints dont la réunion
est Ω. Les mailleurs complètement automatiques, de plus en plus utilisés, créent des triangles ou
des tétraèdres mais ils rendent les calculs ultérieurs plus coûteux et sont inappropriés pour certains
calculs.
179 Mathématiques 2
180 Analyse des équations aux dérivées partielles
Maillage contrôlé
F IG . 7.8 – Maillage par extrusion : le maillage d’une section est déplacé par une transformation
hélicoïdale.
blement maillés. Il est bien adapté au maillage de pièces mécaniques souvent créées à partir de formes
simples qui peuvent être maillées par extrusion. Il permet aussi, en découpant un domaine, de mieux
contrôler le maillage.
− Le maillage par déformation de grilles, surtout utilisé pour la méthode des différences finies. Le
principe de cette méthode est de définir d’abord une grille sans se préoccuper de la position des nœuds.
Ensuite cette grille est “transportée” sur un domaine donné, l’opérateur fixant seulement les nœuds
du bord, les nœuds intérieurs étant déterminés par une transformation M = F (m) de la grille sur le
domaine à mailler. Toute la difficulté est de définir des transformations qui, au minimum, doivent être
bijectives et présenter localement des propriétés de "régularité" suffisantes. Ce n’est possible que si
les frontières ont des formes simples, par exemple si le bord est un triangle ou un quadrilatère cur-
vilignes comme la forme d’une tuyère. On peut utiliser des transformations conformes ou bien des
transformations définies par des déformations élastiques, auquel cas on doit résoudre un problème
d’élasticité linéaire sur la grille initiale. Couplée avec le maillage par concaténation, le maillage par
déformation permet un contrôle très précis du maillage.
Le contrôle du “pas” du maillage s’effectue par la définition des points du bord du domaine à
mailler ou par la donnée directe du pas du maillage, éventuellement à l’aide d’une fonction. Pour
contrôler un maillage à l’intérieur d’un domaine on peut aussi redécouper ce domaine pour faire
apparaître des frontières intérieures. Pour effectuer des vérifications du maillage, l’utilisateur d’un
logiciel dispose en général de tests mesurant les déformations des éléments.
Maillage libre
Les maillages sont le plus souvent créés par des programmes qui construisent automatiquement
des triangles en dimension 2 ou des tétraèdres en dimension 3 en tenant compte des nécessaires
raffinements dans les zones d’irrégularités géométriques. Il y a deux problèmes différents :
1) La création des nœuds en respectant les contraintes de densité. C’est un problème complexe et très
technique, nous renvoyons le lecteur aux ouvrages de référence ([3]).
2) La création des triangles ou tétraèdres sur la base d’un ensemble de nœud, de manière optimale,
c’est à dire en évitant de créer des polygones ou polyèdres aplatis. En se limitant à la dimension 2,
pour simplifier, nous allons étudier ci-dessous un outil très intéressant pour créer des triangles7 : la
triangulation de Delaunay qui a, entre autres, de nombreuses applications en imagerie.
Maillage adaptatif
Définir a priori la densité optimale des nœuds d’un maillage pour obtenir une précision donnée
est souvent délicat. De nombreux logiciels permettent une adaptation automatique du maillage de la
manière suivante :
− Un premier maillage est défini, un calcul effectué sur ce maillage.
− Une estimation locale de l’erreur est effectuée à l’aide de tests a posteriori qui sont fondés sur une
étude mathématique de l’erreur (voir [3]).
− Un remaillage est effectué ; par simplicité ce remaillage consiste souvent à redécouper localement
des triangles, sinon les temps de calcul peuvent être prohibitifs.
181 Mathématiques 2
182 Analyse des équations aux dérivées partielles
Noter que les bords du polygone de Voronoï d’un point M sont les médiatrice des segments M P , où
P est un autre point de E. On définit la relation de voisinage pour des points de E en posant que deux
points sont voisins si leurs polygones de Voronoï ont un côté commun. En reliant les nœuds voisins
par des segments on construit en général10 une triangulation du plan, la triangulation de Delaunay.
Preuve
Le point commun à trois polygones de Voronoï basés sur les sommets (M1 , M2 , M3 ) d’un triangle de
Delaunay est le centre du cercle circonscrit au triangle (M1 , M2 , M3 ). Si un point M4 est intérieur au
cercle circonscrit à un triangle (M1 , M2 , M3 ) de la triangulation de Delaunay, le centre de ce cercle
est plus proche de M4 que des points (M1 , M2 , M3 ). Il ne peut donc pas appartenir aux polygones de
Voronoï de (M1 , M2 , M3 ), contrairement à l’hypothèse. La réciproque suit le même argument.
♦
Les faces de ce polyèdre convexe sont des triangles qui ont la propriété que leur plan laisse tous
les autres points de E du même côté. Ce découpage de la sphère jouit clairement de propriétés op-
timales (par rapport à la notion de voisinage par exemple, car trois points de la sphère sont d’autant
plus proches, que leur plan est éloigné du centre, or le polyèdre convexe est le plus “extérieur” à la
sphère de tous ceux qui ont les points de E comme sommets).
On en déduit l’idée suivante pour définir une triangulation sur la base d’un ensemble E de points du
plan :
10
Plus précisément : la situation “générale” est qu’un point du plan appartient au plus à trois polygones de Voronoï, sinon
cela signifie que les points de base de ces polygones sont cocycliques.
− on applique les points du plan sur une sphère par projection stéréographique inverse, on obtient
ainsi un ensemble E 0 ;
− on définit les triangles sphériques associés au polyèdre convexe formé par les points de E 0 et le
“pôle nord” ;
− on reprojette sur le plan la triangulation qui a été obtenue sur la sphère.
La triangulation ainsi obtenue sur le plan est la triangulation de Delaunay. Cela découle de ce que
le cercle circonscrit à un des faces triangulaires du polyèdre convexe construit sur la sphère se pro-
jette sur le cercle circonscrit au triangle projeté. La calotte sphérique définit par le premier cercle se
projette donc sur l’intérieur du cercle circonscrit à un triangle du maillage du plan. Or cette calotte
sphérique ne contient aucun sommet du polyèdre convexe, le cercle circonscrit à un triangle du plan
ne contient aucun autre nœud. C’est la propriété caractéristique d’une triangulation de Delaunay de
la proposition 58.
La triangulation de Delaunay a plusieurs propriétés d’optimalité, dont l’une est spécialement in-
téressante pour la méthode des éléments finis : son plus mauvais triangle (i.e. le plus aplati ) est
le meilleur possible, parmi toutes les triangulations construites sur un ensemble donné de points. Il
existe plusieurs algorithmes de construction de la triangulation de Delaunay, certains en N ln(N )
opérations pour N points ; les plus simples (en N 2 opérations) construisent les triangles par récur-
rence sur les points de E en considérant les modifications à apporter au maillage quand on ajoute un
point, de façon à respecter la propriété caractéristique de la proposition 58. La principale difficulté
de la mise en oeuvre est d’éviter un trop grand nombre de tests d’inclusion pour vérifier la propriété
caractéristique.
183 Mathématiques 2
184 Analyse des équations aux dérivées partielles
F IG . 7.10 – Une triangulation de Delaunay avec raffinement de maillage. Noter l’utilisation de sous-
domaines pour contrôler le maillage (Doc. J.H. Saiac).
F IG . 7.11 – Un maillage adapté à la modélisation d’ondes de chocs sur un écoulement autour d’une
aile (Doc. J.H. Saïac).
Objectifs
Ce chapitre est une introduction à l’approximation numérique des problèmes d’évolution, ou plus
précisément, des problèmes de Cauchy pour des équations aux dérivées partielles. Sans faire une
théorie générale nous développons à partir de quelques exemples les principes de l’approximation par
la méthode des différences finies et des éléments finis. Nous commençons par présenter des méthodes
de discrétisation : un problème d’évolution conduit naturellement, par passage du continu au discret,
à une récurrence. Nous verrons ensuite que ces méthodes naturelles conduisent à des approximations
qui peuvent être incohérentes : c’est le problème de la stabilité des schémas de récurrence. Le non
respect par le schéma de certaines propriétés qualitatives des équations aux dérivées partielles est la
cause de ces instabilités que nous analyserons.
L’équation de la diffusion
(Voir paragraphe 2.1.2). Soit u(x, t), x ∈ [0, L], t ∈ [0, T ] solution du problème
∂2u
∂u
= c x ∈]0, L[, t ∈]0, T [
∂t ∂x2
(8.1)
u(x, 0) = u0 (x) x ∈]0, L[
u(0, t) = u(1, t) = 0 t ∈]0, T [
où u0 (x) ∈ C([0, L]) est l’état initial. C’est une équation parabolique (cf. paragraphe 5.1.5).
185
186 Analyse des équations aux dérivées partielles
où u0 (x) ∈ C 2 ([0, L]) est la position initiale et où la vitesse initiale est supposée nulle. Elle est
équivalente au système hyperbolique du premier ordre
∂u ∂v
=c
∂t ∂x
∂v ∂u
=c
∂t ∂x (8.3)
u(x, 0) = u0 (x) x ∈]0, L[
v(x, 0) = 0 x ∈]0, L[
u(0, t) = u(1, t) = 0 t ∈]0, T [
∂u u(xj + h, t) − u(xj , t)
à droite : (xj , t) w (8.4)
∂x h
∂u u(xj , t) − u(xj − h, t)
à gauche : (xj , t) w (8.5)
∂x h
∂u u(xj + h, t) − u(xj − h, t)
symétrique : (xj , t) w (8.6)
∂x 2h
Un développement limité montre que les deux premières approximations sont à h près, la troi-
sième à h2 près. On construit de même une approximation de la dérivée seconde
C’est un système de N équations différentielles linéaires à N fonctions inconnues uj (t) (noter que les
valeurs extrêmes u0 et uN +1 sont connues et ici nulles), pour lequel est posé un problème de Cauchy
(ou problème à valeurs initiales). On pose
Proposition 59 La matrice K est définie positive. On en déduit que le système différentiel (8.9) est
dissipatif (cf. paragraphe(1.3.2), comme l’équation initiale (8.1)
d
hU, Ui = −hKU, Ui < 0
dt
Cela découle de la relation
X
N
hK0 U, Ui = j=2 (uj−1 − uj )2 + u21 + u2N (8.11)
2
Nous avons vu (proposition 23) que l’opérateur ∂∂xu2 est symétrique défini positif quand il opère sur
les fonction nulles sur le bord, il est donc heureux que son approximation conduise à une matrice
symétrique définie positive ; nous verrons plus loin qu’en utilisant une approximation par la méthode
des éléments finis, cette propriété ne sera plus l’effet du hasard.
187 Mathématiques 2
188 Analyse des équations aux dérivées partielles
2 −1 0 ... 0
0
−1 2 −1 ... 0 0
c2
0 −1 2 ... 0 0
K= 2
h
... ... ... ... ... ...
0 0 0 ... 2 −1
0 0 0 ... −1 2
Nous avons vu (2.23) que l’équation des ondes (8.2) est conservative. Nous allons vérifier que le
système (8.13) est aussi conservatif, pour une énergie dicrétisée. En effet, multiplions scalairement
(8.13) par dU
dt
d2 U dU dU
h 2 , i + hKU, i=0
dt dt dt
donc
d 1 dU dU 1
( h , i + hKU, Ui) = 0
dt 2 dt dt 2
ce qui montre la conservation de l’énergie discrétisée
1 dU dU 1
( h , i + hKU, Ui) (8.14)
2 dt dt 2
dU
V=
dt
Il vient
dU
=V
dt
dV = −K U
dt (8.15)
U(0) = U0
V(0) = 0
Ou encore en posant
X = (U, V)t ∈ R2N
il vient
dX
=AX
dt (8.16)
X(0) = (U0 , 0)t
Nous allons retrouver le fait que les solutions du système (8.16) conserve l’énergie (cf. paragraphe
1.3.2). En notant hU, Vi le produit scalaire canonique sur RN , introduisons le produit scalaire sur
R2N défini par
X, Y = hKX1 , Y1 i + hX2 , Y2 i (8.17)
où nous avons décomposé les vecteurs X = (X1 , X2 )t ∈ R2N et Y = (Y1 , Y2 )t ∈ R2N en deux
vecteurs de RN . Noter que le carré scalaire X, X n’est pas autre chose que l’énergie définie
par la formule (8.14). D’après la proposition (8) si les solutions de (8.16) conserve cette énergie, la
matrice A est antisymétrique par rapport au produit scalaire qui définit l’énergie. Nous allons montrer
directement cette proposition :
U, U = Cte
189 Mathématiques 2
190 Analyse des équations aux dérivées partielles
Preuve
(Voir la proposition (8)). Par définition de A
AX = (X2 , −KX1 )t
L’antisymétrie de la matrice découle de la relation
AX, X = hKX2 , X1 i + h−KX1 , X2 i = 0
puisque la matrice K est symétrique.
On en déduit à partir de (8.16) que
dX
, X = A X, X = 0
dt
et donc
d 1
X, X = 0
dt 2
d’où
X, X = Cte
♦
Discrétisation en temps
On peut intégrer numériquement les systèmes différentiels (8.9) et (8.13) par des méthodes clas-
siques de précision plus ou moins grande (“Runge-Kutta”, “Prédicteur-correcteur”) ou adaptée à des
situations particulières (“Gear”...). Mais l’approximation en temps ne peut pas être indépendante de
l’approximation en espace, pour des raisons évidentes de précision, et surtout, pour des systèmes
de grande dimension, la question cruciale est celle de la stabilité des approximations. Pour étudier
ces questions nous allons appliquer les méthodes d’intégration les plus simples. Nous écrivons ces
systèmes sous la forme canonique
dX
=AX
dt (8.18)
X(0) = X0
Xn+1 − Xn
= AXn (8.19)
τ
Dans le cas de l’équation de la diffusion la j ème équation s’écrit
un+1
j − unj c n
= (u − 2unj + unj+1 ) (8.20)
τ h2 j−1
Xn+1 − Xn
= AXn+1 (8.21)
τ
Dans le cas de l’équation de la diffusion la j ème équation s’écrit
un+1
j − unj c n+1
= (u − 2un+1 + un+1
j+1 ) (8.22)
τ h2 j−1 j
où la matrice M est :
- schéma d’Euler explicite : M = (Id + τ A)
- schéma d’Euler implicite : M = (Id − τ A)−1
- schéma des trapèzes : M = (Id − τ2 A)−1 (Id + τ2 A)
Remarque
Si on développe le schéma matriciel d’Euler explicite dans le cas du système (8.13) de l’équation des
ondes, on obtient, après élimination de V, un schéma du second ordre sur unj :
un+2
j − 2un+1
j + unj un
2 j−1
− 2unj + unj+1
=c
τ2 h2
Ce schéma aux différences finies est moins naturel (et moins précis) que le schéma “centré”
un+1
j − 2unj + un−1
j unj−1 − unj + unj+1
= c2
τ2 h2
Ce qui montre que le passage du système du second ordre (8.12) au système du premier ordre (8.13)
n’est pas sans conséquence sur l’approximation.
191 Mathématiques 2
192 Analyse des équations aux dérivées partielles
(Id + τ K)U = b
(Id + τ K) = LLt
LY = b (8.25)
t
LU = Y (8.26)
Résultats expérimentaux
Comportement du schéma d’Euler explicite appliqué à l’équation de la diffusion :
Voir la figure 8.1. Le profil initial de température est parabolique. Pour un pas de temps τ plus petit
que 0.02 les résultats paraissent cohérents : la courbe de température est régulière, concave et décroît
vers 0. Pour un pas de temps de 0.02 une oscillation apparaît rapidement, puis la solution explose en
oscillant.
Analyse :
1
C’est la décomposition de Choleski, un sous-produit de la triangulation de la matrice A par la méthode du pivot de
Gauss. Voir ([8], [9], [2])
Ci-contre
Visualisation des 100 premières étapes, repré- Visualisation des 200 premières étapes, repré-
sentées de 10 en 10. sentées de 10 en 10.
Fixons L = 1 pour simplifier. Nous avons calculé (2.10) un développement en séries de Fourier de la
solution exacte X
u(x, t) = ak exp (−k 2 π 2 ct) sin (kπx)
k
1
d’où au point (jh, nτ ) avec h = N +1
X
u(jh, nτ ) = ak exp (−k 2 π 2 cnτ ) sin (kjπh)
k
On voit que les coefficients des différents harmoniques décroissent avec le temps, d’autant plus vite
que la fréquence est élevée.
On peut calculer (paragraphe 8.1.5) les vecteurs et valeurs propres de la matrice M
cτ π
Vk = sin kjπh, µk = 1 − 4 (sin (k h))2
h2 2
193 Mathématiques 2
194 Analyse des équations aux dérivées partielles
et donc X
Unj = Mn U0j = ck (µk )n Vk (8.27)
k
si hcτ2 1/2 toutes les valeurs propres µk sont plus petites que 1 en module, ce qui implique la
décroissance des coefficients de chaque vecteur propre. Mais si hcτ2 1/2,
cτ π cτ
µN = 1 − 4 (sin (N h))2 ∼ 1 − 4 2
h2 2 h
µN est inférieure à −1 et c’est la plus grande valeur propre, en valeur absolue. Le coefficient du
vecteur VN dans (8.27) domine tous les autres et il tend vers l’infini : comme le vecteur VN définit
une suite oscillante cela explique l’apparition des oscillations grandissantes sur la figure 8.1.
-2
0 20 40 60 80 100
0.5
-0.5
-1
0 50 100 150
0.5
-0.5
-1
0 50 100 150 200 250
décroît comme le montre le mouvement du point milieu. Avec le schéma des trapèzes il y a conserva-
tion de l’amplitude et on observe des irrégularités qui correspondent au passage des harmoniques de
fréquence élevées.
Équation de la diffusion
Nous avons vu (Prop. 59) que l’équation de la diffusion est dissipative, qu’en est-il des schémas ?
− Le schéma explicite s’écrit
cτ
Un+1 = Un − τ KUn = Un − K0 Un
h2
où K0 est une matrice symétrique définie positive (cf. 8.10). Il n’est pas toujours dissipatif pour le
produit scalaire canonique de RN , en effet
si on choisit pour Un un vecteur propre V de K0 de valeur propre λ > 0, le second membre s’écrit
c2 τ 2 2 cτ
(1 + λ − 2 2 λ)hV, Vi
h4 h
Le schéma est dissipatif si
cτ 2
2
<
h λ
On peut montrer (8.33) que λ < 4, ce qui conduit à la condition suffisante
cτ 1
<
h2 2
En examinant la formule de récurrence (8.20) on vérifie que sous cette condition un+1
j est une
moyenne des unj , ce qui implique la décroissance du maximum et la positivité des valeurs si les
valeurs initiales sont positives.
− Le schéma implicite s’écrit
Un+1 − τ KUn+1 = Un
Il est toujours dissipatif pour le produit scalaire canonique de RN , en effet, si nous prenons le carré
scalaire de chaque membre du schéma
195 Mathématiques 2
196 Analyse des équations aux dérivées partielles
L’étude de l’erreur dans une approximation d’un problème différentiel, se fait selon le schéma
général suivant :
− soit L(u) = f l’équation exacte d’un problème dont la solution est u ∈ V , L(u) étant une opération
linéaire, V un espace de fonctions,
− soit Lh (uh ) = fh l’équation obtenue par approximation du problème, en notant uh ∈ Vh la solution
de l’approximation, Vh étant un certain espace de dimension finie et h un paramètre qui représente
les pas de discrétisation et qui peut tendre vers 0,
− notons Πh (u), un représentant2 de u dans Vh dont on sait estimer, en un sens à préciser, la distance
à u et qui est telle que
lim (u − Πh (u)) = 0
h→0
Πh (u) est l’objet que l’on veut effectivement calculer, faute de pouvoir représenter u exactement.
Consistance
Pour étudier l’erreur d’approximation la première étape est de montrer que Πh (u) vérifie “presque”
l’équation approchée, c’est l’étude de la consistance de l’approximation,
Lh (Πh (u)) − fh = h
Lh (Πh (u) − uh ) = h
Stabilité
La seconde étape est de montrer que l’opérateur L−1
h est borné indépendamment de h, c’est à dire des
pas de discrétisation, ce qui implique
c’est l’étude de la stabilité de l’approximation. Dans certains cas la stabilité est soumise à des condi-
tions sur les pas de discrétisation, nous parlerons de stabilité conditionnelle. La consistance et la
stabilité implique donc, par définition, la convergence en un sens à préciser.
Résumé 4 La solution exacte d’une équation n’est solution que d’une perturbation du schéma d’ap-
proximation.
− L’étude de la consistance de l’approximation consiste à évaluer cette perturbation.
− L’étude de la stabilité de l’approximation consiste à montrer qu’une perturbation du schéma im-
plique une perturbation du même ordre de la solution de ce schéma indépendamment des pas de
discrétisation.
2
Le plus souvent par une interpolation.
197 Mathématiques 2
198 Analyse des équations aux dérivées partielles
Remarque 1 :
Il y a un point délicat dans ces définitions informelles : le choix de la norme. Pour la consistance il
faut comparer une fonction et son approximation qui a priori n’est pas dans le même espace. Pour la
stabilité on fait varier l’espace Vh et donc la norme avec lui ! L’utilisation de la norme k.k∞ résout ce
problème car elle revient à comparer les valeurs aux points de discrétisation, malheureusement elle
est peu pratique pour les calculs. On peut associer aux valeurs discrètes une fonction par interpolation,
de manière à n’avoir qu’à comparer des fonctions, ce qui peut se faire avec des normes usuelles sur
les fonctions. Si on utilise la norme de L2 ([0, T ]) pour comparer les fonctions et qu’on associe aux
suites unj des fonctions en escalier avec un pas h, on est conduit à munir Vh de la norme
v
u n √
u X
kuh k = th (unj )2 = hkUk2
j=1
Remarque 2 :
On peut être plus ou moins exigeant sur l’erreur commise dans une approximation : si la solution de
l’équation exacte admet un état limite, comme dans l’exemple de l’équation de la diffusion, il est na-
turel de chercher à avoir erreur petite pour tout temps t. Si la solution croît rapidement il est difficile
d’empêcher l’erreur de croître avec le temps. L’équation des ondes, où la solution a un comporte-
ment oscillatoire, pose plus de problèmes : il sera difficile d’obtenir une erreur faible sur un temps
long car un petit déphasage peut par exemple inverser les valeurs de la solution. Ce n’est pas grave
pour l’ingénieur étudiant un comportement vibratoire qui tolérera un déphasage de la solution, et qui
se contentera de pouvoir, par une transformation de Fourier de la solution, calculer des fréquences
d’oscillations avec une bonne précision. Mais c’est toute la difficulté des calculs pour les prévisions
météorologiques : le cultivateur qui attend la pluie pour ses plantations sera satisfait de savoir qu’il y
aura dans quatre jours une alternance de pluie et de soleil, mais le vacancier qui va à la plage et qui
a lu qu’il fera soleil de trois à cinq heures, maudira les mathématiciens et leurs calculs si le soleil ne
vient qu’à sept heures...
Erreur de consistance
Pour construire une approximation d’une équation aux dérivées partielles nous avons remplacé les
dérivées exactes par des différences finies. La solution exacte du problème continu n’est pas une solu-
tion du problème discrétisé, c’est à dire du schéma de récurrence, mais elle doit vérifier “à peu près”
le schéma avec une précision qui dépend des pas de discrétisation (h, τ ), sinon la solution du schéma
n’aurait aucune raison d’être proche de la solution exacte ! Nous allons étudier sur deux exemples la
précision à laquelle la solution exacte vérifie le schéma.
∂u τ 2 ∂2u
u(jh, (n + 1)τ ) = u(jh, nτ ) + τ (jh, nτ ) + (jh, nτ ) + ...
∂t 2 ∂t2
∂u h2 ∂ 2 u h3 ∂ 3 u h4 ∂ 4 u
u(j ± h, nτ ) = unj ± h (jh, nτ ) + (jh, nτ ) ± (jh, nτ ) + (jh, nτ ) + ...
∂t 2 ∂t2 3! ∂t3 4! ∂t4
Il vient, en tenant compte du fait que u est solution de (8.1),
un+1
j − unj c n n n τ ∂2u τ 2 ∂4u
− (u − 2u + u ) = (jh, nτ ) + (jh, nτ ) + ...
τ h2 j−1 j j+1
2 ∂t2 12 ∂x4
D’où, en faisant ce calcul pour toutes les équations
Un+1 − Un
− KUn = h,τ (8.28)
τ
avec
kh,τ k∞ ≤ M (τ + h2 )
Schéma des trapèzes pour l’équation de la diffusion La j ème équation de la récurrence s’écrit
un+1
j − unj c 1 n
− ((u − 2unj + unj+1 ) + (un+1 n+1
j−1 − 2uj + un+1
j+1 )) = 0
τ h2 2 j−1
On pose unj = u(jh, nτ ) où u(x, t) est la solution exacte de (8.1) et on fait une estimation du premier
membre de cette équation en faisant un développement limité (pour être rigoureux il faudrait faire un
développement de Taylor) de toutes les valeurs de u autour du point (jh, nτ ). En particulier
∂u 1 2 ∂ 2 u
un+1
j = unj + τ + τ + ...
∂t 2 ∂t2
On en déduit, après un calcul laborieux
kh,τ k∞ ≤ M (τ 2 + h2 )
199 Mathématiques 2
200 Analyse des équations aux dérivées partielles
Les calculs de cette récurrence sont sensibles aux perturbations et notamment aux erreurs de tronca-
ture. Ces erreurs de troncature sont propagées par les calculs ; elles peuvent décroître ou s’amplifier
et le coefficient d’amplification peut dépendre du pas de discrétisation. La propagation des erreurs est
aussi liée au comportement des solutions de la récurrence : la propagation des erreurs ne sera pas la
même selon que les solutions tendent vers 0 ou vers l’infini. Nous allons étudier ces phénomènes.
Effectuons une perturbation initiale de la récurrence :
U0 → U0 + δ 0
Unp est donc changé en Up n + δpn et, du fait de la linéarité, δpn est solution de la récurrence linéaire
Donc
δpn = Mnp δp0
Définition 42 − Un schéma de récurrence est fortement stable si l’erreur propagée tend vers 0.
− Un schéma de récurrence est asymptotiquement stable si l’erreur propagée est bornée à l’infini,
indépendamment des pas de discrétisation
∃C > 0 / ∀p ∀n kMnp k = C
− Un schéma de récurrence est stable si l’erreur propagée est bornée sur un intervalle fini [0, T ] (i.e.
∀k / τ ≤ T ) indépendamment des pas de discrétisation
La norme est à préciser. La première définition est intéressante pour les équations dissipatives, la
deuxième pour les équations conservatives, la dernière est tout ce qu’on peut espérer dans le cas
général.
Proposition 61 − Un schéma de récurrence est fortement stable si et seulement si toutes les valeurs
propres des matrices Mp sont de module strictement inférieure à 1. Ce sera en particulier le cas si
un schéma est dissipatif.
− Si les matrices Mp sont diagonalisables dans une base orthogonale pour un produit scalaire h., .i le
schéma de récurrence est asymptotiquement stable pour la norme du produit scalaire si et seulement
si les valeurs propres des matrices Mp sont de module inférieur ou égal à 1. Ce sera en particulier
201 Mathématiques 2
202 Analyse des équations aux dérivées partielles
Preuve
cτ 1
− Sous l’hypothèse h2
< 2 on a kMp k∞ ≤ 1 c’est à dire kMp Uk∞ ≤ kUk∞ . En effet, si d’après
(8.20), on a
cτ cτ 2cτ cτ
(Mp U)j = uj + (uj−1 − 2uj + uj+1 ) = 2 uj−1 + (1 − 2 )uj + 2 uj+1
h2 h h h
cτ 1
Donc si h2
< 2 tous les coefficients du second membre sont positif et de somme 1, donc
On en déduit
n
X
kδpn k∞ ≤ n−i
kMp k∞ τ kip k∞
i=1
kδpn k∞ ≤ M T (h2 + τ )
L’estimation n’est pas optimale (facteur T ) car nous ne tenons pas compte de la décroissance expo-
nentielle de la solution vers 0 qui fait que la constante M devient petite sur [t, +∞[. ♦
Un exemple
Considérons à nouveau le schéma d’Euler (8.20) pour l’équation de la diffusion (8.1). Vérifions
que les vecteurs Vk , 1 ≤ k ≤ N de composantes
π
Vk = (..., sin kj , ...)t
N +1
On a µk < 1, on veut |µk | < 1 pour avoir la stabilité du schéma (cf. 61) il faut donc
cτ π
1−4 2
sin2 (k ) > −1
h 2(N + 1)
et donc, en prenant k = N
cτ Nπ 1
2
sin2 ( )<
h 2(N + 1) 2
π
L’entier N tend vers l’infini quand le pas h tend vers 0, l’argument du sinus tend donc vers 2, la
condition de stabilité du schéma d’Euler explicite s’écrit finalement
cτ 1
2
<
h 2
En pratique on peut simplifier encore les calculs (et s’épargner la connaissance des formules de trigo-
nométrie !) en décomposant le sinus en exponentielles et en posant
π
Vk = (..., exp ikj , ...)t
N +1
on vérifie que ces vecteurs sont des vecteurs propres de la matrice K. Ils ne vérifient pas les conditions
aux limites mais des combinaisons de ces vecteurs les vérifient.
Remarque :
Si on itère un vecteur par multiplication par une matrice diagonalisable, à valeur propre positives, le
vecteur itéré devient asymptotiquement colinéaire au vecteur propre associé à la plus grande valeur
propre4 .
On en déduit que si hcτ2 < 12 (i.e. le schéma est stable) le vecteur associé à la plus grande valeur propre
est
π
V1 = (..., sin j , ...)t
N +1
3
On utilise la formule : cos θ = 1 − 2 sin2 θ2
4
Décomposer les vecteurs dans la base de vecteurs propres pour le vérifier.
203 Mathématiques 2
204 Analyse des équations aux dérivées partielles
qui correspond à l’harmonique fondamentale et à une fonction uh qui est concave : asymptotiquement
la fonction uh est donc concave, c’est le même comportement que l’équation exacte (voir 2.10). Mais
si hcτ2 > 12 le schéma est instable et le vecteur associé à la plus grande valeur propre est
π
VN = (..., sin N j , ...)t
N +1
qui correspond à une fonction uh qui asymptotiquement oscille sur un pas de discrétisation, d’où
l’apparition caractéristiques des oscillations dans les schémas instables.
On peut faire de cette analyse un principe informel : il n’est pas toujours facile de distinguer les insta-
bilités physiques des instabilités numériques d’autant que ces dernières apparaissent plus facilement
dans des problèmes naturellement instables, mais en règle générale :
“L’apparition d’oscillations ayant pour période le pas de discrétisation est un signe carac-
téristique d’instabilité numérique.”
On en déduit la méthode suivante pour étudier la stabilité d’un schéma aux différences finie (ici,
avec une seule variable d’espace, mais cela se généralise en dimension 2 ou 3) :
Résumé 5 Stabilité des schémas aux différences finies : critère de Von Neumann
Soit un schéma de récurrence obtenu par la méthode des différences finies dont l’inconnue est notée
unj , où unj est un scalaire ou un vecteur (pour les schémas à plusieurs inconnues).
− On cherche des solutions particulières de cette récurrence sous la forme de suites
unj = ank exp (2iπjkh)
où ank est est un scalaire ou un vecteur.
− Pour un schéma à 1 pas on vérifie que la suite ank est solution de la récurrence
an+1
k = G(h, τ )ank
où G(h, τ ) est un scalaire5 ou, pour les schémas vectoriels, une matrice. Si le schéma est une ré-
currence à 2 pas on peut la transformer en une récurrence vectorielle à un pas en introduisant une
variable auxiliaire.
− Pour les schémas scalaires il suffit de comparer |G(h, τ )| à 1 pour vérifier les conditions de stabi-
lité (61).
− Pour les schémas vectoriels il faut étudier le comportement des puissances successives de la ma-
trice G(h, τ ). Pour des matrices diagonalisables dans une base indépendante des pas, il suffit de
comparer les modules des valeurs propres de la matrice à 1.
Exemples
Schéma d’Euler implicite pour l’équation de la chaleur
Le schéma s’écrit (cf. (8.22))
un+1
j − unj c n+1
= (u − 2un+1 + un+1
j+1 )
τ h2 j−1 j
On substitue unj = an exp (2iπjkh) dans cette expression (on omet l’indice k de ank pour simplifier),
il vient en éliminant exp (2iπjkh)
an+1 − an c
= 2 an+1 (exp (−2iπkh) − 2 + exp (2iπkh))
τ h
d’où
2cτ n+1 2cτ
an+1 = an + 2
a (cos (2πkh) − 1) = an − 2 an+1 (sin2 (πkh))
h h
et
1
an+1 = 2cτ 2
an
1+ h 2 (sin (πkh))
Donc
1
G(h, τ ) = 2cτ <1
1+ h2
(sin2 (πkh))
Le schéma implicite est toujours fortement stable, ce que nous avons déjà montré puisque ce schéma
est dissipatif.
un+1
j − 2unj + ujn−1 c2 n+1
= (u − 2un+1 + un+1
j+1 )
τ2 h2 j−1 j
On substitue unj = an exp (2iπjkh) dans cette expression , il vient en éliminant exp (2iπjkh)
c2 τ 2
an+1 − 2(1 − 2 sin2 (πkh))an + an−1 = 0
h2
5
Dans ce cas an = G(h, τ )n et l’exposant n devient une puissance.
205 Mathématiques 2
206 Analyse des équations aux dérivées partielles
C’est une récurrence à deux pas que l’on peut ramener à une récurrence vectorielle à 1 pas, dont
l’étude revient au calcul des racines de l’équation caractéristique
c2 τ 2
x2 − 2(1 − 2 sin2 (πkh))x + 1 = 0
h2
Les racines de cette équation ont un produit égal à 1. Si elles sont réelles l’une des racines est supé-
rieure à 1 en module. Si elles sont complexes elles sont toutes deux de module 1 et le schéma est donc
asymptotiquement stable. Pour qu’elles soient complexes il faut que
c2 τ 2
sin2 (πkh) ≤ 1
h2
cτ
<1
h
C’est la condition de stabilité de ce schéma, dite “CFL” (pour Courant, Friedrich, Levy) dont nous
donnerons une interprétation une interprétation intuitive (cf. 8.61).
1.5
0.5
1.5
0.5
2.5
1.5
0.5
−0.5
20
15 40
10 30
20
5
10
0 0
u ∈ C 2 (Ω × [0, T ])
∂u
C ∂t − k∆u + cu = 0 si x ∈ Ω
∂u (8.34)
−k =0 si x ∈ Γ
∂n
u(x, 0) = u0 (x) si x ∈ Ω
207 Mathématiques 2
208 Analyse des équations aux dérivées partielles
(cf. 4.17), u0 (x) la température initiale ; k est la constante de diffusion, C la capacité calorifique de
la plaque. L’étude du régime permanent a été faite au chapitre 7 (cf. 7.1) (ici avec le second membre
q = 0, le régime permanent correspond à une température nulle).
Formulation semi-faible
Considérons un temps t fixé. L’équation (8.34) peut s’interpréter comme l’équation d’un problème
de diffusion en régime permanent
−k∆u + cu = q (8.35)
où le second membre q(x) est
∂u
q = −C
∂t
On peut définir une formulation faible de ce problème comme nous l’avons fait au chapitre 7. On
obtient ainsi la formulation semi-faible du problème qui est équivalente à la formulation initiale si la
solution u est suffisamment régulière. Soit V0 l’espace des fonctions v(x) continues C 1 par morceaux
sur le domaine Ω. En appliquant le théorème 24, l’équation (8.35) est équivalente6 à la formulation
faible
∂u
∀v ∈ V0 a(u, v) = −( , v) (8.36)
∂t
où nous avons posé Z
a(u, v) = hk ∇u, ∇vi + cuv dΩ
Ω
qui est une forme bilinéaire symétrique définie positive, et
Z
(u, v) = Cuv dΩ
Ω
(c’est à un facteur près le produit scalaire de L2 (Ω)). Le problème (8.34) est donc équivalent à la
formulation semi-faible
u ∈ C 2 (Ω × [0, T ])
∂u
∀v ∈ V0 ( , v) + a(u, v) = 0 (8.37)
∂t
u(x, 0) = u0 (x) si x ∈ Ω
On a donc, à t fixé
∂u
( , u) + a(u, u) = 0
∂t
On en déduit
∂ (u, u) ∂u
= ( , u) < 0
∂t 2 ∂t
7
Ce qui montre que l’équation est dissipative .
6 ∂u
Rappelons que, en particulier, la condition aux limites −k ∂n = 0 est devenue implicite : c’est une conséquence de la
formulation.
7
On peut obtenir plus car a(u, u) ≥ c(u, u), on en déduit après résolution de l’inéquation différentielle ∂g(t)
∂t
+2cg(t) ≤
0, où on a posé g(t) = (u, u),
(u, u) ≤ (u0 , u0 ) exp −2ct
Proposition 63 L’équation de la diffusion (8.34) est dissipative pour le produit scalaire (u, v).
Semi-discrétisation en espace
En reprenant tout le formalisme décrit au chapitre 7, paragraphe 7.2.4, on peut construire une
approximation de la formulation semi-faible par la méthode des éléments finis. La forme linéaire
L(v) est ici −( ∂u
∂t , v).
En appliquant la méthode de Ritz-Galerkin, toujours à t fixé, on approche u(x, t) par une fonction
uh (x, t) qui est dans Vh à t fixé et qui vérifie
uh (x, .) ∈ Vh
∂uh
∀v ∈ Vh ( , v) + a(uh , v) = 0 (8.38)
∂t
u (x, 0) = u (x) si x ∈ Ω
h 0
− On pose
U0 = (u0 (x1 ), ..., u0 (xi ), ..., u0 (xN ))t
le vecteur des températures initiales aux nœuds xi .
où la matrice K est la matrice de raideur définie au paragraphe (7.2.4) et la matrice M est la matrice
de masse, au coefficient près c’est la même que la matrice K̂ définie au paragraphe (7.2.5),
Z
Mi,j = Cwi wj dΩ
Ω
209 Mathématiques 2
210 Analyse des équations aux dérivées partielles
d dU
hMU, Ui = hM , Ui = −hKU, Ui < 0
dt dt
Discrétisation en temps
Il suffit de reprendre le paragraphe (8.1.2) pour construire l’approximation en temps et obtenir, par
exemple, les schémas de récurrence d’Euler explicite, implicite ou des trapèzes. Noter que le schéma
d’Euler “explicite”
Un+1 − Un
M = −KUn
τ
est ici implicite à cause de la matrice M ; cependant on peut sans inconvénient approcher M par
une matrice diagonale (technique dite de condensation de masse en calculant les intégrales qui la
définissent sur chaque triangle par la formule approchée qui utilise les trois sommets du triangle).
Propriétés qualitatives :
L’analyse du paragraphe (8.1.3) reste valide, mais les valeurs propres des matrices ne peuvent être
calculées analytiquement. On ne pourra donc pas préciser la condition sous laquelle le schéma d’Eu-
ler explicite est conservatif.
Analyse de l’erreur :
L’erreur de consistance (cf paragraphe 8.1.4) se ramène à l’erreur d’interpolation de la solution exacte
par une fonction continue affine par morceaux et elle peut être calculée comme au paragraphe 7.4.
Rappelons que l’erreur d’interpolation est sensible à certaines déformations du maillage et notamment
à la présence de triangles aplatis.
L’étude de la stabilité dépend des propriétés qualitatives des équations et des schémas : comme la
construction des schémas implique ici automatiquement certaines propriétés de conservation ou de
dissipation la stabilité est automatiquement obtenue pour des normes associées aux produits scalaires
conservés. En revanche, les estimations en norme infinie peuvent être difficile à obtenir sans propriété
forte du maillage. Ainsi l’estimation obtenue au paragraphe 62 par l’intermédiaire de la propriété de
décroissance du maximum peut être étendue aux maillages tels que les angles de tous les triangles
sont aigus.
Formulation semi-faible
On construit une formulation semi-faible comme nous l’avons fait pour l’équation de la diffusion
au paragraphe 8.2.1. Il vient
∂ (u, u) a(u, u)
( + )=0
∂t 2 2
Semi-discrétisation en espace
On construit une semi-discrétisation en espace comme nous l’avons fait pour l’équation de la
diffusion au paragraphe 8.2.1, en prenant pour espace d’approximation
Vh = {v ∈ Wh / v|Γ = 0}
211 Mathématiques 2
212 Analyse des équations aux dérivées partielles
uh (x, .) ∈ Vh
∂ 2 uh
∀v ∈ Vh ( 2 , v) + a(uh , v) = 0
∂t
(8.42)
uh (x, 0) = u0 (x) si x ∈ Ω
∂uh (x, 0) = 0 si x ∈ Ω
∂t
Le traitement des conditions de Dirichlet homogènes u|Γ = 0 se fait comme au paragraphe 7.3.1. En
choisissant d’éliminer les nœuds du bord on décompose uh dans la base wi
X
uh (x, t) = uj (t)wj (x)
j
en n’effectuant la somme que sur les nœuds intérieurs. En reportant cette expression dans (8.42) on
obtient un système différentiel linéaire du second ordre
d2 U
M 2 + KU = 0
dt
(8.43)
U(0) = U0
dU (0) = 0
dt
où la matrice K est la matrice de raideur, de coefficients
Z
Ki,j = a(wj , wi ) = σ∇wj · ∇wi dΩ
Ω
les indices parcourant les nœuds intérieurs. Les matrices K et M sont symétriques définies positives
par construction et le système conserve donc l’énergie
1 dU dU 1
hM , i + hKU, Ui = Cte (8.44)
2 dt dt 2
Discrétisation en temps
On peut directement discrétiser le système différentiel (8.43) ou bien, comme au paragraphe 8.15,
réécrire se système sous la forme d’un système du premier ordre à 2N inconnues dans l’espace des
phases en introduisant le vecteur vitesse
dU(t)
V(t) =
dt
Il vient
dU
=V
dt
dV = −M−1 K U
dt (8.45)
U(0) = U0
V(0) = 0
Ou encore en posant
X = (U, V)t ∈ R2N
il vient
dX
=AX
dt (8.46)
X(0) = (U0 , 0)t
On note hU, Vi le produit scalaire canonique sur RN et on définit sur R2N le produit scalaire
où nous avons décomposé les vecteurs X = (X1 , X2 )t ∈ R2N et Y = (Y1 , Y2 )t ∈ R2N en deux
vecteurs de RN . Noter que le carré scalaire X, X n’est pas autre chose que l’énergie définie par
la formule (8.44). D’après la proposition 8, on peut prévoir que la matrice A est antisymétrique par
rapport au produit scalaire qui définit l’énergie, puisque les solutions de (8.46) conservent l’énergie :
Preuve
Par définition de A
AX = (X2 , −M−1 KX1 )t
L’antisymétrie de la matrice découle de la relation
213 Mathématiques 2
214 Analyse des équations aux dérivées partielles
La méthode des éléments finis est en un certains sens plus générale que la méthode des diffé-
rences finies : si on considère des maillages réguliers on retrouve les approximations classiques par
la méthode des différences finies.
Par son principe même la méthode des éléments finis construit des matrices conservant les pro-
priétés des opérateurs différentiels et elle offre un traitement simple de conditions aux limites com-
plexes. Elle s’étend facilement au traitement de non linéarités.
Par son principe aussi elle permet un traitement systématique de l’erreur, au moins dans des si-
tuations pas trop compliquées, et surtout l’adaptation locale du pas du maillage pour améliorer ou
maintenir la précision.
La mise en œuvre de la méthode des éléments finis que nous avons présentée au chapitre 7 permet
de bien comprendre les avantages pratiques de cette méthode : le calcul des matrices peut être fait par
des programmes très généraux, faciles à modifier et pouvant traiter des géométries quelconques.
Il est cependant clair que si on discrétise sur des grilles on dispose d’informations plus précises
que l’on peut utiliser pour construire des schémas aux différences finies très performants.
Le principal défaut de la méthode vient de son principe même : dans la construction des approxi-
mations nous avons privilégié les propriétés de conservation globale. Cela convient bien à l’approxi-
mation des problèmes de diffusion, qui convergent vers un état limite, ou de dynamique où l’ingénieur
n’est pas intéressé par des valeurs ponctuelles mais par des grandeurs globales comme des fréquences
de vibration. Cela convient, a fortiori, à certains problèmes de dynamique (“crash”) où les forces
d’inertie sont secondaires et qui peuvent être traités comme une succession de problèmes de statique.
Mais cela ne convient pas du tout au traitement de problèmes de transport où des propriétés de conser-
vation locale sont essentielles notamment pour éviter la dispersion d’un signal localisé et ou le “local”
peut par transport avoir des conséquences globales.
8
Il suffit de songer aux prévisions météorologiques...
∂u ∂u
∂t + a ∂x = 0
x ∈]0, L[, t ∈]0, T [
(8.48)
u(x, 0) = u0 (x) x ∈]0, L[
u(0, t) = g(t) t ∈]0, T [
On notera que sans une condition de raccord en (0, 0) entre les données u0 (x) et g(t), la solution
peut faire un saut sur la droite x = at ce qui n’est pas cohérent avec la définition d’une équation aux
dérivées partielles... C’est l’un des nombreux problèmes que l’on rencontre en étudiant les équations
hyperboliques.
Par construction cette équation est équivalente à un principe de “conservation de la matière” : ce qui
entre à la vitesse (a, 1)t dans une partie quelconque de Ω en sort, autrement dit le flux du vecteur
u(x, t)(a, 1)t à travers un contour quelconque est nul.
L’analyse “énergétique” (cf. paragraphe 5.3.1) donne le résultat suivant
L L
u2 u2
Z Z
d ∂u
dx = − a u dx = −a[ ]L
dt 0 2 0 ∂x 2 0
et donc Z L
d
u2 dx + au(L, t)2 = ag(t)2 (8.51)
dt 0
215 Mathématiques 2
216 Analyse des équations aux dérivées partielles
Caractéristiques et invariants
Pour l’équation d’advection la propriété essentielle pour la suite est que les caractéristiques sont
les droites x − at = Cte et que sur ces droites la solution est constante.
1. Les problèmes elliptiques ou paraboliques ont une propriété très rassurante quand on construit
une approximation : les données, irrégularités ou perturbations locales n’ont qu’une influence
“locale”, c’est à dire négligeable à grande distance, même s’il est parfois difficile de quantifier
cela. Il est d’ailleurs fréquent d’utiliser des approximations par éléments finis localement très
fausses, par exemple parce qu’elles lissent des singularités ou du fait d’une simplification géo-
métrique brutale du modèle, sans conséquence sur la zone “intéressante” du calcul.
Dans les problèmes hyperboliques la conservation d’invariants sur les caractéristiques traduit
un phénomène de transport à longue distance, qui peut avoir avoir de grandes conséquences :
une tempête sur les côtes américaines peut créer une houle (ondes planes de l’équation des
ondes) qui peut traverser l’océan, atteindre les côtes européennes, puis se réfléchir sur diffé-
rentes parties de la côte et se focaliser en certains points pour créer localement des vagues
exceptionnellement hautes. Il faut donc construire des approximations qui non seulement sont
conservatives (l’énergie des vagues ne doit pas s’atténuer) mais en plus “non dispersives” (la
vague, si elle est courte et haute, ne doit pas s’étaler, se lisser). Et si en plus on veut déterminer
l’heure précise de la formation d’une vague exceptionnelle il faut que la vitesse de la vague
soit correctement calculée ! C’est essentiellement ce problème que nous allons aborder avec
l’approximation de l’équation d’advection.
2. Les problèmes elliptiques ou paraboliques sont régularisants : les seules discontinuités éven-
tuelles sont celles des données de l’équation. Non seulement ce n’est pas le cas pour les
problèmes hyperboliques, mais en plus les équations hyperboliques non linéaires font systé-
matiquement apparaître des chocs sur des temps longs et ces chocs se propagent et se réflé-
chissent... : la houle tranquille peut sous certaines conditions devenir une “déferlante”. Com-
ment construire des approximations qui modélisent des chocs ? L’approximation de fonctions
discontinues par des polynômes ou des séries de Fourier crée des oscillations locales ou lisse
les chocs selon les méthodes. Voir la séance d’exercices 8 pour la traitement de la plus simple
des équations non linéaires.
Données et notations
On reprend les notations et les méthodes du paragraphe (8.1.2) pour construire des approximations
en espace et en temps.
Notations
L
− On divise l’intervalle [0, L] avec un pas h = N .
− On définit les points de de discrétisation de coordonnées (xj , tn ) = (jh, nτ ). On divise l’intervalle
[0, T ] avec un pas τ .
− On discrétise la solution en ne calculant les valeurs de la solution qu’aux points (xj , nτ ), les
autres valeurs pourront être interpolées. On note unj les valeurs ainsi calculées. Sur le bord x = 0,
un0 = g(tn ).
− On note
Un = (un1 , ..., unj , ..., unN )t
Approximation en espace
Pour obtenir une équation au point (xj ) qui soit une approximation de l’équation aux dérivées par-
tielles on remplace l’équation aux dérivées partielles exacte par une approximation obtenue (comme
au paragraphe 8.1.2) en approchant les dérivées exactes en espace par des différences finies. On note
uj (t) les valeurs approchées en xj au temps t et on pose U(t) = (u1 (t), ..., uj (t), ..., uN (t))t . On
obtient les approximations
duj uj+1 (t) − uj (t)
décentré à droite ou aval : = −a
dt h
duj uj (t) − uj−1 (t)
décentré à gauche ou amont : = −a (8.52)
dt h
uj+1 (t) − uj−1 (t)
duj
symétrique ou centré :
= −a
dt 2h
Un développement limité montre que les deux premières approximations sont à h près, la troisième
à h2 près. Il est donc tentant de choisir des approximations centrées, nous verrons que ce n’est pas si
simple. Il faut aussi examiner le traitement des conditions au bord en x = 0, ou il faut imposer une
condition et en x = L où seule l’équation doit déterminer le schéma.
La solution exacte dépend des valeurs antérieures situées en amont de l’écoulement : cela permet
d’éliminer l’approximation décentrée à droite qui fait dépendre la dérivée des valeurs en aval10 .
L’approximation centrée pose un problème en x = L puisqu’elle fait intervenir un point extérieur ;
10
On vérifie facilement que les approximations en temps construites à partir de cette approximation en espace sont
instables et incohérentes avec les conditions aux limites
217 Mathématiques 2
218 Analyse des équations aux dérivées partielles
avec :
Approximation décentrée amont :
1 0 0 ... 0 0
−1 1 0 ... 0 0
a 0 −1 1 ... 0 0
A= (8.54)
h
... ... ... ... ... ...
0 0 0 ... 1 0
0 0 0 ... −1 1
et
a
b= (g(t), ..., 0, ..., 0)t
h
Approximation centrée :
0 1 0 ... 0 0
−1 0 1 ... 0 0
a 0 −1 0 ... 0 0
A= (8.55)
2h
... ... ... ... ... ...
0 0 0 ... 0 1
0 0 0 ... −2 2
et
a
b= (g(t), ..., 0, ..., 0)t
2h
d
U, Ui = −hhAU, Ui + ag(t)2
hh
dt
d 1 1
h ( hU, Ui) = −hh (A + At )U, Ui + au1 g(t)
dt 2 2
La matrice (A + At ) n’est autre, à un facteur ah près, que la matrice K0 de la formule (8.10),
2
qui est la matrice obtenue par discrétisation de l’opérateur de diffusion − ddxu2 (comme ce terme joue
11
On discrétise l’intégrale
R L
u2 dx ∼ h
Pu 2
j = hhU, Ui.
0 j
formellement le même rôle que la viscosité dans les écoulements, il est souvent appelé viscosité
numérique). En utilisant l’expression (8.11), il vient
d X
h hU, Ui = −a( (uj − uj−1 )2 + u21 + u2N ) + 2au1 g(t)
dt
j
d X
h hU, Ui + au2N = −a( (uj − uj−1 )2 + u21 − 2au1 g(t))
dt
j
X
= −a( (uj − uj−1 )2 + (u1 − g(t))2 )) + ag(t)2
j
Noter que
uj (t) − uj−1 (t) ∂u ah ∂ 2 u
a = a (xj , t) − (uj , t) + O(h2 ) (8.56)
h ∂x 2 ∂x2
L’erreur d’approximation fait apparaître au premier ordre la dérivée seconde, i.e. un terme de dissipa-
tion (ou de viscosité) que nous avons retrouvé ci-dessus. Plus précisément l’expression (8.56) montre
que l’approximation décentrée approche à h2 près l’équation
∂u ∂u ah ∂ 2 uj
+a =
∂t ∂x 2 ∂x2
ah
qui est une équation de convection diffusion avec un coefficient de diffusion 2 .
Approximation en temps
On utilise les formules analogues à (8.52) pour approcher la dérivée en temps ce qui conduit à
un schéma explicite ou implicite ou encore, en utilisant l’approximation centrée en temps, un schéma
“saute mouton”12 à deux pas. Nous allons analyser quelques exemples de schémas .
12
ou leap frog, en anglais...
219 Mathématiques 2
220 Analyse des équations aux dérivées partielles
pour le schéma centré, avec en plus x ≤ xj pour le schéma décentré amont. Si le cône de dépendance
numérique ne contient pas la caractéristique passant par le point (x, t) la solution calculée ne dépend
pas des mêmes valeurs que la solution exacte, le schéma est absurde (en pratique le schéma s’avère
instable). Pour le schéma décentré amont et le schéma centré, le cône de dépendance numérique
contient la caractéristique si hτ ≥ a, c’est à dire si on a la condition C.F.L.
aτ
≤1 (8.61)
h
((j+1)h,nτ)
(jh,nτ)
h ((j-1)h,nτ)
t
τ
((j+1)h,nτ)
(jh,nτ)
h ((j-1)h,nτ)
t
τ
Cette condition nécessaire n’est cependant pas suffisante pour rendre le schéma stable. Analysons
quelques exemples de schémas explicites.
Schéma d’Euler explicite décentré en amont :
La récurrence s’écrit
aτ n aτ n
un+1 = (1 − )u + u (8.62)
j
h j h j+1
Si la condition C.F.L. est vérifiée la nouvelle valeur un+1
j est une moyenne des anciennes, donc
n+1 n
supj |uj | ≤ supj |uj |.
221 Mathématiques 2
222 Analyse des équations aux dérivées partielles
aτ
Proposition 67 Sous la condition C.F.L. h ≤ 1 le schéma d’Euler explicite décentré en amont est
stable en norme infinie.
Mais ce schéma est à deux pas et il est à la limite de la stabilité puisque les coefficient d’amplification
sont de module 1.
Schéma d’Euler implicite centré
A priori les schémas implicites ne sont pas soumis à la condition C.F.L.. Voyons un exemple d’intérêt
d’un schéma implicite en étudiant la stabilité du schéma d’Euler implicite centré (8.59)
aτ n+1
un+1
j + (u − un+1 n
j−1 ) = uj
2h j+1
13
Elle a la curieuse propriété que les valeurs telles que j + n est pair se calculent indépendamment des valeurs telles
j + n est impair : un n
j et uj+1 sont donc calculées de façon totalement indépendante !
Il vient
aτ
ξ n+1 (1 − i sin (2πkh)) = ξ n
h
ce qui donne un facteur d’amplification (ou plutôt d’amortissement)
1
G(h, τ ) = (8.65)
1+ i aτ
h sin (2πkh)
Mais il est très dissipatif (voir fig. 8.8) puisque les hautes fréquences (k = N − 1) ont un facteur
d’amortissement de l’ordre q 1 aτ 2 en module.
1+
h2
1.2
0.8
0.6
0.4
0.2
−0.2
0 1 2 3 4 5 6 7 8 9 10
F IG . 8.8 – Schéma centré implicite : aplatissement de la gaussienne initiale (Doc. J.H. Saïac)
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0 1 2 3 4 5 6 7 8 9 10
223 Mathématiques 2
224 Analyse des équations aux dérivées partielles
1.2
0.8
0.6
0.4
0.2
−0.2
0 1 2 3 4 5 6 7 8 9 10
F IG . 8.10 – Schéma de Lax-Wendroff : la gaussienne initiale se conserve à peu près, mais on note
l’apparition d’oscillations et la perte de positivité (Doc. J.H. Saïac).
((j+1)h,nτ)
A
(jh,nτ) (jh,(n+1)τ)
G
B
x
((j-1)h,nτ)
t
τ
pose vérifiée la condition C.F.L : τha ≤ 1. On considère la droite caractéristique passant par le point
(jh, (n + 1)τ ). Elle coupe la droite t = nτ en un point G situé entre les points A = (jh, nτ ) et
B = ((j + 1)h, nτ ) (voir fig. 8.11). On définit une valeur approchée uG de u au point G par interpo-
lation linéaire entre les valeurs unj en A et unj−1 en B. Comme les valeurs de u(x, t) sont constantes
sur les caractéristiques on définit un+1
j
AG
= uG . On a AB = aτ aτ aτ
h et donc G = (1 − h )A + h B. On en
déduit par interpolation linéaire
aτ n aτ n
uG = (1 − )u + u
h j h j−1
D’où
aτ n aτ n
un+1 = uG = (1 − )u + u
j
h j h j−1
En utilisant la même idée, mais de façon plus symétrique, en calculant la valeur au point G par
interpolation entre les points A = ((j − 1)h, nτ ) et B = ((j + 1)h, nτ ) (voir fig. 8.12), on obtient le
schéma Lax Friedrichs
A
((j+1)h,nτ)
(jh,nτ) (jh,(n+1)τ)
G
B
x
((j-1)h,nτ)
t
τ
1 aτ n aτ n
un+1 = uG = ((1 − )uj+1 + (1 + )u )
j
2 h h j−1
qui se réécrit, avec une interprétation plus naturelle
un n
j−1 +uj+1
un+1
j − 2 unj+1 − unj−1
+a =0
τ 2h
Comme le schéma de Lax, le schéma est stable sous la condition C.F.L. par construction puisque l’in-
terpolation implique la décroissance en norme infinie. Il est plus précis que le schéma de Lax puisque
son ordre de consistance est O(τ + h2 ). Il ressemble au schéma explicite centré (8.58), instable, mais
un +un
nous l’avons rendu stable en remplaçant unj par j−1 2 j+1 .
Remarque : c’est l’interpolation linéaire entre deux valeurs qui rend dissipatifs les schémas construits
par cette méthode. Elle a en outre la propriété de créer des schémas qui respectent la positivité : Si
les valeurs initiales de la solution sont positives, elles restent positives comme dans l’équation exacte
(voir fig. 8.9).
un+1
j − unj unj+1 − unj−1
+a =0
τ 2h
225 Mathématiques 2
226 Analyse des équations aux dérivées partielles
Son ordre de consistance est en O(τ + h2 ). Un développement limité montre plus précisément que ce
schéma approche en O(h2 + τ 2 ) l’équation
∂u τ ∂ 2 u ∂u
+ +a =0
∂t 2 ∂t2 ∂x
Or l’équation d’advection implique
∂2u 2
2∂ u
= a
∂t2 ∂x2
donc, le schéma centré approche en O(h2 + τ 2 ) l’équation
∂u ∂u a2 τ ∂ 2 u
+a + =0
∂t ∂x 2 ∂x2
2 2
Nous faisons apparaître ainsi la cause de l’instabilité du schéma : du fait de son signe le terme a2τ ∂∂xu2
est l’opposé d’une dissipation ! En l’éliminant on améliore a priori la consistance et la stabilité. On
peut l’éliminer soustrayant au premier membre une approximation en espace de ce terme
τ ∂2u a2 τ n
∼ (u − 2unj + unj−1 )
2 ∂t2 2h2 j+1
Donc, par construction, le schéma de Lax-Wendroff
un+1
j − unj unj+1 − unj−1 a2 τ n
+a − 2 (uj+1 − 2unj + unj−1 ) = 0
τ 2h 2h
a une consistance en O(h2 + τ 2 ). On montre que ce schéma est stable au sens de Von Neumann
(cf. paragraphe 8.1.5) si la condition C.F.L. (8.61) est vérifiée. Mais ce schéma fait apparaître des
oscillations non physiques sur les chocs (voir fig. 8.10).
Stabilité
Une bonne approximation des phénomènes de transport implique de construire des méthodes nu-
mériques conservatives ; nous avons vu que les schémas de faible précision étaient ou instables ou
diffusifs. Mais les approximations d’ordre plus élevé et stables créent des oscillations sur les chocs.
Une analyse de Fourier permet de comprendre pourquoi : les schémas dissipatifs (Euler implicite
centré) amortissent les harmoniques hautes fréquences qui n’ont qu’un poids faible dans la décom-
position d’une fonction régulière. Les schémas conservatifs les laissent passer mais si on décompose
une fonction discontinue en séries de Fourier, les coefficients des hautes fréquences sont non négli-
geables et ces harmoniques apparaissent dans l’approximation. La solution générale pour stabiliser
des oscillations sans amortissement global est d’introduire de la diffusion (ou viscosité numérique)
juste là où c’est nécessaire.
Quelques extensions
Ce paragraphe se résume à quelques indications sur l’extension des principes que nous avons étu-
diés à des problèmes hyperboliques plus complexes que l’équation d’advection.
Équations plus générales à une variable d’espace
Le traitement d’une vitesse de transport a = a(x) variable n’a aucune conséquence sur les schémas
centrés et implique de définir le sens du décentrement vers l’amont pour les schémas décentrés. Le
respect de la condition C.F.L. sur une grille peut être très contraignant si la vitesse ne varie que très
localement.
Le traitement des systèmes hyperboliques linéaires à une variable d’espace est plus complexe :
− La construction des schémas par propagation d’invariants sur les caractéristiques (cf. paragraphe
5.3.1) se généralise par une décomposition locale sur une base de vecteurs propres, qui ramène l’in-
tégration à l’intégration sur un pas des équations d’advection.
− Le principe de décentrement admet diverses généralisations dont les “schémas de Roe”.
− Le traitement des problèmes non linéaires peut se faire par linéarisation locale ou par une méthode
d’intégration de solutions constantes par morceaux (“problème de Riemann”) qui sort du cadre de ce
cours. Voir l’exemple très simple de la séance 8.
Équations à plusieurs variables d’espace
− Diverses méthodes décomposent le problème de manière à se ramener à des problèmes à une va-
riable d’espace, d’où l’importance de ces problèmes.
− La présence de géométries complexes oblige à abandonner l’utilisation de grilles et à construire des
schémas sur des maillages non structurés en triangles ou en tétraèdres. Il faut étendre les méthodes
de calcul à ces maillages. La méthode des volumes finis repose sur l’utilisation, quand elles existent,
des lois de conservation équivalentes aux équations aux dérivées partielles (conservation de la masse,
de l’énergie, de la quantité de mouvement), combinée avec des approximation aux différences finies
pour évaluer les flux aux interfaces des éléments. Voir [5].
− La vérification de la condition C.F.L., quand les vitesses sont très variables, et le traitement des
chocs donnent un grand intérêt à l’utilisation de maillages adaptatifs qui suivent les écoulements et
s’adaptent aux chocs ; c’est une solution d’avenir qui est l’objet d’intenses recherches.
227 Mathématiques 2
228 Analyse des équations aux dérivées partielles
8.3.3 Conclusion
Pour traiter des problèmes d’élasticité, de thermique ou d’électromagnétisme on peut utiliser des
logiciels d’éléments finis plus ou moins efficaces mais qui, avec quelques précautions, conduisent
presque toujours à une solution raisonnable, laissant quand même à l’utilisateur le soin de juger de
la pertinence de son modèle et de la qualité des approximations. Ce qui permet à certains de vendre,
un peu aventureusement, des logiciels où il suffirait d’un “clic” pour visualiser le comportement phy-
sique d’une maquette numérique.
[1] On trouvera des liens et une bibliographie sur "[Link]", rubrique "Mathématiques
2" .
[2] B. Mohammadi, J.H. Saiac, Pratique de la simulation numérique, Dunod, 2003.
[3] P.J. Frey, P.L. George, Maillages, Hermes, 1999.
[4] D. Aubry, Mécanique des milieux continus, Cours de l’Ecole Centrale Paris, 2006.
[5] [Link], P.A. Raviart, Numerical approximations of conservation hyperbolic systems of
conservation laws, Springer Verlag, 1994.
[6] G. Dhatt, G. Touzot La méthode des éléments finis, Hermes, 1992.
[7] J.L. Batoz,G. Dhatt, Modélisation des structures par éléments finis, Hermes, 1992.
[8] W. Press,S. Teutolsky, W. Vetterling, P. Flannery, Numerical Recipes in C, 2e éd., Cambridge,
1992.
[9] P. Laurent-Gengoux et D. Trystram, Comprendre l’informatique numérique, Tec et Doc, Lavoi-
sier Edition, Paris : 1989
[10] J.F. Imbert, Analyse des structures par éléments finis, Cepadues, 1984.
[11] R. Dautray, J.L. Lions, Analyse mathématique et calcul numérique pour les sciences et les tech-
niques, Masson, 1984.
[12] P.G. Ciarlet, The Finite Element Method for Elliptic Problems , Northholland, 1978.
[13] J. Bass, Cours de mathématique, Masson, 1961.
229
Index
bifurcation, 18 espace
d’énergie finie, 146
cône de dépendance numérique, 220 de Sobolev, 146
calcul des variations, 23, 69
caractéristique flambement, 41, 108
(forme quadratique), 93 fonctions
(système), 121 à support compact, 139
caractéristiques analytiques, 79
(courbes), 83, 121 continues affines par morceaux, 159
(droites), 32, 34, 127 continues dérivables par morceaux, 158
230
INDEX 231
231 Mathématiques 2
232 Analyse des équations aux dérivées partielles
théorème
de Brouwer, 14
de Cauchy-Kovalevska, 78, 80, 114
de Lax-Milgram, 144
de Riesz, 145
tourbillons, 43
triangulation, 158
triangulation de Delaunay, 182
turbulence, 43
vecteur tourbillon, 43
viscosité numérique, 219
vitesse du son, 44