0% ont trouvé ce document utile (0 vote)
17 vues19 pages

Chap 1

Ce document présente un cours sur l'analyse numérique des équations aux dérivées partielles (EDP), en se concentrant sur les équations de Poisson, de la chaleur et de transport. Il aborde la formulation de ces équations, leurs propriétés, ainsi que les méthodes numériques pour les résoudre, notamment la discrétisation par différences finies. Le cours inclut également des exercices pour renforcer la compréhension des concepts abordés.

Transféré par

gggayves
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
17 vues19 pages

Chap 1

Ce document présente un cours sur l'analyse numérique des équations aux dérivées partielles (EDP), en se concentrant sur les équations de Poisson, de la chaleur et de transport. Il aborde la formulation de ces équations, leurs propriétés, ainsi que les méthodes numériques pour les résoudre, notamment la discrétisation par différences finies. Le cours inclut également des exercices pour renforcer la compréhension des concepts abordés.

Transféré par

gggayves
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

par Jean-Baptiste Lagaert

Maître de Conférences, Université Paris-Saclay

L3 EU
Analyse numérique pour les EDPs

Version du 14 janvier 2025


[email protected]

Laboratoire de Mathématiques d’Orsay,


Équipe ANEDP,
Université Paris-Saclay,
CNRS UMR 8628.

Merci à Filipa dont le cours a inspiré ces notes.


Table des matières

1 Equation de Poisson 7
1.1 Formulation de l’équation de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 L’équation de Poisson en dimension 1 d’espace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Discrétisation du problème de Poisson par la méthode des différences finies. . . . . . . . . . . . . . 10

2 Série de Fourier et application à l’équation de la chaleur en dimension 1 et 2 19


2.1 Série de Fourier : définition et propriétés fondemmentales . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Cas 1D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Equation de la chaleur 25
3.1 Formulation de l’équation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Etude en dimension 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

4 Schémas aux différences finies pour les problèmes d’évolution 29


4.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.2 Convergence, consistance, ordre et stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.3 Application à l’équation de diffusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.4 Application à l’équation de transport . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

5 Equation de transport 39
5.1 Equation de transport . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.2 Résolution dans un domaine borné . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.3 Equation avec terme source . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.4 Equation de conservation scalaire et transport non linéaire . . . . . . . . . . . . . . . . . . . . . . . 50

Bibliographie 55

3
TABLE DES MATIÈRES

Introduction
Pendant ce cours, nous allons étudier trois equations aux dérivées partielles (EDP) les plus classiques ainsi
que des méthodes numériques permettant d’approcher, à l’aide d’ordinateurs, leur solutions théoriques. Ces trois
EDPs seront les équations de Poisson, de la chaleur et de transport
Contrairement aux équations différentielles ordinaires (EDO) dont l’inconue est une fonction t ∈ R 7→ y(t) qui
dépend d’une unique variable réelle, les équations aux dérivées partielles sont des équations dont l’inconnue est
une fonction qui dépend de plus variables : pour l’équation de Poisson ce sera vectx ∈ Rd 7→ u(⃗x) et pour les
équations de la Chaleur et de transport, ce sera u : (t, ⃗x) ∈ R × Rd 7→ u(t, ⃗x). Généralement, t représentera le
temps et ⃗x ∈ Rd représentera la position spatiale. L’équation de Poisson est indépendante du temps et est dite
stationnaire ; à l’inverse un problème dépendant du temps est appelé problème d’évolution.
La théorie de Cauchy-Lipschitz ne sera plus valable ; aussi nous remontrerons pour ces équations l’existence et
l’unicité (ce dernier point est loin d’être évident pour les EDPs), quelques propriétés qualitatives. Nous étudierons
en parallèles les schémas aux différences finies pour discrétiser ces équations et les résoudre par ordinateurs et nous
démontrerons la convergence de ces méthodes (comme pour les EDOs il n’est en général pas possible de calculer
analytiquement la solution en dehors de quelques cas très simples).
Vous trouverez au fur et à mesure de ces notes des exercices. Vous êtes fortement conseillés de les faire.

Quelques exemples d’EDP classiques.


L’équation de Poisson et l’équation de Laplace.
L’équation de Poisson dans un domaine ouvert Ω ⊆ Rn est l’équation aux dérivées partielles
 ∂2u ∂2u 
− (x) + · · · + (x) = f (x), x ∈ Ω,
∂x21 ∂x2n

où u : Ω −→ R, x = (x1 , . . . , xn ) 7→ u(x1 , . . . , xn ), est une fonction inconnue et le terme source f est une fonction
définie sur Ω, continue, donnée.
Lorsque f = 0 cette équation s’appelle équation de Laplace.
L’équation de Poisson modélise des phénomènes stationnaires (qui n’évoluent pas avec le temps). Elle exprime
par exemple en physique le potentiel électrique engendré par une répartition de charges définie à partir de f. Elle
modélise aussi l’équilibre en temps long des phénomènes de diffusion décrits par l’EDP suivante.

L’équation de la chaleur.
L’équation de la chaleur dans R est l’équation aux dérivées partielles

∂u ∂2u
(t, x) − (t, x) = 0, t > 0, x ∈ R,
∂t ∂x2
où l’inconnue u : [0, +∞[×R −→ R, (t, x) 7→ u(t, x).
Cette équation modélise la diffusion de la chaleur en régime non stationnaire : elle décrit ainsi l’évolution en
temps et en espace de la température mais aussi de la concentration d’un polluant ou d’une espèce chimique ou
dans un fluide en l’absence de courant (il peut aussi s’agir d’un gaz dans l’air).

L’équation de transport.
L’équation de transport dans R est l’équation aux dérivées partielles.

∂u ∂u
(t, x) + v (t, x) = 0, t, x ∈ R,
∂t ∂x
où l’inconnue u : R × R −→ R, (t, x) 7→ u(t, x), et où la vitesse v, constante ou variable (fonction de (t, x)), est
donnée.
L’équation de transport modélise des phénomènes de transport (dans un fluide par exemple), par un courant
à vitesse v en l’absence de diffusion.
Il y a d’autres EDP. Par exemple l’équation des ondes, qui modélise la propagation d’une onde,

∂2u ∂2u
− = 0,
∂t2 ∂x2

4
TABLE DES MATIÈRES

et encore d’autres. . ..
On appelle ordre d’une EDP l’ordre de la dérivée d’ordre plus élevé intervenant dans l’équation. Dans les
exemples ci-dessus, les équations de Poisson, de la chaleur et des ondes sont d’ordre 2, l’équation de transport est
une équation d’ordre 1.
Toutes ces équations sont linéaires : elles dépendent linéairement de l’inconnue u.

5
TABLE DES MATIÈRES

6
Chapitre 1

Equation de Poisson

1.1 Formulation de l’équation de Poisson


∗ d 1 1
Q d ∈ N et Ω ⊆ R 2un ouvert borné à bord C (le bord de Ω peut être paramétré par une courbe C ) ou un
Soit
pavé ]ai , bi [. Pour u ∈ C (Ω), on définit son laplacien ∆u par :

∂2u ∂2u
∆u(x) := 2 (x) + · · · + (x).
∂x1 ∂x2d

Soit f : Ω −→ R une fonction continue donnée. L’équation de Poisson sur Ω avec condition limite de Dirichlet
homogène est l’équation : (
−∆u(x) = f (x), x ∈ Ω,
(1.1)
u(x) = 0, x ∈ ∂Ω.
où l’inconnue est une fonction u définie sur Ω à valeurs dans R.
Le laplacien, ou opérateur de Laplace, est un opérateur différentiel. C’est une application définie dans
l’espace C 2 (Ω), à valeurs dans C(Ω), qu’à une fonction u ∈ C 2 (Ω) fait correspondre la fonction ∆u ∈ C(Ω) définie
comme ci-dessus. La condition imposée en seconde ligne de (1.1) s’appelle condition limite. Ici, on impose la valeur
au bord : on parle de condition aux limites de Dirichlet.
Résoudre l’équation (1.1) dans l’ensemble Ω signifie chercher une fonction u définie sur Ω et à valeurs dans R,,
nulle au bord (pour satisfaire la condition limite) et deux fois continûment différentiable, vérifiant pour tout point
x ∈ Ω l’égalité ∆u(x) = f (x).

Exemple 1.1.1 (Dimension 1). Supposons d = 1, Ω =]a, b[, avec a, b ∈ R, et f une fonction constante C ∈ R
donnée. L’équation de Poisson s’écrit (
−u”(x) = C, x ∈]a; b[,
u(a) = 0 = u(b).
Ce n’est pas une EDO. Une EDO s’écrirait :

 −y”(x) = C, x ∈ Ω,

y(a) = 0,
 ′

y (a) = D.

Les solutions de cette EDO sont les fonctions de la forme


(x − a)2
y(x) = −C + D(x − a),
2
Ici si u la solution de l’équation de Poisson, alors pour D = u′ (a),u est solution de l’EDO. Il va donc falloir
chercher une solution de l’EDO (et donc une valeur de D) telle que y(b) = 0.
(x−a)2
On calcule y(b) = (b − a) × D − C b−a

2 ] et on en déduit l’unique valeur de D pour laquelle x 7→ −C 2 +
D(x − a) est solution de l’équation de Poisson.

Imposer des conditions limites change donc la nature de l’équation : même en dimension 1 ce n’est pas une
EDO mais un problème aux limites que l’on résout avec des techniques d’EDP. Ces conditions aux limites peuvent
être diverses :
— Condition de Dirichlet (non homogène) : u(x) = g(x), ∀x∂Ω,
∂u
— Condition de Neumann : on impose le flux au bord, c’est-à-dire ∂n = g(x).

7
CHAPITRE 1. EQUATION DE POISSON

∂u ∂u
Remarque. Si on note ∇u le vecteur dont la ième composante est ∂x i
, la dérivée normale s’écrit ∂n = ∇u · ⃗n avec
⃗n le vecteur normal sortant.
Pour les conditions de Neumann, si u est solution, u + C avec C constante l’est aussi. On impose généralement
en plus que la valeur moyenne de u soit nulle (donc que son intégrale sur Ω soit nulle).

1.2 L’équation de Poisson en dimension 1 d’espace.


Le modèle auquel on s’intéresse dans cette section est la version unidimensionnelle de (1.1), posée sur un
intervalle ouvert de R. On considère alors d = 1 et Ω un intervalle ouvert de R que l’on va supposer ]0, 1[, pour
simplifier les calculs.
x
Remarque. Si Ω = [a; b] on peut se ramener à l’intervalle [0; 1] avec le changement de variable x ↔ b−a + a. Il faut
alors remplacer f par (b − a)2 f .
On considère le problème aux limites pour l’équation de Poisson en dimension 1 d’espace, sur l’intervalle ]0, 1[,
avec conditions aux limites de Dirichlet homogènes
(
−u′′ (x) = f (x), x ∈]0, 1[,
(1.2)
u(0) = u(1) = 0,

où f ∈ C([0, 1]) est donnée.


On remarque que comme Ω =]0, 1[, son bord ∂Ω est l’ensemble {0, 1} et donc les deux équations u(0) = u(1) = 0
sont équivalentes à l’équation u = 0 sur ∂Ω. A nouveau, il ne s’agit pas d’un problème de Cauchy en raison de ces
conditions limites. Il s’agit certes d’une équation dont l’inconnue ne dépend que d’une variable, mais qui correspond
à la version unidimensionnelle de l’équation aux dérivées partielles (1.1).
Nous allons montrer par la suite :
— L’existence et l’unicité de solution de (1.2) ;
— Un résultat de régularité de la solution de (1.2) ;
— Un résultat de dépendance de la solution par rapport aux données.
Proposition 1.2.1 (Existence et unicité de solution de (1.2).). Soit f ∈ C 0 ([0, 1]). Alors le problème (1.2)
admet une unique solution u ∈ C 2 (]0, 1[), continue sur [0, 1], donnée par
Z 1 Z t  Z xZ t 
u(x) = x f (s) ds dt − f (s) ds dt. (1.3)
0 0 0 0

Démonstration. Partie 1: Existence et expression de la solution


On commence par montrer l’existence, en montrant que la fonction (1.3) est de classe C 2 sur ]0, 1[, continue
sur [0, 1] et est solution de (1.2).
Comme f est une fonction continue sur [0, 1], la fonction
Z t
t 7→ h(t) := f (s) ds
0

est continue sur [0, 1] et donc la fonction Z x


x 7→ h(t) dt
0
est continue sur [0, 1], différentiable sur ]0, 1[ et sa dérivée en un point x ∈]0, 1[ vaut h(x). On a donc que la
fonction u définie par (1.3) est continue sur [0, 1], différentiable sur ]0, 1[ et
Z 1Z t  Z x

u (x) = f (s) ds dt − f (t) dt, pour tout x ∈]0, 1[.
0 0 0
Rx
À nouveau, comme f est continue, x 7→ 0 f (t) dt est différentiable de dérivée x 7→ f (x), et on a alors que u′ est
différentiable sur ]0, 1[ et vérifie
u′′ (x) = −f (x), pour tout x ∈]0, 1[.
La fonction f étant continue, u est bien de classe C 2 sur ]0, 1[ et solution de l’équation −u′′ (x) = f (x) sur ]0, 1[.
On a par ailleurs u(0) = 0 et
Z 1 Z t  Z 1 Z t 
u(1) = f (s) ds dt − f (s) ds dt = 0.
0 0 0 0

8
1.2. L’ÉQUATION DE POISSON EN DIMENSION 1 D’ESPACE.

On a alors montré que u est une fonction de classe C 2 solution du problème (1.2).
Partie 2: Unicité
Supposons que u1 , u2 ∈ C 2 (]0, 1[), continues sur [0, 1], sont deux solutions de (1.2). Nous allons montrer que
u1 (x) = u2 (x) pour tout x ∈ [0, 1] et donc que u1 ≡ u2 . La fonction v := u1 − u1 vérifie

−v ′′ (x) = −(u′′1 (x) − u′′2 (x)) = f (x) − f (x) = 0,

pour tout x ∈]0, 1[, et v(0) = u1 (0) − u2 (0) = 0, v(1) = u1 (1) − u2 (1) = 0.
Comme v ′′ (x) = 0 pour tout x ∈]0, 1[, v est une fonction de la forme v : x 7→ Cx + D avec C, D des constantes
réelles. Comme v(0) = 0 on obtient D = 0, donc v(x) = Cx, pour tout x ∈ [0, 1]. Comme v(1) = 0 on obtient
C = 0 et donc v(x) = 0 pour tout x ∈ [0, 1]. On a alors u1 = u2 et la solution de (1.2) est alors unique.
Remarque. Si la fonction f est continue sur [0, 1], on peut montrer que la solution u de (1.2) donnée par (1.3) est
telle que sa dérivée u′ et sa dérivée d’ordre 2 u′′ sont continues sur [0, 1].

Exercice 1. [Et remarque - une autre manière de montrer l’unicité] Lorsque l’on a une équation linéaire,
une manière de montrer l’unicité de solution de l’équation est de procéder comme dans la preuve de la proposition
précédente : montrer que si l’on a deux solutions, alors elles sont égales. Une autre façon, une fois une solution u
connue, serait de montrer que toute autre solution est égale à u.
Soit alors ũ une solution de (1.2), continue sur [0, 1] et de classe C 2 sur ]0, 1[. En intégrant l’équation −ũ′′ (x) =
f (x) et en utilisant les conditions aux limites ũ(0) = ũ(1) = 0, montrer que ũ est égale à la fonction u définie par
(1.3).

Exercice 2. Montrer que la solution de (1.2) s’écrit également sous la forme


Z 1
u(x) = G(x, y)f (y) dy,
0

où la fonction G est définie par (


y(1 − x), 0 ≤ y ≤ x ≤ 1,
G(x, y) =
x(1 − y), 0 ≤ x ≤ y ≤ 1.
Pour le faire, remarquer que l’on peut écrire G(x, y) = x(1 − y) − χ[0,x] (y)(x − y) et écrire donc
Z 1 Z 1 Z x
G(x, y)f (y) dy = x (1 − y)f (y) dy − (x − y)f (y) dy.
0 0 0

La fonction G est appelée noyau de Green de l’opérateur de Laplace.

Nous montrons maintenant un résultat de régularité de la solution.


Proposition 1.2.2 (Régularité.). Soit k ∈ N∗ et supposons f ∈ C k ([0, 1]). Alors la solution u de (1.2) vérifie
u ∈ C k+2 ([0, 1]).
Démonstration.
−u′′ (x) = f (x), pour tout x ∈]0, 1[.
Si p ∈ {0, . . . , k}, on en déduit :

−u(p+2) (x) = f (p) (x), pour tout x ∈]0, 1[,

et donc u est de classe C k+2 dans [0, 1].


Nous montrons maintenant un résultat de dépendance de la solution par rapport à la donnée f .
Pour cela, on note, pour une fonction v ∈ C 2 ([0, 1]),

∥v∥C 2 ([0,1]) := max{∥v∥C([0,1]) , ∥v ′ ∥C([0,1]) , ∥v ′′ ∥C([0,1]) },

où, pour toute fonction w ∈ C([0, 1]),


∥w∥C([0,1]) := max |w(x)|
x∈[0,1]

(l’application ∥ · ∥C([0,1]) est la norme du sup (ou norme infinie) sur C([0, 1])).

9
CHAPITRE 1. EQUATION DE POISSON

Proposition 1.2.3. Il existe une constante C > 0 telle que pour tout f ∈ C([0, 1]), la solution u de (1.2) donnée
par (1.3) vérifie
∥u∥C 2 ([0,1]) ≤ C∥f ∥C([0,1]) .

Démonstration. Comme u est solution de (1.2) et que u′′ = −f est continue, on a, pour tout x ∈ [0, 1], −u′′ (x) =
f (x). On en déduit que
|u′′ (x)| = |f (x)| ≤ max |f (y)| = ∥f ∥C([0,1]) , ∀ x ∈ [0, 1],
y∈[0,1]

et donc que
∥u′′ ∥C([0,1]) = max |u′′ (x)| ≤ ∥f ∥C([0,1]) .
x∈[0,1]

On a par ailleurs que


Z 1 Z t  Z x
u′ (x) = f (s) ds dt − f (t) dt, ∀ x ∈ [0, 1],
0 0 0

et donc
Z 1 Z t  Z x Z 1 Z 1  Z 1

|u (x)| ≤ |f (s)| ds dt + |f (t)| dt ≤ |f (s)| ds dt + |f (t)| dt
0 0 0 0 0 0
Z 1 Z 1  Z 1
≤ ∥f ∥C([0,1]) ds dt + ∥f ∥C([0,1]) dt = 2∥f ∥C([0,1]) , ∀ x ∈ [0, 1].
0 0 0

On en déduit que
∥u′ ∥C([0,1]) ≤ 2∥f ∥C([0,1]) .
Finalement, comme
Z 1 Z t  Z x Z t 
u(x) = x f (s) ds dt − f (s) ds dt, ∀ x ∈ [0, 1],
0 0 0 0

on obtient Z 1 Z 1  Z 1 Z 1 
|u(x)| ≤ |f (s)| ds dt + |f (s)| ds dt ≤ 2∥f ∥C([0,1]) , ∀ x ∈ [0, 1],
0 0 0 0

et donc
∥u∥C([0,1]) ≤ 2∥f ∥C([0,1]) .
On obtient alors le résultat de la proposition en prenant C = 2.

Le résultat précédent montre que si l’on considère deux données f et f˜ proches, au sens où ∥f − f˜∥C([0,1]) ≪ 1,
alors les solutions u et ũ de (1.2), avec respectivement second membre f et f˜, sont proches, car ∥u − ũ∥C 2 ([0,1]) ≤
2∥f − f˜∥C([0,1]) ≪ 1. Il s’agit d’un résultat de stabilité de la solution par rapport aux perturbations de la donnée
f : la solution u de (1.2) est peu influencé par les perturbations de f . C’est une propriété importante du point
de vue numérique, car lorsque l’on simule sur ordinateur, des erreurs d’arrondi sont commises, donc la donnée
numérique f˜ ne correspond pas en général à la donnée exacte f mais à sa valeur affectée d’une petite erreur.
Pour finir cette section, on fait une remarque sur une dernière propriété des solutions de l’équation de Poisson
(1.2) que l’on retrouvera aussi au niveau discret : si f est une fonction positive sur [0, 1], alors la solution u de
(1.2) est aussi positive sur [0, 1]. Ceci est une conséquence immédiate de la formule de u donnée par le noyau de
Green G à l’exercice 1.2.2, car on a G(x, y) ≥ 0, ∀ x, y ∈ [0, 1]. Ce résultat est connu sous le nom de principe
du maximum.

1.3 Discrétisation du problème de Poisson par la méthode des diffé-


rences finies.
Dans cette section, on s’intéresse à la discrétisation du problème (1.1), par la méthode des différences finies.
Discrétiser consiste à remplacer le problème continu par un problème discret ; c’est ce problème discret que l’on
pourra résoudre en un nombre fini d’opérations à l’aide d’un ordinateur.
Nous allons détailler la méthode et la preuve de la convergence vers la solution du problème continu (1.1)
dans le cas 1D mais cette méthode fonctionne aussi en dimension plus grande (et la preuve de la convergence
s’adapte, mais reste similaire). Par la suite, on notera ψ la solution exacte de (1.1) pour lever toute ambiguïté avec
la solution approchée.

10
1.3. DISCRÉTISATION DU PROBLÈME DE POISSON PAR LA MÉTHODE DES DIFFÉRENCES FINIES.

Le principe de la méthode des différences finies est d’approcher la solution ψ d’une équation différentielle en
un ensemble discret de points du domaine de Ω. Pour cela, les dérivés de u en ces points sont approchés par des
quotients de différences finies qui les approchent. L’origine de la méthode repose sur la définition de dérivée en un
point : on a pour une fonction u d’une seule variable que sa dérivée en un point x de son domaine vérifie
ψ(x + h) − ψ(x) ψ(x) − ψ(x − h) ψ(x + h) − ψ(x − h)
ψ ′ (x) = lim = lim = lim = ...,
h→0 h h→0 h h→0 2h
et on peut donc approcher ψ ′ (x) par les quotients
ψ(x + h) − ψ(x) ψ(x) − ψ(x − h) ψ(x + h) − ψ(x − h)
, , ,...,
h h 2h
avec h « petit ».
En écrivant la dérivée seconde comme la dérivée de la dérivée et en utilisant ces quotients pour ces deux
dérivations, on en déduit :
Proposition 1.3.1. Pour toute fonction g quatre fois différentiable sur Ω et continue sur Ω il existe une constante
C telle que pour tout x ∈ Ω, pour tout h > 0 tel que x − h, x + h ∈ Ω, l’égalité suivante est vraie :
g(x + h) − 2g(x) + g(x − h) C
g”(x) − ⩽ 4 (1.4)
h2 h
Démonstration. L’inégalité de Taylor-Lagrange indique qu’il existe une constante C̃ telle que sous les hypothèses
de la proposition :

h2 h3 (3)
g(x + h) = g(x) + hg ′ (x) + g”(x) + g (x) + R4 (x, h)
2 6
h2 h3 (3)
g(x − h) = g(x) − hg ′ (x) + g”(x) − g (x) + R4 (x, −h)
2 6
avec R4 le reste d’ordre 4 du développement de Taylor qui vérifie : R4 (x, ±h) ⩽ C̃h4 .
On en déduit :
g(x + h) − 2g(x) + g(x − h) 1
g”(x) − 2
= 2 R4 (x, h) + R4 (x, −h) ⩽ 2C̃h2
h h

1.3.1 La méthode des différences finies pour le problème (1.2).


L’idée de la méthode des différences finies pour calculer une solution approchée du problème aux limites pour
l’équation de Poisson (1.2) est le suivant : on commence par discrétiser l’intervalle Ω =]0, 1[. Cela signifie que l’on
remplace ]0, 1[ par un ensemble discret (fini) de points. On ne choisit pas n’importe quel ensemble de points dans
]0, 1[, on cherche à remplacer le domaine continu ]0, 1[ par un ensemble discret, mais représentatif, de points de ce
domaine. On ne résout pas ensuite l’équation −u′′ (x) = f (x), mais on remplace la dérivée u′′ (x) aux points de la
discrétisation par le quotient de différences finies que l’on a vu ci-dessus. On verra que cela conduit à remplacer
l’équation −u′′ (x) = f (x) aux points de la discrétisation par un système d’équations linéaire, correspondant à un
système d’équations aux différences finies vérifiées par des valeurs approchées de la solution u aux points de la
discrétisation.
On décrit maintenant rigoureusement la méthode.

1.3.1.a Discrétisation de Ω = [0, 1]


On se donne M ∈ N∗ (grand), et on considère un ensemble discret de M +2 points équi-repartis dans l’intervalle
[0, 1]. Pour cela, on pose
1
h=
M +1
et on considère les M + 2 points
xj = jh, j = 0, . . . , M + 1.
Le réel h s’appelle le pas de la discrétisation. On a alors remplacé l’intervalle [0, 1] par l’ensemble discret de
points {xj , j = 0, . . . , M + 1}. Les points xj partitionnent l’intervalle [0, 1] en M + 1 sous-intervalles de longueur
h. On dit qu’on a considéré une discrétisation uniforme de l’intervalle [0, 1] de pas h.
Plus M est grand, plus h est petit et plus il y a de points dans la discrétisation.

11
CHAPITRE 1. EQUATION DE POISSON

1.3.1.b Calcul d’une solution approchée u


Soit ψ ∈ C 2 ([0, 1]) la solution du problème (1.2). On cherche à calculer des valeurs approchées, notées uj , de la
solution aux points xj ,. Autrement dit, on cherche uj ∈ R, pour j = 0, . . . , M + 1, tel que uj ≃ ψ(xj ).
La proposition 1.3.1 indique que l’on peut approcher ψ”(x) par le quotient de différences finies

ψ(x + h) − 2ψ(x) + ψ(x − h) uj+1 − 2uj + uj−1


≃ .
h2 h2
Comme ψ”(xi ) = f (xi ) pour 0 < i < M +1 et que ψ(x0 ) = 0 = ψ(xM +1 ), on cherche U (h) = (u1 , u2 , . . . , uM +1 )
comme la solution de : (
u −2u +u
− j+1 h2j j−1 = f (xi ), 0 < i ⩽ M,
(1.5)
u0 = 0 = uM +1

La méthode des différences finies pour approcher la solution du problème (1.2) consiste alors à résoudre, dans
RM +1 , le système linéaire à M + 2 équation (1.5), pour M grand fixé. Il existe différents algorithmes (dont le pivot
de Gauss) qui permettent de résoudre ce problème par ordinateur et en temps fini.
Posons Ũ (h) = (u1 , . . . , uM )T et soit Ah la matrice :
 
−2 1 0 ··· 0
1
 −2 1 ··· 0 

0
1  1 −2 ··· 0 
Ah = − 2  .  ;

.. .. .. ..
h  .. . . . . 
 
0 ··· 1 −2 1
0 ··· 0 1 −2

Le problème (1.5) se ré-écrit :


(
Ah Ũ (h) = (f (xi ))1⩽i⩽M ,
(1.6)
u0 = 0 = uM +1
T 1
Par la suite, on notera F (h) ∈ RM est le vecteur f (x1 ), . . . , f (xM ) , avec xj = jh, j = 1, . . . , M, h = M +1 .

1.3.2 Analyse de la méthode des différences finies.


On va dans ce paragraphe montrer que :
— Le problème discret (1.5), ou, ce qui est équivalent, le problème (1.6), est bien posé : nous allons montrer
qu’il existe une et une unique solution du système linéaire Ah U
e (h) = F (h) ;

— La solution U (h) = (u0 , . . . , uM +1 ) du problème discret (1.5) approche la solution ψ du problème continu
(1.2) au sens suivant :
 
lim max |ψ(xj ) − uj | = 0,
h→0 j=0,...,M +1

autrement dit
lim ∥eh ∥∞ = 0,
h→0


eh = (ψ(x0 ) − u0 , . . . , ψ(xM +1 ) − uM +1 ) ∈ RM +2
est l’erreur entre la solution exacte et la solution approchée, associée à la discrétisation de pas h.

1.3.2.a Le problème est bien posé


Commençons par montrer le premier point, en montrant que le système linéaire (Sh ) admet une unique solution.
C’est une conséquence du résultat qui suit.

Proposition 1.3.2. La matrice Ah du système linéaire est inversible. Il existe alors un unique vecteur U e (h) ∈ RM
solution de Ah Ue (h) = F (h) et donc un unique vecteur U (h) = (u0 , u1 , . . . , uM +1 ) ∈ RM +2 solution de (1.6) ou, ce
qui est équivalent, de (1.5).

12
1.3. DISCRÉTISATION DU PROBLÈME DE POISSON PAR LA MÉTHODE DES DIFFÉRENCES FINIES.

Démonstration. On montre que la matrice h2 Ah est symétrique définie positive, c’est-à-dire que (h2 Ah X|X) > 0,
pour tout X ∈ RM , X ̸= 0. Comme on a h2 > 0, cela montre que la matrice Ah est aussi symétrique définie
positive donc inversible (car toutes ses valeurs propres sont strictement positives et 0 n’est donc pas une valeur
propre de Ah ).
On a  
2 −1 0 ··· 0
−1 2 −1 ··· 0
 
 0 −1 2 ··· 0
2
h Ah =  . ..  .
 
 .. .. .. ..
 . . . . 

 0 ··· −1 2 −1
0 ··· 0 −1 2
Soit X = (X1 , . . . , XM ) ∈ RM . Alors

(h2 Ah X|X) =

= (X1 , . . . , XM )|(2X1 − X2 , −X1 + 2X2 − X3 , . . . , −XM −2 + 2XM −1 − XM , −XM −1 + 2XM )
= (2X1 2 − X1 X2 ) + (−X1 X2 + 2X2 2 − X2 X3 ) + (−X2 X3 + 2X3 2 − X3 X4 )
+ · · · + (−XM −1 XM + 2XM 2 )
= X1 2 + (X1 2 − 2X1 X2 + X2 2 ) + (X2 2 − 2X2 X3 + X3 2 ) + · · · + (XM −1 2 − 2XM −1 XM + XM 2 )
+ XM 2
= X1 2 + (X1 − X2 )2 + (X2 − X3 )2 + · · · + (XM −1 − XM )2 + XM 2 .

On a alors (h2 Ah X|X) ≥ 0 et (h2 Ah X|X) = 0 si et seulement si

X1 2 = (X1 − X2 )2 = (X2 − X3 )2 = · · · = (XM −1 − XM )2 = XM 2 = 0

ssi
X1 = (X1 − X2 ) = (X2 − X3 ) = · · · = (XM −1 − XM ) = XM = 0
ssi
X1 = X2 = X3 = · · · = XM −1 = XM = 0,
autrement dit ssi X = 0. Donc (h2 Ah X|X) > 0, pour tout X ̸= 0.

1.3.2.b Convergence vers la solution exacte

lim ∥eh ∥∞ = 0.
h→0

On a
∥eh ∥∞ = max |ψ(xi ) − ui | = max |ψ(xi ) − ui |,
i=0,...,M +1 i=1,...,M

car ψ(x0 ) = 0 = u0 et ψ(xM +1 ) = ψ(1) = 0 = uM +1 .


On note eeh le vecteur de RM (ψ(x1 ) − u1 , . . . , psi(xM ) − uM ) ; il vérifie ∥eh ∥∞ ∥eh ∥∞ . Nous allons d’abord
étudier la quantité Ah eeh :
   
ψ(x1 ) u1
Ah eeh = Ah  ...  − Ah  ... 
   

ψ(xM ) uM

= Ah ψ(xi ) 1⩽i⩽M − F (h) car Ah Ũ (h) = F (h)
 
= Ah ψ(xi ) 1⩽i⩽M + ψ”(xi ) 1⩽i⩽M car f (xi ) = −ψ”(xi ) pour 0 < i ⩽ M
 
i )+ψ(xi −h)
= ψ”(xi ) − ψ(xi +h)−2ψ(x
h2 car ψ(x0 ) = 0 = ψ(xM +1 )
1⩽i⩽M

Sous l’hypothèse ψ ∈ C 4 , la proposition 1.3.1 fournit l’existante d’une constante C indépendante de M et h


telle que ∥Ah eeh ∥∞ ⩽ Ch2 .
Comme Ah est inversible, on a alors :

∥eeh ∥∞ = ∥A−1 −1
h Ah eeh ∥∞ ⩽ ∥Ah ∥∥Ah eeh ∥∞

13
CHAPITRE 1. EQUATION DE POISSON

où, pour une matrice M , ∥M ∥∞ est la norme matricielle sur MM (R) subordonnée à la norme ∥ · ∥∞ sur RM , qui
est définie par
∥M x∥∞
∥M ∥∞ = sup , pour tout M ∈ MM (R).
x∈R , x̸=0 ∥x∥∞
n

Nous allons montrer que ∥A−1 h ⩽ 1/8. Nous aurons alors démontré, sous l’hypothèse que la solution u de (1.2)
est de classe C 4 sur [0, 1] que :
C
∥eeh ∥∞ ≤ h2 ,
8
pour tout h, et donc que
lim ∥eh ∥∞ = lim ∥eeh ∥∞ = 0.
h→0 h→0

Montrons maintenant que :


Proposition 1.3.3. La matrice Ah vérifie
1
.∥(Ah )−1 ∥∞ ≤
8
Pour montrer cette proposition, nous allons utiliser le lemme suivant que nous démontrerons ensuite :
Lemme 1.3.4 (Principe du maximum discret.). Soit U ∈ RM et V = Ah U . Supposons que Vi ≥ 0 (respectivement
Vi ≤ 0), pour tout i ∈ {1, . . . , M }. Alors Ui ≥ 0 (respectivement Ui ≤ 0), pour tout i ∈ {1, . . . , M }.
Remarque. Le lemme précédent permet de donner une preuve alternative de l’inversibilité de la matrice Ah :on en
déduit que si U ∈ RM est tel que Ah U = 0, alors U = 0.
Démonstration de la proposition 1.3.3.
On rappelle :
n
∥(Ah )−1 x∥∞ X
∥(Ah )−1 ∥∞ := sup = max [(Ah )−1 ]ij .
x∈Rn , x̸=0 ∥x∥∞ i=1,...,M
j=1

On va commencer par montrer que [(Ah )−1 ]ij ≥ 0, pour tous i, j ∈ {1, . . . , M }. Soit, pour i ∈ {1, . . . , M }, ei le
ième vecteur de la base canonique de RM . On note Ui ∈ RM le vecteur Ui = (Ah )−1 ei . On a :

Ui = (Ah )−1 ei = [(Ah )−1 ]1i , . . . , [(Ah )−1 ]M i .




Comme Ui = (Ah )−1 ei , on a Ah Ui = ei . Or Ah Ui j = (ei )j ≥ 0, pour tout j ∈ 1, . . . , M . On peut donc




conclure, par le lemme précédent, que (Ui )j ≥ 0, pour tout j ∈ 1, . . . , M , c’est-à-dire que [(Ah )−1 ]ji ≥ 0, pour
tout j ∈ 1, . . . , M . Cette propriété étant valable pour tout i ∈ 1, . . . , M , on conclut que [(Ah )−1 ]ij ≥ 0, pour tous
i, j ∈ {1, . . . , M }.
On en déduit :
X n
∥(Ah )−1 ∥∞ = max [(Ah )−1 ]ij .
i=1,...,M
j=1

Soit maintenant e ∈ RM tel que ei = 1, pour tout i ∈ {1, . . . , M } : e = (1, . . . , 1). On a


  n
X
(Ah )−1 e = [(Ah )−1 ]ij , pour tout i ∈ {1, . . . , M }.
i
j=1

On en déduit que
n
X  
max [(Ah )−1 ]ij = max (Ah )−1 e = max Gi ,
i=1,...,M i=1,...,M i i=1,...,M
j=1

où l’on a noté G ∈ RM le vecteur G = (Ah )−1 e. Or le vecteur G vérifie Ah G = e. On a donc, d’après la définition
de la matrice Ah , que les coordonnées du vecteur G sont solution du système de M équations
1
− (Gi+1 − 2Gi + Gi−1 ) = 1, pour tout i ∈ {1, . . . , M },
h2
où l’on définit G0 = 0 et GM +1 = 0.
Soit le problème aux limites (
−u′′ (x) = 1, x ∈]0, 1[,
(P̃ )
u(0) = u(1) = 0.

14
1.3. DISCRÉTISATION DU PROBLÈME DE POISSON PAR LA MÉTHODE DES DIFFÉRENCES FINIES.

2
La solution de (P̃ ) est la fonction ũ(x) = − x2 + x2 . Comme ũ est un polynôme de degré 2, ces dérivées d’ordre
supérieures ou égale à 3 sont nulles et donc les restes d’ordre 4 dans les formules de Taylor sont nuls. Il y a donc
˜ et l’approximation par différences finies que nous avons choisie :
égalité entre u”

1
ũ(xi+1 ) − 2ũ(xi ) + ũ(xi−1 ) = ũ′′ (xi ) = −1, pour tout i ∈ {1, . . . , M }.

h2

Autrement dit (ũ(x1 ), . . . , ũ(xM )) est la solution G du système linéaire Ah G = e. On a ainsi :

x2 x
G = (ũ(x1 ), . . . , ũ(xM )), où ũ(x) = − + , x ∈ R,
2 2
1 1
max Gi = max ũ(xi ) ≤ max ũ(x) = ũ = .
i=1,...,M i=1,...,M x∈[0,1] 2 8


Montrons maintenant le principe du maximum discret :
Démonstration du lemme 1.3.4.
Soit U = (U1 , . . . , UM ) ∈ RM tel que V = Ah U vérifie Vi ≥ 0, pour tout i ∈ {1, . . . , M }, i.e., (Ah U )i ≥ 0, pour
tout i ∈ {1, . . . , M }. On a alors aussi (h2 Ah U )i ≥ 0, pour tout h > 0, pour tout i ∈ {1, . . . , M }. Or
 
2 −1 0 ··· 0
−1 2 −1 ··· 0 
 
0 −1 2 ··· 0 
2
h Ah =  . .
 
.. .. .. ..
 .. . . . . 
 
0 ··· −1 2 −1
0 ··· 0 −1 2

On va montrer que
min Ui ≥ 0,
i=1,...,M

ce qui implique Ui ≥ 0, pour tout i ∈ {1, . . . , M }.


Soit i0 ∈ {1, . . . , M } tel que Ui0 = min Ui . Montrons que Ui0 ≥ 0. On va distinguer les trois cas i0 = 1, i0 =
i=1,...,M
M et 1 < i0 < M .
Si i0 = 1, on a Ui ≥ U1 , pour tout i ∈ {1, . . . , M }. Comme (h2 Ah U )1 ≥ 0, on obtient que 2U1 − U2 =
U1 + (U1 − U2 ) ≥ 0, c’est-à-dire que U1 ≥ U2 − U1 . Comme U2 − U1 ≥ 0, on obtient U1 = Ui0 ≥ 0.
Si i0 = M , on fait le même raisonnement que dans le cas i0 = 1 (en exploitant cette fois-ci la propriété
(h2 Ah U )M ≥ 0) pour montrer que Ui0 = UM ≥ 0.
Si 1 < i0 < M , on a Ui ≥ Ui0 , pour tout i ∈ {1, . . . , M }. Comme (h2 Ah U )i0 ≥ 0, on obtient que

2Ui0 − Ui0 −1 − Ui0 +1 = (Ui0 − Ui0 −1 ) + (Ui0 − Ui0 +1 ) ≥ 0.

Comme Ui0 ≤ Ui0 −1 et Ui0 ≤ Ui0 +1 , on conclut que Ui0 − Ui0 −1 = Ui0 − Ui0 +1 = 0, c’est-à-dire que Ui0 = Ui0 −1 =
Ui0 +1 . Par récurrence on obtient que Ui0 = Ui0 −1 = · · · = U1 . On est alors dans le premier cas (le minimum des
Ui est atteint en i = 1) et on a alors Ui0 = U1 ≥ 0. □
On peut finalement énoncer un théorème final, sur la convergence de la méthode des différences finies pour le
problème (1.2), que l’on vient de monter.

Théorème 1.3.5 (Convergence de la méthode des différences finies.). Soit f ∈ C 2 ([0, 1]) et soit u ∈ C 4 ([0, 1])
la solution du problème (1.2). Pour chaque M ∈ N, soient h = M1+1 , xj = jh, j = 0, . . . , M + 1, et Uh =
(u0 , u1 , . . . , uM +1 ) ∈ RM +2 la solution approchée de (1.2) obtenue par la méthode des différences finies, c’est-à-
dire la solution du problème discret (1.6). Alors
 
lim max |u(xj ) − uj | = 0.
h→0,h= M1+1 j=0,...,M +1

On a en plus qu’il existe une constante C > 0, indépendante de h, tel que

max |u(xj ) − uj | ≤ Ch2 .


j=0,...,M +1

15
CHAPITRE 1. EQUATION DE POISSON

Remarque. Si on suppose f seulement continue, on peut encore montrer que


 
lim max |u(xj ) − uj | = 0,
h→0 j=0,...,M +1

mais on n’a plus l’estimation max |u(xj ) − uj | ≤ Ch2 .


j=0,...,M +1
Remarque. La méthode des différences finies s’adapte facilement à un problème aux limites pour l’équation de
Poisson dans un intervalle ]a, b[⊆ R, avec des conditions aux limites de Dirichlet non homogènes :
(
−u′′ (x) = f (x), x ∈]a, b[,
u(0) = ua , u(b) = ub ,
où ua , ub ∈ R sont donnés. Pour ce faire, pour un entier M ∈ N∗ donné :
b−a
— On construit une discrétisation uniforme de l’intervalle [a, b] de pas h = M +1 , en considérant la subdivision
de l’intervalle [a, b] définie par les M + 2 points
xj = a + jh, j = 0, . . . , M + 1 ;
— On cherche des valeurs approchées uj , j = 0, . . . , M + 1, de la solution u du problème aux limites ci-dessus,
vérifiant 
− 1 u 
2 j+1 − 2uj + uj−1 = f (xj ), j = 1, . . . , M,
h
u = u , u =u .
0 a M +1 b

Ce problème peut s’écrire sous la forme équivalente


(
u0 = ua , uM +1 = ub ,
Ah U
fh = Fh ,

où Ah ∈ MM (R) et U fh sont les mêmes que dans le problème homogène et où Fh ∈ RM est le vecteur
T
f (x1 ) + h2 , . . . , f (xM ) + hu2b .
ua

Exercice 3. [Extrait de l’examen de 2021-2022]


Équation de transport-diffusion.
On considère le problème aux limites suivant sur l’intervalle [0, 1] :

′′ ′
 −u (x) + u (x) = f (x), x ∈]0, 1[,

u(0) = 0, (1.7)

u(1) = 0,

où f : R −→ R est une fonction de classe C 2 donnée.


Question 1.
1. Montrer que pour tous A, B ∈ R, la fonction u définie par
Z x Z s 
u(x) = Aex + B − ex e−s f (t) dt ds, x ∈ [0, 1],
0 0

est une solution de classe C 2 de l’équation −u′′ + u′ = f sur ]0, 1[. Montrer qu’il existe un unique choix des
constantes A et B tel que u soit solution de (1.7). Justifier que u est une fonction de classe C 4 .
2. Montrer que u est l’unique solution de classe C 2 de (1.7).
Suggestion : considérer deux solutions w1 et w2 de (1.7) et étudier le problème vérifié par w1 − w2 pour
conclure que w1 − w2 = 0.
Question 2.
On s’intéresse à la discrétisation du problème (1.7) par la méthode des différences finies. Pour ce faire, on se donne
M ∈ N et on considère une discrétisation uniforme de l’intervalle [0, 1], de pas h = M1+1 , définie par les M + 2
points
xj = jh, j = 0, . . . , M + 1,
et on définit des valeurs approchées notées uj de la solution u de (1.7) aux points xj par
uj+1 − 2uj + uj−1 uj − uj−1
− 2
+ = f (xj ), j = 1, . . . , M, (1.8)
h h
u0 = 0, uM +1 = 0.

16
1.3. DISCRÉTISATION DU PROBLÈME DE POISSON PAR LA MÉTHODE DES DIFFÉRENCES FINIES.

1. Soit U = (u1 , . . . , uM )T . Montrer que le système de M équations (1.8) peut se réécrire de manière équivalente
sous forme matricielle
AU = F,
où A ∈ MM (R) et F ∈ RM sont respectivement une matrice et un vecteur que l’on précisera.
2. Soit u la solution de (1.7). Montrer qu’il existe une constante C̃, qui ne dépend que de u, tel que pour toute
valeur de h < 1 et pour tout j = 1, . . . , M :

u(xj+1 ) − 2u(xj ) + u(xj−1 ) u(xj ) − u(xj−1 )


− + − f (xj ) ≤ C̃h.
h2 h
Suggestion : écrire un développement de Taylor de u autour du point xj jusqu’à un ordre convenable et utiliser
que u est solution de −u′′ + u′ = f .
3. On remplace maintenant dans le problème (1.7) les conditions aux limites de Dirichlet homogènes u(0) =
u(1) = 0 par des conditions aux limites de Dirichlet non homogènes

u(0) = ug , u(1) = ud ,

où ug ∈ R et ud ∈ R sont donnés. On peut montrer que le problème (1.7) avec ces nouvelles conditions aux
limites admet encore une unique solution (on ne demande pas de le faire). On approche ce nouveau problème
par la méthode des différences finies comme dans la question 1, mais on utilise de nouvelles conditions aux
limites discrètes : on cherche u0 , u1 , . . . , uM +1 ∈ R tel que
uj+1 − 2uj + uj−1 uj − uj−1
− 2
+ = f (xj ), j = 1, . . . , M, (1.8)
h h
u0 = ug , uM +1 = ud .

Écrire les équations (1.8) correspondant à j = 1 et j = M , en prenant en compte la définition de u0 et de


uM +1 . Réécrire ce système d’équations sous forme matricielle ÃU = F̃ dans l’inconnue U = (u1 , . . . , uM )T ,
en précisant à et F̃
4. Même question si on remplace les conditions aux limites dans (1.7) par les conditions aux limites mixtes
Dirichlet-Neumann
u(0) = 0, u′ (1) = 0,
que l’on discrétise par
u0 = 0, uM +1 = uM .

17
CHAPITRE 1. EQUATION DE POISSON

18
Bibliographie globale
[Gou20] X. Gourdon. Les maths en tête. Analyse - 3e édition. Editions Ellipses, 2020. isbn : 9782340056992.

55

Vous aimerez peut-être aussi