CHAPITRE 4 - CONVOLUTION DES DISTRIBUTIONS
4.1 Produit tensoriel de deux distributions
On fixe deux ouverts U Ì ¡p et V Ì ¡ q . Pour toutes fonctions f, g définies
respectivement sur U,V, on note f Ä g la fonction ( x, y ) a f(x) g(x), définie
sur l'ouvert U ´ V de ¡p+ q . On dit que f Ä g est le produit tensoriel, ou le
produit direct, des deux fonctions f et g.
En particulier, si f Î L1loc (U) et g Î L1loc (V) alors f Ä g Î L1loc (U ´ V) d'après
le théorème de Lebesgue-Fubini. On vérifie aussi que les conditions f Î E(U)
et g Î E (V) impliquent la condition f Ä g Î E (U ´ V) ; et que les conditions
f Î D(U) et g Î D(V) impliquent f Ä g Î D(U ´ V) et
Supp ( f Ä g ) = Supp f ´ Supp g.
Si maintenant E et F sont des espaces vectoriels de fonctions définies
respectivement sur U et V, on désigne par E Ä F l'espace vectoriel engendré
par les fonctions f Ä g, avec f Î E et g Î F. C'est donc l'ensemble des fonctions
n
h := å fi Ä gi , combinaisons linéaires finies de fonctions "décomposées" fi Ä g i.
i=1
On alors :
(4.1.1) PROPOSITION. Le produit tensoriel D(U) Ä D(V) est dense dans
l'espace D(U ´ V). Plus précisément toute fonction q Î D(U ´ V) est
limite dans D(U ´ V), d'une suite qn Î D(U) Ä D(V).
Preuve : Soit K := Supp q. Désignons par KU et KV les projections de K sur U
et V respectivement ; ce sont des compacts. Il existe donc des ouverts
relativement compacts A Ì U et B Ì V tels que KU Ì A Ì A Ì U et
KV Ì B Ì B Ì V. L'ouvert L := A ´ B est donc relativement compact et tel que
K Ì L Ì L Ì U ´ V puisque L = A ´ B. D'après un résultat classique constituant
une amélioration du théorème de Stone-Weierstrass (théorème de Stone-
ˆ
Weierstrass "différentiel" ; voir exercice), il existe une suite de pol ynomes
a a
Pm (x, y) telle que D Pm - D q ® 0 quand m ® + ¥, pour tout multi-indice a
fixé. Fixons alors r Î D(U) et s Î D(V) de façon que r = 1 sur KU et
Supp r Ì A, s = 1 sur KV et Supp s Ì B. Posons qm := Pm ´ ( r Ä s ) ; alors
qm Î D(U) Ä D(V). Mais de plus qm ® q ´ ( r Ä s ) dans D(U ´ V) ; en effet
on a déjà Supp qm Ì Supp r ´ Supp s Ì L Ì L et Supp [ q ´ ( r Ä s ) ] Ì L ; et
la condition DaPm - Da q ® 0 pour tout a, jointe à la formule de Leibniz,
L
montre que
Da qm - Da [ q ´ ( r Ä s ) ] ® 0,
L
soit encore
Da qm - Da [ q ´ ( r Ä s ) ] ® 0.
U´V
Ce qui termine tout en remarquant que les conditions r = 1 sur KU et s = 1 sur
KV impliquent r Ä s = 1 sur K, donc aussi q ´ ( r Ä s ) = q. Ainsi qm ® q dans
D(U ´ V) W
(4.1.2) COROLLAIRE.
a) E (U) Ä E (V) est dense dans E (U ´ V) ;
b) C (U) Ä C (V) est dense dans Cc (U ´ V) ;
c) L1loc (U) Ä L1loc (V) est dense dans L1loc (U ´ V).
Preuve : Donnons la pour a), les autres cas étant analo gues. On sait que
D(U ´ V) est dense dans E (U ´ V) et que la topologie de D(U ´ V) est plus
fine que celle induite par E (U ´ V). On en tire aisément que D(U) Ä D(V) est
dense dans E (U ´ V), d'où a) W
La proposition (4.1.1) va permettre la définition du produit tensoriel (ou
direct) S Ä T de deux distributions.
(4.1.3) THEOREME. On fixe deux distributions S Î D ¢(U) et T Î D ¢(V).
Alors il existe une distribution unique R Î D ¢(U ´ V) telle que
R(j Ä y) = S(j)T(y ) pour toutes j Î D (U) et y Î D(V). On dit
que R, notée R =: S Ä T, est le produit tensoriel de S et T.
Preuve : L'unicité de R est une conséquence évidente de (4.1.1). Pour vérifier
l'existence, il suffit de donner un mode de calc ul de R(q) pour toute
q Î D(U ´ V). Fixons q Î D(U ´ V). Alors pour tout y Î V la fonction partielle
q(g, y) est élément de D(U), de sorte qu'on peut considérer la fonction
Q(y) := S q(g, y) = Sx q(x, y)
Déjà Q est à support compact car Q(y) = 0 chaque fois que y Ï prV ( Supp q ) .
Il reste à voir que Q est indéfiniment différentiable, et pour cela il suffit
de prouver qu'elle est continue et qu'elle admet des dérivées partielles
par rapport aux variables yk telles que :
¶q
Dk Q(y) = Sx (x, y)
¶yk
car ensuite un raisonnement évident de récurrence permet d'en terminer.
Or si y ® y0 dans V, alors q( g, y) ® q( g, y0 ) dans l'espace D(U), car d'une
part Supp q(g, y) Ì prU ( Supp q ) et d'autre part Da q(g, y) ® Da q(g, y0 )
uniformément sur U pour tout multi-indice de dérivation a par rapport à
la variable x ; en appliquant la distribution S on obtient donc la contin uité
de Q. Quant au dernier point, on peut se ramener pour le vérifier à supposer
q = 1 et alors
q(y + h) - q(y) q(g, y + h) - q(g, y)
= S
h h
q(g, y + h) - q(g, y) ¶q
Mais la fonction tend vers ( g, y) dans l'espace D(U)
h ¶y
ˆ
pour les memes raisons que précédemment. Ainsi Q Î D(V). On peut donc
calculer T( Q) ce qui fournit une application linéaire R, définie sur D(U ´ V)
par R(q) := T(Q). Montrons enfin que R est une distribution. Pour cela
considérons une suite qn ® 0 dans D(U ´ V) ; on a alors Supp qn Ì K où
K est un compact fixe. Ainsi les fonctions Qn associées aux qn sont telles
que Supp Qn Ì prV K et de plus, d'après ce qu'on a vu plus haut
Db Qn = Sx Dyb qn (x, y)
pour tout multi-indice de dérivation b relatif à la variable y. Or S est une
distribution sur U ; elle est donc continue sur l'espace DKU , où KU := pr U K,
de sorte qu'il existe une constante M et un entier m tels que
( )
Db Qn (y) £ M pKmU Dyb qn (g, y) .
Mais alors avec y Î prV K on a
Db Qn £ M pKm+ b (qn )
ce qui prouve que Qn ® 0 dans D(V). (En fait on a démontré que l'application
q a Q opère continumentˆ et liné airement de D(U ´ V) dans D(V). Il en résulte
que R(qn ) = T(Qn ) tend vers zéro quand qn ® 0 dans D(U ´ V), ce qu'on
voulait prouver. Il reste un dernier point à vérifier : si q := j Ä y alors
Q = S(j) y donc R( j Ä y) = S( j)T( y), et tout est dit W
On peut maintenant préciser un peu mieux le théorème en l'écrivant sous la
forme suivante, qui rappelle bien entendu le théorème de Lebesgue-Fubini.
(4.1.4) COROLLAIRE 1. La distribution R := S Ä T est définie par chacune
des égalités suivantes :
a) R(q) = Ty Sx q(x, y)
b) R(q) = Sx Ty q(x, y) .
Preuve : Car l'égalité b) définit une distribution, notée à priori R ¢, telle que
R ¢( j Ä y) = S(j)T(y). La condition d'unicité fournit donc R ¢ = R W
(4.1.5) COROLLAIRE 2. Le produit tensoriel de distributions est associatif.
Preuve : Soit trois ouverts U,V,W de ¡p , ¡ q , ¡r respectivement, et R,S,T
trois distributions sur U,V,W respectivement.
On voir aisément que D(U) Ä D(V) Ä D(W), qui est l'espace vectoriel
engendré par les fonctions j Ä y Ä x : ( x, y,z ) a j(x ) y(y) x(z), est dense
dans D(U ´ V ´ W). Pour vérifier l'égalité
RÄ(SÄT ) = (RÄS)ÄT
il suffit donc de la tester sur des fonctions j Ä y Ä x ; et c'est alors
immédiat W
REMARQUE. La question de commutativité n'a pas à se poser en général.
L'ouvert U ´ V doit etreˆ lu comme un couple d'ouverts, avec une première
composante U et une seconde V. En ce sens la permutation des variables
( x, y ) a ( y, x ) est un isomorphisme indéfiniment b i-différentiable de U ´ V
sur V ´ U. Il lui correspond l'application s : D(V ´ U) a D(U ´ V) définie
par ( sq ) (x, y) := q(y, x), et elle donne par transposition une application de
symétrie, notée encore s, allant de D ¢(U ´ V ) dans D ¢(V ´ U) selon :
( sR ) (q) = R(sq) ; q Î D(V ´ U).
On vérifie alors, si R := S Ä T, que sR = T Ä S.
En particulier, si U = V, alors la différence entre S Ä T et T Ä S est
exprimée complètement par les égalités
( S Ä T ) (j Ä y) = S(j)T(y)
( T Ä S ) (j Ä y) = T(j)S(y)
La question importante des supports est réglée par le théorème suivant :
(4.1.6) THEOREME. Supp ( S Ä T ) = Supp S ´ Supp T .
Preuve : Fixons d'abord ( x0 , y0 ) Ï Supp S ´ Supp T. On peut supposer
y0 Ï Supp T. Alors il existe un ouvert B de V, contenant y0 , disjoint de
Supp T. Fixons q Î D(U ´ V) telle que Supp q Ì U ´ B ; ainsi la fonction
y : y a S q(g, y) a son support contenu dans prV ( Supp q ), donc à fortiori
dans B et alors R(q) = T(y) = 0. Donc R est nulle sur un voisinage U ´ B de
( x0 , y0 ) et par suite ( x0 , y0 ) Ï Supp R, ce qui démontre déjà l'inclusion
Supp R Ì Supp S ´ Supp T.
Réciproquement, soit ( x0 , y0 ) Î Supp S ´ Supp T. Alors pour tout voisinage
ouvert de ( x0 , y0 ) , que l'on peut supposer de la forme A ´ B, il existe une
j Î D(U) telle que Supp j Ì A et S( j) = 1 et une y Î D(V) telle que
Supp y Ì B et T(y) = 1, ce qui entraine que la fonction q := j Ä y vérifie
R(q) = 1 et Supp q Ì A ´ B. Ainsi ( x0 , y0 ) Î Supp R, ce qui termine la preuve W
(4.1.7) COROLLAIRE. Pour que R := S Ä T soit à support compact il faut
et il suffit que S et T soient toutes deux à support compact. Dans
ce cas on a, pour toute q Î E (U ´ V) :
a) R(q) = Ty Sx q(x, y)
b) R(q) = Sx Ty q(x, y) .
Preuve : Il suffit de faire intervenir des fonctions a Î D(U) et b Î D(V)
telles que a = 1 sur un voisinage de Supp S et b = 1 sur un voisinage de
Supp T. Alors g := a Ä b vaut 1 sur un voisinage de Supp R, de sorte que
R(q) est définie en réalité par R( q) = R( gq). On termine en remarquant par
exemple que
Sx g(x, y) q(x, y) = b(y) Sx a(x) q(x, y)
= b(y) S q(g, y) W
Exemples.
Ex.1 Pour a Î U et b Î V on a da Ä db = d(a,b) . Dans le cas U = V, on voit
bien la différence entre da Ä db et db Ä da .
Ex.2 Si f Î L1loc (U) et g Î L1loc (V) alors f Ä g Î L1loc (U ´ V) et TfÄg = Tf Ä Tg
(Il y a donc cohérence des notations). Il suffit en effet d'utiliser le
théorème de Lebesgue-Fubini, ce qui fournit :
TfÄg = òò f(x) g(y) q(x, y) dx dy
U´V
= òV g(y) dy òU f(x) q(x, y) dx
= Tgy Tfx q(x, y) (
= Tf Ä Tg (q) )
Ex.3 Si Dxa et Dyb sont
des opérateurs de dérivations partielles sur U et V
alors Dxa+b
+y = D
a+b
est un opérateur de dérivation sur U ´ V et :
( ) (
Da+b ( S Ä T ) = Dxa S Ä DybT . )
Il suffit de constater l'égalité pour les fonctions d écomposées j Ä y.
Et c'est immédiat.
Ex.4 ( jS ) Ä ( yT ) = ( j Ä y ) ( S Ä T ) .
Ex.5 En reprenant la démonstration du théorème (4.1.5) on peut voir que
si S est d'ordre m et T d'ordre n, alors S Ä T est d'ordre a u plus
égal à n + m.
En particulier le produit tensoriel de deux distributions d'ordre zéro
est une distribution d'ordre zéro. De memeˆ si S et T sont des mesures
m et n on reconnaît en S Ä T la mesure produit m Ä n.
4.2 Convolution des distributions
On cherche ici à définir le produit convolutif S å T de deux distributions
ˆ
sur le meme espace ¡p , en se laissant guider par les propriétés classiques
du produit convolutif des fonctions intégrables.
Ainsi, si f et g sont inégrables sur ¡p , leur produit convolutif h := f å g,
défini presque partout par
h(x) := ò f(x - t) g(t) dt
est intégrable. Mais de plus :
(4.2.1) LEMME. Pour toute fonction j continue et à support compact on a :
ò h(x) j(x) dx = òò f(x) g(x) j(x + y) dx dy.
Preuve : Elle se fait avec le théorème de Lebesgue-Fubini. La fonction
( x, y ) a f(x) g(x) j(x + y) est intégrable sur ¡p ´ ¡p puisque j est bornée
et continue, donc :
òò f(x) g(x) j(x + y) dx dy = ò f(x) éë ò g(y) j(x + y) dy ùû dx
= ò f(x) éë ò g(t - x) j(t) dt ùû dx
= ò j(t) éë ò f(x) g(t - x)dx ùû dt = ò h(t) j(t) dt W
Ainsi, si l'on fixe j dans l'e space D( ¡p ) on aura à fortiori l'égalité suivante,
où les fonctions f et g sont lues en distributions :
Tfå. ( )
g ( j) = Tf Ä Tg ( j )
D
en posant jD (x, y) := j(x + y).
Cette formule va donner quelques idées pour définir S å T dans des cas assez
généraux. Mais des difficultés se font jour immédiatement car si S et T sont
éléments de D ¢( ¡p ) alors S Ä T est
bien entendu élément de D ¢( ¡p ´ ¡p )
comme on a vu en 4.1 ; mais pour chaque
j Î D( ¡p ) la fonction jD est seulement
élément de E ( ¡p ´ ¡p ). De façon précise
si K := Supp j, alors Supp jD est la bande
K D := { (x, y) | x + y Î K } parallèle à la
"seconde bissectrice" et coupant ¡p
suivant K. C'est donc un fermé de ¡p ´ ¡p
qui n'est jamais compact quand j est non
identiquement nulle.
On peut donc penser, de façon restrictive, que ( S Ä T ) ( jD ) ne peut etre
ˆ
défini que si S Ä T est à support compact, c'est-à-dire que si S et T sont
toutes deux à support compact. En fait il n'en est rien, mai s pour préciser
ce point il faut introduire une notion nouvelle qui est l' admissibilité .
(4.2.2) DEFINITION. On dit que deux distributions S et T sur ¡p sont
admissibles lorsque leurs supports respectifs A et B ont la pro-
priété suivante :
Pour tout compact K de ¡p l'ensemble fermé ( A ´ B ) Ç K D est compact.
Il est alors facile de voir qu'en posant Kj := Supp j, le nombre ( S Ä T ) (qjD ),
où la fonction q est choisie dans
D( ¡p ´ ¡p ) valant 1 sur un voisi-
nage convenable de ( A ´ B ) Ç KjD ,
ne dépend pas en réalité de q, car
si q et q¢ sont deux telles fonctions
on a ( q - q¢ ) jD = 0 sur la réunion
V È ðKjD , et ainsi ( q - q¢ ) jD = 0 sur
un voisinage de A ´ B, d'où l'égalité
( S Ä T ) éë ( q - q¢ ) jD ùû = 0
Ce nombre indépendant de q est donc
noté ( S Ä T ) ( jD ) pour simplifier.
Alors l'application j a ( S Ä T ) ( jD ) est évidemment une forme linéaire sur
D( ¡p ). De plus si jn ® 0 dans D( ¡p ), alors il existe un compact fixe K
contenant tous les Supp jn , et si q est choisie valant 1 sur un vo isinage de
( A ´ B ) Ç K D , alors qjnD ® 0 dans D( ¡p ´ ¡p ) donc ( S Ä T )( jnD ) = ( S Ä T )( qjnD )
tend aussi vers zéro.
Le résumé de toute cette discussion est alors la définition :
(4.2.3) DEFINITION. Soit ( S,T ) un couple de distributions admissibles. On
appelle produit convolutif S å T de S et T la distribution définie par
( S å T ) (j) = ( S Ä T ) (jD )
pour toute j Î D( ¡p ).
Exemples
Ex.1 Deux distributions à support compact sont toujours admissibles, donc
leur produit convolutif est toujours défini.
Ex.2 Plus généralement si S est à support compact et T quelconque, alors
S et T sont admissibles. Car pour tout compact K de ¡p l'intersection
( )
( A ´ B ) Ç K D est contenue dans A ´ ¡p Ç K D . Or
( A´ ¡ ) ÇK
p
Ì { (x, y) | x Î A et y Î K - A }
D
et A étant compact, l'ensemble K - A est aussi compact.
Ex.3 Appelons cone (
ˆ positif G + de ¡p l'ensemble des points x := x1 , x2 ,..., xp )
tels que xi ³ 0 pour tout i. En notant x ³ 0 pour tout x Î G + , on introduit
sur ¡p une relation d'ordre partiel , redonnant pour p := 1 la relation
d'ordre habituelle sur ¡. Alors deux distributions S et T, de supports
contenus dans G + , sont toujours admissibles. En effet ( A ´ B ) Ç K D est
alors contenu dans l'ensemble { (x, y) | x ³ 0, y ³ 0 et x + y Î K }, donc
p
dans tout pavé K ¢ ´ K ¢, où K ¢ est un pavé compact de la forme [ 0,A ]
contenant K Ç G + .
Donnons maintenant quelques propriétés simples.
(4.2.4) PROPOSITION. Soit ( S,T ) un couple de distributions a dmissibles.
On a :
a) S å T = T å S, autrement dit le produit convolutif est commutatif.
b) La somme Supp S + Supp T est un fermé de ¡p et
Supp ( S å T ) Ì Supp S + Supp T
Preuve :
a) En fix ant j Î D( ¡p ), il est possible de choisir la fonction auxiliaire
q Î D( ¡p ´ ¡p ) de façon qu'elle soit symétrique : q(y, x) = q(x, y) ; il suffit
en effet de plonger le compact ( A ´ B ) Ç KjD dans un "carré" compact K ¢ ´ K ¢,
de choisir r Î D( ¡p ) valant 1 sur un voisinage de K ¢ et de prendre q := r Ä r.
Alors, d'après ce qu'on a vu en (4.1) sur la non-commutativité du produit
tensoriel Ä on a :
( T å S ) (j) = ( T Ä S ) (qjD ) = ( S Ä T ) (s(qjD )) = ( S Ä T ) (qjD ) = ( S å T ) (j)
puisque la fonction qjD est alors symétrique.
b) On prendra garde que la somme A + B de deux fermés quelconques de ¡p
n'est pas fermée en général. Toutefois, si le couple ( A,B ) est admissible,
c'est-à-dire si ( A ´ B ) Ç K D est compact pour tout compact K, alors A + B
est fermée. En effet, soit xn Î A, yn Î B avec xn + yn ® z. La suite xn + yn
est évidemment contenue dans un compact K de ¡p, d'où (xn, yn ) Î ( A ´ B ) Ç K D .
Mais si (x, y) est une valeur d'adhérence de la suite (xn , yn ), alors x, y et
x + y sont respectivement valeurs d'adhérence des suites ( xn ) , ( yn ) et
( xn + yn ) ; d'où x Î A, y Î B et z = x + y et ainsi z Î A + B et A + B est bien
une partie fermée.
Supposons maintenant de façon plus précise A := Supp S et B := Supp T. Pour
toute j Î D( ¡p ) telle que Kj = Supp j soit disjoint de A + B, l'intersection
( A ´ B ) Ç KjD est évidemment vide, donc la fonction qjD a, pour toute fonction
auxiliaire q Î D( ¡p ´ ¡p ), son support disjoint du support de ( S Ä T ) et ainsi
( S å T ) (j) = 0. On a donc bien Supp ( S å T ) Ì A + B, puisque A + B est une
partie fermée W
Convolution et dérivation
La liaison entre convolution et dérivation est particulièrement simple.
(4.2.5) PROPOSITION. Soit ( S,T ) un couple de distributions admissibles.
Pour tout multi-indice de dérivation a, les couples D aS,T et ( )
( S,D T ) sont admissibles et
a
Da ( S å T ) = ( Da S ) å T = S å ( Da T ) .
Preuve : Le fait que Da S et T soient admissibles est évident puisque
Supp Da S Ì Supp S. Le reste est plus délicat. Fixons j Î D(¡p ) et la fonction
auxiliaire q Î D( ¡p ´ ¡p ), assujettie aux conditions habituelles. D'après les
formules de l'exemple 3 de (4.1) on a :
( ) ( )
Da S å T (j) = Da S Ä T (qjD ) = Dxa ( S Ä T ) (sjD )
soit :
(1) ( a
)
DaS å T ( j) = ( -1 ) ( S Ä T ) éë Dxa ( qjD ) ùû .
Mais par ailleurs, on a aussi :
( )
D
( S å T ) (Da j) = ( S Ä T ) éê q Da j ùú .
ë û
( ) ( )
a D a
En remarquant que D j est la fonction D j (x + y), on voit que
( Da j )
D
= DxD (jD ). D'où :
a
(2) Da ( S å T ) (j) = ( -1 ) ( S Ä T ) éë qDxa (jD ) ùû .
Mais la condition imposée à q de valoir 1 sur un voisinage convenable V de
( A ´ B ) Ç KjD implique que les fonctions Dxa ( qjD ) et qDxa (jD ) sont égales sur
le voisinage V È ðKjD de A ´ B. D'où l'on tire l'égalité des premiers membres
( )
de (1) et (2) et ainsi Da S å T = Da ( S å T ) . Il suffit ensuite d'échanger S
et T pour obtenire D a
( S å T ) = S å ( Da T ) W
Convolution et translation
Pour tout a Î ¡p , désignons par ta l'opérateur de translation par a défini
sur D(¡p ) par
( ta j ) (x) = j(x - a).
Plus généralement on peut définir ainsi taf pour toute fonction f. Si f est
localement intégrable et si j Î D( ¡p ) alors
ò ( ta f ) j dx = ò f(t) j(a + t) dt = ò f × t-a j dt
On est donc amené, par souci de cohérence, à définir l'opérateur ta de
translation sur D ¢( ¡p ) selon
( taT ) (j) = T( t- a j) = Tt j(a + t) .
En désignant par da la distribution de Dirac au point a, on obtient alors :
(4.2.6) PROPOSITION. Pour toute distribution T on a
ta T = d a å T .
Preuve : On remarque déjà que da å T est toujours définie puisque da est à
support compact. Alors, avec les notations déjà utilisées :
( da å T ) (j) = ( da Ä T ) (qjD ) = Ty q(a, y) j(a + y)
or on ne sait rien sur le support B de T. Mais rien n'empeche ˆ de choisir q
( )
p
valant 1 sur un voisinage compact { a } ´ ¡ Ç Kj , ce qui implique l'égalité
D
évidente q(a, y) = 1 chaque fois que a + y Î Kj . Ainsi q(a, y) j(a + y) = j(a + y)
pour tout y et
( da å T ) (j) = Ty j(a + y) = ( taT ) (j) W
Le cas particulier a = 0 est évidemment remarquable, car on a, en regroupant
(4.2.5) et (4.2.6)
(4.2.7) COROLLAIRE. Pour toute distribution T et pour tout multi-indice
de dérivation a on a :
d å T = T et ( )
Da d å T = Da T .
Ces formules simples et importantes font apparaître les opérateurs de
dérivation Da comme des opérateurs de c onvolution particuliers. Par ailleurs
la mesure de Dirac à l'origine d définit ainsi l'élément neutre convolutif.
Questions d'associativité
Si l'on fixe trois distributions R,S,T, il peut se faire que les couples ( R,S )
et ( S,T ) soient admissibles, puis que les couples ( R å S,T ) et ( R,S å T )
soient encore admissibles. On peut alors définir les produits convolutifs
( R å S ) å T et R å ( S å T ) . A-t-on alors une formule d'associativité ?
La réponse est négative , comme on voit sur un exemple en dimension 1 en
prenant R := 1, S := d¢ et T := U, fonction de Heaviside. En effet
1 å d¢ = D ( 1 å d ) = D1 = 0
d å U = D ( d å U ) = DU = d
¢
donc ( 1 å d¢ ) å U = 0 et 1 å ( d¢ å U ) = 1.
Pour obtenir un résultat positif satisfaisant il faut donc se limiter quelque
peu. On va le faire en généralisant la notion de couples de distributions
admissibles. Posons en effet :
(4.2.8) DEFINITION. Soit ( T1 ,T2 ,...,Tk ) un système fini de k distributions,
de supports respectifs A1 ,A2 ,...,Ak . On dit que ce système est
admissible (ou que les distributions Ti sont admissibles) lorsque pour
tout compact K de ¡p , l'ensemble fermé
( A1 ´ A2 ´ ... ´ Ak ) Ç K D
{ }
où K D := (x1 ,..., xp ) | x1 + x2 + ... + xk Î K , est un compact de
l'espace ( ¡p ) .
k
On laisse au lecteur de vérifier qu'un sous-système d'un système fini
ˆ
admissible est lui-meme admissible (mais la réciproque est fausse). Comme
exemples on peut voir aisément que des distributions T,i toutes à support
ˆ
compact, sauf peut etre une au plus, forment un système admissible. De
ˆ
meme tout système fini de distributions à support dans le cone ˆ positif G +
est admissible.
ˆ de cette notion réside dans le théorème d'associativité suivant.
L'intéret
(4.2.9) THEOREME. Pour tout triplet admissible ( R,S,T ) on a la formule
d'associativité :
R å ( S å T ) = ( R å S ) å T.
p
Preuve : Fixons j Î D( ¡ ) et choisissons des fonctions a, b, g Î D de façon
que a = 1, b = 1 et g = 1 respectivement sur des voisinages des trois
projections sur ¡p du compact ( A ´ B ´ C ) Ç KjD . L'hypothèse d'admissibilité
assure ainsi l'existence de ( R Ä S Ä T ) ( jD ), pour jD (x, y,z) := j(x + y + z),
avec la valeur
( R Ä S Ä T ) (jD ) = ( R Ä S Ä T ) éë ( a Ä b Ä g ) jD ùû .
En posant
( )
y(x) := ( S Ä T ) y , z b y Ä gz j(x + y + z)
on reconnait là la valeur
y(x) := ( S å T )u j(x + y)
de sorte qu'en posant U := S å T on a :
( R Ä S Ä T ) (jD ) = Rx Ä Uu j(x + u) = ( R å U ) (j)
et ainsi
R å ( S å T ) j = ( R Ä S Ä T ) (jD ).
Un calcul analogue fournirait la valeur de R å ( S å T ) j sous la meme ˆ
forme, ce qui termine tout W
(4.2.10) COROLLAIRE 1. Le produit convolutif de k distributions admissibles
sur ¡p est associatif et commutatif.
(4.2.11) COROLLAIRE 2. L'espace E ¢( ¡p ) des distributions à support compact
est une algèbre commutative et unitaire quand on prend comme produit
le produit convolutif. On parlera ainsi de l'algèbre convolutive E ¢( ¡p ).
(4.2.12) COROLLAIRE 3. L'espace, noté D+¢ ( ¡p ), des distributions à support
contenu dans le coneˆ positif G + de ¡p, est une algèbre commutative
et unitaire quand on prend c omme produit le produit convolutif.
On obtient ici l'énoncé qui sert de fondement à la théorie de la transformation
de Laplace pour les distributions.
4.3 Régularisation et troncature
Lorsque T Î D ¢( ¡p ) et f Î D( ¡p ), ou bien lorsque T Î E ¢( ¡p ) et f Î E ( ¡p ), la
distribution T å f est une fonction indéfiniment différentiable. En effet :
(4.3.1) PROPOSITION. Avec les hypothèses précédentes la distribution
T å f coïncide avec la fonction h définie par :
Ú
h(x) := T tx f = Tt f(x - t)
fonction qui est indéfiniment différentiable.
Ú
Preuve : On rappelle que f est la fonction x a f( -x). Déjà il e st classique
que h est indéfiniment différentiable, ce qu'on peut vérifier plus en détail
en examinant séparément les deux cas T Î D ¢ et f Î D, puis T Î E ¢ et f Î E .
Pour le reste il faut vérifier l'égalité T å f = h dans D ¢, c'est-à-dire l'
égalité T å f j = h j pour toute j Î D. Or on a :
T å f j = Tx fy j(x + y)
Ú
= Tx f y j(x - y)
Ú
= T få j .
En remarquant que cette dernière expression est invariante si l'on remplace
Ú Ú Ú Ú
f par j et j par f, on obtient encore T å f j = T å j f . Or on a :
Ú Ú Ú Ú
T å j f = jy Tx f(x + y)
Ú
= jy Tx f(x - y)
Ú
= jy Tx f(y - x)
= ò j(y)h(y) dy
= hj
ce qui termine tout W
On va tirer de là un théorème de densité et l'idée que la convolution par des
fonctions est une opération régularisante.
(4.3.2) THEOREME. On fixe T Î D ¢( ¡p ).
a) Pour toute suite qn Î D telle que qn ® d dans Es¢ on a
qn å T ® T dans Ds¢ ou dans Db¢ .
b) Pour toute suite an Î D telle que an ® 1 dans E on a
an ( qn å T ) ® T dans Ds¢ ou dans Db¢ .
En particulier D( ¡p ) est séquentiellement dense dans D ¢( ¡p ).
Preuve : Le phénomène décrit par a) s'appelle régularisation ; il permet d'
écrire toute T Î D ¢ comme limite d'une suite qn å T Î E . Le phénomène décrit
par b) s'appelle régularisation et troncature ; il permet d'écrire toute
T Î D ¢ comme limite d'une suite an ( qn å T ) Î D. Un dernier mot avant la
preuve : puisqu'il s'agit de suites convergentes dans D ¢ on rappelle que la
convergence dans Ds¢ est équivalente à la convergence dans Db¢ comme il
résulte du théorème (3.2.5).
Prouvons a) : pour toute j Î D on a, d'après le s formules vues dans la preuve
de (4.3.1) :
Ú Ú Ú
æ ö
qn å T j = T å j qn ® ç T å j ÷ (0) = T j .
è ø
Prouvons b) : C'est en fait un cas particulier du lemme suivant :
(4.3.3) LEMME. Si an ® a dans E et si Tn ® T dans Ds¢ alors anTn ® aT
dans Ds¢ .
Preuve : Quand an ® a dans E, la suite ( an ) décrit une partie relativement
compacte de E, donc pour toute j Î D, la suite ( an j ) décrit une partie
relativement compacte de D (car l'application y a yj est continue de E dans
D). Or ( an Tn ) (j) = Tn (an j), et quand Tn ® T dans Ds¢ , on a aussi Tn ® T
dans Db¢ comme on l'a remarqué, donc Tn ® T uniformément sur toute partie
bornée de D. Il suffit alors d'écrire :
Tn (an j) = T(aj) = ( Tn - T ) (an j) + T(an j - aj)
pour conclure W
REMARQUE. La condition qn ® d dans Es¢ ne peut pas etre ˆ remplacée par
la condition qn ® d dans Ds¢ . En fait on utili sera des suites ( qn ) régularisantes
au sens de l'ex.11 du chap.3. Quant aux suites ( an ) on pourra prendre par
exemple des suites tronquantes au sens de l'ex.12.
Comme conséquence de la densité de D dans D ¢ on a :
(4.3.4) COROLLAIRE. Le produit tensoriel D ¢( ¡p ) Ä D ¢( ¡ q ) est dense dans
l'espace Db¢ ( ¡p ´ ¡ q ).
Preuve : Car D( ¡p ) Ä D( ¡ q ) est dense dans D( ¡p ´ ¡ q ) et ce dernier espace
est dense dans Db¢ ( ¡p ´ ¡ q ), tout en ayant une topologie propre plus fine que
celle induite par Db¢ ( ¡p ´ ¡ q ). Alors D( ¡p ) Ä D( ¡ q ) est dense dans Db¢ ( ¡p ´ ¡q )
et tout est dit W
4.4 Equations de convolution. Solutions élémentaires.
Revenons maintenant aux conséquences des corollaires (4.2.10), (4.2.11) et
(4.2.12). Appelons algèbre convolutive unitaire A tout sous-espace vectoriel
de D ¢( ¡p ) possédant les propriétés suivantes :
ì a) tout système fini ( A1 ,A2 ,...,Ak ) d'éléments de A est admissible ;
ï
í b) A est stable par produit convolutif ;
ïî c) d Î A.
La condition a) est destinée à garantir l'existence du produit A å B pour
a,b Î A, mais elle garantit aussi la règle d'associativité.
Désignons maintenant par module convolutif sur A tout sous-espace vectoriel
M de D ¢( ¡p ) tel que l'on ait :
ì a') tout système fini ( A1 ,A2 ,...,Ak , M ) formé d'éléments Ai Î A sauf
ï
í ˆ
peut-etre un seul M élément de M, est admissible ;
ïî b') on a A å M Î M pour tout A Î A et tout M Î M.
Exemples
Ex.1 A := E ¢ et M := D ¢.
Ex.2 A := ¡d + D et M := E .
{
Ex.3 Dans ¡p+1 désignons par G 0 le demi-espace x | xp+1 ³ 0 } et, pour
ˆ
chaque e > 0, par Gc le demi-cone
{ (
Gc := x Î G0 | xp+12 ³ c2 x12 + ... + xp2 .
p+1
)}
On dit qu'une distribution T Î D ¢( ¡ ) est parabolique [ resp.
hyperbolique ] si son support est contenu dans G0 [ resp. dans un
ˆ Gc ].
demi-cone
Alors l'espace M des distributions paraboliques est un module convolutif
noté D ¢(G0 ), sur l'algèbre convolutive des distributions hyperboliques.
Ces distributions seront utilisées pour l'étude de l'équation des ondes.
Ex.4 A := A et M := A.
Ex.5 A := D+¢ ( ¡p ), l'algèbre convolutive des distributions dont le support
est contenu dans le cone {
ˆ G + := x | x1 ³ 0,..., xp ³ 0 .}
Equations de convolution
Fixons un module convolutif M sur l'algèbre convolutive A. Pour toute
A Î A et toute B Î M on peut considérer l'équation de convolution
AåT =B
où T est la distribution inconnue, recherchée dans M. Si B := 0 on dit que
l'équation est homogène. On a alors :
(4.4.1) PROPOSITION.
a) Les solutions de l'équation homogène A å T = 0 forment un
sous-module convoluti f HA de M.
b) Si T0 est une solution particulière de l'équation complète
A å T = B, alors l'ensemble de toutes les solutions est la
variété T0 + HA .
ˆ
Preuve : Tout est évident sauf peut-etre le fait que HA est un sous-module
de M. Or cela signifie que pour toute P Î A et pour toute T Î HA on a
encore P å T Î HA . Mais c'est une conséquence des égalités :
Aå(PåT ) =(AåP)åT =(PåA)åT = På(AåT ) = 0 W
Solutions élémentaires
Désignons par A å l'opérateur de convolution par A. On appelle solution
élémentaire de l'opérateur A å toute distribution E Î M telle que A å E = d.
On peut remarquer plusieurs choses à ce sujet :
- il peut ne pas exister de solutions élémentaires, par exemple si d Ï M.
- s'il en existe, il peut en exister plusieurs, puisqu'alors E + HA est l'ensemble
de toutes les solutions élémentaires.
- les solutions élémentaires dépendent de A, ce qui est une affirmation triviale,
mais dépendent aussi de l'espace M dans lequel on les recherche, ce qu'il
convient de ne pas oublier.
La notion de solution élémentaire est importante car la connaissance de E
résout en fait l'équation A å T = B pour toute une famille de seconds membres B.
(4.4.2) THEOREME. On suppose B Î A . Si l'on connaît une solution élémentaire
E Î M de l'opérateur A å , alors l'ensemble de toutes les solutions
T Î M de l'équation A å T = B est la variété E å B + HA .
Preuve : Car si T0 = E å B = B å E alors T0 est une distribution élément de M,
puisque B Î A, et
A å T0 = ( A å E ) å B = d å B = B W
En général la solution élémentaire, lorsqu'elle existe, n'appartient pas à A
mais bel et bien à M. Ceci rend donc d'autant plus intéressan t le théorème
qui suit :
(4.4.3) THEOREME. Supposons que l'opérateur A å possède une solution
élémentaire E appartenant à A. On a alors :
ˆ
a) Il n'existe pas d'autres solutions élémentaires, meme dans M.
b) L'opérateur de convolution A å : M ® M, est une bijection
linéaire dont la bijection réciproque est l'opérateur de
convolution E å .
Preuve : Si E Î A, alors E est l'inverse de A dans l'algèbre convolutive A.
Il suit de là que HA = { 0 } car A å T = 0 implique E å ( A å T ) = d å T = T = 0.
De memeˆ A å T = B, avec B Î M, équivaut à T := E å B W
Comme conséquence on a :
(4.4.4) COROLLAIRE. On suppose M = A et l'on considère l'équation
A å T = B dans l'algèbre A. Alors les assertions suivantes sont
équivalentes :
a) l'opérateur de convolution A å est une surjection ;
b) c'est une bijection ;
c) il possède une solution élémentaire E Î A.
Preuve : Il est clair que a Þ c comme on voit avec B := d, et que c Þ b
d'après (4.4.3) W
REMARQUE. Il peut arriver toutefois que l'opérateur A å soit injectif
ˆ
sans etre surjectif. Il n'y a donc pas dans ce cas de solution élémentaire
E Î A. Et il n'y en a pas non plus si l'opérateur A å n'est pas injectif.
Donnons maintenant quelques applications en examinant quelques cas
particuliers plus concrets.
Equations de convolution dans D ¢
On choisit A := E ¢ et M := D ¢.
(4.4.5) PROPOSITION. On fixe A Î E ¢( ¡p ). Les solutions dans D ¢ de
l'équation homogène A å T = 0 forment un sous- E ¢-module
convolutif fermé et toute solution T est limite d'une suite de
solutions appartenant à E .
Preuve : HA est fermé dans D ¢ puisque l'opérateur de convolution
A å : D ¢ ® D ¢ est continu. Si T Î HA , alors pour toute j Î D on a aussi
j å T Î HA et j å T est une fonction de E . Il ne reste plus qu'à approcher
d dans E ¢ par une suite jn Î D W
En choisissant A on peut donner des exemples encore plus précis.
a) A est une distribution de la forme A := å aa d( a ) , somme finie de dérivées
d( a) = Da d de la mesure de Dirac. L'équation A å T = B est donc une
équation aux dérivées partielles à coefficients constants
å aa DaT = B.
b) A est une somme finie de translatées de d, A := å ah dh . L'équation
A å T = B est alors une équation aux différences finies
å ah thT = B.
c) On peut mélanger les types a) et b) et obtenir une équation de type
mixte, dite équation aux différences-différentielles.
d) En dimension p := 1, on sait que toute équation différentielle homogène
à coefficients constants
(*) y(n) + an-1 y(n -1) + ... + a1 y ¢ + a0 = 0
admet comme solutions fonctionnelles des fonctions indéfiniment dé rivables,
mélange d'exponentielles et de polynomes, ˆ forment un espace vectoriel de
dimension finie égale à n. Comme tout sous-espace de dimension finie de
D ¢ est évidemment fermé, la proposition (4.4.5) montre que toute solution-
distribution de l'équation différentielle ( *) est une fonction indéfiniment
dérivable.
D'ailleurs la remarque qui suit (4.4.4) montre aussi que l'équation (*) n'
a pas de solution élémentaire dans l' espace E ¢.
L'algèbre convolutive D+¢ ( ¡)
C'est là le point de départ du "calcul opérationnel" classique. Contentons-
nous ici de reprendre dans ce nouveau cadre l'étude de l'équation précédente
(*). On a alors :
(4.4.6) THEOREME. L'opérateur différentiel
Dn + an-1 Dn-1 + ... + a1 D + a0 I
à coefficients constants ai possède dans D+¢ une unique solution
élémentaire E. On obtient E sous la forme E := U × z, où U est la
fonction de Heaviside et où z est la solution classique de l'équation
différentielle
(*) y(n) + an -1 y(n -1) + ... + a1 y ¢ + a0 y = 0
vérifiant les conditions suivantes :
ìï z(0) = z ¢(0) = ... = z(n-2) (0) = 0
í (n -1)
ïî z (0) = 1
Preuve : Désignons par A la distribution
A := d(n) + an-1 d(n-1) + ... + a0 d
associée à l'équation proposée. Il suffit, compte-tenu de (4.4.4), de vérifier
l'égalité A å ( Uz ) = d. Or
d¢ å ( Uz ) = zd + Uz ¢ = z(0) d + Uz ¢ = Uz¢
d¢¢ å ( Uz ) = d¢ å T ( Uz¢ ) = Uz¢¢
M
d(n-1) å ( Uz ) = U z(n-1)
d(n) å ( Uz ) = z(n -1) (0) d + Uz(n) = d + Uz(n)
ce qui montre que les conditions initiales choisies fournissent l'égalité
A å ( Uz ) = d + U ( A å z ) = d W
(4.4.7) COROLLAIRE. L'équation différentielle
(**) T (n) + an-1 T (n -1) + ... + a1 T ¢ + a0 T = B
où B est une distribution quelconque de D+¢ , admet une solution
unique T dans l'espace D+¢ , donnée par T = ( Uz ) å B, où z est la
solution fonctionnelle de l'équation homogène vérifiant les conditions
initiales de (4.4.6).
On remarquera, à la suite de (4.4.6) et (4.4.7), que la solution élémentaire,
qui permet l'intégration de l'équation "distributionnelle" ( **), ne tombe
toutefois pas du ciel. Il faut pour l'obtenir, résoudre déjà l'équation
"fonctionnelle" ( *).
Donnons quelques exemples.
Ex.1 y ¢¢ + w2 y = 0
La solution classique est donnée par y = Acos wx + Bsin wx, et les
sin wx
conditions initiales z(0) = 0 et z ¢(0) = 1 fournissent z = . D'où
w
la solution élémentaire
sin wx
E = U×
w
Ex.2 y ¢ + ly = 0
La solution classique est y = Ae -l x , d'où z = e -l x et
E = U × e -l x
Ex.3 y(n) = 0
xn -1
La solution z cherchée est simplement z = , d'où
(n - 1)!
xn -1
E = Un = U
(n - 1)!
ˆ
Ex.4 Si P est un polynome et si E est solution élémentaire de l'opérateur
différentiel P(D), alors e -l xE est solution élémentaire de l'opérateur
différentiel P(D + l). En effet pour toute distribution T on a :
D(e l x T) = e l x ( D + l ) (T)
d'où par itération
k
Dk (e l x T) = e l x ( D + l ) (T)
( )
et P(D) e l x T = e l x P(D + l)(T).
-l x
Si l'on pose El := e E on obtient donc d = P(D)(E) = e l xP(D + l)(El ) d'où
P(D + l)(El ) = d
n
Ainsi la solution élémentaire de l'opérateur ( D + l ) n'est autre que
xn -1 -l x
El = Un , l = Un e -l x = e U
(n - 1)!
L'opérateur laplacien et les potentiels newtoniens
Il s'agit de l'opérateur D := D12 + D22 + ... + Dp2 sur l'espace ¡p .
a) En dimension 1, une solution élémentaire s'obtient facilement. C'est la
1
fonction x car D x est la fonction impaire valant + 1 pour x > 0.
2
On a donc :
1
E= x
2
et toute autre solution élémentaire s'obtient en ajoutant une fonction
ax + b. On remarquera qu'il n'y a pas de solution élémentaire dans E ¢.
Toutefois il y en a une dans D+¢ , donnée par
1 x
E1 = x + = U × x
2 2
Les formules T = E å B et T1 = E1 å B1 résolvent donc les équations T ¢¢ = B
avec B Î E ¢ et T1¢¢ = B1 avec B1 Î D+¢ .
b) En dimension 2, l'équation DE = d définit une fonction harmonique en dehors
de l'origine. On peut se limiter à rechercher des fonctions ne dépendant
que de la distance r := x2 + y2 à l'origine. On sait que ln r en est une et
il reste à calculer D(lnr).
Or pour toute j Î D on a
D(ln r) j = òò ( ln r ) Dj dx dy
Ecrivons l'intégrale double comme limite, quand e ® 0, de l'intégrale
I(e) := òò ( ln r ) Dj dx dy
e£r£R
o
où R est choisi assez grand pour que Supp j Ì B(0,R), et appliquons à
la couronne e £ r £ R la formule classique der Green
uuuuuuu uuuuuuur r
òòS ( h Dj - j Dh ) dx dy (= òG h grad j - j )
gradh × n ds
où G est rla courbe limi tant S, orienté dans le sens positif, la normale
unitaire n étant orientée extérieurement à S. Ici, G se compose des
deux
r cercles G e et GR , mais tout est nul sur GR . Il reste donc, en orientant
n à l'intérieur de la couronne : r r
uuuuuuu uuuuuuuuuur r
I(e) = - ò ( ln r ) grad j × n ds + ò j gradlnr × n ds.
Ge Ge
La première intégrale tend vers zéro quand e ® 0, car elle se majore par
uuuuuuuuuur r 1
un terme de la forme M e ln e . Quand à la seconde on a gradlnr × n = , d'où
uuuuuuuuuur r r
1
òGe j gradln r × n ds = e òGe j ds
et la limite est 2p j(0). En résumé on a
D ln r j = 2p j(0)
d'où la solution élémentaire
1
E= ln r r := x2 + y2
2p
c) En dimension 3, un calcul identique, basé sur la formule de Green dans
l'espace, conduit à
1 1
E=- r := x2 + y2 + z2
4p r
On peut montrer que le sous-espace HD des distributions T telles que
DT = 0 [ distributions harmoniques ] est formé uniquement de fonctions
indéfiniment différentiables, qui sont bien évidemment harmoniques.
Alors la connaissance de la solution élémentaire E permet la résolutio n
des équations DT = B, avec second membre B Î E ¢.
Les potentiels newtoniens sont attachés à la solution élémentaire E.
Pour toute distribution S, à support compact, désignons par US la
distribution E å S. On dit que US Î D ¢ qui vérifie l'équation de Poisson :
DUS = S.
Il existe trois cas particuliers spécialement intéressants :
a) Potentiel de volume. On choisit pour S une fonction égale à une fonction
r Î L1 sur un ensemble borné et intégrable A. Le potentiel US coïncide
alors avec la fonction produit de convolution E å r. On dit que US est
le potentiel de volume créé par la densité r sur le "volume" A.
b) Potentiel de simple couche. Soit S une surface de ¡3 (ou une courbe
de ¡2 si p := 2), supposée compacte et de classe C1 et soit dS son élément
d'aire (mesure de Lebesgue sur S). On choisit pour S la distribution
S1 définie par une densité superficielle r Î L1 ( S). On rappelle que S1
est définie par
S1 (j) := ò j(M) r(M) dS(M).
S
Alors US est dit potentiel de simple couche. C'est une fonction donnée
par
US1 (P) := ò E(P - M) r(M) dS(M).
g ) Potentiel de double couche. A partir de la surface S, supposée orientée,
et de la densité superficielle r sur S, on définit la distribution S2 par
¶j
S2 (j) := ò (M) r(M) dS(M).
S ¶n
¶j
où est la dérivée de j dans la direction définie par la normale
¶n r
orientée n à S (dérivée normale). Alors US2 est dit potentiel de double
couche. Ce n'est plus une fonction sur ¡3 ; toutefois c'est une fonction
sur l'ouvert complémentaire de S.
L'opérateur de la chaleur (ou de la diffusion)
L'espace ¡p+1 paramétré en (x, t), où x Î ¡p est une coordonnée d'espace et
t Î ¡ une coordonnée de temps. L'opérateur de la diffusion est défini par
¶
P := -D
¶t
où D est l'opérateur laplacien sur ¡p . On a donc, par exemple pour une
fonction j de classe C 2 :
p
¶j ¶2 j
( Pj ) (x, t) = (x, t) - å 2 (x, t).
¶t i=1 ¶xi
On a alors :
(4.4.8) PROPOSITION. L'opérateur de la diffusion P sur ¡p possède la
solution élémentaire E donnée par la fonction
U(t) æ r2 ö
E(x, t) = exp ç - ÷
( )
p
4 pt è 4t ø
2 2
où r := x = x12 xp2 .
+ ... +
Preuve : Nous ne pouvons encore recourir à la transformation de Fourier des
distributions pour faire cette vérification. Opérons donc autrement.
Remarquons que pour chaque t > 0 la fonction partielle Et : = E (g, t) est la
transformée de Fourier de la fonction gaussienne
( )
Gt (x) := exp -4 p2 tr2 .
Par ailleurs il s'agit de vérifier l'égalité
¶E
- DE f = f(0)
¶t
pour toute f Î D( ¡p ´ ¡). Mais il suffit de faire ce travail pour une fonction
décomposée f := j Ä y où j = j(x) et y = y(t), grace ˆ au théorème de densité
(4.1.1). Pour une telle f on a :
+¥
¶E
f = - ò Et j y ¢(t) dt
¶t 0
+¥
DE f = ò Et Dj y(t) dt.
0
ˆ à la formule de Plancherel-Parseval on a, re lativement à la variable x :
Grace
Et j = Gt Fj
Et Dj = Gt FDj = Gt -4 p2r2 Fj
puisque FDj = -4 p2r2 Fj.
D'où en appliquant le théorème de Lebesgue-Fubini :
¶E é +¥ ù
¶t êë 0
( )
f = - ò ( Fj ) (x) ê ò exp -4p2 tr2 y ¢(t)dt ú dx
úû
+¥
é ù
( )
DE f = - ò ( Fj ) (x) ê ò 4p2r2 exp -4p2 tr2 y(t) dt ú dx
êë 0 úû
Or une intégration par parties fournit immédiatement :
+¥ ¥
ò ( ) ( )
exp -4 p2 tr2 y ¢(t)dt = -y(0) + 4 p2r2 ò exp -4 p2 tr2 y(t) dt
0 0
d'où l'on déduit :
¶E
f = y(0) ò ( Fj ) dx + DE f .
¶t
¶E
Mais ò ( Fj ) (x) dx = j(0), donc : - DE f = j(0) y(0) = f(0)
¶t
ce qui termine la démonstration W
EXERCICES
EX.1 Le théorème de Stone-Weierstrass "différentiel"
La norme sur ¡p est évidemment la norme euclidienne. Pour simplifier
on pose r := x pour x Î ¡p .
a) Pour tout entier n on définit la fonction Fn p ar
( )
ìï 1 - r2 n si r £ 1
Fn (x) := í
ïî 0 si r > 1
et l'on pose An := ò Fn dx.
On fixe maintenant un nombre a > 0 et l'on pose
1 1 æ x ö
Gn (x) := n
Fn ç ÷
( ) n è 2a ø
2a A
Montrer que Gn est une fonction continue, à support contenu dans
la boule de rayon 2a et telle que Gn ³ 0 et ò Gn dx = 1.
b) On fixe une fonction j continue sur ¡p, à support contenu dans la
boule de rayon a. Montrer que la fonction Gn å j est continue, à
support compact contenu dans la boule de rayon 3a, et coïncide sur
ˆ Pn de degré au plus égal à 2n.
la boule de rayon a avec un polynome
Etablir que la suite Gn å j converge uniformément vers j quand n ® + ¥.
c) On suppose maintenant j Î D( ¡p ), de support contenu dans la boule
de rayon a. Montrer que Gn å j est aussi élément de D( ¡p ) et que,
pour tout multi-indice de dérivation a on a
Da ( Gn å j ) = Gn å Da j .
d) Déduire de tout cela le théorème :
THEOREME. (Stone-Weierstrass). Pour toute fonction f Î E ( ¡p ) et
pour tout compact K Ì ¡p , il existe une suite Pn de polynomes
ˆ tels
ˆ
que pour tout multi-indice a, la suite des polynomes a
D Pn converge
a
uniformément sur K vers la fonction D f.
ˆ
e) Montrer alors que l'espace P des polynomes sur ¡p est partout dense
dans l'espace E ( ¡p ).
EX.2 Montrer que le produit tensoriel ( S,T ) a S Ä T est séparément continu
pour les topologies faibles, ou bien pour les topologies fortes, quand on
le considère comme une application bilinéaire de D ¢ ´ D ¢ dans D ¢, ou de
E ¢ ´ E ¢ dans E ¢.
EX.3 On suppose p := 1. Soit U la fonction de Heaviside. Comparer les
distributions d Ä U et U Ä d sur ¡2 .
EX.4 On fixe S Î D ¢( ¡p ), supposée non nulle.
Montrer que les distributions T Î D ¢( ¡p ) telles que S Ä T = T Ä S sont
toutes proportionnelles à S.
EX.5 Dans le plan ¡2 soit Rq la rotation d'angle polaire q. Pour toute fonction
j Î D( ¡2 ) on définit la fonction Rq j par ( Rq j ) (x) = j ( R-qz ), où l'on
a posé z := (x, y), point générique de ¡2 . C'est évidemment une fonction
élément de D( ¡2 ).
Pour toute distribution T Î D ¢( ¡2 ) on définit la distribution RqT par
( RqT ) (j) := T ( R-q j ) .
On dit que RqT est l'image de T dans la rotation Rq .
On dit enfin que T est invariante par rotations lorsque RqT = T pour
tout angle polaire q.
a) On fixe une distribution T Î D ¢( ¡) et l'on suppose que le produit
tensoriel T Ä T est invariant par rotations. Montrer que pour toutes
j, y Î D( ¡) on a :
( DT ) (j) ( XT ) (y) = ( XT ) (j)DT(y).
Déduire de cette égalité que T est soit égale à Cd, soit égale à une
2
fonction Ce kx (avec C et k constantes). Réciproque ?
b) Déterminer complètement les deux distributions S Î D ¢( ¡) et T Î D ¢( ¡)
sachant que la distribution S Ä T est invariante par rotations.
EX.6 On dit qu'une distribution T Î D ¢( ¡2 ) ne dépend pas de la variable x
si ta T = T pour tout vecteur a de la forme a := ( a, 0).
a) Montrer que toute distribution T de la forme T := 1 Ä S, avec
S Î Dy¢ ( ¡) ne dépend pas de la variable x.
b) Montrer que si T ne dépend pas de la variable x, alors DxT = 0.
c) On suppose maintenant DxT = 0. Pour toute y Î Dy ( ¡) l'application
j a T(j Ä y) est une distribution Uy . Etablir que Uy coïncide avec
une constante. En déduire qu'il existe une distribution S Î Dy¢ ( ¡) telle
que T = 1 Ä S.
On a donc montré l'équivalence des trois assertions :
1) T ne dépend pas de la variable x ;
¶T
2) =0;
¶x
3) T admet une décomposition de la forme T := 1 Ä S.
Que peut-on dire d'une distribution T Î D ¢( ¡2 ) qui ne dépend ni de
la variable x, ni de la variable y ?
EX.7 Soit S1 et S2 des distributions sur U et T1 et T2 des distributions sur V.
On suppose S1 ¹ 0 et T2 ¹ 0. Quelles relations existe-t-il entre S1 et S2 ,
ainsi qu'entre T1 et T2 , sachant qu e
S1 Ä T1 = S2 Ä T2 ?
EX.8 Symétrie et antisymétrie
Pour toute fonction f définie sur ¡2 on note f% la fonction (x, y) a f(y, x),
dite symétrisée de f (par rapport à la première bissectrice). On dit que
f est symétrique si f% = f et qu'elle est anti-symétrique si f% = -f.
Pour toute distribution T Î D ¢( ¡2 ) on note T% la symétrisée de T,
définie par
% j) = T(j% ) ; j Î D( ¡2 )
T(
ce qui permet d'introduire les notions de distributions symétriques ou
antisymétriques.
Si R et S sont éléments de D ¢( ¡) la distribution T := R Ä S - S Ä R est
notée R Ù S pour simplifier. Elle est antisymétrique.
a) Etablir que les assertions suivantes sont équivalentes :
1) T est antisymétrique ;
2) T appartient à l'espace vectoriel fermé engendré dans Db¢ ( ¡2 )
par les distributions R Ù S, R,S Î D ¢( ¡) ;
3) T(j Ä j) = 0 pour toute j Î D( ¡) ;
4) T annule les fonctions symétriques éléments de D( ¡2 ).
On utilisera en particulier les théorèmes de densité (4.1.1) et (4.3.4).
ˆ
b) Etablir de meme l'équivalence des assertions :
1) T est symétrique ;
2) T appartient à l'espace vectoriel fermé engendré dans Db¢ ( ¡2 )
par les distributions R Ä S + S Ä R, R,S Î D ¢( ¡) ;
3) T(j Ù y) = 0 pour toutes j, y Î D( ¡) ;
4) T T annule les fonctions antisymétriques éléments de D( ¡2 ).
EX.9 On reprend les distributions Um, éléments de D+¢ := D+¢ ( ¡), définies
à l'ex.16 du chap.3.
a) Montrer que pour tout m et tout n réels on a
Um å Un = Um+n .
On commencera par supposer m ³ 0 et n ³ 0.
b) On fixe l réel et l'on pose Um , l := e -l x Um . Montrer que
U m , l Ä Un , l = U m+n , l .
EX.10 Primitives mièmes d'une distribution à support compact
a) On désigne par 1 la fonction constante égale à 1 et par X n la
ˆ
fonction monome t a tn , n entier ³ 0 (on a donc X 0 = 1). Pour toute
distribution à support compact T Î E ¢( ¡), on dit que an (T) = T(Xn )
est son moment d'ordre n.
Calculer les moments an (S) de la distribution S := DT en fonction
des moments de T.
b) On fixe une distribution S Î E ¢ et soit J := JS = [ a,b ] le plus petit
intervalle compact contenant Supp S. On désigne comme d'habitude par
Ú
U la fonction t a U( -t), symétrique de la fonction de Heaviside U.
Montrer que la distribution T0 := U å S est une primitive de S dont
le support est contenu dans l'intervalle ëé a, + ¥ ûù, et qu'elle est la
seule distribution ayant ces d eux propriétés.
Ú
Montrer que la distribution T1 := - U å S est la seule primitive de S
dont le support soit contenu dans l'intervalle ëé - ¥,b ûù.
Etablir qu'il existe entre T0 et T1 la relation
T0 = T1 + a 0 (S)1.
En déduire alors que pour que S admette une primitive à support
compact il faut et il suffit que a 0 (S) = 0.
c) On fixe un entier ³ 1. Pour toute S Î E ¢ on pose Sm := U m å S, où U m
est la distribution étudiée à l'ex.9. Montrer que Sm est une primitive
mème de S. Etablir ensuite que la condition Sm Î E ¢ qui possède, pour
tout entier m ³ 1, une primitive à support compact est nécessairement
la distribution S := 0.
EX.11 Convolutions, translations et dérivations
Les fonctions et distributions sont ici définies sur ¡p . On sait que toute
distribution S Î D ¢ définit un opérateur de convolution S å de D dans E :
j a S å j. Cet opérateur est d'un type assez remarquable car il e st
continu et permute avec :
(
- les dérivations : Da (S å j) = S å Da j )
- les translations : ta (S å j) = S å ( ta j )
- les convolutions par des distributions à support compact :
T å (S å j) = S å (T å j).
Nous voulons ici examiner les problèmes réciproques.
a) Soit L : D ® E un opérateur continu qui permute avec les dérivations.
Montrer que L permute avec les translations. On étudiera la fonction
f(a) := ta éë L ( t- a j ) ùû
pour j Î D fixée.
b) On fixe y Î D et un pavé P contenant le support de y. Pour chaque
entier m on considère une subdivision ( Pk ) de P obtenue en divisant
ˆ de P en m intervalles égaux, subdivision à laquelle on
chaque arete
associe l'opérateur
æ ö
Um := å ç ò y dx ÷ tak
Pk
k è ø
où ak est le centre du pavé Pk .
Montrer que l'on a :
y å j = lim Um (j)
m®+¥
où la limite est prise dans E si j Î E, et dans D si j Î D.
En déduire que tout opérateur continu L : D ® E qui permute avec les
translations permute aussi avec les convolutions y å par des fonctions
y Î D, c'est-à-dire ;
(*) L(y å j) = y å L(j).
c) Soit L : D ® E un opérateur continu qui permute avec les translations.
Montrer qu'il existe une distribution S Î D ¢ telle que L = S å .
(On remarquera que l'application y a ( Ly ) (0) est une distribution,
et on utilisera l'égalité (*) en faisant tendre convenablement j vers d
dans l'espace E ¢).
d) Soit L : D ® Ds¢ un opérateur continu. Etablir l'équivalence des
assertions suivantes :
a) L permute avec les dérivations ;
b) L permute avec les translations ;
g) il existe S Î D ¢ telle que L = S å .
(On associera à L et à chaque y Î D l'opérateur Ly : j a y å L( j)
de D dans E .
e) Soit L : Es¢ ® Ds¢ un opérateur continu. Etablir l'équivalence des
assertions :
a) L permute avec les dérivations ;
b) L permute avec les translations ;
g) il existe S Î D ¢ telle que L = S å .
f) Soit L : Es¢ ® Es¢ un opérateur continu. Etablir l'équivalence des
assertions :
a) L permute avec les dérivations ;
b) L permute avec les translations ;
g) il existe S Î E ¢ telle que L = S å .
ˆ
g)* Meme question avec un opérateur continu L : Ds¢ ® Ds¢ .
EX.12 Problème de Cauchy dans D+¢ ( ¡)
On considère une équation différentielle linéaire à coefficients
constants :
(*) y(n) + an -1 y(n-1) + ... + a1 y ¢ + a0 y = g
où g est une fonction définie et continue pour x ³ 0.
On recherche une fonction y qui soit nulle pour x < 0, de classe C n-1
sur ¡ + , de classe Cn sur ]0, + ¥), et vérifiant les conditions initiales
y(0) = a0 ; y ¢(0) = a1 ; ... ; y(n -1) (0) = an -1 .
On note par L l'opérateur de dérivation Dn + an -1 Dn -1 + ... + a0 I
associé à l'équation (*), et par E := U × z (avec les notations de (4.4.6))
sa solution élémentaire dans l'algèbre convolutive D+¢ = D+¢ ( ¡).
a) Montrer que E est une fonction de classe C n-2 sur ¡ et de classe C ¥
sur éë 0, + ¥ ) . En déduire que E est une solution y au problème posé
plus haut quand on choisit g := 0 et les conditions init iales
a0 := a1 := ... := an -2 := 0 ; an -1 := 1.
b) On suppose connue une fonction y répondant aux conditions imposées.
Montrer que y est solution au sens des distributions de l'équation :
n -1
L(y) = Ug + å bk d(k)
k =0
où les coefficients bk sont déterminés selon :
b0 = a 0 a1 + a1 a2 + a2 a3 + . . . . . . . + an-1
b1 = . . . . . . . a 0 a2 + a1 a3 + . . . . . . . + an-2
M
bn-1 = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a 0
c) Déduire de là que le problème posé plus haut (problème de Cauchy)
admet la solution unique y définie pour x ³ 0 par :
x n -1
y(x) := ò z(x - t) g(t) dt + å bk z(k) (x) .
0 k =0
EX.13 Un sous-corps dans l'algèbre D+¢ ( ¡)
a) Soit P l'algèbre multiplicative des polynomes ˆ d'une variable à
coefficients réels. A tout polynome ˆ P := an X + an -1 Xn-1 + ... + a0 ,
n
on associe l'opérateur de dérivation
P(D) := anDn + an -1Dn -1 + ... + a1D + a0 I
et la distribution A(P) := P(D) d Î D+¢ .
Etablir que l'application P a A(P) est un homomorphisme injectif
de l'algèbre P dans l'algèbre convolutive D+¢ .
b) A chaque P ¹ 0 de P on associe maintenant la solution élémentaire
dans D+¢ de l'opérateur P(D), notée E(P) et construite en (4.4.6).
On a donc A(P) å E(P) = d.
Montrer que E(PQ) = E(P) å E(Q).
En déduire que l'égalité dans D+¢
A(P1 ) å E(Q1 ) = A(P2 ) å E(Q2 )
est équivalente à l'égalité P 1 Q2 = P2 Q1 dans P .
c) On considère maintenant l'ensemble des distributions T Î D+¢ de
la forme
T := A(P) å E(Q) ; P Î P,Q Î P, Q ¹ 0.
Démontrer qu'on obtient ainsi un sous - corps convol utif de l'
algèbre D+¢ , isomorphe au corps F des fractions rationnelles d'une
variable, à coefficients réels.
d) Trouver une méthode pour résoudre et discuter pour x > 0 l'équation
intégro-différentielle
x
y ¢¢ + 2y + ò ( x - t ) y(t) dt = g
0
où g est une fonction donnée, continue pour x ³ 0, quand on s'impose
des conditions initiales pour x = 0.
EX.14 Fonctions entières dans D+¢
a) Soit H l'algèbre des fonctions sur ¡ admettant un développement
en série entière de rayon de convergence infini.
¥
A chaque fonction A := å an xn de H on associe la fonction UA Î D+¢ ,
n =0
¥
où U est la fonction de Heaviside. Montrer que pour A := å an xn
n =0
¥
et B := å bm xm , toutes deux éléments de H, il existe une unique
m=0
¥
fonction C := å cp xp de H telle que
p= 0
UA å UB = UC .
Calculer le coefficient cp .
On note dans la suite C =: A # B.
¥ ¥
b) On suppose A et B fonctions paires, A := å an x2n et B := å bm x2m .
n =0 m=0
¥
Montrer que C := A # B est impaire : C = å gp x 2p+1
. Déterminer
p= 0
le coefficient g p .
c) On prend pour A la fonction J0 de Bessel
¥
( -1 )n x2n
A := J0 := å
( )
2
n =0 2n n!
Montrer que J0 # J0 = sin x. (Pour les besoins éventuels du calcul on
1
introduira le développement en série entière de la fonction ).
1-x
En déduire que la solution élémentaire dans D+¢ de l'opérateur de
convolution ( UJ0 ) å est donnée par :
J¢
E := d¢ - U × 0 .
x
(On rappelle, ce qu'on peut vérifier ici, que J0 est solution de l'
équation différentielle de Bessel xy ¢¢ + y ¢ + xy = 0).
EX.15 On rappelle que pour les fonctions j(x, y), de classe C 2 sur ¡2, qui
ne dépendent que de la distance r := x 2 + y 2 à l'origine, le laplacien
s'écrit
¶2 j 1 ¶j
Dj = 2 +
¶r r ¶r
a) On considère sur ¡2 la fonction
ln r r2n
Vn := , n entier ³ 0.
(
2p 2n n! 2
)
Montrer qu'il existe une constante Cn telle que
DVn+1 = Vn + Cn r2n
En déduire que Dn +2Vn+1 = Dn +1Vn .
b) Montrer alors que Vn est une solution élémentaire de l'opérateur Dn+1 .
EX.16
a) Montrer que l'équation Bessel xy ¢¢ + y ¢ + xy = 0, qui admet la solu-
tion J0 , admet aussi, pour x > 0, une solution N0 de la forme :
¥
( -1 )n an x2n
N0 (x) := ( ln x ) J0 (x) - å .
( )
2
n =1 2n n!
Déterminer les constantes an ainsi que le rayon de convergence
de la série entière.
b) On remplace l'équation de Bessel par l'équation :
(E) xy¢¢ + y¢ - xy = 0.
Montrer qu'elle admet la solution I0 déf inie par :
¥
x2n
I0 (x) := J0 (ix) = å , x réel
( )
2
n =0 2n n!
ainsi que, pour x > 0, la solution M0 définie par :
¥
a x2n
M0 (x) := ( ln x ) I0 (x) - å n
( )
2
n =1 2n n!
c) On introduit la nouvelle fonction, pour x > 0 :
x
dt
L0 (x) = I0 (x) ò 2
1 t I0 (t)
Montrer qu'elle est solution de l'équation (E). Donner un équivalent
de L0 (x) quand x ® + 0. En déduire qu'il existe une constante B
telle que L0 = M0 + BI0 . Montrer que
1
I (t)2 - 1 dt
B=ò 0 .
0
I0 (t) t
d) On considère maintenant sur ¡2 les fonctions J0 ( r), N0 (r), I0 (r),
M0 (r) avec r := x2 + y2 . Montrer que l'on a
( D + I ) J0 (r) = 0 ; ( D + I ) N0 (r) = 2pd
( D - I ) I0 (r) = 0 ; ( D - I ) M0 (r) = 2pd
En déduire une solution élémentaire de l'opérateur ( D + lI ) pour
l réel fixé.
EX.17 Solution élémentaire de l'opérateur des ondes
L'espace ¡p+1 est paramétré en (x, t), où x Î ¡p est une variable
d'espace et t Î ¡ une variable de temps. Le demi-espace
{ (x, t) | t ³ 0 } est appelé le demi-espace d'avenir et le cone ˆ
{ (x, t) | t ³ x } est appelé le cone ˆ d'ondes d'avenir. On rappelle
(voir exemple 3) qu'une distribution T sur ¡p+1 est dite parabolique
[ resp. hyperbolique ] si son support est contenu dans le demi-espace
ˆ d'ondes ] d'avenir. Les distributions paraboliques
[ resp.le cone
forment un module convolutif sur l'algèbre convolutive des distributions
hyperboliques.
On appelle opérateur d'ondes, ou d'alembertien , l'opérateur :
¶2
,p := 2 - D
¶t
où D est l'opérateur laplacien sur ¡p . On se propose d'en trouver une
solution élémentaire pour p := 1,2,3. Le calcul va montrer que cette
solution élémentaire Ep est en fait une distribution hyperbolique.
Il suit donc du théorème (4.4.3) qu'elle est unique dans le module des
distributions paraboliques.
a) On suppose p := 1
¶2
a) Montrer que l'opérateur M := admet pour so lution élémentaire
¶x ¶t
la fonction U(x) U(t), où U est la fonction de Heaviside.
p
b) On effectue la rotation R, d'angle . Déterminer les coordonnées
4
du point R(x, t). En se reportant aux définitions données dans l'
exercice 5, établir que pour tout j Î D( ¡2 ), on a :
1
( )
M R -1 j = R -1 (,j).
2
g) En déduire, en désignant par G le cone ˆ d'ondes d'avenir que la
1
solution élémentaire E1 de l'opérateur , est la fonction 1 G, où
2
1G est la fonction indicatrice de G.
ì 1
ïï E1 = 1G soit
2
í
ï E1 (j) = 1
2 òòt ³ x
j(x, t) dx dt
ïî
b) On suppose p := 3
a) Régularisée sphérique. Pour toute j Î D( ¡3 ) on pose
1
j% (x, y,z) :=
4p òòS
j(rM) ds(M)
avec r := x2 + y2 + z2 , et où S est la sphère unité de ¡3 et
ds l'élément d'aire sur S. La fonction j% ne dépend que de la
variable r. On dit que c'est la régularisée sphérique de j.
Pour tout point M := ( a, b, g) de S tel que a2 ¹ 1, on désigne
par RM la rotation dans l'espace, d'axe (o, -g, b) orthogonal
au vecteur (1, 0, 0), et d'angle positif inférieur à p qui amène
le point (1, 0, 0) sur le point ( a, b, g). Si ( a, b, g) = (1, 0, 0) on
prend pour RM la transformation identique et si ( a, b, g) = ( -1, 0, 0)
alors RM est la symétrie par rapport à l'origine.
Montrer que pour tout point (x, y,z) fixé on a
1
j% (x, y,z) =
4 p òòS ë
j é RM (x, y,z) ùûds(M)
En déduire que la régularisée sphérique Dj ± de la fonction Dj
coïncide avec la fonction Dj% .
b) On définit maintenant la distribution E3 sur ¡ 4 en posant, pour
tout j = j(x, y,z, t) Î D( ¡ 4 ) :
dx dy dz
E3 (j) := òòò 3 j(x, y,z,r)
¡ 4 pr
avec toujours r := x + y2 + z2 .
2
On remarquera que E3 a pour support le bord du cone ˆ d'ondes
4
d'avenir de ¡ . En remarquant que l'élément de volume dx dy dz
de ¡3 s'écrit aussi r2 drds, où ds est l'élément d'aire de la
sphère unité S, établir la formule
+¥
1
4p 0ò
E3 (j) := rdr òò j(ra,rb,rg,r)ds(a, b, g).
S
On introduit maintenant la régularisée sphérique j% (x, y,z, t) de
la fonction j( g, g, g, t) pour chaque t fixé, que l'on note pour
simplifier f% (r, t). On a alors
+¥
E3 (j) = ò t f% (t, t) dt.
0
g) On traite la fonction f%(r, t ) = j% (x, y,z, t) comme une fonction de
4 variables. Montrer que
ì ¶²
2
j ¶2 f%
ï 2 (x, y,z, t) = 2 (r, t)
ï ¶t ¶t
í 2% %
ï ±
Dj (x, y,z, t) = % (r, t) = ¶ f (r, t) + 2 ¶f (r, t)
Df
ïî ¶r2 r ¶r
(Se souvenir de la formule d onnant l'opérateur laplacien sur ¡3
pour une fonction ne dépendant que de la variable r).
d) Toujours pour j Î D( ¡ 4 ) on pose :
¶f% ¶f%
y(t) := t (t, t) - t (t, t) - f% (t, t).
¶t ¶r
Calculer y ¢(t). Déduire alors de ce qui précède l'égalité
+¥
, E3 j = E3 (, j) = ò y ¢(t)dt.
0
Montrer enfin que , E3 = d.
c) On suppose p := 2
ˆ que de faire un calcul direct assez fastidieux, on utilise la
Plutot
méthode dite de descente , due à Hadamard, qui permet assez
facilement de passer de E3 à E2 .
a) On fixe une fonction q(z), élément de D( ¡). Elle permet de définir
une distribution Lq , élément de D ¢( ¡3 ), en posant
Lq (j) := E3 j Ä q ; j = j(x, y,z, t).
Vérifier alors l'égalité
( )
,3 (j Ä q) = ,2 j Ä q - j Ä q¢¢
et en déduire l'égalité :
,2 Lq = q(0) d + Lq¢¢ .
b) On paramètre la demi-sphère unité supérieure S+ de ¡3 à partir
des coordonnées ( a, b) de la projection du point courant ( a, b, g)
sur le plan xOy. Montrer que l'élément d'aire ds(a, b, g) s'écrit
da db da db
ds( a, b, g) = =
g 1 - a2 - b2
En déduire que si q est une fonction paire on a :
1 (
j(x, y,z, t) q t2 - r2 )
dt dx dy ; r := x2 + y2
2p òòòG
L q(j) =
2 2
t -r
ˆ d'ondes d'avenir dans ¡3 .
où G est le cone
Montrer enfin que lorsque q ® 1 dans l'espace E( ¡) la distribution
Lq tend vers une distribution L = E2 , de support contenu dans G,
solution élémentaire de l'opérateur ,2 .
En résumé on peut rassembler ce qui a été obtenu en a), b), c) sous
forme du tableau :
1
p := 1 E1 (j) = òò j(x, t) dx dt
2 t³ x
1 j(x, y, t)
p := 2 E2 (j) = òòò dx dy dt r := x2 + y2
2p t ³ r 2
t -r 2
1 j(x, y,z,r)
p := 3 E3 (j) = òòò¡3 dx dy dz r := x2 + y2 + z2
4p r