Dispositifs Géophysiques en Laboratoire: Thèse
Dispositifs Géophysiques en Laboratoire: Thèse
Présentée par
Benoit de Cacqueray
Dispositifs géophysiques en
laboratoire
Ondes de surface, traitement d’antennes et
haute densité spatiale
Pour commencer, je voudrais remercier CGGVeritas, ma société, qui au travers de mes res-
ponsables Jean-Jacques Postel, Julien Meunier, Jean-Charles Ferran et Thomas Bianchi m'a fait
conance pour me lancer dans ce projet. Je les remercie également de m'avoir soutenu, que ce
soit pour orienter le projet, évaluer les résultats ou obtenir des moyens de travail.
J'ai été particulièrement bien accueilli à ISTerre, à commencer par mes encadrants. Merci à
Philippe Roux, mon directeur de thèse, pour son enthousiasme scientique, sa disponibilité au
quotidien, ses encouragements et sa conance au moment de choisir une direction d'étude. Merci
également à Michel Campillo, co-directeur de thèse, grâce à qui j'ai pu passer de la géophysique
à la sismologie et dont les remarques m'ont permis d'élargir mon sujet à de multiples reprises.
Merci enn à Stefan Catheline, co-directeur de thèse également, avec qui j'ai pu aronter la
réalité des gels et la physique des milieux visqueux.
Je remercie Philippe Cote et Julien de Rosny d'avoir accepté de relire ma thèse en tant que
rapporteurs, ainsi que Jean-Luc Boelle, Nikolai Shapiro et Julien Meunier comme examinateurs.
L'environnement des doctorants a été un atout de choix pour passer de bons moments dans
ces années studieuses. Citons l'équipe du déjeuner de 12h47 avec Amir, Aurore, Matthieu, Diane,
Florent, Aurélien, Cathy, Ainhoa, Pierre, Thomas, Guénolé, Yohannes et al.
Il arrive aussi que l'on travaille ensemble... Merci à Pierre Boué sans qui je serais peut-être
encore en train de déméler les subtilités d'un lancement de code en parallèle sur les serveurs
de l'Université et avec qui nous avons abordé l'intéressant problème de représenter en deux
dimensions des résultats qui en comptent cinq.
Je remercie également la société Shell pour m'avoir permis de travailler sur des données
réelles ainsi que Kees Hornman pour l'autorisation de publication.
Merci à Grégoire Le Touzé pour le temps passé à m'initier à la haute résolution et à discuter
de mes résultats ainsi qu'à Julien Cotton et Ali Zorgani pour le prêt de jeu de données. J'ai pu
enrichir mon travail et ma culture grâce à Antonio Pica, Gilles Lambaré, Philippe Herrmann à
Massy ainsi que Jean Virieux, Jérome Mars, Romain Brossier et Vincent Rosseto à Grenoble.
Je garde un très bon souvenir de la mission en Auvergne à taper sur le sol avec une masse
vers 3h du matin... Merci Eric Larose pour cette belle équipée et la place de choix dans son
bureau.
Et mille mercis à Anne-Solenne, ma femme préférée, qui a accepté de faire plus de 20 000
km en TGV pour que je puisse terminer cette thèse dans les meilleures conditions, pour cela et
pour le reste bien sur.
3
4
Résumé
La sismique pétrolière est un domaine d'innovation continu depuis plus d'un siècle. Une part
importante des études concerne la séparation des diérentes ondes se propageant dans le milieu
exploré, en particulier la séparation des ondes de surface d'avec les ondes de volume.
A petite profondeur, les ondes de surfaces servent à la tomographie et permettent d'imager
la proche surface. Quand la prospection est tournée vers les grandes profondeurs - soit 95% de
l'industrie géophysique - ces ondes masquent les ondes de volume qui contiennent les informa-
tions sur les couches profondes. Il est donc fondamental de pouvoir s'en aranchir et l'étape de
séparation est des plus importantes.
Les ondes de surface peuvent cependant être utilisées pour une meilleure connaissance de la
proche surface, ce qui permet d'en déduire des paramètres utilisables pour améliorer l'imagerie
en profondeur. La recherche s'est renouvelée dans ce domaine du fait de l'impulsion récente
donnée par l'imagerie sismique passive à partir du bruit sismique ambiant ou la mise en place
de nouvelles géométries d'acquisition.
En parallèle, l'étude des champs pétroliers existants pour une meilleure exploitation tend à
se développer dans l'industrie. L'imagerie 4D (i.e. l'imagerie 3D répétée dans le temps calendaire
et appliquée à la surveillance de réservoir) devient dès lors une activité clé pour la recherche.
Elle permet l'estimation des variations des paramètres du sous-sol.
Le travail de thèse réalisé est issu des constatations suivantes :
1. En dépit de travaux très riches, les ondes de surface représentent encore un sujet d'inves-
tigation important en exploration géophysique.
5
Abstract
Separating the various waves propagating in a medium, and in particular, separating body
waves from surface waves, has been an ongoing goal for seismic exploration for more than a
century.
In near-surface depths, surface waves are useful for tomography. Near-surface imaging be-
comes possible if these waves are well-modeled. When exploration is dedicated to depth which
is the case for more than 95% of seismic exploration business the surface waves mainly hide
body waves that contain information related to the depth. Body and surface wave separation
then becomes a fundamental task.
In these situations, the surface waves can nevertheless be used to gain knowledge of the
near surface. It allows us to compute parameters that in turn serve to improve depth imaging.
Important developments in this domain of research are due to the recent boost provided by
passive seismic imaging from ambient noise and new acquisition designs based on high-density
receivers. In parallel, the study of oil elds for exploitation optimization is growing as a new
industrial development axis. The mastery of 4D (i.e., three spatial dimensions + time) imaging
has become a key research activity in which subsurface parameters are estimated and monitored.
This PhD thesis is based on the following remarks :
1. Despite existing in-depth work, surface waves are still an important research issue in
seismic exploration.
2. The number of laboratory-scale experiments is relatively few, especially for those concer-
ning high-density acquisition design.
The rst step has been dedicated to the implementation and validation of an acquisition environ-
ment in the laboratory, adapted for surface wave study and a high-density receiver conguration.
Using Agar-agar phantoms, a mix of S-body waves and Rayleigh surface waves comparable to
the eld P-body wave and Rayleigh wave mix has been observed.
Using array processing, wave separation has been successfully demonstrated. After wave
separation, it becomes possible to follow arrival time variations in presence of surface and/or
depth velocity variations in the medium, as in reservoir monitoring conditions. A complete 4D
study has been performed, allowing not only the arrival time monitoring but also the launch
and arrival directions and amplitude variations. A method has been proposed to compensate
arrival time variations due to parasite near-surface velocity uctuations. An adaptation of the
method on a eld dataset is then performed.
In general, velocity proles on the eld show weak velocities in the subsurface. As a conse-
quence, the various waves coming from the depth have weak incidence angles that are comparable
in value. Classical separation methods using array processing are often insucient for such an
incidence angle set. For this reason, a part of this work has been dedicated to the study and
adaptation of high-resolution algorithms in the context of seismic exploration.
Taking advantage of the high-density receiver conguration allowed by the laboratory envi-
ronment, a comparative study of two designs has been performed to address the scattered waves
ltering issue. The rst design is theoretically ideal but somewhat unrealistic and the second
one is more economically viable but less ecient. A new ltering method has been proposed to
enhance the scattered waves ltering for the second design.
6
Table des matières
I Sismique terrestre 12
1 Généralités 12
1.1 Prospection sismique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Impact des ondes de surface . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 Sismique réexion 15
2.1 Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Ondes de surface en géophysique . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Séparation d'ondes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
II Environnement expérimental 21
1 Eléments théoriques 21
1.1 Rappel des équations en milieu isotrope . . . . . . . . . . . . . . . . . . . . . . . 21
1.2 Ondes de Rayleigh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2 Banc de mesures 22
2.1 Emission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.1.1 Signal émis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.1.2 Pot vibrant et membrane . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.3 Pastille piézo-électrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.4 Signal reçu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.5 Bruit aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Réception . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.1 Accéléromètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.2 Laser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.3 Surfaces rééchissantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3 Chaine d'acquisition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3.1 Interactions des équipements . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3.2 Mutliplexage à la réception . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.3 Multiplexage des sources . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4 Optimisations et performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.4.1 Nouveaux modules développés . . . . . . . . . . . . . . . . . . . . . . . . 38
2.4.2 Performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
7
3.2 Fabrication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3 Tests préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.1 Acquisition monocomposante . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.2 Caractérisation des ondes de Rayleigh . . . . . . . . . . . . . . . . . . . . 47
3.3.3 Imperfections de la source . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
IV Monitoring 4D 74
1 Introduction et enjeux 74
2 Mise en oeuvre expérimentale 75
2.1 Taille de l'antenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.1.1 Problème à résoudre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.1.2 Comparaison des antennes . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.2 Contrôle des variations de vitesse . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.2.1 Contraintes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.2.2 Mise en oeuvre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.3 Résultats de la double formation de voie . . . . . . . . . . . . . . . . . . . . . . . 79
8
3 Traitements et résultats 81
3.1 Approche théorique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.2.1 Variations de vitesse en profondeur et en surface . . . . . . . . . . . . . . 83
3.2.2 Correction à partir des données . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.3 Compensation de variation globale . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.4 Suivi multi-paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.4.1 Suivi en incidence/lenteur . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.4.2 Suivi en azimuth . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.4.3 Compensation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
9
VI Eléments diractants 123
1 Introduction 123
1.1 Dispositif d'acquisition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
1.2 Traitements et résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
1.2.1 Données brutes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
1.2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
2 Dispositifs 3D 127
2.1 Filtrage fk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
2.2 Comparaison des dispositifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
2.3 Traitements et résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
2.3.1 Filtrage fk 3D classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
2.3.2 Application aux données . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
2.3.3 Algorithme proposé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
2.3.4 Changement de référentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
2.3.5 Localisation des diractants . . . . . . . . . . . . . . . . . . . . . . . . . . 139
2.3.6 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
3 Conclusion 142
10
Notations et abréviations
φ Azimuth
ρ Masse volumique
τ Décalage temporel
θ Angle d'incidence
D Vecteur directionnel
f Fréquence
K Matrice spectrale
t Temps
V Vitesse
11
Première partie
Sismique terrestre
1 Généralités
1.1 Prospection sismique
Pour bien situer le contexte de cette étude, il convient de rappeler les principales étapes de
la prospection sismique. L'objectif est de réaliser une image du sous-sol an d'en représenter
les structures et les caractéristiques avec le plus de précision possible. Pour cela, les ondes
acoustiques et élastiques constituent un outils privilégié qui permet d'obtenir des informations
sur le sous-sol jusqu'à des profondeurs de 10 km et plus. Le principe est celui de l'échographie.
La première étape consiste donc à éclairer le sous-sol en y envoyant des ondes de la
surface ou de la proche-surface à l'aide de sources généralement articielles (camion vibrateur,
dynamite). Les ondes qui partent vers la profondeur sont les ondes de volume. Ces ondes se
propagent dans les couches du sous-sol avec des vitesses qui varient pour chaque milieu et se
réféchissent sur les diérentes interfaces rencontrées. Celles qui reviennent vers la surface sont
porteuses d'informations caractéristiques du trajet eectué, liées en particulier à leur temps
d'arrivée. Des récepteurs en surface permettent d'enregistrer les mouvements du sol provoqués
par ces ondes et le travail consiste ensuite à retrouver dans ces enregistrements les propriétés
du sous-sol qui y sont cachées.
Cette étape qui regroupe l'émission, la propagation et la réception est appelée acquisition .
L'étape suivante - appelée aussi pré-traitement - comporte elle aussi diérentes phases. Nous
ne mentionnerons que les principales. Dans un premier temps un nettoyage des données est
eectué. On va par exemple ltrer le bruit ambiant, c'est à dire tous les phénomènes extérieurs
qui induisent une réponse des récepteurs non liée à la propagation des ondes d'intérêts. Certaines
ondes, comme les ondes de surface, sont émises par le dispositif lui-même et doivent aussi être
ltrées. Des corrections d'amplitudes sont également eectuées.
Une phase importante est l'analyse des vitesses qui permet d'avoir une estimation de la
vitesse des ondes en fonction des temps d'arrivées.
La phase dite de correction des statiques permet de compenser les aléas de la proche
surface qui sont à l'origine de modications des temps d'arrivées. Il s'agit principalement des
variations d'altitudes des sources ou des récepteurs - paramètres que l'on peut aisément connaître
12
- mais aussi des fortes variations de vitesses dans la proche surface.
Vient ensuite la phase de sommation (ou stack ). Si l'on considère un point M à une interface
du sous-sol [g. 1(a)], il est possible d'imager ce point en plaçant une source S à sa verticale
et en enregistrant en R le signal rééchi à l'interface. En général, si l'opération est eectuée
une seule fois, l'énergie est insusante. On peut répéter l'opération plusieurs fois et sommer les
enregistrements - ou traces - mais cela prend du temps. Il vaut mieux considérer que pour une
émission de signal donnée, de nombreux récepteurs enregistrent la réponse du sol à diérents
emplacements. Ainsi, le point M peut être imagé par les couples source-récepteur (S1 , R1 ) ou
(S2 , R2 ). On notera qu'en raison de la distance source-récepteur (ou oset) qui n'est plus nulle,
les trajets sont plus longs. Mais ces variations de temps de trajet peuvent être corrigés grâce
à la connaissance de l'oset et de la vitesse du milieu. L'oset - x1 dans le cas du couple
source-récepteur (S1 , R1 ) - est mesuré à la surface et la vitesse est connue grâce à l'analyse de
vitesse précédente. Après correction de ces diérences de temps de trajet, on peut sommer les
traces pour obtenir un meilleur signal. La collection de traces à oset nul ainsi sommées permet
d'obtenir une première coupe sismique.
Figure 1: (a) Image d'un point par sommation (b) Principales étapes de la sismique réexion (modié
d'après [Mari et al. 2001])
Toutes les étapes évoquées sont résumées gure 1(b). Certaines comportent des opérations
complémentaires que nous n'avons pas cité et peuvent être itérées pour améliorer les résultats.
[Yilmaz 1987, Mari et al. 2001] par exemple, exposent avec bien plus de détails ces étapes.
L'imagerie permet de retrouver une section en impédance acoustique. En premier lieu, l'in-
version tomographique permet d'obtenir un modèle de vitesse lissé. L'étape de migration permet
de passer d'une section sismique sommées (à oset nul) à une section qui rend compte des struc-
tures géologiques. Cette opération permet principalement de corriger les temps d'arrivées en cas
de pendage et d'enlever les hyperboles de diractions. La section migrée peut-être présentée en
fonction du temps ou de la profondeur (on parlera de migration en temps ou en profondeur).
De nombreuses méthodes ont été développées depuis les premiers travaux de [Hagedorn 1954]
en une dimension, de [Claerbout 1970] à l'aide d'éléments nis ou de [Schneider 1978] à l'aide
des intégrales de Kirscho pour 2 et 3 dimensions. L'inversion est également un domaine de
recherche à part entière [Tarantola 1987]. A l'aide des sections migrées et du modèle de vitesse
lissé, l'inversion dite stratigraphique permet de retrouver les impédances acoustiques. Certaines
méthodes utilisent tout ou partie des temps d'arrivées. D'autres plus récentes et très promet-
13
teuses utilisent l'inversion complète de la forme d'onde et expliquent les temps d'arrivées et
l'amplitude (Full Waveform Inversion ou FWI dans la littérature).
Le processus d'inversion se fait à l'aide d'un modèle de départ et les dernières techniques
évoquées sont particulièrement sensibles à ce modèle. Ainsi, les étapes d'acquisition et de pré-
traitement deviennent d'autant plus déterminantes pour l'imagerie car elles conditionnent for-
tement la qualité des résultats naux. En particulier, le modèle de la proche surface est un des
points délicats à traiter.
Dans le travail eectué, qui est une étude en laboratoire, nous avons ciblé l'acquisition et une
partie du pré-traitement. Un système d'acquisition complet à l'échelle du laboratoire a été mise
en place. Dans la phase de pré-traitement, nous avons essayé principalement de nous aranchir
des eets gênants des ondes de surface. En dépit des progrès eectués depuis de nombreuses
années, ces dernières peuvent encore dégrader signicativement les résultats de l'imagerie.
14
2 Sismique réexion
2.1 Description
Le contexte de l'étude repose principalement sur une adpatation à l'échelle du laboratoire
d'expériences de sismique réexion. La sismique réexion est une des techniques d'exploration et
d'imagerie du sous-sol à l'aide d'ondes acoustiques et élastiques. Son origine remonte à plus d'un
siècle. Une onde est envoyée dans le sous-sol et une série de récepteurs enregistre la réponse du
sol à cette onde. L'acquisition de ces signaux et leur traitement permet de construire des images
représentatives des particularités du sous-sol. On va ainsi pouvoir détecter diérentes couches
dans le sous-sol en particulier grâce à la diérence de vitesse d'une couche à l'autre. En eet,
d'après la loi de Descartes, une onde arrivant à une interface séparant deux milieux de vitesses
diérentes va se partager en une onde transmise et une onde rééchie ou réfractée. Ce sont ces
diérentes réexions remontant vers la surface et enregistrées par les récepteurs qui permettent
d'imager le milieu. En général, l'onde est générée par des dispositifs vibrants déployés sur le
terrain. Il s'agit principalement de camions vibrateurs ou d'explosifs. Plus rarement, on utilisera
une masse projetée sur le sol ou qu'on laissera chuter. Des techniques plus récentes permettent
aussi d'utiliser le bruit ambiant sous certaines conditions.
La gure 2 représente une synthèse d'un cas simplié. Une source émet au point S une onde
sphérique. Cette onde se propage dans toutes les directions dans la première couche du sol à
la vitesse V1 . On peut représenter par une èche noire certains trajets ou rais de l'onde. Par
exemple, le premier trajet remarquable est celui le long de la surface selon la direction SC.
Figure 2: Sismique réexion. (S) Source ponctuelle émettant des ondes dans un milieu à couches. (V1 à
V3 ) Vitesses des trois couches représentées. (C) récepteur distant de quelques longueurs d'ondes ou moins
de S. Demi-cercles en pointillés : fronts d'ondes sphériques. A plus grande distance (ligne pointillée), le
front d'onde devient plan. (I1 ) et (I2 ) Interfaces entre deux couches.
15
A l'interface I1 avec la seconde couche, le rayon r atteint l'interface au point M1 . A cet
endroit, une partie de l'énergie est rééchie et un rai remonte vers la surface vers le récepteur C.
Si la vitesse est constante le trajet est symétrique (SM1 C isocèle) et M1 se trouve sur la médiane
de SC. On dira que M1 est un point milieu (Common Mid Point ou CMP dans la littérature).
Ainsi, si un signal sismique est émis en S dans toute les directions une portion de ce signal
arrive en C après être passée en M1 au bout d'un temps qui dépend de l'oset, de la vitesse de
la couche et de sa profondeur. A l'interface avec une couche, une autre partie de l'énergie est
transmise. Ainsi pour le rai qui atteint I1 en A, un rais transmis se propage à la vitesse V2 dans
la seconde couche jusqu'au point M2 . Là encore, une partie de l'énergie est réechie et repart
vers la surface jusqu'au point C moyennant un nouveau changement de direction à l'interface I1 .
Le point M2 est un nouveau point milieu et le signal enregistré en C recevra son écho après un
temps qui dépend de l'oset, des vitesses dans les deux premières couches et de leur profondeur.
Il en va de même pour chaque nouvelle couche et pour chaque paire source/récepteur.
Avec les valeurs de vitesse et de profondeur suivantes :
V1 = 800 m/s et h1 = 100m
V2 = 2000 m/s et h2 = 1200 m
V3 = 4000 m/s
et en ne considérant que les deux premières réexions en profondeur, on obtient par simulation
les résultats de la gure 3 pour une onde émise en S et des récepteurs espacés de 25 m. Le
récepteur C0 est placé à côté de la source et le récepteur C à 50 m.
Les angles caractérisant les directions et les énergies des rais créés aux interfaces peuvent
être calculés à l'aide des lois de Snell-Descartes et de conservation de l'énergie. Ces opérations de
fractionnement de rais se répètent à chaque nouvelle interface. De nombreuses ondes se propagent
donc dans le milieu et les récepteurs disposés sur le sol vont recevoir des signaux correspondants
à chacune d'elle en fonction des diérentes couches et de leurs vitesses respectives. Quand les
récepteurs sont éloignés de la source, les fronts d'ondes peuvent-être considéré comme plan.
Les signaux enregistrés permettent d'obtenir des images en deux ou trois dimensions du sous-
sol (2D et 3D). Il est possible d'imager plusieurs fois la même zone pour observer l'évolution du
sous-sol au cours du temps. On parlera d'imagerie 4D.
16
2.2 Ondes de surface en géophysique
A petite profondeur, les ondes de surface sont utilisables à des ns tomographiques. Bien
les connaître et les modéliser permet de connaître et d'imager la proche surface. Quand la
prospection est tournée vers les grandes profondeurs ce qui correspond à 95% de l'industrie
géophysique ces ondes masquent les ondes de volume qui contiennent les informations sur les
couches profondes. Il est donc fondamental de pouvoir s'en aranchir et l'étape de séparation
est des plus importantes. Dans ces situations, ces ondes peuvent aussi être utilisées pour une
meilleure connaissance de la proche surface. Il est alors possible d'en déduire des paramètres
utilisables pour améliorer l'imagerie en profondeur.
Eliminer les ondes de surface est possible grâce au ltrage en vitesse dit fk. Ce ltrage -
présenté partie VI - est ecace, en particulier pour l'onde directe. Dans le cas d'hétérogénéi-
tés en surface, l'onde directe peut être diractée avec une puissance importante. Il faut alors
s'aranchir de ces ondes diractées qui sont aussi des ondes de surface. Le ltrage en vitesse
reste ecace dans le cas d'un échantillonnage idéal du terrain. Cela suppose que pour une
source donnée, le terrain soit échantillonné en tous points de façon uniforme ce qui représente
un nombre de récepteurs colossal dans le cadre des explorations actuelles. Des dispositifs d'ac-
quisition alternatifs permettent un déploiement de matériel compatibles avec les nancements
actuels. C'est par exemple le cas du cross-spread ou des lignes de sources espacées de quelques
centaines de mètres croisent des lignes de récepteurs. Cependant, les propriétés de tels disposi-
tifs dièrent du cas de l'échantillonnage en tous points. En particulier, le ltrage en vitesse des
ondes de surface diractées perd de son ecacité.
En parallèle, l'étude des champs de pétrole en production tend à se développer pour en amé-
liorer la rentabilité et pourrait constituer un axe signicatif de développement de l'industrie. La
surveillance de réservoir suppose l'acquisition de plusieurs images d'une même zone à des époques
diérentes. La tendance actuelle est de réduire le temps écoulé entre deux images et on assiste au
développement de dispositifs d'acquisition permanents [Forgues et al. 2011, Cotton et al. 2012].
L'étude des variations des signaux acquis (principalement les variations de temps d'arrivées et
les variations d'amplitude) permet une évaluation de la variation des propriétés du milieu. Mais
une onde apportant des informations sur la profondeur doit traverser la proche surface dont
les variations de vitesse (liées aux conditions climatiques) sont importantes. Ces uctuations
brouillent les variations de temps d'arrivée ou d'amplitude caractéristiques de la profondeur.
De plus, les ondes issues de la profondeur se trouvent mélangées avec les ondes restant en sur-
face qui sont aussi impactées par les variations climatiques. La diculté d'isoler les variations
caractérisant la profondeur de celle de la surface s'en trouve accrue d'autant.
1. Les méthodes de ltrage. On peut parler aussi de méthodes à gabarit. Il s'agit - par
projection - de représenter les données initiales dans un autre domaine dans lequel il est
possible de réaliser des ltrages grâce à des masques. Les méthodes les plus connues sont
le ltrage fk, tau-p, radon [Yilmaz 1987] ou encore le ltrage en ondelette.
17
2. Les méthodes utilisant une inversion. Certaines, matricielles, décomposent les données en
un sous-espace signal et un sous-espace bruit [Mars et al. 2004, Spitz 1991]. La méthode
de décomposition en valeurs singulières des données brutes (ou SVD pour Singular value
Decomposition ) ou d'estimation de la matrice spectrale sont à la base de nombreuses
méthodes dans cette catégorie. D'autres sont à bases de modélisation des ondes et de
soustraction adaptative du modèle [Esmersoy 1988, Pica et al. 2005].
Certains algorithmes, plus récents, utilisent les deux catégories de méthodes dans des proportions
qui varient avec le type de données. Ainsi, l'algorithme AGORA [Le Meur et al. 2010] procède
en plusieurs temps. Un ltrage (ltre fk par exemple) est appliqué de manière à ne pas toucher
au signal et une modélisation-soustraction permet de traiter tout ou partie de l'énergie restante.
Dans notre étude, nous n'eectuons pas d'imagerie et nous situons principalement au niveau
de l'acquisition des données et de leur pré-traitement. C'est à ce niveau que s'eectue l'étape de
séparation et nous allons chercher principalement à nous aranchir des ondes de surface.
18
Figure 4: Banc de mesures MUSC (a) vue d'ensemble (b) données brutes (1) Onde P directe, (2) Onde
de Rayleigh, (3) Ondes P rééchies par les parois du modèle, (4) Réexion de l'onde de Rayleigh (sens
du dispositif d'acquisition), (5) Réexion de l'onde P au fond du modèle, (6) Réexions latérales de
l'onde de Rayleigh. d'après [Bretaudeau 2010]
Le banc de mesure MUSC travaille essentiellement avec des milieux solides (métaux, ré-
sines...). Les vitesses de propagation des ondes y sont élevées (plusieurs km/s). Cela oblige à
travailler à des fréquences d'échantillonnage élevées ce qui nécessite l'emploi d'un laser plus
couteux et plus lourd. De fait, il s'agit d'un prototype de la société Bossa Nova dont la mise
en oeuvre demande des moyens relativement important (salle thermostatée, table de mesure
massive, robot de déplacement). Une des contraintes liée à ce laser est qu'aux fréquences utili-
sées (de 30 KHz à 2 MHz) le signal enregistré est très bruité. Il faut donc moyenner un grand
nombre d'acquisitions - de l'ordre de la centaine - pour améliorer la qualité de la mesure. Enn,
les signaux sources étant réalisés par impulsion laser, on ne peut disposer de source au milieu
de la zone couverte en réception du fait de l'encombrement du laser [g. 4(a)] ce qui peut limi-
ter le choix des dispositifs. A ces détails prêts, on dispose d'un banc complètement automatisé
délivrant des résultats d'une qualité remarquable comme on peut le voir sur la gure 4(b). De
plus, grâce à une technique récente, ce laser est en passe de fournir une deuxième composante
du mouvement (ou mesure 2C) via un seul rayon ce qui rendrait son utilisation d'autant plus
intéressante pour l'étude des ondes de surface.
Notre environnement de mesure n'est pas comparable à celui-là puisque nous travaillons sur
des gels, avec des équipements moins lourds et des fréquences plus basses. L'utilisation des gels
pour l'étude des ondes n'est pas récente [Terada and Tsuboi 1927]. Mais l'utilisation d'outils
appropriés dans le passé faisait défaut pour de grandes quantités de mesures ce qui n'est plus le
cas aujourd'hui. Ces environnements ont cependant bien trouvé leur place dans les laboratoires
en particuliers concernant l'imagerie médicale [Benech et al. 2009]. Dans notre étude, nous avons
capitalisé sur une caractéristique importante des gels permettant de se rapprocher des conditions
d'exploration en géophysique. En eet, du fait des propriétés des gels tels que l'Agar-agar, on
obtient des ondes de volumes S (ou ondes de cisaillement) dont les vitesses de propagation sont
proches des ondes de Rayleigh. Une des originalités de notre étude est de tirer partie de ce
mélange d'ondes de surface et de volume pour recréer des environnements de type géophysique.
Mais d'autres avantages se sont révélés déterminants. Du fait des vitesses faibles des ondes S et
des ondes de Rayleigh dans les gels utilisés (autour de 10 m/s) il devenait possible de travailler
à des fréquences allant de 10 Hz à 1000 Hz avec un très bon rapport signal sur bruit (RSB)
19
et des coûts d'électronique réduits. Ainsi, avec des longueur d'onde de quelques mètres - i.e.
supérieures à la taille du modèle - les ondes P ne sont pas utilisées dans notre étude, au prot
des ondes S. On doit cependant tenir compte de possible conversion PS, mais nous verrons au
chapitre suivant que ces ondes ont une très faible puissance. Le tableau ci-dessous permet de
mettre en évidence les propriétés de l'agar-agar relativement aux autres contextes, en particulier,
les longueurs d'onde centimétriques des ondes S et Rayleigh.
Sismologie
1 Géophysique Acier, Alu. PVC, Nylon Agar (3-6%)
Table 1: Diérentes échelles F : fréquence de travail, VR : vitesse des ondes de surface, VS : vitesse des
ondes de cisaillement (onde S), VP : vitesse des ondes de volume (onde P), λR : longueur d'onde des
ondes de surface, λS : longueur d'onde des ondes S, λP : longueur d'onde des ondes P.
4 Conclusion
On constate donc que les méthodes à petite échelle sont en passe de se développer. A che-
val entre la simulation numérique et l'acquisition de données grandeur nature, elles sont un
outils important permettant de se focaliser sur un problème dont on maîtrise une partie des
paramètres. Elles constituent un élément important de validation de méthodes car tout en au-
torisant la vérication a posteriori des résultats, elles acceptent une part d'imperfections liées
à la propagation réelle des signaux.
20
Deuxième partie
Environnement expérimental
Une science a l'âge de ses intruments de mesure G. Bachelard
1 Eléments théoriques
1.1 Rappel des équations en milieu isotrope
Les ondes acoustiques et élastiques résultent d'un déplacement de particules. Les équations
qui en décrivent la propagation sont déduites des équations fondamentales de la dynamique
(Lois de Newton) et il est possible de retrouver leur expression dans un grand nombre d'ou-
vrages. [Aki and Richards 1981] reste une référence pour leur applications à la sismologie ou la
géophysique. Ces équations font intervenir des tenseurs de contraintes et de déformations dont
le nombre de composantes augmente avec la complexité des couches traversées. Les expériences
mises en oeuvre dans cette étude considèrent des milieux homogènes sans source avec de forts
degrés de symétries (isotrope). Cela permet de se ramener aux formes simpliées des équations
de propagations [Aki and Richards 1981] :
∂ 2 uT
ρ = µ∇2 uT (1)
∂t2
∂ 2 uL
ρ = (λ + 2µ)∇2 uL (2)
∂t2
21
1.2 Ondes de Rayleigh
Les ondes de Rayleigh sont des ondes de surface que l'on rencontre le long de la limite d'un
milieu semi-inni. En acquisition terrestre, les sources étant généralement placées à la surface
du sol qui peut être considéré comme semi-inni, elles générent sytématiquement des ondes
de Rayleigh. Ces dernières sont caractérisées par une décroissance d'amplitude exponentielle
en fonction de la profondeur. Elles se caractérisent également par une polarisation avec une
composante verticale et une composante radiale (dans la direction de propagation). Elles sont
également plus lentes et très énergétiques. Lors d'un tremblement de terre, elles arrivent après
la première secousse (onde P) mais du fait de leur forte énergie et du mouvement de rotation
du sol qu'elles induisent, ce sont elles qui causent le plus de dégâts.
2 Banc de mesures
Le dispositif expérimental est constitué d'un bloc d'agar-agar dans lequel des ondes sont
propagées. Les ondes sont générées par un ou plusieurs émetteurs et enregistrées par un ou
plusieurs récepteurs associés à un dispositif d'acquisition des signaux.
2.1 Emission
Pour se placer dans une conguration qui ne s'éloigne pas trop des conditions du terrain,
il était important de trouver des émetteurs et des récepteurs de taille minimale au regard des
longueurs d'onde propagées. L'objectif du banc de mesure n'est pas de créer une maquette exacte
à échelle réduite d'un environnement de prospection réel mais d'eectuer des enregistrements de
données dont les traitements puissent être adaptés à des données géophysiques. Néanmoins, plus
les échelles sont respectées plus l'adaptation sera légitime. D'autre part, une taille réduite permet
de disposer plusieurs sources et/ou récepteurs simultanément sur le milieu ce qui simplie les
manipulations.
22
Figure 1: Sweeps linéaire et gaussien(a)-(b) signaux émis dans le cas linéaire et gaussien. (c)-(d) signaux
après corrélation (e)-(f ) spectre du signal corrélé.
Figure 2: (1) haut parleur (2), (2') (2) sources piézo-électriques (3) accéléromètre
23
a été ajoutée à la pastille, ce qui a permis d'améliorer le couplage et donc le RSB ainsi que la
répétabilité. Avec un oset de 14 cm, le RSB de la première arrivée comparé au bruit qui la
précède est de 42 dB [g. 4 A et D] .
Figure 4: Enregistrement d'une trace en laboratoire(A) première arrivée (B)-(C) réexions (D) bruit
(E) coda
24
et 30 ms. Sur la gure 5(b) est représenté le spectre de ce signal. La partie la plus énergétique
est entre 250 et 1000 Hz, mais un signal est propagé jusqu'à 2000 Hz.
On peut donc réduire la bande passante pour observer dans quelle mesure la qualité des
ondelettes se dégrade. Le signal est ainsi ltré dans trois bandes allant de 25 Hz à - respectivement
- 1500 Hz (en vert), 900 Hz (en rouge) puis 400 Hz (en bleu clair). On remarque que la courbe
verte est pratiquement confondue avec la bleue. Cela signie que les fréquences au delà de 1500
Hz ne contribuent que peu à la qualité du signal. Si on descend à 900 Hz en revanche (courbe
rouge), on constate que l'ondelette de première arrivée s'étale légèrement et perd de l'amplitude.
Les deux arches de la première arrivée s'étendent sur 1.7 ms au lieu de 1.4 ms dans les deux
cas précédents. Soit un étalement d'un peu moins de 20% tandis que le premier pic diminue
d'environ 40%. Néanmoins, l'énergie reste assez bien localisée dans le paquet d'onde. Si la bande
de fréquence diminue encore (courbe bleue claire), les ondelettes s'étalent davantage et le signal
parait plus dicilement exploitable. En eet, il est dicile de déterminer entre 18 et 20 ms si
le signal provient de la première arrivée ou d'une réexion ultérieure.
Figure 5: Enregistrement sur gel (a) Signaux temporels dans 4 bandes de fréquences (b) Spectre des
signaux
Dans un second temps, nous étudions la qualité du signal en fonction de l'oset [g. 6]. Avec
le dispositif précédent, nous déplaçons le rayon laser de 1 cm en 1 cm pour balayer une ligne
de 18 points de 7 à 24 cm d'oset. La gure 6(b) permet d'observer les enregistrements. Ce ne
sont pas les enregistrements bruts. Nous avons appliqué un traitement complémentaire visant à
compenser l'aaiblissement du signal avec l'oset. C'est à dire que chaque trace est multipliée
par un coecient qui augmente avec l'oset. Ce coecient a été calculé pour que le pic positif
de la première arrivée de toutes les traces ait une valeur à peu près constante. Ce coecient
varie de 1 pour la première trace à environ 71 pour la dernière. L'atténuation correspondante
est représentée 6(a) en décibels. Sans cette modication, l'intensité décroit trop vite avec l'oset
et la comparaison des traces n'est pas possible visuellement.
Nous pouvons faire plusieurs observations. En premier lieu, nous constatons que la première
arrivée - l'onde de Rayleigh donc - est bien visible. Les ondelettes restent bien localisées en temps,
même à 24 cm de la source. On constate cependant qu'elles s'étalent quand l'oset augmente. A
7 cm, les deux premières arches de la première arrivée s'étendent sur 1 ms. A 16 cm on passe à
1.5 ms et 1.9 ms pour 24 cm. La gure 6(c) montre l'impact de l'oset sur les fréquences. Pour
la première arrivée (trait bleu foncé gras), le spectre est quasiment plat. L'onde n'a été que très
25
peu aectée par le milieu. Ensuite, on constate une perte d'énergie globale au fur et à mesure
que l'oset et/ou la fréquence augmente. La dernière trace à 24 cm est représentée elle aussi en
gras, en bleu clair. Pour cette dernière, on constate une perte de plus de 40 dB au delà de 1100
Hz et plus de 20 dB au delà de 600 Hz.
La courbe du haut montre un coecient d'atténuation de près de 36 dB entre les osets 7
et 24 cm qui est assez surprenant. En eet, pour les ondes de surface, on sait qu'en l'absence
d'atténuation du milieu, la décroissance de l'énergie varie linéairement avec l'oset. Si tel était le
cas, on devrait avoir une diminution d'énergie d'environ 10.7 dB entre la première et la dernière
trace soit 25 dB de moins. On est confronté ici à la très forte atténuation que l'on rencontre dans
les gels visco-élastiques. On remarque que cette atténuation augmente avec la fréquence. Au delà
de 16 cm, l'atténuation totale à 1000 Hz est de plus de 20 dB dont seulement 6 dB liés à la
divergence spatiale. Une étude à la fois théorique et expérimentale de cette atténuation dans les
solides mous a été proposée par [Catheline et al. 2004]. Plus spéciquement, une comparaison
des vitesses et de l'atténuation entre l'agar-agar et les polyacrylamides pour les ondes S a été
publiée par [Klinkosz et al. 2008].
Figure 6: Onde de surface enregistrée sur le gel (a) Atténuation en fonction de l'oset (b) Traces
brutes après fenêtrage de la première arrivée et normalisation du pic de première arrivée (c) Spectre en
fréquence. (d)-(f ) Mêmes résultats après ltrages dans la bande [120 850] Hz.
Nous avons vu que dans certains cas, il est nécessaire d'utiliser les pastilles piézos de petite
taille émettant dans la bande [120 850] Hz. Pour évaluer la qualité du signal aux diérents osets
dans cette situation, nous avons représenté la ligne précédemment acquise en ltrant dans cette
bande [g. 6(d)-(f )]. La décroissance d'énergie reste importante avec 30 dB d'écart entre les
premières arrivées de la première et de la dernière trace. On constate cependant que l'ondelette
reste de bonne qualité sur toute la ligne et que l'allure de la première arrivée varie beaucoup
moins avec l'oset.
26
sources autres que les sources sismiques pour retrouver la réponde du sol entre deux récepteurs
[Campillo et Paul 2003], avec l'avantage que certaines de ces sources - comme l'activité de la
houle ou du vent - sont permanentes.
Cette idée s'est largement développpée depuis 2005 et a trouvé de nombreuses applica-
tions en sismologie où l'on utilise principalement les ondes de surface. En premier lieu, l'ima-
gerie de la proche surface est rendu possible grâce aux ondes de surface de longue période
[Shapiro et al. 2005, Sens-Schönfelder and Wegler 2006, Wegler and Sens-Schönfelder 2007]. Les
sources étant quasi-permanentes, il est aussi possible d'itérer les acquisitions et d'envisager un
monitoring permanent [Brenguier et al. 2008a, Brenguier et al. 2008b]. Plus récemment, cette
technique a également permis d'isoler les ondes P [Poli et al.].
Figure 7: Utilisation du bruit aléatoire (a) Imagerie : carte de vitesse construite à partir des cross-
corrélation de bruit ambiant de stations de USArray sur 30 jours d'après [Shapiro et al. 2005] (b) Suivi
de variations de vitesse : Fonctions de corrélations de bruit quotidienne, pour une paire de stations dans
une bande de période de 2 à 8 s, d'après [Rivet 2011].
Jusqu'à une période récente, le monitoring passif en sismologie supposait un lissage men-
suel ou au minimum hebdomadaire des variations. En eet, il était nécessaire de sommer
des signaux sur de longues durées pour recontruire dèlement la fonction de Green. Depuis,
[Hadziioannou et al. 2011] a montré que la reconstitution même incomplète des fonctions de
Green n'empêche pas le suivi des variations de vitesses. Il devient alors possible d'estimer les
variations de vitesse sur de courtes périodes. En exploitant ce résultat, un suivi journalier des
variations temporelles a été présenté sur le site de Parkeld [g. 8].
Dans le cadre du laboratoire, il est possible de disposer de sources de bruit aléatoire. Un jet
d'air comprimé produit un bruit blanc qui peut-être utilisé comme source de bruit incohérent.
On se place alors dans des acquisitions de type passif analogue au cas de la sismologie. Pour
cela, nous devons disposer de deux récepteurs enregistrant simultanément la réponse du gel qui
est excité par la source de bruit incohérent. Cette réalisation est devenue possible mi-2011 grâce
à l'acquisition d'un second laser. Ensuite, par la corrélation des deux signaux enregistrés par les
lasers, on reconstitue la fonction de Green du milieu entre ces deux récepteurs. L'idéal est de
disposer d'un réseau de sources qui entoure les deux récepteurs. En eet, comme rappelé dans
l'Annexe A, certaines hypothèses sur la position des sources sont nécessaires pour une bonne
reconstitution de la réponse impultionnelle du milieu. Elles doivent être susament nombreuses
et susament distribuées pour que de nombreux trajets coexistent, en particulier dans l'axe de
27
la droite qui joint les points de réceptions. On peut donc balayer une surface en controlant le
jet d'air à la main.
Figure 8: Mesure de variations de vitesse sur Parkeld. Moyenne (a) sur 30 jours (b) sur 5 jours (c)
sur 1 jour, d'après [Hadziioannou et al. 2011]
Dans notre expérience, nous faisons passer l'air dans un tuyau en plastique disposé à un
centimètre au dessus du gel. Il ne reste plus qu'à percer ce tuyau aux points qui nous intéressent
pour y envoyer l'air sous pression. La gure 9(a) donne une vue de dessus de ce dispositif. Dans
ce dispositif, l'oset est la distance entre les deux lasers. Les ondes ont donc un trajet plus
important que dans un dispositif actif où l'oset est la distance source-laser. En eet, kes ondes
prises en compte étant celles qui se propagent de la source vers le premier puis le second laser,
elles parcourent une distance supérieure à l'oset. Elles sont d'autant plus confrontées à la forte
atténuation que nous avons mise en évidence au paragraphe précédent.
Figure 9: Acquisition avec bruit aléatoire (a) généré par un jet d'air comprimé (b) généré par 9 sources
piézo-électrique émettant un bruit blanc.
28
Dans cette conguration, on est contraint d'avoir un temps d'acquisition assez long. La durée
d'enregistrement d'une trace avec un bon RSB est de plus de 12 s. Certaines expériences faites
par la suite nécessitaient plus de 600 enregistrements en une vingtaine de minute. Avec un tel
dispositif, le temps d'enregistrement passait à deux heures.
Un exemple de signal enregistré par l'un des deux récepteurs dans le cas de l'air sous pression
est représenté gure 10(a). Il s'agit bien d'un signal incohérent. En faisant la transformée de
Fourier de ce signal, on constate que du signal s'est propagé au dessus du bruit jusqu'à des
fréquences d'environ 1500 Hz [g. 10(b)]. On observe que c'est dans la bande de 70 à 860 Hz
qu'il y a le plus d'énergie (20 dB et plus). Sur la gure 10(c) est représenté le signal résultant de
la corrélation des enregistrements des deux lasers. On obtient une arrivée dans les temps positifs
et une dans les temps négatifs car nous avons disposé un jeu de sources de part et d'autre du
dispositif. En eet, en reprenant les conventions de l'Annexe A, une source disposée à gauche
du dispositif génère un signal dans les temps positifs après corrélation. Si la source est à droite,
le retard de propagation du laser 1 par rapport au laser 2 est de signe opposé et le signal corrélé
apparait de l'autre côté de l'origine des temps. On mesure un assez bon RSB de 22.3 dB mais qui
reste en deçà des valeurs trouvées en actif (environ 40 dB à ces distances). En outre, le nombre
d'échantillons enregistrés dans ce dispositif est bien plus important que dans le cas d'une source
piézo-électrique : 65536 échantillons à une fréquence d'échantillonnage de 10 kHz contre 4096 à
la même fréquence en actif. Dans ces conditions, un cycle complet d'acquisition peut prendre 10
à 15 secondes contre 2 seulement avec une source piézo-électrique.
Figure 10: Interférométrie passive. A gauche, dans le cas d'une source de bruit incohérent par air sous
pression (a) signal enregistré à l'un des récepteur et (b) son spectre (c) signal résultant de la corrélation
des deux signaux enregistrés. A droite, dans le cas d'une source de bruit incohérent par piézos (d) signal
enregistré à l'un des récepteurs et (e) son spectre (f ) signal résultant de la corrélation des deux signaux
enregistrés.
Pour diminuer le temps d'acquisition de notre dispositif passif nous avons fait des tests en
remplaçant la source d'air comprimé par des sources piézo-électriques. La gure 9(b) montre
ce nouveau dispositif dans lequel le bruit aléatoire est généré par 9 sources piézos-électrique
émettant un bruit blanc. La carte d'acquisition et l'amplicateur ne disposant que de 2 sorties,
il n'est pas possible d'alimenter toutes les sources en même temps. Nous utilisons le multiplexeur
pour alimenter les sources à tour de rôle puis nous sommons les 9 enregistrements à l'issu de
l'acquisition. L'augmentation du nombre de piézos permet d'améliorer la répartition spatiale des
29
sources - ce qui est nécessaire à une bonne reconstitution des fonctions de Green - ainsi que le
RSB. Mais la durée d'une acquisition est multipiée par le nombre de source. Pour en diminuer
le nombre, nous n'avons disposé les sources que d'un côté du dispositif.
Les gures 10(d)-(f ) représentent les résultats de ce deuxième dispositif. On constate que
l'ondelette n'apparaît que dans les temps négatifs, ce qui s'explique par le fait que nous n'avons
disposé des sources que du côté droit de l'axe joignant les deux récepteurs. Cependant, les
performances ne sont pas améliorées car le RSB est identique à 22 dB pour un même nombre
d'échantillons (65536). Comme les sources sont activées à tour de rôle, la durée de l'acquisition
est ici multipliée par 9. A ce stade, le temps d'acquisition reste trop élevé.
Ainsi, l'utilisation de bruit aléatoire donne de bons résultats mais demande beaucoup plus
de temps. Pour du monitoring couplé avec des acquisitions très denses, elle n'est pas exploitable
en l'état sur un gel. D'autant plus que l'air sous pression détériore la surface du gel au bout
de quelques heures en créant des creux. Le soue peut aussi détacher des petits blocs de gel.
Cependant, pour des expériences demandant moins de points de mesure, la technique est très
séduisante. Ce pourrait être le cas pour des études de distributions de sources, par exemple.
Si l'on utilise des pastilles piézo-électriques comme source de bruit aléatoire, il est possible
de jouer sur plusieurs paramètres. Dans notre cas, il est possible de faire varier la longueur
d'enregistrement, la puissance d'émission ou le nombre de sources. Les signaux obtenus ayant
une allure satisfaisante, on peut essayer de jouer sur la durée du signal. S'il est possible de la
réduire signicativement, il peut être envisageable de faire des expériences avec une plus grande
densité de mesures. Dans le test suivant, nous sommes partis d'un signal d'un peu moins de 8 s
que nous avons réduit de moitié plusieurs fois de suite jusqu'à arriver à environ 0.25 s. La gure
donne les résultats pour une ligne de 11 points réceptions pour un oset variant de 2.5 à 13.5
cm par pas de 1 cm. Le signal émis a été ltré dans la bande [100 1200] Hz.
Figure 11: Bruit aléatoire de longueur variable généré à l'aide de 9 sources piézo-électrique
On constate que les ondelettes restent bien apparentes mêmes pour des signaux très courts
(0.25 s). En deçà de 2 s, le niveau de bruit augmente signicativement quand la durée du signal
30
Figure 12: (a) Premier banc de mesure. Au premier plan, un gel de taille 450x145x100 mm avec une
ligne de récepteurs (accéléromètres) en cours de mise en place. Sur la plaque chauante, cire d'abeille
de xation. Au second plan, PC de contrôle et conditionneurs des accéléromètres (b) Second banc de
mesure. A droite, vibromètre laser. A gauche, miroir monté sur portique en aluminium. En bas, gel
bi-couche de taille 480x480x15 avec une antenne source lestée par un poid (sac blanc).
aléatoire diminue. Néanmoins, le résultat pour une seconde par exemple reste de bonne qualité.
Le temps d'émission a été divisé par 6 ce qui est très satifaisant. L'utilisation de piézos comme
source de bruit aléatoire reste donc une option à creuser. En utilisant une carte d'émission
avec une dizaine de voies et autant pour l'amplicateur, on peut faire émettre toutes les sources
simultanément. On peut donc espérer se contenter d'enregistrer des signaux durant une seconde,
voire moins si le nombre de sources et/ou leur puissance augmentent. Ce genre d'équipement
permettrait des expérimentations avec des densités de mesure comparables à ce que propose
l'actif sur des durées équivalentes.
2.2 Réception
2.2.1 Accéléromètres
En 2009, au début de l'étude, le laboratoire disposait d'un banc de mesure de 32 accéléro-
mètres Bruel & Kjaer. Très précis et avec une grande dynamique, ils ont permis les premières
mesures durant la période de faisabilité.
La gure 12 montre le dispositif de mesure correspondant. Des vis de 16 mm de long sont
disposées en ligne à la surface du gel. Les accéléromètres sont collés sur les vis à l'aide de cire
d'abeille fondue [g. 12 premier plan]. Une barre métallique soutient les câbles qui relient les
récepteurs à leur conditionneur (second plan) pour éviter qu'ils n'aient un trop fort bras de
levier sur les récepteurs. Ces câbles servent à la transmission du signal reçu et à l'alimentation.
Les conditionneurs sont reliés à l'une des deux cartes d'acquisition du PC (arrière plan).
Ce premier banc a permis des mesures très satisfaisantes, tant en actif qu'en passif lors de
l'étude de faisabilité [g. 13]. Toutefois, il présentait plusieurs inconvénients au regard de nos
objectifs :
- Une fois diposés, les récepteurs ne pouvaient être bougés facilement car il faut également
31
déplacer les vis. Le gain de temps pour les mesures de 1 à 32 récepteurs s'eacait devant le
temps nécessaire au déplacement des récepteurs.
- les vis supportant les récepteurs sont enfoncées à une profondeur de 16 mm alors que la
longueur d'onde de nos signaux est d'environ 2 cm. Cet impact n'est pas négligeable pour des
mesures précises et la détérioration du gel qui en résulte rend vite ce dernier inutilisable.
- pour des mesures haute densité, l'encombrement des câbles et des récepteurs ne permettait
pas d'avoir un pas d'échantillonage inférieur à 1 cm.
Figure 13: Accéléromètre (a) Source active (b) Source passive (air comprimé)
- Il fallait également compter avec le bras de levier imposé par les câbles, impossible à
compenser complètement. Ce dernier pouvait évoluer ou causer un détachement du récepteur
avec pour conséquences (a) un arrêt de l'expérience (b) une perte de temps pour la remettre en
route et (c) une modication potentiellement importante du couplage. Toute expérimentation
demandant un minimum de répétibilité était de facto compromise.
Pour toute ces raisons, il a été décidé de chercher un autre moyen de mesure.
2.2.2 Laser
L'idée d'utiliser un laser est séduisante à bien des égards.
En premier lieu, c'est un instrument non-invasif. La surface est laissé telle quelle et les
mesures peuvent - à l'échelle de nos expérimentations - être répétées à l'inni.
D'autre part, grâce à la mise en place d'un miroir commandé à distance, il est devenu possible
de déplacer automatiquement le point d'impact du rayon.
Il faut cependant compter avec deux inconvénients :
- le premier concerne le rapport-signal bruit qui est moins bon avec un laser qu'avec un
accéléromètre. Cet inconvénient à été levé en compressant les signaux grâce aux sweeps présentés
plus haut. En corrélant le signal recu avec le signal émis, on reconstitue une ondelette tout en
obtenant un gain d'amplitude qui augmente avec la durée du sweep. Un autre avantage de
cette technique est qu'elle reproduit ce qui se fait en exploration pétrolière quand des camions
vibrateurs sont utilisés.
- le second tient au fait qu'un laser coute cher et que l'on ne dispose que d'un point récepteur.
A durée de signal équivalente, le temps de mesure est donc jusqu'à 32 fois plus important qu'avec
les 32 accéléromètres.
32
Figure 14: Banc de mesure actuel.
33
diérents tests (papier aluminium, rubalise ultra mince, poudre micro-bille...) c'est la peinture
blanche en bombe qui s'est avérée être la meilleure solution.
Figure 15: Schéma de câblage. E : carte d'émission, A1 et A2, cartes d'acquisition. PS1 à PS3 : ports
séries. MUX : multiplexeur
34
L'onde créée se propage dans le milieu dont le mouvement résultant peut être enregistré via
le laser. S'il y a N points sources et M points réceptions dans une expérience donnée, il faut
donc réaliser N.M acquisitions successives en utilisant multiplexeur et miroirs pour faire varier
les positions des sources et des récepteurs. Le multiplexeur est piloté par le PC via un port série,
de même que les contrôleurs permettant de commander l'orientation des miroirs.
Le signal de sortie du laser est transmis à une carte d'acquisition avec - dans certains cas - les
signaux de sondes de température. Les cartes d'acquisition sont des cartes Spectrum M2i.4038
capables d'acquérir simultanément 16 voies sur 14 bits à des fréquences allant du continu jusqu'à
25 MHz.
Ces signaux sont numérisés et rendus accessibles sous Matlab pour la suite du traitement.
Figure 16: Montage des éléments (1) Multiplexeur 64 voies (2) Contrôleurs des 4 vérins (3) Condition-
neurs des accéléromètres (4) Miroir (5) Vérin
Une fois monté, il est nécessaire d'étalonner chaque miroir. En eet, les supports ne sont
pas complètement à angle droit car ils sont xés sur un axe réglable manuellement. De la même
manière, le gel est souvent manipulé entre deux mesures. Cet étalonnage est donc nécessaire à
chaque nouvelle campagne de mesure.
Pour cela, on pose une feuille de papier millimétrée sur le gel et on mémorise les commandes
de chaque laser pour les points qui nous intéressent. Dans la pratique, on cherchera à couvrir une
surface carrée ou rectangulaire. Cependant, le nombre de points de mesure pouvant être impor-
tant (jusqu'à 9800) ce procédé devient assez vite fastidieux. On peut donc penser à mémoriser
seulement les 4 extrémités de l'antenne pour ensuite interpoler les autres points par calcul.
35
Figure 17: Première antenne.
Cela reste insusant car si les vérins ont une grande précision, ils ne sont pas complètement
linéaires. Cela signie que si l'on fait tourner le vérin d'un nombre de pas donné, la variation
d'angle correspondante n'est pas toujours la même si l'angle de départ change.
Finalement, une solution intermédiaire a été choisie. Au lieu de mémoriser 4 points, l'aire à
couvrir est découpée en 4 rectangles ou carrés égaux. Si on mémorise les coordonnées angulaires
des 9 points correspondants aux extrémités de chaque quadrilatère et que l'on interpole les
coordonnées des points intermédiaires, le résultat est très satisfaisant.
36
puisse provoquer la rupture de la surface de connexion supérieure de la pastille.
- les pastilles piézo en cuivre subissent une oxydation au contact du gel. La solution adoptée
par la suite à consisté à appliquer une couche de vernis.
- Le gel est un milieu humide. Il est de plus facile d'en détacher des petites parties qui
peuvent être en contact avec les deux soudures d'alimentation. Cela provoque parfois des courts
circuits nécessitant de changer la pastille avec les inconvénients déjà évoqués.
- le positionnement des sources étant manuel, la précision était de l'ordre du millimètre.
- L'isolation de caoutchouc s'est révélée insusante. Il a fallu compter avec le couplage des
sources.
Pour toute ces raisons et pour le besoin d'expérimentations plus précises, deux nouvelles
antennes 5x5 ont été réalisées. Grâce au support d'une technicienne du laboratoire, l'un des
supports a été réalisé sur mesure [g. 18 (b)] et l'alimentation de chaque source a été couplée à
un LED témoin [g. 18 (a)]. Ces LEDs permettent d'identier la source des problèmes quand
il y en a (pastille, câble, soudure ou multiplexeur défectueux). Pour atténuer le couplage entre
sources, les pastilles piézos sont isolées de l'antenne par une mousse de plus d'un centimètre
d'épaisseur. Deux mousses ont été testées : une mousse de protection aux chocs [g. 18 (a)] et
des bouchons d'oreilles pour isolation acoustique [g. 18 (b)]. En outre, la partie en contact avec
le gel est protégée par une couche de vernis pour éviter l'oxydation de la partie métallique. Enn,
une source défectueuse peut être débranchée séparément pour être remplacée en attendant d'être
réparée ce qui permet de ne pas retarder les expérimentations.
Figure 18: Antennes 5x5 (a) Isolation acoustique en mousse et rainures creusées entre les lignes de
sources (b) Isolation acoustique par bouchon d'oreille.
Tout ceci permet une meilleure qualité de mesures et limite les pertes de temps de tous
ordres.
Le problème de couplage entre source reste cependant un point à examiner en détail, ce qui
est fait au chapitre 3.3.3.
37
2.4 Optimisations et performances
2.4.1 Nouveaux modules développés
Sans entrer dans les détails, on peut lister les modications suivantes apportées par ce travail
de thèse :
- création d'une interface homme-machine pour tester diérentes congurations [g. 19].
- pilotage des contrôleurs de miroirs par port série.
- pilotage du multiplexeur en cas de sources multiples par port série.
- adapatation du code d'acquisition 16 voies pour une utilisation d'un nombre inférieur de voie
(ceci permet de limiter d'autant les transferts mémoire et donc le cycle d'émission-acquisition).
- division de la procédure d'émission/réception en sous-procédures pour éviter l'initialisation
des cartes à chaque cycle.
- acquisition du signal de sondes de température via les cartes Spectrum pour les mesures
4D.
Figure 19: Interface Matlab du logiciel de test. Panel de gauche : visualisation des traces en cours
d'acquisition et - dans le titre - RSB en dB de la première arrivée de la trace en cours. En bas à droite :
visualisation de la source et du point récepteur actifs. En haut à droite : options concernant le signal
Survey ) modication des paramètres
émis, le RSB souhaité, les sources et points réceptions souhaités. (
Hardware ) gestion du hardware utilisé (Launch ) lancement de l'expérimentation .
du dispositif (
2.4.2 Performances
A l'issue de ces modications, le temps d'acquisition d'un cycle d'émission réception complet
a pu être réduit à 2 secondes pour des acquisitions actives. Dans cette conguration, le signal
émis a une durée de 0.4 s et est stocké une fois pour toute dans la carte d'émission. En une
heure d'expérience, il est possible d'enregistrer 1800 traces.
38
Pendant l'acquisition, une mesure de RSB du signal enregistré est faite en temps réel. Le pic
de la première arrivée est détecté et l'énergie de l'ondelette au voisinage de ce pic est calculée.
L'énergie du bruit est estimée via une centaine d'échantillons précédent le pic. Si le RSB n'est pas
satisfaisant, le cycle d'acquisition peut être itéré un nombre pré-determiné de fois pour obtenir
un RSB cible. Si les conditions d'expérimentations sont bonnes, ceci n'intervient qu'un nombre
limité de fois (1 à 3 % des cas, quand la réexion du laser est mauvaise). Une augmentation
sensible de la qualité globale de la mesure est ainsi obtenue pour une perte de temps minimale. La
sommation des signaux en cas de répétition n'est pas une sommation simple mais un stack de
diversité. C'est à dire que chaque signal est pondéré en raison inverse de l'énergie de son bruit
ce qui permet de limiter l'impact de traces bruitées. Le stack de diversité donne un résultat
optimal en cas de bruit gaussien [Embree 1968].
Enn, pour les mesures 4D, une estimation de la répétitivité est importante. Pour cela, nous
répétons la même mesure sur un unique point de réception. Nous appelons séquence une
série de 10 acquisitions d'alées (sans temps d'attente entre deux acquisitions). Nous réalisons
au total 50 séquences de ce type espacées de 15 mn.
Figure 20: Mesure de répétabilité (a) 10 signaux enregistrés consécutivement lors d'une séquence (b)
Diérence (x10) par signal avec la moyenne des 10 signaux.
L'expérience se fait donc sur une durée de plus de 12 heures. La gure 20(a) montre une
bonne répétitivité pour les 10 enregistrements de la première séquence. De fait, l'évolution du
signal est peu visible. Pour la mettre en évidence, nous calculons un signal référence comme
étant la moyenne des 10 signaux acquis et nous considérons la diérence de chaque signal avec
la référence. La gure 20(b) représente cette diérence multipliée par 10 pour tous les signaux.
On s'intéresse également à l'évolution de la répétabilité non plus au sein d'une séquence
mais pour les 50 séquences. C'est ce qui est fait gure 21(a) où est représenté le premier tir
de chaque séquence. De la même manière que précédemment, on représente la diérence entre
chaque signal et la référence [g. 21(a)]. On constate que l'erreur est plus importante quand
on séloigne du milieu de l'expérience. Ainsi, aux alentours de 21 ms, l'ondelette résultant de la
ème
diérence à une énergie qui diminue de la première jusqu'à la 25 pour ensuite réaugmenter
jusqu'à la n. On observe également que sa polarisation s'inverse. Cela laisse supposer une
évolution - probablement une dérive - du milieu avec le temps. Cette dérive est principalement
liée à l'évolutions de la température qui fait varier la vitesse du milieu et donc le temps d'arrivée
des ondes. Ce phénomène est mis en évidence au début de la partie IV.
39
Figure 21: Diérence avec la moyenne (a) premier signal de chaque séquence pour 50 séquences (b)
diérence (x10) de chaque signal avec la moyenne des 50 signaux.
Figure 22: Evolution de la RMS (a) Moyenne des 10 traces d'une séquence. (cadre noir) Fenêtre
temporelle utilisée pour le calcul de l'énergie (b) RMS entre la trace de référence et chacune des 10
traces de chaque séquence calculée dans la fenêtre pour 25 séquences (une sur deux). (c) (triangles
rouges) RMS de la trace moyenne de chaque séquence. (ronds bleus) RMS moyenne des 10 tirs de
chaque séquence.
40
On obtient ainsi une mesure dite RMS (pour Root Mean Square ) ou racine de la diérence
quadratique moyenne. Si ta et tb sont les temps de début et n de la fenêtre utilisée, sn (t) le
signal n et ŝ(t) la moyenne des signaux, la mesure RMS pour le signal n vaut :
´ tb
ta
(sn (t) − ŝ(t))2
RM Sn = ´ tb
ta
ŝ(t)2
41
3.1 Caractéristiques des gels et propagation
3.1.1 Vitesses des ondes S et P
L'agar-agar est principalement constitué d'eau. Certaines caractéristiques physiques en sont
souvent proches. Dans notre étude nous cherchons en particulier à connaitre la vitesses des ondes
P (VP ), la vitesse des ondes S (VS ) et la vitesse de ondes de Rayleigh (VR ).
Dans un milieu isotrope, les équations de propagation rappelées au paragraphe 1.1 permettent
d'exprimer la vitesse des ondes de volume en fonction des coecients de Lamé (λ, µ) du milieu :
s
λ + 2µ
VP = (3)
ρ
r
µ
VS = (4)
ρ
Une estimation de ρ est donnée dans [Eudes 2004] pour des concentrations d'Agar de 1.5%
et 3%.
En utilisant ces formules et en faisant une extrapolation linéaire nous pouvons estimer la
masse volumique de l'agar-agar pour des valeurs de 1.5 à 6% selon, la formule :
r
VP 2(1 − ν)
= (5)
VS 1 − 2ν
nous retrouvons une valeur du coecient de Poisson très proche de 0.5 (ν = 0.49998) carac-
téristique d'un milieu très élastique.
42
En utilisant l'équation 4 et pour une valeur moyenne de VS de 9.5 m/s nous obtenons
VP /VS ≈ 158 et µ ≈ 100 MPa, ce qui est très faible. En eet, le second coecient de Lamé
(ou module de cisaillement) vaut couramment de quelques dizaines à plusieurs milliers de GPa
pour les métaux ou les roches. Dans les gels, cette faible valeur se devine au toucher - quand on
appuie - car elle caractérise les solides mous.
Figure 23: Composantes des ondes S et P. (S) point source (traits bleus) Propagation des ondes S
(trait vert) Propagation d'une onde P (éches noires doubles) Mouvement des particules (éches rouges)
Projection à la verticale de la vitesse des particules i.e. quantité mesurée par le laser.
43
On constate que les composantes horizontale et verticale d'une onde S sont fonction de
l'oset. En eet, si l'oset est petit (trajet S-B) le plan de mouvement des particules au niveau
du récepteur se rapproche de l'horizontale. La projection sur l'axe vertical de ce mouvement
(éche rouge) est réduite d'autant. Elle est même nulle à hauteur de la source S. Et comme le
laser mesure la composante verticale de la vitesse à la surface du gel, il mesurera peu ou pas
de signal à proximité de la source. En revanche, si l'on séloigne de la source, la composante
verticale augmente et il sera possible d'obtenir un signal en réception. En vert est représenté le
cas d'une onde P pour laquelle, à l'inverse, la composante verticale devient maximale quand on
se rapproche de la source.
Le choix de s'intéresser aux ondes S nécessite donc un environnement où les osets longs sont
favorisés. Dans la pratique, cela n'a pas été une contrainte, au contraire. Il n'est pas aisé de faire
des gels très profonds. Pour des gels carrés de 50 cm de côté et 12/13 cm de profondeur, 32 litres
d'eau sont nécessaires. Augmenter sensiblement la profondeur obligerait à faire des gels d'une
centaine de litres ce que nous voulions éviter. En travaillant à petite profondeur, on favorise des
angles pour lesquels la composante verticale des ondes S est importante, ce qui permet de bien
les mesurer.
√
uv (z, r) = A(e−kα1 r − α1 α2 e−kα2 r )ei(ωt−kz)
√
r
α1
ur (z, r) = i A(e−kα1 r − α1 α2 e−kα2 r )ei(ωt−kz)
α2
Avec :
√
1−R
A=
1+ R2 (2 − R2 )(1 − R)/2
VR2
R=
VS2
44
s
VR2
α1 = 1−
VP2
s
VR2
α2 = 1−
VS2
p On remarque que les deux composantes sont déphasées de π/2 et que leur rapport vaut
α1 /α2 .
Pour une onde de Rayleigh, l'équation établie par Lord Rayleigh en 1885 lie les vitesses
VP , VS et VR par :
En considérant que VP >>VR nous pouvons supposer que le terme α1 vaut 1. En posant
ν = α22 il reste à résoudre :
16ν − (1 + ν)4 = 0 ou encore f (ν) = ν avec :
1+ν 4
f (ν) = ( )
2
La courbe résultante contient une racine diérente de 1 pour ν =0.0874 [g. 24]. On en
déduit le rapport de vitesse des ondes de Rayleigh sur vitesse des ondes de cisaillement qui vaut
0.955. L'onde de Rayleigh se propage donc à une vitesse très proche de l'onde S. Notre milieu
crée donc un mélange d'ondes de volume et d'ondes de surface dans lequel des algorithmes de
séparation peuvent être testés.
45
r
uv (0, r) α1
= = 3.0
ur (0, r) α2
Ce qui est une donnée supplémentaire pour contribuer à valider la détection d'ondes de
Rayleigh dans le milieu.
VS
sinθS = sinθP
VP
Comme la vitesse des ondes P est très supérieure à celle des ondes S dans l'Agar-agar, nous
en déduisons :
sinθS ≈ 0
4p VVPS cosθP
VP
1
VS2
− 2p2 4p VVPS cosθ
VP
P 1
VS2
− 2p2
αP S = 2 ≈ 2
1
VS2
− 2p2 + 4p2 cosθ
VP
P cosθS
VS V
1
2 − 2p 2 + 4p2 cosθP
VP VS
S
46
3.2 Fabrication
La fabrication du gel n'est pas aisée du fait de la taille des blocs de gel. L'astuce consiste à
faire le gel en deux temps.
Une fois les quantités d'eau et d'agar-agar déterminées, les trois quarts de l'eau environ sont
portés à 98-100°C. L'eau restante est maintenue à 60°C.
L'agar-agar est disposé dans un récipient annexe dans lequel l'eau à 60°C est ajoutée petit à
petit. Des grumeaux se forment mais sont faciles à faire disparaitre. L'eau étant à température
moyenne, le gel ne prend pas et l'on dispose du temps nécessaire pour obtenir un mélange
homogène.
Une fois le mélange obtenu (il est assez liquide) il doit être mélangé rapidement au reste de
l'eau plus chaude et versé ensuite dans le bac sans tarder car le gel prend très vite sur les bords.
Si la concentration est élevée (5-6%) le gel peut se rider en surface et présenter des vaguelettes
qui, une fois séchée, baisse la qualité de la mesure et l'homogénéité du milieu. On peut conserver
ces vaguelettes si l'on cherche un milieu perturbé. Sinon, une première solution est de retourner
le gel refroidi. Une autre solution consiste à attendre que le gel prenne en surface et à enlever à
la main le gel solidié qui forme un lm au dessus du reste encore liquide.
Pour des raisons mal identiées - peut-être du fait de bactéries - on peut assister à la création
de bulles de gaz dans le gel au bout de quelques jours. Ces bulles peuvent être d'assez grande
taille (jusqu'à 2 cm de diamètre) c'est à dire d'une taille équivalent aux longueurs d'ondes
sismo-acoustiques. Elles contribuent à générer un milieu perturbé mais en général, elles sont
indésirables. En mélangeant de l'éthanol avec le gel (0.5 %) on peut s'aranchir de ce phénomène.
Dans ces conditions, les gels peuvent être utilisés sur des périodes allant de 6 à 8 mois s'ils
sont régulièrement humidiés.
47
Figure 26: Contact du laser avec la surface à mesurer (a) mesure de la composante verticale en utilisant
une vis (b) mesure de la composante horizontale en utilisant une vis (c) mesure de la composante verticale
directement sur le gel (d) mesure de la composante horizontale par incision du gel. Dans tous les cas,
la surface perpendiculaire au rayon est peinte en blanc.
d'une onde de Rayleigh. Cependant, les défauts du récepteur ajouté au fait que l'expérience était
dicilement répétable a conduit à tenter d'autres méthodes.
La deuxième tentative a été faite à l'aide du laser. Une vis légère - en nylon - avec une tête
et des bords plans a été vissée dans le gel [g. 26 (a) et (b)]. La tête a été orientée de telle
manière qu'elle ait une surface verticale plane dans l'axe source-récepteur. En éclairant la vis
par dessus, il était possible de mesurer la vitesse verticale de la tête de la vis et donc - au
couplage vertical près - celle du gel. En éclairant la surface verticale avec un rayon rasant, il est
possible de mesurer la vitesse horizontale de la tête de la vis et - au couplage horizontal près -
la vitesse horizontale du gel.
Les signaux obtenus ont montré une belle polarisation prograde mais avec un ratio uv /ur
trop diérent de la théorie (1.0 au lieu de 3.0). La prise en compte de l'impact de la vis - sur
le couplage ou comme dispositif de moyennage local des mesures - pourrait constituer un sujet
d'étude intéressant que nous n'avons pas fait faute de temps.
Une troisième méthode a permis un meilleur résultat. La composante verticale est mesurée
directement sur le gel comme pour la majorité de nos mesures. Pour la composante horizontale,
une ne incision est faite dans le gel pour libérer un plan vertical de 2 ou 3 millimètres de côté
[g. 26(d)]. Cette profondeur est relativement faible devant la longueur d'onde de sorte que l'on
espère que les caractéristiques de l'onde de Rayleigh ne sont pas aectées, en dépit de l'évolution
rapide du ratio uv /ur avec la profondeur. On constate gure 27 que les signaux sont toujours
de bonne qualité, en particuliers sur la composante Y.
Pour le calcul de la polarisation, on somme plusieurs traces après alignement des temps
d'arrivée [g. 28(a)] et on observe leur polarisation [g. 28(b)].
48
Figure 27: Composantes (a) verticale et (b) radiale de la vitesse mesurées sans vis.
Figure 28: (a) Composante (bleu) verticale et (vert) horizontale du mouvement moyennées sur la ligne
d'acquisition après compensation des temps d'arrivées. (b) Polarisation de l'onde.
Dans cette dernière mesure, on obtient à nouveau une polarisation pro-grade avec en plus
un rapport uv /ur de 3.2 pour 3.0 en théorie. Cette dernière étape nous permet de conclure de
façon satisfaisante à la mise en évidence de la propagation d'ondes de Rayleigh dans le milieu.
A - Modication du signal
Dans cette thèse, le traitement d'antenne a été l'un de nos principaux outils. Lors de l'utilisa-
tion d'une antenne, plusieurs sources sont en contact avec le gel simultanément (cf. paragraphe
2.3.3). Elles modient donc le milieu et sont suceptibles de perturber le signal émis par eet
49
Figure 29: Impact des sources (a) Disposition des sources dans les quatres congurations testées :
piézo source seul ; piézo source avec une, puis deux et trois rangées de piézo muets entre la source et
le récepteur (b) Enregistrement de cinq traces pour chacune des congurations : tirs 1 à 5 source active
seule, tirs 6 à 10 avec une rangée de piézos muets puis 11-15 et 16-20 avec deux et trois rangées de
piézos muets.
d'ombre.
Pour évaluer ce phénomène, nous avons eectué une série d'acquisitions en utilisant une
unique source émettrice et un récepteur. En premier lieu, nous avons réalisé cinq acquisitions
simultanément avec la source émettrice seule. Dans le second cas, nous avons ajouté une rangée
de trois piézos entre la source et le laser et nous avons eectué cinq acquisitions supplémentaires.
Et de même avec une seconde puis une troisième ligne. Le dispositif résumant ces expériences
est représenté à la gure 29(a) et les vingt acquisitions résultantes à la gure 29(b). On constate
une évolution du signal et de la première arrivée (entre 12 et 15 ms) en particulier.
Pour mieux mettre en évidence cette évolution, nous avons moyenné les cinq acquisitions
de chaque dispositif et calculé le spectre du signal résultant. Le résultat est donné gure 30.
L'ondelette noire est celle du premier dispositif en l'absence de ligne de piézo. On constate qu'elle
arrive légèrement plus tard que les autres mais que son amplitude est plus importante. Au fur
et à mesure de l'ajout des lignes, les ondelettes perdent en amplitude et arrivent plus tôt.
La variation de temps d'arrivée peut s'expliquer de la façon suivante. La première ondelette
est principalement une onde de surface. On peut supposer qu'une partie de la vibration du gel
aecte les piézos posés sur le gel. Ceux-ci étant en métal, la vitesse de l'onde qui les traverse est
beaucoup plus importante. Une partie de l'onde transmise au métal du piézo est donc accélérée
ce qui explique une arrivée précoce.
La diminution d'amplitude peut s'expliquer par le fait que l'accélération constatée d'une
partie de l'ondelette étale l'énergie sur une plus grande durée. Il est aussi possible qu'une partie
de l'énergie soit perdue dans la mise en mouvement des piézos intercalés.
L'observation des spectres montre que les signaux dièrent surtout aux hautes fréquences
(au dessus de 500 Hz). Une perte de 10 à 15 dB est observée aux alentours de 700 et 1100 Hz. Le
choix d'une bande de fréquence plus basse devrait permettre de diminuer le phénomène observé.
La suite du signal est plus dicile à interpréter car diérentes ondes s'y mélangent : des
ondes de surface (réexions sur les bords) et des ondes de volume. Le phénomène de retard est
observé sur le deuxième paquet d'ondelettes aux alentours de 11 ms. Il peut s'agir des rebonds
sur le bord du bocal qui sont également des ondes de surface aectées par les rangées de piézos.
Dans la suite du signal, la reproductibilité semble moins aectée à première vue.
50
Figure 30: Impact des sources piézo-électriques sur le gel (a) trace moyenne et (b) spectre des 5 traces
enregistrées dans les quatre congurations.
Pour mieux apprécier l'impact de cette imperfection de nos antennes, l'étude du diagramme
de rayonnement des ondes de volume est un point à considérer. En eet, on cherche à s'af-
franchir des ondes de surface. Que les sources couplées avec la source d'émission créent des
émissions parasites n'est pas forcément gênant. On cherche à s'aranchir des dernières comme
des premières.
Les caractéristiques d'une source vibrante en géophysique ont été largement étudiées [Miller et Pursey 1954],
en particulier dans le cas d'une plaque [Baeten en Ziolkowski 1990]. La formule du diagramme de
rayonnement d'un disque rayonnant est donnée dans le cas général par [Royer et Dieulesaint 1996] :
p
sin2θ 1/µ2 − sinθ2
ut (θ) = A p
4(1 − 2sinθ2 )2 + (1 − sinθ2 )(1/µ2 − sinθ2 )
Dans le cas d'un gel d'Agar-Agar (Vp /Vs ≈ 158) le diagramme de rayonnement des ondes
S est représenté en rouge gure 31. Pour comparaison, le diagramme de rayonnement d'une
roche (Vp /Vs ≈ 2) a été dessiné (ligne bleue pointillée) an de visualiser dans quelles me-
sures notre dispositif se rapproche d'une conguration terrain. Il est possible d'obtenir ce dia-
gramme de rayonnement expérimentalement. [Bretaudeau 2010] utilise un semi-cylindre de PVC.
[Fukushima et al. 2009] présentent une analyse expérimentale très complète des diérents dia-
grammes de rayonnnement d'une pastille piézo-électrique. Dans les gels, il convient de se référer
à [Catheline et al. 1999].
Figure 31: Diagramme de rayonnement des ondes S dans l'Agar-agar et comparaison avec une roche.
51
On constate que pour ce diagramme de rayonnement il n'y a pas d'onde de volume se
propageant le long de la surface. Donc les défauts de notre dispositif n'aecte que les ondes
de surface. En particulier, les ondes S ne sont pas aectées par les pastilles piézo-électriques
disposées à la surface.
On constate également qu'à la diérence des ondes P, les ondes S ne se propagent pas à la
verticale. Ce sont les angles entre 20 et 70° qui sont favorisés. Dans notre situation, c'est un
avantage car nous avons réalisé des environnements qui privilégient les osets longs (cf. 3.1.2).
52
3.4 Conclusion
Les tests eectués ont montré les limites de l'environnement mis en oeuvre : que ce soit pour
la longueur des trajets liés à l'atténuation, les limitations en fréquences hautes ou basses, les
émissions parasites... Néanmois, les signaux sont de bonne et parfois de très bonne qualité et il
est possible de détecter plusieurs ondes sur les données brutes. Ces résultats valident les choix
eectués et nous encouragent à aller plus loin, en particulier à l'aide d'algorithme de traitement
et de séparations des ondes. La partie suivante est donc consacrée à l'adaptation de l'algorithme
dit de formation de voie à nos données de laboratoire.
Enn, nous devons mentionner une étude supplémentaire qui aurait pu être menée, celle du
couplage des sources avec le milieu. Quelques tests ont été eectués mais sans étude systématique.
Cela a permi en particulier de constater l'amélioration du couplage en ajoutant une masse à la
source. Dans le cas d'une source unique, l'étude de la répétabilité a montré une bonne stabilité
de la source en dépit d'une dérive liée à la température. De fait, nous avons souvent procédé de
façon expérimentale en ne nous attaquant aux imperfections du système que s'ils apparaissaient
importnat a posteriori. Dans le cas du couplage des sources, les résultats obtenus ne nous ont
pas laissé soupçonner de conséquences importantes pour les algorithmes que nous avons utilisé.
53
Troisième partie
Double formation de voie en laboratoire
1 Traitement d'antennes
1.1 Introduction
Le traitement d'antenne est une discipline déjà ancienne et dont les premières formulation
apparaissent dès la n du XIX
e siècle. [Brown 1899] observe que si l'on dispose au même endroit
deux éléments rayonnants parcourus par des courants sinusoïdaux en opposition de phase, alors le
champ total émis est nul. En revanche, si ces éléments sont éloignés d'une demi longueur d'onde,
on obtient un maximum d'intensité dans l'axe des deux éléments. On trouve de nombreuses réfé-
e
rences sur cette discipline au début du XX siècle, comme par exemple [Frost 1926, Friis 1925]. Le
développement des techniques associées connaîtront un essort pendant la deuxième guerre mon-
diale. C'est ensuite en astrophysique [Bracewell 1957], en détection nucléaire [Carpenter 1965] et
dans le domaine du radar que les utilisations d'antennes réceptrices se sont le plus développées.
[Garrett 2012] dresse un résumé intéressant de ces diérentes évolutions. Dans un second temps,
des applications apparaissent avec l'utilisation simultanée d'une antenne source et d'une antenne
réceptrice. On parle alors de double formation de voie. La technique est maintenant largement
utilisée dans de nombreuses disciplines, en particuliers dans les domaines liés à l'océanographie ou
la sismologie [Weber et al. 1996, Gouédard 2008b, Roux et al. 2008, Iturbe 2010]. Elle a connu
un intérêt renouvelé avec l'arrivée de la téléphonie mobile et des traitements dits d'antennes
intelligentes ou smart antennas [Liu et Weiss 2010].
1.1.1 Description
Une antenne est un dispositif comprenant une série de récepteurs ayant ou non une géométrie
remarquable. Un cas des plus simples est celui de l'antenne linéaire pour laquelle les récepteurs
sont disposés en ligne. On peut de plus choisir une distance inter-récepteur constante et obtenir
une antenne souvent rencontrée dans la pratique : l'antenne linéaire uniforme (ALU).
Une antenne est donc dénie par le nombre de ses récepteurs et leur position dans l'espace.
Les récepteurs sont sensibles à une grandeur physique d'intérêt (pression acoustique, vitesse,
champ électromagnétique) se propageant sous forme d'onde dans le milieu. Ils transforment la
54
valeur de cette grandeur en un signal temporel s(t) - en volt par exemple.
L'intérêt d'une antenne est de disposer de la valeur d'un champ en plusieurs points simulta-
nément. De très nombreux traitements existent pour tirer partie de cet échantillonnage spatial
et caractériser le signal qui arrive sur l'antenne, en particulier l'angle d'incidence de l'onde, ce
qui est impossible au moyen d'un seul récepteur.
Ces traitements sont d'autant plus ecaces que l'antenne est adaptée aux caractéristiques de
l'onde (échantillonnage spatial et temporel, précision de la mesure, quantication...). Enn, dans
le cas de plusieurs ondes arrivant sur la même antenne, il est souvent intéressant de pouvoir les
détecter, les séparer et si possible les identier. C'est en particulier le cas en géophysique où les
ondes issues de réexions/réfractions en profondeur sont masquées par les ondes se propageant
à la surface ou par les ondes interférentes liées à des réexions ou réfractions parasites.
1.2 Théorie
1.2.1 Formation de voie
L'algorithme de traitement d'antenne le plus connu (et sans doute le plus intuitif ) est l'algo-
rithme dit de formation de voie. Si on dispose d'une antenne susamment éloignée du point
source, l'onde arrivant sur l'antenne est une onde quasi-plane. Cela signie que les points du
champ vibrant en phase sont sur un même plan et que leurs diérences de temps d'arrivées
sur chaque récepteur de l'antenne ne dépendent que de l'orientation de ce plan par rapport à
l'antenne.
Un exemple est montré sur la gure 1(a) pour une onde plane arrivant sur une ALU. La
formation de voie consiste en une opération de décalage-sommation qui permet de retrouver la
direction d'arrivée de l'onde plane. Même sans connaître la position de la source, il est possible
de décaler les signaux enregistrés sur chaque récepteur pour les mettre en phase.
Dans le cas de la gure 1(a) une onde plane perpendiculaire au plan du graphique arrive
sur une antenne de sept récepteurs sous un angle θ=60°. Les signaux reçus à chaque récepteur
sont enregistrés et l'on observe un décalage entre signaux dus à l'angle d'incidence de l'onde
et fonction de la vitesse dans le milieu [g. 1(b)]. Si l'onde était arrivée sur l'antenne sous
un angle de 90°, on aurait obtenu des signaux en phase dont la sommation aurait donné un
pic d'intensité maximal. On peut retrouver ce pic en testant divers décalages caractéristiques
d'un angle d'incidence possible et en sommant les résultats. On souhaite par exemple tester si
l'onde arrive sous un angle donné θobs et on suppose connue la vitesse V du milieu. Si on prend
comme référence de l'axe de l'antenne le récepteur du bas et que l'on suppose que l'onde arrive
sur ce récepteur au temps 0, on en déduit que pour un point de l'antenne de coordonnée z,
l'onde arrive avec un retard τ = zcosθobs /V . En particulier, pour le récepteur n, le retard vaut
τn (θ) = e(n − 1)cosθ/V , où e est la distance entre 2 récepteurs et n le numéro de récepteur. On
peut donc compenser le signal de chaque récepteur par le retard correspondant. Si θobs = θ, les
signaux de chaque récepteur vont être mis en phase avec celui du récepteur de référence et leur
sommation présentera une valeur maximum. Figure 1(c) sont représentés les signaux compensés
pour θ = 60° et θobs = 81°. L'angle testé ne correspondant pas à l'angle d'arrivée, les signaux
ne sont pas mis en phase et leur somme ne présente pas de pic caractéristique [g. 1(d)]. En
revanche, si l'angle observé correspond à l'angle d'incidence, la somme des signaux compensés
présente un pic [g. 1(e) et (f )].
55
Figure 1: Simple formation de voie. (a) Onde plane arrivant sur un réseau de récepteurs sous un angle
θ. V vitesse de l'onde au voisinage de l'antenne, e espacement inter-récepteur. (b) Enregistrement des
signaux reçus aux sept récepteurs. (c) Signaux décalés pour un angle de 9° et (d) leur sommation. (e)
Signaux décalés pour un angle de 59.4° et (f ) leur sommation. (g) Ensemble des signaux sommés pour
50 valeurs d'angle de 0 à 90°. (h) Enveloppe des signaux décalés et sommés et angles correspondants.
Pour une collection d'angles θobs variant de 0° à 90°, on somme ainsi la contribution de tous
les récepteurs après décalage. On obtient alors le résultat de la gure 1(g). Pour une meilleure
lisibilité des résultats, on prend l'enveloppe des signaux après sommation et on peut varier le
mode de représentation [g. 1(h)]. On observe bien un pic d'intensité autour de la valeur 60°
vers 18 ms.
La vitesse V du milieu peut être inconnue. Dans ce cas, on introduit la grandeur u = cosθ/V
appelée aussi lenteur apparente. La formation de voie consiste alors à scanner les retards en
fonction de u et non plus de θ. On notera que pour une valeur de u donnée, il peut y avoir une
innité de couples (θ, V ).
Par la suite, on note xi (t) le signal de la i
ème antenne et s(t) le signal émis. Mathématique-
ment, le décalage d'un signal peut être représenté par une convolution avec un dirac. Pour un
décalage de temps T du signal, la contribution du récepteur i vaudra donc xi (t) = s(t) ∗ δ(t − T )
si * représente l'opérateur de convolution. Avec des récepteurs également espacés d'une distance
e et pour un angle d'incidence θ cette contribution devient xi (t) = s(t) ∗ δ(t − τi (θ)).
On peut maintenant écrire la forme générale de l'intensité en sortie de la formation de voie :
X
S(t, θobs ) = x(t) ∗ δ(t − τi (θobs ))
i
56
L'opérateur de formation de voie permet donc de passer d'un espace à deux dimensions (x, t)
dans un autre espace à deux dimensions (θ, t).
On constate donc que si f augmente, l'espacement entre récepteurs doit diminuer. Si tel
n'est pas le cas, l'échantillonnage est insusant comme on le voit pour l'onde représentée en
vert gure 2(a) où l'on a moins de deux échantillons (points verts) par période. De même,
si la vitesse diminue - le signal s'étale sur une moindre distance - on se retrouve dans le cas
de la gure 2(b) [onde en trait ns] pour laquelle l'échantillonnage est dégradé. Enn, on peut
illustrer l'impact de l'angle d'incidence [g. 2(b) - trait gras] dont l'augmentation dégrade encore
l'échantillonnage.
Figure 2: Repliement spatial dans le cas d'ondes planes monochromatiques arrivant sur une ALU. (a)
Fréquence plus basse (trait bleu) ou plus haute (trait vert) (b) Impact de la vitesse (trait n) et de
l'angle d'incidence (trait gras).
57
1.2.3 Antennes 2D
Par la suite, on peut être amené à utiliser des antennes 2D [g. 3]. Dans ce cas, les retards
entre chaque récepteur et le récepteur de référence sont fonction de deux paramètres : l'angle
d'incidence θ et l'azimuth φ. Un rapide calcul va nous permettre de calculer l'expression de ce
retard.
cosφcosθ
P sinφcosθ
sinθ
−−−→0 −−→
−−−→
0
On considère le point M' de δ tel que M M est orthogonal OP . Dans ce cas, la distance
OM
correspond à la diérence de trajet entre les deux points du plan d'onde arrivant respectivement
−−−→ −−→ −−−→0 −−→
en M et en O. Soit t tel que OM 00 = [Link] . On a en outre M M .OP = 0 avec :
−−−→0 tcosφcosθ − x
M M tsinφcosθ − y
tsinθ
soit :
58
t(sin2 φ + cos2 φsin2 θ + cos2 φcos2 θ) = xcosφsinθ + ycosφcosθ
Si le récepteur de référence n'est pas au centre et est de coordonnées C(xc , yc , 0), l'expression
générale du retard devient :
A l'expression prêt des retards τi , les équations de la formation de voies sont identiques :
X
S(t, θ, φ) = x(t) ∗ δ(t − τi (θ, φ)) (2)
i
Figure 4: Model of the space charasteristic for an array of four antennae located of the corners of a
square with a separation of one-half wave-length between antennae on each side of the square, and with
zero phase dierence d'après [Frost 1926]
59
1.2.4 Double formation de voie
La formation de voie en réception, comme on l'a vu, est utilisée à distance de la source quand
on peut approximer les ondes incidentes par des ondes planes. Elle permet de séparer les ondes
en fonction de leur direction d'arrivée. A la diérence de l'astrophysique, par exemple, il est
possible de maitriser les sources en géophysique. On peut donc imaginer de créer des antennes
également en émission en considérant plusieurs sources. Cela permet de diérencier les ondes en
fonction de leurs angles d'émission.
Il y a un autre avantage. En eet, il y a des situations - en particuliers à petite échelle -
pour lesquelles la distance source-récepteur n'est pas très importante. Dans ces cas, la formation
de voie en réception seule marche mal car les ondes sont encore sphériques. Le fait d'utiliser
la formation de voie en émission permet de remédier à cela. En additionnant les signaux de
plusieurs sources à des instants diérents, on obtient, selon le principe de Huygens, un front
d'onde plan [g 5(b)].
Figure 5: Principe de Huygens (a) Onde sphérique dans le cas d'une source seule (b) réseau de sources
formant un front d'onde plan
Dans notre environnement de laboratoire, les surfaces et rebords étant tous plans, la double
formation de voie nous permet de travailler uniquement avec des ondes planes.
En réception, le calcul des retards est analogue. Si on conserve les orientations choisies, il
apparait que pour des antennes qui se regardent l'angle d'incidence varie entre −π/2 et π/2
dans le cas de l'émission et +/ − π/2 et+/ − π en réception. Dans ce cas, on peut inverser l'axe
y en réception et écrire les retards en orientant l'axe y dans le sens de l'antenne opposée comme
représenté gure 6. De la même manière, les angles sont orientés dans le sens trigonométrique
en réception et trigonométrique inverse en émission pour proter de l'eet miroir engendré par
la symétrie de l'environnement expérimental. Ainsi on aura :
pour la source, et
pour la réception.
60
Figure 6: Conventions (a) Azimuth : sens trigonométrique par rapport à l'axe source-réception pour
l'antenne réceptrice et trigonométrique inverse pour l'antenne source (b) Angles d'incidence : sens
trigonométrique par rapport à l'axe source-réception pour l'antenne réceptrice et trigonométrique inverse
pour l'antenne source. L'angle d'incidence est souvent mesuré par rapport à la verticale. Ici, elle a été
choisie pour mettre en évidence les symétries liées à l'environnement de propagation.
Avec des antennes 2D en émission et en réception, chaque trace est dénie par son points
de tir de coordonnées (xs , ys ) et son point de réception de coordonnées (xr , yr ). Dans ce cas,
la double formation de voie (DFV) permet de passer d'une représentation dans un domaine à
cinq dimensions s(t, xs , ys , xr , yr ) à une autre représentation dans un domaine à cinq dimensions
S(t, us , ur , φs , φr ) ou encore S(t, θs , θr , φs , φr ) avec :
X
S(t, θs , θr , φs , φr ) = x(t) ∗ δ(t − τi (θs , θr , φs , φr )) (5)
i
Dans la suite, il pourra nous arriver de simplier les écritures en posant θ ∼ (θs , θr , φs , φr ),
soit :
61
peut maintenant représenter l'intensité du signal en fonction - par exemple - de l'angle d'azimuth
pour un temps et des incidences xées. Pour être sur que le sous-ensemble considéré contienne
une arrivée, la manière la plus simple est d'eectuer préalablement une recherche de maximum
dans S ou dans un sous-ensemble de S. Pour une arrivée donnée, on obtiendra cinq paramètres
(tmax , θs,max , θr,max , φs,max , φr,max ) correspondants au pic d'intensité. Si on veut représenter
l'allure de l'intensité en fonction des angles d'incidence d'émission et de réception par exemple,
on s'intéressera à la sous-matrice 2D de S autour de ce pic. Ainsi, on peut xer le temps d'arrivée
et les azimuths pour visualiser l'allure du pic en fonction des angles d'incidences à l'aide de la
matrice 2D S(tmax , θs , θr , φs,max , φr,max ). L'allure de ce résultat peut être calculée à l'aide de
la théorie de la diraction en utilisant la formule [Lo et Lee 1993, Iturbe 2010] :
Cette formule est donnée à la fréquence f dans le cas de la simple formation de voie pour une
antenne ALU en émission ou en réception avec :θobs angle d'observation, θ angle d'incidence de
l'onde, N le nombre de récepteurs et e leur espacement.
Dans le cas de la double formation de voie, l'expression de l'équation 7 est utilisée en émission
et en réception et on obtient :
Figure 7: Taches focales dans le domaine (a) des azimuths et (b) des angles d'incidence pour une onde
se rééchissant sur le fond. La tache centrée en (0,0) pour les azimuths montre une propagation dans le
plan spéculaire. L'onde fait un angle d'environ 70° avec l'horizontale côtés source et réception.
Dans le cas d'antennes à deux dimensions, il est possible de varier les sous-ensembles de
représentation et de xer - par exemple - les angles d'incidence. La gure 7(b) correspond à la
même onde mais dans le plan S(tmax , θs,max , θr,max , φs , φr ).
62
1.3.2 Visualisation en lenteur
Les visualisations 2D permettent de bien se rendre compte de la manière dont l'énergie est
focalisée en fonction de 2 paramètres. Mais une visualisation de l'ensemble des ondes se pro-
pageant dans le milieu nous paraît souhaitable. Pour cela, nous introduisons ici la notion de
vespagram. Cette représentation est issue de la sismologie et une présentation en est donnée
dans [Krüger et al. 1993]. Dans notre cas, on suppose que l'azimuth est un paramètre relative-
ment facile à prévoir. Ainsi, dans le cas d'un réseau installé sur le terrain, l'onde directe ainsi que
les réexions sur un réecteur se propageront principalement selon l'axe antenne d'émission - an-
tenne de réception. Dans la pratique, la vitesse V peut-être déterminée mais pas immédiatement.
Nous allons donc nous tourner vers une représentation en lenteur.
Pour diminuer la dimension de notre matrice de résultat, nous considérons tous les azimuths
possibles. C'est à dire que pour un temps et des lenteurs d'émission et de réception xés, nous
recherchons l'onde la plus énergétique pour toutes les valeurs de φs et φr , soit une nouvelle
matrice 3D :
Nous supposons implicitement que pour la majorité des triplets (t, us , ur ) xés, au maximum
une seule onde arrive. Si ce n'est pas le cas, les diérentes ondes pourront être discriminées
ultérieurement en utilisant les azimuths. Nous obtenons ainsi une matrice à 3 dimensions.
Nous faisons ensuite l'hypothèse que le milieu varie surtout avec la profondeur. Cela signie
qu'il y a une symétrie par rapport au plan orthogonal à l'axe source-réception. Dans ce cas, on
peut faire l'hypothèse ur ≈ us = u. Cela revient à considérer la nouvelle matrice :
On obtient ainsi une grandeur en 2 dimensions qui peut donc être facilement représentée
graphiquement. Pour obtenir une représentation en vespagram, on considère non pas S̃ mais 20∗
log(|S̃|) an d'avoir un résultat en décibels. La gure 8 représente un vespagramme synthétique
pour six ondes se propageant dans un gel rectangulaire de dimension 500 mm x 200 mm x 130
mm et pour des antennes sources et réceptions de taille 7x7. Les centres de deux antennes sont
distants de 30 cm et se trouvent sur le grand axe du gel. La vitesse dans le gel est homogène et
égale à 10 m/s et le résultat est représenté gure 8.
Figure 8: Vespagram synthétique (1) Onde directe (2/3) Reexions sur les bords droit et gauche (4)
Reexion sur le fond (5/6) Reexions doubles sur les bords.
63
Dans cette simulation, nous avons propagé une onde de surface directe qui est celle arrivant
en premier vers 30 ms (onde 1) puis les ondes rééchies à droite et à gauche sur les deux bords.
Par symétrie, elles arrivent en même temps vers 34 ms (ondes 2 et 3). Viennent ensuite la
réexion sur le fond (onde de volume 4 vers 39 ms) et les réexions doubles sur les bords (ondes
5 et 6 simultanément vers 43 ms).
La matrice S a été calculée avec un pas de 0.004 en lenteur. Les ondes de surface ayant un
angle d'incidence nul selon nos conventions, nous avons V = 1/u = 10 m/s et on retrouve bien
la vitesse du milieu. Pour l'onde de surface, l'angle d'incidence vaut θ = acos(uV ) ≈ 40.5°. Si
on considère le rai joignant les deux centres des antennes après s'être rééchi sur le fond, on
obtient une valeur de atan(13/15) = 40.9°. Aux erreurs de quantication près, on retrouve bien
les valeurs de départ.
On constate que le vespagram permet une visualisation compacte des données qui donne un
premier apercu de la propagation.
Les premiers tests ont montré que le gel permettait de propager des fréquences jusqu'à 1500
Hz. Du fait des caractéristiques des émetteurs piézo-électriques, nous avons choisi une bande de
[120 850] Hz. Ceci donne une fréquence centrale d'environ 500 Hz. Avec des vitesses allant de 7 à
11 m/s en gros, la longueur d'onde typique des ondes est de 2 cm. Pour obtenir un échantillonnage
spatial respectant le théorème de Nyquist et éviter le rempliement, un espacement de 1 cm est
minimum. Pour les fréquences les plus hautes, il serait même nécessaire de descendre à un
espacement de 0.6 cm. Cependant, la taille des plus petites pastilles piézo-électriques étant de
12 mm, il n'était pas possible de réaliser une antenne avec cet espacement inter-source. Nous
devions donc déplacer à la main la source dans cette expérience durant laquelle 6174 traces ont
64
été enregistrées en 18 heures. Diminuer encore l'espacement aurait multiplié le nombre de traces
par 2.8 ce qui aurait étalé l'expérience sur plus de 4 jours. Les résultats montreront cependant
que travailler à la limite du repliement n'est pas forcément un problème, surtout si, comme dans
notre cas, le milieu est susament connu pour avoir à l'avance une idée des résultats.
Enn, pour suivre l'évolution des ondes au sein du gel, il paraissait opportun de considérer
plusieurs antennes consécutives. Pour cette raison, nous avons échantillonné le gel non pas sur
7 lignes mais 18. En considérant les lignes 1-7, puis 2-8,... jusqu'à 12-18, cela permet d'obtenir
12 antennes en réception [g. 9].
Figure 10: Vespagrams(a) Complet (b) Pour des azimuhts variant de -9° à +9° en source et en réception
(c) Côté source (d) Côté réception.
Sur le vespagram suivant [g. 10(b)], nous avons eectué un traitement simple sur la matrice
S. Nous avons annulé toutes les valeurs pour lesquelles l'azimuth était supérieur à 9° en valeur
65
absolue. C'est à dire que toutes les ondes s'écartant de plus de 9° de l'axe source-récepteur sont
éliminées. On constate que cette opération produit un nettoyage important. En particulier,
toutes les ondes de surfaces réverbérées sur les grands bords du gel disparaissent. On vérie que
l'onde 1 est toujours visible, en eet, elle se propage avec un azimuth théorique de 0°. Sa lenteur
vaut 0.1055 ce qui équivaut à une vitesse de 9.5 m/s. La réexion sur le fond est elle aussi dans
l'axe source-récepteur mais avec une lenteur moindre (0.067). Si la vitesse du milieu est à peu
près constante dans le gel, ce ne peut être une onde de surface. Il s'agit donc d'une onde de
volume. On sait que la vitesse des ondes de volume est d'un rapport 0.955 avec celle des ondes
de surface, soit 9.9 m/s environ. Avec la relation u = cosθ/V on en déduit l'angle d'incidence
de l'onde 4 qui vaut ici 48.3°.
Sur les deux vespagrams du bas, nous avons diérencié les côtés source et réception. Pour
une lenteur source donnée, nous avons pris la valeur maximum de la lenteur en réception. Cette
opération permet de constater que les lenteurs en source et en réception sont diérentes. On
constate par exemple que pour la première arrivée, la lenteur est de 0.1055 s/m côté source et
0.1 s/m côté réception. Cela signie que la vitesse varie légèrement, de 9.5 m/s côté source et
10 m/s côté réception. En faisant des calculs séparés en émission et réception pour l'onde 4, on
trouve qu'elle part avec un angle de 50.3° et qu'elle arrive avec un angle de 48.3°. Sachant que
les calculs ont été fait avec un pas de 0.055 pour la lenteur, on peut conclure que ce trajet est
relativement symétrique.
Pour les ondes de volume, les diérences peuvent être liées à la diérence de vitesse mais aussi
à l'angle d'incidence. On ne peut conclure aussi simplement. Néanmoins, ces représentations en
vespagram donnent un très bon résumé des ondes se propageant dans notre milieu. Il est ensuite
possible de se concentrer sur une onde, d'aner la résolution en lenteur et/ou en azimuth ou de
représenter les résultats dans d'autres sous-espaces après DFV.
Certaines ondes pourraient apparaître mais ne sont pas visibles. L'onde directe, par exemple,
va se rééchir sur le petit bord du gel après être passée par l'antenne de réception. Elle revient
donc vers cette antenne selon la même direction mais en sens opposé. De même, côté source, les
ondes se propagent vers l'arrière et se rééchissent sur l'autre petit bord. On pourrait s'attendre
à voir une onde empruntant le même trajet que l'onde directe mais retardée. Or, on ne voit
aucun des deux spots correspondant, en particulier sur la gure 10(b) qui privilégie les ondes
se propageant selon le grand axe du gel. Dans le premier cas, cela s'explique par le fait que
nous ne scannons pas les azimuths négatifs. Donc le vespagram n'ache pas les ondes arrivant
avec un angle de 180°. La deuxième onde devrait arriver avec environ 20 ms de retard sur la
première arrivée. On distingue bien une tache d'un bleu un peu plus clair vers 40 ms mais cette
tache ne se distingue pas vraiment du plancher de bruit. C'est probablement la forte atténuation
rencontrée qui rend cette onde indétectable.
66
représentation 2D de cette onde devient possible en xant le temps et en considérant la matrice
2D correspondante S(tmax , θs , θr , 0, 0).
Figure 11: Trajets des ondes (a) Onde directe en surface se propageant du centre de l'antenne source
(ronds rouges) au centre de la onzième antenne réceptrice (triangles bleus) (b) Onde de volume rééchie
sur le fond se propageant du centre de l'antenne source au centre de la cinquième antenne réceptrice.
Une représentation de cette matrice est donnée gure 12(b). On constate que le maximum
du spot d'intensité est autour de (0°,0°) pour les azimuths en émission et en réception. La tache
focale est très proche de celle obtenue via la théorie [g. 12 (a)]. Si on observe bien, on constate
cependant que le maximum pour θs est plutôt autour de 20°. Cela peut signier que l'onde ne
part pas le long de la surface mais légèrement en profondeur. Mais cela vient peut-être aussi de la
vitesse qui n'est pas forcément la même de part et d'autre du gel comme vu sur les vespagrams.
Cette interrogation est assez dicile à lever même si par la suite, on constatera souvent des
variations de vitesse dans le milieu.
Figure 12: Résultats en angles. Taches focales théoriques et expérimentales de l'onde directe dans le do-
maine (a)-(b) des angles d'incidence et (c)-(d) des azimuths. Taches focales théoriques et expérimentales
de la réexion du fond dans le domaine (e)-(f ) des angles d'incidence et (g)-(h) des azimuths.
On peut bien sûr lire la matrice S dans plusieurs directions. Si on xe - par exemple - les
angles d'incidences correspondant au maximum d'intensité, on peut observer la tache focale
67
en azimuth et la comparer à la tache théorique [g. 12(d) et (c)]. On peut également faire les
mêmes observations avec une onde de volume comme celle ayant une réexion au fond représentée
gure 11(b) et dont le temps d'arrivé vaut 25.6 ms. Les spots correspondants sont représentés
gure12(f ) et (h), à comparer avec les résultats théoriques en (e) et (g). Pour cette onde, l'angle
d'incidence vaut environ 70° en émission comme en réception tandis que les azimuths restent
proche de zeros. En eet, l'onde se propage dans l'axe reliant les deux antennes.
Les diérents résultats de la gure 12 correspondent à une antenne réceptrice choisie parmi
les 12 possibles. Il est possible de représenter les spots d'intensité pour toutes les antennes an
de se rendre compte de l'évolution des paramètres quand l'oset varie. La gure 13 représente
les cartes d'azimuths et d'incidence pour les ondes 2 et 4. L'onde 2 correspond à une onde de
surface rééchie sur le bord droit de l'aquarium et revenant ensuite vers l'antenne réceptrice.
Figure 13(a) on voit que, pour toutes les antennes, les angles d'incidences restent connés dans
la zone (θs , θr ) ≈ (0°,0°). Pour les azimuths, en revanche [g. 13(b)], on remarque que leurs
valeurs diminuent au fur et à mesure que l'on éloigne les antennes ce qui paraît naturel compte
tenu du trajet de l'onde. Sur les cartes d'azimuths, on remarque un second spot un peu moins
énergétique. Il s'agit du rebond sur le bord opposé. Ce rebond est un peu décalé en temps car
le dispositif n'est pas totalement symétrique. Il n'est donc pas à son maximum d'intensité pour
les temps représentés.
Figure 13: Evolution des tâches focales avec l'oset pour (a)-(b) Onde de surface rééchie sur le bord
droit dans le domaine des angles d'incidences et d'azimuth et (c)-(d) la réexion du fond dans le domaine
des angles d'incidences et d'azimuths.
Pour l'onde de volume [g 13(c) et (d)], on remarque en premier lieu une variation sensible
de l'intensité qui augmente au fur et à mesure que l'on s'éloigne. On retrouve ici le fait que l'onde
de volume étant une onde de cisaillement, sa composante horizontale diminue avec l'oset ce qui
fait que le laser ne peut enregistrer un signal de forte amplitude dans ces cas là. On remarque
que l'incidence diminue quand on s'éloigne ce qui - avec nos conventions - correspond à un rayon
68
qui se rapproche de l'horizontal. Là encore c'est ce que l'on attendait. L'azimuth évolue peu et
reste centré autour d'une valeur nulle.
Figure 14: Ondes extraites par DFV - (a) Données brutes centre à centre (b) Onde de surface directe
(c) Onde de surface rééchie sur un bord (d) Onde de volume rééchie dans un coin (e) Double réexion
sur les bords.
Dans notre cas, nous cherchons à retrouver non pas l'ensemble des traces de départ mais
uniquement celle qui va du centre de l'antenne source au centre de l'antenne réception. Comme
nous avons pris le centre de l'antenne comme référence pour le calcul des retards et que le
nombre d'éléments des antennes est impair, les retards sont calculés par rapport à la position de
cet élément central. Les décalages en temps sont donc nuls pour cette trace là. Pour revenir dans
le domaine temporel, il sut donc d'extraire de la matrice S la composante dont les paramètres
correspondent au trajet de l'onde qui nous intéresse. Ainsi pour l'onde directe se propageant du
centre de l'antenne source au centre de la onzième antenne réception, on considère :
69
s5,4 (t) = S(t, 70°, 62°, 0°,0°)
n° onde description
70
2.2.5 Dispositif passif
Il est possible de réaliser un vespagram également pour des données passives. Nous avons
utilisé des antennes source et réception de 5x5 = 25 éléments espacées de 18 cm avec la source
d'air comprimé et en répartissant les sources de chaque côté du dispositif [g. 9(a) du paragraphe
2.1.5]. On obtient donc une ondelette dans les temps positifs et négatifs. Les deux vespagrams
correspondant sont représentés gure 15(a) et (b).
Figure 15: Vespagram de données passives (a) temps positifs (b) temps negatifs
On observe une très belle première arrivée dans les deux cas (temps positifs et négatifs) vers
19.5 ms. Les rebonds sur les bord sont égalemant visibles autour de 24/25 ms et au delà pour
les temps négatifs (vers 38 ms). En revanche, la rééxion du fond n'est pas détectée. On se situe
dans un cas où l'énergie qui se propage de la source vers le fond ne passe pas ou peu par le trajet
qui joint les deux sources (cf. Annexe A).
71
sans doute améliorer quelques peu les résultats. On peut penser à une normalisation des signaux
en fonction des sources et des temps d'arrivée de chaque onde. On obtiendrait ainsi des valeurs
d'angles plus proches de la réalité. Cependant, cela n'aecte pas la démonstration souhaitée, à
savoir que la DFV est un outils adapté à notre étude. Par la suite, la normalisation évoquée
(ainsi que tout autre optimisation comme par exemple une apodisation des signaux de chaque
antenne) peut être envisagée dans le cadre d'une industrialisation des algorithmes.
72
plus intéressant car adapté à notre environnement. L'extraction des ondes une par une nous
permet de sélectionner facilement celles qui traversent une zone particulière. De plus, provo-
quer et suivre des variations de vitesse en laboratoire est tout à fait envisageable. Enn, la
4D connaît actuellement un fort développement et l'expérimentation à l'échelle du laboratoire
pourrait apporter des pistes intéressantes. C'est donc ce que nous avons choisi comme seconde
étape.
73
Quatrième partie
Monitoring 4D
1 Introduction et enjeux
En 4D conventionnelle, on réalise deux images ou plus du même endroit à des époques
diérentes. L'image met en évidence les diérents réecteurs et si les propriétés du sous-sol ont
varié, cela peut-être mesuré en comparant les images successives. L'un des problèmes majeurs est
celui de la répétitivité du signal d'une acquisition à l'autre. Deux images peuvent être séparées
de plusieurs mois ou semaines. Entre-temps, les propriétés de la proche surface évoluent et
impactent signicativement les temps de trajets des ondes qui voient les variations de la
profondeur. D'autre part, les sources (des camions vibrateurs en général) ne sont pas forcément
les mêmes et, si c'est le cas, elles ont pu connaitre un vieillissement et une modication de leurs
caractéristiques. De mêmes pour les récepteurs. Sources et récepteurs peuvent également ne pas
être disposés exactement de la même façon. Ce sont autant de paramètres dont on doit tenir
compte si l'on veut comparer des images successives.
Une des techniques les plus connues concernant la compensation des variations de vitesse
parasites de la proche surface est la cross-equalization [Ross et al. 1996]. L'idée principale est
la suivante. Considérant plusieurs sommations d'ondelettes à incidence nulle (ou stack) repré-
sentant la même section de terrain à diérents temps, la cross-equalization consiste à appliquer
74
à toutes les ondelettes un opérateur de correction en phase et en amplitude calculé sur les pre-
mières arrivées. Comme les premières arrivées contiennent l'information des variations parasites
de la proche surface, cet opérateur permet de les compenser. C'est une technique qui a fait ses
preuves et qui a connu des développements permettant d'améliorer ses performances, en par-
ticulier pour prendre en compte des diérences de trajet [Meunier et al. 1997] ou des biais en
amplitude [Rickett et Lumley 1998]. Néanmoins cette technique reste imparfaite. En particulier,
les ondes étant émises à la surface, environ 70% de l'énergie des sources va être transformée en
ondes de surface qui détériorent d'autant la qualité du stack. Il est d'autant plus dicile de
calculer un bon opérateur. Une solution consiste donc à enterrer les sources et/ou les récepteurs
pour diminuer l'impact des ondes de surface. Là encore, de très bons résultats sont observés
[Forgues et al. 2011].
Mais des défauts subsistent. En eet, l'opérateur de cross-equalization calcule une correction
dans une fenêtre de temps sélectionnée en début de trace, soit des ondes ayant eu un trajet plutôt
court. Dans la réalité, on ne maîtrise pas le contenu de cette fenêtre. Elle contient principalement
les arrivées de réexions n'ayant vu que la proche surface ce qui permet de les évaluer et de les
compenser. Mais on ne sait pas combien d'ondelettes s'additionnent et on ignore leurs trajets
respectifs. Dans le cas d'un dispositif de surface par exemple, les ondes que l'on cherche à
compenser traversent la proche surface à l'émission et à la réception. Elles sont aectées par un
retard parasite qui correspond à cette double traversée. Parmi les ondes utilisées pour calculer la
correction, certaines peuvent avoir traversé la proche surface plus de deux fois (par exemple, en
se rééchissant sur des éléments diractants). Le retard correspondant est d'autant plus long et
ne permet plus de corriger les ondes qui vont en profondeur. Le problème reste présent avec des
récepteurs et des sources enterrés. Une onde émise d'une source enterrée qui rebondi à la surface
avant d'arriver aux récepteurs verra elle aussi des variations parasites diérentes de celles qui
ne passent que par la profondeur.
D'autre technique existent, comme en sisimique marine où l'on cherche à compenser les varia-
tions de la vitesse de la couche d'eau entre deux passages au même endroit [Mc Kay et al. 2003].
Dans ce cas, on utilise la réexion sur le fond pour évaluer les variations parasite. Cette tech-
nique suppose de calculer l'angle d'incidence des diérentes ondes (celle qui doit être corrigée
et celle qui sert à calculer la correction) pour tenir compte de la longueur diérente des trajets.
Elle suppose donc le calcul d'un modèle de vitesse. Il faut également qu'en dépit des diérents
trajets, les variations vues par les diérents trajets soient proportionnelles. Les calculs sont donc
eectués pour des sous-zones ce qui suppose que la vitesse de la couche d'eau ne varie pas trop
localement, d'autant plus que la position des récepteurs n'est pas maitrisée avec précision entre
deux passages. Pour un suivi 4D, il est également possible de disposer un réseau de récepteurs
sur le fond. C'est la solution adoptée pour le champs de Valhall en 2002 avec des OBC (Ocean
Bottom Cables). [Barkved et al. 2005] présentent le résultat de 5 acquisitions consécutives entre
septembre 2003 et avril 2005,
75
enregistrement, cela nous mène à un cycle d'acquisition d'1h20 pour enregistrer l'ensemble des
traces de chaque source vers chaque récepteur. Echantillonner les temps d'arrivée des ondes à
ce rythme ne nous convient pas car le gel peut évoluer sensiblement entre deux mesures.
La solution consiste donc à diminuer la taille de l'antenne. Il faut alors vérier qu'avec moins
d'éléments, le dispositif nous permet de séparer correctement les ondes qui nous intéressent.
Nous n'avons pas cherché à extraire 12 ondes comme dans la première étude. En revanche,
disposer de l'onde directe ainsi que deux ou trois ondes de volume nous a paru un minimum.
Figure 1: Comparaison de vespagrams (a) Avec 13x13 points en réception et 8x8 sources [Antenne g.
17 chapitre 2.3.3] (b) Même antenne avec 5x5 points en sources et réception. (c)-(d) Avec 5x5 points en
source et réception et antennes des gures 18(a) et (b) du chapitre 2.3.3.
Une carte de lenteur est représentée pour la première antenne gure 1(a). Elle correspond
à une acquisition dans un gel bicouche de taille 450x450x150 mm pour une antenne source de
8x8 éléments soit 64 sources et une antenne réception 13x13 soit 169 récepteurs. On remarque
immédiatement que la taille des spots est inférieure, ce qui correspond au fait que la dimension
de l'antenne est supérieure. Figure 1(b) est représenté un vespagramme pour lequel une sous-
antenne de taille 5x5 a été utilisée en émission et en réception.
Pour des valeurs de temps/lenteur de (24 ms, 0.14 s/m), (27 ms, 0.115 s/m) et (37 ms, 0.07
s/m) on observe l'arrivée directe, l'onde rééchie sur le haut de la seconde couche et la réexion
du fond. Ces ondes sont repérables du fait de notre connaissance du milieu. Mais de nombreux
spots d'intensité relativement importantes sont visibles. En en particulier, le spot d'intensité en
76
(17 ms, 0.14 s/m) correspond probalement aux arrivées dues aux émissions parasites des sources
couplées avec la source en émission.
Les résultats des deux autres antennes [g. 1(c) et (d)] sont assez comparables au regard de la
taille des spots d'intensité. Le nombre important de spots vient du fait que les antennes ont été
testées dans un bac plus petit (de taille 450 x 150 x 90 mm) d'où un nombre important d'ondes
rééchies sur les bords. On remarque que les arrivées parasites autour de (18 ms, 0.12 s/m)
sont nettement moins fortes pour la troisième antenne ce qui était un des objectif recherchés en
isolant les sources les unes des autres. Les spots correspondant aux ondes de surface (lenteur
de 0.12) paraissent un peu mieux résolus sur la deuxième antenne alors que ceux correspondant
aux ondes de volume semblent un peu mieux résolus pour la troisième.
Enn, le bruit de fond de la DFV associée à la troisième antenne apparaît plus bas que celui
de la seconde si l'on se réfère à la partie gauche des gures (c) et (d).
2.2.1 Contraintes
La première contrainte est de valider que variations de température et de vitesse sont liées.
Pour cela, un test préliminaire sur plusieurs jours est une piste intéressante. En eet, les varia-
tions de température dues à l'alternance du jour et de la nuit devraient être visibles.
Ensuite, l'idée est de suivre plusieurs ondes. Pour cela nous envisageons de capitaliser sur les
résultats de double formation de voies pour extraire ces ondes. Pour avoir un suivi susament
n en temps, nous comptons sur nos antennes de taille réduite qui nous donnent une répétition
susante des mesures.
2. L'onde de volume rééchie à l'interface des deux couches d'agar-agar appelée onde B
Ces trois ondes sont représentées gure 2. La distance D entre source et récepteur est de 15 cm.
Sachant que le gel fait plus de 45 cm de côté, cela permet de discriminer temporellement les
arrivées et de décaler d'autant les réexions sur les bords.
Le test est eectué avec une seule source et un seul récepteur. On note H la hauteur du gel
et h celle de la couche supérieure. La surface étant en contact avec l'air, nous serons amenés
77
à faire l'hypothèse que la couche supérieure est aectée sur tout ou partie de sa hauteur, on
notera h1 cette troisième hauteur.
Figure 2: Environnement
Dans ce premier test, des mesures sont faites toutes les 15 minutes et le gel est laissé tel quel.
On récupère tous les quart d'heure une trace ayant l'allure de celles représentées gure 3(a). Ces
deux traces ont été enregistrées à plus de six heures d'intervalle. Elles présentent des analogies
et on observe pour chacune d'elle une première arrivée entre 20 et 23 ms, une seconde entre 23
et 27 ms et une troisième entre 33 et 37 ms. La première arrivée étant vers 20 ms nous avons
une vitesse approximative de 7.5 m/s en surface. En utilisant cette valeur pour des épaisseurs
H et h de 12.5 et 6.0 cm, on obtient un temps d'arrivée théorique de 23.4 ms pour l'onde B.
Le temps d'arrivée observé de l'onde C (à partir de 33 ms) permet de déduire la vitesse de la
seconde couche (environ 10.6 m/s). Ce sont les trois ondes que nous traquons.
Figure 3: Mesure point à point(a) Enregistrements séparés de 6h20 pour le même point source et
le même point réception avec (gris foncé) la première arrivée vers 22 ms (gris clair) la réexion à
l'interface des deux couches vers 24 ms et (gris moyen) la réexion du fond vers 35 ms (b) mesure des
temps d'arrivés relatifs pour ces trois ondes sur deux jours et demi.
78
On remarque cependant deux choses importantes.
1. Les deux premières ondes arrivent à des instants très proches et apparaissent partiellement
mélangées
2. Le bruit d'une mesure à l'autre est important et peut entraîner des variations supérieures
à celles que nous cherchons à identier.
Il est toutefois possible de fenêtrer ces ondelettes et de calculer la variation relative de temps
d'arrivée pour chacune d'elle. Les résultats de ces mesures sont présentés 3 (b). Il apparaît
immédiatement qu'au delà de la trentième heure, les mesures de dt/t pour l'onde C sont très
perturbées. Cela est probablement dû à un RSB insusant. Pour les ondes A et B, on parvient à
suivre des variations relativement lisses qui laissent de plus entrevoir des périodes de 24 heures.
Cela nous conforte dans l'hypothèse que le milieu subit des variations de vitesse liées à la
température. Toutefois, les ondes A et B étant mélangées, on ne sait pas dans quelle mesure les
variations de l'une sont perturbées par celles de l'autre. Pour toutes ces raisons, la possibilité
de pouvoir séparer ces ondes nous apparait importante. C'est ce qui motive les études suivantes
à l'aide d'antennes sources et récepteurs.
79
Figure 5: Formation de voie en 4D. (a) Données brutes après corrélation de la trace centre-à-centre
pour 70 acquisitions (b) Vespagram après DFV, A : onde de surface directe (25 ms, 0.12 s/m), B :
réexion à l'interface des deux couches (27 ms, 0.09 s/m) et C : réexion du fond (36 ms, 0.06 s/m).
(c)-(e) Taches focales des ondes A, B et C dans le domaine des azimuths. (f ) Tache focale de l'onde
C dans le domaine des lenteurs. (g) Trace de l'onde C extraite par DFV pour (φs , φr ) = (0°, 0°) et
(us , ur ) = (0.62, 0.66) s/m.
Pour la première acquisition, nous commençons par calculer un vespagram qui nous permet
d'estimer les temps d'arrivées et les lenteurs pour chaque onde. La lenteur mesurée pour l'onde
de surface est de 0.126 s/m ce qui correspond à une vitesse de 7.9 m/s. On observe pour les ondes
B et C des lenteurs de l'ordre de 0.094 s/m et 0.064 s/m. Toutes ces valeurs nous permettent
de faire les recherches de maxima au sein de la matrice des données et d'obtenir des cartes en
azimuth [g. 5(c)-(f )] ou en lenteur pour les trois ondes A, B et C. Ensuite, pour chaque onde,
on extrait la trace issue de la DFV en restant dans le domaine des angles comme expliqué dans
la partie III. Un exemple est donné pour l'onde C [g. 5(g)]. On remarque que l'onde directe
(èche bleue) reste visible alors que l'onde de volume rééchie à l'interface (èche verte) est
enlevée par le traitement. Cela est du au fait que l'onde directe est plus énergétique. Le gain de
la DFV n'est pas inni. Avec notre dispositif de 25 sources en émission et réception - et pour un
bruit considéré comme gaussien - il vaut 25, soit 28 dB. Cela dit, l'onde C (èche rouge) apparaît
avec une intensité plus importante et bien séparée en temps ce qui permet ensuite d'appliquer
un fenêtrage et un calcul de variation de temps d'arrivées.
80
3 Traitements et résultats
Grâce au traitement par DFV, nous avons pu séparer les trois ondes se propageant entre nos
antennes. Leurs temps d'arrivée sont plus facilement mesurables du fait de la meilleure qualité
d'ondelette obtenue (meilleur RSB et absence de mélange avec d'autres ondelettes). On peut
donc s'intéresser au suivi de leurs temps d'arrivées.
Les résultats mesurés dans le cas point-à-point [g. 3(b)] montrent que les variations de
temps d'arrivées des ondes de surface et de volume sont corrélées. Elles paraissent plus ou moins
proportionelles sans être égales pour autant. Notre objectif est de montrer théoriquement qu'il
existe une relation de proportionalité entre ces variations dont on pourra tirer parti pour la
suite.
Figure 6: (a) Prol de variation de vitesse supposé de la proche surface. (b) Trajet des ondes B et C
dans la couche supérieure
Dans cette partie, nous considérons uniquement les variations de vitesse de la proche surface
et de la profondeur. Les couches intermédiaires sont supposées ne pas changer. Pour chaque
onde x avec x = A, B ou C nous avons :
81
de la vitesse et de l'angle d'élevation, la diérence de temps de trajet avant et après variation
devient donc :
1 δz. 1 δz.
δtx = − (2)
V (z) + dV (z) cos(θx + δθx ) V (z) cosθx
Dans l'Annexe B, nous montrons que de faibles variations de vitesse ne modient pas le trajet
2
au premier ordre , ce qui signie que l'angle d'incidence peut être considéré comme constant.
L'équation 2 s'écrit alors :
1 δz. 1 δz.
δtx = − (3)
V (z) + dV (z) cosθx V (z) cosθx
δz. dV (z)
δtx = − (4)
cosθx V (z)2
On en déduit :
cosθB
δtC = δtB (5)
cosθC
Pour obtenir la variation de temps de trajet total sur la première couche, nous intégrons les
quantités trouvées pour une profondeur variant de 0 à h. Et comme la vitesse ne varie qu'entre
0 et h1 il vient :
ˆh1
1 cosθB
dtC = δtB (z)dz (6)
h1 cosθC
0
En tenant compte du fait que l'angle d'élevation ne varie pas, nous obtenons une relation
liant les variations de temps d'arrivées des ondes B et C :
ˆh1
1 cosθB cosθB
dtC = δtB (z)dz = dtB (7)
h1 cosθC cosθC
0
2. Il serait plus ecace de se contenter d'invoquer le principe de Fermat dont cette conclusion est une consé-
quence. Nous avons cependant gardé l'Annexe B qui image bien notre cas particuliers.
82
dtC,ps tB cosθB dtB,ps tB cosθB dtB
= = (8)
tC tC cosθC tB tC cosθC tB
3.2 Résultats
Une fois les ondelettes extraites via DFV, il est possible de les fenêtrer puis de calculer
leurs temps d'arrivées et d'en étudier les variations. Les algorithmes utilisés sont présentés dans
l'Annexe C, ils font appel à une ondelette de référence. Pour construire cette référence, on utilise
la moyenne de plusieurs ondelettes sur une partie de l'acquisition pendant laquelle les variations
de temps d'arrivées sont faibles.
Pour cela, les chauages sont activés à diérents moments de l'expérience. Ces temps sont
présentés gure 7(a).
Pour vérier l'impact du chauage dans le gel, les trois sondes thermiques sont disposées
dans le gel pour suivre les variations de températures.
La première sonde de température est disposée en surface un peu en dehors du parcours de
l'onde directe. Elle permet de vérier que la température varie même en limite de dispositif sans
impacter le parcours de l'onde.
La seconde est disposée à 3 cm de profondeur, au milieu de la première couche.
La troisième est mise au fond, légèrement décalée par rapport au trajet supposé de l'onde
rééchie sur le fond.
83
Figure 7: Variations de temps d'arrivée (d'après [de Cacqueray et al. 2013])
L'expérimentation consiste en une suite d'acquisition, le tout durant plus d'une journée. Pour
chaque acquisition, 625 traces sont enregistrées ce qui permet d'obtenir un jeu complet toute
les 20/21 minutes. La température est enregistrée toutes les 25 traces. On obtient les mesures
présentées gure 7(b).
Enn, en mesurant les variations de temps d'arrivées pour les trois ondes, on s'intéresse à
leur réaction aux diérents chauages.
On constate des réactions tout à fait en phase avec l'activation des chauages. Vers 1 h, alors
que l'on active le chauage du haut, la sonde de surface ache une forte variation [g. 7(b) ligne
bleue]. Elle est corrélée avec une variation d'environ 2% de l'arrivée de l'onde de surface [g.
7(c) ligne bleue]. Cette arrivée devient plus tardive. On en déduit que le réchauement du gel
diminue la vitesse de l'onde de surface. De même pour les ondes de volume (B et C), le temps
d'arrivée augmentent. La variation est de plus de 1% pour la réexion à la première interface et
d'environ 0.5% pour la réexion du fond. Cela est conforme avec nos attentes : les trois ondes
se propagent dans ou à travers la proche surface et sont toutes aectées par ses variations.
En observant les mesures de la deuxième sonde [g. 7(b) en vert] on constate que la première
couche subit aussi un réchauement. Donc le gel est impacté sur une profondeur de plus de 3 cm.
En revanche, la sonde du fond ne marque pas de hausse de température. On peut en conclure
que les variations de temps d'arrivées de l'onde C sont liées uniquement à son passage par la
proche surface.
Après un temps de relaxation permettant au gel de stabiliser sa température, un chauage
du fond est déclenché vers 13h. On remarque que seule la sonde du fond détecte un chauage et
la variation de temps d'arrivée de l'onde C apparaît avec un pic vers 14 h [g. 7(c) èche noire].
Les ondes A et B ne voient pas cette variation de température.
Enn, vers 17 h on active le chauage de surface, puis, sans attendre que la température du
84
gel se stabilise, le chauage du fond. Les deux chauages sont appliqués pendant la même durée
que précédemment et avec une puissance inchangée. On voit que les trois sondes détectent la
hausse de température de même que les trois ondes. Concernant les ondes A et B, on peut déduire
de la première expérience que la variation de temps d'arrivées est liée au seul chauage de la
surface. On constate par ailleurs que pour des chauages équivalents en durée et en intensité,
les variations de températures et de temps d'arrivées restent très proches. En revanche, pour
l'onde C, il n'est pas possible de discriminer les variations de temps d'arrivées liées à l'un ou
l'autre des chauages.
Pour essayer de séparer ces variations, nous allons appliquer la formule de l'équation 9. C'est
à dire que l'on utilise les variations de temps d'arrivées de l'onde B pour estimer les variations
d'arrivées de l'onde C liées à la proche surface. En corrigeant ainsi les variations de l'onde C
mesurées, on obtient la courbe bleue de la gure 7(d). L'allure de la variation entre 18h et 22h est
très comparable à celle de la deuxième expérience en présence du seul chauage en profondeur
(de 15h à 18h). Elle apparaît de plus en phase avec les déclenchements du chauage représenté
par la courbe rouge. Entre 1h et 2h, on constate que cette correction reste valable dans le cas de
la première expérience durant laquelle seul le chauage de surface a été activé car les variations
sont annulées.
Cette correction nous permet donc d'isoler les variations de temps d'arrivées liées à un
événement en profondeur, malgré d'importantes uctuations en surface.
Les variations de temps d'arrivées après correction sont représentées par la courbe en poin-
tillés verts de la gure 7(d). On constate là encore une bonne correction des temps d'arrivées
avec toutefois une qualité un peu moindre que pour la méthode précédente entre 1 et 2h et
aux alentours de 18h. Cela est peut-être lié aux spécicités des ondes de surface et ce point va
être discuté au chapitre suivant. Cela peut également venir des imprécisions de mesure ou des
imperfections de notre dispositif.
On peut également essayer cette méthode avec l'onde B. On remarque là encore une relation
linéaire pour les variations de temps d'arrivées liées aux instants sans chauage du fond [g. 8(b)].
tB cosθB
On peut alors mesurer un nouveau coecient r = 0.55 à comparer au ratio
tC cosθC = 0.536
trouvé par la méthode théorique.
85
Figure 8: Variation relatives de temps d'arrivées croisées.
3.2.3 Discussion
L'intérêt de la méthode est à discuter dans le cadre d'une application opérationnelle.
Une des premières hypothèse est de pouvoir disposer d'antennes. Concrètement, cela signie
un jeu de récepteurs et de sources de part et d'autre de la zone à surveiller avec des espacements
inter-éléments qui autorisent l'utilisation de la formation de voie aux fréquences émises.
Si on souhaite utiliser une onde de volume telle que l'onde B pour calculer des corrections,
il faut qu'elle existe. Cependant, on rencontre en général de nombreux réecteurs à un endroit
donné et on peut considérer comme probable d'avoir une ou plusieurs réexions au dessus du
réservoir ou de la zone d'intérêt.
Ensuite, nous avons un milieu dont la vitesse est constante. On peut montrer facilement
[Annexe D] que si la vitesse n'est pas la même au niveau des deux antennes, il existe toujours
un facteur de correction linéaire liant les variations de temps d'arrivées liées à la proche surface.
En revanche, si la vitesse varie au sein d'une même antenne, les techniques de formation de voie
ne peuvent s'appliquer directement et d'autres traitements sont à considérer [Dzieciuch 2001].
La variation du couplage des sources dans le temps est aussi une question. Nous ne l'avons
pas pris en compte dans nos calculs et les résultats se sont révélés probants. Il existe cependant
une réponse. Sur le terrain, il est possible de connaître le courant d'alimentation d'une source
entérrées ainsi que la réponse à proximité de la source via un géophone supplémentaire. On peut
alors calculer un opérateur pour compenser les variations observées ou utiliser des techniques
dites surfaces consistantes [Meunier et al. 1997]. Dans nos expériences, on pourrait aussi
aller plus loin en utilisant un point de réception témoin à oset proche qui permettrait de
compenser les variations liées à la source.
Enn, la méthode utilisant des ondes de surface reste délicate à envisager sur le terrain.
Certes, l'expérience a montré de bons résultats. Mais les conditions sont favorables. D'une part,
notre couche de vitesse faible est susament grande par rapport à la longueur d'onde pour que
nous ayons un seul mode de Rayleigh à prendre en compte. D'autre part, nous n'avons pas
introduit d'éléments diractants ou de réexions multiples. Or, des réexions nombreuses dans
la proche surface pourraient rendre la séparation des ondes plus dicile même avec la DFV. La
propagation des ondes de surface sur le terrain peut devenir rapidement extrêmement complexe.
La méthode utilisant les ondes de surface est envisageable car ces dernières sont sensibles à la
profondeur d'une manière qui dépend de la longueur d'onde (e.g. [Aki and Richards 1981]). C'est
86
grâce à cela qu'elles voient les variations en proche surface. Mais pour que cela soit valable, il
faut que la profondeur impactée par les variations de vitesse soit correctement couverte par les
ondes de surfaces.
Dans notre cas, on peut estimer cette profondeur en supposant que le modèle de l'Annexe B
est valable au premier ordre. On suppose que la couche supérieure voit un changement de vitesse
constant dV entre les profondeurs 0 et h1 et qu'elle reste inchangée sur la partie restante.
Dans ce cas, le résultat de l'Annexe B s'applique et on a :
dtB h1 dV
=−
tB h V
dtA dV
=−
tA V
On en déduit le rapport h1 /h puis h1 ≈ 4.5 cm. Ce qui veut dire que la couche supérieure
voit des variations de températures sur environ 4.5 cm. On retrouve bien le fait que la sonde de
3 cm enregistre ces variations. Le signal ayant une fréquence moyenne de 500 Hz, sa longueur
d'onde est d'environ 2 cm. Cela signie que la zone aectée par les variations de température
est susamment importante pour aecter la majorité des longueurs d'onde de notre signal.
L'utilisation de l'onde A est donc légitime dans notre cas. Il est possible de conrmer ces résultats
par une étude de la température. On utilise pour cela un code d'éléments nis basé sur l'équation
de diusion de la chaleur à une dimension :
∂2T 1 ∂T
= (11)
∂x2 D ∂t
87
Figure 9: Modèle de température (a) Modèle de température 2D initialisé aux bords avec les valeurs
des sondes de température de surface et du fond (b) Comparaison des valeurs de la sonde à 3 cm de
profondeur et des valeurs données par simulation.
relative maximum de 2% mesurée sur l'onde de surface pour calibrer ce modèle de vitesse. En
utilisant le code de Herrmann [Herrmann 1981], il est alors possible de calculer la courbe de
dispersion de l'onde de Rayleigh [g. 10(a)] ainsi que sa forme d'onde avant et après la variation
de température [g. 10(b)] .
Figure 10: Calcul de la dispersion par code de Herrmann (a) Courbe de dispersion de l'agar-agar
pour un variation de vitesse de 2% en surface (b) Ondelette initiale enregistrée avant variation (bleu)
Ondelette enregistrée pour des variations de temps d'arrivés observés de 2% (rouge) et ondelette déduite
par calcul de l'ondelette initiale après variations de vitesse en surface simulées de 2%.
Sur cette dernière gure, l'ondelette initiale est représentée par la courbe bleue. Après pro-
pagation dans le milieu intégrant le modèle de variation de vitesse, on obtient l'ondelette verte.
On peut surperposer (courbe rouge) le signal enregistré durant notre expérience pour un dt/t de
88
2%. On constate une très bonne correspondance entre les deux signaux ce qui permet de conclure
que notre modélisation représente correctement les variations de temps d'arrivées mesurées.
Figure 11: Ondes extraites. (noir) Ondes de surface (trait plein) Onde directe ou onde 1 (trait discon-
tinu) Réexion sur le bord droit ou onde 2 (pointillé) Réexion sur le bord gauche ou onde 3 (vert)
Ondes de volume S (trait plein) Réexion centrale sur le fond ou onde 4 (trait discontinu) Réexion
dans le coin droit ou onde 5 (pointillé) Réexion dans le coin gauche ou onde 6.
Plutôt que de créer des variations parasites en surface, nous faisons le choix de tester notre
algorithme dans une autre conguration et d'introduire des variations parasites globales. Pour
cela, nous réalisons un gel et entamons les mesures avant qu'il ne soit refroidi. Toute la masse
89
Figure 12: (a) Variations de température (b) Variations de temps d'arrivées (c) Zoom des variations
de temps d'arrivées.
du gel va subir un lent refroidissement, ce que nous pouvons contrôler au moyen des sondes de
températures.
En parallèle, nous déclenchons un chauage en profondeur peu après 25 heures d'attente. La
gure 12(a) permet de suivre l'allure globale du refroidissement à trois profondeurs. On remarque
une grande similitude des mesures des trois sondes concernant ce refroidissement. Pour la sonde
de surface et pour la sonde de profondeur intermédiaire, la variation de température liée au
chauage en profondeur apparaît négligeable (courbes bleue et verte vers t = 27h). Pour la
sonde du fond, (courbe rouge) on note une brusque montée de 1.3°C ( de 14.3°C à 15.6°C)
pendant environ 35 mn puis une relaxation sur 5 ou 6 heures.
Les gures 12(b) et (c) montrent les variations relatives de temps d'arrivées des six ondes
décrites à la gure 11. Ces variations sont peu bruitées, ce qui correspond à l'un de nos objectifs
pour cette expérience. On constate que les six courbes ont une décroissance très similaire qui
apparait très proche des mesures de température. On constate également que les variations
de température détectées par la sonde en profondeur lors du chauage correspondent bien à
des variations de temps d'arrivée calculées par notre algorithme. Sur le zoom [g. 12(c)], on
observe parfaitement les augmentations des temps d'arrivée des trois ondes de volume vers
25h30 alors que pour les ondes de surface, aucune variation signicative n'apparaît. La variation
est d'environ 0.45% pour l'onde de volume qui se rééchit au fond du gel et de 0.26% et 0.23%
pour les réexions dans les coins droit et gauche du gel. La sensibilité de la mesure apparaît très
satisfaisante. Les temps d'arrivées de ces trois ondes étant respectivement de 30.2 ms, 35.3 ms
et 34.9 ms, cela correspond à des variations de temps d'arrivées de 136 µs, 92 µs, et 80 µs. La
gure 13 montre, dans le cas de la réexion du fond (onde 4), que ces variations sont détectables
mais peu visibles sur les traces alors que les variations globales sautent aux yeux.
90
Figure 13: Trace de la réexion du fond (onde 4) extraite par DFV
Cette dernière expérience nous a permis d'approcher les limites de notre dipositif. L'utilisa-
tion d'un gel de petite taille plus facile à faire permet de supposer qu'il est plus homogène. En
tout état de cause, les variations de temps d'arrivées calculées sont très peu bruitées. Les plus
faibles concerne l'onde n°6 pour une variation d'environ 80 µs. La gure 6(c) montre qu'une
variation plus faible pourrait être détectée. Un facteur deux serait un maximum. En eet, en
deçà de 0.12% (environ 40 µs pour cette onde) la variation devient de l'ordre de grandeur du
bruit de mesure. Cette mesure peut être un bon étalon pour valider de futur dispositifs 4D.
Mais même dans ces conditions, les sauts persistent, en dépit de l'utilisation de moyennes
ou d'interpolations 2D.
La solution choisie consiste à travailler à paramètres constants sauf pour celui que l'on cherche
à suivre.
91
Figure 14: Suivi des lenteurs des 6 ondes (a) Emission (b) Réception
On remarque immédiatement que pour toutes les ondes, l'allure de la courbe en lenteur
suit une décroissance similaire à celle de la tempérautre. Ces courbes sont plus bruitées que
les courbes de variation de temps d'arrivées. Ainsi, sur les lenteurs en réception, il est dicile
d'observer d'autres évolutions signicatives que celle de la variation globale. En revanche, côté
émission, les courbes en lenteurs de deux des trois ondes de volume montrent un pic vers 25h30,
au moment du chauage en profondeur. Ce pic est plus visible pour l'onde 5 qui est rééchie
dans l'angle droit.
92
Figure 15: Suivi des azimuths des 6 ondes (a) Emission (b) Réception
On peut expliquer certaines de ces variations par des changements de vitesse. Ainsi quand
les azimuths varient de plusieurs degrés en sens opposés à l'émission et la réception, la cause
principale n'est sans doute pas un changement de trajet car le volume du gel ne change pas
signicativement. On sait que les variations de température induisent des changements de vitesse.
Si la température globale diminue, la vitesse augmente.
3.4.3 Compensation
Comme dans l'expérience précédente, nous allons chercher à compenser les variations de
temps d'arrivées liées aux phénomènes parasites. Dans le cas présent, il s'agit des variations
liées au refroidissement global du gel. Avec un gel monocouche, il n'existe pas de réexion
intermédiaire utilisable comme au chapitre 3. En revanche, nous pouvons utiliser la méthode
basée sur les données en utilisant les ondes de surface et l'équation 10. Nous verrons si la méthode
permet de compenser non pas des variations de la seule proche surface mais des variations
globales dans le gel.
Nous avons observé que les courbes de variations de lenteur ont des allures très comparables à
celles des variations de temps d'arrivées avec une décroissance qui suit le refroidissement. Pour
certaines ondes de volume, le chauage en profondeur est également perceptible. Il est donc
envisageable de tester un algorithme de compensation également sur les lenteurs en supposant
que l'équation se décline aussi pour les lenteurs. Pour une onde de volume v et une onde de
surface s - et en reprenant les indices p et ps du chapitre précédent - on suppose qu'il existe un
coecient q tel que :
duv,ps dus
=q
uv us
Les variations de lenteurs de l'onde de volume liées à la profondeur peuvent alors être estimées
à l'aide des variations de lenteur de l'onde de surface selon :
93
duv,p duv dus
= −q (12)
uv uv us
Les gures 16(a) et (b) montrent que dans notre expérience, il y a bien un coecient de
proportionnalité pour les temps d'arrivée (cas des ondes 1 et 4) comme pour les lenteurs (cas
des ondes 1 et 5). La gure 16(c) montre le résultat de la compensation des temps d'arrivées et
la 16(d) celle des lenteurs.
Figure 16: (a) Variations des temps d'arrivées relatifs croisées des ondes 1 et 4 (b) Variations des len-
teurs croisées des ondes 1 et 5 (c) Compensation des variations des temps d'arrivées de l'onde 4 par l'onde
1 (d) Compensation des variations de lenteur de l'onde 5 par l'onde 1. d'après [de Cacqueray et al. 2012].
On constate que la compensation fonctionne bien dans les deux cas même si, pour la lenteur,
les signaux restent bruités. Il est intéressant de voir que le comportement des deux paramètres
est très diérent. Les variations de temps d'arrivées sont très aectées par la variation globale de
température. On dépasse les 5% de variation de temps d'arrivées à l'heure 0. Pour le chauage
en profondeur, on note un pic de 0.45% après compensation. Si on se réfère aux temps d'arrivées,
les variations globales sont ici dix fois plus importantes que les variations locales.
Pour les lenteurs, on mesure des variations globales de l'ordre de 7% au début de l'expérience
et des variations de -5% lors du chauage. On reste dans le même ordre de grandeur. Dans
notre conguration, cela montre que, pour des variations globales du même ordre de grandeur,
la lenteur est un paramètre 10 à 12 fois moins sensible aux variations locales que les temps
d'arrivées. Concernant les variations globales, la courbe de variation de lenteur présente une
sorte de seuil qui apparait vers 8 h pour des variations de temps d'arrivée d'environ 2.5%.
On note également qu'au début de l'expérience (pour des variations de temps d'arrivée de 4%
et plus), la courbe compensée s'éloigne de la valeur 0 en lenteur comme en temps d'arrivée.
L'algorithme de compensation proposé semble moins bien marcher en cas de forte variations de
vitesse ce qui va dans le sens des hypothèses de faibles variations faites lors des calculs théoriques.
94
Comme évoqué dans notre introduction, il existe peu de dispositifs d'acquisitions dédiés à
l'utilisation d'antenne source et réception simultanément. Néanmoins, le nombre de récepteurs
et de sources étant généralement très important sur le terrain, il est envisageable d'en utiliser
des sous-ensembles pouvant tenir lieu d'antennes.
4.1.1 Dispositif
Dans le dispositif installé, les vibrations sont émises par des sources piézo-électriques enter-
rées à 25 m de profondeur et émettant dans une bande de 5 à 130 Hz. Les récepteurs sont des
hydrophones - plus performants que des géophones dans cet environnement - enterrés à 9 m
de profondeur. La disposition étant en lignes de sources et de récepteurs, nous ne pouvons pas
sélectionner de sous-ensembles carrés constituant des antennes 2D comme dans notre étude en
laboratoire. En revanche, les espacements en source et en réception étant régulier, nous pouvons
disposer d'antennes ALU. La gure 17 représente la ligne de 12 sources (ronds) et une partie
de la ligne de 68 récepteurs (carrés) utilisées. En couleur, un exemple de sous-ensemble de 15
récepteurs (en bleu) et de 7 sources (en rouge) constituant un choix d'antennes possible est
souligné.
95
utilisées. La conséquence est que le front d'onde créé lors de la constitution d'une antenne n'est
plus plan. Cela veut dire que pour les traces les plus proches des sources (représentées en gris
foncé), l'approximation d'une propagation en ondes planes n'est plus valable au moins pour
certaines fréquences. Pour évaluer le repliement sur ce type de dispositif, nous simulons une
propagation dans le cas d'un espacement de 75 m entre sources et 15 m entre récepteurs. La
vitesse des ondes P dans le milieu est supposée constante à 2000 m/s. A l'aide de l'équation
8, nous représentons gure 18 les spots d'intensité théoriques de l'onde directe et d'une onde
rééchie en profondeur sous un angle de 68° en émission et en réception. Nous observons que
le repliement à l'antenne source intervient dès 40 Hz pour l'onde rééchie [g.18(f )] et un peu
avant pour l'onde directe [g.18(b)]. Sur la totalité du spectre cependant [g. 18(g) et (h)] la
tache focale principale donne les bons angles d'incidence.
Figure 18: Repliement (a)-(c) taches focales aux fréquences 20, 40 et 70 Hz pour l'onde directe et (d)
tache résultant de la somme (e)-(g) taches focales aux fréquences 20, 40 et 70 Hz pour l'onde rééchie
et (h) tache résultant de la somme.
Dans la réalité, suivant les vitesses de propagation et l'allure du spectre, nous pouvons être
plus ou moins gênés par cet aspect. La connaissance du milieu peut nous aider. Par exemple, si
l'environnement est globalement symétrique (prol de vitesse 1D, antennes sources et réception
identiques...), les trajets des diérentes ondes doivent également être symétriques par rapport
au plan médian du dispositif. Nous pouvons donc considérer que les angles de départ et d'arrivée
des diérentes ondes ont des valeurs proches. Dans l'analyse des résultats, on peut alors ne pas
considérer les spots dont les angles d'incidences en source et en réception sont trop diérents et
qui peuvent être dus au repliement. D'autre part, si les sources sont trop éloignées, le principe de
Huygens n'est plus vérié pour les plus hautes fréquences. Nous devons alors éviter de travailler
avec les enregistrements trop proches des sources pour assurer une propagation en onde quasi-
planes. Cela revient à choisir les récepteurs de manière à ce que l'antenne de réception soit la
plus éloignées possible de l'antenne source. Si l'environnement est globalement symétrique, les
ondes suivies auront des angles d'incidence approximativement égaux en source et en réception
[tracé noir g. 17] et le centre de notre dispositif sera le milieu de ces deux antennes. La zone
en profondeur que l'on pourra surveiller sera donc celle soulignée par l'ellipse noire. Comme
l'antenne source est au dessus de la zone la plus intéressante, le centre du dispositif sera forcément
décalé par rapport à cette zone.
Cette conguration est donc a priori défavorable pour mesurer les eets 4D dans le réservoir.
96
Néanmoins, disposer d'un jeu d'enregistrement quotidiens est susament rare pour essayer d'en
tirer le maximum. A ce stade, nous pouvons déjà supposer que nous ne serons pas en mesure
de retrouver exactement les eets 4D liés à l'injection dans le réservoir. Mais d'autres résultats
observés en laboratoire - comme la corrélation des variations de temps d'arrivée et de lenteurs
(ou d'amplitude) - seraient importants à mettre en évidence.
La gure 19 montre un enregistrement pour une ligne d'hydrophones parallèle à la ligne de
source. Une correction de la divergence sphérique a été appliquée pour rehausser les réexions
arrivants plus tardivement.
97
4.2.2 Normalisation
Si on observe la gure 19, il apparaît que pour une onde donnée, l'amplitude de l'ondelette
correspondante varie signicativement d'une trace à l'autre. Cela est dû à l'atténuation qui varie
en fonction de l'oset et du temps d'arrivée. Dans notre prétraitement, nous eectuons une
normalisation par fenêtre de temps pour chaque onde. Dans un premier temps, nous appliquons
la DFV sur les données brutes du premier jour ce qui permet de situer approximativement pour
chaque trace le temps d'arrivée to de l'onde d'intérêt. Ensuite, nous eectuons à nouveau la
DFV mais avant l'étape de sommation, nous normalisons l'énergie dans une fenêtre centrée sur
to de manière à ce que le poids de chaque trace soit constant pour une onde donnée.
Pour les deux spots d'intensité en source comme en réception, nous observons une bonne réso-
lution. On obtient des valeurs de lenteur (us , ur ) = (0.36, 0.37) s/km. Si la vitesse des ondes
en surface varie peu d'une antenne à l'autre, cela signie que les angles de départ et d'arrivée
sont très proches et qu'une relative symétrie est observée. Si on évalue la vitesse en surface à
l'aide des premières arrivées, on obtient une valeur de 1680 m/s côté réception et 1600 m/s côté
source. Cela donne des angles de départ et d'arrivée de 54.8° et 51.6° respectivement.
Augmenter la taille des antennes pourrait permettre de diminuer la taille des spots, mais cela
oblige à rapprocher les éléments des deux antennes et renforce les artéfacts dus à l'approximation
en onde plane.
Figure 20: Onde vers 428 ms (a) carte temps/lenteur source (b) carte temps/lenteur réception (c) onde
extraite pour 152 jours.
Figure 20(c) nous avons représenté pour 152 jours consécutifs l'onde extraite par DFV au
temps 428 ms et aux lenteurs source/réception de 0.36 et 0.37 s/km. Cela permet d'en suivre les
variations. Elles ne sont guère visibles sur cette gure mais en utilisant les algorithmes présentés
à l'annexe C, nous pouvons les calculer avec précision. Les suivis de variations sont présentés à
la section suivante.
98
4.3 Suivi des variations
Dans cette partie, nous nous intéressons au suivi de quatre paramètres - temps d'arrivées,
amplitude, lenteurs en source et réception - pour trois réexions. La première est une onde qui
se rééchit au dessus du réservoir. Son temps d'arrivée à oset nul est d'environ 150 ms.
Nous suivons également l'onde rééchie sur le réservoir vers 690 ms et une onde qui se rééchit
au dessous vers 720 ms.
An d'évaluer la cohérence spatiale des résultats, nous suivons ces paramètres pour diérents
jeu d'antennes : 6 antennes en réception et 2 antennes sources. Chaque antenne source fait 15
récepteurs. La première va du récepteur 1 au récepteur 15, la seconde du 2 au 16 et ainsi de
suite jusqu'à la sixième antenne qui va du récepteur 6 au 20. Pour les sources nous choisissons
les antennes les plus éloignées, de la source 6 à 12 pour la première et 7 à 13 pour la seconde.
Ces diérentes antennes sont illustrées gure 21.
En supposant une relative symétrie, il est possible de schématiser les chemins de ces trois
ondes dont les angles d'arrivée et de départ sont proches [g. 22].
99
Figure 22: Ondes suivies. (bleu - nde 1) Onde rééchie au dessus du réservoir (vert - onde 2) Onde
rééchie sur le réservoir (rouge - onde 3) 0nde rééchie sous le réservoir
Figure 23: Variations de temps d'arrivées pour 6 antennes réception consécutives. Onde 1 avec (a) la
première puis (b) la seconde antenne source, onde 2 avec (c) la première puis (d) la seconde antenne
source, onde 3 avec (e) la première puis (f ) la seconde antenne source.
Sur ces gures, on observe en premier lieu une grande cohérence d'une antenne récepteur
à l'autre, en particulier pour l'onde 1 [g. 23(a) et (b)]. Quand on passe d'une antenne source
à l'autre, la cohérence reste importante. Un pic tel que celui qui apparaît vers le jour 80 pour
l'onde 3 est observé aussi bien avec la première que la deuxième antenne source [g. 23(e) et (f )].
La deuxième remarque est que les variations de l'onde 1 sont bien plus faibles : moins de 0.02 ms
100
en valeur absolue. Cela signie que la proche surface voit peu de variations. On doit mentionner
que les variations parasites liées aux sources ont été compensées dans le pré-taitement grâce à la
connaissance du courant d'alimentation. Enn, pour les ondes 2 et 3, on observe des variations
assez importantes (environ 0.25 ms) ainsi que des allures de courbes présentant une bonne
corrélation d'une antenne à l'autre.
Ces résultats ne sont pas aisés à interpréter. Les informations relative à l'injection précise
que l'événement principal a lieu entre les jours 40 et 45. On voit bien des diminutions de temps
d'arrivés assez systématiques aux alentours du jour 50 pour les ondes 2 et 3. Ces variations sont
du même ordre de grandeur que celle mise en évidence par [Hornman et al. 2012] sur le même
champ. On peut faire l'hypothèse qu'il sagit de la conséquence retardée de l'injection survenue
quelques jours plus tôt. Cette hypothèse est renforcée par le fait que les antennes les plus proches
du centre (lignes en violet et beige) voient des variations plus importnates queles plus éloignées
(lignes bleu et vert), en particulier sur les gures (c) à (e). La même observation vaut quand on
passe de l'antenne 1 à 2 sur les gures (c) et (d). Le fait que les résultats des ondes 2 et 3 soient
proches laisse supposer que l'onde du réservoir ne voit pas d'eets 4D très diérents de celle qui
se rééchit en dessous. On peut supposer que cela vient de ce que les deux ondes ont des trajets
proches et traversent des zones aux variations équivalentes. Mais il est dicile d'aller plus loin
par manque de données extérieures à nos mesures. Le point principal est que la cohérence mise
en évidence spatialement permet de supposer que les résultats ont du sens.
Figure 24: Variations d'amplitude pour 6 antennes réception consécutives. Onde 1 avec (a) la première
puis (b) la seconde antenne source, onde 2 avec (c) la première puis (d) la seconde antenne source, onde
3 avec (e) la première puis (f ) la seconde antenne source.
101
ordres de grandeurs proches de ceux observés par [Cotton et al. 2012] mais comme on connait
mal ce que l'on observe à cette distance du puit d'injection, il est dicile de conclure sur ces
variations très bruitées. Un dispositif dédié avec davantages de récepteurs pourrait améliorer le
RSB et peut-être les résultats.
Figure 25: Variations de lenteurs en réception pour 6 antennes réception consécutives. Onde 1 avec (a)
la première puis (b) la seconde antenne source, onde 2 avec (c) la première puis (d) la seconde antenne
source, onde 3 avec (e) la première puis (f ) la seconde antenne source.
Figure 26: Variations de lenteurs source pour 6 antennes réception consécutives. Onde 1 avec (a) la
première puis (b) la seconde antenne source, onde 2 avec (c) la première puis (d) la seconde antenne
source, onde 3 avec (e) la première puis (f ) la seconde antenne source.
D'une part on observe (surtout pour les ondes 2 et 3) des variations relativement symétriques
et de signes opposés côté source et réception ce qui va dans le sens d'une symétrie de comporte-
ment, d'autre part, on constate que ces variations sont corrélées avec celles des temps d'arrivées.
102
Cela renforce notre conance dans nos mesures même si nous butons sur les mêmes dicultés
d'interprétations.
5 Conclusion et perspectives
Du fait du jeu de données disponible, les mesures terrains ne nous ont pas permis d'aller aussi
loin qu'avec les mesures de laboratoire. Ainsi, nous n'avons pas pu tester notre algorithme de
compensation des variations de vitesse de la proche surface. Néanmoins, de très belles cohérences
spatiales ont été mises en évidence, ainsi qu'une forte corrélation entre les variations en lenteurs
source et réception et les variations de temps d'arrivées. Ce dernier point est nouveau et va dans
le sens d'un développement de la méthode. La nouvelle étape serait d'envisager un dispositif de
surveillance permettant de disposer d'antennes 2D avec un échantillonnage spatial plus n côté
source pour tirer parti au mieux des traitements élaborés à petite échelle.
Les expériences en laboratoire permettent de maitriser une partie de l'environnement. Avec
une idée des vitesses dans le gel assez précise et une liberté de choix pour les dimensions, il était
possible de prévoir approximativement les trajets et temps d'arrivées des ondes. Dans la réalité,
les choses ne sont pas aussi simples. En particulier, l'expérience montre que la vitesse des ondes
est généralement signicativement plus faible quand on se rapproche de la surface. Cela signie
que les ondes issues de la profondeur arrivent avec un angle proche de la verticale. On peut ainsi
être amené à considérer des ondes dont les angles de départ et/ou d'arrivée ainsi que les temps
d'arrivées sont proches. Dans cette situation, la formation de voie peut s'avérer insusante pour
les séparer. D'autres techniques existent. Dans la partie qui suit, nous avons pris le temps de
nous intéresser à leur adaptation aux dispositifs utilisés.
103
Cinquième partie
Haute résolution
1 Introduction théorique
La double formation de voie est une méthode ecace de séparation des ondes. Dans le
cas d'antennes 2D, nous avons vu qu'elle permet de séparer les ondes en fonction des temps
d'arrivées, des lenteurs (ou angles d'incidence et azimuth) en source et en réception, soit cinq
paramètres.
Néanmoins, il existe des situations où cette technique ne sut pas pour distinguer des arri-
vées. En eet, la double formation de voie a une limite - théorique - de résolution donnée par
les lois de la diraction. A une fréquence donnée et en l'absence d'apodisation, la résolution
angulaire (ou largeur du lobe principal à -3dB) est donnée par la relation :
λ
4θ ≈ (1)
D
104
paramètre de direction (angle d'incidence ou lenteur). Avec des antennes 2D, deux paramètres
sont accessibles. De très nombreuses références existent concernant ces techniques. Une synthèse
peut-être trouvée dans [Van Veen et Buckley 1988] ou plus récemment dans [Lo et Lee 1993].
Enn, on trouve des utilisations récentes avec des antennes d'émission et de réception ou double
MVDR. C'est le cas de l'étude de [Le Touzé et al. 2011] mettant en jeu un dispositif acoustique
océanographique à l'échelle du laboratoire.
L'autre méthode que nous considèrerons utilise l'algorithme MUSIC. Il s'agit de décomposer
la matrice des données en sous-espaces signal et bruit et de calculer les paramètres au moyen
de projections. Comme pour le MVDR, cette méthode initialement à bande étroite a connu des
développements pour des antennes 1D et 2D, puis des adaptations large-bande .
Enn, on peut aussi noter des applications en acoustique pour des antennes réceptions 3D
comme [Noel 2004].
Ces techniques - à bande étroite puis à large bande - présentaient cependant des inconvénients
qu'il fallait lever. Elles utilisent, dans le domaine fréquentiel, la matrice de densité spectrale des
signaux. Par construction, cette matrice est de rang un. Il n'est donc possible de ne détecter
qu'une seule source. En cas de sources multiples, plusieurs réalisations des données doivent être
sommées an d'augmenter le rang de cette matrice. Mais si l'environnement change trop entre
deux acquisitions, il n'est pas possible d'enregistrer plusieurs réalisations du même milieu. Il
faut ajouter que les performances de ces techniques se dégradent si les sources sont corrélées.
L'évolution de cette dégradation pour deux sources en fonction du coecient de corrélation est
donnée par [Tas et Lacoume, 1989]. D'autre part, toujours par construction de cette matrice,
l'information de phase est perdue. Cela signie que s'il est possible de retrouver les angles
d'arrivées, les temps d'arrivées, eux, ne sont plus accessibles.
Pour pallier à ces inconvénients, ces techniques ont connu de nouveaux développements.
Concernant le nombre de réalisations, l'utilisation de sous-antennes et/ou de sous-bandes de
fréquence a autorisé l'utilisation de lissages permettant d'augmenter le rang de la matrice de
densité spectrale [Tas et Lacoume, 1989]. L'introduction du temps dans cette matrice a permis,
au prix d'une augmentation de calcul proportionnelle au nombre d'échantillons considérés, de
retrouver les temps d'arrivées. Des applications récentes sont proposées en océanographie à l'aide
de ces techniques [Le Touzé et al. 2011].
1.1 Description
La formation de voie, comme les autres méthodes dites paramétriques, est basée sur un
modèle de signal qui est le plus souvent celui d'une onde plane. C'est en tout cas celui qui est
considéré dans ce document. On cherche ensuite à tirer parti de la corrélation des signaux reçus
avec ce modèle d'ondes planes.
1.2 Bartlett
Il est intéressant de considérer en premier lieu la méthode dite de Bartlett. En conservant
les notations de la formation de voies et en regroupant les signaux des N récepteurs dans un
même vecteur on note x(t)i le signal reçu au récepteur i. On dispose donc des N signaux :
105
Dans le cas d'un canal de propagation parfait, chaque signal s'écrit comme la somme du
signal émis multiplié par la réponse du récepteur additionné d'un bruit supposé blanc, gaussien
et de variance σ . Si, de plus, on considère que le gain de l'antenne ne dépend que de la direction
d'arrivée on peut écrire :
Nous cherchons à appliquer à chaque récepteur un gain wi qui permette de maximiser l'éner-
gie après sommation des contributions. En posant w = (w0 , ...wN −1 ) et x = (x0 (t), ...xN −1 (t))
on recherche donc :
h i
2 2
M axw E(s(t)2 ) |wa(θ)| + σ 2 |w|
La solution est donnée dans de nombreuses références, par exemple [Krim et Viberg, 1996].
Dans le cas d'une ALU le maximum est obtenu pour wi = di = δ(t − iτ ) où τ est l'expression des
retards introduits dans l'introduction de la formation de voie au paragraphe 1.2.1. L'estimateur
de Bartlett est donc équivalent à la formation de voie au carré, au terme de bruit près, et nous
l'utiliserons comme référence.
Par la suite, on travaille dans le domaine fréquentiel. Dans ce domaine, les noms de va-
riables sont identiques mais passés en majuscule. Ainsi, pour le ième récepteur, on considère sa
transformée de Fourier Xi (f ) . A une fréquence donnée, f, on note :
X0 (f )
.
.
.
X(f ) =
Xi (f )
(2)
.
.
.
XN −1 (f )
K = E(X.X∗ ) (3)
On notera un point très important qui est que la matrice K fait intervenir le produit de X
par son conjugué. La haute résolution a un prix : on perd l'information de phase avec entre
106
autres conséquences la non-réversibilité de l'opération. Ce qui explique que l'on essaye d'abord
de se contenter de la formation de voie qui, elle, permet de revenir dans le domaine temps
osets. Le vecteur directionnel est également exprimé dans le domaine fréquentiel. Si Di (f ) est
la transformée de Fourier de δ(t − iτ ) ce vecteur s'écrit :
D0 (f )
.
.
.
D(f ) =
Di (f )
(4)
.
.
.
DN −1 (f )
Avec ces notations, la sortie de l'estimateur de Bartlett à une fréquence donnée s'écrit :
B(θ, f ) = D∗ KD (5)
1.3 MVDR
En élevant au carré la valeur de sortie de la formation de voie, l'estimateur de Bartlett permet
une meilleure visualisation des pics. Néanmoins, cette technique reste parfois insusante quand
deux arrivées proches en temps arrivent sous des angles comparables. C'est pourquoi d'autres
algorithmes ont été proposés.
La formation de voie et le Bartlett consistent à corréler le signal reçu avec un modèle ou
vecteur directionnel. Quand le vecteur directionnel pointe dans la bonne direction, un maximum
apparaît qui nous renseigne sur les paramètres de l'onde d'intérêt. On peut cependant s'intéresser
aux directions auxquelles aucune onde ne correspond. C'est l'approche de [Capon 1969] qui
propose un ltrage adaptatif - c'est à dire fonction des données - grâce auquel on réalise deux
opérations simultanément. Comme pour les premiers estimateurs, on cherche à maximiser la
sortie de l'estimateur dans la direction des ondes incidentes mais on va simultanément chercher
à le minimiser pour les autres directions.
Pour cela, on considère un vecteur directionnel DM et la quantité F dénie par :
δF
=0 (7)
δDM
107
soit :
2KDM + αD = 0 (8)
d'où on déduit :
α
DM = − K−1 D (9)
2
où encore :
α
D∗M = − D∗ K−1 (10)
2
D∗M D = 1 (11)
−2
α= (12)
D∗ K−1 D
K−1 D
DM = (13)
D∗ K−1 D
1
C(θ, f ) = (14)
D∗ K−1 D
La quantité au dénominateur pouvant prendre des valeurs proches de 0, il apparaît donc que
la fonction C peut prendre des valeurs très élevées pour certaines valeurs du paramètre θ.
Dans la pratique, la matrice K n'est pas toujours inversible. Il est alors nécessaire de blan-
chir la diagonale en remplaçant K par K + I.
108
1.4 MUSIC
L'algorithme MUSIC est un autre estimateur non-linéaire. Il part lui aussi de la matrice des
cross-corrélations spectrales K. L'idée est ici de séparer la matrice des données en espace signal
et espace bruit à l'aide de la décomposition en valeur singulière (SVD). On écrit alors :
K = USV
où :
U et V sont les matrices des vecteurs singuliers de K,
S est la matrice des valeurs singulières.
L'utilisation de l'agorithme MUSIC suppose que l'on a une idée du nombre d'ondes se pro-
pageant dans le milieu, soit Nw ondes. En ne considérant pas les vecteurs singuliers associés,
on obtient la matrice de projection sur le sous-espace bruit Vb contenant N − Nw vecteurs.
Pour une onde se propageant dans le milieu, la projection sur tout vecteur de l'espace bruit
sera donc proche de 0. L'estimateur MUSIC s'écrit en utilisant l'inverse de cette projection. En
considérant la matrice P = Vb Vb∗ on a donc :
1
M (θ, f ) =
D∗ PD
X0 (f0 )
.
.
.
X0 (fM −1 )
X(f ) = (15)
X1 (f0 )
.
.
.
XN −1 (fM −1 )
109
Soit un nouveau vecteur de dimension N.M ou M est le nombre de fréquences utilisées. On
considère alors le nouveau vecteur directionnel :
D0 (f0 )
.
.
.
D0 (fM −1 )
D(f ) = (16)
D1 (f0 )
.
.
.
DN −1 (fM −1 )
Pour lequel Dn (fm ) = e−2iπfm nτ . Dans ce cas, l'expressions des estimateurs MUSIC et
MVDR s'écrivent de la même manière que dans le cas bande étroite mais on n'est plus dépendant
de la fréquence :
B(θ) = D∗ KD (17)
1
C(θ) = (18)
D∗ K−1 D
1
M (θ) = (19)
D∗ PD
X
∗ ∗
B(θ) = E Di,j Xi,j Xk,l Dk,l (20)
i,j,k,l
X
∗
2 X
∗ ∗
B(θ) = E
Di,j Xi,j
+ E Di,j Xi,j Xk,l Dk,l (21)
(i,j)=(k,l) (i,j)6=(k,l)
110
Les méthodes haute résolution évoquées jusqu'ici se font dans le domaine fréquentiel de
telle manière que l'on perd l'information temporelle. Des méthodes plus récentes permettent
d'estimer également le temps de propagation.
Pour cela, de même que l'on teste chaque angle d'émission ou de réception, on va tester
toutes les valeurs possibles des temps de propagation Tp .
Dans ce cas de gure, l'expression de la matrice de cross-corrélation spectrale est la même.
En revanche, le vecteur directionnel devient dépendant du temps de propagation observé. Si
τ = zcosθobs /V et si Tp est le temps considéré, la nouvelle valeur de chaque composante du
vecteur devient fonction de ces deux quantités selon Dn (fm , Tp ) = e−2iπfm (nτ +Tp ) .
Pour P échantillons de temps, le calcul des estimateurs va donc être P fois plus lourd que
dans le cas précédent. On notera cependant que si dans les équations 15 et 16 les fréquences sont
indicées de 0 à L-1, il n'est pas nécessaire pour autant de considérer toutes la bande de fréquence
utilisée. Il est même préférable de n'en considérer qu'un sous ensemble. Cela permet, d'une part,
de gagner en temps de calcul et en espace mémoire nécessaire et d'autre part d'améliorer les
résultats en ne considérant que les fréquences pour lesquelles le rapport signal sur bruit est
le meilleur. En eet, comme nous le montrons dans la partie suivante, ces techniques hautes
résolutions sont très sensibles au rapport signal sur bruit.
111
en est donnée par [Grenier et al. 1993]). Pour chaque jeu de sous-antennes en émission et en
réception, on obtient les vecteurs x des traces mises en jeu. On calcule à chaque fois la matrice
de cross-corrélation spectrale sur plusieurs fréquences comme indiqué équation 3 et on eectue
la moyenne des matrices obtenues. On a donc :
L
X L
X
K = E(X.X∗ ) ≈ Ki = Xi .X∗i (22)
i=1 i=1
Où L est le nombre de jeu des sous-antennes utilisées appelé ordre de lissage spatial. Ensuite,
les équations des diérents estimateurs utilisant cette matrice restent inchangées (équations 17
à 19).
P
X
K = E(X.X∗ ) ≈ Ki (23)
i=1
Où P est le nombre des sous-bandes utilisées appelé ordre de lissage fréquentiel. Un exemple
pour N=11 fréquences et P = 2 est donné gure 1(b). Les équations qui suivent restent là encore
inchangées.
L'utilisation simultanée du lissage spatial et du lissage fréquentiel est bien sur possible et
obtient la matrice K par une double sommation selon :
L X
X P
K = E(X.X∗ ) ≈ Ki,j (24)
i=1 j=1
112
2 Application aux données
Cette partie présente des résultats d'algorithmes haute résolution MVDR et MUSIC en 3D et
5D. Pour comparaison, nous utilisons à chaque fois l'estimateur de Bartlett. Nous ne présentons
à chaque fois que quelques résultats. En eet, notre sujet n'est pas l'étude des algorithmes haute
résolution mais plutôt l'étude de leur pertinence dans un environnement se rapprochant de ceux
rencontrés en géophysique. Certains tests peuvent cependant permettre de discuter quelques
critères de bonne utilisation de ces algorithmes.
Figure 2: Design de deux antennes ALU (a) Séparation en lenteur (b) Séparation en azimuth (gris)
Tracé des rais des diérentes ondes (carrés rouges) Sources (carrés bleus) Récepteurs.
Les traces sont générées par décalage des temps d'arrivée d'une ondelette à l'aide d'un simple
logiciel de tracé de rayons pour une vitesse de 10 m/s.
113
ainsi que la réexion du fond (onde D) dont les temps d'arrivées ainsi que les azimuths de départ
et d'arrivée sont proches. Pour le lissage spatial, plusieurs choix sont possibles. Les lignes de
sources et de récepteurs faisant sept éléments il est possible de prendre une seule antenne de sept
éléments mais dans ce cas, on ne bénécie pas de lissage spatial. Des tests ont été faits avec 2
sous-antennes consécutives de six éléments en source et en émission ainsi que trois sous-antennes
de cinq éléments.
De la même manière, le lissage fréquentiel doit être paramétré : bande de fréquence utilisée,
nombre de sous-bande, décalage d'une sous-bande à l'autre. Pour diminuer les calculs, nous
avons commencé par sous-échantilloner le signal cinq fois en passant de 10 kHz à 2 kHz. Pour
une bande utile allant de 100 à 850 Hz, on reste un peu au-dessus du critère de Nyquist tout
en diminuant par 25 la taille de la matrice K. La longueur du signal qui nous intéresse passe de
300 à 60 échantillons. Dans le domaine fréquentiel, on ne s'intéresse qu'aux fréquences positives
ce qui nous ramène à 30 échantillons.
Pour prendre en compte toute la bande du signal, nous considérons les échantillons 5 à
26, soit la bande [133 833] Hz. Des tests sont fait avec un lissage fréquentiel allant de 1 à 7
sous-bandes avec un pas de un échantillon.
Les meilleurs résultats sont obtenus pour les valeurs suivantes :
3 sous-antennes de 5 éléments en source et en réception.
5 sous-bandes de fréquences par pas de un échantillon
Les résultats sont représentés gure 3 pour les estimateurs Bartlett (a) MVDR (b) et MUSIC
(c) et dans le domaine (t, us , ur ). Les volumes - ou isosurfaces - sont dessinés pour une énergie
égale à la moitié de l'énergie maximale du spot.
On constate que dans le cas des algorithmes à haute résolution, les spots d'énergie sont bien
plus focalisés, ce qui est un des avantages recherchés. On constate que les spots d'énergie sont un
peu plus régulier (circulaires) pour le MVDR. De fait, les algorithmes présentent généralement
des résultats similaires. Ce qui fait que pour la suite, on ne présentera les résultats que pour
l'un d'entre eux.
114
La gure 4(a) montre en volume les spots d'énergie des trois premières arrivées (ondes A, B et
C) avec l'estimateur de Bartlett. On constate que les arrivées sont susamment proches dans le
domaine pour que les trois spots se superposent partiellement. Figure 4(b), l'algorithme MUSIC
permet d'améliorer la résolution et de discriminer complètement les arrivées. Ces résultats ont
été obtenus avec les paramètres suivants :
3 sous-antennes en source et en réception de 5 éléments.
5 sous-bandes de fréquences par pas de un échantillon
3 valeurs propres
Figure 4: Impact de la bande de fréquence(a) Bartlett dans la bande [133 833] Hz (b) MUSIC dans la
bande [133 833] Hz (c) MUSIC dans la bande [233 567] Hz
Cependant, on peut constater que les volumes obtenus dans le cas de l'agorithme MUSIC
restent de taille relativement proches de celles obtenus aves l'estimateur de Bartlett, surtout
pour les arrivées B et C. On pourrait s'attendre à mieux car en théorie, les estimateurs non-
linéaires peuvent avoir une résolution innie. Cela dépend cependant du nombre d'arrivées, des
paramètres de lissage et aussi du dispositif mais ces résultats devraient pouvoir être améliorés.
Après quelques recherches, il est apparu la chose suivante : la qualité de l'estimation est
très dépendante du RSB à une fréquence donnée. En d'autre terme, il vaut mieux éliminer des
fréquences - même si elles contiennent du signal - si leur RSB est trop faible.
Dans un nouveau calcul, nous avons réduit la bande de [133 833] Hz à [233 567] Hz en
favorisant les fréquences à haute énergie. Dans ce nouveau cas de gure, l'algorithme donne de
bien meilleurs résultats [g. 4(c)]. Ils sont même proches de la limite théorique en ce qui concerne
l'onde A.
115
Figure 5: Focalisation en azimuth (a) Bartlett (b) MUSIC
Cette amélioration est moins spectaculaire que pour les données synthétiques mais les don-
nées réelles sont bruitées. Il faut ajouter le fait que la vitesse n'est pas complètement homogène
et que le positionnement des sources n'est pas parfait. Pour toutes ces raisons, les retards peuvent
donc être légèrement modiés ce qui peut siginicativement dégrader les résultats. Sur des don-
nées d'exploration sismique, les positionnements sont fait par GPS. Les conditions sur ce point
sont donc bien plus favorables car la précision est très petite devant la longueur d'onde.
Nous avons testé notre algorithme avec un autre jeu de données résultant du travail de stage
de master [Zorgani 2012] . Un gel ayant une surface un peu rugueuse et dont la proche surface
était peu homogène a fourni un milieu de propagation moins prévisible que les précédents. Le
dipositif d'acquisition était de type passif avec deux lasers dont les signaux étaient corrélés après
acquisition. Chaque laser échantillonnait 8 points espacés de 0.5 cm. 25 sources piézos disposées
d'un côté du dispositif émettaient non pas un bruit incohérent comme nous l'avons fait dans la
première partie mais un pulse gaussien dans la bande [100 800] Hz. La distance de la source au
centre de l'antenne la plus proche était égale à la distance entre les centres des deux antennes.
Dans cette conguration inspirée des conclusions de l'Annexe A, nous pouvions espérer avoir
des ondes de volume issues de la source qui passent par les deux antennes après deux réexions.
L'objectif était d'observer des ondes de volume grâce à un enregistrement de type passif.
Les résultats de cette expérience en lenteur source et réception sont représentés gure 6(a)
et (b) pour l'estimateur de Bartlett. L'arrivée directe est très visible vers 18 ms. La taille des
spots est importante. Ceci vient du fait que la taille de l'antenne est réduite. On distingue deux
excroissances pour des lenteurs de 0.07 s/m en source et 0.13 s/m en réception qui pourraient
bien correspondre à une deuxième onde mais les spots d'énergie sont trop imbriqués pour que
l'on puisse conclure.
L'utilisation de la haute résolution dans ce type de situation apparaît tout indiqué et le
résultat est donné gure 6(c) et (d) dans le cas du MVDR. Concernant la première arrivée, on
remarque que la résolution temporelle a légèrement diminué tandis que la résolution en lenteur
est augmentée. En revanche, la discrimination des deux arrivées recherchées est très bien mise
en évidence par la haute résolution et la seconde arrivée apparaît sans ambiguïté.
Nous remarquons sur la dernière image que la deuxième arrivée a des lenteurs en émission
et en réception très diérentes. Il peut s'agir de variations de vitesse relativement importantes
côté récepteur. Cela peut également venir d'une propagation qui part en direction du fond du
gel mais avec un trajet tel que l'onde arrive le long de la surface. Une étude du prol de vitesse
du gel serait nécessaire pour conclure avec précision mais il est certain que le gel réalisé n'était
pas homogène.
116
Figure 6: Comparaison Bartlett - MVDR Cartes de lenteurs côté source et réception pour (a) et (b)
l'estimateur de Bartlett et (c) et (d) l'estimateur MVDR.
2.2 Résultats en 5D
Pour discriminer des ondes selon cinq paramètres, nous utilisons à nouveau des antennes 2D.
Pour diminuer le temps de calcul et l'espace mémoire utilisé, nous avons du minimiser les tailles
d'antennes. En eet, si on considère des antennes de taille 5x5 (soit 25 sources et 25 récepteurs)
cela fait 625 traces. Avec une vingtaine de fréquences par trace cela revient à une matrice
K de plus de 25 millions d'éléments à inverser (pour le MVDR) ou à décomposer en valeurs
singulières (MUSIC). L'avantage de la décomposition en valeurs singulières est que certains
algorithmes ne calculent que le nombre de valeurs singulières nécessaires. Il n'est pas nécessaire
d'eectuer la décomposition totale ce qui diminue d'autant le temps de calcul. On préfèrera
donc les algorithmes MUSIC de ce seul point de vue. Cela étant, si on veut échantillonner
correctement les angles (ou les lenteurs), le calcul de la matrice K et son inversion reste peu
signicatif comparé au temps de calcul total de la matrice S.
Pour les calculs 5D, nous avons repris les dispositif utilisés pour les tests en 3D mais en
remplaçant les antennes ALU par des antennes carrées. Nous utilisons une antenne 6x6 en
source et en réception pour le Bartlett et des sous-antennes 5x5 en émission et réception dans
le cas de la haute résolution.
Comme on l'a vu, la haute résolution nécessite un lissage. Le lissage fréquentiel peut s'ef-
fectuer sur 2, 3, 4 sous-bandes ou plus, le lissage spatial sur 2, 3, 4 sous-antennes ou plus.
Les combinaisons sont multiples sachant que les performances des algorithmes haute résolution
peuvent être très dépendantes du lissage. Le calcul de la matrice S complète pour un jeu de
paramètre nous a pris plus d'une semaine en utilisant 32 processeurs en parallèle. Pour éviter
cette surcharge de calcul et étant donné le nombre de tests possibles, nous ne calculons qu'un
sous-ensemble de la matrice. Cela est possible du fait de notre connaissance a priori des résultats.
Par exemple, si nous voulons comparer les algorithmes pour les ondes de surface, nous pouvons
nous contenter de calculer un sous-ensemble de la matrice pour lequel l'angle d'incidence est
proche de zéro.
117
réparties sur six lignes de six sources sont disponibles à l'émission et la même conguration est
utilisée pour les récepteurs. Nous avons propagé quatre ondes dans le milieu : l'onde de surface
directe, les rebonds sur les bords droit et gauche en surface et l'onde de volume rééchie sur le
fond.
Figure 7: Comparaison en lenteur en 5D Lenteurs côté source (a) et réception (b) pour l'estimateur de
Bartlett, pour l'estimateur MVDR (c) et (d) et pour l'estimateur MUSIC (e) et (f )
Dans ce calcul, nous cherchons à diérencier l'onde de volume rééchie sur le fond de l'onde
directe. Ces deux ondes ont le même azimuth et c'est donc en lenteur que l'on cherche à les
diérencier. La distance antenne récepteur étant grande devant la taille de l'antenne, nous nous
sommes mis dans un cas où les lenteurs sont voisines.
L'estimateur de Bartlett est utilisé avec la totalité des sources et des récepteurs (antennes
6x6). Les résultats obtenus [g. 7(a) et (b)] ne permettent pas de discriminer les arrivées. Après
quelques tests pour l'estimateur MUSIC, de bons résultats ont été obtenus avec les paramètres
suivants [g. 7(c)- (f )] :
4 sous-antennes de 5x5 sources en émission
4 sous-antennes de 5x5 récepteurs en réception
lissage fréquentiel d'ordre 3 et 4
4 valeurs propres
On observe avec MUSIC une meilleure focalisation de l'énergie qui permet de distinguer les
deux arrivées en émission comme en réception. Les deux lissages en fréquence testés permettent
d'ajuster la focalisation de la première arrivée (vers 19 ms). Elle apparaît plus énergétique avec
un lissage d'ordre 3.
Des calculs équivalents peuvent être fait pour la localisation des ondes de surface en fonction
de l'azimuth en se retreignant à quelques valeurs de lenteur proche de 0.1 s/m. Les résultats
gure 8 montrent là encore une meilleure focalisation pour l'estimateur MUSIC. En jouant sur le
lissage fréquentiel, on peut aner les résultats, ceux ci étant meilleurs avec un lissage d'ordre 4
comparé à un lissage d'ordre 2. Si les trois spots sont bien visibles avec MUSIC et mieux séparés
que pour l'estimateur de Bartlett, on constate toutefois que les valeurs trouvées pour les deux
rebonds sur le bord (6° et 18°) ne sont pas symétriques alors que le milieu de propagation l'est.
Le lissage fréquentiel ne semble pas beaucoup jouer sur le centre des taches d'énergie.
Pour l'algorithme MUSIC, on dispose cependant d'un autre paramètre que ceux du lissage.
Il s'agit du nombre de valeurs propres prises en compte. Jusqu'ici, nous avons pris un nombre
de valeur propres égal au nombre d'ondes propagées.
118
Figure 8: Comparaison en azimuth. Côté source : (a) Bartlett (b) MUSIC pour quatre valeurs propres
et lissage fréquentiel d'ordre deux (c) MUSIC pour quatre valeurs propres et lissage fréquentiel d'ordre
quatre. (d)-(f ) Même résultats côtés réception.
Figure 9: Comparaison en azimuth. Côté source : (a) Bartlett (b) MUSIC pour neuf valeurs propres
et lissage fréquentiel d'ordre deux (c) MUSIC pour neuf valeurs propres et lissage fréquentiel d'ordre
quatre. (d)-(f ) Même résultats côtés réception.
On constate que les spots deviennent plus symétriques. Leur focalisation est améliorée. Ce-
pendant, en particulier dans le cas du lissage d'ordre 2, le spot d'énergie de droite semble se
dédoubler comme si deux ondes étaient détectées. De fait, le lissage spatial introduit des retards
qui ne sont pas exactement les mêmes d'une sous-antenne à l'autre. On propage donc des ondes
avec des angles légèrement voisins mais pas exactement identiques. Notre hypothèse est que l'al-
gorithme détectant - en théorie - des déphasages inniment petits, il peut voir ces diérences de
phase et détecte plusieurs ondes au lieu d'une. Cette hypothèse est discutée en n de chapitre.
119
Bartlett. La gure donne des résultats en lenteurs pour l'onde directe et l'onde de volume et
la gure des résultats en azimuth pour les ondes de surface. On remarque cependant que dans
ce dernier cas, les algorithmes de haute résolution permettent de mieux mettre en évidence les
rebonds doubles.
Figure 10: Comparaison en lenteur. Résultats du Bartlett (a) Emission (b) Réception. Résultats du
Mvdr (c) Emission et (d) Réception
Figure 11: Comparaison en azimuth. Résultats du Bartlett (a) Emission (b) Réception. Résultats du
Mvdr (c) Emission et (d) Réception
2.2.3 Conclusion
Les résultats avec données réelles en 5D mériteraient une étude plus approfondies qui per-
mettrait d'expliquer les moindres performances des algorithmes haute résolution. Mais les études
sur ces méthodes sont déjà très nombreuses et notre travail n'est pas dédié à leur étude.
Cependant, on peut montrer que la diérence des temps de trajets introduite par l'approxi-
mation en onde plane est liée à la dégradation des performances.
Il est possible d'illustrer cet eet pour la haute résolution en considérant les quatre congu-
rations suivantes :
- Ondes planes et estimateur de Bartlett
- Ondes planes et estimateur MUSIC
- Ondes spériques et estimateur MUSIC avec une distance entre antennes de 25 cm
- Ondes spériques et estimateur MUSIC avec une distance entre antennes de 125 cm
120
Dans cette simulation, deux ondes se propagent. L'onde directe va d'une antenne à l'autre
sous un azimuth de 5° en émission et en réception et une deuxième onde est rééchie sur les
bords avec un azimuth de 45°. Le dispositif d'antennes (deux antennes 1D de sept récepteurs)
est celui de la gure 2(b). L'algorithme MUSIC travaille avec un ordre de lissage de deux en
fréquence et de quatre en espace. Le sous-espace signal est de dimension deux et sept fréquences
sont utilisées.
Dans cette situation on retrouve le fait que l'algorithme MUSIC est bien plus performant
que le Bartlett [g. 12(a) et (b)]. On constate cependant que pour des courtes distances la
dégradation par rapport au cas d'une onde plane est signicative [g. 12(c)]. La cause de cette
dégradation réside dans le fait que l'approximation en onde plane induit une diérence entre
les retards de propagation et ceux du vecteur de pointage qui modélise le front d'onde. Si la
distance des antennes augmente, la diérence entre les retards réels et modélisés diminue et on
se rapproche à nouveau du cas idéal [g. 12(d)].
Figure 12: Impact de l'oset (a) Ondes planes et estimateur de Bartlett (b) Ondes planes et estimateur
MUSIC (c) Ondes sphériques et estimateur MUSIC pour une distance d'antennes centre à centre de 25
cm (d) Ondes sphériques et estimateur MUSIC pour une distance d'antennes centre à centre de 125 cm.
Dans le gel que nous avons utilisé, la distance des antennes les plus lointaines est d'environ
25 cm comme pour l'exemple illustré ci-dessus. Les antennes étant 2D avec 49 éléments, cela
augmente d'autant le nombre de trajets et l'impact de la diérence des retards entre ondes
propagées et modèle. Par ailleurs, la précision du positionnement est de l'ordre du millimètre ce
qui n'est pas sans conséquences. Enn, la vitesse est supposée constante dans le modèle alors
qu'en réalité nous ne maîtrisons pas entièrement les variations de vitesse au sein du gel. Toutes
ces imperfections s'additionnent et introduisent autant d'imprécisions sur les calculs de retards.
Les techniques haute résolution y étant très sensibles, on observe des performances dégradées
et parfois moins bonnes que pour l'estimateur de Bartlett comme dans le cas 5D.
Comme nous l'avons évoqué à la n de la partie IV, des améliorations de la formation
de voie permettent de tenir compte des variations de vitesse entre les récepteurs d'une même
antenne [Dzieciuch 2001]. D'autre part, les déviations par rapport au modèle ont été étu-
diées et peuvent être quantiées, en particulier pour l'algorithme MUSIC [Friedlander 1990,
Swindlehurst et Kailath 1992]. Il existe aussi des techniques pour remédier à l'erreur de posi-
tionnement des éléments d'antenne. [Marcos 1998] par exemple, consacre tout un chapitre aux
méthodes d'autocalibration d'antennes.
En conclusion, nous avons pu montrer que les techniques haute résolution sont applicables à
un dispositif de type géophysique avec antennes d'émission et de réception. Cette piste deman-
121
derait une étude plus exhaustive, incluant par exemple l'inuence des diérents paramètres de
lissage. Néanmoins, les tests 5D en synthétiques incluant la prise en compte des temps d'arri-
vées ont donné de bons résultats. On peut estimer que le positionnement extrêmement précis
par GPS et les techniques déjà très développées de tomographie de la proche surface devrait
permettre de minimiser les erreurs sur les retards liés aux statiques. De plus, les objectifs étant
à des profondeurs importantes, on peut supposer que les distances entre antennes seront propor-
tionellement plus grande que dans notre expérience de laboratoire. Les dégradations liées à la
distance antenne source - antenne réception que nous avons observées en laboratoire ne seront
donc pas nécessairement importantes sur le terrain.
122
Sixième partie
Eléments diractants
1 Introduction
Dans un premier temps, nous allons étudier l'impact d'un point diractant sur la DFV. Nous
avons vu que pour une onde donnée le RSB est augmenté avec la racine du nombre de sources
et de récepteurs. Dans ces conditions, on peut supposer que les ondes parasites rééchies sur un
diractants peuvent être moyennées susamment pour ne pas interférer avec les ondes qui nous
intéressent. Nous pouvons éudier cet aspect en introduisant un élément diractant dans notre
dispositif.
Dans un second temps, nous avons laissé de côté les antennes pour nous intéresser à deux
dispositifs plus proches d'une acquisition 3D classique. Il s'agit de tirer parti de la haute densité
spatiale autorisée par notre banc de mesure pour appréhender son apport dans le cas d'éléments
diractants en surface. Un dispositif théoriquement idéal mais peu réaliste et un autre écono-
miquement viable sur le terrain mais moins ecace ont été comparés en présence de deux forts
diractants.
123
Figure 1: Dispositif d'acquisition
124
Figure 2: Données brutes sans diractant.
125
du fond mais dans une moindre mesure d'une fait de son retard et d'un angle d'incidence qui
reste susament ouvert. Son maximum reste bien séparé vers (42.8 ms, 0.074 sm−1 ).
126
Oset 1 2 3 4 5 6 7 8 9 10 11 12 ∆ ∆(%)
dt1 (ms) 0 0 0.2 0.2 0.2 0.2 0.2 - - - - - 0.17 0.61
dt2 (ms) 0.2 0.2 0 0.4 0 0 0.2 0.2 0.2 - - - 0.23 0.72
dt3 (ms) - - - - - - - 0.4 0.6 0.4 0.4 0.6 0.49 1.2
du1 (ms/m) 0 0 4 0 0 4 4 - - - - - 2.6 2.0
du2 (ms/m) 0 0 4 4 4 4 4 4 4 - - - 3.5 3.0
du3 (ms/m) - - - - - - - 0 0 0 4 4 2.5 3.4
attendues, cette piste ne nous apparaît pas prioritaire sans de nouveaux équipements. En re-
vanche, nous n'avons encore que peu exploité la possibilité de mesures haute densité de notre
système d'acquisition. Leur apport dans le cas d'une acquisition en présence de diractants est
un point qui peut présenter un grand intérêt.
2 Dispositifs 3D
Parmis les sujets d'actualité en sismique terrestre, les ondes de surfaces générées par des
diractants restent un point de recherche important. Cela est du en partie à des contraintes
d'acquisition. En eet, les traitements que l'on met en place sur les données dépendent en partie
du type d'acquisition. Certains dispositifs sont plus adaptés que d'autres, en particuliers pour
le ltrage des ondes de surface.
Les ltres dits fk, permettent un bon ltrage des ondes de surface générées par la source.
En 1999, [Meunier 1999] a montré que dans le cas d'une acquisition comprenant une source et
avec des récepteurs quadrillant complètement la zone d'intérêt, il est possible de ltrer en même
temps l'onde de surface directe ainsi que celles générées par les diractants. Nous appelerons ce
dispositif 3D complète [gure 5(a)]. Ce dispositif n'est cependant pas utilisé dans l'industrie.
En eet, quadriller complètement la zone d'intérêt revient à disposer un nombre très important
de récepteurs ce qui suppose un coût rapidement prohibitif.
127
ou camion vibrant - puissent être disposées en tout point de la zone. Dans la pratique, on dispose
les récepteurs en ligne, généralement orthogonalement à des lignes de sources. Un des dispositifs
les plus fréquents appelé cross-spread est présenté gure 5(b). Cela permet d'optimiser l'uti-
lisation des ressources mais le problème du ltrage des ondes diractées demeure comme évoqué
par [Meunier 1999]. En particulier, on peut ltrer raisonnablement l'énergie des diractants sur
les traces lointaines, mais pour celles qui sont les plus proches du diractant et donc les plus
énergétiques, ce n'est pas le cas.
En 2008, [Vermeer 2008] propose une modication du dispositif d'acquisition à base de réseau
mais sans que cette solution soit véritablement adoptée à ce jour.
Dans cette partie, nous nous proposons de réaliser une acquisition 3D complète ainsi qu'une
acqusition 3D cross-spread. Notre système de mesure nous permet un échantillonnage n de la
zone d'intérêt qui n'est en général pas possible sur le terrain. Ceci nous permettra d'examiner
les performance du cross-spread dans de meilleures conditions. D'autre part, nous décidons de
doubler la ligne de récepteurs. Cette opération est faite sans a priori sur son utilité mais en
tenant compte du fait que si elle est avantageuse pour le ltrage des diractants, elle peut être
adaptée à moindre coût sur le terrain.
2.1 Filtrage fk
Le ltrage fk est un ltrage en vitesse. Il s'agit de supprimer dans les données, les ondes
arrivant sur les récepteurs avec une vitesse apparente donnée. On peut montrer sur un exemple
synthétique simple son eet en 2D. La gure 6(a) représente les enregistrements de 101 récepteurs
en ligne espacés de quatre mètres. On distingue l'arrivée directe (A), une première réexion (B)
sur un premier réecteur à 100 m de profondeur pour une vitesse de 800 m/s dans la première
couche et une seconde réexion (C) à 1000 m de profondeur pour une vitesse de 2100 m/s
dans la deuxième couche. Pour eectuer un ltrage fk, on eectue une double transformée de
Fourier. La première, selon l'axe des temps, permet de passer dans le domaine fréquentiel (f )
et la seconde, selon l'axe des osets, dans celui des nombres d'ondes (k). D'où la dénomination
ltre fk. Dans ce nouveau domaine [g. 6(b)] les ondes apparaissent en fonction de leur fréquence
et de leur nombre d'onde mais peuvent également être sélectionnées en fonction de leur pente
qui est homogène à une vitesse. L'onde A, par exemple, a une vitesse apparente constante de
800 m/s. Elle apparait très clairement dans le domaine fk. L'onde C a une vitesse apparente
très importante car elle arrive très proche de la verticale. Son énergie est concentrée autour de
valeurs faibles de k. Elle croise l'axe des fréquences à des vitesses importantes. L'onde B a une
énergie plus diuse. En eet, elle parcourt la première couche qui est à 800 m/s mais sa vitesse
apparente augmente quand l'oset diminue.
Le ltrage fk permet de ltrer les ondes en fonction de leur vitesse apparente. Si on souhaite
ltrer les ondes de surface (onde A) on peut appliquer un ltre (ou un masque) dans le domaine
fk qui va pénaliser les vitesses proche de 800 m/s. Ici, nous avons décidé de ltrer les vitesses
en dessous de 2200 m/s. C'est ce qui est représenté gure 6(d). La transformée de Fourier étant
réversible, on peut revenir dans le domaine temps/oset [g. 6(c)] pour observer le résultat.
On constate que l'onde C dont la vitesse apparente est toujours supérieure à 2200 m/s a
bien été préservée. A l'inverse, l'onde A dont la vitesse est de 800 m/s est complètement ltrée.
Dans le domaine fk, il reste un peu d'énergie pour cette onde car le ltrage n'est pas parfait : il
correspond à une atténuation minimum de 60 dB de l'énergie. Enn, l'onde B est d'autant plus
ltrée que sa vitesse se rapproche de 800 m/s.
Sur la gure 6(b) on observe un peu de repliement. En eet, l'énergie de l'onde B coupe
l'axe des fréquences à gauche vers 1000 m/s et réapparaît à droite jusque vers 1400 m/s. Dans
128
Figure 6: Filtrage fk en 2D (a) Traces synthétiques dans le domaine temps/oset faisant apparaître
(A) l'onde directe (B) une réexion à 100 m de profondeur dans une couche de vitesse 800 m/s et (C)
une seconde réexion à 1000 m de profondeur dans une couche de vitesse 2100 m/s (b) Tranformée fk
(c) Transformée fk après ltrage des vitesses inférieures à 2200 m/s (d) Domaine temps/oset après
ltrage des vitesses inférieures à 2200 m/s.
cet exemple, l'espacement inter-récepteur est de 4 mètres seulement. Sur le terrain, on n'arrive
jamais à de tel densité. Des espacements de 50 ou 25 m sont la norme et parfois 12.5 m. On
peut trouver en-deçà mais il s'agit alors d'acquisitions spéciques ou de tests qui restent encore
très rares. On comprend donc que le repliement est un problème important. L'énergie de l'onde
directe pouvant traverser plusieurs fois le domain fk considéré, elle peut se superposer à celle
des ondes qui nous intéressent sans qu'il soit toujours possible de les séparer. Ce phénomène est
donc à prendre en compte pour des adaptation à des données terrains.
129
être gêné par la limite à 100 Hz des petites pastilles. Une masse ajoutée sur la pastille a permis
d'améliorer le couplage. Dans les deux acquisitions, l'espacement des sources et des récepteurs
était de 2.5 mm. Avec un espacement si réduit, le fait de bien séparer les ondelettes d'une trace à
l'autre devenait plus important. Nous avons donc utilisé un sweep gaussien pour améliorer l'al-
lure de l'ondelette. Nous n'avons pas beaucoup monté en fréquence et nous sommes arrêtés vers
1000 Hz. Cela nous a donné une fréquence centrale de 500Hz. Pour des vitesses aux alentours
de 10 m/s et l'espacement inter-récepteur choisi, nous avons obtenu un signal échantillonné à
environ 4 fois la fréquence de Nyquist ce qui est très favorable pour les ltrages fk.
Pour comparer les deux dispositifs, on suppose que les traces sont classées d'une certaine
façon. Pour la 3D complète, la ligne 1 correspond aux 121 traces pour lesquelles les ordonnées
des récepteurs valent -10 cm [de R1,1 à R121,1 g. 5(a)], la ligne 2 celle pour lequelles y=9.75
cm et ainsi de suite jusqu'à y=10 cm. Dans le cas du cross-spread, la ligne 1 correspond aux
121 traces pour lesquelles la première source [S1 g. 5(b)] est active, la ligne 2 les 121 pour
lesquelles la source 2 est active et ainsi de suite jusqu'à la source 81 [S81 g. 5(b)]. De manière
plus générale, à la trace du couple source-récepteur (S, Ri,j ) de la 3D complète nous faisons
correspondre la trace du couple (Sj , Ri ) du cross-spread.
Nos comparaisons sont eectuées moyennant ce classement qui permet d'obtenir des osets
égaux d'un dispositif à l'autre. En eet, la distance source récepteur de la première trace de la
3D complète vaut S − R1,1 qui est égale à la distance S1 − R1 dans le cas du cross-spread et
de même pour chaque couple de trace. Si la vitesse en surface est constante, cela signie qu'à
numéro de trace égal, les temps d'arrivée de l'onde directe seront égaux pour chaque couple d'un
dispositif à l'autre.
Une manière intéressante d'observer les données brutes est de considérer les échantillons pour
un temps donné. La gure 7 représente une suite de coupes à temps xé pour le cas de la 3D
complète.
130
semble composée de deux ondes successives très rapprochées. Si on observe les pentes à gauche
et à droite du point central, on constate que la vitesse varie. Sur le pic de première arrivée dans
le cas de la 3D complète, elle est de 7.6 m/s à gauche et 8.75 m/s à droite. On a donc un gel
qui n'est pas homogène sur toute sa surface.
131
Figure 9: Données brutes selon y (a) 3D complète (b) Cross-spread.
qui est mentionné dans [Meunier 1999, Vermeer 2008], c'est à dire que l 'empreinte des ondes
diractées est un cercle dans le cas de la 3D complète [g. 10(a)] mais prend une autre forme,
qui varie en fonction du diractant, dans le cas du cross-spread [g. 10(b)].
Figures 10(c) et (d) nous observons clairement l'onde de volume pour les deux dispositifs
même si elle apparaît brouillée par le bruit et les ondes issues des diractants.
Figure 10: Time slice. (a) 3D complète à 20ms (b) Cross-spread à 20ms (c) 3D complète à 28ms (d)
Cross-spread à 28ms.
Parmi les représentations possibles des données, celle de l'énergie de la première arrivée est
intéressante pour caractériser l'impact des diractants. Dans le cas de la 3D complète, nous avons
sommé l'énergie des 30 échantillons autour du pic de première arrivée. La gure 11 donne la carte
d'énergie correspondante. On observe immédiatement que les diractants forment une sorte de
barrage et que la majeure partie de l'énergie arrivant sur le diractant est ou absorbée, ou
diractée. On a ensuite une zone d'ombre sur les parties du gel cachées par chaque diractant
dans l'axe de la source. On peut supposer que la majeure partie de l'énergie est renvoyé du bord
132
du diractant. Il serait intéressant d'observer dans quelle mesure ce phénomène intervient sur
des données terrain. Enn, la ligne verticale de forte intensité est dû au l électrique qui alimente
la source piézo au centre et le centre en jaune vient de la réexion du laser sur la pastille piézo.
Figure 11: Energie de la première arrivée (a) 3D complète (b) Cross-spread. Les cercles blancs repré-
sentent l'emplacement des diractants : leur centre (en plein) et leur circonférence (évidé).
133
Dans une coupe 2D (f, kx) par exemple, l'allure des données - ou signature - pour l'arrivée
directe est la même qu'en fk 2D. Mais si on l'observe en 3D, elle a, là aussi, une forme conique.
On peut ltrer les données dans ce nouveau domaine de manière analogue à la 2D. Un ltrage
de vitesse va donc consister à appliquer un masque d'allure conique pour les vitesses que l'on
veut ou bien ltrer ou bien isoler. C'est ce qui est représenté à la gure 13.
Figure 13: Filtrage fk à fréquence xée (a) données brutes (b) Filtre pour conserver les ondes de surface
(b) Filtre pour ôter les ondes de surface
La gure 13(a) représente la coupe des données brutes à fréquence xée. On reconnait l'allure
circulaire des ondes de surface. Le ltrage fk 3D peut consister ou à conserver ces ondes à l'aide
d'un masque [g. 13 (b)] ou à les enlever [g. 13(c)]. L'allure du masque appliqué est simple à
déterminer : il s'agit d'un anneau dont les petits et grands diamètres sont déterminés par les
vitesses maximums et miniumums que l'on considère.
Le cas de l'onde diractée est diérent. L'allure des temps d'arrivée est illustrée gure 14(a)
et (c) pour chacun des dispositifs avec un diractant positionné en (−20, −45) m.
Dans le cas de la 3D complète, on retrouve un allure de cône. Si on suppose que les ondes
diractées se propagent dans toutes les directions, le diractant agit comme une source décalée
en temps et en espace. En temps, car cette source est décalée du temps de trajet nécessaire
à l'arrivée de l'onde de surface sur le diractant et en espace, car sa position n'est plus au
centre du dispositif. Pour le cross-spread, en revanche, la signature des temps d'arrivées à temps
constant est une forme géométrique entre le cercle et le carré. Dans le domain fk [g 14(b) et
(d)], la signature du diractant reste conique pour la 3D complète. De fait, décaler un signal en
temps correspond à multiplier sa transformée de Fourier par une exponentielle. L'amplitude du
spectre ne change pas. De même pour un décalage en espace. Comme le passage dans le domaine
fk correspond à une triple transformée de Fourier, la signature en amplitude du diractant ne
dière pas de celle de la source initiale (à un coecient d'atténuation près).
Dans le cas du cross-spread en revanche, le spectre est sensiblement modié. Cela vient du
dispositif qui modie les distances source-diractant-récepteur. Si on retrouve une signature
d'allure triangulaire autour de la vitesse 800 m/s, on remarque un peu d'énergie au centre
(c'est à dire des vitesses plus élevées) et des spots d'énergie importants aux quatre coins du
domaine kx-ky. De plus, la forme du spectre n'est pas unique et varie en fonction de la position
du diractant. Si on applique un ltrage fk 3D pour enlever les vitesses autour de 800 m/s,
l'énergie au centre et aux extrémités du domaine kx-ky ne sera pas ltrée.
134
Figure 14: Signature d'une onde diractée seule. 3D complète dans (a) le domaine temporel et (b) le
domaine fréquentiel. Cross-spread dans (c) le domaine temporel et (d) le domaine fréquentiel.
Figure 15: Filtrage fk 3D - time slice à 27.5 ms : données brutes (a) 3D complète (d) Cross-spread,
ondes de surfaces ltrées entre 3 m/s et 13 m/s (b) 3D complète (e) Cross-spread, ondes de volume
ltrées entre 17 m/s et 50 m/s (c) 3D complète (f ) Cross-spread.
135
Sur les données brutes [g. 15(a) et (d)] on observe un mélange d'ondes de surface diractées
et d'ondes de volume. Le ltrage en vitesses lentes [g. 15(b) et (e)] montre les mêmes diérences
qu'à la section précédente, c'est à dire que les ondes diractées dans le cas de la 3D complète
présentent une allure circulaire qui disparaît dans le cas du cross-spread. Enn, [g. 15(c) et (f )]
on constate qu'à cet instant, le ltrage fk fonctionne très bien pour les deux dispositifs car les
ondes de volume sont bien isolées.
La gure 15(c) nous permet en outre de repérér les positions des diractants. On observe
en eet à l'intérieur du cercle rouge de plus forte intensité deux zones où le signal redevient
proche de zéro. On peut avancer deux explications, (1) la vitesse des ondes de volume dans
l'aluminium du diractant étant très importante, on observe un décalage de phase à cet instant
et la vitesse mesurée par le laser est nulle (2) le diractant étant plus lourd que le gel, il bouge
de façon moins importante. Si on prend approximativement la mesure des centres de ces zones,
leurs coordonnées sont (-6.25, -6.5) cm et (9, 2.5) cm.
Pour apprécier complètement l'ecacité du ltrage fk, nous devons observer les données
ltrées dans le domaine temps/oset. La gure 16 montre la ligne d'acquisition numéro 20.
Figure 16: Filtrage fk 3D - temps/oset Donnée initiales (a) 3D complète (b) Cross-spread. Données
ltrées (c) 3D complète (d) Cross-spread
On constate que dans les deux cas (entre les traces 40 et 80) l'apex du cône de l'onde directe
n'est pas complètement ltré. Cela vient peut être des imperfections de l'acquisition ou bien du
ltre 3D qui pourrait être davantage optimisé. Il est possible aussi que les variations de vitesse
du milieu soient en partie responsable de cela. Néanmoins, l'onde directe n'est pas celle qui
nous gêne le plus et nous ferons abstraction de ce défaut par la suite. Nous avons appliqué une
apodisation aux données an de réduire les phénomènes de bord liés à la transformée de Fourier.
Il reste cependant des résidus à droite et à gauche des images (c) et (d) vers 20 ms car cette
apodisation n'a été appliquée qu'à 3 ou 4 traces. Figure 16(c), l'onde de volume est très bien
136
isolée et nous ne voyons plus les ondes diractées pourtant bien visibles gure 8(a). En revanche,
gure 16(d) (ovales rouges) les apex des cônes de diractions sont encore très présents. Nous
sommes donc typiquement dans les situations décrites par [Meunier 1999, Vermeer 2008]. Avec
des diractants plus éloignés ou avec une onde de volume arrivant plus tôt, les apex pourraient
se mélanger au signal utile et dégrader les performances de l'imagerie.
Le fait que l'énergie parasite soit concentrée autour de l'apex n'est pas qu'un inconvénient.
L'apex correspond aux vitesses les plus rapides. Cela signie que si un algorithme est trouvé
pour traiter ces traces, il sera éventuellement peu impacté par un sous-échantillonnage spatial.
Un jeu de données terrain - en général moins échantillonné - restera donc candidat pour un tel
algorithme.
137
Les étapes sont les suivantes :
1. Filtrage fk 3D classique pour enlever les ondes de surfaces qui peuvent l'être
3. Calculs des retards à appliquer à chaque trace pour obtenir une allure conique de l'onde
diractée
5. Filtrage fk 3D et temporel
L'algorithme proposé peut accepter des variantes. Dans la boucle, nous isolons l'énergie restante
du diractant par ltrage fk. Mais d'autres solutions connues peuvent être envisagées. D'autre
part, les conditions de la proche surface peuvent être plus complexes. Si des couches de faibles
épaisseurs sont présentes, on doit s'attendre à ce que co-existent plusieurs modes de Rayleigh
ayant des vitesses sensiblement diérentes. Dans ce cas, le calcul des positions et des retards
étant fonction de la vitesse en surface, le ltrage de la boucle n'enlèvera qu'une partie des
ondes diractées. Il pourra être nécessaire d'eectuer plusieurs ltrages successifs pour un même
diractant an d'enlever toutes les ondes diractées.
Figure 18: Correction des retards et parcours de l'onde diractée (a) 3D complète (b) cross-spread
138
Nous allons maintenant considérer les trajets des ondes de surface qui se rééchissent sur le
diractant D. Nous considérons le couple source-récepteur (So , Ao ) pour la 3D complète et le
couple (S, A) pour le cross-spread qui correspondent à la même trace. Nous souhaitons que dans
l'acquisition en cross-spread, les ondes diractées par D aient l'allure d'un cône comparable à
celui de la 3D complète. C'est à dire que le temps d'arrivée de l'onde diractée arrivant de D
en A ne dépend que de la distance dDA (en considérant une vitesse constante sur la zone). Si V
est la vitesse en surface, le temps d'arrivée de l'onde diractée vaut dt1 = (dDA + dSA )/V dans
le cas du cross-spread et dt2 = (dDAo + dSo Ao )/V dans celui de la 3D complète. En corrigeant
les temps d'arrivées de chaque trace de la quantité dt = dt2 − dt1 , on retrouvera donc - dans le
cas du cross-spread et pour le diractant D - une onde diractée ayant l'allure d'un cône.
139
géométrique du diractant.
Figure 19: Localisation calculées des diractants (spots de couleur). Emplacements réels en blanc :
(cercle plein) centre (évidé) circonférence. (Carré blanc) centre de la source.
Dans notre cas, nous avons une autre raison de choisir les positions données par le calcul
de localisation. En eet, le changement de référentiel eectué pour la localisation est le même
que celui que nous utilisons dans notre méthode de ltrage itératif. Or, la position calculée est
celle qui permet de focaliser la plus forte intensité. Comme nous cherchons à maximiser l'énergie
ltrée dans le nouveau référentiel, cette position calculée nous apparaît plus indiquée.
2.3.6 Résultats
Les résultats pour une ligne de récepteurs et deux diractants sont présentés gure 20.
Figure 20: Etapes du ltrage (a) Données initiales après ltrage fk 3D (b) Onde diractée isolée (c)
Changement de repère par correction des retards (d) Filtrage fk 3D (e) Soustraction aux données de
départ après correction inverse des retards (f ) Résultats après application de la méthode au deuxième
diractant.
140
Tout d'abord, un ltre fk 3D a été appliqué pour ltrer les vitesses comprises entre 3 et 13
m/s, c'est à dire les ondes de surface. Le résultat est donné gure 20(a). Dans un premier temps,
le diractant visé est isolé temporellement grâce aux estimations de position et de vitesse des
ondes de surface faites précédemment [g. 20(b)]. Pour l'ensemble du traitement, une vitesse
de 8.5 m/s a été choisie. Dans un deuxième temps, on eectue le changement de référentiel par
décalage des traces en utilisant la méthode présentée à la section précédente [g. 20(c)]. Un
nouveau ltrage fk 3D est appliqué à ces données an d'isoler les ondes diractées. Enn, après
un retour dans le premier référentiel, le signal diracté par ce premier diractant est soustrait
des données initiales [g. 20(e)]. L'application des toutes ces étapes au deuxième diractant
donne le résultat de la gure 20(f ).
Ce premier ltrage montre une très bonne réjection du premier diractant qui est le plus
énergétique. La gure 21 montre que pour les traces les plus proches du diractant, l'énergie des
ondes diractées est près de 50 dB au dessus du plancher de bruit. Pour le deuxième diractant,
on observe un peu plus d'énergie résiduelle. De plus, on constate une certaine détérioration du
signal initial dans la zone marquée par une ellipse.
Plusieurs améliorations de la méthode sont envisageable. Pour diminuer l'énergie résiduelle,
on peut envisager de modier les vitesses en fonction de chaque diractant. On se souvient par
ailleurs que dans l'étape de localisation, le second diractant laissait apparaître deux maximums.
Nous avons centré notre algorithme sur le plus important. Une deuxième itération sur ce second
diractant est aussi envisageable.
141
que l'énergie diminue - ou n'augmente pas d'un certain nombre de dB - on va chercher les traces
suivantes. Si l'énergie augmente sensiblement d'une trace à la suivante, c'est que l'on arrive à un
pallier de bruit et l'algorithme s'arrête. Le résultat gure 22(c) peut être comparé aux données
initiales [g 22(a)] et à la version précédente de l'algorithme [g 22(b)] .
Figure 22: Comparaison des deux versions d'algorithme (a) Données initiales (b) Résultat de la première
méthode proposée (c) Résultats incluant une sélection des traces soustraites.
Moyennant cette évolution du traitement, on constate que le signal qui avait disparu vers 25
ms au centre de la ligne est à nouveau présent.
3 Conclusion
Les expériences réalisées dans ce dernier chapitre ont permis d'acquérir des données d'excel-
lentes qualités. Des phénomènes peu observés jusqu'ici, comme l'apparition de zones d'ombres
au voisinage des diractants, ont été détectés. Enn, un algorithme permettant de diminuer
de 30 à 50 dB l'énergie parasite de l'apex des diractants a été testé avec succès. Tous ces
résultats valident la pertinence des expérimentations en laboratoire. D'une part, les aléas de
l'expérimentation permettent de détecter des phénomènes auxquels on ne pense pas forcément
en simulation ou sur le terrain, d'autre part, la facilité de mise en oeuvre permet de mettre en
place des dispositifs peu réalisables sur le terrain à moindre coûts.
Une adaptation de l'algorithme à un jeu de données terrains constituerait la suite logique
de cette étude. Il faudrait compter avec un jeu de données bien plus conséquent (plusieurs
dizaines, voire centaines de milliers de traces par cross-spread ) et donc des capacités de calcul
plus importantes. Mais la vraie diculté viendra des aléas de la proche surface. D'une part, les
disparités de vitesse peuvent être (bien) plus importantes que dans les gels. Le ltrage en vitesse
est un algorithme relativement robuste mais qui pourra être insusant dans certaines régions
particulièrement hétérogènes. D'autre part, les performances de l'algorithme dans le cas d'une
grande quantité de diractants reste une inconnue.
Ce sont autant de sujets qui peuvent être abordés à la fois en laboratoire et sur des données
terrains et qui vont dans le sens d'une interaction entre les deux types d'études.
142
Conclusion générale
Dans ce travail, le premier objectif que nous avons atteint a été de valider un nouvel envi-
ronnement de laboratoire pour des expériences à petites échelles. Nous avons été agréablement
surpris par la qualité des mesures avec des rapports signal-sur-bruit de plus de 40 dB sur les
premières arrivées des ondes propagées sans qu'il soit nécessaire de sommer des enregistrements.
Ceci a permis de disposer d'une cadence d'acquisition importante avec des sources actives.
Spatialement, nous avons montré que l'utilisation de gels comme l'agar-agar permet de tra-
vailler avec des longueurs d'onde compatibles avec la taille des dispositifs. Le laser s'est révélé
un excellent outil, propice à l'étude de dispositif géophysique nécessitant une grande densité de
mesures. De fait, il permet d'échantillonner la surface du gel aussi nement que souhaité.
En passif, nous en sommes resté à un stade d'investigation - relativement avancé certes
- mais les résultats montrent là aussi des perspectives intéressantes pour ce domaine en fort
développement.
Le second objectif, plus ambitieux, était de mettre en ÷uvre de nouveaux algorithmes ré-
pondants à des besoins actuels de la prospection sismique. La méthode proposée en monitoring
(partie IV) et celle de ltrage des diractants (partie VI) répondent à cet objectif au niveau des
données de laboratoire. Les résultats obtenus sont les suivants :
- validation à l'échelle du laboratoire d'une méthode de suivi des temps d'arrivées et de
compensation des variations de vitesse de la surface
- validation à l'échelle du laboratoire et de données terrain du suivi des variations de lenteur
- proposition de dispositif terrain
- dépôt d'un brevet sur la méthode de suivi des variations à l'aide d'antennes et de compen-
sation des variations de surface
- validation d'un dispositif d'acquisition spatiale à haute densité spatiale
- validation à l'échelle du laboratoire d'une nouvelle méthode de ltrage des diractants
- dépôt d'un brevet sur la méthode de ltrage
- adaptation à un environnement de laboratoire de méthodes haute résolution en 5 dimen-
sions.
Ces méthodes (en particulier celle de la partie VI) demandent à être validée plus largement
sur des données terrains mais la rapidité de mise en ÷uvre en laboratoire milite en faveur de
ce type de méthodologie. Nous avons pu également aller plus loin sur des méthodes connues en
adaptant des algorithmes de haute résolution à des dispositifs d'antenne source et réception 2D.
Perspectives
Pour aller plus loin à l'échelle du laboratoire, on peut chercher à repousser une des limites
rencontrées dans notre étude pour être face à un nouveau champ d'investigation.
Des environnement plus maitrisés ou plus équipés (positionnement automatique des sources,
salle thermostatée, amplicateurs...) devraient permettre de gagner en performances. On peut
mentionner la cadence des acquisitions en sismique, la précision et la densité spatiale des sources
ou la précision de mesure de temps d'arrivée.
L'utilisation de gels un peu plus grands et l'automatisation du déplacement des sources
devraient permettre de se lancer dans la validation de dispositif d'acquisition nouveaux. En 3D
comme en 4D, on observe actuellement une tendance nouvelle mettant en avant des dispositifs
avec des répartitions de sources ou de récepteurs par patch (des quadrilatères en général) à la
place du cross-spread. La mise en oeuvre de tels dispositifs à l'échelle du laboratoire pourrait se
143
faire en quelques semaines une fois l'automatisation des sources réalisées alors que sur le terrain,
il faudrait mobiliser un laboratoire, des équipes, une logistique, le tout sur plusieurs mois.
Si on compte qu'une journée de test terrain bien négociée représente environ 20 000 euros,
le coût du matériel utilisé pendant ces trois ans représente 4 à 5 jours de test. La comparaison
pour le nancement d'une thèse de 3 ans est laissée à l'appréciation du lecteur.
L'acquisition terrestre n'est pas la seule à pouvoir disposer de tels environnement. Le projet
Delphi réalise ce genre d'étude en environnement marine. Si on compare la mise en place d'un
dispositif de laboratoire au coût du déplacement d'un navire, cela seul sut à valider l'intérêt
de ce type d'étude.
La possibilité d'activer 8 ou 10 sources en parallèles avec davantage d'amplicateurs ouvre le
champ d'acquisition passive haute densité. Ces techniques encore peu utilisées en géophysique
sont appelées à progresser et leur utilisation importante en sismologie génère encore de nombreux
axes de recherche.
La stabilisation de la température du gel avec un environnement thermostaté permettrait
de suivre des variations de temps d'arrivée, de lenteur ou d'amplitude plus nes. Avec une plus
grande densité de sources et de récepteurs, une imagerie 4D deviendrait possible.
Ainsi, en parallèle d'autres méthodes, les expériences à petites échelles sont à même de nourrir
l'imagination de nombreux chercheurs pour améliorer les méthodes de la sismique pétrolière ou
de la sismologie.
144
Annexe A
Interférométrie sismique
Dans cette annexe, l'introduction est issue des résultats synthétisés par [Wapenaar et al. 2010]
que nous illustrons ensuite dans le cas de notre environnement de laboratoire. L'interféro-
métrie sismique a connu un fort développement depuis les travaux de [Schuster 2001] et de
[Bakulin et Calvert, 2004]. L'idée de base est de retrouver la fonction de Green d'un milieu
entre deux récepteurs en corrélant les signaux reçus à chaque récepteur. Des adaptations de ces
techniques ont été développés en sismologie [Campillo et Paul 2003, Shapiro et Campillo 2004]
comme en exploration.
Figure 23: Interférométrie 1D. (a) Onde plane émise par une source impulsive en xs à t=0 et se
propageant selon l'axe des x (b) Réponse observée par un récepteur en xA (c) Réponse observée par un
récepteur en xB (d) Cross-corrélation des réponses obtenues en xA et xB .
La gure 23(a) représente - en une dimension - une onde plane se dirigeant vers deux récep-
teurs A et B. On suppose que le signal émis est un dirac. Les gures 23(b) et (c) représentent
les réponses qui seraient enregistrées par deux récepteurs disposés aux abscisses xA et xB . Si
l'origine des temps correspond au moment où l'onde est émise en S (x=0) on obtient une réponse
aux instants tA et tB pour le premier puis le second récepteur. Si l'on eectue la corrélation des
signaux enregistrés, on obtient un dirac à l'instant tB − tA . On remarque que le signal corrélés
est équivalent au signal qui aurait été enregistré en xB dans le cas d'une source émettant en xA .
La gure (e) représente le dispositif équivalent.
Cet exemple montre en une dimension que la corrélation des signaux enregistrés à deux récep-
teurs permet de retrouver la réponse impultionnelle du milieu à partir d'une source quelconque.
La source peut être une source articielle maitrisée. Mais l'intérêt principal de la méthode ré-
side dans le fait qu'on peut utiliser des sources naturelles. Aux fréquences classiquement utilisées
en sismologie - de 0.01 Hz à quelques Hz - le vent et la houle constituent des sources parfai-
tement utilisables [Sens-Schönfelder and Wegler 2006, Shapiro et al. 2005, Rivet 2011]. Dans le
cas d'une utilisation de sources naturelles - ou plus généralement de sources non maitrisées par
le dispositif - on parlera de sismique passive.
La bonne reconstitution des fonctions de Green suppose une certaine distribution de sources.
La dénition d'une zone au sein de laquelle les contributions des sources à la reconstitution de la
145
fonction de Green sont cohérentes a été introduite par [Snieder 2004]. On parle alors de zone de
cohérence . Des résultats expérimentaux ont montré cet aspect de la méthode en océanographie
[Roux et al. 1996] ou en géophysique [Gouédard et al. 2008a]. Sans entrer dans les détails, car
ce n'est pas l'objet de notre étude, on peut simplier les choses en disant qu'il est nécessaire
d'avoir des sources au voisinage des trajets joignant les deux récepteurs dont les signaux sont
corrélés.
Figure 24: Distribution des sources R : récepteur. I interface. En hachuré : zones de cohérence (a) Cas
d'une onde de surface d'après [Snieder 2004](b) cas d'une onde de volume.
La gure 24(a) montre l'allure de cette zone pour des ondes de surface se propageant entre
deux récepteurs en surface. Pour des ondes de volume, la gure 24(b) montre à l'aide d'une coupe
verticale, les zones dans lesquelles on doit disposer de sources pour reconstituer la réponse du
milieu en profondeur.
Pour le cas des ondes de volume, une conséquence de l'application de la sismique passive
apparaît immédiatement. Pour une onde se rééchissant à l'interface I, le trajet parcouru par
l'onde de volume passant pas les deux récepteurs RA et RB est deux fois plus long que dans
le cas d'une source émettant à l'emplacement de RA et dont le signal serait enregistré en RB .
Dans cette disposition qui est celle de nos expériences en laboratoire, les ondes de volume sont
défavorisées du fait du doublement du trajet et de l'augmentation de l'atténuation qui en résulte.
146
Annexe B
Origine des variations de vitesse
Dans cette section, nous montrons qu'en cas de faibles variations de vitesse à la proche
surface, la modication de trajet qui en résulte peut-être négligée.
Nous considérons la réexion d'une onde de volume - telle que représentée à la gure 25 -
à une profondeur h. Nous divisons la couche d'épaisseur h en deux sous couches d'épaisseur h1
et h2 telles que la variation de vitesse n'aecte que la couche h1. La vitesse des ondes dans le
volume est V, sauf dans la couche d'épaisseur h1 où elle vaut V+dV. L'angle d'incidence pour
l'onde rééchie à l'interface est θ. En présence de la variation de vitesse dV, le trajet de l'onde
allant de la source S au récepteur R est modié et l'angle θ varie des quantités dθ1 et dθ2 de
part et d'autre de l'interface limitant la zone impactée par la variation de vitesse.
h1 1 h2 1 h1 1
dt = + −
cos(θ + dθ1 ) V + dV cos(θ + dθ2 ) V cosθ V
En développant au premier ordre cos(θ + dθ) ≈ cosθ − dθsinθ = cosθ(1 − dθtanθ) on obtient :
1 dV
dt = h1 tanθdθ1 − + h2 tanθdθ2
V cos(θ) V
147
dt tanθ h1 dV
= (h1 dθ1 + h2 dθ2 ) − (1)
t h h V
Ainsi, dans le calcul de la variation de temps d'arrivées liée à une faible variation de vitesse en
surface, le terme lié à la modication du trajet est négligeable au premier ordre. En conclusion,
dans l'équation 1, le terme en dV/V est prépondérant, soit :
dt h1 dV
=− (7)
t h V
148
Annexe C
Calcul de décalage temporel
Dans cette partie, nous introduisons deux méthodes de calculs des variations temporelles.
La première se fait via la corrélation de deux signaux dont on veut connaître le décalage. On
peut montrer que celui-ci est donné par le temps du maximum de corrélation. Dans le second
cas, on s'intéresse à la diérence de deux signaux et on minimise l'erreur quadratique de la
diérence via la méthode du gradient.
Corrélation de signaux
La corrélation de signaux est une méthode connue. Si deux signaux sont décalés, leur trans-
formée de Fourier ne dière que par la phase.
Soit a(t) le signal de référence, x(t) le signal décalé, A(f ) et X(f ) leur transformée de Fourier
et to leur décalage. On a :
x(t) = a(t − to )
et
ou encore :
Γa,x (τ ) = Γa,a (τ − to )
149
La corrélation de a(t) et x(t) est donc égale à l'autocorrélation de a(t) décalée de to . Le
maximum de l'autocorrélation Γa,a (τ ) de a(t) est en 0. Si on obtient le temps du maximum de
Γa,x (τ ), il correspond à to c'est à dire le décalage entre les deux signaux. Dans la pratique, on
obtient ce temps via une interpolation d'ordre deux du signal Γa,x (τ ) échantillonné.
N
X 2
e(t̂o ) = a(ti ) − x(ti − t̂o )
i=1
1. la diérence des erreurs passe sous un certain seuil : |e(t̂o,n+1 ) − e(t̂o,n )| <
2. on dépasse un nombre xé d'itération : n > Nit
Il peut arriver que l'algorithme s'enlise. C'est à dire qu'il oscille indéniment entre deux valeurs
autour du minimum sans que la première condition ne soit vériée. Cette situation est détectée
par l'algorithme qui va alors diviser par deux la quantité dt et permettre que l'on se rapproche
à nouveau du minimum.
150
Annexe D
Dans notre méthode de compensation de retards liée à la proche surface, nous avons considéré
que la vitesse du milieu était constante. Selon les résultats de la partie IV, pour une vitesse
variant de V (z) à v(z) + dV (z), le retard additionnel sur un demi trajet pour l'onde x est donné
par l'équation :
δz dV (z)
δtx = − (8)
cosθx V (z)2
Avec une vitesse variable d'une antenne à l'autre mais constante sous l'antenne, on aura deux
variations :
δz dVs (z)
δtx,s = − (9)
cosθx,s Vs (z)2
à la source et :
δz dVr (z)
δtx,r = − (10)
cosθx,r Vr (z)2
en réception.
On fait l'hypothèse que les variations de vitesse de la proche surface sont globales, soit :
dVr (z) dVs (z) cosθx,s Vs (z)
Vr (z) = Vs (z) . Dans ce cas il existe un coecient αx = cosθx,r Vs (z) tel que δtx,r = αx δtx,s .
On montrerait avec le même raisonnement que les variations de temps d'arrivées par demi-
trajet pour les ondes B et C sont liées. Ainsi côté source
cosθB,s
dtC,s = dtB,s (11)
cosθC,s
Et de même côté réception en remplaçant s par r. Dans cette hypothèse, les temps de trajets
dans la couche supérieure de part et d'autre du point de réexion ne sont plus identiques. Pour
sinθx,s
x = B ou C, on a dx,r = sinθx,r dx,s . En divisant par les vitesses il vient :
tx,r Vs sinθx,s
=
tx,s Vr sinθx,r
Vs sinθx,s
En posant βx =Vr sinθx,r on obtient tx,r = βx tx,s . L'équation 11 pour la proche surface peut
s'exprimer en variation relative de temps d'arrivées :
151
En écrivant dtx = dtx,s + dtx,r et tx = tx,s + tx,r = tx,s (1 + βx ) et en utilisant l'équation 11
on aboutit à :
Et pour nir :
On peut donc conclure que pour des variations relatives de vitesse homogènes, il existe un
coecient de proportionnalité liant les variations relatives de temps d'arrivées des ondes B et
C.
152
Références
[Aki and Richards 1981] K. Aki, et P. G. Richards, 1981, Quantitative Seismology, University
Science Books
[Baeten en Ziolkowski 1990] G. Baeten et A. Ziolkowski, 1990, The vibroseis source, Advances
in exploration geophysics, Elsevier
[Bakulin et Calvert, 2004] A. Baklin and R. Calvert, 2004, Virtual source : new method for
imaging and 4D below complex overburden : 74th Annual International Meeting,
SEG, Expanded abstracts, 2477-2480.
[Barkved et al. 2005] Barkved, O. I, Buer, K., Kristiansen, T. G., Kjelstadli, R. M., Kommedal,
J. H., 2005, Permanent seismic monitoring at the Valhall eld, Norway, IPTC
10902.
[Benech et al. 2009] N. Benech, S. Catheline, X. Brum, T. Gallot et C. Negreira, 2009, 1-D
Elasticity Assessment in Soft Solids from Shear Wave Correlation : The Time-
Reversal Approach, IEEE Transaction on Ultrasonic Ferroelec., 56(11)
[Benesty et al. 2008] Benesty, J., Chen, J., Huang, Y., Microphone array signal processing,
Springer, 2008.
[Blacquière et van Veldhuizen 2003] G. Blacquière and E. van Veldhuizen, 2003, Physical Mo-
deling Versus Numerical Modeling Authors, 73
th Annual International Meeting,
SEG, Expanded abstracts, 26-31.
[Bodet et al. 2005] L. Bodet, K. Van Wijk, A. Bitri, O. Abraham, G. Grandjean, P. Cote et D.
Leparoux, 2005, Surface wave dispersion inversion when the 1D assumption breaks
down, Journal of Environmental and Engineering Geophysics, 10(2), 151-162
[Bracewell 1957] R. N. Bracewell, 1957, Antenna problems in radio astronomy, IRE National
Convention Record, 5, 68-71
[Brenguier et al. 2008a] F. Brenguier, N.M. Shapiro, M. Campillo, V. Ferrazzini, Z. Duputel,
O. Coutant and A. Nercessian ; Nature. Geosciences. 1, 126-130, 2008.
[Brenguier et al. 2008b] F., Brenguier, M., Campillo, C., Hadziioannou, N., Shapiro, R.M. Na-
deau and E. Larose, 2008, Postseismic relaxation along the San Andreas fault at
Parkeld from continuous seismological observations, Science 321, 1478-1481.
[Bretaudeau et al. 2008] F. Bretaudeau, D. Leparoux and O. Abraham, 2008, Small scale adap-
tation of the seismic full waveform inversion method - Application to civil enginee-
ring applications, Acoustics
[Bretaudeau 2010] F. Bretaudeau, 2010, Modélisation physique à échelle réduite pour l'adapta-
tion de l'inversion des formes d'ondes sismiques au génie civil et à la subsurface.
Thèse de l'Université de Nantes
[de Cacqueray et al. 2011] B. de Cacqueray, P. Roux, M. Campillo S. Catheline and P. Boue,
2011, Elastic-wave identication and extraction through array processing : An ex-
perimental investigation at the laboratory scale : Journal of Applied Geophysics.
74, 81-88. doi : 10.1016/[Link].2011.04.005.
153
[de Cacqueray et al. 2012] B. de Cacqueray, P. Roux and M. Campillo, 2012, Multiple obser-
vables 4D monitoring and compensation, 74
th EAGE Conference and Exhibition.
[de Cacqueray et al. 2013] B. de Cacqueray, P. Roux, M. Campillo, S. Catheline, 2013, Tracking
of velocity variations at depth in the presence of surface velocity uctuations, Geo-
physics, 78(1)
[Campillo et Marchand 2002] M. Campillo and F. Lemarchand, 2002, Les clés de lecture du
désordre terrestre, La Recherche Hors Série, 9, p 62-65
[Campillo et Paul 2003] M. Campillo and A. Paul, 2003, Long range correlations in the diusive
seismic coda, Sciences, 299, 547-549.
[Campman et al. 2005] X. H. Campman, K. van Wijk, J. A. Scales, G. C. Herman, 2005. Imaging
and suppressing near-receiver scattered surface waves. Geophysics 70(2), V21V29.
doi :10.1190/1.1884831.
[Claerbout 1970] J.F. Claerbout, 1970, Coarse grid calculation of wave in inhomogeneous media
with application to delineation of complicated seismic structures, Geophysics, 35,
407-418.
[Davies et al. 1971] D. Davies, E. J. Kelly and J. R. Filson, 1971, Vespa process for analysis of
seismic signals, Nature Physical Sciences, 232, 8-13
[Dzieciuch 2001] M.A. Dzieciuch, P.F. Worcester and W. H. Munk, 2001, Turning point lters :
Analysis of sound propagation on a gyre-scale, Journal of Acoustic Society of
America 110, 135149.
[Embree 1968] P. Embree, 1968, Diversity seismic record stacking method and system, US Pa-
tent 3 398 396
154
[Esmersoy 1988] C. Esmersoy, 1988, Velocity estimation from oset VSPs using direct P- and
converted SV-waves. 58
th Annual International Meeting., SEG, Expanded Abs-
tracts, 538-541
[Eudes 2004] Eude, M., 2004, Etude expérimentale de la propagation d'une onde acoustique dans
un milieu atténuant en présence d'hétérogénéité :PhDThesis. Université Claude
Bernard Lyon I, 144 pp.
[Evans et al. 1981] J.E. Evans, J.R. Johnson, D.F. Sun, 1981, High resolution angular spectrum
estimation tachniques for terrain scaterring analysis and angle of arrival estimation.
ASSP Workshop on spectral estimation.
[Fink et al. 2000] M. Fink, D. Cassereau, A. Derode, C. Prada, P. Roux, M. Tanter, J-L Thomas
and F. Wu, 2000, Time reversal acoustics
[Forgues et al. 2011] E. Forgues, E. Schissellé-Rebel and J. Cotton, 2011, Simultaneous ac-
tive/passive seismic monitoring of steam assisted heavy oil production ; 73
rd EAGE
Conferenceand Exhibition.
[Friedlander 1990] B. Friedlander, 1990, A sensitivity analysis of the MUSIC algorithm, IEEE
Transactions on acoustic signal processing ; 38(10)
[Friis 1925] H.T. Friis, 1925, A new directionnal receiving system 6, 685-707.
[Frost 1926] R. M. Foster, 1926, Directive diagrams of antenna arrays, Bell system Technology,
5, 292-307.
[Fukushima et al. 2009] Y. Fukushima, O. Nishizawa and H. Sato, 2009, A Performance Study
of a Laser Doppler Vibrometer for Measuring Waveforms from Piezoelectric Trans-
ducers. IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control,
56(7)
[Garrett 2012] M. A. Garrett, 2012, Radio Astronomy Transformed : Aperture Arrays Past,
Present & Future, Proceedings of Science.
[Glangeaud and Mari ] F. Glangeaud and J-L. Mari, 1994, Wave Separation. Part two : Ap-
plications, Oil and Gas Sciences and Technologies - IFP Energies nouvelles, 49,
21-61
155
[Herrmann 1981] Herrmann, 1981, Computer programs in seismology, Saint Louis University,
http ://[Link]/eqc/[Link]
[Hornman et al. 2012] K. Hornman and J. van Popta, 2012, Quantitative Reservoir Monitoring
of Thermal EOR with Time-lapse Seismic, 74
th EAGE Conference & Exhibition,
Extended abstracts.
[Iturbe 2010] I. Iturbe, 2010, Tomographie acoustique haute résolution dans un guide d'onde
océanique, Université Joseph Fourier, Mémoire de Thèse
[Klinkosz et al. 2008] T. Klinkosz, C.J. Lewa and J. Paczkowski, 2008, Propagation velocity and
attenuation of a shear wave pulse measured bu ultrasound detection in agarose and
polyacrylamide, Ultrasound in Medicine & Biolology, 34(2), 265275,
[Krim et Viberg, 1996] H Krim et M. viberg, 1996, Two decades of Array processing, IEEE
Signal processing magazine.
[Krüger et al. 1993] F. Krüger, M. Weber, F. Scherbaum, and J. Schlittenhardt, 1993, Double
beam analysis of anomalies in the core mantle boundary region, Geophysical re-
search letters, 30, [Link] :10.1029/93GL01311.
[Krüger et al. 1996] F. Krüger, M. Weber, F. Scherbaum, and Schlittenhardt, 1996, Analysis
of asymmetric multipathing with a generalization of the double-beam method :
BSSA, 86, 737-749.
[Le Meur et al. 2010] D. Le Meur, N. Benjamin, L. Twigger, K. Garceran, L. Delmas and G.
Poulain, 2010, Adaptive attenuation of surface-wave noise , First Break, 28.
[Le Meur et Traonmilin] David Le Meur and Yann Traonmilin, 2008, Adaptive Noise Attenua-
tion, 78
th Annual International Meeting, SEG, Expanded Abstracts.
[Le Touzé et al. 2011] G. Le Touzé, B. Nicolas, P. Roux et J.I. Mars, 2011 Double Multiple
Signal Characterization Active Large Band (D-MUSICAL) for extration of obser-
vables in Acoustic Tomography, Acoustic Society of America 11.
[Liu et Weiss 2010] Wideband beamforming, 2010, Wiley series on wireless communications and
mobile computing.
[Lo et Lee 1993] Y. Lo et S. Lee, 1993, Antenna Handbook : Antenna theory, by Von Nostrand
Rheinhold Company, New York.
[Mc Kay et al. 2003] S. McKay, J. Fried and C. Carvill, 2003 The impact of water-velocity
variations on deepwater seismic data ; The Leading Edge, 22, 344-350. doi :
10.1190/1.1572088
[Marcos 1998] Sylvie Marcos, 1998, Les méthodes à haute résolution, Hermes, 783 pages.
[Mari et al. 2001] J-L. Mari, F. Glangeaud, F. Coppens, 2001, Traitement du signal pour géo-
logues et géophysiciens, Volume 1.
[Mars et al. 1987] J. Mars, F. Glangeaud, J-L. Lacoume, J.-M. Fourman and S. Spitz, 1987,
Signal-preserving random noise attenuation by the f-x projection, 56
th Annual In-
ternational Meeting., Atlanta, SEG Expanded Abstracts, 489-492.
[Mars et al. 2004] J. Mars, J.-L. Glangeaud and J.-L. Mari, 2004, Advanced signal processing
tools for dispersive waves, Near-surface Geophysics, 199-210.
[Meunier et al. 1997] J. Meunier, F. Huguet and J.M. Michel, 1997, Determining acquisition
parameters time-lapse seismic recording : 59
th EAGE Conference and Exhibition,
Extended Abstract.
156
[Meunier 1999] J. Meunier, 1999, 3D geometry, velocity ltering and scattered noise : 69
th An-
nual International Meeting, SEG, Expanded Abstracts, 1216-1219.
[Meunier 2011] J. Meunier, 2011, Seismic Acquisition from Yesterday to Tomrrow, SEG-EAGE,
Distinguished Instructor Series, 14.
[Miller et Pursey 1954] G.F. Miller et H. Pursey, 1954 The eld and radiation impedance of
mechanical radiators on a free-surface of a semi-innite isotropic solid, 1954, Pro-
ceedings of the Royal Society of London. Series A, Mathematical and Physical
Sciences ; 521-541
[Neidel et Tanner 1971] Neidell, N. and M. T. Tanner, 1971, Semblance and other co-herency
measures for multichannel data. Geophysics, 36, 482497.
[Noel 2004] C. Noel, 2004, Méthode temporelle d'identication de sources sonores bruyantes en
milieu industriel. Mémoire de Thèse, INRS.
[Opoku et al. 2006] A. Opoku, L.G. Tabil, B. Crerar et M.D. Shaw, 2006, Thermal conductivity
and thermal diusivity of timothy hay, Canadian Biosystems Engineering
[Ozbek 2000] A. Ozbek, 2000, Adaptive beamforming with generalized linear constraints, SEG
Annual Meeting.
[Pica et al. 2005] A. Pica, G. Poulain, B. David, M. Magesan, S. Baldock, T. Weisser, P. Hugon-
net and P. Herrmann, 2005, 3D surface-related multiple modeling, principles and
th Annual International Meeting, SEG, Expanded Abstracts, 2080-2083.
results, 75
[Poli et al.] P. Poli, M. Campillo, H. Pedersen and the Lapnet Working Group, 2012, Body wave
imaging of the Earth's mantle discontinuities from ambient seismic noise, Science
338, 1063-1066.
[Poupinet et al. 1984] G. Poupinet, W.L. Ellsworth, and J. Frechet, 1984, Monitoring velocity
variations in the crust using earthquake doublets : An application to the Calaveras
fault, California : Journal of Geophysical Research, 155, 1021-1041.
[Rickett et Lumley 1998] J Rickett, and D.E. Lumley, 1998, A cross equalization processing
ow for o-the-shelf 4D seismic data : 68
th Annual International Meeting, SEG,
Expanded Abstract.
[Ritwoller et al. 2011] M. H. Ritzwoller , F.C. Lin, W. Shen, 2011, Ambient noise tomography
with a large seismic array, Compte-rendu géosciences, 13 pages.
[Ross et al. 1996] C.P. Ross, G.B. Cunningham and D.P. Weber, 1996, Inside the cross-
equalization black box : The Leading Edge 15, 1233-1240.
[Rost et Thomas 2008] S. Rost and C. Thomas, 2008, Array Seismology : methods and appli-
cations Review of Geophysics, 40(3), 1008 doi :10.1029/2000RG000100.
[Roux et al. 2008] P. Roux, B.D. Cornuelle, W.A. Kuperman and W.S. Hodgkiss, 2008, The
structure of raylike arrivals in a shallow-water waveguide : Journal of American
Acoustic Society, 124, 3430-3439.
[Roux et al. 1996] P. Roux, W.A. Kuperman, NPAL Group, 1996, Extracting coherent wave
fronts from acoustic ambient noise in the ocean. Journal of Acoustical Society of
America 116(4).
[Royer et Dieulesaint 1996] D. Royer et E. Dieulesaint, 1996, Ondes élastiques dans les solides
- Tome 1, Masson.
[Schelkuno 1952] [Link], 1952, Antennas : theory and practice, New York, Wiley.
157
[Schuster 2001] G.T. Schuster, Theory of daylight/interferometric imaging : Tutorial : 63
rd
Conference and Technical Exhibition, EAGE, Extended Abstracts.
[Schneider 1978] W. Schneider, 1978, Integral formulation for migration in two and three di-
mension, Geophysics, 43, 49-76.
[Sens-Schönfelder and Wegler 2006] C. Sens-Schönfelder and U. Wegler, 2006, Passive
image interferometry and seasonal variations of seismic velocities at Me-
rapi Volcano, Indonesia : Geophysical Research Letters, 33, L21302, 5 pp,
doi :10.1029/2006GL027797.
[Shan et Kailath 1985] T.H. Shan, T. Kailath, 1985, Adaptive beamforming for coherent signals
and interference, IEEE Transactions on Acoustics, Speech and Signal Processing,
33, 527-536.
[Shapiro et Campillo 2004] N. M. Shapiro and M. Campillo, 2004, Emergence of broadband
Rayleigh waves from correlation of the ambiant seismic noise, Geophysical research
Letters, 31, L07614-1 - L07614-4.
[Snieder et al. 2002] R. Snieder, A. Grêt, H. Douma and J. Scales, 2002, Coda wave interferome-
try for estimating nonlinear behavior in seismic velocity : Science, 295, 2253-2255.
[Snieder 2004] R. Snieder, 2004, Extracting the Green's function from the correlation of coda
waves : A derivation based on stationary phase, Physical Review, 69.
[Soubaras 1994] R. Soubaras, 1994, Signal-preserving random noise attenuation by the f-x pro-
jection, 64
th Annual International Meeting, SEG Expanded Abstracts, 1576-1579.
[Spitz 1991] S. Spitz, Seismic trace interpolation in the f-x domain, Geophysics, 56, 785-794.
[Swindlehurst et Kailath 1992] A.L. Swindlehurst et T. Kailath, 1992, A performance analysis of
subspace based methods in presence of model errors part I : the MUSIC algorithm,
IEEE Transactions on signal processing, 40(7).
[Tarantola 1987] A. Tarantola, 1987, Inverse Problem Theory, Elsevier.
[Tas et Latombe 1986] I. Tas et C. Latombe, 1986, Détections multiples par les valeurs propres
de la matrice spectrale, Traitement du Signal 3(2).
[Tas et Lacoume, 1989] I. Tas et J.L. Lacoume, 1989, Performance des lissages spatio-
fréquentiels pour l'identication des sources corrélées. 12ème colloque GRETSI.
[Terada and Tsuboi 1927] T. Terada and C. Tsuboi, 1927, Experimental Studies on Elastic
Waves, Reprinted in Seismic Physical Modeling from Bulletin of the Earthquake
Research Institue, 3, 55-65 with permission of University of Tokyo Geophysic re-
print series 1994, 15, 56-66.
[Van Veen et Buckley 1988] B. D. Van Veen et K.M. Buckley, 1988, Beamforming : a versatile
approach to spatial ltering, IEEE ASSP Magazine.
[Vermeer 2008] G. J.O. Vermeer, 2008, Alternative strategies for tackling scattered noise, 78
th
Annual International Meeting, SEG, Expanded Abstracts
158
[Weber et al. 1996] M. Weber, J.-P. Davis, C. Thomas, F. Krüger, F. Scherbaum, J. Schlitten-
hardt, and M. Körnig, 1996, The structure of the lowermost mantle as determined
from using seismic arrays, Seismic Modeling of the Earth s Structure, 399-442,
Edited by E. Boschi, G. Ekström, and A. Morelli, Instit. Nazionale di Geophys.,
Rome.
[Wegler and Sens-Schönfelder 2007] U. Wegler, and C. Sens-Schönfelder, 2007, Fault zone moni-
toring with passive image interferometry : GeophysicalJournal International, 168,
1029-1033.
[Wijk et Levshin 2004] K. van Wijk and A.L. Levshin, 2004, Surface wave dispersion from small
vertical scatterers, Geophyscal research letters, 31
[Yilmaz 1987] O. Yilmaz, 1987, Seismic Data Processing - Vol. 1 and 2.
[Zheng et al. 2011] Y. Zheng, X. Fang, M. Fehler et D. Burns, 2011, Double-beam stacking to
infer seismic properties of fractured reservoirs, SEG.
159