0% ont trouvé ce document utile (0 vote)
53 vues289 pages

Corriger 3

Le document présente un ouvrage sur la tomographie, dirigé par Pierre Grangeat, qui traite des fondements mathématiques ainsi que des applications en imagerie microscopique et industrielle. Il fait partie d'une série sur le traitement du signal et de l'image, et inclut des contributions de divers auteurs spécialisés dans le domaine. Le livre aborde des méthodes analytiques pour la reconstruction d'images et fournit des références bibliographiques pour approfondir les sujets traités.

Transféré par

hamza.babsaaid.etu23
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
53 vues289 pages

Corriger 3

Le document présente un ouvrage sur la tomographie, dirigé par Pierre Grangeat, qui traite des fondements mathématiques ainsi que des applications en imagerie microscopique et industrielle. Il fait partie d'une série sur le traitement du signal et de l'image, et inclut des contributions de divers auteurs spécialisés dans le domaine. Le livre aborde des méthodes analytiques pour la reconstruction d'images et fournit des références bibliographiques pour approfondir les sujets traités.

Transféré par

hamza.babsaaid.etu23
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

La tomographie

© LAVOISIER, 2002
LAVOISIER
11, rue Lavoisier
75008 Paris
Serveur web : [Link]

ISBN 2-7462-0356-1

Catalogage Electre-Bibliographie
Grangeat, Pierre (sous la direction de)
La tomographie – Fondements mathématiques, imagerie microscopique et imagerie industrielle
Paris, Hermès Science Publications, 2002
ISBN 2-7462-0356-1
RAMEAU : tomographie
reconstruction d’image
DEWEY : 621.4 : Physique appliquée. Optique appliquée

Le Code de la propriété intellectuelle n'autorisant, aux termes de l'article L. 122-5, d'une


part, que les "copies ou reproductions strictement réservées à l'usage privé du copiste et non
destinées à une utilisation collective" et, d'autre part, que les analyses et les courtes citations
dans un but d'exemple et d'illustration, "toute représentation ou reproduction intégrale, ou
partielle, faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause, est
illicite" (article L. 122-4). Cette représentation ou reproduction, par quelque procédé que ce
soit, constituerait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code de la propriété intellectuelle.
La tomographie
Fondements mathématiques,
imagerie microscopique et imagerie industrielle

sous la direction de
Pierre Grangeat
Il a été tiré de cet ouvrage
45 exemplaires hors commerce réservés
aux membres du comité scientifique,
aux auteurs et à l’éditeur
numérotés de 1 à 45
La tomographie
sous la direction de Pierre Grangeat
fait partie de la série TRAITEMENT DU SIGNAL ET DE L’IMAGE

dirigée par Francis Castanié et Henri Maître

TRAITÉ IC2 I NFORMATION – COMMANDE – COMMUNICATION


sous la direction scientifique de Bernard Dubuisson

Le traité Information, Commande, Communication répond au besoin


de disposer d'un ensemble complet des connaissances et méthodes
nécessaires à la maîtrise des systèmes technologiques.
Conçu volontairement dans un esprit d'échange disciplinaire, le traité IC2
est l'état de l'art dans les domaines suivants retenus par le comité
scientifique :
Réseaux et télécoms
Traitement du signal et de l'image
Informatique et systèmes d'information
Systèmes automatisés
Productique

Chaque ouvrage présente aussi bien les aspects fondamentaux


qu'expérimentaux. Une classification des différents articles contenus
dans chacun, une bibliographie et un index détaillé orientent le lecteur
vers ses points d'intérêt immédiats : celui-ci dispose ainsi d'un guide pour
ses réflexions ou pour ses choix.
Les savoirs, théories et méthodes rassemblés dans chaque ouvrage ont
été choisis pour leur pertinence dans l'avancée des connaissances ou pour
la qualité des résultats obtenus dans le cas d'expérimentations réelles.
Liste des auteurs

Habib BENALI Samuel LEGOUPIL


INSERM LIST
CHU Pitié-Salpêtrière Commissariat à l’énergie atomique
Paris Saclay

Anne-Marie CHARVET Jean-Michel LETANG


Université Joseph Fourier CNDRI
European Synchrotron Radiation Institut national des sciences
Facility appliquées de Lyon
Grenoble
Catherine MENNESSIER
Michel DEFRISE Ecole supérieure de chimie
Division of Nuclear Medicine physique électronique de Lyon
Hôpital universitaire AZ-VUB
Ghislain PASCAL
Bruxelles, Belgique
Commissariat à l’énergie atomique
Christian DEPEURSINGE Valduc
Institut d’optique appliquée
Gilles PEIX
Ecole polytechnique fédérale
CNDRI
de Lausanne
Institut national des sciences
Suisse
appliquées de Lyon
Laurent DESBAT Françoise PEYRIN
TIMC
Institut national des sciences
Institut d’informatique appliquées de Lyon
et de mathématiques appliquées European Synchrotron Radiation
de Grenoble Facility, Grenoble

Philippe DUVAUCHELLE Catherine SOUCHIER


CNDRI DyOGen
Institut national des sciences INSERM
appliquées de Lyon Grenoble

Pierre GRANGEAT Yves USSON


LETI TIMC
Commissariat à l’énergie atomique Institut d’informatique
Grenoble et de mathématiques appliquées
de Grenoble
Table des matières

Avant-propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

Notations générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Coordonnées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Signaux spécifiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Les transformées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Les ensembles fonctionnels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Caractéristiques d’une variable, d’un vecteur ou d’un signal aléatoire. . . . 23
Probabilités, flou . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Opérations, opérateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Notations électromagnétiques et optiques. . . . . . . . . . . . . . . . . . . . . 25
Notations rayonnement ionisant . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Sigles et abréviations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

Chapitre 1. Introduction à la tomographie . . . . . . . . . . . . . . . . . . . . 31


Pierre GRANGEAT
1.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.2. Observer des contrastes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.3. Localiser dans l’espace et dans le temps . . . . . . . . . . . . . . . . . . . 35
1.4. Reconstruire les images. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.5. Les domaines d’application . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.6. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
10 La tomographie

PREMIÈRE PARTIE. LA RECONSTRUCTION D’IMAGE . . . . . . . . . . . . . . . . 51

Chapitre 2. Les méthodes analytiques . . . . . . . . . . . . . . . . . . . . . . . 53


Michel DEFRISE et Pierre GRANGEAT
2.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.2. La transformée de Radon en deux dimensions :
cas de la géométrie parallèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.2.1. Définition, notion de sinogramme . . . . . . . . . . . . . . . . . . . 55
2.2.2. Le théorème coupe-projection
et condition de suffisance des données . . . . . . . . . . . . . . . . . . . . 56
2.2.3. Inversion par rétroprojection des projections filtrées . . . . . . . . 57
2.2.4. Choix du filtre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.2.5. Le principe distance-fréquence . . . . . . . . . . . . . . . . . . . . . 60
2.3. La transformée de Radon en deux dimensions :
cas de la géométrie éventail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.3.1. Définition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.3.2. Réarrangement en données parallèles . . . . . . . . . . . . . . . . . 62
2.3.3. Reconstruction par rétroprojection des projections filtrées. . . . . 63
2.3.4. Cas des acquisitions rapides. . . . . . . . . . . . . . . . . . . . . . . 64
2.3.5. Cas de la tomographie hélicoïdale 3D
en géométrie éventail associée à un détecteur unilingue . . . . . . . . . . 64
2.4. La transformée rayons X en trois dimensions :
cas de la géométrie parallèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.4.1. Définition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.4.2. Le théorème coupe-projection
et la condition de suffisance des données . . . . . . . . . . . . . . . . . . . 68
2.4.3. Inversion par rétroprojection des projections filtrées . . . . . . . . 69
2.5. La transformée de Radon 3D . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.5.1. Définition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.5.2. Théorème coupe-projection . . . . . . . . . . . . . . . . . . . . . . . 70
2.5.3. Inversion par rétroprojection des projections filtrées . . . . . . . . 71
2.6. La tomographie d’émission à positons 3D . . . . . . . . . . . . . . . . . 72
2.6.1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.6.2. Reconstruction approximative
par réarrangement en coupes transverses . . . . . . . . . . . . . . . . . . . 72
2.6.3. Reconstruction directe par rétroprojection
des projections filtrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.7. La tomographie par rayons X en géométrie conique. . . . . . . . . . . . 76
2.7.1. Définition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.7.2. Lien avec la dérivée de la transformée de Radon 3D
et condition de suffisance des données . . . . . . . . . . . . . . . . . . . . 76
2.7.3. Inversion approximative par réarrangement
en coupes transverses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
Table des matières 11

2.7.4. Inversion approximative par rétroprojection


des projections filtrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2.7.5. Inversion par réarrangement dans l’espace de Radon . . . . . . . . 82
2.8. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

Chapitre 3. Conditions d’échantillonnage en tomographie . . . . . . . . . . 87


Laurent DESBAT et Catherine MENNESSIER
3.1. Echantillonnage des fonctions deℜn . . . . . . . . . . . . . . . . . . . . . 87
3.1.1. Fonctions périodiques, fonctions intégrales,
transformée de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.1.2. Formule de Poisson
et échantillonnage des fonctions limitées en fréquence. . . . . . . . . . . 89
3.1.3. Echantillonnage des fonctions
essentiellement limitées en fréquence . . . . . . . . . . . . . . . . . . . . . 90
3.1.4. Echantillonnage efficace . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.1.5. Généralisation aux fonctions périodiques
en leurs premières variables. . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.2. Echantillonnage de la transformée de Radon en 2D . . . . . . . . . . . . 95
3.2.1. Support essentiel de la transformée de Radon en 2D . . . . . . . . 95
3.2.2. Conditions d’échantillonnage et échantillonnage efficace . . . . . 97
3.2.3. Généralisations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3.3. Echantillonnage en tomographie 3D . . . . . . . . . . . . . . . . . . . . . 103
3.3.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.3.2. Echantillonnage de la transformée en rayons X . . . . . . . . . . . 104
3.3.3. Résultats numériques
sur l’échantillonnage de la transformée conique. . . . . . . . . . . . . . . 108
3.4. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

Chapitre 4. Les méthodes discrètes . . . . . . . . . . . . . . . . . . . . . . . . . 111


Habib BENALI et Françoise PEYRIN
4.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.2. Le modèle discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.3. Méthodes algébriques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.3.1. Cas de surdétermination dans les données . . . . . . . . . . . . . . 114
4.3.2. Cas de sous-détermination dans les données . . . . . . . . . . . . . 118
4.4. Méthodes statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.4.1. Cas de surdétermination dans les données . . . . . . . . . . . . . . 121
4.4.2. Algorithmes de reconstruction du MAP. . . . . . . . . . . . . . . . 127
4.4.3. Cas de sous-détermination dans les données . . . . . . . . . . . . . 130
4.5. Exemple de reconstruction tomographique . . . . . . . . . . . . . . . . . 132
4.6. Discussion et conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.7. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
12 La tomographie

DEUXIÈME PARTIE. LA MICROTOMOGRAPHIE . . . . . . . . . . . . . . . . . . . 139

Chapitre 5. La tomographie en microscopie. . . . . . . . . . . . . . . . . . . . 141


Yves USSON et Catherine SOUCHIER
5.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
5.2. Tomographie projective en microscopie électronique . . . . . . . . . . . 142
5.3. Tomographie par sectionnement optique . . . . . . . . . . . . . . . . . . 143
5.4. Traitement, reconstruction et analyse 3D . . . . . . . . . . . . . . . . . . 151
5.4.1. Fluorogrammes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
5.4.2. Restauration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
5.4.3. Microscopie par absorption multiphonique . . . . . . . . . . . . . . 157
5.5. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160

Chapitre 6. La tomographie optique des milieux diffusants . . . . . . . . . . 163


Christian DEPEURSINGE
6.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
6.2. Interaction lumière-matière . . . . . . . . . . . . . . . . . . . . . . . . . . 164
6.2.1. Absorption . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
6.2.2. Fluorescence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
6.2.3. Diffusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
6.3. Propagation des photons dans les milieux diffusants . . . . . . . . . . . 173
6.3.1. Propagation cohérente . . . . . . . . . . . . . . . . . . . . . . . . . . 173
6.3.2. Propagation mixte : cohérente/incohérente . . . . . . . . . . . . . . 179
6.3.3. Propagation incohérente . . . . . . . . . . . . . . . . . . . . . . . . . 180
6.3.4. Théorie du transfert radiatif . . . . . . . . . . . . . . . . . . . . . . . 181
6.4. Méthodes de tomographie optique . . . . . . . . . . . . . . . . . . . . . . 187
6.5. La tomographie optique en milieu fortement diffusant . . . . . . . . . . 204
6.5.1. Modèle direct, modèle inverse . . . . . . . . . . . . . . . . . . . . . 205
6.5.2. Modèle direct . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
6.5.3. Modèle inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
6.5.4. Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
6.5.5. Méthode perturbative. . . . . . . . . . . . . . . . . . . . . . . . . . . 210
6.5.6. Reconstruction par projection inverse . . . . . . . . . . . . . . . . . 210
6.5.7. Le domaine temporel . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
6.5.8. Le domaine fréquentiel. . . . . . . . . . . . . . . . . . . . . . . . . . 212
6.6. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213

Chapitre 7. La tomographie synchrotron . . . . . . . . . . . . . . . . . . . . . 219


Anne-Marie CHARVET et Françoise PEYRIN
7.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
7.2. Le rayonnement synchrotron . . . . . . . . . . . . . . . . . . . . . . . . . 220
7.2.1. Principe physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
7.2.2. Avantages du rayonnement synchrotron pour la tomographie. . . 223
Table des matières 13

7.3. Tomographie quantitative . . . . . . . . . . . . . . . . . . . . . . . . . . . 224


7.3.1. Etat de l’art. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
7.3.2. Système ESRF et applications . . . . . . . . . . . . . . . . . . . . . 226
7.4. Microtomographie par rayonnement synchrotron . . . . . . . . . . . . . 229
7.4.1. Etat de l’art. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
7.4.2. Système ESRF et applications . . . . . . . . . . . . . . . . . . . . . 230
7.5. Extensions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
7.5.1. Tomographie par contraste de phase et holotomographie . . . . . 232
7.5.2. Tomographie par réfraction, diffraction,
diffusion et fluorescence. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
7.6. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
7.7. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234

TROISIÈME PARTIE. LA TOMOGRAPHIE POUR LE CONTRÔLE INDUSTRIEL . . 239

Chapitre 8. La tomographie par rayons X en contrôle non destructif. . . . 241


Gilles PEIX, Philippe DUVAUCHELLE, Jean-Michel LETANG
8.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
8.2. Physique de la mesure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
8.3. Les sources de rayonnement . . . . . . . . . . . . . . . . . . . . . . . . . . 243
8.4. La détection. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
8.5. Algorithmes de reconstruction et artefacts . . . . . . . . . . . . . . . . . 247
8.5.1. Méthodes analytiques . . . . . . . . . . . . . . . . . . . . . . . . . . 247
8.5.2. Méthodes algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . 247
8.5.3. Artefacts de reconstruction . . . . . . . . . . . . . . . . . . . . . . . 247
8.6. Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
8.6.1. Tomodensimétrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
8.6.2. Expertise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
8.6.3. Tomographie à haute énergie . . . . . . . . . . . . . . . . . . . . . . 250
8.6.4. Modèles CAO en tomographie : rétroconception et simulation . . 251
8.6.5. Microtomographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
8.6.6. Surveillance de processus (process tomography) . . . . . . . . . . 254
8.6.7. Tomographie biénergie . . . . . . . . . . . . . . . . . . . . . . . . . 255
8.6.8. La tomosynthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
8.6.9. Tomographie par diffusion . . . . . . . . . . . . . . . . . . . . . . . 257
8.7. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
8.8. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260

Chapitre 9. La tomographie d’émission appliquée à la visualisation


d’écoulements industriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
Samuel LEGOUPIL et Ghislain PASCAL
9.1. Application industrielle de la tomographie d’émission . . . . . . . . . . 263
9.1.1. Contexte et objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
14 La tomographie

9.1.2. Les techniques non nucléaires . . . . . . . . . . . . . . . . . . . . . 264


9.1.3. Les techniques nucléaires . . . . . . . . . . . . . . . . . . . . . . . . 265
9.2. Exemples d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
9.2.1. Ecoulement bidimensionnel . . . . . . . . . . . . . . . . . . . . . . . 267
9.2.2. Ecoulement dans une canalisation – analyse d’une jonction . . . . 267
9.3. Modèle physique d’acquisition des données . . . . . . . . . . . . . . . . 271
9.3.1. Transport des photons . . . . . . . . . . . . . . . . . . . . . . . . . . 271
9.3.2. Principe de la simulation de Monte-Carlo . . . . . . . . . . . . . . 272
9.3.3. Calcul des matrices de projection . . . . . . . . . . . . . . . . . . . 273
9.4. Définition et caractérisation d’un système. . . . . . . . . . . . . . . . . . 276
9.4.1. Paramètres caractéristiques du système . . . . . . . . . . . . . . . . 276
9.4.2. Caractérisation des images reconstruites par l’algorithme EM . . 277
9.5. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
9.6. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279

Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
Avant-propos

La lumière visible étant réfléchie par la plupart des corps qui nous entourent,
nous ne pouvons appréhender notre environnement que par les propriétés de la
surface des objets qui le composent. Pour dépasser cette limite et explorer l’intimité
de la matière, nous devons développer une instrumentation dédiée utilisant des
rayonnements pénétrants comme les rayonnements X ou gamma, ou certaines ondes
électromagnétiques ou acoustiques.

La tomographie correspond à l’aboutissement de cette démarche pour sonder la


matière. Par combinaison d’un ensemble de mesures et grâce à des calculs de
reconstruction, elle fournit une cartographie du paramètre caractéristique du
rayonnement étudié, selon un ou plusieurs plans de coupe. Elle permet ainsi de voir
sur écran l’intérieur des corps, alors qu’auparavant on y avait accès soit par
l’imagination, en interprétant les mesures, soit par l’observation, mais en découpant
matériellement les objets. Dans le cas de l’imagerie médicale, par exemple, cette
observation directe nécessite une intervention chirurgicale. Cette invention
formidable nous permet ainsi de découvrir l’intérieur de l’univers et des corps qui
nous entourent et leur organisation dans l’espace et dans le temps, sans les détruire.
La tomographie constitue ainsi un instrument privilégié pour analyser et caractériser
la matière, qu’elle soit inerte ou vivante, statique ou dynamique, de l’échelle
microscopique à l’échelle astronomique. En donnant accès à la structure et à la
forme des composants, elle rend possible l’appréhension de la complexité des objets
à étudier.

La tomographie assistée par ordinateur est une technique d’acquisition d’images


numériques. Elle génère un codage sur ordinateur d’une représentation numérique
d’une région d’intérêt à travers un patient, une structure, un objet. La tomographie
fournit ainsi une représentation virtuelle de la réalité, dans l’intimité de sa
16 La tomographie

composition. Ce codage numérique va ensuite faciliter l’exploitation, les échanges


et le stockage de l’information associée. Il devient ainsi possible par traitement de
détecter la présence de défauts, d’identifier les structures internes et d’étudier leur
forme et leur position, de quantifier les variations de densité, de modéliser les
composants internes, les corps ou les organes, de guider les instruments
d’intervention. L’utilisateur pourra alors bénéficier de l’assistance des logiciels de
traitement, d’analyse et de visualisation des images numériques.

Un système d’imagerie tomographique rassemble plusieurs composants


technologiques. Son développement requiert la participation des utilisateurs finaux –
comme les médecins, les physiciens ou les biologistes – pour spécifier les besoins,
des ingénieurs et chercheurs pour mettre au point les nouvelles techniques et, enfin,
des équipes industrielles pour développer, produire et commercialiser ces systèmes.
Les écoles d’ingénieurs et les universités scientifiques ou médicales forment ces
différents acteurs.

A travers deux ouvrages, La tomographie et La tomographie médicale, nous


souhaitons apporter notre aide, d’une part aux étudiants intéressés par la
tomographie et, d’autre part aux différents acteurs intervenant comme concepteurs,
développeurs ou utilisateurs de cette technique. Nous nous sommes d’abord attachés
à expliquer les différents fondements et principes qui interviennent dans la
formation de cette image tomographique et à illustrer ses finalités. Comme c’est le
thème du traité IC2, nous avons mis l’accent sur le traitement de l’information et
nous avons moins développé la description des composants des systèmes
d’acquisition tels que les sources de rayonnement, les détecteurs, les pièces
mécaniques. Le traitement de l’information en tomographie se trouve au carrefour
entre la physique pour modéliser les systèmes d’acquisition, les mathématiques pour
résoudre les équations de mesure et l’informatique pour mettre en œuvre
efficacement ces calculs. L’analyse, la visualisation, la communication de ces
images sont abordées dans d’autres ouvrages du traité IC2.

Pour tous les chapitres consacrés aux applications des systèmes tomographiques,
nous nous sommes attachés à décrire les principes physiques, physiologiques et
technologiques nécessaires à l’acquisition des mesures, à la création des contrastes
et à la répartition des directions d’acquisition. Ces stratégies d’acquisition
conduisent au problème direct décrivant la relation entre l’image recherchée et les
mesures réalisées. Les algorithmes de reconstruction, qui mettent en œuvre le
problème inverse, sont seulement évoqués, en faisant référence à la première partie
de La tomographie pour les développements mathématiques. En revanche, les
problèmes spécifiques à chaque modalité comme les pré- ou post-traitements pour
Avant-propos 17

corriger les effets physiques parasites sont abordés de façon plus détaillée. Plusieurs
chapitres contiennent enfin des sections décrivant une ou plusieurs applications
typiques de la modalité d’imagerie traitée.

Ces ouvrages sont une œuvre collective et je tiens à remercier chaleureusement


chacun des auteurs pour leur participation. L’image tomographique constitue le
« cœur » de notre métier et de nos recherches. Chacun s’est attaché à initier le
lecteur pour qu’il comprenne la genèse de cette image et l’information qu’il peut en
tirer. En rassemblant des ingénieurs, des physiciens, des mathématiciens et des
médecins, j’ai souhaité constituer une équipe de rédaction multidisciplinaire pour
permettre au lecteur de trouver les explications correspondant à son propre domaine
d’intérêt.

Pour l’élaboration de ces deux ouvrages, nous avons rassemblé dans le premier
tome (La tomographie) les fondements mathématiques associés à la reconstruction
d’image et les applications liées à l’imagerie microscopique et à l’imagerie
industrielle. Le deuxième tome (La tomographie médicale) est dédié à la
tomographie médicale en séparant l’imagerie morphologique et l’imagerie
fonctionnelle.

Le premier tome commence par une introduction à la tomographie en dressant


une synthèse du domaine. Ce chapitre décrit la grande diversité des systèmes
tomographiques à travers la gamme des contrastes accessibles, le choix des
stratégies d’acquisition pour localiser l’information dans l’espace et dans le temps,
les différentes approches pour définir l’algorithme de reconstruction, la variété des
domaines d’application.

Comme ce traité IC2 porte sur le traitement de l’information, nous avons


rassemblé dans une première partie les fondements mathématiques servant à
développer les algorithmes de reconstruction d’image. Nous abordons
successivement les approches analytiques, l’échantillonnage des mesures en
tomographie et les approches discrètes.

Prétendre couvrir les applications de la tomographie de manière exhaustive en


un nombre limité de pages n’était pas réaliste. Nous avons plutôt sélectionné un
ensemble de contributions illustrant le domaine par l’exemple, à partir d’experts
principalement francophones prenant activement part aux recherches.

Explorer la matière conduit à rechercher des structures de plus en plus fines, à


améliorer la résolution spatiale, à réduire l’échelle des images. On quitte alors les
dimensions du corps humain pour s’intéresser à des échantillons, des cellules, des
18 La tomographie

protéines, voire des gènes. C’est le domaine de la microtomographie. Certains


instruments consistent en une miniaturisation des systèmes tomographiques utilisés
pour l’imagerie médicale, tels que les microtomographes à rayons X, les
microtomographes RMN, les microtomographes d’émission monophotonique, les
microtomographes d’émission à positons. Nous nous sommes plutôt attachés à
décrire les instruments spécifiques. Nous proposons dans la deuxième partie du
présent ouvrage un chapitre consacré à la tomographie en microscopie, développant
plus en détail la microscopie confocale à balayage. Un deuxième chapitre traite de
l’imagerie optique en milieu diffusant. Un dernier chapitre s’intéresse à la
tomographie sur synchrotron, cette source de rayons X intense et cohérente
spatialement.

La troisième partie de ce volume est consacrée aux applications de la


tomographie au contrôle industriel. Celles-ci doivent répondre aux exigences
croissantes en matière de contrôle de qualité des produits manufacturés, de contrôle
de sécurité, d’aide à la conception. La tomographie assiste ainsi les ingénieurs pour
concevoir, contrôler, maintenir. Par analogie avec l’imagerie médicale, nous avons
sélectionné un chapitre sur la tomographie par rayons X principalement dédiée à
l’imagerie des contenants et que l’on peut associer à l’imagerie médicale
morphologique. Ce chapitre propose notamment plusieurs exemples pour illustrer
les différentes utilisations. Un deuxième chapitre porte sur la tomographie
d’émission appliquée à la visualisation d’écoulements industriels, c’est-à-dire
l’imagerie des contenus, comme l’est l’imagerie médicale fonctionnelle.

L’imagerie médicale constituant le domaine où les systèmes tomographiques


sont les plus développés, nous proposons dans le deuxième tome deux parties
dédiées aux modalités applicables à l’homme, soit à des fins cliniques, soit pour des
études cognitives. La tomographie assiste les médecins pour diagnostiquer,
planifier, intervenir.

La première partie de La tomographie médicale est consacrée à l’imagerie


morphologique en considérant successivement la tomographie à rayons X, la
radiologie tridimensionnelle et la tomographie par résonance magnétique nucléaire.
L’imagerie ultrasonore étant plutôt destinée à observer la surface des organes
internes, cette modalité n’est pas abordée dans cet ouvrage. Un autre ouvrage du
traité est consacré à l’imagerie de profondeur auquel se rattache plus naturellement
l’échographie. La seconde partie du tome 2 développe l’imagerie fonctionnelle sous
ses différentes formes, à savoir la tomographie d’émission monophotonique, la
tomographie d’émission de positons, la tomographie fonctionnelle cérébrale par
Avant-propos 19

résonance magnétique nucléaire, la tomographie de l’activité électrique en magnéto-


encéphalographie et en électro-encéphalographie.

En permettant de voir l’invisible, de visiter l’intimité de la matière, les systèmes


tomographiques présentent un aspect magique, mystérieux. Ils sont des outils
quotidiens qui offrent aux médecins, aux chercheurs, aux ingénieurs, la possibilité
d’élucider des questions fondamentales sur les organismes ou sur les objets qu’ils
doivent étudier. A travers cet ouvrage, nous invitons le lecteur à comprendre la
magie de ces instruments et ainsi à découvrir l’univers passionnant de la
tomographie.

Pierre GRANGEAT
Notations générales

ℜ ensemble des réels


ℜn ensemble des vecteurs réels de dimension n
+
ℜ ensemble des réels positifs ou nuls
1 = ensemble des entiers naturels et relatifs
Ω2 disque unité de ℜ 2
Sn-1 sphère unité en dimension n
Ω sous-ensemble de la sphère unité S2 ; bande équatoriale
{ }
θ ⊥ = x ∈ ℜ n , < x,θ >= 0 sous-espace orthogonal à θ pour θ ∈ Sn-1
Z = S n −1 × ℜ cylindre unitaire de ℜ n +1
T = {(θ, x), θ ∈ Sn-1, x ∈ θ ⊥}.
i racine de (– 1)
x* conjugué de x
ν fréquence
Pe , h période d’échantillonnage
νc fréquence de coupure
ln logarithme népérien
log logarithme base 10
e fonction exponentielle

Coordonnées

S point décrivant la source de rayons X


M point courant de l’espace image
A point courant du détecteur
22 La tomographie

r = (x, y, z ) coordonnées cartésiennes dans l’espace image


ψ ,ϕ coordonnées angulaires azimutales des projections en
géométrie éventail ou conique et en géométrie parallèle
θ coordonnée angulaire de colatitude des projections
obliques
p, q coordonnées cartésiennes sur le détecteur
D(S, A ) droite passant par les points S et A
D (ϕ, p ) droite de coordonnées normales polaires (ϕ, p )
D(n, s), D(a, S) droite de vecteur unitaire n passant par le point repéré par
son vecteur s à partir de l’origine, droite de vecteur
unitaire a passant par le point S

Signaux spécifiques

χ A (x) indicatrice de l’ensemble A : χ A (x) = 1 si x ∈ A, 0 sinon


δ(x ) distribution de Dirac
signe( ) fonction signe
sin (x )
sinc(x ) = sinus cardinal
x
Jn fonction de Bessel d’ordre n

Les transformées

f fonction décrivant l’image à reconstruire


Ff transformée de Fourier de la fonction f
Fp Rf , Fρ Rf transformées de Fourier de Rf par rapport aux variables p et ρ
F −1m transformée de Fourier inverse de la fonction m
Hf transformée de Hilbert de la fonction f
Xf transformée rayons X de la fonction f, ou transformée
intégrale ligne
Yf transformée rayons X pondérée de la fonction f,
Hc, HΩ filtre 2D de la transformation rayon X 3D, filtre de Colsher
FRf transformée de Fourier 2D par rapport aux variables ψ et
p de Rf
FXf transformée de Fourier 2D de Xf par rapport à s
D droite de l’espace
P plan de l’espace
PX plan de détection en géométrie conique
Notations générales 23

X p f , X f f , Xc f transformée rayons X en géométrie parallèle, éventail et


conique
Xµ f transformée intégrale ligne atténuée de la fonction f
associée à la carte d’atténuation µ
Rf transformée de Radon de la fonction f

f (k) (x) = Dk f(x) = ∂ ... ∂ f ( x) ,∀k ∈ 1ndérivée partielle


k1 kn

∂x1 1 ...∂xn
k k n

Dρ Rf , Dρ2 Rf dérivées première et seconde de la transformée de Radon


par rapport à la variable ρ
Bm opérateur de rétroprojection appliqué aux mesures m
w fenêtre d’apodisation
HDm, HDWm mesures m filtrées par le filtre rampe soit non apodisé,
soit apodisé par l’opérateur W
h, h HD , h HDW filtre rampe, filtre rampe non apodisé, filtre rampe
apodisé par l’opérateur W
hp, hf filtre rampe en géométrie parallèle et en géométrie
éventail

Les ensembles fonctionnels

( )
L1 ℜn ensemble des fonctions intégrables
L (ℜ )
2 n
ensemble des fonctions de carré intégrable
L ([0, a ] ), (a > 0)
1
p
n
ensemble des fonctions périodiques intégrables sur
[0, a]n .
0 (Ω )
C∞ espace des fonctions infiniment différentiables à support
contenu dans Ω
S(ℜ ) (ou S)
n
espace de Schwartz
S′(ℜ ) ou S′
n
espace des distributions tempérées
ε ′(ℜ ) ou ε ′
n
espace des distributions à support compact

Caractéristiques d’une variable, d’un vecteur ou d’un signal aléatoire

X variable aléatoire
E( ) espérance mathématique
σ écart type d’une variable aléatoire
24 La tomographie

var(x ) variance de x
ρ coefficient de corrélation
mx moyenne du vecteur x
Σ matrice de variance-covariance d’un vecteur x
e bruit sur les mesures m

Probabilités, flou

d.d.p. densité de probabilité


Pr ( ) probabilité pour des variables discrètes
p( f ), p(f ) loi de probabilité pour une variable ou un vecteur prenant
des valeurs continues
p(m / f ) loi de probabilité conditionnelle

Statistiques

ϕ, Φ , ΦM fonction potentiel des champs de Markov


µ loi a priori dans l’approche MEM
Fµ critère déterminant associé à la loi µ dans l’approche
MEM

Opérations, opérateurs

f∗h produit de convolution de la fonction f par le noyau h


g∗s h (θ, s ) produit de convolution de la fonction g par le noyau h par
rapport à la variable s
x∧y produit vectoriel des vecteurs x et y
< x, y > produit scalaire des vecteurs x et y
x norme du vecteur x
x valeur absolue de x
Sup (f) support d’une fonction f

Opérations sur les matrices

R matrice
rij = [R ]ij terme courant d’une matrice
Notations générales 25

ri. , r.j i-ième ligne et j-ième colonne de la matrice R


f matrice vecteur colonne représentant l’image ou les
mesures
fk terme courant d’indice k d’un vecteur colonne
représentant un échantillon (pixel, dexel...)
dim(f ) dimension du vecteur f
f (n ) n-ième itération lors du calcul du vecteur f
−1
% inverse d’une matrice
det B déterminant de B
B+ pseudo-inverse
T
x transposé de x
, matrice identité

Optimisation

J critère à minimiser
grad, ∇ opérateur gradient
∇xJ gradient de J par rapport à x
∇2 opérateur laplacien
div, < ∇,. > opérateur divergence

Notations électromagnétiques et optiques

ω pulsation
k (x , y , z ) vecteur d’onde
(kx, ky, kz) fréquences spatiales du vecteur d’onde dans l’espace
réciproque
r(x, y , z ), R (x, y , z ) vecteurs spatiaux pour désigner le point de coordonnées
(x, y, z )
i (< k, r > −ωt )
e équation d’une onde plane
E, E champ électrique vectoriel, champ électrique scalaire
V potentiel électrique
Q = (Qx, Qy, Qz) dipôle de courant équivalent
H matrice de gain
(
Γ r1 − r2 , t 1 − t2 ) fonction d’intercorrélation des champs E(r1 ) , E(r2 )
G r (r1 − r2 , t1 − t2 ) fonction de Green
26 La tomographie

Wi (r, t ) distribution de Wigner


B, B champ magnétique vectoriel, champ magnétique scalaire
µ = µ r + iµ i permittivité
µ0 permittivité du vide
ε = ε r + iε i constante diélectrique
ε0 constante diélectrique du vide
j, j densité de courant vectorielle, densité de courant scalaire
[σ ] tenseur de conductivité
M vecteur de données magnétiques ou électriques
c vitesse de la lumière
= constante de Planck
λ longueur d’onde
NA ouverture numérique d’un système optique
n indice de réfraction
µa coefficient d’absorption
µs coefficient de diffusion
µ s′ coefficient réduit de diffusion
U(r, t ) onde de densité de photons scalaire
D coefficient de diffusion des ondes de densité de photons
Mz composante longitudinale de l’aimantation
M⊥ composante transversale de l’aimantation
ρ(x, y, z) densité d’aimantation nucléaire à l’emplacement (x, y, z)
Φ phase du signal RMN
T1 temps de relaxation longitudinale
T2 temps de relaxation transverse homogène
T2∗ temps de relaxation transversale inhomogène
Φ phase
Dl coefficient de diffusion libre des molécules d’eau
Θb angle de basculement
d distance moyenne parcourue
Da coefficient de diffusion apparent
TE temps d’écho
TR temps de répétition
TI temps d’inversion
(
G = Gx , G y , Gz ) gradient avec ses composantes selon x, y, z
(x, y, z ) repère spatial
Notations générales 27

(x′, y′, z′) repère tournant


µm moment magnétique
J moment magnétique
γ rapport giromagnétique
B0 champ magnétique statique
ω0 pulsation de Larmor associée au champ B0
B1 champ magnétique tournant
ω1 pulsation de Larmor associée au champ B1
dv diamètre des vaisseaux
χm susceptibilité magnétique
M aimantation
kB constante de Boltzmann
Θa température absolue

Notations rayonnement ionisant

Ep énergie du photon
N p0 , N p nombre de photons émis et transmis, ou nombre de paires
de photons en tomographie positon
ϕ p0 , ϕ p flux de photons émis et transmis
µ, µ T coefficient linéique total d’atténuation
µE coefficient linéique total d’atténuation à l’énergie E
µC coefficient linéique d’atténuation par effet Compton
µ PE coefficient linéique d’atténuation par effet photo-électrique
µR coefficient linéique d’atténuation par effet Rayleigh
µ CP coefficient linéique d’atténuation par création de paires
µ AE coefficient linéique d’absorption en énergie
α angle de diffusion
m0 masse de l’électron au repos
ρv masse volumique
ρZ densité électronique
Z numéro atomique
Z eff numéro atomique effectif
gg grossissement géométrique
dX diamètre ou dimension du foyer de la source X
28 La tomographie

Tr période d’un radio-élément


Ar activité d’un radio-élément
Da dose absorbée
De équivalent de dose
seuil K seuils d’absorption dus aux transitions atomiques vers les
premiers niveaux d’énergie vides
εc énergie critique du spectre du rayonnement
électromagnétique sur un synchroton
K paramètre de déflexion des structures électromagnétiques
sur un synchroton

Sigles et abréviations

3DRP 3D reprojection algorithm


ADN Acide DésoxyriboNucléique
APD Avalanche Photo Diode
AR-3D Angiographie rotationnelle 3D
ART Algebraic Reconstruction Technic
BaF2 Fluorure de baryum
BGO Germanate de bismuth
BOLD Blood Oxygenation Level dependent
CAD Convertisseur Analogique Digital
CAO Conception Assistée par Ordinateur
CCD Coupled Charged Diodes
CDET Coïncidence Detection Emission Tomography
CdTe Tellure de Cadmium
CLSM Confocal Laser Scanning Microscopy
CND Contrôle Non Destructif
CT Tomographie X assistée par ordinateur, X-ray Computed
Tomography
CV Coefficient de variation
CZT Tellurure de Cadmium Zinc
DAPI
dexel Eléments d’image fournis par un détecteur, detector
element
DIC
DQE Detection Quantum Efficiency
DTS Distribution des Temps de Séjour
ECG Electrocardiogramme
EEG Electro-encéphalographie
EM Maximisation de l’espérance mathématique, Expectation
Maximization
Notations générales 29

EPI Echo planar imaging


ESRF European Synchrotron Radiation Facility
FBP Rétroprojection des projections filtrées, Filtered
BackProjection
FDG Fluoro-dexoxyglucose
FISH
FITC
FLASH Fluorescein arsenical helix binder
FORE Réarrangement de la Transformée de Fourier des
sinogrammes ; Fourier Rebinning
FRELON Fast REad out LOw Noise
FTM Fonction de transfert de modulation
FWHM Full width at half maximum
GC Gradient Conjugué
Gd2O2S:Tb Oxysulfure de gadolinium dopé terbium
GE Echo de gradient
GeHP Germanium de haute pureté
GFP Green Fluorescent Protein
ICM Iterated Conditional Mode
IIR Tube Intensificateur d’Image Radiologique
IP
IR Infra Rouge
IRM Imagerie par Résonance Magnétique
IRMf Imagerie par Résonance Magnétique fonctionnelle
L-DOPA Précurseur de la dopamine
LOR Ligne de coïncidence, Line Of Response
LORETA Low resolution electrical tomography
LSO Orthosilicate de lutétium
LTDH Largeur totale au dixième de la hauteur
LTMH Largeur totale à mi-hauteur
LUT Look Up Table
MAP Maximum a posteriori
MART Multiplicative Algebraic Reconstruction Technique
MAV Malformation artério-veineuse
MCMC Markov Chain Monte Carlo
MEG Magnéto-encéphalographie
MEM Maximum d’Entropie sur la Moyenne
MET Microscopie électronique en transmission
MIP Maximum Intensity Projection
MPVR Multi-Planar Volume Reformation
MV,ML Maximum de Vraissemblance, Maximum Likelihood
NA Ouverture Numérique, Numeric Aperture
NaI Iodure de Sodium
NEC Noise Equivalent Count rate
30 La tomographie

NEQ Noise Equivalent Quantum


OCT Optical Coherent Tomography
OS Sous-ensembles ordonnés, Ordered Subsets
OSL One-Step-Late
OTF Fonction de Transfert Optique, Optical Transfer Function
PET Tomographie d’Emission à Positons, Positron Emission
Tomography
pixel terme générique pour désigner les éléments d’une image
2D ou 3D, picture element
PM Photomultiplicateur
PMMA Polyméthyle-méthacrylate
POCS Projection sur des ensembles convexes, Projection onto
convex sets
PS Pouvoir séparateur
PSF Fonction d’étalement de point, point spread function
RF radiofréquence
RGB Rouge Vert Bleu, Red Green Blue
RMN Résonance Magnétique Nucléaire
RMS Root mean square
RSP Réponse à une Source Ponctuelle
SAR Radar à ouverture synthétique, Synthetic Aperture Radar
SI Système International (Unités du)
SIRT Simultaneous Iterative Reconstruction Technique
SE Echo de spin
SNR Rapport signal à bruit, signal to noise ratio
SPM Statistical Parametric Mapping
SPECT Tomographie d’Emission MonoPhotonique, Single
Photon Emission Computed Tomography
SQUID Superconducting quantum interference device
SSP Section Sensitivity Profile
STEM Scanning Transmission Electron Microscopy
TDM Tomodensitométrie
TFT Thin film transistor
TOF Temps de vol, Time Of Flight
UV Ultra Violet
voxel Terme spécifique pour désigner les éléments d’une image
3D, volume element
X-FEL X-ray Free Electron Laser
Chapitre 1

Introduction à la tomographie

1.1. Introduction

En explorant la matière avec des ondes ou des rayonnements et en calculant des


coupes virtuelles, les systèmes tomographiques sont des systèmes d’information par
l’image destinés à observer la composition intime et la structure des objets
d’analyse. La tomographie regroupe ainsi l’ensemble des techniques d’imagerie
permettant de réaliser la cartographie d’un ou plusieurs paramètres physiques, selon
un ou plusieurs plans de coupe. Nous nous intéressons principalement à la
tomographie calculée, ou assistée par ordinateur, l’image finale de la répartition
spatiale du paramètre étant calculée à partir des mesures des rayonnements émis,
transmis ou réfléchis par la matière. Le traitement de l’information constitue ainsi
une composante essentielle pour fabriquer ces images, en association avec les
systèmes électroniques de mesure. La tomographie complète la gamme des
instruments d’imagerie dédiés à l’observation, tels que les radars, les sonars, les
lidars, les échographes, les sismographes. Dans leur utilisation courante, ces
instruments cherchent essentiellement à détecter ou localiser un objet à identifier,
comme l’écho d’un avion sur un écran radar ou encore l’altimétrie de la surface de
la terre ou d’une couche géologique. Ces techniques relèvent plus de l’imagerie de
profondeur décrite dans un autre ouvrage Images de profondeur [GAL 02]. Au
contraire, les systèmes tomographiques calculent la valeur d’un paramètre physique
en tout point du quadrillage spatial servant à coder l’image. Une part importante des
systèmes d’imagerie tels que les systèmes photographiques, les camescopes, ou les
microscopes, sont des capteurs qui délivrent directement l’image observée. Dans les
techniques tomographiques, les capteurs acquièrent une mesure indirecte de l’image

Chapitre rédigé par Pierre GRANGEAT.


32 La tomographie

recherchée à l’aide du rayonnement utilisé pour sonder la matière. Ces mesures sont
décrites par les équations de transport du rayonnement dans la matière qui
fournissent ce que les mathématiciens appellent le problème direct, c’est-à-dire les
équations de mesure. Afin d’obtenir l’image finale, on applique des algorithmes de
calcul pour résoudre ces équations de mesure et ainsi reconstruire les coupes
virtuelles. La reconstruction réalise de cette manière le problème inverse [OFT 99].
La tomographie fournit donc indirectement, par calcul, les images désirées.

1.2. Observer des contrastes

Une large gamme de phénomènes physiques se prête à l’exploration de la


matière. Pour transporter l’information jusqu’au capteur, on utilise soit des ondes
électromagnétiques, soit des ondes acoustiques, soit des rayonnements photoniques.
Le choix du phénomène physique retenu et donc de l’instrument d’imagerie associé
dépend du contraste recherché. Celui-ci doit assurer une bonne discrimination entre
les différentes structures présentes dans la matière et le milieu environnant. Cette
différenciation est caractérisée par sa spécificité, c’est-à-dire par son pouvoir de
discriminer les structures normales, sans conséquence, de celles anormales, et par sa
sensibilité, c’est-à-dire sa capacité à mesurer la plus faible intensité possible pour les
structures anormales recherchées. Par exemple, en imagerie médicale, les foyers
tumoraux sont caractérisés par une hyperactivité métabolique se traduisant
notamment par une augmentation de la consommation de glucose. Un marqueur
radioactif tel que le fluoro-désoxyglucose (FDG) permet d’identifier cette élévation
du métabolisme. Mais il n’est pas parfaitement spécifique, car d’autres phénomènes
tels qu’une inflammation engendrent aussi une élévation locale de la consommation
de glucose. Le médecin doit donc interpréter la mesure physique en fonction
d’autres examens cliniques.

Quand cela est possible, il est préférable d’utiliser des rayonnements cohérents.
C’est le cas pour les ultrasons, les micro-ondes, le rayonnement laser, les ondes de
photons. On peut ainsi mesurer non seulement l’atténuation du rayonnement, mais
aussi son déphasage. Cette information de phase va servir à localiser en profondeur
l’information mesurée, la différence de temps de propagation se traduisant par un
déphasage. Chaque matériau est caractérisé par son coefficient d’atténuation et par
son indice de réfraction traduisant la vitesse de propagation de l’onde dans le
matériau. En tomographie de diffraction, on cherche principalement à reconstruire
les surfaces aux interfaces entre les matériaux d’indices différents. Cependant, dans
des matériaux de structure complexe, les interférences multiples rendent rapidement
l’information de phase inutilisable. De plus, les sources de rayonnement cohérent
sont souvent plus chères, comme pour les sources laser. Pour les rayons X,
actuellement, seuls sont observables des phénomènes de contraste de phase liés à la
cohérence spatiale des photons, sur des sources microfoyers ou sur synchrotron. Ce
Introduction à la tomographie 33

concept de cohérence spatiale traduit le fait que l’on observe un phénomène


d’interférence derrière deux fentes que si elles sont séparées par une distance
inférieure à la largeur de cohérence. Dans un tel phénomène, un photon n’interfère
qu’avec lui-même. Les sources X vraiment cohérentes telles que les X-FEL (X-ray
Free Electron Laser) n’en sont qu’à leurs balbutiements.

Dans le cas de rayonnement non cohérent comme en rayons γ, ou comme la


plupart des cas en rayons X, ou en imagerie optique avec des sources lumineuses
classiques, chaque matériau est principalement caractérisé par ses coefficients
d’atténuation et de diffusion. On distingue la diffusion élastique ou de Rayleigh, et
celle Compton résultant du choc inélastique entre un photon et un électron. En
imagerie X et γ, on cherche à s’affranchir du rayonnement diffusé pour ne conserver
que le rayonnement direct atténué. Ce dernier se propageant en ligne droite, on obtient
ainsi une très bonne résolution spatiale. Ces coefficients d’atténuation traduisent en
première approximation la densité des matériaux traversés. La tomographie de
diffusion est envisagée par exemple en imagerie infrarouge pour étudier le sang et son
degré d’oxygénation. Mais la diffusion engendrant de la lumière dans toutes les
directions, de tels systèmes sont limités en résolution spatiale.

Après l’interaction rayonnement-matière, considérons maintenant le principe de


génération du rayonnement. Nous distinguons les systèmes actifs, où la source de
rayonnement est commandée par un générateur externe activé au moment de la
mesure. L’exploration de la matière est réalisée par interrogation directe quand le
rayonnement incident généré et celui émergeant mesuré sont de même type. C’est le
cas par exemple en imagerie par rayonnement X, optique, micro-onde ou ultrason. Le
contraste étudié correspond alors aux paramètres de propagation des rayonnements.
Pour ces systèmes actifs à interrogation directe, on distingue les systèmes de mesure
par réflexion ou par rétrodiffusion, quand le rayonnement émergent est mesuré du
même côté que le générateur par rapport à l’objet et les systèmes de mesure par
transmission quand le rayonnement est mesuré du côté opposé. Le choix dépend du
type de rayonnement utilisé et des contraintes liées à l’encombrement des matériaux.
L’imagerie par résonance magnétique nucléaire (RMN) est aussi un système par
interrogation direct, puisque les rayonnements incident et émergeant sont des ondes
radiofréquence. Cependant, les signaux d’excitation et de lecture ont des variations
temporelles très différentes. Mais l’exploration peut aussi être réalisée par
interrogation indirecte quand le rayonnement incident généré et celui émergeant
mesuré sont différents. C’est le cas en imagerie par fluorescence où l’onde incidente
engendre une lumière de fluorescence à une longueur d’onde différente (voir chapitre
7 de [GRA 02]). Le contraste étudié correspond alors à la densité d’émetteurs.

Par opposition aux systèmes actifs, les passifs mesurent les sources de
rayonnement internes à la matière ou aux patients. C’est le cas en magnéto-
encéphalographie (MEG) ou en électro-encéphalographie (EEG) où l’on mesure les
34 La tomographie

dipôles de courant liés aux activités synaptiques. C’est aussi le cas en tomographie
d’émission où l’on mesure la densité des sources radio-isotopiques fixées dans les
tissus ou les matériaux. Le contraste étudié correspond ici aussi à la densité
d’émetteurs. Les facteurs tels que l’atténuation ou la diffusion des rayonnements
émis deviennent alors des causes d’erreur sur les mesures.

Sur ces différents systèmes, les facteurs de contraste peuvent être naturels ou
artificiels. Les contrastes artificiels correspondent à l’injection de produits de
contraste tels que les produits iodés en imagerie X, ou ceux à base de gadolinium en
RMN, ou les traceurs spécifiques dédiés aux systèmes passifs comme les traceurs
radio-isotopiques ou fluorescents.

Enfin, l’étude de la cinématique des facteurs de contraste fournit des


informations complémentaires comme les constantes de temps de fixation et de
redistribution des produits radioactifs. Par ailleurs, les études multispectrales
permettent de caractériser la vitesse d’écoulement des fluides par effet Doppler, ou
en imagerie à double énergie, de décomposer la matière sur une base de deux
matériaux de référence comme l’eau et l’os et de rehausser ainsi les contrastes.

Nous avons reporté sur le tableau 1.1 une liste des principales modalités d’imagerie
tomographique, en particulier celles rassemblées dans ces deux tomes consacrés à la
tomographie. Sur la première colonne, intitulée « contraste », nous avons noté le
paramètre physique visualisé par chaque modalité. Dans certains cas, comme par
exemple l’imagerie fonctionnelle, ce paramètre sert ensuite à calculer des
paramètres physiologiques ou biologiques via un modèle décrivant les interactions
du traceur dans l’organisme. Sur la deuxième colonne, nous proposons une
classification de ces systèmes en fonction de leur fidélité, en différenciant d’une part
les systèmes très fidèles notés +, pour lesquels la reproductibilité de la mesure
élémentaire peut atteindre le pourmille, permettant ainsi d’envisager une imagerie
quantitative, d’autre part les systèmes fidèles notés =, pour lesquels la
reproductibilité est de l’ordre du pourcent, et enfin les systèmes peu fidèles notés –,
pour lesquels la reproductibilité est de l’ordre de 10 % et dont l’usage correspond
essentiellement à une imagerie qualitative. Puis nous donnons, sur les colonnes 4 et
5, des ordres de grandeur typiques pour les résolutions spatiale et temporelle de ces
dispositifs. Vu la grande diversité des systèmes existants, il s’agit principalement de
distinguer les dispositifs très précis spatialement de ceux très résolus
temporellement, pour illustrer notre exposé de la section 1.3 suivante. Il faut aussi
noter que ces performances sont souvent antagonistes et dépendent donc des
paramètres adoptés pour configurer l’acquisition des mesures et la reconstruction
des images. Par exemple, l’augmentation des temps de pose améliore le rapport
signal à bruit et donc la fidélité au détriment de la résolution temporelle. De même,
l’introduction d’un lissage spatial améliore aussi le rapport signal à bruit, et donc la
fidélité, au détriment de la résolution spatiale. Enfin, un autre paramètre important est
Introduction à la tomographie 35

la sensibilité du système d’imagerie. Par exemple, les systèmes d’imagerie nucléaire


sont très sensibles et permettent de détecter des traces de radioélément. En revanche,
pour obtenir un bon rapport signal à bruit, il faudrait souvent attendre un temps très
long. De ce fait, la fidélité des mesures associées est souvent limitée. Quant à la
précision des systèmes, dans de nombreux cas, l’existence de phénomènes parasites
perturbe les mesures et rend difficile l’obtention d’une quantification absolue. On se
contente alors d’une quantification relative, en fonction de la fidélité des mesures.

Dans la plupart des cas, l’interaction rayonnement-matière est accompagnée


d’un dépôt d’énergie qui peut être associé à divers phénomènes, comme
l’augmentation locale de l’agitation thermique, le changement d’état, l’ionisation
des atomes, la rupture des liaisons chimiques. L’amélioration de la qualité des
images en termes de contraste ou de rapport signal à bruit conduit inéluctablement à
l’augmentation des doses déposées. En imagerie médicale, un compromis doit être
trouvé pour assurer une qualité d’images compatible avec les besoins des médecins
et des doses supportables par le patient. La dose d’énergie déposée pourra être
éliminée par retour à l’équilibre après arrêt du rayonnement, par dissipation
thermique ou par des mécanismes biologiques qui cherchent à réparer ou à
remplacer les constituants défectueux.

1.3. Localiser dans l’espace et dans le temps

Les systèmes tomographiques fournissent des images, c’est-à-dire un ensemble


d’échantillons de mesure répartis sur un quadrillage spatial. Quand ce quadrillage
est une grille bidimensionnelle associée à un plan de coupe, on parle d’imagerie
bidimensionnelle, chaque échantillon représentant un pixel. Quand la grille devient
tridimensionnelle associée à un volume d’intérêt, il s’agit alors d’imagerie
tridimensionnelle, chaque élément du volume étant appelé voxel. Quand
l’instrument de mesure fournit une seule image à un instant donné, le système
d’imagerie est statique. Par analogie encore, on peut se référer à la photographie qui
saisit une image instantanée. Si l’instrument acquiert une séquence d’images sur une
succession d’instants, le système d’imagerie est dynamique. Par analogie, on peut
considérer la cinématographie qui enregistre des séquences d’images sur des scènes
animées. Dans chacun de ces cas, l’information élémentaire associée à chaque
échantillon de l’image sera la valeur locale dans l’espace et le temps d’un paramètre
physique caractéristique du rayonnement étudié. Le quadrillage spatial sert de
support pour décrire une cartographie du paramètre physique. Le pas
d’échantillonnage de l’image est défini par rapport à la résolution spatiale
d’imagerie et son pouvoir à séparer deux mesures élémentaires. Le temps
d’acquisition, équivalent à celui de pose en photographie, définit la résolution
temporelle. Chaque modalité d’imagerie tomographique possède ses propres
caractéristiques en termes de résolutions spatiale et temporelle.
36 La tomographie

Modalité Contraste Fidélité Résolution Résolution


d’imagerie spatiale temporelle
tomographique
Tomographie X coefficient + axiale ≈ 0,5 mm 0,5 s à 5 s
médicale d’atténuation ; transaxiale ≈ 1 à par ensemble
densité de matière 5 mm de coupes
associées à une
rotation
Radiologie X coefficient = ≈ 0,25 mm 3à6s
tridimensionnelle d’atténuation ; par acquisition
densité de matière volumique
(demi-tour)
Tomographie amplitude de = ≈ 1 mm 0,1 à 10 s
RMN l’aimantation
transversale
Tomographie concentration de - 10 à 20 mm 600 à 3 600 s
d’émission traceur, paramètres par acquisition
monophotonique physiologiques ou
biologiques associés
Tomographie concentration de = 3 à 10 mm 300 à 600 s
d’émission à traceur, paramètres par acquisition
positons physiologiques ou
biologiques associés
Tomographie amplitude de = ≈ 1 mm 0,1 s
RMN l’aimantation
fonctionnelle transversale ;
concentration de
l’oxy-
désoxyhémoglobine
MEG densité de courant - quelques mm 10-3 s
EEG densité de courant - 10 à 30 mm 10-3 s
-6
Tomographie en coefficient - 10 mm quelques 100 s
microscopie d’atténuation en fonction de
électronique en la taille de
transmission l’image
Tomographie en concentration de - 2.0 10-4 mm quelques 100 s
microscopie fluorophore en fonction de
confocale à la taille de
balayage l’image
(CLSM)
Introduction à la tomographie 37

Modalité Contraste Fidélité Résolution Résolution


d’imagerie spatiale temporelle
tomographique
Tomographie indice de réfraction - 10-2 mm 10-1 s
optique cohérente
Tomographie coefficients - 10 mm quelques 100 s
optique non d’atténuation et de
cohérente diffusion
Tomographie coefficient + 10-3 à 800 à 3 600 s
synchrotron d’atténuation ; 10-2 mm par acquisition
densité de matière (demi-tour)
Tomographie X en coefficient + 10-2 à 102 mm 1 à 1 000 s
CND d’atténuation ; suivant par tour suivant
densité de matière dispositif dispositif
Tomographie concentration de - quelques 10 % 10-1 s
d’émission en traceur du diamètre de
visualisation l’objet
d’écoulements (quelques 10
industriels mm)
Tomographie impédance électrique - 3 à 10 % du 10-3 à 10-2 s
d’impédance (résistance, diamètre de
capacitance, l’objet (1 à
inductance) 100 mm)
Tomographie indice de réfraction - λ à λ/10 où λ 10-2 à 10 s
micro-onde est la longueur
d’onde (1 à
10 mm)
Tomographie indice de réfraction - ≈ λ (longueur 10-2 à 10-1 s
ultrasonore de ultrasonore, vitesse d’onde)
procédés de propagation ; (1 à 10 mm)
industriels coefficient
d’atténuation
+ : systèmes très fidèles, reproductibilité de la mesure élémentaire de l’ordre du pourmille, imagerie
quantitative.
= : systèmes fidèles, reproductibilité de la mesure élémentaire de l’ordre du pourcent.
- : systèmes peu fidèles, reproductibilité de la mesure élémentaire de l’ordre de 10 %, imagerie
qualitative.

Tableau 1.1. Tableau comparatif des principales modalités d’imagerie tomographique

Quand on souhaite explorer la matière sans la détruire, il n’est pas possible


d’accéder directement et localement à l’information recherchée. On va donc avoir
recours au rayonnement pour mesurer l’état caractéristique de la matière. La difficulté
38 La tomographie

majeure est que le rayonnement émergent va fournir une mesure globale intégrant la
contribution de toutes les régions traversées. Le rayonnement émergent délivre donc
une projection de l’image recherchée, dans laquelle la contribution de chaque point de
l’objet étudié est pondérée par un noyau d’intégration dont le support caractérise
géométriquement les régions traversées. Pour illustrer ces mesures projectives, prenons
l’exemple de l’imagerie par rayons X où toutes les structures observées vont être
cumulées sur une imagerie planaire radiographique. Sur une radiographie thoracique
vue de face, les parties antérieures des côtes se superposent aux parties postérieures, le
diaphragme se combine aux vertèbres. Sur ces imageries projectives, seuls les objets
fortement contrastés sont observables. De plus, on doit se contenter d’identifier leur
profil dans la direction perpendiculaire à la direction d’observation. On ne peut pas
appréhender leur forme tridimensionnelle.

Pour réaliser une image tomographique, on va acquérir un ensemble de


projections en faisant varier les conditions de mesure. Ces variations vont avoir pour
effet de changer le noyau d’intégration, en particulier la position de son support, de
façon à décrire complètement une transformée projective caractéristique du moyen
physique d’exploration. Par exemple, dans le cas de la microscopie confocale, il
s’agit d’une transformée intégrale de Fredholm caractérisant la réponse
impulsionnelle du microscope ; dans le cas de la tomographie RMN, il s’agit d’une
transformée de Fourier, et dans le cas de la tomographie par rayons X, d’une
transformée de Radon. Dans ce dernier cas, décrire la transformée de Radon
reviendra à acquérir des projections, c’est-à-dire des radiographies, suivant plusieurs
incidences de mesure régulièrement réparties autour du patient ou de la pièce à
observer. Une fois décrite la transformée de l’image, il devient possible de
reconstruire l’image à partir des mesures en appliquant la transformation inverse, ce
qui revient à résoudre les équations de mesure. Par ces opérations de reconstruction,
on passe de mesures projectives globales aux valeurs locales de l’information
recherchée. Cette localisation va avoir pour effet de rehausser le contraste. Il devient
possible de discerner des organes, ou des défauts, faiblement contrastés. C’est
typiquement le cas en imagerie X où sur les radiographies, on observe
principalement les structures osseuses, alors que sur les tomographies, on identifie
les organes mous. Ce rehaussement des contrastes permet d’être plus sensible dans
la recherche des anomalies caractérisées, soit par une hyper ou une hypo-
atténuation, soit par une hyper ou hypofixation d’un traceur. Mais aussi, grâce à la
localisation, il devient possible de séparer du milieu environnant les organes à
analyser, d’en déduire des informations caractéristiques comme la forme du contour,
le volume, la masse, le nombre, et de les positionner par rapport aux autres
structures dans l’image. Cette localisation de l’information est donc l’intérêt
principal justifiant le succès des techniques tomographiques.

Le coût inhérent aux procédés tomographiques est lié à la nécessité de décrire


complètement l’espace des mesures projectives pour pouvoir reconstruire l’image. Les
Introduction à la tomographie 39

tomographes sont donc des « scanners », c’est-à-dire des systèmes à balayage où


chaque point de l’espace définissant la transformée doit être mesuré. Le nombre de
mesures élémentaires est du même ordre de grandeur que le nombre de points du
2 2
quadrillage sur lequel est calculée l’image, soit typiquement de 64 à 1 024 en 2D et
3 3
de 64 à 1 024 en 3D. La technique d’acquisition des mesures va donc avoir un effet
important sur la résolution temporelle et sur le coût du dispositif. Plus le nombre de
capteurs et de générateurs disposés autour de l’objet sera important, meilleure sera la
résolution temporelle, mais plus le coût sera élevé. Une évolution majeure pour
détecter les rayonnements nucléaires est de remplacer les détecteurs unidimensionnels
par des détecteurs bidimensionnels, soit multilignes, soit surfaciques. On réalise ainsi
une parallélisation des mesures. En tomographie d’émission à positons, on constate
une augmentation linéaire du nombre de détecteurs disposés sur les systèmes haut de
gamme, en fonction de l’année de construction. Mais il faut aussi prendre en compte la
technologie de balayage pour changer les conditions d’acquisition.

Les techniques les plus rapides sont celles de balayage électronique. C’est le cas
sur les mesures électromagnétiques ou en RMN. En RMN, on n’utilise qu’un seul
capteur, une antenne radiofréquence, et l’information est obtenue en modifiant les
champs magnétiques ambiants, de façon à décrire tout le domaine des mesures.
L’information recueillie est intrinsèquement tridimensionnelle. La résolution
temporelle liée à ces systèmes tomographiques à balayage électronique est très
bonne, permettant d’envisager une imagerie dynamique à la cadence de l’imagerie
vidéo, c’est-à-dire une dizaine d’images par seconde. Quand le balayage
électronique n’est pas possible, on a recours au balayage mécanique. C’est le cas
des « statifs » en tomographie X, qui font tourner l’ensemble source-détecteur
autour du patient. Pour améliorer la résolution temporelle, il faut alors d’une part
accélérer la vitesse de rotation, les systèmes les plus performants actuellement
atteignant des vitesses de l’ordre de 0,5 s par tour, et d’autre part combiner la
rotation du scanner avec la translation axiale du lit pour enchaîner les acquisitions
sur tout le volume d’intérêt. Il est maintenant possible d’acquérir toute la région
thoracique en moins de 10 secondes, c’est-à-dire en un temps compatible avec la
suspension du mouvement de respiration par le patient.

Le principe d’acquisition par balayage sur les dispositifs tomographiques pose


des problèmes de compensation du mouvement quand on observe des objets qui
évoluent dans le temps. C’est par exemple le cas en imagerie médicale quand le
patient bouge, ou quand on observe des organes comme le cœur ou les poumons
animés d’un mouvement physiologique continu. C’est aussi le cas en contrôle non
destructif sur des lignes de production, ou en contrôle des procédés pour suivre une
réaction chimique ou physique. Il faut alors appréhender le problème comme un
problème de reconstruction dans l’espace et dans le temps et introduire des
techniques de reconstruction appropriées pour compenser le mouvement ou la
variation temporelle des grandeurs mesurées.
40 La tomographie

La localisation dans l’espace et le temps fixe aussi les grands axes d’évolution des
techniques tomographiques. L’augmentation des cadences d’acquisition permet
d’agrandir la dimension des régions explorées. On est ainsi passé de l’imagerie
bidimensionnelle à la tridimensionnelle. Et en imagerie médicale, certaines
applications comme l’angiographie par rayons X ou par RMN, ou l’imagerie
oncologique en tomographie d’émission à positons (TEP), requièrent de reconstruire le
corps entier ! Mais en accélérant les acquisitions, on rend aussi possible l’imagerie
dynamique, par exemple pour étudier la cinématique des organes, celle du
métabolisme, mais aussi pour guider les interventions par l’image. On s’approche alors
d’une imagerie tomographique interactive. Enfin, la tendance générale vers la
miniaturisation engendre un regain d’intérêt pour la microtomographie où l’on cherche
à améliorer la résolution spatiale des instruments. On pourra alors contrôler des
microsystèmes en contrôle non destructif (CND), étudier des modèles animaux comme
la souris en biotechnologie, ou enfin analyser des biopsies en médecine.

1.4. Reconstruire les images

Les systèmes tomographiques associent l’exploration de la matière grâce au


rayonnement et le calcul des paramètres caractéristiques liés soit à la génération de ce
rayonnement, soit à l’interaction rayonnement-matière. D’une manière générale,
chaque mesure du rayonnement émergent fournit une analyse de la matière explorée,
comme une sonde. Le système tomographique va ainsi mesurer par balayage un
ensemble de mesures partielles. La reconstruction d’image réalise la synthèse en
combinant ces mesures pour attribuer une valeur locale caractéristique du rayonnement
en chaque point du quadrillage servant à coder l’image. Pour chaque mesure, le
rayonnement émergent est le résultat de la contribution des grandeurs recherchées, en
termes de source ou d’interaction rayonnement-matière, le long du trajet parcouru. Il
s’agit donc d’une mesure intégrale définissant l’équation de mesure. L’ensemble des
mesures réalisées constitue le problème direct reliant les grandeurs inconnues aux
mesures. La reconstruction consiste alors à résoudre ce système d’équations, c’est-à-
dire à mettre en œuvre le problème inverse [OFT 99].

Le problème direct se déduit des équations fondamentales de la physique, telles


que l’équation de Boltzmann pour la propagation des photons dans la matière, ou
l’équation de Maxwell pour la propagation des ondes électromagnétiques [DEH 95],
ou enfin l’équation élastodynamique de propagation des ondes acoustiques [DEH 95].
Les mesures fournissant des équations intégrales sur les paramètres, les opérations de
reconstruction mettent souvent en œuvre des opérations de différenciation instables
numériquement. Dans ces cas-là, l’opération de reconstruction correspond à un
problème inverse mal posé au sens de Hadamard [HAD 32].

Le système d’acquisition est qualifié de complet quand il fournit toutes les mesures
nécessaires à calculer l’objet, ce qui est en particulier le cas si ces mesures couvrent
Introduction à la tomographie 41

tout le domaine support de la transformée modélisant le système. On qualifie le


problème inverse de faiblement mal posé, quand les principales causes d’erreur sont
l’instabilité liée au bruit ou les biais introduits par un modèle direct approché : c’est le
cas par exemple en tomographie par rayons X. Quand en plus, différentes solutions
peuvent vérifier les équations de mesure, même en l’absence de bruit, on qualifie le
problème inverse de fortement mal posé : c’est le cas par exemple en magnéto-
encéphalographie.

Le système d’acquisition est dit incomplet quand une partie des mesures
nécessaires manque, en particulier quand des contraintes technologiques réduisent le
nombre de mesures réalisables. Ceci peut être lié au sous-échantillonnage des
mesures ou à l’absence de données introduites par des acquisitions manquantes ou
tronquées. Dans ces cas-là, le problème inverse est aussi fortement mal posé et
l’algorithme de reconstruction devra choisir entre plusieurs solutions possibles.

Pour résoudre ces problèmes inverses mal posés au sens d’Hadamard, il faut
régulariser le problème de reconstruction en imposant des contraintes sur la solution.
Les principales techniques de régularisation consistent soit à réduire le nombre ou la
plage de variation des paramètres inconnus – par exemple en utilisant un maillage plus
grossier pour coder l’image, ou en paramétrant les images recherchées, ou en imposant
des formes sur la dynamique de codage des images –, soit à introduire des contraintes
de régularité sur l’image reconstruite, soit à éliminer de l’opérateur inverse les faibles
valeurs du spectre ou de la décomposition en valeur singulière de l’opérateur direct.
Toutes les techniques de régularisation imposent de choisir un compromis entre
l’adéquation aux données et celle aux contraintes sur la solution. Ce compromis traduit
les relations d’incertitude entre la localisation et la quantification sur les images,
appliquées aux systèmes tomographiques.

Plusieurs approches peuvent être retenues pour définir l’algorithme de


reconstruction d’image. Comme pour les méthodes numériques de traitement du
signal, on distingue d’une part les méthodes déterministes des méthodes
probabilistes, et d’autre part les approches continues des approches discrètes.

Les méthodes les plus répandues sont les approches continues, aussi appelées
approches analytiques. Le problème direct est décrit par un opérateur sur un
ensemble de fonctions. Dans le cas de systèmes de mesures linéaires, l’image
recherchée est reliée aux mesures par une transformée de Fredholm de première
espèce. Dans de nombreux cas, cette équation se simplifie soit en une équation de
convolution, soit en une transformée de Fourier, soit en une transformée de Radon.
Dans ces cas-là, le problème inverse admet une solution explicite : soit sous forme
d’une formule d’inversion, soit sous forme d’un enchaînement de transformations
explicites. On obtient ainsi une méthode directe de calcul de l’image recherchée.
L’existence de formules explicites permet de calculer directement l’image
42 La tomographie

recherchée. Ces algorithmes sont donc plus rapides que les algorithmes itératifs
utilisés pour les approches discrètes. De plus, ces méthodes sont d’usage général car
les techniques de régularisation retenues, qui agissent par lissage, ne font pas
intervenir de connaissance a priori spécifique sur la solution. La discrétisation est
introduite au moment de la mise en œuvre numérique.

Cependant, quand l’opérateur direct devient plus complexe pour mieux décrire
l’interaction rayonnement-matière, ou quand l’introduction d’information a priori
est nécessaire pour choisir la solution en présence de données incomplètes, il
n’existe plus de formule explicite pour calculer la solution. Dans ces cas dédiés, on
préfère les approches discrètes où l’on décrit les mesures et l’image recherchée
comme deux ensembles finis discrets de valeurs échantillonnées, représentées par
des vecteurs. Quand le système de mesure est linéaire, on peut alors exprimer la
relation entre l’image et les mesures par une matrice. Le problème de reconstruction
d’image se ramène alors à un problème de résolution d’un système d’équations
linéaires de grande taille. Dans le cas des acquisitions complètes faiblement sous-
déterminées, la régularisation est faite en imposant des contraintes de lissage. La
solution est formulée comme l’argument d’un critère composite associant l’écart
aux données et la régularité de la fonction. Dans le cas des acquisitions incomplètes
fortement sous-déterminées, la régularisation est faite en choisissant une solution
optimale parmi un ensemble de solutions possibles, associé par exemple à un sous-
espace discret dépendant d’un nombre fini de paramètres. La solution est alors
définie comme l’argument d’un système linéaire sous contrainte. Dans les deux cas,
le calcul de la solution est réalisé grâce à des algorithmes itératifs.

Quand les fluctuations statistiques sur les mesures deviennent importantes, par
exemple dans le cas de la tomographie d’émission, il est préférable de décrire
explicitement les lois statistiques de réalisation des images et des mesures suivant le
principe des méthodes probabilistes. La solution recherchée est alors exprimée
comme un problème d’estimation probabiliste. Dans le cas des problèmes
faiblement sous-déterminés, des estimateurs bayésiens correspondant à la
minimisation d’un critère composite sont proposés. Ils reviennent à choisir la
solution la plus vraisemblable compte tenu des mesures et des informations a priori
sur l’objet. Dans le cas des problèmes fortement sous-déterminés, des estimateurs
sous contrainte liés par exemple à des distances de Kullback sont envisageables. On
aboutit là aussi à des algorithmes itératifs de reconstruction.

Enfin, quand le caractère mal posé devient trop sévère, par exemple quand le
nombre d’incidences de mesure est très limité, les contraintes de bas niveau sur les
échantillons de l’image ne suffisent plus. Il faut alors passer à une description
géométrique de l’objet recherché, sous forme d’un assemblage d’objets élémentaires
décrits par des modèles graphiques ou par un assemblage de primitives. La
reconstruction de l’image consiste alors à mettre en correspondance les projections
Introduction à la tomographie 43

calculées de l’image avec les projections mesurées. Dans cet ouvrage, nous n’avons
pas décrit ces approches qui ne rentrent pas directement dans la problématique de la
cartographie d’un paramètre physique caractéristique et qui s’apparentent plus aux
techniques de vision assistée par ordinateur ou de reconnaissance des formes
développées dans d’autres ouvrages du traité IC2.

Les algorithmes de reconstruction d’image demandent des puissances de calcul


importantes. Les opérations élémentaires sont des opérations de rétroprojection, ou
de rétropropagation, où une mesure élémentaire est propagée dans le volume en
suivant le chemin inverse de celui suivi lors de l’acquisition. C’est pourquoi aussi
bien l’utilisation d’algorithmes de plus en plus sophistiqués que la reconstruction
d’images de plus en plus grandes, mieux résolues spatialement et temporellement,
ne sont rendues possible que par les progrès en taille mémoire et en puissance des
calculateurs. L’emploi de processeurs dédiés et de techniques de parallélisation et de
vectorisation est souvent nécessaire. De ce point de vue, la tomographie dynamique
temps réel constitue aujourd’hui un défi technologique majeur.

1.5. Les domaines d’application

Grâce aux rayonnements pour sonder la matière et aux calculs pour restituer la
cartographie du paramètre physique caractéristique du rayonnement, les systèmes
d’imagerie tomographiques fournissent des coupes virtuelles à travers les objets
analysés, sans avoir recours à des moyens destructifs. Ces coupes virtuelles peuvent
être interprétées aisément, et il devient possible d’identifier et de localiser les structures
internes. Les techniques de tomographie assistée par ordinateur fournissent
directement une image numérique, offrant ainsi la possibilité d’appliquer toute la
richesse des algorithmes de traitement d’image. L’exploitation de ces images permet
notamment de caractériser les éléments de l’image pour les différencier, de détecter
des anomalies pour contrôler, de quantifier pour mesurer, de modéliser pour décrire.
L’imagerie devient tridimensionnelle quand le système tomographique fournit un
ensemble de coupes parallèles couvrant la région d’intérêt. On peut alors calculer des
coupes dans des plans arbitraires et représenter les surfaces, les formes, l’architecture
des structures internes. Sur les patients comme sur tous les matériaux associant des
structures solides dans lesquelles circulent des fluides, on distingue d’une part les
systèmes d’imagerie s’intéressant principalement à l’architecture solide, c’est-à-dire
aux contenants et à leurs formes – on parle alors d’imagerie morphologique –, et
d’autre part les systèmes consacrés au suivi des échanges des fluides, c’est-à-dire aux
contenus et aux réactions associées – on parle alors d’imagerie fonctionnelle.

En imagerie optique, le développement des premiers microscopes simples munis


d’une seule lentille remonte au milieu du XVIIe siècle. D’un point de vue physique des
rayonnements, l’utilisation des rayons X pour explorer la matière date de leur
44 La tomographie

découverte par Röntgen en 1895. Au cours d’expériences effectuées pour comprendre


l’origine de ces rayonnements, Becquerel découvrit en 1896 le rayonnement émis
spontanément par l’uranium [BIM 99]. Après la découverte du polonium et du radium
en 1898, Pierre et Marie Curie caractérisèrent le phénomène qui donne naissance à ces
rayonnements et lui donnèrent le nom de « radioactivité ». Pour ces découvertes, Henri
Becquerel, Marie Curie et Pierre Curie reçurent ensemble le prix Nobel de physique en
1903. L’utilisation de traceurs radioactifs a été initiée vers 1913 par Hevesy, prix
Nobel de chimie en 1943. La découverte de la radioactivité artificielle par Irène et
Frédéric Joliot-Curie en 1934 ouvre la voie à l’utilisation de nombreux traceurs pour
étudier le fonctionnement du vivant, de la cellule à l’organisme entier. Des recherches
importantes ont alors porté sur la production et la détection de ces rayonnements. Le
premier microscope utilisant des électrons pour étudier la structure d’un objet a été
développé par Ernst Ruska en 1929. D’un point de vue mathématique, la transformée
de Fourier constitue un outil important dans l’étude des méthodes analytiques utilisées
en tomographie. Plusieurs savants comme Maxwell, Helmholtz et Born ont étudié les
équations de propagation des ondes. Le nom de Fredholm reste attaché à la théorie des
équations intégrales. Le problème de la reconstruction d’une image à partir de ses
intégrales suivant des lignes remonte à la publication originale de Radon en 1917
[RAD 17], reprise en 1986 [RAD 86], puis aux études de John publiées en 1934
[JOH 34].

L’essor des techniques tomographiques est intervenu ensuite, au cours de la


deuxième moitié du XXe siècle. En imagerie X, les premiers dispositifs
tomographiques étaient des dispositifs mécaniques qui combinaient des mouvements
de la source et du film radiologique de façon à éliminer l’information hors du plan de
coupe par un effet de flou. On parlait alors de tomographie longitudinale, le plan de
coupe étant parallèle à l’axe du patient. Les premières images reconstruites
numériquement ont été obtenues par des radio-astronomes à la fin des années 1950
[BRA 79]. Les premières études de Cormack à la fin des années 1950 et au début des
années 1960 montraient qu’il était possible de reconstruire précisément l’image d’une
section transverse à l’axe du patient à partir de ses projections radiographiques
[COR 63, COR 64]. Dans les années 1960, plusieurs expériences ayant des
applications médicales ont été réalisées [COR 63, COR 64, KUH 63, OLD 61]. Le
problème de la reconstruction d’images à partir de projections en microscopie
électronique a aussi été abordé à cette époque [DER 68, DER 71]. C’est en 1971
qu’Hounsfield a mis au point le premier prototype de tomographe X dédié à l’imagerie
cérébrale [HOU 73]. Hounsfield et Cormack obtiendront en 1979 le prix Nobel en
physiologie et médecine [COR 80, HOU 80]. Les débuts de l’imagerie RMN
remontent à la première publication réalisée par Lauterbur en 1973 [LAU 73]. En
médecine nucléaire, les travaux pionniers en tomographie d’émission à simples
photons (single photon emission computed tomography SPECT) datent de Kuhl et
Edwards en 1963 [KUH 63], suivis par Anger en 1967 [ANG 67], Muehllehner en
1971 [MUE 71] et Keyes et al. [BOW 73, KEY 73]. Pour la tomographie d’émission à
Introduction à la tomographie 45

positons, le premier dispositif a été réalisé au début des années 1960 par Rankowitz et
al. [RAN 62], suivi en 1975 par Ter-Pogossian et Phelps [PHE 75, TER 75]. Pour de
plus amples références sur les débuts de la tomographie, nous renvoyons le lecteur aux
ouvrages de Herman [HER 79], Robb [ROB 85] et Webb [WEB 90].

Au niveau français, nous retenons de cette époque les travaux précurseurs de


l’équipe de Robert Di Paola à l’Institut Gustave Roussy (IGR) pour la tomographie
gamma et ceux des équipes du Laboratoire d’électronique, de technologie et
d’instrumentation (LETI) au Commissariat à l’énergie atomique (CEA). En 1976,
sous la direction d’Edmond Tournier et de Robert Allemand, le premier prototype
français de tomographe à rayons X est installé à l’hôpital de Grenoble, en
collaboration avec la compagnie CGR [PLA 98]. Sur cette lancée, en 1981, le LETI
a installé au service hospitalier Frédéric Joliot (SHFJ) du CEA son premier
prototype de tomographe d’émission à positons (TEP) avec mesure du temps de vol
(TTV01) suivi de trois nouveaux dispositifs de nouvelle génération (TTV03). Le
SHFJ a participé à la spécification de ces dispositifs et en a réalisé l’évaluation
expérimentale. Le SHFJ a été le premier centre en France à disposer d’un cyclotron
à usage médical et d’un laboratoire de radiochimie pour la synthèse des traceurs
utilisés en TEP. Par la suite, en 1990, deux prototypes de scanners X
tridimensionnels appelés morphomètres, seront développés par le LETI, l’un installé
à l’hôpital de Rennes et l’autre à l’hôpital neurocardiologique de Lyon, en
collaboration avec la compagnie General Electric-MSE et les équipes de ces
hôpitaux. En parallèle, plusieurs prototypes de tomographes à rayons X appliqués au
contrôle non destructif ont aussi été réalisés.

Les années 1980 ont vu le développement de l’imagerie tridimensionnelle


conjointement avec les progrès de la puissance de calcul des ordinateurs et la mise au
point des technologies de détection numérique. Ces évolutions se sont poursuivies
dans les années 1990, en apportant notamment l’amélioration de la sensibilité des
dispositifs et l’accélération des cadences d’acquisition, liées en particulier au
développement de détecteurs de rayonnement bidimensionnels multilignes ou
surfaciques. Plusieurs ouvrages décrivent les développements réalisés pendant cette
période [BEN 98, GOL 95, KAL 00, LIA 00, ROB 85, SHA 89].

L’imagerie médicale représente un domaine d’application important pour le


développement des techniques tomographiques. Actuellement, on peut considérer
que si l’on regroupe les tomographies X, γ, β et RMN, ceci constitue un tiers du
marché de l’imagerie médicale. Les systèmes tomographiques sont des appareillages
lourds et chers, nécessitant souvent une infrastructure adaptée comme des dispositifs
de protection contre les rayons ionisants ou contre les champs magnétiques, ou
comme un laboratoire de préparation des radiotraceurs. Mais la tomographie occupe
une place centrale dans les outils de diagnostic d’aujourd’hui et son impact est
devenu majeur en termes de santé publique.
46 La tomographie

L’imagerie médicale et les sciences de la vie constituent ainsi le premier domaine


d’application des systèmes tomographiques. En sciences de la vie, le microscope
électronique à balayage permet d’étudier des structures fines comme la structure des
protéines ou des virus, et à une échelle plus grande, le microscope optique confocale à
balayage laser (confocal laser scanning microscopy CLSM) visualise les éléments de
la cellule. En neuroscience, la TEP, l’IRMf (imagerie par résonance magnétique
fonctionnelle), la MEG et l’EEG ont contribué à l’identification et à la localisation des
aires corticales pour comprendre le fonctionnement du cerveau. En permettant un suivi
de paramètres physiologiques, la TEP contribue à la recherche des effets primaires et
secondaires des médicaments. Enfin, la technique du gène rapporteur ouvre la porte
aux études génétiques in vivo. Mais pour ces recherches sur les médicaments ou en
biotechnologie, des études sur des modèles animaux sont nécessaires. Ceci explique le
développement actuel de plates-formes d’imagerie tomographique sur l’animal.

En médecine, les tomographies X et RMN sont des modalités d’imagerie


anatomique morphologique, alors que la tomographie d’émission à simple photon,
celle d’émission à positons, l’imagerie par résonance magnétique fonctionnelle, la
magnéto-encéphalographie et l’électro-encéphalographie sont utilisées pour des études
fonctionnelles. La tomographie X est bien adaptée pour étudier les structures denses
comme les os ou le réseau vasculaire après injection du produit de contraste. La
tomographie RMN est mieux adaptée pour visualiser des contrastes sur la densité
d’atomes d’hydrogène, comme par exemple entre la matière blanche et la matière grise
du cerveau. La tomographie à simple photon est très utilisée pour l’étude de la
perfusion sanguine du myocarde. Et la tomographie d’émission à positons tend à
s’imposer pour les bilans d’extension en oncologie. La tomographie optique [MÜL 93]
reste pour l’instant cantonnée à quelques applications dédiées, comme l’imagerie de la
cornée ou l’étude de la peau par tomographie optique cohérente. Ces aspects seront
développés dans les chapitres consacrés à ces différentes modalités.

Les systèmes tomographiques sont utilisés à tous les stades de la prise en charge du
malade, que ce soit pour le diagnostic de la maladie, la planification de la thérapie ou
du geste chirurgical, le guidage des gestes chirurgicaux par l’image pour réaliser des
interventions les moins invasives possibles et enfin le suivi d’un traitement
thérapeutique. Des assistants numériques peuvent aider à analyser l’image. Par
ailleurs, les robots utilisent ces images comme une aide au guidage. Cette image
numérique se prête aisément à une diffusion à travers les réseaux d’imagerie, et à la
constitution des bases de données de référence que se partagent soit les utilisateurs, soit
les étudiants. Véritables patients virtuels, des atlas anatomiques numériques serviront
dans l’avenir à l’apprentissage de certains actes médicaux, voire chirurgicaux. Ces
modèles numériques contribuent aussi à la conception de prothèses.

Le deuxième domaine d’application des systèmes d’imagerie tomographique


concerne les sciences de la matière et de l’univers. Ils sont souvent associés à de
Introduction à la tomographie 47

grands instruments expérimentaux comme les synchrotrons, les chambres à plasma, les
dispositifs de simulation nucléaire comme les installations Mégajoule et Airix. La
géophysique est un autre domaine important, à grande échelle, pour sonder les océans
ou les couches géologiques, et à petite échelle, pour étudier les roches et leurs
propriétés comme leur porosité. L’astrophysique associée à différentes gammes de
longueur d’onde est aussi concernée, en tenant compte de la rotation naturelle des
astres [BRA 79].

Le dernier domaine d’application concerne l’industrie et les services. Plusieurs


industries sont intéressées, comme les industries nucléaire, aéronautique, automobile,
agro-alimentaire, pharmaceutique, pétrolière, chimique [BAR 00, BEC 97, MAY 94].
Ceci concerne une grande diversité de matériaux, sous différentes phases. La
tomographie s’adresse d’abord aux bureaux d’études pour l’aide à la conception : mise
au point de procédés de fabrication, caractérisation et modélisation du comportement
des matériaux, rétroconception et ajustement de modèles graphiques en conception
assistée par ordinateur (CAO). Le deuxième champ d’application porte sur la sécurité
et la qualité des chaînes de production : contrôle en ligne après assemblage pour
vérifier les dimensions ou rechercher les défauts, contrôle des bagages avec
identification des matériaux pour détecter la drogue ou les explosifs, inspection des
fûts de déchets nucléaires, déminage humanitaire. La tomographie s’applique aussi au
contrôle de procédés [BEC 97] : mélangeurs, échangeurs thermiques, transports
multiphasiques, catalyseurs fluidifiés, moteurs, réacteurs. Il s’agit en particulier
d’identifier les régimes de fonctionnement, de déterminer les temps de séjour et les
cinétiques des produits, de valider les modèles thermohydrauliques. Cependant, en
contrôle non destructif, une fois identifiés les types de défaut ou de dysfonctionnement
sur des dispositifs expérimentaux, on cherche souvent à réduire le nombre de mesures
et les coûts et à simplifier les dispositifs. C’est pourquoi le développement des
systèmes tomographiques reste limité dans ce domaine d’application.

1.6. Bibliographie

[ANG 67] ANGER H., PRICE D.C., YOST P.E., « Transverse section tomography with the
gamma camera », J. Nucl. Med., vol. 8, p. 314, 1967.
[BAR 00] BARUCHEL J., BUFFIERE J.-Y., MAIRE E., MERLE P., PEIX G. (dir.), X-Ray
Tomography in Material Science, Hermès Science Publications, 2000.
[BEC 97] BECK M.S., DYAKOWSKI T., WILLIAMS R.A., « Process Tomography – The state of
the art », Frontiers in Industrial Process Tomography II, Engineering Foundation
Conference, p. 357-362, 1997.
[BEN 98] BENDRIEM B., TOWNSEND D. (dir.), The Theory and Practice of 3D PET, Kluwer
Academic Publishers, Developments in Nuclear Medicine Serie, vol. 32, 1998.
[BIM 99] BIMBOT R., BONNIN A., DELOCHE R., LAPEYRE C., Cent ans après, la radioactivité,
le rayonnement d’une découverte, EDP Sciences, 1999.
48 La tomographie

[BOW 73] BOWLEY A.R., TAYLOR C.G., CAUSER D.A., BARBER D.C., KEYES W.I., UNDRILL
P.E., CORFIELD J.R., MALLARD J.R., « A radioisotope scanner for rectilinear arc, transverse
section, and longitudinal section scanning (ASS, the Aberdeen Section Scanner) », Br. J.
Radiol., vol. 46, p. 262, 1973.
[BRA 79] BRACEWELL R.N., « Image reconstruction in Radio Astronomy », dans Herman
G.T.(dir.), Image reconstruction from Projections, Springer Verlag, p. 81-104, 1979.
[COR 63] CORMACK A.M., « Representation of a function by its line integrals, with some
radiological applications », J. Appl. Phys., vol. 34, p. 2722-2727, 1963.
[COR 64] CORMACK A.M., « Representation of a function by its line integrals, with some
radiological applications II », J. Appl. Phys., vol. 35, p. 195-207, 1964.
[COR 80] CORMACK A.M., « Early two-dimensional reconstruction (CT scanning) and recent
topics stemming from it, Nobel Lecture, December 8, 1979 », J. Comput. Assist. Tomogr.,
vol. 4, n° 5, p. 658, 1980.
[DEH 95] DE HOOP A.T., Handbook of Radiation and Scattering of Waves, Academic Press,
1995.
[DER 68] DE ROSIER D.J., KLUG A., « Reconstruction of three dimensional structures from
electron micrographs », Nature, vol. 217, p. 130-134, 1968.
[DER 71] DE ROSIER D.J., « The reconstruction of three-dimensional images from electron
micrographs », Contemp. Phys., vol. 12, p. 437-452, 1971.
[GAL 02] GALLICE J. (dir.), Images de profondeur, Hermès, Traité IC2, Paris, 2002.
[GOL 95] GOLDMAN L.W., FOWLKES J.B. (dir.), Medical CT and Ultrasound: Current
Technology and Applications, Advanced Medical Publishing, 1995.
[GRA 02] GRANGEAT P. (dir.), La tomographie médicale, Hermès, Traité IC2, Paris, 2002.
[HAD 32] HADAMARD J., Le Problème de Cauchy et les Equations aux Dérivées Partielles
Linéaires Hyperboliques, Hermann, Paris, 1932.
[HER 79] HERMAN G.T. (dir.), Image Reconstruction from Projections: Implementation and
Applications, Springer Verlag, 1979.
[HOU 73] HOUNSFIELD G.N., « Computerized transverse axial scanning (tomography). I.
Description of system », Br. J. Radiol., vol. 46, p. 1016-1022, 1973.
[HOU 80] HOUNSFIELD G.N., « Computed medical imaging, Nobel Lecture, December 8,
1979 », J. Comput. Assist. Tomogr., vol. 4, n° 5, p. 665, 1980.
[JOH 34] JOHN F., « Bestimmung eine Funktion aus ihren Integralen über gewisse
Mannigfaltigkeiten », Mathematische Annalen, vol. 109, p. 488-520, 1934.
[KAL 00] KALENDER W.A., Computed Tomography, Wiley, New York, 2000.
[KEY 73] KEYES J.W., KAY D.B., SIMON W., « Digital reconstruction of three-dimensional
radionuclide images », J. Nucl. Med., vol. 14, p. 628, 1973.
[KUH 63] KUHL D.E., EDWARDS R.Q., « Image separation radioisotope scanning »,
Radiology, vol. 80, p. 653-661, 1963.
Introduction à la tomographie 49

[LAU 73] LAUTERBUR P.C., « Image formation by induced local interactions: examples
employing nuclear magnetic resonance », Nature, vol. 242, p. 190-191, 1973.
[LIA 00] LIANG Z.P., LAUTERBUR P.C., Principles of Magnetic Resonance Imaging. A Signal
Processing Perspective, IEEE Press, Series in Biomedical Imaging, 2000.
[MAY 94] MAYINGER F. (dir.), Optical Measurements: Techniques and Applications,
Springer Verlag, 1994.
[MUE 71] MUEHLLEHNER G., WETZEL R., « Section imaging by computer calculation »,
J. Nucl. Med., vol. 12, p. 76-84, 1971.
[MÜL 93] MÜLLER G., CHANCE B., ALFANO R., ARRIDGE S., BEUTHON J., GRATTON E., KASCHKE
M., MASTERS B., SVANBERG S., VAN DER ZEE P., « Medical Optical tomography: Functional
Imaging and Monitoring », SPIE Optical Engineering Press, vol. IS11, 1993.
[OFT 99] OBSERVATOIRE FRANÇAIS DES TECHNIQUES AVANCEES, Problèmes Inverses : de
l’expérimentation à la modélisation, Tec & Doc, Série ARAGO, n° 22, 1999.
[OLD 61] OLDENDORF W.H., « Isolated flying not detection of radiodensity discontinuities
displaying the internal structural pattern of a complex object », IRE Trans. BME, vol. 8,
p. 68-72, 1961.
[PHE 75] PHELPS M.E., HOFFMAN E.J., MULLANI N.A., TER-POGOSSIAN M.M., « Application
of annihilation coïncidence detection to transaxial reconstruction tomography », J. Nucl.
Med., vol. 16, p. 210-224, 1975.
[PLA 98] PLAYOUST B., De l’atome à la Puce – Le LETI : Trente Ans de Collaborations
Recherche Industrie, LIBRIS, 1998.
[RAD 17] RADON J., « Uber die Bestimmung von Funktionen durch ihre Integralwerte längs
gewisser Mannigfaltigkeiten », Math.-Phys. Kl., Berichte Sächsische Akademic der
Wissenchaften, Leipzig, vol. 69, p. 262-267, 1917.
[RAD 86] RADON J., « On the determination of functions from their integral values along
certain manifolds », IEEE Trans. Med. Imaging, p. 170-176, 1986.
[RAN 62] RANKOWITZ, « Positron scanner for locating brain tumors », IEEE Trans. Nucl.
Sci., vol. 9, p. 45-49, 1962.
[ROB 85] ROBB R.A. (dir.), Three-dimensional Biomedical Imaging, vol. I et II, CRC Press,
1985.
[SHA 89] SHARP P.F., GEMMEL H.G., SMITH F.W. (dir.), Practical Nuclear Medicine, IRL
Press at Oxford University Press, Oxford, 1989.
[TER 75] TER-POGOSSIAN M.M., PHELPS M.E., HOFFMAN E.J., MULLANI N.A., « A positron
emission transaxial tomograph for nuclear imaging (PETT) », Radiology, vol. 114, p. 89-
98, 1975.
[WEB 90] WEBB S., From the watching of the shadows: the origins of radiological
tomography, Adam Hilger, Bristol/New York, 1990.
[WIL 95] WILLIAMS R.A., BECK M.S. (dir.), Process Tomography: Principles, Techniques
and Applications, Butterworth Heinemann Ltd, 1995.
PREMIÈRE PARTIE

La reconstruction d’image
Chapitre 2

Les méthodes analytiques

2.1. Introduction

La tomographie est une technique d’investigation pour explorer la matière à partir


de mesures liées à un rayonnement émis ou transmis. Le rayonnement émergent
fournit des mesures, dont le principe est décrit par des équations reliant les sources de
rayonnement, l’interaction du rayonnement avec la matière et les détecteurs. A partir
de ces mesures indirectes, la reconstruction d’image consiste à calculer la cartographie
d’un paramètre caractéristique par inversion des équations de mesure.

Ce paramètre est lié soit aux sources de rayonnement, dans le cas de la


tomographie d’émission, soit aux coefficients d’interaction du rayonnement avec la
matière, dans le cas de la tomographie de transmission. La reconstruction d’image
relève du domaine des problèmes inverses où l’on déduit des lois physiques le
problème direct reliant les observations aux grandeurs recherchées et où l’on calcule
ces grandeurs en résolvant les équations associées.

Les méthodes analytiques reposent sur une description des images et des mesures
par des fonctions continues et sur une modélisation des lois physiques par des
opérateurs fonctionnels. Ces méthodes prennent tout leur intérêt quand il devient
possible d’exprimer l’opérateur inverse par une formule d’inversion explicite ou par
un enchaînement de formules. Leur mise en œuvre numérique définit des algorithmes
où l’image est calculée directement en un seul passage à partir des mesures, sans avoir
recours à des méthodes itératives plus longues en temps de calcul.

La production et le transport des photons dans la matière sont décrits par des
équations aux dérivées partielles, comme celle de Boltzmann. En reconstruction

Chapitre rédigé par Michel DEFRISE et Pierre GRANGEAT.


54 La tomographie

d’image, on préfère travailler sur la forme intégrale simplifiée exprimée par des
opérateurs de projection. Ces projections intégrales traduisent le fait que les
contributions de tous les corps traversés vont être cumulées. Ces équations se
présentent sous la forme générale d’équations de Fredholm de première espèce. Les
opérateurs analytiques de référence en reconstruction d’image sont la transformation
de Radon, la transformation rayons X et celle de Fourier décrites dans ce chapitre.

La mise en œuvre algorithmique de ces méthodes analytiques repose sur une


discrétation des formules d’inversion. L’analyse numérique utilise principalement
des opérations de filtrage, de rétroprojection, de sommation et des transformées de
Fourier discrètes. Le besoin d’accélérer les calculs conduit à réfléchir à l’adaptation
des algorithmes aux architectures de traitement, à utiliser des opérateurs numériques
comme la transformée de Fourier rapide et à simplifier les calculs par des techniques
de réarrangement entre géométries.

La reconstruction d’image appartient à la famille des problèmes inverses mal


posés au sens d’Hadamard. En particulier, les filtres de reconstruction amplifient le
bruit entachant les mesures. Pour réduire l’influence de ces fluctuations statistiques,
les techniques de régularisation utilisées reposent sur des opérations de lissage par
des filtres passe-bas, comme nous le verrons au paragraphe 2.2.4.

Ces formules d’inversion analytiques permettent aussi d’étudier l’échantillonnage


des données, comme cela est présenté au chapitre 3. Mais elles fournissent aussi des
formules explicites pour calculer des expressions caractérisant les systèmes
d’acquisition, comme le rapport signal à bruit sur l’image reconstruite ou la fonction
de transfert du système d’imagerie tomographique.

Les méthodes analytiques sont très générales, car elles ne reposent pas sur des
propriétés caractéristiques de l’objet à explorer. En revanche, les formules d’inversion
explicites n’existent que pour des opérateurs simples. Quand on introduit des
phénomènes physiques complexes dans l’opérateur direct, comme par exemple la
diffusion multiple du rayonnement en tomographie d’émission monophotonique, il
n’existe plus de formule d’inversion explicite. De même, si l’on souhaite introduire de
l’information a priori, des contraintes ou des critères de choix sur l’image inconnue, la
solution est souvent exprimée par l’optimisation d’une fonctionnelle de coût et il existe
rarement une formule explicite exprimant cette solution optimale. Dans ces cas-là, on
préfère utiliser les méthodes discrètes décrites au chapitre 4.

Dans ce chapitre, nous introduisons les principaux opérateurs servant à décrire


les différentes géométries d’acquisition utilisées sur des dispositifs tomographiques,
à savoir la transformation rayons X et celle de Radon associées respectivement à des
projections intégrales suivant des droites ou des hyperplans.
Les méthodes analytiques 55

Nous abordons successivement les dimensions 2 et 3, en distinguant les cas de la


géométrie parallèle et des géométries divergentes, à savoir la géométrie éventail en
2D et conique en 3D. Nous rappelons les principales propriétés de ces opérateurs et
décrivons les schémas d’inversion sur lesquels reposent les algorithmes de
reconstruction analytiques utilisés sur les systèmes d’imagerie tomographiques.
Pour terminer, nous développons le cas de la tomographie d’émission à positons 3D
à la section 2.6, et le cas de la tomographie par rayons X en géométrie conique à la
section 2.7.

Pour une présentation plus détaillée et pour consulter les démonstrations de


certaines formules introduites dans ce chapitre, nous renvoyons le lecteur vers les
ouvrages classiques [BAR 81, DEA 83, HER 80, KAK 88, NAT 86, NAT 01b], en
particulier pour les sections 2.2 et 2.3 qui traitent la transformée de Radon en deux
dimensions. On trouvera dans ces ouvrages les références des articles originaux qui
ont introduit les résultats présentés ci-dessous. On pourra aussi se reporter à de
récents articles de synthèse [GRA 01, HIR 97, WAN 00].

2.2. La transformée de Radon en deux dimensions : cas de la géométrie parallèle

2.2.1. Définition, notion de sinogramme

On représentera la valeur en un point M de la quantité physique étudiée par la


fonction f(M). Dans le cas bidimensionnel, M appartient au plan de la coupe mesurée.
On utilisera dans ce plan les coordonnées cartésiennes (x, y) du point M et on écrira
indifféremment f(M) = f(x, y) selon le contexte. On supposera que la fonction f est
suffisamment régulière et s’annule en dehors d’un disque centré de rayon R.

Rf(ψ,p)
y

M
n

p
D(ψ,p)
ψ
x
0
f(M)

Figure 2.1. La transformée de Radon en 2 dimensions :


cas de la géométrie parallèle (équation [2.1])
56 La tomographie

La transformation de Radon 2D, ou transformation rayons X 2D, associe à la


fonction f(M) l’ensemble de ses intégrales le long des droites D du plan de la coupe.
On repère une droite D par l’angle Ψ entre l’axe x et le vecteur unitaire n
perpendiculaire à D, et par la distance algébrique p entre la droite et l’origine O
(voir figure 2.1). La transformée rayons X s’écrit alors :


Rf (ψ, p )= ∫ f (M )dM = ∫ f (pcosψ - tsinψ, psinψ + tcosψ )dt [2.1]
M ∈D(ψ, p ) -∞

où Ψ∈ [0,π), |p| ≤ R et t représente l’abscisse le long de la droite D.

Pour un angle Ψ fixé, Rf(Ψ,.) représente une projection parallèle 1D de la


fonction f, c’est-à-dire l’ensemble des intégrales de f le long de droites parallèles à la
direction (– sinΨ, cosΨ). Pour cette raison, on parle pour [2.1] d’acquisition en
géométrie parallèle.

Le problème de reconstruction étudié dans ce chapitre consiste donc à estimer la


fonction f(M) à partir de sa transformée rayons X définie par [2.1]. Une
conséquence de la linéarité est que la transformée rayons X d’une combinaison
d’objet ponctuels du type f0(M) = δ(M-M0) est égale à la somme de leurs
transformées rayons X. Pour un objet ponctuel en M0 = (x0, y0), on a :

(
Rf0(ψ, p ) = δ x0 cosψ + y0 sinψ - p ) [2.2]

La transformée rayons X d’un objet ponctuel n’a donc des valeurs non nulles
que le long d’une courbe sinusoïdale dans le plan (Ψ, p). Pour cette raison, on
appelle la fonction Rf(Ψ, p) le sinogramme de f.

2.2.2. Le théorème coupe-projection et condition de suffisance des données

La transformation qui à f associe Rf, définie par l’équation [2.1], n’est pas une
équation de convolution, mais est néanmoins invariante pour les translations. On
vérifie en effet qu’une translation de la fonction f(M) par un vecteur v = (vx,vy)
correspond à une translation de chaque projection parallèle Rf(Ψ,.) par ∆p = <n,v>
= vx cosψ + vy sinψ.

Cette propriété d’invariance par translation joue un rôle important dans la


dérivation des algorithmes de reconstruction. Elle s’exprime aussi en considérant les
transformées de Fourier du sinogramme et de l’objet :
Les méthodes analytiques 57

FpR f (ψ, ν )= Ff (νcosψ , νsinψ )= Ff (νn ) [2.3]

où FpRf est la transformée de Fourier 1D de Rf par rapport à la variable radiale p :


FpRf (ψ,ν )= ∫ exp(-2πipν )Rf (ψ, p )dp [2.4]
-∞

et Ff est la transformée de Fourier 2D de f :

Ff (ν x,ν y )= ∫∫exp(-2πi(xν x + yν y ))f (x, y )dxdy [2.5]



2

La propriété [2.3] est appelée théorème coupe-projection. Une conséquence de


ce théorème est que f(M) est déterminée de manière unique lorsque l’on connaît sa
transformée rayons X pour toutes les orientations Ψ∈ [0,π) et pour |p| ≤ R. En effet,
pour chaque Ψ, la transformée de Fourier de la projection parallèle correspondante
détermine la transformée de Fourier de f le long d’une droite d’orientation Ψ passant
par l’origine dans le plan des fréquences. Lorsque Ψ parcourt l’intervalle [0, π),
cette droite balaye entièrement le plan (νx, νy) et la transformée de Fourier Ff est
donc connue partout.

2.2.3. Inversion par rétroprojection des projections filtrées

Une conséquence de l’invariance par translation et du théorème coupe-projection


est le théorème de convolution pour la transformée de Radon, qui s’énonce comme
suit. Pour toute paire de fonction objet f et sinogramme h suffisamment régulière, on
a:

B(h *1 Rf) = (Bh) *2 f [2.6]

où *1 représente une convolution 1D en la variable radiale p dans le membre de


gauche et *2 une convolution 2D dans ℜ dans le membre de droite. B est
2

l’opérateur adjoint de R, qui associe à une fonction sinogramme g une fonction


objet Bg dont la valeur en chaque point M est la moyenne de g pour toutes les
droites du plan passant par M :

π π
Bg(M )= ∫g(ψ, p = <OM,n>)dψ =∫g(ψ, xcosψ + ysinψ )dψ [2.7]
0 0
58 La tomographie

Cet opérateur est appelé opérateur de rétroprojection ou d’épandage. Le théorème


de convolution permet d’inverser la transformée de Radon si l’on connaît une fonction
sinogramme h dont la rétroprojection Bh est égale à la fonction de Dirac centrée en O,
c’est-à-dire Bh(M) = δ(M). Dans ce cas, en effet, nous obtenons :

(Bh)*f = δ*f = f

On montre qu’une solution de Bh(M) = δ(M) est donnée par le noyau de


convolution suivant, défini par sa transformée de Fourier :

Fh(ν )= ν [2.8]

La transformée de Fourier est donc une fonction rampe, d’où le nom de filtre
rampe donné à h dans le jargon de la tomographie. On montre que l’opérateur
correspondant au filtre rampe est la combinaison de la dérivée D et de la
transformée de Hilbert H multipliée par un facteur 1/2π.

En reprenant les équations [2.6], [2.7] et [2.8] et en exprimant la convolution


h*Rf à partir de sa transformée de Fourier, nous pouvons maintenant écrire une
formule d’inversion qui se décompose en deux étapes :

1) filtrage 1D de la projection mesurée Rf(Ψ, p) pour chaque angle Ψ :

∞ ∞
HDRf (ψ, p )= ∫ ν (FRf )(ψ,ν )e2iπνp dν = ∫ h(p' )Rf (ψ, p - p' )dp' [2.9]
-∞ -∞

2) rétroprojection :

π
f (M )= ∫ HDRf (ψ, p = <OM,n > )dψ [2.10]
0

Les équations [2.9] et [2.10] définissent l’inversion par rétroprojection des


projections filtrées (FBP : filtered backprojection) dont la discrétisation conduit à
l’algorithme de reconstruction, de loin le plus utilisé en pratique. Dans le cas où le
tomographe mesure de manière séquentielle une série de projections 1D pour
différentes orientations Ψ, cette décomposition permet de traiter complètement
chaque projection 1D dès qu’elle est disponible, et ce pendant que les projections
suivantes sont en train d’être mesurées.
Les méthodes analytiques 59

2.2.4. Choix du filtre

Le filtre rampe a un support non borné et ne peut donc être utilisé comme tel,
ceci pour deux raisons : l’échantillonnage de la variable radiale p avec un pas ∆p
limite la fréquence maximale accessible à la fréquende de Nyquist νNyquist = 1/(2∆p) ;
et le filtre |ν| amplifie les hautes fréquences pour lesquelles le rapport signal sur
bruit est le plus faible.

En pratique, on multiplie donc le filtre rampe par une fenêtre passe-bas w(ν)
(aussi appelée fenêtre d’apodisation) caractérisée par sa fréquence de coupure
νmax ≤ νNyquist et par sa régularité. La fréquence de coupure νmax détermine la résolution
spatiale dans l’image reconstruite et son choix nécessite donc un compromis entre
erreur statistique (stabilité par rapport au bruit) et erreur systématique (résolution).

Le noyau de convolution apodisé est donné par :

ν max
hHDW(p )= ∫ν w(ν )e 2iπνp
dν [2.11]
−ν max

On choisit le plus souvent pour la fenêtre d’apodisation un filtre passe-bas idéal


ou une fenêtre de Hamming, de Hann ou de Butterworth. D’après le théorème de
convolution, ceci revient à reconstruire une version de l’image filtrée par un filtre
2D à symétrie de révolution dont les variations radiales de la fonction de transfert
correspondent à w(|ν|). Les réponses impulsionnelles hHDW(p) du filtre rampe avec
fréquence de coupure de 0,5 et du filtre rampe avec fenêtre de Hamming et
fréquence de coupure de 0,5 sont représentées sur la figure 2.2.

p p
- 10 -5 5 10 - 10 -5 5 10

Filtre rampe de fréquence de coupure 0,5 Filtre rampe de fréquence de coupure de 0,5
avec une fenêtre de Hamming sans fenêtre de Hamming

Figure 2.2. Le filtre rampe (équation [2.11])


60 La tomographie

Quel que soit le choix de w(ν), le noyau de convolution hHDW(p) ne peut avoir un
support borné puisque sa transformée de Fourier |ν|w(ν) n’est pas continûment
différentiable en ν = 0. Ceci implique que la reconstruction de f en un point M
nécessite la mesure de sa transformée de Radon Rf pour toutes les droites du plan et
pas seulement pour les droites qui passent par un voisinage de M. On dit que la
reconstruction tomographique en 2D est non locale.

Pour de nombreuses applications médicales et industrielles, il est impossible de


mesurer l’intégralité de la transformée de Radon, soit parce que l’on ne peut pas
disposer de l’ensemble des angles de projection : on parle alors de débattement
angulaire limité ; soit parce que l’on ne dispose pas des projections complètes : on
parle alors de projections tronquées. Dans ce deuxième cas, l’utilisation d’un noyau
de reconstruction à support borné (tomographie pseudo-locale) ou même limité à
p = 0 (tomographie locale) s’impose [RAM 96]. La manière la plus simple de
construire un noyau pseudo-local consiste à multiplier le noyau hHDW(p) par une
fenêtre spatiale à support borné, par exemple une fenêtre rectangulaire de largeur 2a.
On peut alors reconstruire f(M) à partir des intégrales de f le long des droites passant
dans un voisinage de rayon a de M. Cette reconstruction approximative sacrifie la
précision quantitative mais reproduit bien les hautes fréquences qui permettent de
localiser les frontières entre différentes zones homogènes de f(M).

On peut aller plus loin et obtenir une reconstruction locale en utilisant comme
noyau de convolution la dérivée seconde, c’est-à-dire en remplaçant le filtre de
2
rampe HD de [2.9] par le filtre dérivée seconde – D Rf :

∫ (2π v ) ( FRf )(ψ , v ) e
2 2 iπ vp
2
– D Rf (ψ, p) = dv [2.12]
−∞

Dans ce cas, une reconstruction approximative de f(M), qui ne reproduit que les
discontinuités, est obtenue uniquement à partir des droites passant dans un voisinage
arbitrairement petit de M.

Enfin, la tranformation de Radon admet de nombreuses généralisations, de façon


à mieux décrire les conditions de propagation des rayonnements dans la matière. Un
exemple est la transformation de Radon atténuée pour tenir compte de l’atténuation
du rayonnement dans la matière en tomographie d’émission monophotonique.
Récemment, une formule d’inversion a été proposée pour résoudre le cas général
pour une carte d’atténuation non uniforme [NAT 01a, NOV 00].

2.2.5. Le principe distance-fréquence

Chaque échantillon (Ψ, p) de la transformée de Radon [2.1] est une intégrale de


ligne de la fonction inconnue f(M) (voir paragraphe 2.2.1). La valeur de cet
Les méthodes analytiques 61

échantillon ne fournit donc aucune information sur la localisation le long de la ligne.


Le principe distance-fréquence est une propriété approximative de la transformée de
Radon qui permet de recouvrer partiellement une telle information [EDH 86]. Cette
propriété est une conséquence du principe de la phase stationnaire et est donnée ici
sans démonstration.

On définit la transformée de Fourier 2D du sinogramme comme :

2π ∞
FRf (k,ν )= ∫ e -i k ψ

∫e
-2i π p ν
Rf (ψ, p)dpdψ [2.13]
0 -∞

où k ∈ = et ν ∈ ℜ. Notons que chaque échantillon de cette transformée de Fourier


est une combinaison linéaire de l’ensemble des intégrales de ligne. Le principe
distance-fréquence s’énonce alors comme suit : aux hautes fréquences,(|ν|-> ∞), la
valeur de FRf(k,ν) dépend en première approximation des valeurs de la fonction
f(M) pour les points M situés à une distance t = – k/ν le long des droites
d’intégration, la variable t étant définie comme dans l’équation [2.1].

Ce résultat permet de préciser le support de la transformée de Fourier 2D du


sinogramme d’une image dont le support est contenu dans un disque centré de rayon
R (voir chapitre 3). En effet, le principe distance-fréquence implique que
FRf(k,ν) = 0 lorsque |k| > R |ν|. Cette contrainte peut être exploitée lorsque la
transformée de Radon d’une fonction ne peut être mesurée pour toutes les droites D
de la coupe, par exemple à cause d’angles morts dans le système de détection
[KAR 88]. Le principe distance-fréquence permet alors d’extrapoler les mesures
pour compléter le sinogramme, à condition que les régions non mesurées ne soient
pas trop importantes. On verra dans la section 2.2 une autre application du principe
distance-fréquence à la reconstruction 3D.

2.3. La transformée de Radon en deux dimensions : cas de la géométrie éventail

2.3.1. Définition

Le paramétrage de la transformée de Radon d’une fonction f nécessite de décrire


l’ensemble des droites de l’espace passant par le support de l’objet. Sur les
tomographies X, chaque droite est définie par le point de l’anode du tube X où sont
créés les photons X, que l’on notera S, et le centre A de la cellule du détecteur. Sur
les tomographes X à détecteur unidimensionnel, ces points A sont répartis sur une
portion de cercle centrée sur le point S. Ces droites sont concourantes en S formant
un éventail : on parle de géométrie éventail.
62 La tomographie

On repère une droite D par l’angle ψ entre la droite (S, O) et l’axe des ordonnées
(O, y) et par l’angle γ entre la droite d’acquisition (S, A) et la droite (S, O) passant
par l’origine O (voir figure 2.3). La source S se déplace sur un cercle de rayon R.

Od

A(M)

-- M

γ
O
γ
x
D(ψ,γ)

Figure 2.3. La transformée de Radon en 2 dimensions :


cas de la géométrie éventail (équation [2.14])

La transformation de Radon 2D en géométrie éventail associe à chaque fonction


f et chaque droite D(ψ,γ) sa projection intégrale :

Xf f (ψ, A)= Xf f (ψ,γ )= ∫f (M )dM [2.14]


M ∈D(ψ ,γ )

2.3.2. Réarrangement en données parallèles

A chaque droite D de l’espace de coordonnées (ψ,γ) en géométrie éventail, nous


associons ses coordonnées (ϕ, p) en géométrie parallèle comme définies au
paragraphe 2.2.1. Comme chaque droite rencontre le cercle en deux points, ce
changement de coordonnées est décrit par les deux relations suivantes :
Les méthodes analytiques 63

ψ = ϕ - γ
ϕ = ψ + γ  [2.15]
 p = - R ⋅ sinγ ⇔ γ = arcsin− p 
   R
 

ψ = ϕ - γ - π
ϕ = ψ + γ + π ⇔ 
 p = R ⋅ sinγ γ = arcsin p 
   R 

Le principe des algorithmes de reconstruction par réarrangement en données


parallèles consiste à calculer le sinogramme parallèle équivalent, suivant la relation
Rf(ϕ, p) = Xff(ψ, γ), en appliquant ces formules de changement de variable [2.15],
puis à reconstruire l’image associée en utilisant l’algorithme par rétroprojection des
projections filtrées, décrit au paragraphe 2.2.3 [BES 99]. Ce changement de
géométrie impose pour chaque couple (ϕ, p) de réaliser une interpolation bilinéaire
entre les couples (ψ, γ) mesurés encadrant les valeurs recherchées.

2.3.3. Reconstruction par rétroprojection des projections filtrées

Partant de la formule d’inversion de la transformée de Radon en géométrie


parallèle définie au paragraphe 2.2.3, équations [2.9] et [2.10], et en appliquant le
changement de variable [2.15], on obtient la formule d’inversion directe en
géométrie éventail [HER 77].

La formule d’inversion se décompose en trois étapes :

1) pondération des projections mesurées Xff (ψ, A) :

< d >
Yf (ψ, A)= Xf f (ψ, A) . SO ,SA [2.16]
SOd . SA

2) filtrage 1D suivant la variable γ, pour chaque angle ψ :

HDYf (ψ, γ) = hf * Yf [2.17]

 γ  [γ ]
2

h f (γ )= R. .h p .R
où :  sinγ  [2.18]

et où hp est le filtre rampe [2.8] utilisé en géométrie parallèle ;


64 La tomographie

3) rétroprojection pondérée :

SA(M ) 2
2

( ) 1 ( ( )
f M = ∫ψ = 0 HDYf ψ, A M . 2 .r dψ
[2.19]
2 SM

où : 1 = SOd est le facteur de grossissement et A(M) est le point d’intersection


r SO
entre la droite (S, M) et le détecteur.

Cette formule est définie pour une acquisition sur un tour complet, ψ variant de
0 à 2π.

Par rapport à l’algorithme de reconstruction par réarrangement, cet algorithme


direct traite séquentiellement chaque acquisition dès qu’elle est réalisée. De plus, il
évite l’étape d’interpolation et le stockage intermédiaire des données réarrangées.
En revanche, les calculs sont plus complexes du fait des pondérations et de la
géométrie et la mise en œuvre numérique de la rétroprojection en géométrie éventail
peut engendrer des artefacts de sous-échantillonnage de type repliement du spectre
(aliasing) sur les bords des objets.

2.3.4. Cas des acquisitions rapides

La formule précédente suppose un tour complet de l’ensemble source-détecteur.


Or, comme toute droite coupe le cercle trajectoire de la source S en deux points, le
mode d’acquisition rapide va consister à n’en sélectionner qu’un sur deux. Ceci
impose que la source S parcourt un débattement angulaire représentant un demi-tour
augmenté de l’angle d’ouverture du détecteur. Certaines droites sur les premières et
dernières acquisitions seront cependant acquises deux fois. On associe alors à
chaque mesure un coefficient de pondération de façon à garantir un poids unitaire
pour chaque droite de l’espace (algorithme de Parker) [PAR 82].

2.3.5. Cas de la tomographie hélicoïdale 3D en géométrie éventail associée à un


détecteur uniligne

Une image tridimensionnelle (3D) représente un ensemble de coupes transverses


bidimensionnelles. Sur les tomographes X équipés d’un détecteur à une seule ligne
de détection, on enchaîne l’acquisition des coupes transverses en associant au
mouvement de rotation du scanner un mouvement de translation du lit, de telle
façon qu’après chaque tour, la source se trouve décalée de la valeur d’une coupe
Les méthodes analytiques 65

[CRA 90, KAL 95, VAN 96], la source parcourant ainsi une trajectoire hélicoïdale
par rapport au patient.

Le paramétrage de la fonction f est réalisé dans un repère tridimensionnel


(O, x, y, z) où (O, z) correspond à l’axe de rotation. Au mouvement de rotation
circulaire de la source S, paramétré par le rayon R et la position angulaire ψ, est
associé un mouvement de translation suivant z, d’équation :

ψ -ψ o
z=h [2.20]

où h est le pas d’hélice et ψo est la position angulaire de la source S dans le plan de
référence (O, x, y) (voir figure 2.4).

P1 P2π P2

O Z Z2π Z
1 2
z
A A
1 1
A
γ 2

Ψ
S S S2
1 1

S2π

W W
1 2

Figure 2.4. Tomographie hélicoïdale 3D : cas de la géométrie éventail


associée à un détecteur uniligne (équation [2.20])

Nous noterons Xff(ψ, γ, z) la transformation rayons X 3D définie par la


projection intégrale suivant la droite D(ψ,γ,z) contenue dans le plan transverse de
cote z et se projetant parallèlement à l’axe (O, z) sur la droite D(ψ, γ) du plan
(O, x, y).
66 La tomographie

Considérons un plan transverse P2π de cote z2π. Si nous projetons la géométrie


d’acquisition sur ce plan, nous obtenons un ensemble d’acquisitions en géométrie
éventail.

Le principe de l’algorithme de reconstruction est d’appliquer l’algorithme par


rétroprojection des projections filtrées décrit au paragraphe 2.3.3 en prenant comme
origine angulaire la position ψ2π, où la source est contenue dans le plan transverse
P2π. Pour chaque droite D(ψ, γ, z2π) sur ce plan transverse, on recherche les deux
positions de sources S1 et S2 respectivement de cotes z1 et z2, situées de part et
d’autre du plan P2π, telles que les droites d’acquisitions D(ψ, γ, z1) et D(ψ, γ, z2)
soient parallèles à la droite D(ψ,γ,z). On calcule alors la projection souhaitée
Xf(ψ,γ,z) par interpolation linéaire entre les deux projections mesurées Xff(ψ, γ, z1)
et Xff(ψ, γ, z2) :

X f f (ψ,γ, z 2π ) = w2. X f f (ψ,γ, z1 ) + w1. X f f (ψ,γ, z 2 ) [2.21]

où les coefficients d’interpolation w1 et w2 sont donnés par :

w1 = z 2π - z1 w2 = z 2 - z 2π
z 2 - z1 z 2 - z1

Suivant ce principe, pour appliquer la formule de reconstruction [2.19] définie


sur un tour complet, il est nécessaire de disposer des acquisitions sur les deux tours
complets situés respectivement de part et d’autre du plan P2π à reconstruire.

En utilisant l’algorithme de reconstruction rapide introduit au paragraphe 2.3.4,


on peut restreindre le débattement angulaire à deux demi-tours augmentés chacun de
l’angle d’ouverture du détecteur.

2.4. La transformée rayons X en trois dimensions : cas de la géométrie parallèle

2.4.1. Définition

La transformation de Radon 2D peut se généraliser de deux manières au cas


tridimensionnel : la transformation de Radon 3D associe à une fonction
f(M) = f(x, y, z) l’ensemble de ses intégrales sur des plans de ℜ , tandis que la
3

transformation rayons X 3D, étudiée dans cette section, associe à f(M) l’ensemble de
ses intégrales le long des droites D de ℜ [NAT 86]. On suppose, comme avant, que la
3

fonction f est suffisamment régulière et s’annule en dehors d’une boule centrée de


rayon R.
Les méthodes analytiques 67

Xf(β,ψ,p,q)

1q

1p

f(M)
1q z n

y
β
ψ
x
0

1p

Figure 2.5. La transformée rayons X en 3 dimensions :


cas de la géométrie parallèle (équation [2.22])

On repère une droite D par sa direction, définie par un vecteur unitaire n et par
un point de D repéré par son vecteur s à partir de l’origine. Pour éviter la
redondance des paramètres, on restreint le vecteur s aux points du plan n⊥
perpendiculaire à n et passant par l’origine O, n⊥ = {M ∈ ℜ | <OM,n> = 0}. La
3

transformée rayons X s’écrit alors :



Xf (n, s )= ∫ f (M ) dM = ∫ f (s + tn) dt [2.22]
2
n∈S , s ∈n
M ∈D (n ,s ) -∞

où t représente l’abscisse le long de la droite D. Pour chaque direction n, l’ensemble


Xf(n,s), s ∈ n⊥ des intégrales le long de droites parallèles à n définit une projection
parallèle 2D de f(M), comme décrit sur la figure 2.5. On paramètre la direction par
l’angle copolaire β entre D et le plan transaxial z = 0 et l’angle azimutal Ψ :
n = (– cosβ sinΨ, cosβ cosΨ, sinβ). La position de D est définie par deux
coordonnées cartésiennes (p, q) dans n⊥ associées à deux vecteurs orthonormaux
1p = (cosΨ, sinΨ, 0) et 1q = (sinβ sinΨ, – sinβ cosΨ, cosβ). On a donc
s = (p 1p + q 1q). On écrira indifféremment Xf(n,s) = Xf(β,Ψ, p, q). Notons que
68 La tomographie

Xf(β = 0,Ψ, p, q) est la transformée de Radon 2D de la coupe z = q, les variables ψ


et p ayant dans ce cas la même signification que dans le paragraphe 2.2.1.

2.4.2. Le théorème coupe-projection et la condition de suffisance des données

Le théorème coupe-projection pour la transformée de Radon 2D (équation [2.3])


se généralise facilement au cas de la transformée rayons X 3D et s’exprime alors
comme :

FXf (n,ν ) = Ff (ν )

n ∈S , ν ∈ n [2.23]
2

où FXf est la transformée de Fourier 2D de Xf par rapport à s :


FXf (n, ν ) = ∫∫ exp(− 2iπ < s, υ > )Xf (n, s ) ds ν ∈n [2.24]

n

et Ff est la transformée de Fourier 3D de f :

Ff (ν )= ∫∫ exp(- 2iπ < OM ,ν >) f (M ) dM ν ∈ ℜ3 [2.25]



3

Supposons que l’on mesure les projections parallèles le long d’un ensemble de
directions n ∈ Ω, où Ω est un sous-ensemble de la sphère unité S qui dépend du
2

scanner utilisé. Pour chaque direction n ∈ Ω, on suppose que toutes les droites D
parallèles à n sont mesurées (on dit alors que la projection 2D est non tronquée). Dans
ces conditions, le théorème coupe-projection permet de calculer la transformée de
Fourier 3D de f(M) pour une fréquence ν ∈ R à partir de n’importe quelle projection
3

2D de direction n telle que n.ν = 0. Dès lors, on voit que les données permettent de
reconstruire de manière unique et stable l’image f(M) si et seulement si tout grand
cercle sur la sphère unité a une intersection non vide avec l’ensemble Ω des directions
mesurées. Cette propriété est appelée la condition d’Orlov [ORL 75].

Ce résultat met en évidence la redondance des données, une propriété essentielle


de la transformée rayons X 3D. En effet, si le grand cercle orthogonal à une certaine
fréquence ν possède plus d’une intersection avec Ω, on disposera de plusieurs
estimations indépendantes et redondantes de Ff(ν). Cette redondance peut aussi se
comprendre intuitivement en notant que f est une fonction de trois variables (x, y, z),
tandis que Xf dépend de quatre variables (β, Ψ, p, q).
Les méthodes analytiques 69

2.4.3. Inversion par rétroprojection des projections filtrées

L’inversion de la transformée rayons X 3D peut se faire par rétroprojection des


projections filtrées comme dans le cas 2D. On suppose que l’ensemble de directions
mesurées Ω satisfait la condition d’Orlov et que les projections 2D ne sont pas
tronquées.

1) filtrage 2D de la projection mesurée Xf(n, s) pour chaque direction n ∈ Ω :


H c Xf (n, s )= ∫∫ H Ω (n, ν ) FXf (n ,υ) exp(2iπ < s, υ >) dν s ∈n [2.26]
n⊥

2) rétroprojection :

f (M )= ∫∫ H c Xf (n, s = OM - < OM.n > n ) dn [2.27]


La rétroprojection correspond comme en 2D à une somme sur toutes les droites


passant par le point M. A cause de la redondance des données, le filtre H Ω(n, ν) n’a
pas une forme unique [DEF 93]. Le filtre le plus utilisé est celui de Colsher :

-1
  ⊥
 
H Ω (n, ν )=  δ(n.ν ) dn 
∫∫ ν ∈n [2.28]
 
Ω 

dont la forme explicite peut être trouvée dans [COL 80] pour le cas où Ω est une
bande équatoriale sur la sphère unité. Sous des hypothèses assez générales, le filtre
de Colsher minimise la variance de l’image reconstruite.

2.5. La transformée de Radon 3D

2.5.1. Définition

Dans un espace de dimension n, la transformation de Radon associe à la


fonction f(M) l’ensemble de ses intégrales sur les hyperplans de l’espace, c’est-à-
dire sur les sous-espaces affines de dimension (n – 1). En dimension 3, il s’agira
donc de l’ensemble des plans.
70 La tomographie

C
θ f(x,y,z)

P(n,ρ)
0
y
ϕ

Figure 2.6. La transformée de Radon 3D (équation [2.29])

On repère un plan P par l’angle de longitude ϕ et l’angle de colatitude θ de son


vecteur unitaire perpendiculaire n, et par la distance algébrique ρ entre le plan et
l’origine O (voir figure 2.6). La transformée de Radon 3D de la fonction f s’écrit
alors :

Rf (n, ρ )= ∫ f (M ) dM [2.29]
M∈P (n ,ρ )

= ∫∫ f ([Link] ϕ.cos θ − [Link] ϕ + ρ.cos ϕ.sin θ,[Link] ϕ.sin θ + [Link] ϕ


+ρ.sin ϕ. sin θ, − [Link]  + ρ. cos θ)dudv

Nous notons respectivement DρRf et D ρ2 Rf les dérivées partielles première et


seconde de Rf par rapport à la distance algébrique ρ et nous les appelons
respectivement dérivée première de la transformée de Radon 3D Rf et dérivée
seconde.

2.5.2. Théorème coupe-projection

Soit FρRf(n,ν) la transformée de Fourier de Rf(n,ρ) par rapport à la variable ρ


et Ff(νn) les variations radiales de la transformée de Fourier 3D de f le long de la
droite de vecteur unitaire n.
Les méthodes analytiques 71

Le théorème coupe-projection établit l’égalité entre ces deux fonctions :

FρRf(n,ν) = Ff(νn) [2.30]

Ceci montre que si l’on connaît la transformée de Radon pour tous les vecteurs n
appartenant à une moitié de la sphère unité, la transformée de Fourier Ff(νn) sera
connue sur tout l’espace et l’on pourra donc reconstruire la fonction f. Ceci est vrai
en particulier si (ϕ, θ) appartient à [0, π] × [0, π].

2.5.3. Inversion par rétroprojection des projections filtrées

A partir de la formule d’inversion de la transformation de Fourier et en utilisant


le théorème coupe-projection [2.30], on établit la formule d’inversion de la
transformation de Radon 3D et de ses dérivées [CHI 80] :

π π
∫ ∫ D ρ2 Rf (n, < OM, n > ) sinθ
f(M) = − 1 [2.31]
dθ dϕ
2 ϕ= 0 θ= 0

Cette formule correspond à un filtrage des projections Rf(n, ρ) suivant ρ par un


filtre dérivée seconde, puis à une rétroprojection en chaque point M suivant les
plans passant par ce point M.

Le filtre à appliquer étant un filtre dérivée seconde, son support est de taille
quasiment nulle. Il n’est donc nécessaire de connaître Rf que sur les plans passant
par un voisinage du point M pour reconstruire f(M). La transformation de Radon 3D
est donc locale, ce qui n’est pas vrai pour la transformation de Radon 2D.

D’un point de vue numérique, pour réduire le nombre de calculs, il est préférable
d’inverser la transformation de Radon en deux étapes de rétroprojection [MAR 80] :

π
HDXPf (ϕ, B)= - 1 D ρ2 Rf (n, < OB, n > ) sinθ dθ


2 θ=0
[2.32]

π
f (M )= ∫ϕ=0 HDX P f (ϕ, B(ϕ, M ))dϕ [2.33]

où B(ϕ, M) est la projection orthogonale du point M sur le plan méridien de


longitude ϕ.

La formule [2.32] correspond à l’enchaînement d’un filtrage et d’une


rétroprojection suivant des droites sur chaque plan méridien. Elle aboutit à la
72 La tomographie

transformée rayons X en géométrie parallèle XP filtrée transaxialement par le filtre


rampe HDXPf.

La formule [2.33] définit une rétroprojection suivant les droites selon chaque
plan transverse.

2.6. La tomographie d’émission à positons 3D

2.6.1. Définitions

Nous considérons ici le problème de reconstruction 3D pour un tomographe


d’émission à positons multicouronnes cylindrique de rayon Rc et de longueur 2Lc,
ayant son axe le long de l’axe z. On suppose que les données ont été préalablement
corrigées pour les effets secondaires décrits dans [GRA 02] chapitre 5 et qu’elles
peuvent être modélisées comme des intégrales de la fonction de distribution f(M) du
traceur radioactif le long des droites (ou lignes de réponse, LOR) reliant deux points
de la surface latérale du détecteur cylindrique. On dispose donc pour reconstruire f(M)
de sa transformée rayons X 3D pour cet ensemble de droites. Comme décrit dans
[GRA 02] chapitre 5, ces données peuvent être enregistrées soit sous la forme de
sinogrammes obliques, soit sous celle de projections parallèles tronquées (la
troncation étant due au fait que le tomographe n’est en général pas assez long pour
contenir dans son champ de vue l’intégralité de l’objet, c’est-à-dire du support de
f(M)). Les deux paragraphes ci-dessous présentent des algorithmes de reconstruction
utilisant ces deux types de paramétrisation. Dans tous les cas, les algorithmes sont
présentés en supposant que l’échantillonnage est continu et le problème de la
discrétisation de ces algorithmes n’est pas abordé.

Les algorithmes de reconstructions 3D en PET doivent répondre aux conditions


suivantes :
– permettre une implémentation rapide malgré le nombre considérable de
9
données (plus de 4.10 LOR sont mesurées pour le tomographe ECAT HRRT),
– exploiter de manière optimale la redondance des données pour minimiser la
variance de l’image reconstruite.

2.6.2. Reconstruction approximative par réarrangement en coupes transverses

On considère ici des données organisées en sinogrammes obliques


(voir [GRA 02] chapitre 5) : chaque sinogramme oblique regroupe toutes les LOR
reliant deux points du cylindre de coordonnées axiales z1 et z2, avec |zi| ≤ Lc. Suivant
la figure 2.7, pour un sinogramme oblique (z1, z2) fixé, on repère les droites D par
Les méthodes analytiques 73

les variables usuelles Ψ et p (voir paragraphe 2.2.1) qui définissent la projection


orthogonale de D dans le plan transaxial. Les données sont donc :

  z +z2  
( )
g ψ, p, z 1 , z 2 = Xf  β ,ψ ,p ,q =  1
 2
 cos β 
 
[2.34]
   

 
où : β = arctan  z 1 - z 2 , ψ ∈ [0,π ), p ≤ R, zi ≤ Lc
 2 2 - p2 
 Rc 

où la transformée rayons X 3D Xf est définie en [2.22].

Notons que lorsque z1 = z2 = z, le sinogramme coïncide avec la transformée de


Radon 2D de la coupe transaxiale z. La coupe z peut être reconstruite à partir de ce seul
sinogramme en utilisant l’algorithme de rétroprojection filtrée 2D (voir [2.9] et [2.10])
qui est numériquement efficace. Dès lors, on voit que f(M) peut être reconstruit très
facilement à partir du sous-ensemble des sinogrammes directs {g(Ψ, p, z1 = z, z2 = z),
– Lc ≤ z ≤ Lc}. Cette approche n’est pas satisfaisante, car elle n’utilise qu’une partie des
données mesurées et n’exploite donc pas la redondance des données.

Les algorithmes de réarrangement utilisent l’ensemble de tous les sinogrammes


obliques disponibles pour estimer la transformée de Radon 2D de chaque coupe z.
On reconstruit ensuite chaque coupe indépendamment en inversant sa transformée
de Radon 2D.

L’algorithme de réarrangement le plus simple (dit SSRB : single-slice rebinning)


[DAU 87] utilise le fait que l’angle maximum β = arctan(Lc/Rc) entre les droites D et
le plan transaxial z = 0 ne dépasse pas environ 10 degrés dans de nombreux
tomographes actuellement en service. En première approximation, on peut alors
négliger cet angle et supposer que la LOR oblique (Ψ, p, z1, z2) mesurée par le
tomographe est confondue avec la LOR directe (Ψ, p, (z1 + z2)/2, (z1 + z2)/2) située
dans le plan de la coupe z = (z1+ z2)/2 qui contient le point médian de la LOR.

Pour optimiser le rapport signal sur bruit, on moyenne alors toutes les LOR
obliques ainsi confondues, pour obtenir les sinogrammes réarrangés suivants :

Lc
Xf (0,ψ, p, z ) ≈ g(ψ, p, z1, z 2 = 2z - z1 ) dz1
2(Lc - z ) 2z∫-L c
1 0 ≤ z ≤ Lc [2.35]

avec une expression similaire pour les coupes -Lc ≤ z ≤ 0. En pratique, l’intégrale
sur z1 est remplacée par une somme sur l’indice des couronnes de détecteurs.
74 La tomographie

1y

1z

p ψ
z 2

1x

Coupe z +z
1 2

z=
2
β
z
1

Figure 2.7. La transformée rayons X en TEP et le réarrangement en coupes transverses


(équation [2.34])

La figure 2.7 montre que l’approximation SSRB entraîne une dégradation de la


résolution axiale (en z) proportionnelle à la distance avec l’axe du tomographe. Pour
certains tomographes à grand champ de vue axial (2Lc = 25 cm), cette dégradation
devient inacceptable. On voit sur la figure 2.7 que le problème pourrait être
facilement résolu si l’on pouvait préciser à quelle distance le long de la LOR se situe
la source d’activité. En effet, si cette distance définie comme dans l’équation [2.2]
est t, on peut calculer la coupe transaxiale z = (z1 + z2)/2 + t tanβ à laquelle cette
LOR doit être attribuée lors du réarrangement. L’algorithme de réarrangement par
transformée de Fourier (FORE : Fourier rebinning) est basé sur cette approche et
exploite le principe distance-fréquence (voir paragraphe 2.2.5) pour déterminer de
manière approximative la valeur de t en prenant la transformée de Fourier 2D d’un
sinogramme oblique [DEF 97]. La relation de base de l’algorithme FORE est :

  z +z2  
FXf  0, k , ν, z =  1
 2  ν 
(
 -  k  tan β  ≈ Fg k ,ν, z , z
1 2
) ν≠0 [2.36]
   

où β est lié à z1 et z2 comme dans l’équation [2.34], et F représente ici la transformée


de Fourier 2D par rapport aux variables ψ et p, les fréquences correspondantes étant
respectivement k ∈ = et ν ∈ ℜ. L’ensemble des sinogrammes obliques fournit ainsi
plusieurs estimations redondantes de FXf(0, k, ν, z), qui sont moyennées pour
optimiser le rapport signal sur bruit. Comme la relation [2.36] n’est pas précise aux
petites fréquences ν, on utilise plutôt l’algorithme SSRB pour celles-ci. Pour des
applications cliniques, l’algorithme FORE est suffisamment précis pour des angles β
inférieurs à environ 30 degrés. Des algorithmes de réarrangement exacts ont été
proposés pour de plus grandes valeurs de β.
Les méthodes analytiques 75

2.6.3. Reconstruction directe par rétroprojection des projections filtrées

On a vu dans le paragraphe 2.4.3 qu’une image 3D f(M) peut être reconstruite


par rétroprojection des projections filtrées lorsque l’on connaît ses projections
parallèles 2D pour un ensemble de directions n ∈ Ω qui satisfait la condition
d’Orlov. Dans le cas d’un tomographe multicouronne, on mesure des LOR pour des
angles Ψ ∈ [0,π) et β ∈ [– βmax,+ βmax], où βmax = arctan(Lc/Rc). L’ensemble Ω est
donc une bande équatoriale d’ouverture 2βmax sur la sphère unité et satisfait bien la
condition d’Orlov puisqu’il a une intersection avec tout grand cercle. L’application
de la rétroprojection des projections filtrées n’est toutefois pas possible, car les
projections parallèles 2D sont en général tronquées pour β ≠ 0 à cause de la
longueur finie du tomographe. Spécifiquement, si le support de f(M) n’est pas limité
axialement, la projection d’orientation (β, Ψ) n’est mesurée que pour :

q ≤ [Link] β − sin β . R c2 − p 2 ,

alors qu’elle devrait être connue pour :

q ≤ [Link] β + sin β . R c2 − p 2

pour éviter la troncation.

L’algorithme 3DRP (3D reprojection algorithm) résout ce problème en utilisant


le fait que le sous-ensemble des projections directes (β = 0) est en fait suffisant pour
reconstruire f(M) [KIN 90]. La reconstruction procède alors en quatre étapes :
– reconstruction d’une première estimation f0(M) (non biaisée mais à faible
rapport signal-bruit) par reconstruction 2D de chaque coupe z à partir de sa
transformée de Radon 2D Xf(0, ψ, p, z),
– calcul des projections parallèles 2D de f0(M) dans la région non mesurée
donnée par :

[Link] β − sin β . R c − p ≤ q ≤ [Link] β + sin β . R c − p


2 2 2 2

– fusion de ces données estimées avec celles mesurées pour obtenir des
projections 2D non tronquées dans la bande Ω,
– reconstruction de ces projections par rétroprojection des projections filtrées
avec le filtre de Colsher [2.28].

L’algorithme 3DRP est le standard de référence en PET 3D.


76 La tomographie

2.7. La tomographie par rayons X en géométrie conique

2.7.1. Définition

Conceptuellement, comme nous l’avons vu section 2.3, les acquisitions de


transmission par rayons X permettent de mesurer les projections intégrales de la
fonction f étudiée le long des droites issues du point de l’anode du tube X où sont
créés les photons, que l’on note S.

Pour chaque point S de la trajectoire Γ décrite par l’anode durant l’acquisition, la


transformation rayons X 3D en géométrie conique associe à la fonction f l’ensemble
des intégrales le long des droites D de ℜ passant par S (voir figure 2.8). Nous
3

notons D(a,S) la droite passant par le point S, de vecteur directeur a. La


transformation rayons X s’écrit alors :

+∞

X f (a,S ) = ∫ f ( M ) dM = ∫ f (S+ta ) dt, S ∈ Γ [2.37]


2

c
a ∈S ,
M ∈D(a ,S ) -∞

Ces droites forment un cône issu du point S. Pour les paramètres, on utilisera par
la suite le plan de détection PX (voir figure 2.8). Dans le cas d’un détecteur plan, le
plan de détection est défini comme le plan parallèle au détecteur et passant par
l’origine O du repère. Dans le cas d’une trajectoire hélicoïdale, ce plan peut aussi
être défini comme le plan passant par l’axe de rotation perpendiculaire à la droite
transverse joignant la source à l’axe. Nous notons alors G la projection orthogonale
du point S sur le plan de détection PX.

Pour chaque position S de la source et pour chaque point A du plan de détection,


la transformation rayons X 3D en géométrie conique associe à la fonction f sa
projection intégrale le long de la droite D(S, A) :

X f (S,A ) = ∫ f ( M ) dM [2.38]
c
M ∈D(S,A )

2.7.2. Lien avec la dérivée de la transformée de Radon 3D et condition de


suffisance des données

En dimension 3, l’ensemble des droites forme un espace de dimension 4, alors


que l’ensemble des plans forme un espace de dimension 3. C’est pourquoi la
transformation de Radon en dimension 3, qui définit des projections intégrales
suivant des plans, joue un rôle central.
Les méthodes analytiques 77

Cellules de détection

qd

Support de l'objet q

Droite d'acquisition D(a,S)


Ad
G
v
A
Gd

a G G
w G u
S
Od
pd
O
p
FACE AVANT
Point source DU DETECTEUR
(point focal) PLAN DE DETECTION Pd
X

PX

Trajectoire Γ de la source S

Figure 2.8. La transformée rayons X en 3 dimensions :


cas de la géométrie conique (équation [2.37])

Grangeat a établi la relation exacte reliant la transformée rayons X 3D en


géométrie conique et la dérivée première de la transformée de Radon 3D [GRA 91].

Nous allons décomposer cette formule en deux étapes :

1) pondération des projections mesurées :

< SG , SA >
Yf (S, A ) = X cf (S, A ) . [2.39]
SG SA

2) chaque plan P(S, n) passant par S et perpendiculaire à n rencontre le plan de


détection PX suivant une droite ∆(S, n). Nous définissons la projection intégrale
sommée SYf(S, n) comme l’intégrale de Yf le long de cette droite ∆(S, n) :

SYf (S, n ) = ∫ Yf (S,A) dA [2.40]


A∈∆ (S,n )
78 La tomographie

Notons p’ la distance algébrique de cette ligne d’intégration par rapport à


l’origine O. Pour une position de source S donnée, les dérivées partielles de SYf et
Yf par rapport à p’ vérifient :

D p'SYf (S, n ) = ∫ D p' Yf (S, A) dA [2.41]


A∈∆ (S,n )

Alors la formule de Grangeat s’exprime de la façon suivante :

2
SG
. D p'SYf (S,n ) = D ρ Rf (n, < OS , n > ) [2.42]
SG ∧ n
2

La mise en œuvre numérique de cette formule [2.42] repose sur des opérations
de filtrage pour calculer la dérivée partielle Dp’Yf et de reprojection pour réaliser
l’intégration le long de la droite ∆(S, n).

Cette relation [2.42] montre qu’à partir de la transformée rayons X d’une


fonction f, on va pouvoir calculer la dérivée première DρRf de la transformée de
Radon pour tous les plans qui rencontrent la trajectoire Γ. Or, d’après la formule
d’inversion [2.31], on ne pourra reconstruire f que si l’on connaît DρRf pour tous les
plans passant par le support de l’objet. On obtient ainsi la condition de Tuy : la
transformation rayons X permet de reconstruire une fonction f si tous les plans
passant par le support de f rencontrent la trajectoire Γ en au moins un point
[TUY 83].

Cette formule [2.42] montre aussi que cette condition peut être restreinte aux
plans qui rencontrent la région d’intérêt à l’intérieur du support de f car la dérivée
première de la transformée de Radon peut être inversée localement.

Une droite infinie et une trajectoire hélicoïdale englobant le support de l’objet


vérifient la condition de Tuy. En revanche, la trajectoire circulaire ne vérifie pas la
condition de Tuy pour tous les points en dehors du plan de la trajectoire. Pour ces
points, les plans quasiment parallèles à celui de la trajectoire ne vont pas la
rencontrer. Tous ces plans correspondent à une zone d’ombre dans le domaine de
Radon pour laquelle les acquisitions ne permettent pas d’affecter une valeur.

Tuy a établi une formule d’inversion pouvant être interprétée comme une
relation entre la transformation rayons X en géométrie conique et la dérivée seconde
de la transformation de Radon 3D [TUY 83]. Smith a proposé une relation entre la
transformation rayons X en géométrie conique et la transformée de Hilbert de la
dérivée première de la transformation de Radon 3D [SMI 85].
Les méthodes analytiques 79

2.7.3. Inversion approximative par réarrangement en coupes transverses

Nous considérons le cas des trajectoires circulaires ou hélicoïdales et nous


choisissons comme plan de détection PX celui contenant l’axe et perpendiculaire au
rayon transaxial joignant la source S à l’axe.

Chaque ligne du plan de détection perpendiculaire à l’axe de rotation définit


avec le point source S un plan oblique. Dans les algorithmes par réarrangement en
coupes transverses, les acquisitions réalisées suivant ce plan oblique seront
assimilées à des acquisitions réalisées suivant le plan transverse rencontrant le plan
de détection selon la même ligne et passant par la projection du point S sur ce plan
transverse parallèlement à l’axe (voir figure 2.9). Les mesures en géométrie conique
sont ainsi réarrangées par projection sur des plans parallèles à l’axe de rotation en
un ensemble de mesures en géométrie éventail suivant des plans transverses.

Dans le cas de la trajectoire hélicoïdale, on affecte à une coupe désirée dans


l’objet une tranche définie par une épaisseur de coupe et pour chaque direction de
mesure, on calcule une moyenne sur les plans transverses réarrangés dont la cote se
situe à l’intérieur de cette tranche, par une opération de filtrage axial suivant z
[BRU 00, HU 99, NOO 99, TAG 98].

On obtient ainsi pour chaque coupe transverse de l’objet un ensemble de


projections 2D en géométrie éventail que l’on peut reconstruire par les algorithmes
décrits section 2.3, soit par réarrangement en données parallèles, soit par
rétroprojection des projections filtrées en géométrie éventail.

La précision géométrique de ce réarrangement d’oblique à transverse est


d’autant moins bonne que l’on s’éloigne de l’axe de rotation. Pour éviter les
artefacts de type image floue sur les bords de l’image, un tel algorithme ne peut être
utilisé qu’avec une ouverture angulaire axiale très petite. Ceci est le cas sur les
scanners multilignes utilisant un faible nombre de lignes, typiquement quatre
actuellement.

2.7.4. Inversion approximative par rétroprojection des projections filtrées

Pour éviter ces artefacts sur les bords des objets, il est préférable de respecter la
géométrie d’acquisition et de réaliser les rétroprojections suivant les plans obliques
(voir figure 2.9). Par analogie avec l’algorithme de réarrangement en 2D, un
premier type d’algorithme consiste à transformer les projections coniques en un
ensemble de projections en géométrie « parallèle-éventail » réparties selon des plans
parallèles à l’axe de rotation, perpendiculaires à chaque direction transaxiale de
projection et disposées en éventail suivant ces plans parallèles. On applique alors un
80 La tomographie

algorithme de reconstruction en géométrie parallèle suivant tous les plans obliques


passant par un même point [GRA 00, PRO 00].

Plans transverses Plans obliques


Axe z

Plan de détection PX

Réarrangement en coupes transverses Rétroprojection en géométrie conique

Détecteur multiligne

Figure 2.9. Les deux géométries de rétroprojection


pour les algorithmes de reconstruction directs en géométrie conique

Un deuxième type d’algorithme a été proposé par Feldkamp, Davis et Kress


[FEL 84]. Le principe est de généraliser à la géométrie conique l’algorithme de
reconstruction directe en géométrie éventail, décrit au paragraphe 2.3.3. Cet algorithme
de reconstruction, appelé algorithme de Feldkamp, se décompose en trois étapes :

1) pondération des projections mesurées :

< , >
Yf (S,A ) = Xf (S,A ). SO SA [2.43]
SO SA

2) filtrage suivant la variable p selon chaque ligne transaxiale du plan de


détection PX :

HDYf(S,p,q) = hp *P Yf(S,p,q) [2.44]


Les méthodes analytiques 81

où hp est le filtre rampe [2.8] utilisé en géométrie parallèle et p et q les coordonnées


cartésiennes du point A dans le plan de détection ;

3) rétroprojection pondérée en géométrie conique :

SA(M )
2

f (M ) = 1 ∫ HDYf (S,A(M )).
~ [2.45]
2

2 ψ =0 SM

où A(M) est le point d’intersection entre la droite (S, M) et le plan de détection PX.

Quand la source se déplace sur une trajectoire hélicoïdale, cet algorithme peut
être généralisé. Nous suivrons ici l’approche proposée par Wang [WAN 93].

Pour reconstruire un point M, on définit la position de source SM, d’angle ψM


contenu dans le même plan transverse PM et l’on considère le débattement angulaire
de la source S sur un tour d’hélice complet centré sur SM.

Ceci correspond aux deux demi-tours placés respectivement au-dessus et au-


dessous du plan transverse PM. On applique alors la même formule que pour
l’algorithme de Feldkamp [2.45] :

SA ( M )
2
ψ M +π
HDYf (S, A ( M )) .
1
f ( M ) = ∫ 2
dψ [2.46]
2 ψ = ψ M −π
SM

où A(M) est le point d’intersection de la droite (S, M) avec le plan de détection PX.

Cette approche peut être généralisée en ne considérant non plus un tour, mais n
tours centrés sur PM et en moyennant les valeurs obtenues sur ces n tours.

Pour une grande ouverture angulaire, des précautions particulières doivent être
prises quand le détecteur a une hauteur axiale limitée par rapport à celle de la région
d’intérêt et quand la zone couverte par le débattement axial de l’hélice n’est qu’un
tronçon d’un objet plus long.

De même que l’algorithme éventail 2D sur un tour complet, l’algorithme


éventail rapide peut être étendu à la reconstruction 3D en géométrie conique. Dans
le cas de la trajectoire hélicoïdale, ceci permet d’atteindre des pas d’hélice proches
du double de la hauteur du détecteur mesurée au niveau du plan de détection PX.
82 La tomographie

2.7.5. Inversion par réarrangement dans l’espace de Radon

Les algorithmes proposés précédemment reposent sur des approximations


géométriques qui conduisent à négliger certains facteurs correcteurs. Le principe des
algorithmes indirects est d’utiliser des relations exactes par l’intermédiaire du
domaine de Radon [GRA 97].

Ainsi, Grangeat a proposé de calculer la dérivée première de la transformée de


Radon 3D DρRf à partir de la transformée rayons X en utilisant la formule exacte
[2.42], puis d’inverser la dérivée première de la transformée de Radon 3D comme
décrit par la formule [2.31].

Si la trajectoire d’acquisition vérifie la condition de Tuy, le domaine de Radon


sera entièrement couvert et la reconstruction sera donc mathématiquement exacte.

La formule [2.42] permet de calculer DρRf(<OS,n>,n) dans le repère


d’acquisition (voir figure 2.8). La formule d’inversion nécessite de connaître D ρRf
dans le système de coordonnées sphériques (ρ, θ, ψ) (voir figure 2.6). Le passage du
repère d’acquisition au repère de coordonnées sphériques constitue l’équation de
réarrangement. Dans le cas d’une trajectoire d’acquisition circulaire de rayon R, le
plan de coordonnées (ρ,θ,ϕ) rencontre la trajectoire en deux positions ψ de la source
S vérifiant une équation du type :

[Link](ϕ-ψ).sinθ = ρ [2.47]

Comme dans le cas de la géométrie éventail 2D, ce réarrangement peut être


interprété comme le passage de la géométrie conique à la géométrie parallèle.

Ce principe de reconstruction indirecte via la dérivée première de la


transformation de Radon est très général et peut être adapté à de nombreuses
configurations. Il permet notamment de moyenner les informations redondantes
quand plusieurs positions de la source appartiennent au même plan. Dans le cas
d’information manquante, comme c’est le cas pour la trajectoire circulaire, il devient
possible de combler cette zone d’ombre par interpolation et de réduire ainsi les
artefacts associés.

Ce principe est bien adapté quand on a un détecteur surfacique et une forte


ouverture angulaire [RIZ 91]. Il est moins intéressant dans le cas des détecteurs
multilignes proposés actuellement sur les scanners X, le nombre de lignes étant
limité.

La mise en œuvre numérique de cette approche indirecte nécessite plus de


mémoire pour stocker les valeurs intermédiaires du domaine de Radon et plus de
Les méthodes analytiques 83

calculs élémentaires par rapport aux algorithmes directs. Mais ces calculs
élémentaires sont simples et facilement parallélisables, car les opérations de
projection et de rétroprojection sont réalisées en géométrie parallèle suivant des
ensembles d’images bidimensionnelles.

Cette approche a été généralisée par Tam au cas de la trajectoire hélicoïdale


avec un détecteur de taille limitée dans la direction axiale [TAM 98]. L’idée est
alors de décomposer chaque plan en un ensemble de zones triangulaires comme sur
un jeu de jacquet, chaque somme correspondant à un point d’intersection avec la
trajectoire. Une formule de Grangeat modifiée a été introduite pour prendre en
compte des termes complémentaires à la limite des zones triangulaires [KUD 00].
On attribue alors aux plans la somme des intégrales partielles calculées sur chaque
portion triangulaire. La condition est que le détecteur soit suffisamment haut pour
mesurer intégralement chacun des secteurs angulaires. Cette approche permet aussi
de résoudre de manière exacte le problème de la reconstruction d’une région
d’intérêt correspondant à une portion d’un objet long [SCH 00] et le cas où la
hauteur du détecteur correspond à la projection de plusieurs demi-tours de la
trajectoire hélicoïdale d’acquisition [PRO 00].

Enfin, ce principe algorithmique a été étendu au cas où le lieu de la source n’est


plus seulement une trajectoire unidimensionnelle, mais est soit une surface
bidimensionnelle, comme c’est le cas sur un tomographe d’émission à positons à
détecteur cylindrique [WU 96], soit un ensemble de positions discrètes dans
l’espace [NOO 97], pourvu que la couverture de l’espace de Radon soit suffisante
en regard de la résolution recherchée et du volume du support de la fonction.

2.8. Bibliographie

[BAR 81] BARRETT H.H., SWINDELL W., Radiological Imaging, Academic Press, New York,
1981.
[BES 99] BESSON G., « CT image reconstruction from fan-parallel data », Med. Phys., vol.
26, n° 3, p. 415-426, 1999.
[BRU 00] BRUDER H., KACHELRIESS M., SCHALLER S., STIERSTORFER K., FLOHR T., « Single-
slice rebinning reconstruction in spiral cone-beam computed tomography », IEEE Trans.
Med. Imag., vol. 19, n° 9, p. 873-887, 2000.
[CHI 80] CHIU M.Y., BARRETT H.H., SIMPSON R.G., « Three-dimensional image
reconstruction from planar projections », J. Opt. Soc. Am., vol. 70, p. 755-762, 1980.
[COL 80] COLSHER J.G., « Fully three-dimensional positron emission tomography », Phys.
Med. Biol., vol. 25, p. 103-115, 1980.
[CRA 90] CRAWFORD C.R., KING K.F., « Computed tomography scanning with simultaneous
patient translation », Med. Phys., vol. 17, n° 6, p. 967-982, 1990.
84 La tomographie

[DAU 87] DAUBE-WITHERSPOON M.E., MUEHLLEHNER G., « Treatment of axial data in three-
dimensional PET », J. Nucl. Med., vol. 28, p. 1717-1724, 1987.
[DEA 83] DEANS S.R., The Radon transform and its applications, Wiley-Interscience, 1983.
[DEF 93] DEFRISE M., CLACK R., TOWNSEND D.W., « The solution to the 3D image
reconstruction problem from 2D parallel projections », J. Opt. Soc. Am. A, vol. 10,
p. 869-877, 1993.
[DEF 97] DEFRISE M., KINAHAN P.E., TOWNSEND D.W., MICHEL C., SIBOMANA M.,
NEWPORT D.F., « Exact and approximate rebinning algorithms for 3D PET data », IEEE
Trans. on Med. Imag., vol. MI-16, p. 145-158, 1997.
[EDH 86] EDHOLM P.R., LEWITT R.M., LINDHOLM B., « Novel properties of the Fourier
decomposition of the sinogram », dans Int Workshop on Physics and Engineering of
Computerised Multidimensional Imaging and Processing, Proc of the SPIE, vol. 671,
p. 8-18, 1986.
[FEL 84] FELDKAMP L.A., DAVIS L.C., KRESS J.W., « Practical cone-beam algorithm »,
J. Opt. Soc. Am. A, vol. 6, p. 612-619, 1984.
[GRA 91] GRANGEAT P., « Mathematical framework of cone-beam 3D reconstruction via the
first derivative of the Radon transform », dans Mathematical Methods in Tomography,
Herman G.T., Louis A.K., Natterer F. (dir.), Lecture Notes in Mathematics, p. 66-97,
Berlin, Springer, vol. 1497, 1991.
[GRA 97] GRANGEAT P., SIRE P., GUILLEMAUD R., LA V., « Indirect cone-beam three-
dimensional image reconstruction », in Contemporary Perspectives in Three-dimensional
Biomedical Imaging, Roux C., Coatrieux J.L. (dir.), IOS Press, Studies in Health
Technology and Informatics, vol. 30, p. 29-52 et 343-350, 1997.
[GRA 00] GRASS M., KÖHLER Th., PROKSA R., « 3D cone-beam CT reconstruction for
circular trajectories », Phys. Med. Biol., vol. 45, p. 329-347, 2000.
[GRA 01] GRANGEAT P., « Fully three-dimensional image reconstruction in radiology and
nuclear medicine », Encyclopedia of Computer Science and Technology, A. Kent et J.G.
Williams (dir.), Marcel Dekker, New York, vol. 44, Supp. 29, chap. 10, p. 167-201, 2001.
[GRA 02] GRANGEAT P. (dir.), La tomographie médicale, Hermès, Traité IC2, Paris, 2002.
[HER 77] HERMAN G.T., NAPARSTEK A., « Fast image reconstruction based on a Radon
inversion formula appropriate for rapidly collected data », SIAM J. Appl. Math., vol. 33,
n° 3, p. 511-533, 1977.
[HER 80] HERMAN G.T., Image reconstruction from projections: the fundamentals of
computerized tomography, Academic Press, New York, 1980.
[HIR 97] HIRIYANNAIAH H. P., « X-ray computed tomography for medical imaging », IEEE
Signal Processing Magazine, p. 42-59, mars 1997.
[HU 99] HU H., « Multi-slice helical CT: scan and reconstruction », Med. Phys., vol. 26, n° 1,
p. 5-18, 1999.
Les méthodes analytiques 85

[KAK 88] KAK A.C., SLANEY M., Principles of Computerized Tomographic Imaging, IEEE
Press, New York, 1988.
[KAL 95] KALENDER W.A., « Principles and performance of spiral CT », dans Medical CT
and Ultrasound: Current Technology and Applications, L.W. Goodman, J.B. Fowlkes
(dir.), Advanced Medical , p. 379-410, 1995.
[KAR 88] KARP J.S., MUEHLLEHNER G., LEWITT R.M., « Constrained Fourier space method
for compensation of missing data in emission computed tomography », IEEE Trans. Med.
Imag., vol. MI-7, p. 21-25, 1988.
[KIN 90] KINAHAN P.E. et ROGERS J.G., « Analytic three-dimensional image reconstruction
using all detected events », IEEE Trans. Nucl. Sci., vol. NS-36, p. 964-968, 1990.
[KUD 00] KUDO H., NOO F., DEFRISE M., « Quasi-exact filtered backprojection algorithm for
long-object problem in helical cone-beam tomography », IEEE Trans. Med. Imag.,
vol. 19, n° 9, p. 902-921, 2000.
[MAR 80] MARR R., CHEN C., LAUTERBUR P.C., « On two approaches to 3D reconstruction
in NMR zeugmatography », dans Mathematical Aspects of Computerized Tomography,
Herman G.T., Natterer F. (dir.), Springer Verlag, p. 225-240, 1980.
[NAT 86] NATTERER F., The Mathematics of Computerized Tomography, Wiley, New York,
1986.
[NAT 01a] NATTERER F., « Inversion of the attenuated Radon transform », Inverse Problems,
vol. 17, n° 1, p. 113-119, 2001.
[NAT 01b] NATTERE F., WUEBBELING, Mathematical Methods in Image Reconstruction,
SIAM, Monographs on Mathematical and Computation, 2001.
[NOO 97] NOO F., CLACK R., DEFRISE M., « Cone-beam reconstruction from general discrete
vertex sets », IEEE Trans. Nucl. Science, vol. 44, n° 3, p. 1309-1316, 1997.
[NOO 99] NOO F., DEFRISE M., CLACKDOYLE R., « Single-slice rebinning method for helical
cone-beam CT », Phys. Med. Biol., vol. 44, p. 561-570, 1999.
[NOV 00] NOVIKOV R.G., An inversion formula for the attenuated X-ray transform, préprint,
Département de Mathématique, Nantes, avril 2000.
[ORL 75] ORLOV S.S., « Theory of three-dimensional reconstruction. 1. Conditions of a
complete set of projections », Sov. Phys. Crystallography, vol. 20, p. 312-314, 1975.
[PAR 82] PARKER D., « Optimal short scan convolution reconstruction for fan beam », CT,
Med. Phys., vol. 9, p. 254-257, 1982.
[PRO 00] PROKSA R., KÖHLER Th., GRASS M., TIMMER J., « The n-pi-method for helical
cone-beam CT », IEEE Trans. Med. Imag., vol. 19, n° 9, p. 848-863, 2000.
[RAM 96] RAMM A.G., KATSEVITCH A.I., The Radon transform and local tomography, CRC
Press, 1996.
86 La tomographie

[RIZ 91] RIZO P., GRANGEAT P., SIRE P., LE MASSON P., MELENNEC P., « Comparison of two
3D X-ray cone beam reconstruction algorithms with circular source trajectory », J. Opt.
Soc. Am. A, vol. 8, n° 10, p. 1639-1648, 1991.
[SCH 00] SCHALLER S., NOO F., SAUER F., TAM K.C., LAURITSCH G., FLOHR T., « Exact
Radon rebinning algorithm for the long object problem in helical cone-beam CT », IEEE
Trans. Med. Imag., vol. 19, n° 5, p. 361-375, 2000.
[SMI 85] SMITH B.D., « Image reconstruction from cone-beam projections: necessary and
sufficient conditions and reconstruction methods », IEEE Trans. Med. Imag., vol. MI-4,
p. 14-25, 1985.
[TAG 98] TAGUCHI K., ARADATE H., « Algorithm for image reconstruction in multi-slice
helical CT », Med. Phys., vol. 25, n° 4, p. 550-561, 1998.
[TAM 98] TAM K.C., SAMARASEKERA S., SAUER F., « Exact cone beam CT with a spiral
scan », Phys. Med. Biol., vol. 43, p. 1015-1024, 1998.
[TUY 83] TUY H.H., « An inversion formula for cone-beam reconstruction », SIAM J. Appl.
Math., vol. 43, n° 3, p. 546-552, 1983.
[VAN 96] VANNIER M.W., WANG G., Principles of spiral CT, ed Remy-Jardin M. et Remy J.,
Berlin, Springer, p. 1-32, 1996.
[WAN 93] WANG G., LIN T.H., CHENG P., SHINOZAKI D.M., « A general cone-beam
reconstruction algorithm », IEEE Trans. Med. Imag., vol. MI-12, p. 486-496, 1993.
[WAN 00] WANG G., CRAWFORD C.R., KALENDER W.A., « Guest editorial multirow detector
and cone-beam spiral/helical CT », IEEE Trans. Med. Imag., vol. 19, n° 9, p. 817-821, 2000.
[WU 96] WU C., ORDONEZ C.E., CHEN C.-T., « FIPI: fast 3D PET reconstruction by Fourier
inversion of rebinned plane integrals », dans Three-dimensional Image Reconstruction in
Radiology and Nuclear Medicine, Grangeat P., Amans J.L. (dir.), Kluwer Academic
Publishers, Computational Imaging and Vision Serie, p. 277-296, 1996.
Chapitre 3

Conditions d’échantillonnage en tomographie

3.1. Echantillonnage des fonctions de ℜ


n

Dès qu’il est question d’effectuer les mesures d’un signal, autrement dit d’une
fonction, se pose la question de la fréquence d’échantillonnage de celle-ci. En
multidimension, on recherchera la géométrie du schéma d’échantillonnage.
L’objectif pratique est d’échantillonner suffisamment finement la fonction pour en
avoir une estimation globale très fidèle, tout en minimisant le nombre de points
d’échantillonnage (efficacité du schéma). Le choix d’un schéma d’échantillonnage
régulier d’une fonction peut être conduit grâce à l’analyse de Fourier. Dans cette
section, nous rappelons les principaux résultats élémentaires de l’analyse de Fourier
multidimensionnelle permettant d’établir les conditions d’échantillonnage de
Shannon que nous appliquerons à la tomographie dans les sections suivantes.
Le lecteur pourra consulter [JER 77] pour une introduction aux techniques
d’échantillonnage de Shannon.

3.1.1. Fonctions périodiques, fonctions intégrables, transformée de Fourier

Nous rappelons ici les définitions élémentaires de fonctions périodiques, de carré


intégrable et de leur transformée de Fourier. Soit n ∈ Ν , soit W une matrice non
singulière de ℜ n , la fonction f de ℜ n dans ℜ sera dite périodique de période W si
∀x ∈ ℜ n , ∀k ∈ Ζ n , f (x + Wk ) = f (x) . Un ensemble K ⊂ ℜ n sera appelé
ensemble fondamental associé à W si K est borné et si K + Wk, k ∈ Ζ n forme un

Chapitre rédigé par Laurent DESBAT et Catherine MENNESSIER.


88 La tomographie

pavage de ℜ n . En particulier, le parallélépipède engendré par les colonnes de la


matrice W est un ensemble fondamental associé à W (à condition de laisser
respectivement ouvertes ou fermées les faces opposées : exemple
{y ∈ ℜ , ∃x ∈ [0,1[ , y = Wx} est un ensemble fondamental associé à W ). Si K et
n n
1
K 2 sont deux ensembles fondamentaux associés à W , alors si f est une fonction
périodique de période W localement intégrable, nous pouvons facilement montrer
que ∫ f (x)dx = ∫ f (x)dx .
x∈ K1 x∈ K 2

2 iπ W − T k , x
Les fonctions trigonométriques e , k ∈ Ζ n , où W −T est la
transposée de l’inverse de la matrice W et x, y est le produit scalaire euclidien de
deux vecteurs de ℜ n , sont des fonctions W périodiques. Elles forment une base de
l’espace Hilbertien L2W (K ) des fonctions périodiques de carré intégrable sur un
ensemble fondamental K associé à W . Soit f ∈ L2W (K ) , alors f peut se
décomposer en série de Fourier et nous avons au sens de L2W (K ) :

2iπ W −T k , x
f (x ) = ∑ c k ( f )e [3.1]
k ∈Ζn

avec ck ( f ) coefficient de Fourier de f :

− 2i π W − T k , x
ck ( f ) = ∫ f (x )e
1
dx [3.2]
det W K

Nous terminons ce paragraphe par la définition de la transformée de Fourier.


( )
Soit f ∈ L1 ℜ n une fonction intégrable, nous définissons Ff ( ) sa transformée de
Fourier et F −1 f (x) sa transformée de Fourier inverse par :

Ff (  ) = (2π )− 2 ∫ f (x )e dx et F −1 f (x) = (2π )− 2 ∫ f ( )e


n −i x,  n i x, 
d [3.3]
ℜn ℜn

Lorsque f est continue, intégrable et de transformée de Fourier intégrable, alors


F −1
Ff = FF −1 f = f . La transformée de Fourier est une isométrie dans S ℜ n ( )
( ) ( )
pour la norme L2 ℜ n (où S ℜ n est l’espace de Schwartz de ℜ n , c’est-à-dire
l’espace des fonctions indéfiniment dérivables et à décroissance rapide comme
Conditions d’échantillonnage 89

( )
toutes leurs dérivées). Munie de la norme induite par L2 ℜ n , elle se prolonge en
( ) ( )
une isométrie de L2 ℜ n dans L2 ℜ n (espace des fonctions de carré intégrable)
puisque S ℜ ( ) est un sous-espace vectoriel de L (ℜ ) dense dans L (ℜ ) .
n 2 n 2 n

3.1.2. Formule de Poisson et échantillonnage des fonctions limitées en fréquence

En analyse de Fourier, le choix et surtout la validité d’un schéma


d’échantillonnage reposent sur la formule de Poisson :

 2π 
l  = (2π )− n / 2 h n ∑ f (hk )e
− ih ,k
∑ n Ff   − [3.4]
l∈Z  h  k ∈Z n

où h > 0 désigne le pas suivant lequel la fonction est régulièrement échantillonnée.


( )
L’égalité [3.4] est vérifiée dans S′ ℜ n , espace des distributions tempérées, pour
toute fonction f dont la transformée de Fourier Ff ( ) est une distribution à support
compact : Ff ∈ 0 ′(ℜn ). On pourra se reporter à l’ouvrage de [GAS 95],
proposition 36.2.1 pour une démonstration en dimension n = 1 . La proposition se
généralise en dimension n quelconque. La formule [3.4] exprime simplement
( )
l’égalité dans S′ ℜ n entre la périodisation du spectre de f et sa série de Fourier.
Les conditions d’échantillonnage sont généralement données pour une fonction
strictement limitée en fréquence, c’est-à-dire telle que le support de sa transformée
de Fourier vérifie sup( Ff ) ⊂ [− b, b]n , où b > 0 . La fonction f est alors
( )
nécessairement C ∞ ℜ n et même analytique. A moins d’être nulle, elle ne peut pas
être à support compact. Echantillonner f revient, selon la formule de Poisson [3.4],
à périodiser son spectre, voir la figure 3.1. On constate que dès que la condition de
π
Nyquist-Shannon h ≤ est satisfaite, il n’y a pas de recouvrement de spectre. La
b
fonction f est alors correctement échantillonnée. En effet, dans ce cas, on peut
isoler Ff ( ) de ses translatés en multipliant l’équation [3.4] par χ n ( ) ,
 π π
− , 
 h h
l’indicatrice du pavé centré de côté 2π (plus généralement, χ A (x) = 1 si x ∈ A ,
h
χ A (x) = 0 sinon). Nous obtiendrons alors une formule d’interpolation de f en
appliquant la transformée de Fourier inverse. Supposons que f ∈ L2 ℜ n , donc ( )
90 La tomographie

Ff ∈ L2 (ℜn ). Alors ∑ Ff   − 2π l  est dans 


[ ]n  et
L22 π I  0, 2 π admet un
l∈Z h  h  h
développement en série de Fourier (qui est unique). Ainsi, par identification de ce
développement avec l’équation [3.4], nous obtenons donc l’égalité dans L2 ℜ n : ( )
Ff ( ) = (2π )− n / 2 h n ∑ f (hk )e
−ih  , k
χ n ( ) [3.5]
 π π
k ∈Z n − , 
 h h

Par continuité de la transformée de Fourier sur L2 ℜ n ( ) et l’hypothèse de


continuité de f, on obtient la formule d’interpolation de Shannon : soit f ∈ L2 ℜ n ( )
π
telle que sup( Ff ) ⊂ [−b, b] , soit h ≤ :
b

def π 
f (x) = S h ( f )(x) = ∑ n f (hk )sinc (x − hk )  [3.6]
k∈Z h 

n sin( x j )
avec ∀x ∈ ℜ n ,sinc(x) = ∏ , où x j est la j-ième composante de x.
j =1 x ji

Figure 3.1. Conditions de Shannon satisfaites en haut et non satisfaites en bas

3.1.3. Echantillonnage des fonctions essentiellement limitées en fréquence

Une difficulté essentielle de l’approche précédente est liée à l’hypothèse de


compacité du support de la transformée de Fourier de la fonction à échantillonner. En
pratique, les fonctions que l’on cherche à échantillonner sont à support compact, et par
conséquent, leur transformée de Fourier ne peut être à support compact (en imagerie
Conditions d’échantillonnage 91

médicale, la section d’une personne est bornée !). La théorie de l’échantillonnage doit
être généralisée pour permettre d’échantillonner des fonctions qui ne sont pas
strictement limitées en fréquence. Supposons que la fonction f soit continue à support
compact. Elle est donc intégrable et de carré intégrable et sa transformée de Fourier
Ff est C ∞ . Cherchons à évaluer dans ce cas l’erreur d’interpolation. Nous pouvons
écrire (S h ( f ) − f )(x) = F −1 F (S h ( f ) − f )(x) car f et S h f sont continues. Afin d’utiliser
la formule de Poisson, supposons que Ff ∈ L1 ℜ n . Nous avons alors :( )
F ( S h f )( ) = (2π )− n / 2 h n ∑ f (hk )e
−ih  , k
χ n ( )
 π π
k ∈Z n
− , 
 h h
[3.7]
 2π 
= ∑ Ff   − l  χ n ( )

l∈Z n
 h   − π , π 
 h h

Nous pouvons donc en déduire que :

(S h ( f ) − f )(x) = (2π )− n / 2 ∫ (F ( S h f ) − Ff )( )e i x,  d


n
 π π
− , 
 h h

En reportant [3.7] dans l’équation précédente et après quelques manipulations


algébriques, nous obtenons une majoration de l’erreur :

Sh ( f )( x ) − f ( x ) ≤ 2(2 π) − n / 2 ∫ Ff ( ) d,
n
∀x ∈ ℜ n [3.8]
 π π
∉ − , 
 h h

L’équation précédente nous indique que l’erreur est d’autant plus petite que la
fonction est négligeable en dehors du support − πh , πh [ ]n . Cela nous amène à
introduire la notion de support essentiel de la transformée de Fourier d’une fonction.
On dira que l’ensemble K ⊂ ℜ n est le support essentiel de la fonction Ff (# ) si
peut être négligé. En particulier, si K = [− b, b]n et si la condition de
∫ Ff ( ) d
∉K

π π
Shannon b ≤ est vérifiée, autrement dit si les ensembles K + 2 l, l ∈ Z n sont sans
h h
recouvrement, alors l’équation [3.8] entraîne que l’erreur d’approximation de f (x)
par S h ( f )(x) est bornée, en norme infinie, par 2( 2 π) − n / 2
∫ Ff ( ) d .
∉K
92 La tomographie

3.1.4. Echantillonnage efficace

L’objectif de l’échantillonnage efficace est de minimiser le nombre de points


d’échantillonnage tout en satisfaisant la condition de Shannon. Ceci peut conduire à la
mise en place de géométries d’acquisition efficaces, voire à la conception de détecteur
efficace. En pratique, cette étude peut aussi permettre de montrer qu’un schéma
standard (une grille par exemple) est nécessairement redondante. Cette redondance
peut être exploitée lors de la correction de défauts du détecteur (pixel défaillant) ou
l’utilisation de certains pixels pour d’autres mesures que celles destinées à la
reconstruction (par exemple le calibrage des distorsions d’un amplificateur de brillance
au cours de la mesure par la présence de marqueurs opaques).

En analyse de Fourier, l’idée de l’échantillonnage efficace est d’adapter la


géométrie du schéma d’échantillonnage à celle du support essentiel de la transformée
de Fourier de la fonction à échantillonner. En particulier, on dit qu’une fonction est
strictement b-bande limitée en fréquence si le support de sa transformée de Fourier est
une boule centrée de rayon b, c’est-à-dire ε 0 ( f , b) est nul avec
ε d ( f , b) = ∫  Ff ( ) d . Elle est essentiellement b-bande limitée si ε 0 ( f , b) est
d

 >b
négligeable. En dimension deux, on sait par exemple que l’échantillonnage d’une
fonction b-bande limitée ou essentiellement b-bande limitée sera plus efficace s’il est
effectué sur une grille hexagonale que sur une grille carrée. En effet, le schéma
T
hexagonal est engendré, par exemple, suivant les vecteurs w 1 = h H  2 ,0  et
 3 
T
w 2 = hH  − 1 ,1 , avec h H le pas d’échantillonnage de la grille. Ainsi, les points
 3 
d’échantillonnage sont les points k1 w 1 + k 2 w 2 , ou de manière plus concise
WH k , k ∈ Z n , où la matrice d’échantillonnage WH a pour vecteurs colonnes w 1 et
w 2 . La grille carrée (schéma standard) est engendrée par la matrice d’échantillonnage
hI, où I est la matrice identité de ℜ 2 . Nous voyons à travers cette remarque que
l’efficacité d’un schéma dépend de la base dans laquelle nous travaillons. Considérons
donc maintenant la fonction f W (x) = f ( Wx) , où W est une matrice non singulière
(de changement de base). En utilisant le changement de variable y = Wx , il est très
facile de montrer que :

Ff ( W − T ν)
Ff W ( ν) = (2π ) ∫
−n 2
f ( Wx )e −i x,ν dx = [3.9]
ℜ n detW
Conditions d’échantillonnage 93

où W −T est la transposée de l’inverse de la matrice W. Ecrivons maintenant la


formule de Poisson [3.4] pour la fonction f W (x) et h = 1 :

∑ nFf W ( − 2πl ) = (2π )


−n / 2 −ih  , k
∑ nf W (k )e
l∈Z k ∈Z

( )
∑ nFf W − T  − 2πW − T l = (2π ) n / 2 ∑ nf ( Wk )e
− −i ,k

l∈Z k∈Z

−T
Soit au point  = W ν :

( )
∑ nFf  − 2πW −T l = (2π )− n / 2 ∑ nf ( Wk )e
−i , Wk
[3.10]
l∈Z k ∈Z

Comme dans le paragraphe précédent, les conditions d’échantillonnage se


déduisent du membre de gauche de la formule de Poisson généralisée [3.10] : soit K
le support essentiel de Ff, la condition de Shannon généralisée est vérifiée dès que :

les ensembles K + 2πW −T l, l ∈ Z n sont sans recouvrement [3.11]

Par transformée de Fourier inverse du membre de droite multipliée par


l’indicatrice de K, la formule d’approximation de Fourier découlant de [3.10] est
def
S W ( f )(x) = (2π )− 2 det W ∑ f ( Wk ) Fχ K (x − Wk )
n
[3.12]
k∈Z n

Soit f ∈ L2 (ℜ n ) continue à support compact telle que Ff ∈ L1 (ℜ n ) , on peut


montrer que si W satisfait la condition de Shannon pour K, alors :

SW ( f )( x ) − f (x ) ≤ 2(2π) − n / 2 ∫ Ff (ν) d,


∉K
∀x ∈ ℜn [3.13]

En pratique, on choisira la matrice d’échantillonnage W qui satisfait les


conditions de Shannon de la manière la plus compacte possible. En effet, si le réseau
2πW − T l, l ∈ Z n est compact, cela signifie que det W −T est petit, donc det W est
grand. Or, det W n’est autre que le volume de la maille élémentaire (l’aire en
dimension 2). Ainsi, plus ce volume est grand, moins de points d’échantillonnage de
la fonction sont nécessaires pour couvrir un volume donné. L’intérêt de [3.11]
réside donc dans la possibilité d’exploiter la géométrie de K pour choisir W
vérifiant [3.11] telle que det W soit minimal.
94 La tomographie

Figure 3.2. Conditions de Shannon pour une fonction b-bande limitée. A gauche, conditions
de non-recouvrement dans l’espace de Fourier avec une grille standard. A droite, conditions
de non-recouvrement avec un schéma hexagonal. Le schéma hexagonal est plus performant
que le schéma standard, car plus compact dans l’espace de Fourier (l’aire de l’hexagone est
plus petite que celle du carré).

3.1.5. Généralisation aux fonctions périodiques en leurs premières variables

La théorie de l’échantillonnage se généralise aux fonctions périodiques en leurs


premières variables et simplement intégrables en les variables suivantes [FAR 90,
FAR 94]. Cette généralisation trouve une application en tomographie, puisque la
transformée de Radon est périodique en sa première variable uniquement. Supposons
que f (% , x) soit une fonction périodique de période U en ses n1 premières variables,
% ∈ ℜ n1 , x ∈ ℜ n − n1 . Soit T un ensemble fondamental associé à U , soit
n − n1
(k ,  ) ∈ Ζ n1
×ℜ , nous définissons la transformée de Fourier de f par :

− 2 iπ U − T k , %
Ff (k ,  ) = (2π )− ∫ n∫−nf (%, x )e
n − n1 1 − i x, 
2 e dxd% [3.14]
det U Tℜ 1

et la transformée de Fourier inverse de g ∈ L2 Ζ n1 × ℜ n − n1 par : ( )


2iπ U − T k , %
F −1 g (% , x ) = (2π )−
n − n1
i x, 
2
∑n ∫ g (k ,  )e dx e [3.15]
k∈Ζ 1
ℜ n−n
1

( )
Si nous supposons que f ∈ L2U T × ℜ n − n1 et que Ff ∈ L1 ( Ζ n1 × ℜ n − n1 ) (c’est-
à-dire que ∑ ∫ Ff (k ,  ) d est finie) et si la condition de non-recouvrement de
k ∈ Ζ n1 ℜ n − n1
Conditions d’échantillonnage 95

Shannon [3.11] est vérifiée pour K ⊂ Ζ n1 × ℜ n − n1 et W une matrice régulière,


alors :

S W ( f )(x) − f (x) ≤ 2(2π ) − ( n − n1 ) / 2 ∑ ∫ Ff (k ,  ) d, ∀x ∈ ℜ n [3.16]


(k ,  )∉K
def
avec : S W ( f )(x) = (2π )−
( n − n1 )
∑ nf ( Wk ) F −1χ K (x − Wk )
det W
2
[3.17]
det U
k∈Z

3.2. Echantillonnage de la transformée de Radon en 2D

3.2.1. Support essentiel de la transformée de Radon 2D

Dans le cadre de la tomographie 2D, nous souhaitons échantillonner les mesures


Rf (ψ , p ) , fonction 2π-périodique en sa première variable. Nous devons donc
étudier le support essentiel de la transformée de Fourier 2D du sinogramme :

1 2π − ikψ
FRf k (ν ) = ∫ FRf (ψ ,ν )e dψ [3.18]
2π 0

+∞
− ipν
avec : FRf (ψ ,ν ) = (2π ) − ∫ Rf (ψ , p)e
1
2
dp [3.19]
−∞
L’échantillonnage en tomographie 2D s’appuie sur le résultat essentiel
suivant : soit f une fonction dont le support est supposé contenu dans le disque unité
(normalisation) et essentiellement limitée aux fréquences inférieures à b, le support
essentiel de FRf k (υ ) est l’ensemble K 2 défini par :

 ν 1  
K 2 = (k , ν ) ∈ Z × ℜ, ν < b, k < max , b − 1  [3.20]
  ϑ ϑ  

Plus précisément, on peut montrer que :

∑ ∫ FRf k (ν ) dν ≤ a ∫ Ff (  ) d + η (ϑ , b) f L1
[3.21]
k ( k ,υ ) ∉ K 2  >b

où a > 0, η (ϑ , b) tend exponentiellement rapidement vers 0 lorsque b tend vers


l’infini. La variable 0 < ϑ < 1 contrôle la vitesse de décroissance :

∃B (ϑ ) > 0, ∃C (ϑ ) > 0, telle que ∀b > B(ϑ ),0 ≤ η (b, ϑ ) < e −C (ϑ )b


96 La tomographie

La démonstration de ce résultat repose sur deux inéquations qui s’obtiennent à


partir de la définition de FRf k (υ ) [3.18] et du théorème de coupe projection
(paragraphe 2.2.2, chapitre 2) qui s’écrit ici (compte tenu de notre définition de la
transformée de Fourier) FRf (ψ ,ν ) = 2π Ff (ν ) . A partir de [3.18], nous obtenons :

1 2π
− ikφ
FRf k (ν ) = ∫ Ff (ν)e dφ [3.22]
2π 0

Ce théorème conduit, après quelques manipulations algébriques, à :

−1
− ikψ
FRf k (ν ) = (2π ) 2 ik
∫ f ( x )e J k (−ν x )dx [3.23]
Ω2

où J k (t ) est la k-ième fonction de Bessel de premier ordre. L’égalité [3.22] permet


d’obtenir la première inéquation :


ε −1 ( f , b )
1 1
∑ ∫ FRf k (ν ) dν ≤ ∫ ∫ Ff (ν) dψdν = [3.24]
k ν >b 2π ν > b 0 2π

tandis que l’égalité [3.23] permet d’établir la seconde inéquation :

1
∫ FRf k (ν ) dν ≤ η (ϑ , k ) f L1
[3.25]
ν <ϑ k 2π

En effet, grâce à la formule de Debye [ABR 70] sur le comportement


asymptotique de J k (ν ) lorsque ν < ϑ k , on peut montrer [NAT 86] que
ϑk 3

sup ∫ J k (rν ) dν est majorée par C (ϑ )k 2 e − (1−ϑ


1 2
)2 m / 3
. En pratique, on peut
r ≤1 −ϑk
choisir ϑ proche de 1 mais strictement inférieur à 1 (typiquement ϑ = 0,9 ).
Natterer [NAT 86] a montré que [3.24] et [3.25] sont suffisantes pour établir [3.21].

De l’égalité [3.21], nous déduirons qu’il existe un schéma d’échantillonnage


pratiquement deux fois plus efficace que le schéma standard où les projections sont
toutes échantillonnées aux mêmes abscisses (voir figure 3.4). Ce schéma plus
efficace est celui entrelacé. Nous le définirons dans le paragraphe suivant. Cormack
[COR 78] est le premier à avoir montré l’efficacité de l’échantillonnage entrelacé.
Rattey et Lindgren [RAT 81] ont établi ce résultat dans le cadre de l’analyse de
Fourier présentée ici selon la démarche de Natterer [NAT 86]. Le lecteur pourra
Conditions d’échantillonnage 97

aussi consulter [ROU 80] pour une introduction à l’analyse du problème de


l’échantillonnage en tomographie.

3.2.2. Conditions d’échantillonnage et échantillonnage efficace

Nous présentons figure 3.3 le support essentiel K 2 de la transformée de Fourier


de la transformée de Radon Rf d’une fonction f b-bande limitée (et de support
contenu dans le disque unité) et les schémas de non-recouvrement pour un
échantillonnage standard (équidistant en ψ et en s) et pour un échantillonnage
entrelacé. Nous notons Nψ le nombre de projections sur 180 degrés (intervalle
[0, π[) et N ρ le nombre de mesures par projection. L’échantillonnage standard
engendré par la matrice :

 π / Nψ 0   2N 0 
WS =   et 2πWS− t =  ψ  [3.26]
 0 2 / N ρ   0
 πN ρ 

doit vérifier les conditions de Shannon « K 2 + 2πWS−T Ζ 2 sans recouvrement ». Les


conditions de Shannon sont donc vérifiées si Nψ ≥ b / ϑ et N ρ ≥ 2b / π , le minimum
étant atteint lorsque N ρ = 2b / π , Nψ = b / ϑ , c’est-à-dire lorsque le nombre de
projections sur 180 degrés est légèrement supérieur à π / 2 fois le nombre de points
d’échantillonnage par projection. En considérant la figure 3.3, on constate que l’on
peut satisfaire la condition de Shannon de manière plus efficace en choisissant :

 2π −π 
 Nψ 0   Nψ Nψ 
2πWE− t = π  soit WE =   [3.27]
 N πN ρ   0 2
 2 ρ 
 N ρ 

πN ρ
avec Nψ = N ≥ 2b : chaque projection est alors échantillonnée avec
ϑ ′ et ρ π
deux fois moins de points par rapport au schéma standard. On notera que deux
projections consécutives ne sont pas échantillonnées aux mêmes abscisses p, voir
figure 3.3. On constate alors que det WE ≈ 2 det WS et donc que l’échantillonnage
entrelacé est environ deux fois plus efficace que le standard.
98 La tomographie

n1 n1

b b

K2 O b/u k O b/u' k

p p
p/NY p/NY
2/Nr
4/Nr
Y Y

Figure 3.3. Conditions de Shannon en tomographie 2D. En haut à gauche, conditions de non-
recouvrement dans l’espace de Fourier avec une grille standard. A droite, condition de non-
recouvrement avec un schéma entrelacé. Le schéma entrelacé (en bas à droite) est environ
deux fois plus performant que standard (en bas à gauche) car υ ′ est seulement légèrement
inférieur à υ lorsque υ est proche de 1.

3.2.3. Généralisations

[Link]. Tomographie vectorielle


En tomographie vectorielle, on cherche à reconstruire la vitesse d’un fluide
v (x) à partir de mesures du type transformée de Radon dans la direction & :

+∞
R& v(ψ , p ) = ∫ v( p + t2 ), & dt [3.28]
_∞

avec & un vecteur unitaire, éventuellement fonction de ψ et p (nous rappelons que


 = (cos ψ , sin ψ ) et 2 = (− sin ψ , cos ψ ) ). L’étude théorique [PRI 96] montre que
deux directions indépendantes  1 (ψ , p ) et  2 (ψ , p ) , pour tout couple (ψ , p) , sont
nécessaires et suffisantes pour la reconstruction de v (x) . Ce résultat se généralise
Conditions d’échantillonnage 99

d’ailleurs en dimension n quelconque pour la reconstruction d’un vecteur v (x) à


partir de n transformées de Radon vectorielles de directions indépendantes.

Les techniques de mesure de transformée de Radon vectorielle sont rares.


Cependant, la transformée de Radon vectorielle de direction τ joue un rôle
particulier. En effet, elle apparaît naturellement lorsque l’on mesure la différence de
temps de propagation d’ultrason entre deux points A et B puis B et A, ces deux
points étant à la frontière d’un fluide en mouvement. En effet, si l’on suppose que la
vitesse du fluide (en régime permanent) est négligeable devant la célérité du milieu,
on peut montrer [BRA 91, NOR 88, NOR 92] que ces mesures sont décrites par :

+∞ +∞
R 2 v(ψ , p ) = ∫ v( s + t2 ), 2 dt = ∫ v( s + t2 )dt , 2 [3.29]
_∞ _∞

La décomposition d’Helmholtz d’un champ de vecteurs


v(x) = ∇ × w(x)e z + ∇q(x) , où q est le potentiel scalaire et w le potentiel vecteur,
joue un rôle-clé dans la résolution de ce problème. En effet, on peut établir le théorème
de coupe projection suivant :

FR2 v (ψ , υ ) = −i 2π υFw(υ) [3.30]

On voit que seule la composante solénoïdale ∇ × w(x)e z peut être reconstruite à


partir des mesures R 2 v(ψ , p ) . Quelles sont les conditions d’échantillonnage de
R2 v(ψ , p ) ? Comme pour la transformée de Radon classique, nous définissons la
transformée de Fourier de R2 v(ψ , p ) par :

1 2π − ikψ
FR2 v k (ν ) = ∫ FR2 v(ψ , ν )e dψ [3.31]
2π 0

+∞
− isν
où : FR2 v (ψ ,ν ) = (2π ) − ∫ R2 v(ψ , s)e ds .
1
2

−∞

En introduisant dans [3.31] le théorème de coupe projection [3.30], nous


obtenons :

−i 2π
− ikψ
FR2 v k (ν ) = ∫ νFw(ν)e dψ [3.32]
2π 0
100 La tomographie

Après quelques manipulations algébriques élémentaires, nous avons :

−1
2 i k −1 − ikψ
FRf k (ν ) = (2π ) ∫ w(x)e νJ k (−ν x )dx [3.33]
Ω2


En remarquant d’une part que ∫ ∫ νFw(ν)dνdψ = ε −1 (∇w, b ) , alors l’équation
0ν >b
[3.32] nous conduit à :

ε −1 (∇w, b )
1 1
∑ ∫ FR2 v k (ν ) dν ≤ ∫ ∫ νFw(ν dψdν = [3.34]
k ν >b 2π ν > b 0 2π

Si v est essentiellement limité en fréquence, alors ε 0 (∇w, b) et ε 0 (∇q, b)


doivent être négligeables. D’autre part, νJ k (ν ) se comporte comme J k (ν ) lorsque
ν <ϑk . Plus précisément, la multiplication par ν ou par tout polynôme en ν ne
modifie pas la nature exponentiellement décroissante en k de J k (ν ) . Nous
constatons ainsi que le support essentiel de FR2 v k (ν ) est aussi l’ensemble K 2 . La
transformée de Radon vectorielle vérifie donc les mêmes conditions
d’échantillonnage que la transformée de Radon scalaire, voir [DES 95].

[Link]. Transformée de Radon généralisée invariante par rotation


La transformée de Radon généralisée invariante par rotation de poids w est
définie de la manière suivante :
+∞
Rw f (ψ , ρ ) = ∫ f ( ρ + t2 ) w( ρ , t )dt = ∫ f (x) w( x,  , x, 2 )dx [3.35]
−∞ x,  = ρ

Elle apparaît naturellement en imagerie Doppler, technique employée en


astrophysique pour cartographier la température à la surface des étoiles
[DES 99, MEN 97]. Si w( ρ , t ) est un monôme w( ρ , t ) = ρ l t m , en remarquant
que x,  = cos(ϕ − ψ ) , x, 2 = sin (ϕ − ψ ) ( x = x (cos ϕ , sin ϕ )T ), nous avons
∃c j ∈ C :

 e i (ϕ −ψ ) + e − i (ϕ −ψ )   e i (ϕ −ψ ) − e − i (ϕ −ψ ) 
l m
l+m








= ∑ c j e ij (ϕ −ψ ) [3.36]
 2   2i  j = −l − m
Conditions d’échantillonnage 101

Soit en reportant dans [3.35] :

l +m
Rs l t m f (ψ , ρ ) =
l + m ijϕ
∑ c j e −ijψ ∫ f (x) x e dx [3.37]
j = −l − m x,  = ρ

Nous pouvons en conclure que si pour tout j tel que j < l + m , la fonction
l + m ijϕ
f ( x) x e est essentiellement limitée en fréquence, alors le support essentiel
de la transformée de Fourier de Rs l t m f (ψ , ρ ) , FR p l t m f k (υ ) , est l’ensemble :

 υ 1  
K2 = (k , υ ) ∈ Z × ℜ, υ < b, k < l + m + max , b − 1  [3.38]
pl t m
  ϑ ϑ  

En effet, la multiplication par le déphasage e −ijψ introduit simplement un


e  (υ ) suivant la direction
l + m ijϕ 
décalage de j du support essentiel de FR f (x) x
 k
k. De manière plus générale, si la fonction poids est un polynôme de degré d
w( p, t ) = ∏ cl , m p l t m , avec l, m et d entiers naturels, alors nous avons :
l +m≤d

 υ 1  
K2 = (k , υ ) ∈ Z × ℜ, υ < b, k < d + max , b − 1  [3.39]
 
 ϑ ϑ  
l m
∏ cl , m p t
l + m≤d

Pour plus de détails sur l’échantillonnage de la transformée de Radon invariante


par rotation avec poids polynomial, le lecteur pourra se référer à [DES 97b].

[Link]. Transformée de Radon exponentielle et atténuée


Les conditions d’échantillonnage de la transformée de Radon atténuée ont été
étudiées par Xia, Lewitt et Edholm dans [XIA 95] à travers le principe de phase
stationnaire appliquée à la transformée de Fourier en SPECT 2D. Les auteurs
montrent que la transformée de Fourier de la transformée en rayons X atténuée d’un
point source (distribution de Dirac) est essentiellement négligeable ponctuellement
en dehors de K 2 si la fonction d’atténuation varie peu localement.

Nous donnons ici un résultat plus fort mais dans le contexte beaucoup plus
restreint de la transformée en rayons X exponentielle. Soit Fχ µ 0 f k (υ ) la
transformée de Fourier de la transformée en rayons X exponentielle d’une fonction
à support compact :
102 La tomographie

+∞
χ µ 0 f (ψ , ρ ) = ∫ f ( ρθ + tτ )e µ 0t dt , avec µ 0 ≥ 0 [3.40]
−∞

La fonction f étant à support compacte, sa transformée de Fourier peut se


prolonger au plan complexe. Le théorème de coupe-projection pour cette
transformée est simplement :

1 +∞ +∞
µ t − iρν
Fχ µ 0 f (ψ ,ν ) = ∫ ∫ f ( ρθ + tτ )e 0 e dtdρ =Ff (ν + iµ 0 2 ) [3.41]
2π − ∞ − ∞

nous obtenons :


∫ Ff (υ + iµ0 2 )e dψ
1 −ikψ
Fχ µ 0 f k (υ ) = [3.42]
2π 0

Ceci conduit à :

2 −1   ⊥ 
∫ Fχ µ0 f k (υ ) dν < ∫  Ff   + iµ 0 d [3.43]
2π   
ν >b  >b 

Avec un développement similaire à [NAT 86], nous obtenons :

 π
− ik  ϕ +  2π
1 − ikψ + iυ x sin ψ − iµ 0 x cosψ
Fχ µ 0 f k (υ ) = ∫ f ( x )e  2  ∫ e dψ dx [3.44]
3
2π ℜ2 0

Or, nous avons dans [ABR 70] l’expression suivante pour la fonction de Bessel
de premier type d’ordre k :

t  1 t  1
2π − ikψ + i  r +  sin ψ +  r −  cos ψ
1 −k    r
J k (t ) = r ∫ e 2 r 2 dψ [3.45]
2π 0

υ − µ0
avec r = et t = υ 2 − µ 2 x , nous obtenons dans [3.44] :
υ + µ0

 π k
− ik  ϕ + 
υ − µ0
J k  υ 2 − µ 2 x  dx
1  2
Fχ µ 0 f k (υ ) = ∫ f ( x)e [3.46]
2π ℜ 2 υ + µ0  
Conditions d’échantillonnage 103

On comprend dès lors aisément que les propriétés asymptotiques des fonctions de
Bessel pourront être une nouvelle fois exploitées pour établir une inégalité du type :

∫ Fχ µ 0 f k (υ ) dν < C (ϑ )η (ϑ , k ) [3.47]
ν <ϑ k

Dans [DES 00], on montre cette inégalité pour k > a(µ 0 , ϑ ) une constante qui
ne dépend que de µ 0 et ϑ . En admettant que :

  ⊥ 
∫ Ff   + iµ 0 d [3.48]
  
 >b 

est négligeable, nous obtenons à partir de [3.43] et de [3.46] que le support essentiel
de Fχ µ 0 f k (υ ) est l’ensemble :

 υ  1   
K 2, µ 0 = (k , υ ) ∈ Z × ℜ, υ < b, k < max , max b − 1, a(µ 0 , ϑ ) 
ϑ 
   ϑ   

On constate aisément que pour 0 < ϑ < 1 et µ 0 fixés, K 2, µ 0 devient K 2 lorsque


b devient grand. Ainsi, les conditions d’échantillonnage de la transformée de Radon
exponentielle sont essentiellement les mêmes que celles de la transformée de Radon
classique en 2D.

3.3. Echantillonnage en tomographie 3D

3.3.1. Introduction

Les conditions d’échantillonnage en tomographie 3D sont assez peu étudiées et


globalement assez mal connues. Le problème apparemment simple de
l’échantillonnage de la transformée en rayons coniques X c f (n, s) , avec n ∈ S 2 et
s ∈ Γ , Γ étant la trajectoire de la source dans l’espace, n’est pas résolu dans le cas
général. En fait, les conditions d’échantillonnage ne sont parfaitement connues que
pour la transformée en rayons X en géométrie parallèle X p f (n, s) où ici s ∈ n ⊥ ,
lorsque n est restreint à un grand cercle (compte tenu de la symétrie, un demi-cercle
suffit d’un point de vue théorique pour que les données soient complètes, c’est-à-
dire que soient vérifiées les conditions d’Orlov [ORL 76]). Cette géométrie
104 La tomographie

correspond en 3D à la reconstruction d’un volume comme une série de coupes


indépendantes. Dans ce cas, les conditions d’échantillonnage peuvent être établies
mathématiquement, comme nous le verrons dans le paragraphe 3.3.2. Le résultat
constitue une extension en dimension 3 des conditions d’échantillonnage en
dimension 2. Toutes les généralisations que nous avons présentées en dimensions 2
peuvent être étendues en dimension 3 pour la géométrie parallèle lorsqu’elles ont un
sens. Par contre, les conditions d’échantillonnage en tomographie 3D conique ne
sont pas précisément établies d’un point de vue théorique, y compris pour les
trajectoires les plus classiques, comme le cercle ou la trajectoire hélicoïdale. Elles
peuvent être cependant abordées d’un point de vue numérique, comme nous le
verrons au paragraphe 3.3.3.

3.3.2. Echantillonnage de la transformée en rayons X

Nous supposerons que f ∈ C 0∞ (Ω) , où Ω = Ω 2 × [− 1,1] est le cylindre unitaire


plein de ℜ 3 . Pour simplifier, considérons que n = n(ψ ) = (− sin ψ , cosψ ,0)T et
donc que s( p1, p2 ) = p1 (cos ψ , sin ψ ,0)T + p2e3 , avec ( p1 , p 2 ) ∈ℜ 2 , ψ ∈ [0,2π ] .
Nous paramétrons la transformée en rayons X restreinte au cercle unité ainsi :

g (ψ , p1 , p 2 ) = X p f (n(ψ ), s( p1 , p 2 ) ) [3.49]

Comme en tomographie 2D, nous définissons la transformée de Fourier de g par :

1 2π − ikψ
Fg k (υ1 , υ 2 ) = ∫ Fg (ψ , υ1 , υ 2 )e dψ [3.50]
2π 0

1 − i ( p1υ1 + p 2υ 2 )
avec : Fg (ψ , υ1 , υ 2 ) = ∫ Fg (ψ , p1 , p2 )e dp1dp2 [3.51]
2π ℜ 2

Nous pouvons démontrer [DES 97a] que le support essentiel de Fg k (υ1 , υ 2 ) est
contenu dans l’ensemble :

  υ1  1  
K 3 = (k , υ1 , υ 2 ) ∈ Z × ℜ 2 , υ1 < b, k < max , b − 1 , υ 2 < c(b, υ1 )
  ϑ
 ϑ   
Conditions d’échantillonnage 105

 b si υ1 ≤ υϑ , b = max(1, (1 − ϑ )b )
avec : c(b, υ1 ) =  b 2 − υ12 si υϑ , b < υ1 < b
 0 sinon

Plus précisément, on peut majorer ∑ ∫ Fg k (υ1, υ 2 ) dυ1dυ 2 par une quantité


k ( k ,υ1 ,υ 2 )∉K 3

qui converge rapidement vers 0 lorsque b tend vers l’infini (de manière semblable à
ce que nous obtenons en 2D, voir l’équation [3.21]).

Figure 3.4. Visualisation de l’ensemble K 3 . Nous représentons l’isosurface à 1 %


du maximum, du module de la transformée de Fourier de la transformée en rayons X
parallèle (restreinte au cercle unité) d’une somme d’indicatrices de disques simulant un pic
décentré.

Dans la figure 3.4 nous représentons une visualisation 3D de K 3 . Elle est


obtenue à partir de la transformée de Fourier discrète des données
X p f (n(ψ ), s( p1 , p2 ) ) d’une fonction f simulant un pic relativement lisse centré en
c = (c1 , c2 , c3 ) = (.3,−.4,−.1) . Ce pic est construit comme une somme d’indicatrices
de boules notées χ D(c, r ) , où c est le centre de la boule et r son rayon. Nous avons
choisi ici la somme de six indicatrices de boule de rayon respectif r1 = 0,1 ;
6
r2 = 0,07 ; r3 = 0,05 ; r4 = 0,03 ; r5 = 0,02 ; r6 = 0,01 soit f (x ) = ∑ χ D(c, ri ) (x ) . Nous
i =1
représentons dans la figure 3.4 l’isosurface à 1 % du maximum de Fg k (υ1, υ 2 ) qui,
en pratique, contient les plus grandes valeurs de Fg k (υ1, υ 2 ) .
106 La tomographie

Le lecteur pourra très simplement vérifier que K 3 est contenu dans


l’intersection, notée K 3e , de deux cylindres : un cylindre d’axe k et ayant pour base
un hexagone d’une part, et d’un cylindre d’axe υ 2 et de base d’ensemble K 2e
(
d’autre part, voir la figure 3.5 (le lecteur pourra vérifier que υϑ , b < 2 − 3 b est )
nécessaire, c’est-à-dire ϑ > 3 − 1 , ce qui n’est guère contraignant car nous
sommes intéressés par ϑ proche de 1, voir [DES 97c]). Nous montrons dans cette
figure la trace dans les plans (k , υ1 ) et (υ1 , υ 2 ) de l’empilement régulier le plus
compact d’ensembles K 3e dans l’espace de Fourier (k , υ1 , υ 2 ) , engendré par la
−T
matrice 2πWEH , voir équation [3.52]. On peut montrer algébriquement que les
−T 3
ensembles K 3e + 2πWEH Ζ sont sans recouvrement dans Ζ × ℜ 2 . Par ailleurs,
considérons la matrice de l’échantillonnage standard WS (ϑ ,1,1) (voir équation
[3.53]) : clairement, WS (ϑ ,1,1) est la meilleure matrice d’échantillonnage standard
associée à K 3e , car 2πWS−(Tϑ ,1,1) est, parmi les matrices diagonales ∆ , celle qui
engendre le schéma de non-recouvrement le plus compact des ensembles
K 3e + ∆Ζ 3 (voir figure 3.6). Le schéma standard engendré par la matrice diagonale
WS (ϑ ,1,1) , c’est-à-dire correspondant à un schéma équidistant indépendant dans
4ϑ ′
chacune des directions ψ , p1 , p 2 est fois moins efficace que le schéma

entrelacé hexagonal engendré par la matrice WEH : en effet,
4ϑ ′
det WS (ϑ ,1,1) = det WEH (avec 0 < ϑ ′ < 1 , ϑ ′ proche de 1 en pratique).

1 0 0 1 0 0
−T  ϑ′  −T  ϑ  [3.52]
2πWEH = b 1 2 1  2πWS (ϑ ,1,1) = 2b  0 1 0
 0 0 3  0 0 1
   

 ′ 
2ϑ − ϑ′ 0  ϑ 0 0 
π  
π 
WEH = 0 1 0 WS(ϑ,1,1) = 0 1 0 [3.53]
b  b
 0 −1 2   0 0 1
 3 3
Conditions d’échantillonnage 107

−T 3 dans les plans


Figure 3.5. Pavages engendrés par K 3e + 2πWEH Ζ (k ,υ1 ) [gauche]
et (υ1,υ 2 ) [droite]

Figure 3.6. Echantillonnage sur une grille standard : conditions de non-recouvrement


dans les plans (k ,υ1 ) et (υ1,υ 2 ) des ensembles K 3e + 2πWS−T Ζ3

π
Dans le schéma standard WS(ϑ,1,1)Ζ3 , la grille du détecteur est carré de pas .
b
π
Le pas angulaire est ϑ , donc légèrement inférieur car ϑ est choisi proche de 1
b
( 0 < ϑ < 1 ). Ainsi, le nombre de projections sur [0, π ) doit être légèrement
supérieur à π2 fois le nombre de points d’échantillonnage dans la direction
(cos ψ , sin ψ ,0) . En effet, Ω est le cylindre unité et nous échantillonnons donc dans
cette direction sur l’intervalle [− 1;1] . Le schéma entrelacé hexagonal WEH Ζ3 peut
être décrit comme l’entrelacement de deux schémas standard :
WEH Ζ3 = WS (2ϑ ′,2, 2 )Ζ3 ∪ ϑ ′,1,
3
( 1
3
)+ W (
S 2ϑ ′, 2, 2 3
)Ζ3 ) [3.54]
108 La tomographie

Ainsi, par rapport à l’échantillonnage standard WS (ϑ ,1,1)Ζ3 , le nombre de points


d’échantillonnage sera deux fois inférieur dans la direction (cos ψ , sin ψ ,0) et 2 3 fois
inférieur dans la direction e3 . La grille du détecteur est rectangulaire ; elle est
(
translatée de ϑ ′,1, 1
3
) pour les projections impaires (voir figure 3.8). Comme ϑ′ est
proche de ϑ lorsqu’il est proche de 1, le nombre de projections dans le schéma
entrelacé hexagonal est très légèrement supérieur à celui du schéma standard.

Figure 3.7. Points d’échantillonnage sur le détecteur plan pour le schéma efficace entrelacé
hexagonal : à droite, nous présentons quelques points d’échantillonnage pour un angle pair
de projection, à gauche pour un angle impair. Le schéma d’échantillonnage est la même
grille rectangulaire (même détecteur !), elle est simplement translatée entre les projections
paires et les impaires. En superposant projection paire et projection impaire, on voit
apparaître un schéma hexagonal.

3.3.3. Résultats numériques sur l’échantillonnage de la transformée conique

Peu de résultats théoriques sont connus, à ce jour, en ce qui concerne


l’échantillonnage de la transformée conique. Les conditions d’échantillonnage de la
tomographie 2D en géométrie en éventail ont été établies par Natterer en 1993
[NAT 93]. En tomographie 3D, ces conditions ne sont pas établies rigoureusement,
même pour les trajectoires les plus simples. Nous donnons ici une approche
numérique de ce problème pour la trajectoire circulaire (la plus simple et la plus
commune même si elle ne vérifie pas les conditions de Tuy).

Nous supposons donc que nous échantillonnons χ c f (s(ψ ), a( p1 , p 2 ) ) , avec


s(ψ) = – r(– sinψ, cosψ,0) = – rτ et a( p1 , p 2 ) = −s(ψ ) + p1θ + p 2 e 3 , où θ∈S1.
Ainsi, nous définissons g c (ψ , p1, p2 ) = χ c f (s(ψ ), a( p1 , p2 ) ) . Intuitivement, lorsque
le rayon de la trajectoire circulaire tend vers l’infini, cette transformée se comporte
comme la transformée parallèle dont nous venons d’étudier les conditions
d’échantillonnage. Nous montrons dans la figure 3.8 l’isosurface à 1 % du maximum
Conditions d’échantillonnage 109

de Fg kc (υ1 , υ 2 ) pour différentes valeurs de r, le rayon de la trajectoire de la source


autour du cylindre unitaire contenant la fonction f. Nous avons pris ici
6
f (x ) = ∑ χ D(c, ri ) (x ) , avec ri comme dans le paragraphe précédent mais
i =1
c = (0,7;0,5;0,3) . On voit que les conditions d’échantillonnage restent semblables à
celles obtenues en géométrie parallèle tant que r est suffisamment grand (en pratique
pour r supérieur à 3 lorsque le support de f est contenu dans le cylindre unité).

Figure 3.8. Visualisation des supports essentiels de la transformée de Fourier de la


transformée conique d’un pic décentré pour une trajectoire circulaire lorsque le rayon de la
source vaut respectivement 10 (gauche), 3 (centre) et 1,5 (droite) alors que le pic est contenu
dans une boule de rayon 1. Les conditions d’échantillonnage obtenues en géométrie parallèle
semblent approximativement conservées jusqu’à r = 3. Lorsque le rayon de la trajectoire est
proche du rayon du domaine reconstruit, le support essentiel se déforme et on sort des
conditions d’échantillonnage parallèle.

3.4. Bibliographie

[ABR 70] ABRAMOWITZ M., STEGUN I.A., Handbook of mathematical functions, Dover, 1970.
[BRA 91] BRAUN H.S., HAUCK A., « Tomographic raconstruction of vector fields », IEEE
trans. Signal Proc., vol. 39, n° 2, p. 464-472, 1991.
[COR 78] CORMACK A.M., « Sampling the Radon transform with beams of finite witdth »,
Phys. Med. Biol., vol. 23, n° 6, p. 1141-1148, 1978.
[DES 95] DESBAT L., « Efficient parallel sampling in vector field tomography », Inverse
Problems, 11, p. 995-1003, 1995.
[DES 97a] DESBAT L., « Echantillonnage parallèle efficace en tomographie 3D », C.R. Acad.
Sci. Paris, t. 324, série I, p. 1193-1199, 1997.
[DES 97b] DESBAT L., MENNESSIER C., « Echantillonnage efficace en imagerie Doppler »,
Proceedings of GRETSI’97, p. 563-566, 1997.
[DES 97c] DESBAT L., Echantillonnage efficace en tomographie, Mémoire d’habilitation à
diriger des recherches, Université Joseph Fourier, Grenoble 1, 1997.
110 La tomographie

[DES 99] DESBAT L., MENNESSIER C., « On the invertibility of Doppler imaging: an approach
based on generalized tomography », Inverse Problems, 15, p. 193-213, 1999.
[FAR 90] FARIDANI A., « An application of a multidimensional sampling theorem to
computed tomography », dans AMS-IMS-SIAM Conference on Integral Geometry and
Tomography, Contemporary Mathematics, 113, p. 65-80, 1990.
[FAR 94] FARIDANI A., « A generalized sampling theorem for locally compact abelian
groups », Math. Comp., 63(207), p. 307-327, 1994.
[GAS 95] GASQUET C., WITOMSKI P., Analyse de Fourier et applications, Masson, 1995.
[JER 77] JERRI A.J., « The Shannon sampling theorem – its various extensions and
applications: a tutorial review », Proc IEEE, 65(11), p. 1565-1596, 1977.
[MEN 97] MENNESSIER C., Identification en imagerie Doppler : liens avec la transformée de
Radon généralisée, Thèse de l’université Joseph Fourier, Grenoble 1, 1997.
[NAT 86] NATTERER F., The mathematics of computerized tomography, Wiley, 1986.
[NAT 93] NATTERER F., « Sampling in fan-beam tomography », SIAM J. Appl. Maht., vol. 45,
n° 5, p. 1201-1212, 1993.
[NOR 88] NORTON S.J., « Tomographic reconstruction of 2-D vector fields: application to
flow imaging », Geophisical Journal, 97, p. 161-168, 1988.
[NOR 92] NORTON S.J., « Unique tomographic reconstruction using boundary data », IEEE
trans. Ima. Proc., 3, p. 406-412, 1992.
[ORL 76] ORLOV S.S., « Theory of three-dimensional reconstruction. Conditions of a
complete set of projections », Sov. Phys. Crystallogr., 20, p. 312, 1976.
[PRI 96] PRINCE J.L., « Convolution Backprojection formulas for 3D vector tomographiy
with application to MRI », IEEE trans. Ima. Proc., 5, p. 1462-1472, 1996.
[RAT 81] RATTEY P.A., LINDGREN A.G., « Sampling the 2-D Radon transform », IEEE trans.
ASSP, 29, p. 994-1022, 1981.
[ROU 80] ROUX C., Contribution à l’étude d’un système d’imagerie cardiaque en tomographie
axiale transverse par rayons X, Thèse de l’Institut national polytechnique de Grenoble, 1980.
[WAT 66] WATSON G.N., A treatise on the theory of Bessel functions, Cambridge University
Press, 1966.
[XIA 95] XIA W., LEWITT R.M., EDHOLM P., « Fourier Correction for Spatially Variant
Collimator Blurring in SPECT », IEEE TMI, p. 100-115, 1998.
Chapitre 4

Les méthodes discrètes

4.1. Introduction

Ce chapitre décrit les méthodes discrètes de reconstruction tomographique, qui


s’appuient par définition et contrairement aux méthodes analytiques, sur une
modélisation discrète de l’image à reconstruire et des mesures. Le terme discret permet
de regrouper plusieurs grandes familles de techniques. Elles ont été élaborées dans des
contextes différents pour davantage prendre en compte certains phénomènes physiques
et statistiques mal incorporés par la transformée de Radon. Ces méthodes permettent
d’intégrer des informations a priori sur le processus d’acquisition, sur les images à
reconstruire, ainsi que d’utiliser souplement divers critères d’optimisation. Nous
distinguerons deux grandes classes de méthodes. D’une part, nous décrirons les
méthodes algébriques qui se réfèrent à des méthodes d’inverse généralisée, adaptées à
la forme particulière de l’opérateur de Radon et dont les plus utilisées sont celles issues
des techniques par projection sur des sous-espaces. D’autre part, nous présenterons les
méthodes statistiques élaborées dans le cadre de l’estimation bayésienne ou par
optimisation de fonctionnelle. Ces méthodes ont historiquement été développées en
tenant compte du contexte d’acquisition des données qui est déterminant pour la nature
du problème. A ce niveau, différents cas de figures peuvent se présenter, avec des cas
de sur et sous-détermination dans les données. Dans le premier cas, la solution serait
unique s’il n’y avait un problème de consistance lié à différents types de bruits (bruits
de mesure, écart entre le modèle et les données...) ; dans le second cas au contraire, on
ne dispose que d’un nombre restreint de mesures qui ne permettent pas de déterminer
une solution unique. Selon le cas, le problème inverse pourra donc être soit faiblement,
soit fortement mal posé. Les méthodes seront décrites selon les quatre catégories :

Chapitre rédigé par Habib BENALI et Françoise PEYRIN.


112 La tomographie

algébriques ou statistiques, sur ou sous-détermination dans les données. Dans chaque


section, nous donnerons les principaux algorithmes utilisés, généralement itératifs,
compte tenu de la taille du problème.

4.2. Le modèle discret

Les méthodes discrètes reposent sur une représentation discrète à la fois de


l’image à reconstruire et des mesures.

Ainsi, l’image f(x) est représentée par le vecteur f de ses coordonnées fj dans
une base finie de N fonctions de carré sommable hj(x) :

N -1
f(x) = ∑ f j h j (x) [4.1]
j=0

Si la décomposition la plus naturelle est de choisir les fonctions hj comme


indicatrices des pixels ou des voxels, différents choix, tels que des « pixels
naturels » [BUO 81], des « blobs » [LEW 92], des B-splines, ou des ondelettes
[GUE 90], sont aussi possibles.

De façon générale, une mesure de projection mi s’exprime sous la forme d’une


intégrale sur un chemin d’intégration si(x) par :

mi = ∫ f(x) s i (x) dx [4.2]

En introduisant la décomposition de f(x) et d’après la linéarité des opérateurs de


sommation continu et discret, la mesure s’écrit sous la forme :

[ ]
N −1
mi = ∑ ∫ h j ( x ) s i ( x ) d x f j [4.3]
j=0

En regroupant l’ensemble des mesures dans un vecteur m, le modèle discret


s’écrit sous la forme matricielle suivante :

m=Rf [4.4]

où R est la matrice de taille M × N, dont le terme général r ij représente la i-ième


mesure de projection de la fonction de base hj(x).

Cette formulation est générique puisque la matrice R qui représente l’opérateur


de projection peut être écrite aussi bien en géométrie parallèle ou divergente, pour
Les méthodes discrètes 113

un problème de reconstruction 2D ou 3D, et en tomographie par rayons X, ou par


émission.

Par exemple, en tomographie par rayons X modélisée par la transformation de


Radon en géométrie parallèle 2D (voir chapitre 2), si les fonctions de base sont les
fonctions indicatrices des pixels, le coefficient rij représente la longueur de
l’intersection du i-ième rayon avec le pixel j. En effet, en considérant une
intégration sur une droite paramètrée par ψi et pi et représentée par
si(x,y) = δ(x cos ψi + y sin ψi - pi), on obtient :

rij = ∫ hj (pi cos ψi - s sin ψi, pi sin ψi + s cos ψi) ds [4.5]

Le calcul de ce coefficient est complexe et peut conduire à des instabilités


numériques. Il doit être le plus rapide possible, car la matrice de projection R
n’étant généralement pas stockée, il doit être évalué à chaque itération. Une
technique de calcul efficace consiste à sommer la contribution de chacun des pixels
de la même façon que dans les algorithmes de rétroprojection [JOS 82, PET 81].

En tomographie par émission, le coefficient rij s’interprète plutôt comme la


probabilité qu’un photon émis par le pixel ou le voxel j de l’objet dans la direction
du détecteur parvienne sur le « bin » i du détecteur.

Les choix de hj(x) et si(x) permettent de modéliser la discrétisation des données.


Il est également possible d’introduire dans cette formulation une prise en compte
plus fine de la physique d’acquisition (taille de la source, réponse des détecteurs,
effets d’atténuation...) qui ne change pas la nature du problème tant que les
phénomènes modélisés restent linéaires. Tous les choix effectués au niveau des
modèles sont implicitement contenus dans la matrice R et ont une influence sur son
inversion.

La relation [4.4] peut également être complétée en faisant apparaître


explicitement un terme global de bruit, traduisant différents bruits du système (bruit
photonique, de conversion, de détection...) :

m=Rf+e [4.6]

Le problème inverse en tomographie consiste donc à résoudre le système linéaire


[4.6], c’est-à-dire à déterminer l’image f, connaissant les mesures m, le modèle de
projection R et en ayant éventuellement des informations sur le bruit e et l’image f.

Il s’agit d’un problème rentrant dans la classe des problèmes de restauration


d’images, mais présentant quelques spécificités [GRA 99]. La matrice R est une
114 La tomographie

matrice de très grande taille, ses dimensions étant typiquement le nombre de pixels
ou de voxels de l’image N, par le nombre de mesures M. Par construction, la
matrice R est très creuse, mais sans structure exploitable mathématiquement. Selon
les conditions d’acquisition, le problème pourra être sur, sous-déterminé, ou
inconsistant à cause du bruit. Le caractère « bien ou mal posé » (au sens de
Hadamard) du problème d’inversion en tomographie a été étudié théoriquement
dans certains cas particuliers. Il apparaît que la nature mal posée du problème croît
très vite avec le nombre de vues manquantes [DAV 83].

4.3. Méthodes algébriques

4.3.1. Cas de surdétermination dans les données

[Link]. Méthodes algébriques par minimisation quadratique


Dans le cas de surdétermination, la solution est souvent recherchée par
minimisation d’une fonctionnelle J(f) quadratique.

Méthode des moindres carrés (MC)


L’approche la plus classique consiste à minimiser l’erreur quadratique entre les
mesures et la projection de l’image, c’est-à-dire à choisir la fonctionnelle :

2
J(f ) = m − R f [4.7]

La minimisation de cette fonctionnelle conduit à la solution des moindres carrés


(MC) donnée par la résolution du système d’équations normales :

T T
R R fˆ = R m [4.8]

où RT représente la transposée de la matrice R.

De façon générale, la solution peut être exprimée en fonction de l’inverse


généralisé de R, noté R+, qui se réduit à (RTR)-1RT lorsque cette matrice est
inversible et s’écrit :

+
fˆ = R m [4.9]

Lorsque la matrice (RTR)-1 n’est pas inversible, la solution ainsi définie


correspond à la solution des moindres carrés de norme minimale. Cette solution est
souvent instable en présence de bruit, car elle fait intervenir les inverses des valeurs
Les méthodes discrètes 115

singulières de la matrice R qui peuvent être petites devant les valeurs du bruit de
mesure. On préfère alors utiliser des solutions régularisées.

Méthodes basées sur la régularisation


Le principe de la régularisation consiste à reformuler le problème original, sous
la forme d’un problème bien posé. Il existe différentes approches à la régularisation
et nous nous limiterons, dans ce chapitre, aux approches basées sur un apport
d’information a priori sur la solution.

Dans ce cadre, la régularisation au sens de Tikhonov [TIK 63] consiste à


introduire une contrainte de régularité sur la solution, traduite par une nouvelle
fonctionnelle Γ(f). On a alors un problème de minimisation sous contraintes, qui se
traduit par la minimisation de :

2
J(f ) = m − R f + λ Γ(f ) [4.10]

Le paramètre λ permet de contrôler les poids respectifs de l’attache aux données


|| m – R f || et de l’a priori, traduit par Γ( f ).
2

2
Une solution classique consiste à choisir Γ(f) de la forme ||Cf || , où C est un
opérateur différentiel. La solution f̂ est alors déterminée par la résolution des
nouvelles équations :

T T T
( R R +  C C) fˆ = R m [4.11]

L’introduction de l’opérateur C permet d’améliorer le conditionnement de la


matrice : on obtient donc une solution à la fois plus stable et plus « douce ». Le
paramètre de régularisation λ peut être estimé en utilisant les techniques de
validation croisée. L’opérateur RT, qui est explicité dans ces solutions, peut être
interprété comme la version discrète de l’opérateur de rétroprojection, largement
utilisé dans les méthodes analytiques.

Un schéma permettant de généraliser les cas précédents et cohérent avec


l’estimation bayésienne a été présenté dans [HER 80]. Il consiste à minimiser une
fonctionnelle de la forme :

J(f ) = ( m - R f ) T W1 ( m - R f) + (f - f 0 ) T W2 (f - f 0 ) [4.12]

où W1 et W2 sont des matrices définies positives. Un choix courant permettant


d’intégrer des informations sur le bruit consiste à prendre W 1 égale à la matrice de
covariance du bruit si celui-ci est centré.
116 La tomographie

[Link]. Algorithmes
La résolution du système donné en [4.11] nécessite l’inversion de matrice de
grande taille. Il convient alors d’utiliser des techniques itératives pour calculer une
solution approchée. Nous présenterons essentiellement les algorithmes de
minimisation reposant sur des méthodes de descente de gradient.

Méthode SIRT
L’algorithme SIRT (Simultaneous Iterative Reconstruction Technique) fait partie
des algorithmes itératifs développés spécifiquement pour la tomographie [GIL 72,
LAK 79]. Chaque pixel j est itérativement corrigé, en tenant compte de toutes les
mesures auxquelles le pixel contribue. Le schéma itératif peut s’exprimer sous la
forme [HER 76] :

+1) N  N M 
f (n j + λ  ∑ (mi − 〈ri. , f
= f (n) 〉 rij ) /  ∑ ∑ riq rij 
(n)
j [4.13]
i =1  i =1 q =1 

où λ est un facteur de relaxation et ri. désigne la i-ième ligne de la matrice R,


correspondant à l’équation d’une mesure.

Le schéma itératif peut se réécrire sous la forme d’un algorithme de descente


comme :

f (n +1) = f (n) + λ B ( m − R f (n) ) [4.14]

en choisissant B = S RT, où S est une matrice diagonale dont le terme général sj est
l’inverse de l’expression au dénominateur de l’équation [4.13]. L’algorithme admet
donc l’interprétation suivante : chaque pixel j est corrigé par la rétroprojection,
normalisée par le coefficient sj des écarts entre les mesures et les projections
calculées.

D’une façon générale, l’algorithme donné sous la forme de l’équation [4.14]


converge si et seulement si :

ρ ( I −  B R) = max 1 −  γ i < 1 [4.15]


i

où ρ(A) désigne le rayon spectral de la matrice A et où les coefficients γi sont les


valeurs propres de B R.
Les méthodes discrètes 117

Méthode de Landweber
La méthode de Landweber [LAN 51] correspond à un algorithme de descente
suivant le schéma [4.14] en choisissant B = RT et λn = λ . Elle converge vers la
solution de norme minimale lorsque l’algorithme est initialisé à zéro. C’est une
méthode de gradient à pas constant, dont la convergence est assez lente. Des
généralisations de cette méthode ont été développées afin d’améliorer la vitesse de
convergence.

Méthode de gradient à pas optimal


La méthode de gradient à pas optimal est définie par le schéma itératif :

(n +1)
f = f (n) + λ n q n

avec n = q Tn q n ( R q n ) T ( R q n ) [4.16]
et q n = R (m - R fT (n)
)

Le coefficient de relaxation λn est choisi de façon à minimiser l’erreur


quadratique || m – R f || . Cette méthode permet de suivre la direction des plus
(n+1) 2

grandes pentes de la fonctionnelle à minimiser. A chaque itération, le résidu est nul,


et les résidus successifs sont orthogonaux.

Méthode du gradient conjugué


La méthode du « gradient conjugué », consiste à choisir des résidus non plus
orthogonaux par rapport à la norme euclidienne, mais par rapport à RTR, et le
schéma général s’écrit :

(n +1)
f = f (n) + λ n p n

rn = R T (m - R f (n) )
[4.17]
p1 = r0 et si n > 1 p n+1 = rn − β n p n
avec < p n+1 , rn >= 0 et < p n +1 , R T R p n >= 0

Il s’ensuit que les coefficients λn et βn sont donnés par :

n = p Tn p n ( R p n ) T ( R p n )
[4.18]
et β n = ( R rn −1 ) T ( R p n −1 ) ( R p n −1 ) T ( R p n −1 )
118 La tomographie

Notons que cette approche est lourde à mettre en œuvre pour les gros volumes,
car elle nécessite de conserver en mémoire la correction de l’étape précédente pn.

Méthode des résidus minimaux


La résolution de l’équation [4.8] peut s’interpréter comme un préconditionnement
du système à l’aide de l’opérateur RT. Des choix d’opérateurs de préconditionnement,
non limités à RT, sont possibles et sont intéressants, notamment dans le cadre des
applications en tomographie par émission. Dans ce cas, on cherche à résoudre :

B R fˆ = B m [4.19]

Il existe pour résoudre ce type de système une généralisation de la méthode du


gradient conjugué aux opérateurs asymétriques. Un cas particulier de cette méthode,
appelée méthode du résidu minimal, a été proposé dans [AXE 80] et utilisé en
tomographie dans [LA 97]. Le schéma itératif s’exprime alors par :

(n +1)
f = f (n) + λ n p n

rn = B(m − Rf (n) ) (d' où rn+1 = rn − λ n BRp n )


[4.20]
p n+1 = rn+1 + β n p n
avec < rn+1 , BRp n >= 0 et < BRp n+1 , BRp n >= 0

4.3.2. Cas de sous-détermination dans les données

[Link]. Méthodes algébriques par optimisation sous contraintes


Les cas de sous-détermination dans les données se rencontrent lorsque le nombre
de mesures est limité, ce qui peut arriver lorsque l’acquisition doit être très rapide
(applications cardiaques, contrôle industriel...), ou lorsque les mesures sous
certaines incidences ne sont pas accessibles ou exploitables.

Il est alors intéressant de remarquer que la solution générale du problème de


reconstruction [4.4] se décompose sous la forme :

f = fˆ + f ⊥ [4.21]

où fˆ désigne la solution des moindres carrés de norme minimale et f ⊥ une


composante du noyau de R. Le premier terme correspond à la solution donnée par
l’inverse généralisé ; quant au second terme, il correspond à une composante de
Les méthodes discrètes 119

l’image « inobservable » compte tenu des mesures. Ces composantes inobservables


correspondent à des images dont les projections sous toutes les incidences
disponibles sont nulles [HAN 87]. En considérant le théorème coupe-projection
(chapitre 2), il est possible de montrer que la solution des moindres carrés de norme
minimale est nulle sur les incidences manquantes dans l’espace de Fourier
[PAY 96], ce qui souvent n’est pas cohérent avec la réalité physique des images
attendues. Afin d’affiner cette solution, il est donc nécessaire d’introduire des
contraintes sur la solution, permettant de choisir une solution acceptable parmi une
infinité de solutions possibles. Les contraintes utilisées peuvent être soit assez
générales, comme la positivité ou les contraintes de support, soit au contraire
spécifiques à l’application, comme la binarité par exemple. Nous nous limiterons
aux a priori de nature non statistique, ceux-ci étant traités dans la section 4.4.

Chaque contrainte définissant un ensemble, l’image recherchée doit être une


solution du système appartenant à l’intersection de ces ensembles. Lorsque les
contraintes définissent des ensembles convexes, la solution peut être trouvée par des
projections successives sur les différents ensembles, méthode connue sous le nom
de POCS (Projection Onto Convex Sets). En remarquant que chaque équation elle-
même peut être interprétée comme une contrainte convexe, cette méthode a été
appliquée en tomographie, notamment dans [SEZ 82, YOU 82].

D’une façon générale, le problème peut être abordé comme le problème de la


minimisation d’une fonctionnelle C(f) sous les contraintes apportées par les mesures
[BRE 67] :

min C (f )
f [4.22]
sous contrainte Rf =m

[Link]. Algorithmes
L’algorithme ART (Algebraic Reconstruction Technique) est très fréquemment
utilisé en tomographie, ainsi que sa version multiplicative MART. Ces algorithmes
peuvent s’interpréter comme des cas particuliers de l’algorithme proposé par
Bregman [BRE 67] pour résoudre un problème de minimisation sous contraintes
avec un critère quadratique (ART) ou entropique (MART).

L’algorithme ART a été proposé dans l’article original de Hounsfield [HOU 72].
Il repose sur l’idée intuitive de corriger à chaque itération tous les pixels contribuant
à une mesure, de manière à rendre la solution cohérente avec cette mesure. Il peut
être exprimé suivant le schéma :
120 La tomographie

(mi − 〈ri. , f (n) 〉 )


f (n +1) = f (n) + λ n riT. [4.23]
2
ri .

Cet algorithme est en fait équivalent à la méthode de Kaczmarz [TAN 71], où à


chaque itération la solution est projetée orthogonalement sur l’hyperplan
correspondant à l’équation de mesure traitée. Sa convergence vers la solution de
moindres carrés de norme minimale est prouvée lorsque le paramètre λ est compris
entre 0 et 2. A chaque itération, une seule ligne de la matrice R étant utilisée, cet
algorithme fait partie des Row Action Methods. Sa popularité en tomographie est
liée à sa facilité de mise en œuvre et à sa convergence rapide. En effet, si l’on
définit un cycle, comme M itérations (M étant le nombre de mesures), ART
converge typiquement en cinq à six cycles. Il présente toutefois l’inconvénient
d’être instable en présence de bruit puisqu’il converge vers une solution de
moindres carrés. Cette instabilité peut être gérée en arrêtant les itérations
suffisamment tôt, c’est-à-dire avant que la solution ne se détériore. Des méthodes
permettant de choisir le nombre d’itérations de façon optimale ont été notamment
proposées par [DEF 87].

La version multiplicative de ART (MART), qui converge vers une solution de


type maximum d’entropie, est donnée par :

 
 mi 
f j(n +1) = f j( n )   [4.24]
 < ri. , f (n) >
 

On peut généraliser ces algorithmes de base à des versions par blocs, où la


correction n’est pas limitée à une mesure de projection mais à une ensemble de
mesures. Si l’on considère ainsi une partition de la matrice R en sous-matrices Rin,
le schéma itératif du ART par blocs additif s’écrit :

R iT (m i n − R i f (n) )
(n +1) (n)
f =f + λn n n
[4.25]
2
R iT R i
n n

où min est le bloc de mesures correspondant au bloc Rin.

Il est assez naturel d’utiliser des blocs correspondant à une projection entière, on
retrouve alors l’algorithme SART (Simulaneous ART). En 3D, ce type de méthode a
été exploité pour la reconstruction à partir de projections coniques en utilisant des
blocs correspondant aux projections 2D [EGG 81, PEY 90]. Le cas limite d’un seul
Les méthodes discrètes 121

bloc correspond à un algorithme de type SIRT convergeant très lentement. On


considère que la convergence des algorithmes ART par blocs est accélérée par
rapport à SIRT d’un facteur sensiblement égal au nombre de blocs. De plus, la
vitesse de convergence peut encore être optimisée si les blocs successifs sont le plus
orthogonaux possibles [HER 93].

L’utilisation d’un ART sous contraintes, incluant par exemple des contraintes de
positivité et de bornes, permet d’améliorer sa robustesse. La méthode ART4 permet
d’introduire une régularisation avec contrainte quadratique pour assurer la
convergence de l’algorithme vers une solution de norme minimale [HER 80,
p. 192]. Les contraintes peuvent être introduites en utilisant les méthodes de
projection sur des ensembles convexes (POCS). Dans ce cas, elles peuvent
également être incorporées à des schémas itératifs de type descente de gradients
[MED 87]. Une méthode de type gradient conjugué avec contrainte de support a été
décrite dans [KAW 85]. Une généralisation de la notion de support conduisant à la
minimisation d’un critère semi-quadratique a été proposée dans [PAY 96].

4.4. Méthodes statistiques

4.4.1. Cas de surdétermination dans les données

[Link]. Méthodes statistiques bayésiennes


Nous considérons dans ce paragraphe le cas où les projections m correspondent
à la réalisation d’un processus aléatoire M. L’objet f est aussi la réalisation d’un
processus aléatoire F. Nous introduisons la connaissance que nous possédons sur
l’objet f au moyen d’une loi de probabilité a priori p(f). La reconstruction de l’objet
f à partir des projections m peut être formulée dans le cadre de la théorie
bayésienne. En effet, au moyen de la règle de Bayes, on peut exprimer la probabilité
d’obtenir l’objet f connaissant les projections m (i.e. la loi a posteriori p(fIm) en
fonction de la vraisemblance p(mIf), des lois a priori sur l’objet p(f) et sur la
distribution des données p(m)). La règle de Bayes s’écrit :

p(m )
p(f m ) = p(m f ) [4.26]
p(f )

Par exemple, en tomographie d’émission, p(f) est la loi d’émettre un nombre f de


photons pendant une durée donnée, p(m) est la loi de détecter m photons parmi f
émis. L’objet f peut être estimé par la minimisation d’une fonctionnelle intégrant
une fonction de coût c(f,g) entre la solution exacte g et celle estimée f. Dans le
formalisme bayésien, la solution est donnée par :
122 La tomographie

f solution = arg min ∫ c(f , g ) p(f = g m ) dg [4.27]


f

La plupart des estimateurs que l’on rencontre dans la littérature peuvent être
obtenus comme des cas particuliers de l’équation [4.27].

Critère du maximum a posteriori (MAP)


Ce critère est déduit de l’équation [4.27] en prenant pour fonction de coût
c(f,g) = 1-δ(f,g), où δ est la distribution de Dirac au point f. Ceci revient à favoriser
la solution la plus probable connaissant la mesure. La solution est alors donnée par :

f solution = arg max p(f m ) [4.28]


f

Critère de la moyenne a posteriori


Pour ce critère, nous prenons pour fonction de coût la fonction quadratique
c(f,g) = (f-g)T Q (f-g), où Q est une métrique sur l’espace des processus F. Cela
revient à choisir la solution minimisant l’erreur moyenne :

f solution = ∫ f p(f m ) df [4.29]

Un autre cas particulier du critère du MAP, très utilisé en pratique, est celui où la
loi a priori sur l’objet est uniforme (i.e. loi non informative sur l’objet). Dans ce
cas, la vraisemblance p(mIf) des projections m est équivalente à la loi a posteriori
sur l’objet f. La solution maximisant le critère du MAP est donc celle du maximum
de vraisemblance correspondant à la solution maximisant la probabilité d’obtenir la
grandeur mesurée.

[Link]. Régularisation
Sous le terme régularisation, plusieurs méthodes visent, à travers une contrainte
imposée sur l’objet f, à transformer un problème inverse mal posé en un problème
mieux conditionné. Pour ce faire, un terme de pénalité est introduit dans le critère à
optimiser. Nous reformulons le problème de la régularisation dans le cadre
bayésien. L’estimateur que nous choisissons est celui du MAP. Ainsi, on cherche un
objet f solution de l’équation [4.28]. Le critère s’écrit :

[ ]
U(f ) = −log p(m f ) - log[p(f )] + Cte [4.30]

U(f) est composé d’un terme d’adéquation aux données U(m,f) (i.e. –log[p(mIf)]),
d’un terme de régularisation V(f) (i.e. –log[p(f)]) et d’une constante. La régularisation
Les méthodes discrètes 123

du problème inverse par le critère du MAP requiert la définition d’une probabilité p(f).
Il existe plusieurs choix possibles de cet a priori. Souvent, les lois p(f) sont introduites
au moyen des champs de Markov et des distributions de Gibbs pour répondre, par
exemple, aux questions sur les conditions que doit vérifier l’a priori V(f) pour
préserver les discontinuités sur l’objet f.

[Link]. Champs de Markov et distributions de Gibbs


Nous présentons, pour l’estimation du MAP, les lois a priori les plus utilisées
lors de la reconstruction tomographique. Tout d’abord, donnons quelques éléments
sur la théorie des champs de Markov, où l’objet f est considéré comme un champ
aléatoire défini sur un ensemble de sites i, i∈{1,…,n}. On définit sur l’ensemble de
ces sites un système de voisinage ν (i.e. νi est le voisinage du pixel i). La loi de
probabilité a priori est définie par :

p(f i ) ≥ 0,
( ) (
p f i f j , j ≠ i = p f i f j , j ∈ν i ) [4.31]

Le théorème de Hammersley-Clifford [GEM 84] établit le lien entre les


probabilités locales données par l’équation [4.31] et la probabilité globale de l’a
priori p(f). L’objet f est alors un champ de Markov par rapport au système de
voisinage ν avec la probabilité p(f) définie par :

 n 
p(f ) = exp − β ∑ ϕ i (f )
1
[4.32]
Z  i =1 

où Z est une fonction de normalisation appelée fonction de partition, β un paramètre


de régularisation et ϕi(f) la fonction de potentiel d’interaction locale définissant les
contraintes locales sur l’objet f. Le critère du MAP s’écrit dans ce cas :

[
f MAP = arg max ln p(m f ) + ln p(f ) ]
f
[4.33]
 n 
= arg max ln p(m f ) − β ∑ ϕ i (f )
f  i =1 

Dans le cas de la tomographie d’émission, l’objet f estimé correspond au nombre


moyen de photons émis par voxel pendant un temps donné. Il peut être
théoriquement considéré comme la réalisation d’un processus de Poisson de
moyenne proportionnelle à f. Le critère du MAP s’écrit dans ce cas :
124 La tomographie

  
f MAP = arg min ∑ ∑ r lk f k - ml ln ∑ r lk f k  + β ∑ ϕ k (f ) [4.34]
f l k k  k

la fonction de potentiel étant choisie de façon à préserver les discontinuités de


l’objet.

On parlera de vraisemblance gaussienne dans le cas où f est la réalisation d’un


processus gaussien. Le critère du MAP sera donné par :

 
+ β ∑ ϕ k (f )
2
f MAP = arg min  m − Rf [4.35]
f  k 

Le critère du MAP est dans la plupart des cas non convexe, ceci à cause du
terme d’a priori V(f). Ainsi, les algorithmes déterministes de calcul de fMAP ne
permettent d’atteindre qu’un minimum local du critère U(f). Par exemple, les
algorithmes de descente simple du type gradient conjugué ou Iterated Conditional
Mode (ICM) [BES 86] peuvent ainsi aboutir à une mauvaise estimation de l’objet f.
Il existe des techniques d’optimisation non convexe qui font appel à des algorithmes
stochastiques d’optimisation, tels que le recuit simulé [KIR 83], la non-convexité
graduelle [BLA 87] ou le recuit par champ moyen [GEI 91]. Ces techniques
nécessitent des temps de calcul très importants et sont par conséquent peu utilisées
en pratique.

Les choix de la fonction de potentiel ϕ et du paramètre de régularisation β


déterminent l’objet f. Il est donc important qu’ils soient guidés par l’objectif recherché.
Ainsi, un objectif tel que celui de la détection de tumeurs à partir des images de
tomographie SPECT (i.e. tomographie d’émissions monophotonique) ou PET (i.e.
tomographie d’émissions de positons) est radicalement différent de celui de la mesure
quantitative de la concentration radioactive à partir des mêmes images. Dans le
premier cas, c’est l’information de support d’un objet qui est fondamentale, tandis que
dans le second, c’est la mesure la plus exacte possible de la fixation radioactive qui est
importante. On trouvera dans [LEA 00] une revue récente des techniques itératives de
reconstruction tomographique utilisées en SPECT et en PET.

[Link]. Les fonctions de potentiel


Le choix de la fonction de potentiel est intimement lié à l’objectif que l’on veut
atteindre avec l’image reconstruite. Techniquement, cette fonction est choisie paire
pour être indépendante du signe du gradient de l’image. Par exemple, le critère du
MAP pour la fonction de potentiel quadratique ϕ(x) = x s’écrit :
2
Les méthodes discrètes 125

 2
U(f ) = U(m, f ) + β  ∂ x f
2
+ ∂ yf  [4.36]
 

où ∂xf et ∂xf sont les dérivées partielles suivant x et y. Il s’agit là du critère de


régularisation de Tikhonov [TIK 63] dans le cas d’une vraisemblance gaussienne où
l’image résultante f est lissée et donc moins sensible aux erreurs sur les projections
m. Ce critère semble mieux convenir à un problème dont l’objectif est la
quantification. Un de ces inconvénients est qu’il ne préserve pas les discontinuités
que peut présenter l’objet f, par exemple au niveau des contours des éléments de
l’image.

Pour résoudre le problème de discontinuités, Geman a proposé d’introduire la


notion de « processus de ligne » dans le modèle de l’objet f [GEM 84]. Ce processus
utilise une variable booléenne l = (lx,ly) (i.e. champ de variables booléennes
représentant le support de f). Le processus lx repère les discontinuités de l’objet f
selon les colonnes et ly repère les discontinuités selon les lignes. Le critère du MAP
intègre alors l’estimation simultanée de l’objet f et du processus non observable l.
Le critère du MAP s’écrit :

f MAP = arg min (U(m, f ) + V(f , l ))


f

avec :

{
V(f , l ) = λ ∑ (l x )ij
i
(∂ x fij )2 + (l y )ij (∂ y fij )2}
[ ]
[4.37]
 
( )
2
+ α ∑  1 − (l x )ij 2
+ 1 − l y  

i 
 ij 

Le premier terme définit l’énergie d’interaction entre f et l, le second l’énergie


de régularisation du processus de ligne et correspond au coût de la création d’une
discontinuité. Le paramètre λ est la constante d’élasticité et α le poids de la
pénalisation accordée à la création d’une discontinuité. Ce modèle favorise la
reconstruction d’objets f constants par morceaux [LEE 95] et présente de bonnes
performances pour reconstruire des objets tout en respectant les discontinuités
[GIN 93]. Toutefois, l’estimation de l’objet f nécessite la mise en œuvre
d’algorithmes de recuit qui rendent difficiles l’emploi d’un tel critère. Là encore, en
raison des paramètres de lissage et du choix de l’a priori, ce modèle semble plus
adapté à un problème de quantification.
126 La tomographie

Si l’objectif est la préservation des discontinuités de l’objet, il existe une autre


représentation implicite du processus ligne par la fonction de potentiel. Ce mode de
représentation aboutit à l’a priori suivant :

( ) 
[( ) ]
V f , l x , l y = β ∑ ϕ [(∂ x f )k ]+ ϕ ∂ y f
k
[4.38]
k 
Dans ce cas, le processus ligne est implicite à la fonction de potentiel et est
donné par les relations suivantes :

  ϕ ' [(∂ x f )k ]  
,  l  =
ϕ' ∂ yf [( ) ]
l  =
k
 x k 2(∂ x f )k  y  k 2 ∂ yf
k
( ) [4.39]

Plusieurs fonctions de potentiel s’insérant dans le cadre général des champs de


Markov sont proposées pour régulariser la reconstruction [BLA 87, GEM 95]
(tableau 4.1).

Potentiels Expression de ϕ(x) Propriétés

Green ϕGR (x) = 2log[cosh(x)] convexe

Hebert et Leahy (
ϕ HL (x) = ln 1 + x 2 ) non convexe

x2
Geman et McClure ϕGM (x) = non convexe
1+ x2

Hyper Surface ϕ HS (x) = 2 1 + x 2 − 2 convexe

Bouman ϕB (x) = xd 1≤ d ≤ 2 convexe

 a a
x - 4 si x >
2
ϕM =
(x) 
2
x si x <
a
 a 2
Muncuoglu non convexe

log[cosh(x)] si x ∈ Z
Lipinski ϕ L (x) =  convexe
0 sinon

Tableau 4.1. Exemple de fonctions de potentiel continues


Les méthodes discrètes 127

[Link]. Choix des hyperparamètres


Le paramètre β dans le critère du MAP pondère l’importance de la distribution a
priori de l’objet V(f) par rapport à l’adéquation aux données U(m,f). Il joue un rôle
important dans la structure de l’objet reconstruit. Plusieurs approches ont été
utilisées dans l’estimation de β, telles que les techniques de validations croisées
généralisées [CRA 79], les L-curves [HAN 92] et les tests du χ [HEB 92] ainsi que
2

l’estimation du maximum de probabilité conditionnelle P(mIβ) [DJA 93].

La méthode du maximum de vraisemblance généralisée a été proposée dans


[DJA 93]. Le paramètre β est estimé à partir de la densité jointe de f et m. Les
estimateurs sont donnés par :

f (n) = arg max  p m f , β (n)  


f   
((
β (n +1) = arg max p f (n) β
β
)) [4.40]

L’objet f et le paramètre β sont déterminés de façon alternée en optimisant le


critère du MAP. L’optimisation du critère donné par l’équation [4.35] fait appel aux
chaînes de Markov Monte-Carlo [BES 95].

4.4.2. Algorithmes de reconstruction du MAP

[Link]. L’algorithme ML-EM


L’algorithme ML-EM (Maximum Likelihood Expectation Maximization) est
probablement un des algorithmes algébriques itératifs les plus utilisés en
tomographie par émission. Cet algorithme est obtenu dans le cadre bayésien sans a
priori sur l’objet f (i.e. p(f) est une distribution uniforme). Il utilise itérativement
une étape E d’estimation de l’objet (« Expectation »), suivie d’une étape M de
maximisation (« Maximisation »). Cette dernière étape consiste à résoudre les
équations de la vraisemblance étant donnée l’estimation courante de l’objet. Dans le
cas où f correspond à la réalisation d’une distribution de Poisson, l’algorithme est
donné par le schéma itératif suivant :

 
(n)  
+1) = fk  r m

∑ lk l
f (n [4.41]
k
∑ r lk l  ∑ r ls f s(n) 
l  s 

A chaque itération, l’étape E calcule pour chaque pixel le nombre de photons


émis dans une direction, conditionnellement au nombre moyen de photons définis
128 La tomographie

par la solution précédente et les mesures. L’étape M met à jour ce nombre moyen,
en moyennant les contributions liées à chaque direction. Cet algorithme commence
par reconstruire les basses puis les hautes fréquences de l’objet f. Enfin, l’objet f
reconstruit est positif, cette propriété dérivant du caractère multiplicatif des itérées
successives. Une autre approche simple pour régulariser l’algorithme EM est
d’introduire un postfiltrage après les calculs itératifs. Un filtrage gaussien est
souvent utilisé [SNY 87].

[Link]. L’algorithme MAP-EM


Cet algorithme est la version régularisée du ML-EM. Dans le cas d’une
vraisemblance poissonnienne et de la modélisation de l’a priori P(f) par une
distribution de Gibbs, le critère à optimiser U(f) en résolvant les équations normales de
la vraisemblance n’est pas linéaire en f. Dans [GRE 90], la solution proposée consiste
à évaluer à chaque itération les équations normales à l’aide de l’estimée calculée à
l’itération précédente. Dans ce cas, l’expression du MAP-EM est donnée par :

 
(n)  ml 
+1) fk r
f (n = ∑ lk  [4.42]
k ∂U(f) l  ∑ r ls f s 
(n)
∑ r lk + β
l ∂f f = f (n)  s 

[Link]. Régularisation semi-quadratique


La régularisation semi-quadratique a été introduite dans [GEM 85]. Le critère est
quadratique en f si l’on fixe le processus ligne l [GEM 92]. Le principe de la
régularisation semi-quadratique réside dans une minimisation alternée sur les deux
variables l et f du critère U. Le critère étant quadratique en f pour l donné, le schéma
itératif de la minimisation est donné par :

[ ( )]
l (n +1) = arg min U f (n) ,l

= arg min [U (f ,l )]
l [4.43]
f (n +1) (n +1)
f

A chaque étape n, on calcule la valeur du processus de ligne l à partir de


l’estimée de l’objet f(n) (équation [4.43]). Ceci définit un nouveau critère quadratique
U fonction de f qui sera minimisé. Cette régularisation semi-quadratique assure la
reconstruction d’objets f en préservant certaines de leurs caractéristiques, comme
par exemple les discontinuités.
Les méthodes discrètes 129

Deux algorithmes mettant en œuvre la régularisation semi-quadratique dans le


cas d’une vraisemblance gaussienne et poissonienne sont présentés : l’algorithme
ARTHUR pour le cas gaussien et l’algorithme MOISE pour le cas poissonnien.

[Link]. Algorithme de régularisation ARTHUR


L’algorithme ARTHUR One-Step-Late a été développé pour résoudre le critère
du MAP régularisé dans le cas de données tomographiques gaussiennes [CHA 94].
Le schéma itératif résolvant l’équation [4.43] se met dans ce cas sous la forme :

(n + 1) B (n)
k
=
( )
fk [4.44]
A k +2β Λ k f (n)
k −C k
(n)

avec :

rlk fk(n)
k = ∑ml
(n)
A k = ∑ rlk , B(n) k = Λ k fk
, et C(n) [4.45]
l l ∑ rlk fk(n)
k

Λk est la matrice des coefficients


[( ) ] obtenus dans les directions x et y du
ϕ' ∂ f
k
( )k
2∂ f
pixel considéré. La méthode OSL estime les variations de l’a priori à l’itération n+1
à partir de celui de l’itération n. Ceci suppose que l’a priori varie peu d’une itération
à l’autre, d’où la dénomination de One-Step-Late. Dans [CHA 94], l’auteur montre
que cet algorithme restitue correctement les hautes fréquences, par exemple les
contours des objets f reconstruits.

[Link]. Algorithme de régularisation MOISE


L’algorithme Modified-One-step-Implicit-Scheme-EM « MOISE » a été développé
pour résoudre le critère du MAP régularisé dans le cas de données tomographiques
poissoniennes [KOU 96]. Le schéma itératif donné par l’équation [4.43] se met sous la
forme suivante :

2 β C(n)
k −Ak + (A k − 2β C(n)k)2 + 8βΛ k B(n)
k
f k(n) = [4.46]
2 βΛ k
130 La tomographie

Cet algorithme a été appliqué à des données SPECT et PET cérébrales


[KOU 96]. Les résultats obtenus par l’algorithme MOISE sont toutefois
comparables à ceux donnés par l’algorithme ARTHUR.

Même si la convergence de ces deux algorithmes reste dépendante du choix de la


fonction de potentiel et du paramètre d’a priori β, les processus itératifs ne font pas
apparaître d’artefacts dus à la reconstruction de hautes fréquences. Ce qui confirme
l’intérêt de la régularisation pour le critère du MAP dans la reconstruction d’objets f
irréguliers.

4.4.3. Cas de sous-détermination dans les données

[Link]. Méthode du MEM


Dans ce paragraphe, on présente la méthode du maximum d’entropie sur la
moyenne (MEM) [GAM 97]. Elle permet de sélectionner un objet dans un ensemble
convexe, par exemple l’ensemble des objets positifs. Puis, on le munit d’un a priori
µ (i.e. d’une loi de probabilité a priori) sur l’ojet à reconstruire (par exemple, pour
l’émission monophotonique, la loi de Poisson). Le MEM procède en deux étapes :
d’abord par estimation de la loi p la plus proche de la loi µ au sens de la pseudo-
MEM

distance de Kullback K(p, µ) [KUL 59] respectant une contrainte d’attache aux
données m; puis par estimation de l’objet f comme la moyenne de cette loi pMEM. La
modélisation du problème inverse dans le formalisme MEM s’écrit de la façon
suivante :

p MEM = arg min K(p, )


p
sous contraintes : [4.47]
R E p(f ) = m, ∫ dp(f )= 1, f MEM =Ep MEM (f )

Cette technique présente plusieurs aspects méthodologiques intéressants. Elle


permet d’introduire de l’information a priori sur l’objet f, par exemple des lois de
MEM
mélanges de probabilités. La solution p est contrainte d’appartenir à l’espace des
lois exponentielles. En ce sens, la solution f est bien conditionnée. Aussi, la méthode
MEM permet de relaxer l’attache aux données en introduisant une variable
supplémentaire de bruit b et détermine une solution étendue unique (f,b) au problème
de la reconstruction tomographique. L’interprétation de cet objet n’est toutefois pas
toujours aisée. En effet, en tomographie monophotonique, la densité de bruit
reconstruit n’a pas de sens physique et ne peut alors être considérée comme une
densité d’activité. Les techniques bayésiennes introduisent quant à elles de façon
simple la connaissance a priori sur le bruit entachant les données de projections m,
mais posent le problème de l’unicité de la solution de l’objet reconstruit.
Les méthodes discrètes 131

La résolution du problème inverse par la méthode du MEM nécessite d’introduire


le lagrangien associé au critère donné par l’équation [4.47]. Le nouveau critère dépend
des coefficients multiplicateurs de Lagrange h et hr et s’écrit sous la forme :

h r = arg min D(h)


h
(
D(h ) = h m - sup h T s - log ∫ exp(h T R f ) d µ (f )
T
) [4.48]
s

 d log ∫ exp(h T R f ) d µ (f ) 
f MEM =  
 T 
 d( R h ) h =h r

Ce critère est strictement concave, il peut alors être résolu par des méthodes
conventionnelles d’optimisation. Dans [AMB 01], l’optimisation est effectuée par un
algorithme de descente du gradient à pas optimal α. On obtient à chaque itération n :

∇D (h (n) ) = m − R∇log ∫ exp(h (n)TRf )dµ

avec :

h (n +1) = h (n) + α∇D(h (n) ) [4.49]

Il existe dans certains cas une représentation déterministe du critère du MEM


donné dans l’équation [4.48]. Cette représentation permet d’établir un lien entre
l’information a priori µ et l’expression mathématique du critère à optimiser. Ainsi,
on peut expliciter l’a priori µ pour certains critères qui ont été donnés dans la
littérature sans référence à un modèle statistique particulier [HEI 97]. Dans
[GAM 97], les auteurs montrent que l’équation [4.48] est équivalente au critère
suivant :

f MEM = arg min Fµ (f )


Rf = m
avec, [4.50]
  ( ) 
F µ (f ) = sup  s T − log ∫ exp s T d µ (f ) 
  
s

[Link]. Les lois a priori


Le critère Fµ peut être explicité pour différentes lois de référence µ. On aboutit à
des expressions de critères utilisés en reconstruction tomographique [HEI 97]
(tableau 4.2).
132 La tomographie

Loi a priori µ Critère Fµ

Gaussienne Moindres carrés

µ (g ) =
1  1
(
∫ exp − 2 g − f µ )T Γ−1 (g − f µ )dg
K   Fµ (g ) =
1
2
(g −fµ )T Γ−1 (g − f µ )
avec, K = (2p)N det Γ

Poisson Entropie de Shannon

g
fµ f
µ = exp f µ  F µ (f ) = f log − f + fµ
  g ! fµ

Uniforme sur > 0 Entropie de Burg

µ = ∫ 1g dg F µ (f ) = 1 − log(f )
>0

Mélange de gaussiennes Critère non explicite

Tableau 4.2. Quelques lois a priori µ et les critères déterministes associés Fµ

4.5. Exemple de reconstruction tomographique

Nous présentons un exemple dans le cadre de la reconstruction de sources


ponctuelles en tomographie par émission de positons [AMB 01]. En PET, la
présence de foyers tumoraux se traduit par une hyperfixation du traceur injecté,
localisé au niveau des tumeurs. Nous cherchons à maximiser la probabilité de
détection de petits foyers localisés sur un fond plutôt qu’à restaurer l’intensité du
signal (figure 4.1a). Ce n’est donc pas un problème de quantification. Nous
illustrons ce problème avec deux méthodes de reconstruction tomographiques : la
méthode conventionnelle ML-EM et la méthode MEM.

La méthode du MEM a été appliquée en considérant l’objet f comme la moyenne


d’un processus aléatoire d’émission F. La loi µf correspond donc au produit de loi
de Poisson (tableau 4.2). Dans le cas particulier où l’on suppose que l’objet d’intérêt
Les méthodes discrètes 133

f est composé de deux classes hyperfixations (fhyper) et fond (ffond), la loi µf a pour
expression :

α i exp(− f fond )f ffond


i! ( )
(1−α i )exp − f hyper f fhyper
i!

µ f (f i ) = +
f i! f i!

où fi! représente factoriel fi. Les paramètres fhyper, ffond et la probabilité αi qu’un point i
appartienne au fond ont été fixés à partir d’une première reconstruction de l’objet f.
Les critères du ML-EM (équation [4.41]) et MEM (équation [4.48]) permettent
d’estimer les objets f suivants (figure 4.1).

a) Référence b) ML-EM, c) MEM

Figure 4.1. Coupe d’un fantôme simulé constitué d’un cylindre « fond »
de longueur 200 mm et de diamètre 120 mm, et de cinquante sphères hyperfixantes
de rayon 5 mm, d’activité double de celle du fond

Les points hyperfixants sont plus contrastés avec la méthode du MEM


(figure 4.1c). Ces résultats montrent le potentiel d’une telle approche et plus
particulièrement l’intérêt de bien spécifier le but de la reconstruction
tomographique. En effet, ce but est étroitement lié au choix de l’a priori µf dans le
cas du MEM ou au choix des fonctions de potentiels dans le cas de méthodes
régularisantes.

4.6. Discussion et conclusion

Il est souvent difficile d’évaluer les performances d’une méthode de


reconstruction tomographique par rapport à une autre sans avoir au préalable défini
le but que l’on souhaite atteindre (quantification, détection, etc.). C’est pourquoi
aucune hiérarchie n’a été établie entre les méthodes.
134 La tomographie

Nous avons présenté les techniques de reconstruction tomographique discrètes


qui cherchent à résoudre des systèmes d’équations linéaires. Ces techniques,
contrairement aux méthodes analytiques, ont l’avantage de prendre en compte des
phénomènes physiques et statistiques liés à l’acquisition des données. On a ainsi
décrit deux grandes classes de méthodes, les techniques algébriques et statistiques,
dans le cas de sur et sous-détermination dans les données. L’ensemble des méthodes
présentées met en jeu plusieurs principes mathématiques : optimisation de
fonctionnelle symétrique par le gradient conjugué (GC) ou de fonctionnelle non
symétrique (RM), projection sur des ensembles convexes (ART), principe de
contraction (SIRT) ou encore l’approche statistique bayésienne (MAP-EM).

Les algorithmes proposés à partir de cadres mathématiques différents présentent


souvent des liens et parfois même conduisent à des critères identiques. Ainsi,
l’algorithme EM avec des lois gaussiennes conduit à un schéma itératif identique à
celui de l’algorithme SIRT.

Dans le cadre des approches statistiques, nous avons privilégié la résolution des
systèmes linéaires par l’optimisation du critère du maximum a posteriori. Du fait du
caractère mal conditionné de la matrice de projection R et de la présence de bruit
sur les mesures, il est souvent nécessaire d’introduire une régularisation. Ce principe
est abordé dans le cadre des distributions de Gibbs où les discontinuités de l’objet
sont prises en compte par l’intermédiaire des fonctions de potentiels. Dans le cas
d’un potentiel convexe, le critère du MAP admet un minimum global. La résolution
de ce critère est réalisée grâce à la technique de régularisation semi-quadratique et
les discontinuités sont modélisées par le processus de ligne implicite ou explicite.
Ce formalisme aboutit dans le cas d’une vraisemblance gaussienne à l’algorithme
ARTUR et dans le cas d’une vraisemblance poissonienne à l’algorithme MOISE.
Ces algorithmes ont des performances de quantification assez proches.

Le principe du maximum d’entropie sur la moyenne (MEM) est introduit pour


résoudre le problème de reconstruction tomographique dans le cas de sous-
détermination dans les données. La méthode du MEM considère l’objet comme la
moyenne d’une variable aléatoire dont on veut estimer la loi à partir d’information a
priori sur l’objet et d’une relation d’attache aux données. Cette technique aboutit à un
critère strictement convexe, quelle que soit la forme de l’a priori considéré. Le critère
primal déduit correspond dans certains cas à de nombreux critères déterministes
utilisés en régularisation sans référence à un modèle statistique sur l’objet. Sur le plan
théorique, cette technique présente de nombreux avantages et il serait intéressant de la
positionner par rapport au formalisme bayésien conventionnel.

Les méthodes décrites dans ce chapitre sont dans le principe applicables aussi
bien pour la reconstruction d’images 2D que 3D. Cependant, dans le cas de la
reconstruction 3D, les ressources nécessaires en termes de capacité mémoire et de
Les méthodes discrètes 135

temps de calcul sont à prendre en considération dans le choix de l’algorithme, car


elles peuvent vite devenir rédhibitoires. L’algorithme classique ART ou des
algorithmes de descente utilisant une relation de récurrence courte, comme celle des
résidus minimaux par exemple, sont utilisables. De façon plus générale, il existe
plusieurs techniques pour accélérer la vitesse de convergence des algorithmes. Les
plus utilisées sont les techniques de préconditionnement de matrice A [LAS 94], qui
apportent un gain de vitesse de convergence aux algorithmes algébriques en général
et aux méthodes de descente en particulier et les techniques des ensembles ordonnés
(Ordered Subsets) [HUD 94]. Les techniques de conditionnement de matrices sont
combinées à des algorithmes algébriques qui cherchent à optimiser le pas et les
directions de descente. La convergence de ces algorithmes dépend du nombre de
conditionnement de A, Cond(A), correspondant au rapport de la plus grande sur la
plus petite valeur propre de A. Plus Cond(A) est proche de 1, plus rapide est la
convergence de l’algorithme [DEM 00]. La technique des Ordered Subsets est sans
conteste la méthode la plus utilisée pour accélérer les algorithmes de type
statistique. Cette technique regroupe en fait deux concepts : le réarrangement
(Ordered) des projections m et leur partitionnement (Subsets). Ainsi, le concept
« Ordered » consiste à fournir au processus de reconstruction des projections
successives les plus orthogonales possibles (c’est-à-dire qui apportent des
informations non redondantes au processus de reconstruction). Le concept de
« Subsets » consiste à partitionner les projections ordonnées en sous-ensembles. Un
compromis doit être trouvé entre le nombre de projections dans un sous ensemble et
le nombre de sous-ensembles considérés. La technique « ordered subsets »
appliquée à un algorithme tel que l’EM (OS-EM) permet d’augmenter sa vitesse de
convergence d’un facteur égal au nombre de sous-ensembles.

4.7. Bibliographie

[AMB 01] AMBLARD C., BENALI H., BUVAT I., COMTAT C., GRANGEAT P., « Application de
la méthode du Maximum d’Entropie sur la Moyenne à la reconstruction de foyers
d’hyperfixation en tomographie d’émission de positons », Traitement du signal, vol. 17,
2001.
[BES 86] BESAG J., « On the statistical analysis of dirty pictures », J. Roy. Statist. Soc., vol. 3,
p. 259-302, 1986.
[BES 95] BESAG J., GREEN P., HIGDON D., MENGERSEN K., « Bayesian computation and
stochastic systems », Statist. Sci., vol. 10, p. 3-66, 1995.
[BLA 87] BLAKE, ZISSERMAN A., Visual Reconstruction, The MIT Press, Series in artificial
intelligence, 1987.
[BRE 67] BREGMAN L.M., « The relaxation method of finding the common point of convex
sets and its application to the solution of problems in convex programming », USSR
Comput. Math. and Math. Phys., vol. 7, p. 200-217, 1967.
136 La tomographie

[BUO 81] BUOCONORE M.H., BRADY W.R., MACOVSKI A., « A natural pixel decomposition
for two-dimensional image reconstruction », IEEE Trans. on Biomed. Eng., vol. BME-28,
p. 69-78, 1981.
[CEN 97] CENSOR Y., ZENIOS S.A., Parallel optimization: Theory, Algorithms and
applications, Oxford University Press, New York, 1997.
[CHA 94] CHARBONNIER P., Reconstruction d’image :régularisation avec prise en compte des
discontinuités, PhD thesis, Université de Nice-Sophia Antipolis, 1994.
[CRA 79] CRAVEN P., WAHBA G., « Smoothing noisy data with spline function »,
Numerische Math., vol. 31, p. 377-403, 1979.
[DAV 83] Davison M.E., « The ill-conditionned nature of the limited angle tomography
problem », SIAM Journal of applied mathe-matics, vol. 42, n° 3, p. 428-448, 1983.
[DEF 87] DEFRISE M., « Possible criteria for choosing the number of iterations in some iterative
reconstruction methods », dans Mathematics and Computer Science in Medical Imaging,
Viergever M.A., Todd-Prokropek (dir.), Springer Verlag, Berlin, p. 293-303, 1987.
[DEM 00] DEMOMENT G ., IDIER J., GIOVANNELLI J.F., DJAFARI A.M., « Problèmes inverses
en traitement du signal et de l’image », Techniques de l’ingénieur, Traité d’électronique,
p. 101-128, 2000.
[DJA 93] DJAFARI A.M., « On the estimation of hyperparameters in bayesian approach of
solving inverse problems », dans Proc. ICAPSSP, p. 495-498, 1993.
[EGG 81] EGGERMONT P.P.B., HERMAN G.T., « Iterative algorithms for large partitioned
linear systems with applications to image reconstruction », Linear algebra and its
applications, vol. 40, p. 37-67, 1981.
[GAM 97] GAMBOA F., GASSIAT E., « Bayesien methods and maximum entropy method for
ill-posed problems », The annals of statistics, vol. 25, n° 1, p. 328-350, 1997.
[GEI 91] GEIGER, GIROSI F., « Parallel and deterministic algorithms from MRF’s surface
reconstruction and integration », IEEE Trans. PAMI, vol. 13, p. 401-412, 1991.
[GEM 84] GEMAN S., GEMAN D., « Stochastic relaxation, Gibbs distribution, and the
Bayesian restoration of images », IEEE Trans. PAMI, vol. 6, n° 6, p. 721-741, 1984.
[GEM 92] GEMAN D., REYNOLDS G., « Constrained restoration and the recovery of
discontinuities », IEEE Trans. Image Processing, vol. 14, n° 3, p. 367-383, 1992.
[GEM 95] GEMAN D., YANG C., « Nonlinear image recovery with half-quadratic
regularization », IEEE Trans. Imag. Proc., vol. 4, p. 932-946, 1995.
[GIL 72] GILBERT P., « Iterative methods for the three dimensional reconstruction of an
object from projections », J. Theor. Biol., vol. 36, p. 105-117, 1972.
[GIN 93] GINDI G., RANGARAJAN A., LEE M., HONG P.J., ZUBAL I.G., « Bayesian reconstruction
for emission tomography via deterministic annealing » dans Information Processing in
Medical Imaging, H. Barrett, A. Gmitro (dir.), Springer Verlag, p. 322-338, 1993.
Les méthodes discrètes 137

[GRA 99] GRANGEAT P., « Les problèmes inverses de reconstruction dans les systèmes
d’imagerie tomographique par rayonnements ionisants X, gamma ou positon, dans
Problèmes inverses : de l’expérimentation à la modélisation, OFTA, p. 105-116, 1999.
[GRA 02] GRANGEAT P., La tomographie médicale, Traité IC2, Hermès, Paris, 2002.
[GRE 90] GREEN P., « Bayesian reconstruction from emission tomography data using a
modified EM algorithm », IEEE Trans. Med. Imaging, vol. 9, n° 1, p. 84-93, 1990.
[GUE 90] GUEDON J.P., Les problèmes d’échantillonnage dans la reconstruction d’images à
partir de projections, Thèse de doctorat en automatique et informatique industrielle,
Université de Nantes, 1990.
[HAN 87] HANSON K.M., « Bayesian and related method in imagre reconstruction from
incomplete data », dans Image Recovery: Theory and Applications, H. Stark (dir.),
Academic Press, chap. 3, p. 79-125, 1987.
[HAN 92] HANSEN P., « Analysis of discrete ill-posed problems by means of the L-curve »,
SIAM Rev., vol. 34, n° 4, p. 561-580, 1992.
[HEB 92] HEBERT T., LEAHY R., « The GEM-MAP algorithm with 3-D spect system
response », IEEE Trans. Med. Imag., vol. 11, n° 1, p. 81-90, 1992.
[HEI 97] HEINRICH C., Distances entropiques et informationnelles en traitement des données,
PhD thesis, Université d’Orsay, 1997.
[HER 76] HERMAN G.T., LENT A., « Quadratic optimization for image reconstruction »,
Computer graphics and image processing, vol. 5, p. 319-332, 1976.
[HER 80] HERMAN G.T., Image reconstruction from projections: the fundamentals of
computerized tomography, Academic Press, 1980.
[HER 93] HERMAN G.T., « Meyer L.B., algebraic methods can be made computationally
efficient », IEEE Trans. on Medical Imaging, vol. 11, p. 600-609, 1993.
[HOU 72] HOUNSFIELD G.M., « A method and apparatus for examination of a body by
radiation such as X or Gamma », The patent office, Londres, Grande-Bretagne, Pat. Spec.
n° 1283915, 1972.
[HUD 94] HUDSON H.M., LARKIN R.S., « Accelerated image reconstruction using ordered
subsets of projection data », IEEE Trans. On Med. Imaging, vol. 13, p. 601-609, 1994.
[JOS 82] JOSEPH P.M., « An improved algorithm for reprojecting Rays trough pixel images »,
IEEE Trans. on Medical Imaging, vol. MI-1, n° 3, p. 192-196, 1982.
[KAW 85] KAWATA S., NACIOGLU O., « Constrained iterative reconstruction method by the
conjugate gradient method », IEEE Trans. on Med. Imag., vol. MI-4, n° 2, p. 65-71, 1985.
[KIR 83] KIRKPATRICK S., GELATT C., VECCHI M., « Optimization by simulated annealing »,
Science, vol. 220, p. 671-680, 1983.
[KOU 96] KOULIBALY P., Régularisation et corrections physiques en tomographie d’émission,
Thèse, Université de Nice-Sophia Antipolis, 1996.
138 La tomographie

[KUL 59] KULLBACK S., Information theory and statistics, John Wiley and Son, 1959.
[LA 97] LA V., Correction d’atténuation en géométrie conique avec mesures de transmission
en tomographie d’émission monophotonique, Thèse, INPG, Grenoble, 1997.
[LAK 79] LAKSHMINARAYANAN A.V., LENT A., « Methods of least squares and SIRT in
reconstruction », J. Theor. Biol., vol. 76, p. 267-295, 1979.
[LAN 51] LANDWEBER L., « An iterative formula for Fredholm integral equations of the first
kind », Amer. J. Math., vol. 73, p. 615-624, 1951.
[LAS 94] LASCAUX P., THEODOR R., Analyse numérique matricielle appliquée à l’art de
l’ingénieur, Masson, 2e édition, 1994.
[LEA 00] LEAHY R., BYRNE C., « Editorial: Recent developments in iterative image
reconstruction for PET and SPECT », IEEE Transactions on Medical Imaging, vol. 19,
n° 4, p. 257-260, 2000.
[LEE 95] LEE S-J., RANGARAJAN A., GINDI G., « Bayesian image reconstruction
reconstruction in SPECT using higher order mechanical models as priors », IEEE Trans.
Med. Imag., 14, p. 669-680, 1995.
[LEW 92] LEWITT R.M., « Alternative to voxels for image representation in iterative
reconstruction algorithms », Phys. Med. Biol., vol. 37, p. 705-716, 1992.
[MED 87] MEDOFF B.P., « Image reconstruction from limited data : theory and applications
in Computed Tomography », dans Image Recovery: Theory and Applications, H. Stark
(dir.), Academic Press, chap. 9, p. 321-368, 1987.
[PAY 96] PAYOT E., Reconstruction vasculaire tridimensionnelle en imagerie par rayons X,
Thèse, Ecole nationale supérieure des télécommunications, 1996.
[PET 81] PETERS T.M., « Algorithms for fast Back- and Re-projection in Computed
tomography », IEEE Trans. on Nuclear Sciences, vol. NS28, n° 4, p. 3641-3647, 1981.
[PEY 90] PEYRIN F., Méthodes de reconstruction d’images 3D à partir de projections
coniques de rayons X, Thèse de doctorat d’Etat, INSA Lyon et UCB Lyon I, 1990.
[SEZ 82] SEZAN M.I., STARK H., « Image restoration by the method of convex projections »,
IEEE Trans. on Med. Imag., vol. 1, p. 95-101, 1982.
[SNY 87] SNYDER D.L., MILLER M.I., THOMAS L.J., POLITTE J.R., « Noise and edge artifacts
in Maximum-Likelihood reconstructions for emission tomography », IEEE Trans. Med.
Ima., vol. MI-6, n° 3, p. 228-238, 1987.
[TAN 71] TANABE K., « Projection method for solving a singular system of linear equations
and its applications», Numer. Math., vol. 17, p. 203-214, 1971.
[TIK 63] TIKHONOV, « Regularization of incorrectly posed problems », Sov. Math. Dokl., 4,
p. 1624-1627, 1963.
[YOU 82] YOULA D.C., WEBB H., « Image restoration by the method of convex projections:
Part I - theory », IEEE Trans. on Med. Imag., vol. 1, p. 82-94, 1982.
DEUXIÈME PARTIE

La microtomographie
Chapitre 5

La tomographie en microscopie

5.1. Introduction

La microscopie reste la méthode privilégiée des biologistes et des pathologistes dès


que ceux-ci veulent observer les cellules et les tissus biologiques. L’observation est
cependant limitée à des coupes plus ou moins fines : de 5 µm à 50 µm en microscopie
photonique conventionnelle et de 80 nm à 200 nm en microscopie électronique. Les
images obtenues représentent l’information contenue dans un plan de section et ne
permettent pas d’appréhender sans ambiguïté l’organisation tridimensionnelle des
tissus, des cellules et de leurs organites. Pour obtenir cette information 3D, il était
nécessaire, il y a encore dix ans, de réaliser des coupes physiques sériées. Ce travail
extrêmement minutieux était suivi du relevé des contours des objets puis de la
reconstruction 3D par un logiciel adapté. En dehors du caractère délicat et fastidieux
de la collecte des coupes, les limitations de cette technique résident dans,
premièrement, l’impossibilité d’éviter des distorsions du tissu lors de l’étape de
microtomie et, deuxièmement, la difficulté de définir des marqueurs fiduciaires fiables
permettant de réaligner les coupes sériées [BRO 90, DUX 89].

Depuis le début des années 1980, des méthodes plus performantes qui préservent
l’intégrité des spécimens observés ont été développées. Elles s’appuient soit sur des
techniques de tomographie projective, soit sur des techniques de sectionnement
optique. Les méthodes de reconstruction par tomographie projective ont été
essentiellement développées en microscopie électronique à haute énergie (section 5.2).
En effet, les systèmes d’imagerie IRM ou RMN n’offrent pas actuellement une
résolution spatiale (chapitres 7 de [GRA 02] et 3 du présent volume) compatible avec

Chapitre rédigé par Yves USSON et Catherine SOUCHIER.


142 La tomographie

les nécessités de la microscopie. Cependant, le développement récent d’un système


commercial de microtomographie à rayons X permet actuellement d’obtenir des
résolutions de l’ordre de la dizaine de micromètres. Enfin, la mise au point des
techniques de microscopie X par rayonnement synchrotron laisse présager d’un
développement accéléré des méthodes projectives en microscopie à haute résolution
(de l’ordre de 25 nm, voir chapitre 7). Cette dernière technique reste réservée à des
laboratoires de recherche ayant un accès privilégié à des ressources de très haute
technologie (rayonnement synchrotron).

Les techniques de microtomographie par sectionnement optique [AGA 89] ont


connu un développement accéléré au cours de la dernière décennie. Leur succès et en
particulier celui de la microscopie confocale (section 5.3) est dû à une grande facilité
de mise en œuvre. En effet, d’une part ces méthodes produisent directement des
empilements d’images parfaitement alignés et facilement interprétables ; d’autre part la
mise sur le marché de nombreux systèmes commerciaux facilite leur accès à des prix
non prohibitifs. De plus, dans les domaines biologique et médical, le développement
parallèle des techniques d’immunofluorescence et d’hybridation in situ de sondes
fluorescentes (FISH) [TSI 95] a fortement contribué à promouvoir l’usage de la
microscopie confocale photonique [PAW 95, SHO 95].

La microscopie confocale peut également servir à l’analyse de surface. Ce type


d’application, qui connaît un intérêt croissant dans le secteur des sciences des
matériaux, est largement abordé dans un autre ouvrage de cette série [JOU 02].

5.2. Tomographie projective en microscopie électronique

La microscopie électronique en transmission (MET) est sans conteste la


technique qui permet d’explorer les tissus et les cellules avec les meilleures
résolutions possibles. Ici, les grandeurs s’expriment en dixième de nanomètre, c’est-
à-dire en angström. Pour être en mesure de recueillir une information 3D
conséquente, il faut utiliser des coupes d’une épaisseur comprise entre 1 µm et 3 µm.
Ces épaisseurs sont très supérieures à celles communément employées en MET (de
80 nm à 150 nm). En fait, les techniques de tomographie projective en MET
conventionnelle requièrent de travailler avec des microscopes à haute énergie de
l’ordre de 1 MV et plus. En dessous de telles énergies, le pouvoir de pénétration des
électrons est insuffisant pour traverser des sections de 1 µm et obtenir une image
contrastée. Fort heureusement, le développement de la MET à balayage (STEM) a
permis d’avoir recours à des tensions moins élevées de l’ordre de 300 kV.

L’exploration 3D de spécimens en STEM est donc réalisée en enregistrant une


série d’images entre lesquelles l’objet à observer est pivoté de – 60° à 60° par
incréments angulaires réguliers (de 1° à 3°) autour de l’axe Y du plan. Dans la
La tomographie en microscopie 143

pratique, le pivotement s’obtient en plaçant le spécimen sur une platine porte-objet


goniométrique eucentrique. La reconstruction du volume de voxels est effectuée
simplement en appliquant des algorithmes de rétroprojection du type ART (chapitre 4).
La méthode présente cependant deux particularités par rapport aux méthodes de
tomographie projective macroscopique : la première concerne le contrôle médiocre de
la bascule des platines goniométriques de microscope. En effet, le moindre désaxement
entraîne un décalage notable des projections. Il faut donc procéder à un réalignement
systématique de toutes les projections. En se basant sur l’hypothèse du parallélisme de
trajectoire des électrons, le recalage peut simplement s’effectuer en sélectionnant un
point de référence sur une structure ponctuelle aisément repérable sur toutes les
projections et grossièrement située à proximité de l’axe de bascule. Toutes les
projections seront alors recalées par rapport à cette structure [HEL 97]. La seconde
particularité réside dans l’existence d’une zone cachée. En effet, contrairement aux
méthodes macroscopiques, le spécimen ne peut être basculé que sur un angle total de
120°. La reconstruction finale est donc imparfaite, les petites structures en particulier
se trouvent prolongées par des « ombres portées » dans la direction des cônes
d’incertitudes [HEL 97]. Ce genre d’artefact peut être réduit au moyen d’un algorithme
de déconvolution numérique approprié.

-30° -20° -10°

0° 10° 20°

Figure 5.1. Tomographie projective en STEM d’une structure AgNOR [HEL 97].
A gauche : quelques projections enregistrées tous les 10°. A droite : reconstructions 3D
de la structure complète vue de face et de côté

5.3. Tomographie par sectionnement optique

Le concept de tomographie par sectionnement optique en microscopie et


l’invention des méthodes de microscopie confocale photonique ont vu le jour en
1955. A cette époque, Marvin Minsky, étant dans la nécessité d’observer des
cellules neuronales dans des coupes épaisses de tissus nerveux, mit au point un
prototype de microscope avec platine de balayage et surtout doté de ce qui, à
l’époque, fut nommé un système de focalisation double [MIN 88], puis rapidement
baptisé système confocal. Cette technique resta cependant longtemps inutilisée, car
elle reposait sur l’emploi d’une source ponctuelle délivrant une grande intensité
144 La tomographie

lumineuse. En fait, il faudra attendre le début des années 1980 et la production de


sources lasers à bas coût pour que cette technique innovante de microscopie prenne
la place qu’elle occupe désormais dans le domaine de la biologie. Les techniques
usuelles d’imagerie microscopique en transmission, en réflexion et en fluorescence
sont toutes réalisables en mode confocal. Cependant, aucun système commercial
actuel ne supporte le mode lumière transmise, en raison de la grande difficulté
d’alignement du système d’illumination et du système de formation de l’image. La
microscopie confocale en réflexion, bien adaptée à l’étude de surface, trouve surtout
une place privilégiée dans le domaine de la micro-électronique. Enfin, la
microscopie confocale en fluorescence est de loin la méthode de choix en biologie
et en médecine car elle offre un outil incomparable d’imagerie « fonctionnelle »
cellulaire. Très récemment, l’introduction de la microscopie biphotonique a renforcé
la panoplie des outils de la microscopie par sectionnement optique.

Microscopie confocale à balayage laser (CLSM)

Principe de la microscopie confocale


La microscopie conventionnelle par épifluorescence, largement utilisée de nos
jours en biologie cellulaire, produit des images qui souffrent d’une résolution
limitée. Elles apparaissent comme vues au travers d’une brume diffuse. En effet, le
champ du microscope est fortement éclairé par la source lumineuse et les
fluorochromes sont excités au travers de toute l’épaisseur de la préparation (voir
figure 5.2A). Il en résulte que l’image formée par le microscope est contaminée par
de la lumière provenant de points situés hors du plan focal et apparaît peu contrastée
dès que le spécimen est épais.

Figure 5.2. Comparaison de la microscopie de fluorescence conventionnelle


(a) et de la microscopie confocale (b)
La tomographie en microscopie 145

L’astuce de l’imagerie confocale consiste à éliminer la lumière parasite « hors


focale ». Dans le plus simple des cas (voir figure 5.2B), ceci est obtenu en
illuminant la préparation au moyen d’un point lumineux dont le diamètre est limité
par les lois de la diffraction de la lumière. Ainsi, à un instant donné, seule une
infime partie du spécimen est fortement illuminée. Les molécules de fluorochromes
absorbent cette lumière puis restituent l’énergie absorbée en émettant de nouveaux
photons à une longueur d’onde plus grande (fluorescence). Les photons émis par le
fluorochrome vont être détectés point par point avec un tube photomultiplicateur
durant le balayage de la préparation. Un microtrou (souvent appelé pinhole) placé
devant le photodétecteur et centré au niveau du foyer arrière de l’objectif rejette la
lumière parasite provenant des points situés hors du plan focal. Le nom confocal
provient de la mise en correspondance de trois points focaux : une source lumineuse
ponctuelle (en général une source laser), le point illuminé situé au foyer objet de
l’objectif et le pinhole situé au foyer image.

Formation de l’image
La formation d’une image dans un microscope est la résultante de deux
fonctions de répartition de la lumière [WIL 90] :
– la fonction d’étalement du point dans le plan focal conditionnant la résolution
latérale (en x et y) ;
– la fonction de défocalisation conditionnant la résolution axiale (en z).

Figure 5.3. Formation de l’image par une lentille. Formation du disque d’Airy (a)
et défocalisation (b). L’intensité de la lumière est représentée en contraste négatif
de façon à mieux voir les anneaux de diffraction
146 La tomographie

La fonction d’étalement du point (ou PSF pour Point Spread Function) dans le
plan focal est la description mathématique de l’image du disque d’Airy (voir
figure 5.3A) obtenue lorsqu’un point lumineux idéal (infiniment petit) est observé
au travers d’un objectif. Cette image familière présentant un maximum d’intensité
entouré d’anneaux de plus en plus sombres résulte de l’incapacité de la lentille à
collecter la lumière dispersée au-delà d’un angle donné α (demi-angle d’ouverture
du cône de lumière entre le foyer et la lentille). Le cône de lumière entre le foyer et
la lentille définit l’ouverture numérique (NA) de l’objectif. La formule de
l’ouverture numérique s’écrit comme suit : NA = n sin α, où α est le demi-angle du
cône et n l’indice de réfraction du milieu. Par exemple, pour un objectif à immersion
dans l’huile (n = 1,515) ayant un demi-angle α de 67,5°, on obtient une ouverture
numérique de 1,40.

La résolution conférée par un objectif est dite limitée en diffraction. Elle résulte
des interférences, au niveau du plan image, des ondes lumineuses diffractées le long
du trajet des rayons. La distance de résolution latérale dx en CLSM se déduit de la
relation [5.3] et s’exprime par la formule suivante :

d x = 0,4nλ avec λ la longueur d’onde [5.1]


NA

PSF microscopie conventionnelle :

[
I (v ) = 2J1(v )v −1 2 ] [5.2]

PSF microscopie confocale :

[
I (v ) = 2J1(v )v −1 4 ] [5.3]

avec v =2π λ−1 x2 + y2 sinα et J1 la fonction de Bessel d’ordre 1.

La PSF dans le plan focal (généralement notée hi(x,y)) décrit en fait la façon dont
la lumière, qui idéalement devrait rester concentrée en un point, se voit plus ou
moins dispersée autour de ce point. Appliquée à un objet o(x,y) infiniment fin et
petit, l’équation de formation de l’image i(x’,y’) dans un système optique sans
aberration s’exprime comme suit :

i(x' , y' ) = o(x, y) ∗ hi (x, y ) [5.4]

où le symbole∗ est l’opérateur de convolution.


La tomographie en microscopie 147

1.0

0.8 conventionnel
Intensité I
0.6
confocal
0.4

0.2

0.0
0.1 0.2 0.3 0.4 0.5 0.6
Position latérale (µm)

Figure 5.4. PSFs latérales (ou radiales) du microscope conventionnel (tirets)


et du microscope confocal (trait continu) à une longueur d’onde λ de 550 nm
et pour un objectif ayant une ouverture numérique NA de 1,4

La PSF de défocalisation (généralement notée ho(x,y)) décrit la façon dont le


disque d’Airy se trouve altéré à mesure que l’objet s’éloigne du foyer de la lentille
le long de l’axe optique (z). La formation de l’image devient alors :

i(x' ,y' ) = o(x, y) ∗ hi (x,y ) ∗ ho (x, y,∆z ) [5.5]

où ∆z représente l’éloignement par rapport au foyer de la lentille (voir figure 5.3B).


En fait, les deux PSF sont fusionnées en une seule qui représente la PSF
tridimensionnelle de l’objectif (voir figure 5.5) :

i(x' , y' , z' ) = o(x, y, z ) ∗ h(x, y,z ) [5.6]

Io Io

x x
Io
Io

z
z

x,y PSF x,z PSF x,y PSF x,z PSF


Microscopie conventionnelle Microscopie confocale

Figure 5.5. Comparaison des taches de diffractions, latérale (PSF x,y) et axiale (PSF x,z).
L’intensité de la lumière est représentée en contraste négatif
de façon à mieux voir les anneaux de diffraction
148 La tomographie

Sectionnement optique
La façon la plus courante de mesurer la résolution axiale d’un CLSM consiste à
considérer la décroissance en intensité le long de l’axe z pour un objet idéalement
ponctuel [WIL 90]. Ainsi, la profondeur de champ (ou résolution axiale) peut être
définie comme la largeur à mi-hauteur du profil d’intensité (en z). La figure 5.6A
montre que la profondeur de champ en microscopie confocale est diminuée d’un
facteur 1,4 par rapport à la microscopie conventionnelle [SHE 89].

La variation de l’intensité le long de l’axe optique est définie en microscopie


conventionnelle par la relation [5.7] et en microscopie confocale par la relation [5.8] :

[ ]
I (u ) = (u 2 )−1 sin(u 2 )
2
[5.7]

[ ]
I (u ) = (u 2 )−1 sin(u 2 )
4
avec u =8π λ−1z sin 2(α 2 ) [5.8]

1,0 1,0
Intensité intégrée Iint

A B
0,8 0,8
Intensité I

confocal conventionnel
0,6 0,6
confocal
0,4 0,4
conventionnel
0,2 0,2

0,5 1,0 1,5 2,0 0,5 1,0 1,5 2,0


Position le long de l’axe optique (µm) Position le long de l’axe optique (µm)

Figure 5.6. Profondeur de champ (A) et pouvoir de sectionnement optique (B)


du microscope conventionnel (tirets) et du microscope confocal (trait continu)
à une longueur d’onde λ de 550 nm et pour un objectif
ayant une ouverture numérique NA de 1,4 (échelles arbitraires d’intensité)

La distance de résolution axiale dz en CLSM s’exprime donc par la formule


suivante :

d z = 1,4n 2λ
2
[5.9]
NA
La tomographie en microscopie 149

L’amélioration de la résolution axiale est inversement proportionnelle au carré


de l’ouverture numérique de l’objectif. En conséquence, il est impératif d’utiliser
des objectifs à grande ouverture numérique pour obtenir le meilleur sectionnement
optique.

A ce niveau, une remarque importante s’impose : la résolution spatiale conférée


par la microscopie confocale est anisotrope. En effet, les formules qui caractérisent
la résolution latérale [5.1] et la résolution axiale [5.9] donnent des valeurs
différentes pour une même longueur d’onde λ, un même indice de réfraction n et
une même ouverture numérique NA. En pratique et selon l’ouverture numérique de
l’objectif, la résolution est 2,5 à 4 fois moins fine dans la direction axiale que
latéralement (voir figure 5.5B).

Le sectionnement optique se définit comme la décroissance de la quantité totale


de lumière présente dans le plan focal à mesure que l’on s’éloigne d’un objet
lumineux ponctuel [WIL 90]. Autrement dit, cela consiste à intégrer pour chaque
position z la PSF de défocalisation :


I int (u ) = ∫0 I (u, v)vdv [5.10]

La figure 5.6B représente les courbes de sectionnement optique obtenues en


appliquant la formule [5.10]. Il apparaît que dans le cas de la microscopie
conventionnelle, l’intensité lumineuse intégrée reste constante quelle que soit la
défocalisation. Au contraire, dans le cas de la microscopie confocale, il y a une chute
rapide de l’intensité intégrée à mesure que l’on s’éloigne de la source. Le pinhole
remplit ici parfaitement son rôle sélectif en rejetant la lumière « hors focale ».

Cette propriété de sectionnement optique du CLSM est parfaitement illustrée par la


figure 5.7A. Sur cette figure sont représentées des coupes optiques sériées réalisées au
travers d’une cellule vivante (lignée HeLa) en culture, dont les mitochondries ont été
colorées au moyen d’un fluorochrome spécifique (rhodamine-123). Les coupes
optiques sont obtenues en montant la platine porte-objet d’un pas de 2 µm entre
l’enregistrement de chaque plan. La rangée supérieure présente les coupes acquises en
mode confocal et la rangée inférieure montre les coupes correspondantes acquises en
mode conventionnel. La différence entre les deux modes apparaît très évidente : dans
les coupes confocales, les mitochondries sont très bien résolues, elles s’amassent dans
le cytoplasme tout autour du noyau cellulaire qui est vide de tout marquage ; chacune
des coupes apporte une information différente de celle de ses voisines ; en mode
conventionnel, les mitochondries sont plus difficiles à distinguer. Elles apparaissent
comme noyées dans une brume diffuse qui correspond au « fantôme » de la
fluorescence émise par les plans adjacents. La figure 5.7B illustre une autre possibilité
de sectionnement conférée par le mode confocal. En effet, il est possible de réaliser un
150 La tomographie

sectionnement axial, c’est-à-dire d’effectuer une coupe optique selon un plan parallèle
à l’axe optique du microscope. Là encore, le mode confocal se montre très supérieur
au conventionnel. Cependant, il faut noter que l’image obtenue présente un léger flou
dans la direction axiale : c’est une conséquence attendue de l’anisotropie de la
résolution.

A B

z
x

0,0 2,0 4,0 6,0 5µm

Figure 5.7. Comparaison entre microscopie confocale (rangée du haut) et microscopie


conventionnelle (rangée du bas). A : quatre sections optiques transversales (xy) séparées de
2 µm au travers d’une cellule in vitro dont les mitochondries ont été colorées à la rhodamine
123. B : section optique axiale (xz), la ligne en pointillés indique la position du support en
verre. Le contraste a été inversé pour faciliter la visualisation des signaux.

Les fluorochromes utilisés en microscopie confocale


Les fluorochromes sont utilisés comme colorant spécifique d’un composant
cellulaire, comme sonde sensible à l’environnement ou comme marqueur direct ou
indirect d’un anticorps ou d’une sonde ADN ou ARN lors d’un immunomarquage
ou d’une hybridation in situ [TSI 95]. Plusieurs composants cellulaires peuvent être
reconnus et visualisés simultanément, en jouant sur les longueurs d’ondes
d’excitation définies par la raie laser et d’émission. De nouveaux fluorochromes,
comme les Cyanines (Amersham) [WES 92] et les Alexas (Molecular Probes)
[PAN 99] apparaissent régulièrement pour améliorer la spécificité, l’intensité et la
stabilité des marquages, ou pour étendre et adapter au mieux le choix des longueurs
d’onde d’excitation et d’émission. L’utilisation de nanocristaux est aujourd’hui à
l’étude [BRU 98]. La visualisation de fluorochromes excitables vers 360 nm est
possible avec un laser argon UV ou en microscopie multiphoton (voir
paragraphe 5.4.3) à une longueur d’onde double ou triple [STR 90, XU 96]. Ce
mode de microscopie est aussi proposé pour libérer une sonde encapsulée photo-
activable par impulsion dans l’UV.

Ces dernières années, le progrès le plus significatif dans le marquage en


fluorescence d’une protéine est dû à la protéine GFP (Green Fluorescent Protein).
Cette protéine émet un signal fluorescent dès qu’elle est exprimée dans une cellule
La tomographie en microscopie 151

[CHA 94, LEY 99, TSI 98]. Elle permet ainsi de suivre l’expression et la
localisation dans la cellule vivante, ou même dans l’organisme entier, de protéines
fusionnées avec la GFP. Plusieurs variants existent et autorisent des doubles ou
triples marquages. L’utilisation d’autres méthodes comme la méthode FLASH
(fluorescein arsenical helix binder) est actuellement à l’étude [GRI 98].

5.4. Traitement, reconstruction et analyse 3D

5.4.1. Fluorogrammes

L’étude de la colocalisation de deux structures protéiques ou nucléiques est une


des applications majeures de la CLSM. Les structures sont marquées par des sondes
couplées à des fluorochromes ayant des caractéristiques spectrales d’excitation et
d’émission différentes, pour pouvoir acquérir leurs images de façon spécifique. La
superposition en couleur des deux images visualise le degré de colocalisation. Pour
un fluorochrome visualisé en rouge, l’autre en vert, les zones colocalisées
apparaissent jaunes. Cette première étape n’est pas toujours suffisante pour estimer
le degré de colocalisation. Elle peut se compléter efficacement par la réalisation
d’un fluorogramme (ou histogramme biparamétrique de fluorescence).

Un fluorogramme est un nuage de points correspondant aux pixels ou aux voxels


de l’image 2D ou 3D et dont les coordonnées sont les valeurs de l’intensité de
fluorescence de deux fluorochromes analysés, dans le rouge et le vert par exemple
(voir figure 5.8) [DEM 98, MAN 93, TAN 92]. Il donne une représentation
graphique de la distribution conjointe des deux fluorescences. Le nuage peut
correspondre à la totalité de l’image, à une région comme une cellule en biologie, ou
à l’environnement immédiat d’un voxel pour construire une carte de corrélations
locales [DEM 98]. Les points se concentrent autour d’une droite dans une situation
de forte colocalisation ou s’écartent du modèle de régression linéaire, quand le
niveau de colocalisation s’atténue. C’est une représentation familière en cytométrie
de flux pour estimer le pourcentage de cellules doublement positives, le point étant
alors une cellule et non un voxel.

Plusieurs méthodes de quantification sont dérivées du fluorogramme. On évalue,


par exemple, le nombre de points situés dans les zones positives, négatives,
simplement ou doublement marqués. On calcule le coefficient de corrélation linéaire
ou des coefficients similaires proposés pour mieux tenir compte des différences
d’intensité ou de proportion entre les deux marquages [MAN 93].
152 La tomographie

240 c2 c1

180
canal vert

c1
120

60 v
r c2 v
0 r
0 60 120 180 240 canal rouge canal vert
canal rouge

Figure 5.8. Fluorogramme de cellules HeLa transfectées avec un plasmide codant pour le
EGFP-topoisomérase II. Le canal rouge correspond à une coloration de l’ADN et le canal
vert à la GFP. Sur quatre cellules présentes, seules deux expriment la topoisomérase et sont à
l’origine des nuages de points c1 et c2 correspondant à leurs noyaux et v correspondant à
leurs cytoplasmes. Le nuage r correspond aux noyaux des cellules n’exprimant pas la
topoisomérase. Le contraste a été inversé pour faciliter la visualisation des signaux.

Les fluorogrammes permettent d’estimer la colocalisation de deux structures,


mais aussi de contrôler les conditions d’acquisition : correspondance des images,
passage de fluorescence d’un canal à l’autre, stabilité de la fluorescence,
amélioration du rapport signal sur bruit [DEM 98]. Ils s’appliquent à des modalités
de fluorescence différentes, spectrales, mais aussi temporelles.

5.4.2. Restauration

[Link]. Débruitage
Les images obtenues en microscopie confocale ont un rapport signal sur bruit
(SNR) relativement médiocre. Ceci est dû aux très basses intensités de lumière
mises en œuvre et à la nature quantique de la lumière. Les images obtenues sont
dégradées par trois types de bruit : un bruit quantique poissonien lié à l’émission de
photons, un thermique gaussien lié à l’électronique du capteur et enfin un autre
impulsionnel lié aux parasitages des lignes de transmission entre composants
électroniques.

Le bruit quantique poissonien est lié à l’émission discrète des photons par la
source lumineuse. Si l’on observe un point lumineux d’une brillance donnée
pendant un temps t, la probabilité de collecter un nombre donné de photons est
distribuée suivant une loi de Poisson, c’est-à-dire que la brillance mesurée dans une
région aura une valeur moyenne µ et une variance σ2 égales. La conséquence est que
le SNR sera meilleur dans les régions brillantes que dans les régions sombres. Par
La tomographie en microscopie 153

exemple, dans une région sombre, le nombre moyen de photons sera de 100 avec un
écart type de 10, soit un coefficient de variation (CV) de 10 % et dans une région
100 fois plus intense la moyenne sera de 10 000 avec un écart type de 100, soit un
CV de 1 %. Différentes approches peuvent être utilisées afin d’améliorer le rapport
signal sur bruit. Le moyen le plus simple est d’allonger le temps d’acquisition et
donc d’augmenter le nombre moyen de photons. Une autre façon de procéder
consiste à enregistrer k images (de quatre à seize images) puis à calculer une image
moyenne. L’amélioration du SNR est proportionnelle à √k. Cependant, ces deux
approches augmentent le temps d’exposition des fluorochromes et donc le
phénomène de photodégradation.

1 image moyenne de 8 images moyenne de 32 images

Figure 5.9. Bruit photonique en microscopie confocale. Le rapport signal sur bruit augmente
en moyennant plusieurs images du même plan confocal.
Le contraste a été inversé pour faciliter la visualisation des signaux

Une alternative est de faire appel à des techniques numériques de restauration


d’images. Différents types de filtres numériques peuvent être utilisés : des filtres de
convolution linéaire tels que le filtrage gaussien, des filtres de rang tels que le filtre
médian ou des filtres plus sophistiqués combinant à la fois filtrage linéaire et filtrage
de rang. Ces filtres présentent différents avantages et limitations. En général, les
plus simples (gaussien ou médian) offrent une réjection du bruit très efficace.
Malheureusement, ils altèrent notablement la résolution spatiale des images. En
d’autres termes, ils introduisent encore plus de flou dans les images. Les bords des
structures et les détails fins ne sont pas préservés. Pour éviter ce genre de problème,
il est préférable d’utiliser des techniques de filtrage dites « adaptatives » [BOL 92,
MON 99]. Ainsi que le nom l’indique, ces méthodes adaptent en chaque pixel le
type et la force du filtrage en fonction de l’information locale. Ainsi, ces filtres
fonctionnent en deux temps :
– analyse de l’information locale (gradient d’intensité, écart type des niveaux
d’intensité...),
– filtrage proprement dit dont la force et le type sont modulés par l’étape
précédente.
154 La tomographie

épaisseur 5O µm
60

Intensité
40
20
0
Vue latérale brute 0 20 40 60 80 100
60 5,0

Intensité
40 4,0

Gain
20 3,0
0 2,0
Vue latérale brute après compensation 0 20 40 60 80 100
Numéro de section

Figure 5.10. Compensation de l’absorption de la lumière par le spécimen. Rangée


supérieure : reconstruction d’un bloc de tissu myocardique dont les noyaux ont été colorés au
Feulgen. Le bloc est visualisé de côté, de telle sorte que la direction axiale soit verticale. La
décroissance d’intensité est bien visible. La courbe de l’intensité moyenne en fonction de la
profondeur dans le tissu est présentée sur la droite. Rangée inférieure : le même bloc
reconstruit après compensation du gain conformément à la courbe de compensation
représentée à droite (tirets). La ligne pleine représente l’intensité moyenne en fonction de la
profondeur après application de la courbe de compensation. Le contraste a été inversé pour
faciliter la visualisation des signaux.

[Link]. Compensation d’absorption


Bien que les spécimens biologiques soient en général transparents, ils ont
cependant tendance à légèrement absorber et disperser la lumière. Dans les coupes
épaisses de tissu excédant 5 µm, ces phénomènes d’absorption et de dispersion sont
loin d’être négligeables. En fluorescence, dans un premier temps, la lumière
d’excitation se trouve progressivement absorbée et dispersée en fonction de la
profondeur de pénétration dans le tissu. Dans un deuxième temps, c’est la lumière
émise qui est absorbée. Ceci a pour conséquence une chute des intensités au-delà
d’une profondeur de 5 µm. Etant donné qu’il s’agit principalement d’une absorption, la
courbe d’atténuation de l’intensité en fonction de l’intensité est de type exponentielle
décroissante. Cette atténuation peut être modélisée et il devient assez aisé de procéder
à une compensation [RIG 91]. Celle-ci est effectuée soit en ligne lors de l’acquisition,
soit ultérieurement par calcul numérique. Avant l’acquisition, il s’agit de définir les
réglages du gain et de la tension du capteur (photomultiplicateur) : au niveau le plus
superficiel du spécimen, au niveau le plus profond ; puis, le système d’acquisition les
ajustera automatiquement à chaque niveau de section par interpolation entre les valeurs
extrêmes. L’autre approche consiste, après l’acquisition des coupes sériées, à
multiplier les valeurs d’intensité dans une coupe donnée par un coefficient dépendant
de la profondeur [ROE 93, VIS 91].
La tomographie en microscopie 155

[Link]. Déconvolution numérique


Lors de la formation de l’image d’un objet fluorescent par le système optique,
celle-ci va subir des altérations dues au phénomène de diffraction. La formation de
l’image peut se résumer par l’opération de convolution de la relation [5.6]. La
restauration de l’objet pourrait donc se réduire à une opération de filtrage linéaire
inverse définie par l’équation suivante :

o = i ∗ h−1 [5.11]

Cette approche suppose cependant que la PSF inverse h-1 puisse être mesurée ou
évaluée et que l’image ne soit pas bruitée. Malheureusement, dans une situation
réelle, il est difficile d’une part de déterminer h-1 et d’autre part, l’image n’est jamais
exempte de bruit. En fait, l’équation de formation de l’image doit être reformulée
pour prendre en compte le terme de bruit e :

i = o∗ h + e [5.12]

Des techniques de déconvolution itérative contrainte ont été développées pour


venir à bout de ces limitations [CAR 90, FAY 89, SHA 91]. Ces méthodes sont basées
sur une correction progressive d’un estimateur ô de l’objet. A chaque itération k, la
qualité de l’estimateur ô(k-1) est évaluée en simulant sa convolution par la PSF. Dans
l’hypothèse où l’estimateur ô(k-1) est correct, alors son image floue (ô(k-1)*h) doit être
identique à celle délivrée par le système optique. Si c’est le cas, le processus peut être
arrêté, sinon, l’erreur résultante est estimée et la valeur de cette dernière sert de base
pour calculer le nouvel estimateur ô(k). Différents algorithmes basés sur ce principe
général ont été développés et sont maintenant proposés en option dans les systèmes
CLSM commerciaux. Les différences entre ces algorithmes reposent sur le mode
d’évaluation de l’erreur de l’estimation et de la correction appliquée, ainsi que sur la
façon de prendre en compte le bruit. Les deux algorithmes de base les plus
fréquemment utilisés sont fondés respectivement sur une correction additive (voir
[5.13]) ou sur une correction multiplicative (voir [5.14]) :

[ (
oˆ(k ) ← oˆ(k −1) + i − oˆ(k −1) ∗ h )]p [5.13]

où p est une constante permettant de contrôler la vitesse de convergence. Dans le


(0 )
cas le plus fréquent, p est égal à 1 et le premier estimateur oˆ est constitué par
l’image originale i :

( )−1 
p
oˆ(k ) ← oˆ(k −1) ⋅ i⋅ oˆ(k −1) ∗ h [5.14]

156 La tomographie

La qualité des restaurations produites par ces algorithmes dépendra de la mesure


de la PSF h de l’objectif, du choix judicieux du paramètre p et de l’initialisation de
l’estimateur ô(0). Par exemple, la PSF s’obtient en faisant l’acquisition de coupes
confocales au travers d’une bille fluorescente d’un diamètre inférieur à 0,2 µm. Le
choix du premier estimateur ô(0) est plus délicat. La pratique la plus courante consiste
à considérer que l’image i fournie par le microscope constitue une initialisation
robuste. Enfin, une meilleure stabilité au bruit est obtenue en insérant une étape
intermédiaire de filtrage gaussien entre chaque itération de l’algorithme.

L’algorithme de Richarson et Lucy [5.15], plus généralement connu sous le nom


de maximum d’entropie (en anglais EM), est souvent utilisé pour la restauration des
données confocales. Cet algorithme offre une grande robustesse au bruit au prix
d’une faible vitesse de convergence. Cinquante itérations au minimum sont
nécessaires pour obtenir un résultat acceptable :

(
oˆ (k) ← oˆ (k −1) ⋅ h ∗  i ⋅ oˆ (k −1) ∗ h

)−1  [5.15]

2
xy xz-1 xz-2

2
xy xz-1 xz-2

Figure 5.11. Déconvolution numérique d’un jeu de données confocales : chromosomes en


cours de condensation dans un extrait d’œuf de Xenopus Laevis. Rangée supérieure : coupes
xy et xz confocales brutes. Rangée inférieure : les mêmes coupes après déconvolution. A
gauche : coupe transversale xy au travers du peloton de chromatine. Au milieu : coupe axiale
xz au niveau indiqué par la flèche 1 sur la coupe xy. A droite : coupe axiale xz au niveau
indiqué par la flèche 2 sur la coupe xy. Le contraste a été inversé pour faciliter la
visualisation des signaux.

La figure 5.11 illustre l’application de l’algorithme [5.14] à un jeu de données


confocales. Après seulement cinq itérations, la résolution axiale apparaît bien
meilleure sur les coupes axiales xz-1 et xz-2. Cette amélioration se traduit également
par un contraste accru des filaments de chromatine tels qu’ils peuvent être observés sur
la coupe xy. Cependant, il faut remarquer qu’il est quasi impossible d’atteindre une
La tomographie en microscopie 157

isotropie parfaite de la résolution. En effet, en microscopie, la résolution du problème


inverse relève de la catégorie des problèmes mal posés. Le fait que la lumière soit
collectée seulement dans le cône défini par l’ouverture numérique de l’objectif
entraîne une perte définitive des fréquences spatiales les plus hautes. Ces dernières ne
peuvent donc pas être restituées par les algorithmes proposés. D’une manière générale,
l’amélioration maximale de la résolution axiale qui peut être espérée en déconvolution
numérique n’excédera pas 30 %. Néanmoins, cela constitue une amélioration notable
par rapport à la résolution limite de la microscopie photonique. La déconvolution
numérique présente également un intérêt comme prétraitement à la reconstruction
tridimensionnelle. La figure 5.12 permet de comparer la reconstruction 3D du volume
de cellules HeLa cultivées in vitro dont les mitochondries ont été colorées par la
rhodamine-123. Après déconvolution numérique, les mitochondries apparaissent
mieux définies et il est possible d’en apprécier les formes et la distribution spatiale.

5µm

Figure 5.12. Application de la déconvolution numérique à un volume confocal. En haut :


microscopie confocale simple ; couple stéréoscopique reconstruit pour une observation par
strabisme convergent. En bas : microscopie confocale suivie d’une déconvolution
tridimensionnelle. A gauche : vue gauche du couple stéréoscopique. A droite : vue droite du
couple.

5.4.3. Microscopie par absorption multiphotonique

Les développements récents de l’optique non linéaire et les progrès réalisés dans
la production de sources pulsées de lumière cohérente ont contribué à faire émerger
158 La tomographie

une nouvelle technique de microscopie de fluorescence offrant des avantages


multiples. Cette technique de fluorescence basée sur l’absorption non linéaire de la
lumière est référencée sous le nom générique de microscopie à absorption
multiphotonique [XU 96]. A l’heure actuelle, les systèmes disponibles permettent
essentiellement de réaliser une absorption biphotonique, d’où leur appelation triviale
de « microscope à deux photons » [STR 90]. Cependant, dans certains laboratoires,
des expériences de microscopie de fluorescence par absorption triphotonique ont été
réalisées avec succès.

Bien que les mécanismes physiques impliqués soient complexes, le principe de


l’absorption non linéaire peut se comprendre de manière intuitive. Dans le cas de la
fluorescence par absorption linéaire (ou monophotonique), l’énergie d’un photon de
longueur d’onde caractéristique va permettre la transition de la molécule
fluorescente de l’état de repos à l’état excité. Très rapidement, la molécule va
retourner à l’état de repos en restituant l’énergie accumulée en différentes étapes et
sous différentes formes. L’une d’elles aboutit à l’émission d’un photon par la
molécule. Le photon émis sera d’une longueur d’onde supérieure à celle du photon
absorbé lors de l’excitation (figure 5.13A).

Etat excité A Etat excité B

émission émission
non-linéaire
absorption

absorption

λ = 360 nm
λ = 720 nm
linéaire

λ = 720 nm
λ = 470 nm λ = 470 nm

Etat de base Etat de base


∆τ = 1 fs

Figure 5.13. Comparaison entre fluorescence à « un photon »


et fluorescence à « deux photons ». A : diagramme de Jablonski
de la fluorescence conventionnelle. B : fluorescence par absorption biphotonique,
∆τ : fenêtre temporelle d’absorption

Dans le cas de l’absorption linéaire, nous considérons non plus un photon de la


longueur d’onde caractéristique d’absorption, par exemple 360 nm, mais deux
photons de longueur d’onde double, soit 720 nm. Dans cette situation, compte tenu
de la relation inversement proportionnelle entre l’énergie et la longueur d’onde de la
lumière, il est clair que l’énergie totale apportée par ces deux photons à 720 nm est
équivalente à celle d’un seul photon à 360 nm. Cependant, pour que l’absorption des
deux photons puisse se produire, il est nécessaire que les deux conditions suivantes
soient réalisées : premièrement, il faut créer une très haute densité spatiale en
photons. Cette première condition est facilement réalisable en microscopie, puisque
La tomographie en microscopie 159

la lumière y est focalisée très fortement dans un très petit volume (de l’ordre de
3
0,012 µm ) en utilisant un objectif à grande ouverture numérique (NA = 1,4).
Deuxièmement, il faut créer une très haute densité temporelle ; autrement dit, il faut
augmenter la probabilité que deux photons viennent exciter la molécule de façon
quasi simultanée. En fait, les deux photons ne doivent pas être séparés de plus de
-15
1 fs (10 s). Le premier photon (figure 5.13B) place la molécule dans un état semi-
excité extrêmement fugitif. Si le second photon arrive dans la fenêtre ∆τ, la
molécule absorbe assez d’énergie pour atteindre le niveau excité. Cette
concentration temporelle sera obtenue grâce à une source de lumière laser, pulsée à
haute fréquence (de l’ordre de 100 MHz), avec une largeur d’impulsion comprise
entre 80 fs et 2 ps.
,,,
,,,
,,,
,,,
,,,
,,,
,,,
,,,
    


Figure 5.14. Principe du sectionnement optique par absorption biphotonique.


a) fluorescence linéaire, la lumière d’excitation provoque l’émission de fluorescence en tous
points à l’intérieur du double cône d’illumination ; b) fluorescence par absorption « à 2
photons », seules les molécules situées au foyer sont illuminées dans des conditions
permettant l’absorption biphotonique, l’émission se produit uniquement au niveau du foyer
de la lentille.

Il apparaît clairement que la mise en œuvre de l’absorption biphotonique en


microscopie à balayage laser va permettre de réaliser un sectionnement optique. En
effet (figure 5.14), en microscopie confocale à balayage laser, la préparation est
illuminée à la longueur d’onde d’absorption des molécules de fluorochromes. En
conséquence, toutes les molécules situées dans le cône d’illumination vont émettre
de la fluorescence. Le sectionnement optique est obtenu lors de la formation de
l’image au travers du pinhole. Dans le cas de l’absorption biphotonique, le
sectionnement est réalisé par le processus d’illumination et non par la formation de
l’image. L’absorption non linéaire ne peut être réalisée qu’au niveau du foyer de la
lentille où les conditions optimales de concentration spatiale et temporelle en
photons sont atteintes. Donc, l’émission de fluorescence a lieu uniquement au
niveau du foyer de l’objectif.
160 La tomographie

Les conséquences pratiques du confinement de l’absorption biphotonique au


foyer de la lentille offrent des avantages supplémentaires par rapport à la
microscopie confocale « classique ». En particulier, les principales limitations de la
CLSM sont évitées. D’une longueur deux fois plus grande, donc située dans le
proche infrarouge, elle augmente le pouvoir de pénétration dans les tissus épais et
diffusants. De plus, certains fluorochromes qui exigent normalement une excitation
dans le proche UV incompatible avec l’observation de cellules vivantes peuvent être
utilisés avec l’excitation biphotonique. Les cellules vivantes sont alors uniquement
soumises à une illumination infrarouge moins préjudiciable à leur survie. Enfin, lors
de l’acquisition de coupes sériées, la photodégradation n’affecte que les plans déjà
acquis ; les autres restent intacts.

5.5. Bibliographie

[AGA 89] AGARD D.A., HIRAOKA Y., SHAW P., SEDAT J.W., « Fluorescence microscopy in
three-dimensions », Methods in Cell Biology, vol. 30, p. 353-377, 1989.
[BOL 92] BOLON P., « Filtrage d’ordre, vraissemblance et optimalité des prétraitements
d’image », Traitement du Signal, vol. 9, n° 3, p. 225-249, 1992.
[BRO 90] BRON C., GREMILLET P., LAUNAY D., JOURLIN M., GAUTSCHI H.P., BÄCHI T.,
SCHÜPBACH J., « Three-dimensional electron microscopy of entire cells », J. Microscopy,
vol. 157, n° 1, p. 115-126, 1990.
[BRU 98] BRUCHEZ M. Jr, MORONNE M., GIN P., WEISS S., ALIVISATOS A.P.,
« Semiconductor nanocrystals as fluorescent biological », Science, vol. 281, n° 5385,
p. 2013-2016, 1998.
[CAR 90] CARRINGTON W.A., FOGARTY K.E., FAY F.S., « 3D fluorescence imaging of single
cells using image restoration », dans Noninvasive techniques in cell biology, Foskett J.K.,
Grinstein S. (dir.), Wiley-Liss, New York, p. 53-72, 1990.
[CHA 94] CHALFIE M., TU Y., EUSKIRCHEN G., WARD W.W., PRASHER D.C., « Green
fluorescent protein as a marker for gene expression », Science, vol. 263, n° 5148, p. 802-805,
1994.
[DEM 98] DEMANDOLX D., DAVOUST J., « Multicolour analysis and local image correlation in
confocal microscopy », J. Microscopy, vol. 185, n° 1, p. 21-36, 1997.
[DUX 89] DUXSON M.J., USSON Y., HARRIS A.J., « The origin of secondary myotubes in
mammalian skeletal muscles: ultrastructural studies », Development, vol. 7, p. 743-750,
1989.
[FAY 89] FAY F.S., CARRINGTON W., FOGARTY K.E., « Three-dimensional molecular
distribution in single cells analysed using the digital imaging microscope »,
J. Microscopy, vol. 153, n° 2, p. 133-149, 1989.
[GRA 02] GRANGEAT P. (dir.), La tomographie médicale, Traité IC2, Hermès, Paris, 2002.
La tomographie en microscopie 161

[GRI 98] GRIFFIN B.A., ADAMS S.R., TSIEN R.Y., « Specific covalent labeling of recombinant
protein molecules inside live cells », Science, vol. 281, p. 269-72, 1998.
[HEL 97] HELIOT L., KAPLAN L., LUCAS L., BEORCHIA A., DOCO-FENZY M., THIRY M.,
O’DONOHUE M.-F., PLOTON D., « Electron tomography of metaphase nucleolar organizer
regions : Evidence of twisted-loop organisation », Molecular Biology of the Cell, vol. 8,
p. 2199-2216, 1997.
[JOU 02] JOURLIN M., MARTINEZ S., « Microscopie confocale », dans Images de profondeur,
Gallice J. (dir.), Hermès, 2002.
[LEY 99] LE Y., MILLER J.L., SAUER B., « GFPcre fusion vectors with enhanced
expression », Anal. Biochem., vol. 270, n° 2, p. 334-336, 1999.
[MAN 93] MANDERS E., VERBEEK F., ATEN J., « Measurement of colocalization of objects in
dual colour confocal images », J. Microscopy, vol. 169, p. 375-382, 1993.
[MIN 88] MINSKY M., « Memoir on inventing the confocal scanning microscope », Scanning,
vol. 10, p. 128-138, 1988.
[MON 99] MONTEIL J., BEGHDADI A., « A new interpretation and improvement of the
nonlinear anisotropic diffusion for image enhancement », IEEE Trans. Patt. Anal. Machi.
Intel., vol. 21, n° 9, p. 940-944, 1999.
[PAN 99] PANCHUK-VOLOSHINA N., HAUGLAND R.P., BISHOP-STEWART J., BHALGAT M.K.,
MILLARD P.J., MAO F., LEUNG W.Y., HAUGLAND R.P., « Alexa dyes, a series of new
fluorescent dyes that yield exceptionally bright, photostable conjugates », J. Histochem.
Cytochem., vol. 47, n° 9, p. 1179-1188, 1999.
[PAW 95] PAWLEY J.B., Handbook of biological confocal microscopy, Plenum Press, New
York, 1995.
[RIG 91] RIGAUT J.P., VASSY J., « High resolution three-dimensional images from confocal
scanning laser microscopy: quantitative study and mathematical correction of the effects
from bleaching and fluorescence attenuation in depth », Analyt. Quant. Cytol. Histol.,
vol. 13, n° 4, p. 223-232, 1991.
[ROE 93] ROERDINK J.B.T.M., BAKKER M., « An FFT-based method for attenuation correction
in fluorescence confocal microscopy », J. Microscopy, vol. 169, n° 1, p. 3-14, 1993.
[SHA 91] SHAW P.J., RAWLINS D.J., « The point-spread function of a confocal microscope:
its measurement and use in deconvolution of 3-D data », J. Microscopy, vol. 163, n° 2,
p. 151-165, 1991.
[SHE 89] SHEPPARD C.J.R., « Axial resolution of confocal fluorescence microscopy », J.
Microscopy, vol. 154, n° 3, p. 237-241, 1989.
[SHO 95] SHOTTON D.M., « Electronic light microscopy : present capabilities and future
prospects », Histochem. Cell Biol, vol. 104, p. 97-137, 1995.
[STR 90] STRICKLER J.H., WEBB W.W., « Two-photon excitation in laser scanning
fluorescence microscopy », SPIE, vol. 1398 CAN-AM Eastern 90, p. 107-118, 1990.
162 La tomographie

[TAN 92] TANEJA K.L., LIFSHITZ L.M., FAY F.S., SINGER R.H., « Poly(A) RNA
codistribution with microfilaments: evaluation by in situ hybridization and quantitative
digital imaging microscopy », J. Cell Biol., vol. 119, p. 1245-1260, 1992.
[TSI 95] TSIEN R.Y., WAGGONER A., « Fluorophores for confocal microscopy: Photophysics
and photochemistry », dans Handbook of biological confocal microscopy, Pawley J.B.
(dir.), Plenum Press, New York, p. 267-279, 1995.
[TSI 98] TSIEN R.Y., MIYAWAKI A., « Seeing the machinery of live cells », Science, vol. 67,
280, n° 5371, p. 1954-1955, 1998.
[VIS 91] VISSER T.D., GROEN F.C.A., BRAKENHOFF G.J., « Absorption and scattering
correction in fluorescence confocal microscopy », J. Microscopy, vol. 163, n° 2, p. 189-
200, 1991.
[WES 92] WESSENDORF M.W., BRELJE T.C., « Which fluorophore is brightest? A comparison
of the staining obtained using fluorescein, tetramethylrhodamine, lissamine rhodamine,
Texas red, and cyanine », Histochemistry, vol. 98, n° 2, p. 81-85, 1992.
[WIL 90] WILSON T., Confocal microscopy, Academic Press, Londres, 1990.
[XU 96] XU C., ZIPFEL W., SHEAR J.B., WILLIAMS R.M., WEBB W.W., « Multiphoton
fluorescence excitation: new spectral windows for biological nonlinear microscopy »,
Proc. Natl. Acad. Sci., vol. 93, n° 20, p. 10763-10768, 1996.
Chapitre 6

La tomographie optique

6.1. Introduction

Les interactions lumière-matière donnent accès tout à la fois à la composition et à


la structure de cette dernière. La spectroscopie optique, c’est-à-dire l’étude de la façon
dont la lumière est absorbée ou émise par la matière, est une source importante
d’informations concernant la composition et l’arrangement atomique et moléculaire
des milieux solides, liquides ou gazeux. Dans le cas de la matière solide, souvent
hétérogène, il est souvent nécessaire de préciser la composition locale du matériaux et
d’en donner de ce fait une image. Dans le cas de matériaux opaques, tels que les
métaux ou les matériaux à forte absorption optique, seule la surface pourra être
caractérisée par ses interactions avec la lumière. On pourra alors donner une image de
la surface précisant, selon les données recueillies, sa composition, ses propriétés
diélectriques et sa structure ou encore sa texture. Il s’agit alors d’un « état de surface ».
Dans les autres cas, la lumière pénètre, au moins partiellement, dans la matière et peut
alors donner une image tridimensionnelle de sa composition par l’étude des propriétés
diélectriques, ou de sa structure. La représentation de cette dernière en coupe isolée ou
en coupes sériées est alors le résultat de méthodes dites de « tomographie optique » qui
seront exposées dans ce chapitre. Ces méthodes reposent sur la connaissance des lois
de propagation de la lumière dans la matière. Ces lois sont diverses selon que le
matière est transparente ou seulement translucide, c’est-à-dire dans les cas où la
lumière pénètre la matière mais perd ses propriétés de propagation ordonnée ou
cohérente en raison des hétérogénéités fréquentes rencontrées sur sa trajectoire. Les
lois de propagation sont en général modélisables mathématiquement ou simplement
numériquement à l’aide de l’ordinateur. Il s’agit là du modèle « direct », dont il est
question de manière générale dans les méthodes de tomographie, mais il existe une

Chapitre rédigé par Christian DEPEURSINGE.


164 La tomographie

problématique propre au domaine optique des ondes électromagnétiques, où les


propagations cohérentes et incohérentes de l’onde peuvent être observées
simultanément et en proportion variable. La résolution du problème « inverse » est
d’autant compliquée et peut se faire avec un degré de précision variable selon que l’on
a à faire à un milieu parfaitement transparent ou seulement translucide, ou encore
« turbide » lorsque la diffusion de la lumière par les hétérogénéités de la matière
devient un facteur dominant.

Un domaine d’application d’importance croissante de la tomographie optique est


celui de l’observation de la matière biologique. Le problème de la propagation
« mixte » de l’onde cohérente et incohérente se pose de manière aiguë dans ce cas,
en raison des caractéristiques particulières de la structure du milieu biologique
composé d’unités répétables relativement bien structurées, les cellules biologiques
comportant des organelles organisées en tailles et en propriétés diélectriques de
manière identifiable. Cette propriété est de grande utilité dans la différenciation des
tissus et sert de base au diagnostic optique fondé sur les propriétés d’absorption et
de diffusion de la lumière.

En complément de la lecture de ce chapitre, on peut recommander un certain


nombre d’ouvrages se rapportant à :
– la propagation des ondes électromagnétiques dans le vide et les matériaux
diélectriques [JAC 95] ;
– les principes et théories se rapportant à l’optique cohérente [BOR 99] ;
– les techniques de tomographie appliquée à l’optique [BOR 99, KAK 88] ;
– les interactions lumière-matière vivante, l’absorption et la diffusion optique et
les bilans thermiques [WEL 95] ;
– les propriétés physiques des tissus [DUC 90].

6.2. Interaction lumière-matière

En toute généralité, la lumière interagit avec la matière, principalement avec les


particules chargées telles qu’électrons et protons, en raison des termes de couplage
bien connus entre champ électromagnétique et charges électriques (équations de
Maxwell, voir [JAC 95]). Indirectement, elle interagit aussi, via les particules
chargées, avec les atomes, molécules et réseaux cristallins et plus particulièrement
les modes vibratoires de ceux-ci. Nous allons décrire plus en détail ces interactions,
notamment dans le cadre de la matière organique et de la matière vivante. On
distinguera principalement deux types d’interactions : l’absorption, souvent liée au
phénomène de fluorescence, et la diffusion optique, élastique ou inélastique. Les
références de base se rapportant à l’interaction lumière-matière sont innombrables et
il est recommandé de se référer aux ouvrages élémentaires [BOR 99]. Les ouvrages
La tomographie optique 165

de base suivants sont également d’une grande utilité dans la compréhension de cette
section [BOH 83, ISH 78, VAN 99]. Concernant la théorie de la diffusion et du
transfert radiatif en général, on peut consulter [CAS 67, CHA 60, DUD 79].

Pour ce qui est des tissus biologiques, nous recommandons au lecteur de se référer
aux citations données dans les différents chapitres de l’ouvrage de Welsch et de Van
Gemert [WEL 95]. On peut aussi consulter [ARN 92, BEV 98, BOL 87, CHA 99,
CHE 90, FLO 87, MAR 89, PRA 88, VAN 92, WIL 86, WIL 87]. Concernant
l’instrumentation pour l’analyse des tissus et la tomographie optique, voir [CHA 98a,
CHA 98b].

6.2.1. Absorption

Par définition, les milieux translucides sont des milieux solides, liquides, ou gazeux
qui se laissent pénétrer par les photons optiques, et ceci dans un domaine spectral
variable, selon la composition de la matière traversée et les caractéristiques
diélectriques de cette dernière. Parmi les matériaux solides, il faut évidemment
considérer les gels, polymères et matériaux biologiques tels que les tissus vivants.
Fondamentalement, la pénétration des milieux translucides est déterminée par
l’absorption du milieu traversé. Le coefficient d’absorption, défini comme l’inverse de
la distance de pénétration dans un milieu non diffusant, permet de quantifier
l’importance de l’absorption optique. De manière générale, le domaine spectral
considéré s’étend de l’infrarouge à l’ultraviolet avec souvent, pour les matières
translucides, un maximum de pénétration dans un domaine proche du visible : proche
infrarouge, s’étendant quelques fois, jusqu’au proche ultraviolet. Les mécanismes
d’interaction entre photons et matière régissent la profondeur de pénétration des
photons dans le matériau : du côté de l’infrarouge moyen ou lointain, le couplage des
ondes électromagnétiques avec les modes vibratoires ou rotationnels des molécules
et/ou atomes du matériau provoquent une absorption forte de la lumière. L’interaction
photon-phonons est effective dans le cas où l’énergie du photon est transmise par
paquets quantiques aux modes vibratoires de la molécule ou du réseau atomique.
L’absorption du photon est alors totale et selon la section efficace optique de la
molécule, ou du réseau cristallin, l’absorption est très intense et la pénétration limitée à
quelques microns. Dans l’infrarouge proche, la section efficace est très inférieure, en
raison du fait que seul le couplage du rayonnement électromagnétique avec les
harmoniques des modes vibratoires (overtones) va jouer un rôle. Les intensités de
l’absorption optique, parfois appelées « force d’oscillateur », sont alors en général
plusieurs ordres de grandeur moins élevées que lorsque le mode fondamental est excité.
La pénétration de la lumière est alors sensiblement supérieure à celle observée dans
l’infrarouge moyen ou lointain. Elle peut être très faible dans certains diélectriques
dépourvus de centre d’absorption, d’inclusions ou d’impuretés tels que les centres
colorés ou des « trappes » produisant des états électroniques dans la bande interdite.
Les distances de pénétration peuvent alors être aussi grandes que plusieurs kilomètres
166 La tomographie

dans le cas de verres ou de cristaux parfaits, voir dans le cas des fibres optiques où
l’atténuation est assez faible pour permettre l’acheminement du signal utile à des
centaines de kilomètres. Dans le cas des tissus biologiques, des pénétrations de
plusieurs centimètres peuvent être obtenues.

La grandeur intuitive permettant de quantifier la fréquence du phénomène


d’absorption est le libre parcours moyen d’absorption la qui représente la distance
parcourue en moyenne sur l’ensemble des phénomènes de diffusion, par un photon
se propageant dans le milieu diffusant, avant de subir un phénomène d’absorption le
faisant disparaître.

Le libre parcours moyen d’absorption est relié à la section efficace d’absorption


ou coefficient d’absorption, par la relation inverse :

1
la = [6.1]
µa

Lorsque l’énergie du photon est suffisamment élevée, l’absorption des photons par
effet photo-électrique domine les autres mécanismes limitant la pénétration de la
lumière dans la matière. L’effet photo-électrique décrit le transfert intégral de l’énergie
du photon à un électron appartenant au cortège électronique d’une molécule appelée de
ce fait « chromophore », d’un atome ou encore du réseau atomique d’un semi-
conducteur. La condition pour qu’un tel transfert d’énergie puisse se faire est que la
différence d’énergie entre l’état initial et final de l’électron soit égale à l’énergie du
photon incident. La transition est dite « directe » lorsque les électrons dans l’état initial
et final ont approximativement la même impulsion (correspondant au vecteur d’onde k
de l’électron). La participation d’un ou de plusieurs phonons peut s’avérer nécessaire
lorsque ces électrons ont des impulsions différentes. La transition est alors dite
« indirecte » et l’équation énergétique doit alors également tenir compte de l’énergie
des phonons générés ou absorbés dans le processus. Dans un milieu semi-conducteur
sans impureté ou éléments dopants, l’absorption optique est observable dès que
l’énergie du photon est égale ou supérieure à celle de la bande interdite. L’absorption
est alors fonction de l’énergie du photon et varie en fonction des densités d’états
électroniques. La problématique est similaire dans un milieu contenant des
chromophores, soit des molécules porteuses d’un cortège électronique composé
d’électrons groupés en bandes énergétiques distinctes. Les bandes dites de « Soret » se
caractérisent par des transitions indirectes entre bandes de densités d’états suffisantes
pour donner lieu à des pics d’absorptions biens caractérisés. Les exemples de
chromophores sont nombreux dans les fluides (sang, bile) et les tissus biologiques. Ils
jouent un rôle important dans l’appréciation de l’activité métabolique des tissus
vivants. C’est ainsi que l’hème est un chromophore situé au sein d’une protéine :
l’hémoglobine, dont le rôle de transporteur d’oxygène aux tissus est bien connu. Ce
chromophore façonne le spectre d’absorption du sang de manière bien caractéristique.
La tomographie optique 167

Une bande de Soret est à l’origine de transitions optiques de 350 nm à 450 nm. De
même, la couleur rouge du sang provient d’un pic d’absorption vers 550 nm (forte
absorption dans le vert) due à une transition électronique interbande. Le spectre
d’absorption de l’hème dépend du degré d’oxydation d’un atome de fer placé au cœur
d’une porphyrine. En décomposant le spectre mesuré dans ses composantes réduites et
oxydées, il est ainsi possible de calculer le degré ou le « taux » de saturation de
l’hémoglobine (SaO2). Cette mesure joue un rôle important dans l’évaluation indirecte
de l’activité métabolique des tissus et est utilisée quotidiennement dans la surveillance
des patients à risque dans les unités de réanimation et en cours d’anesthésie. D’autres
chromophores présentent un intérêt dans la surveillance de l’activité métabolique des
tissus, les tissus nerveux en particulier : les cytochromes a-a3 sont des protéines
directement impliquées dans le cycle énergétique de la cellule et possèdent un spectre
caractéristique identifiable dans le proche infrarouge (aux alentours de 820 nm) dans
une région où la pénétration de la lumière dans les tissus est importante et permet de ce
fait une vision tomographique des tissus. Parmi les chromophores susceptibles de jouer
un rôle dans l’imagerie tomographique des tissus, il faut encore mentionner la
mélanine dans l’épiderme, la rhodopsine dans la rétine. Dans certains cas, l’eau
présente en proportion variable dans les tissus est un chromophore présentant plusieurs
pics d’absorption, notamment à des longueurs d’ondes supérieures à 950 nm qui
permettent de doser assez grossièrement la concentration de cette dernière dans les
tissus. Il en est de même pour les graisses avec un spectre laissant apparaître une
contribution spécifique au-delà de 960 nm. Certains métabolites comme le glucose
peuvent être dosés dans les tissus sur la base de l’identification de leurs
caractéristiques spectrales. On sait l’importance de la surveillance de la glycémie chez
les patients diabétiques et l’importance du défit que représente la mesure non invasive
de la concentration du glucose. Néanmoins, la tâche s’est avérée difficile en raison du
fait que le spectre caractéristique d’absorption du glucose en solution dans le plasma
sanguin présente un spectre assez peu différent de celui de l’eau et d’une contribution
imprévisible et à déterminer de cas en cas de la diffusion des tissus. Certaines
spécificités du spectre à des longueurs d’onde voisine de 980 nm, et 1,6 et
2,2 micromètres peuvent être mises à profit pour permettre une mesure. Du côté de
l’ultraviolet, la plupart des composés semi-conducteurs et des molécules organiques
deviennent des chromophores susceptibles de délivrer une information
spectroscopique spécifique : acides aminés, bases et molécules jouant un rôle structurel
dans les cellules et tissus telles que l’actine et l’élastine, ainsi que métabolique : surtout
le NADH et flavines.

6.2.2. Fluorescence

Les électrons excités par effet photo-électrique regagnent l’état fondamental en


empruntant des voies de désexcitation diverses, selon la nature électronique et
phononique du matériau. Certaines sont dites « radiatives » ou « non radiatives » selon
168 La tomographie

que des photons sont émis ou non. Dans le cas des transitions radiatives, des photons
dits de « fluorescence » sont émis à une longueur d’onde supérieure à celle du photon
absorbé par effet photo-électrique et peuvent être distingués de ceux-ci au moyen de
filtres spectraux tels que des filtres interférentiels. En raison de la nature aléatoire du
processus de désexcitation, la relation de cohérence avec le photon absorbé est perdue
et seule l’information d’intensité peut être exploitée aux fins d’imagerie. La
fluorescence est le propre d’atomes et d’arrangements atomiques cristallins de semi-
conducteurs et de molécules organiques, appelés dans ce cas « fluorophores ». La
plupart des chromophores actifs dans le bleu et l’ultraviolet sont aussi des
fluorophores : porphyrines, NADH, flavines, élastine, actine... Le spectre de
fluorescence dépend de leurs caractéristiques physicochimiques propres et de leur
environnement immédiat. C’est ainsi que la fluorescence du NADH dépend de son
degré d’oxydation et permet de ce fait de contrôler l’apport d’oxygène aux tissus. Le
pH joue aussi un rôle sur le spectre et l’intensité de fluorescence. Les fluorophores déjà
mentionnés existent à l’état naturel dans les tissus vivants et expliquent l’origine de la
fluorescence des tissus à l’état naturel appelée « autofluorescence ». L’analyse
spectrale de cette dernière permet une caractérisation des tissus et notamment une
différenciation des tissus pathologiques tels que les tissus tumoraux dont la
composition se trouve profondément modifiée par le chaos des structures et l’altération
de la composition : augmentation des masses nucléaires et disparitions de la cyto-
architecture. L’observation de ces modifications est de plus en plus utilisée à but
diagnostique. Le contraste de l’image de fluorescence peut être amélioré par
l’introduction de fluorophores externes ou « xenofluorophores » qui peuvent être des
marqueurs tissulaires tels que des anticorps marqués par des étiquettes fluorescentes ou
des nanoparticules telles que des îlots quantiques ou quantum dots. Dans d’autres cas,
on peut utiliser des agents photodynamiques, en général fluorescents, qui traduisent
des altérations métaboliques associées à la présence de tumeurs. Pour plus de détail,
consulter [ALF 89, LAK 83, WAG 98].

6.2.3. Diffusion

Dans leur interaction avec la matière, les photons ne sont pas toujours absorbés,
mais, selon leur énergie, peuvent être réémis avec ou sans perte d’énergie. On parle
alors respectivement de diffusion inélastique ou élastique du photon.

[Link]. Diffusion inélastique


Celle-ci survient lorsque l’énergie du photon ne permet pas une transition
électronique ou une absorption pure et simple par un état vibratoire ou rotationnel
de la molécule ou de l’atome dans le réseau cristallin. Alors, le photon traversant le
milieu diélectrique peut subir une perte ou un gain d’énergie correspondant au
couplage de l’onde électromagnétique avec un mode vibratoire du réseau ou de la
molécule. Il s’agit de la diffusion Raman si la transmission d’énergie se fait à un
La tomographie optique 169

mode optique de la molécule ou du réseau, ou Brillouin si le mode excité est un


mode acoustique de faible énergie du réseau. Une spectroscopie fine de la lumière
traversant le milieu translucide permet d’identifier le spectre de diffusion Raman et
l’analyse des modes vibratoires conduit à l’identification des molécules ou de la
matrice cristalline du milieu. Là encore, des applications dans le domaine du
diagnostic tissulaire ont pu être trouvées en médecine [MAH 98].

[Link]. Diffusion élastique


Un processus de diffusion élastique peut être décrit comme un choc élastique du
photon avec un centre de diffusion où seule la direction de propagation du photon
change, l’énergie et l’impulsion de ce dernier étant maintenues constantes en valeur.
En général, ces centres de diffusion sont constitués d’une singularité diélectrique du
milieu, défaut, particule, dislocation, interface... Dans les milieux biologiques, ils ne
sont encore que partiellement identifiés, mais, globalement, leur rôle dans la
propagation de la lumière dans les tissus est désormais précisément connu et
quantifié, grâce aux théories mathématiques et aux modélisations numériques de la
propagation de la lumière en milieu diffusant. Les particules de taille comparable à
la longueur d’onde de la lumière et possédant un indice de réfraction suffisamment
différent du cytoplasme telles que les organelles (voir figure 6.1) : mitochondries,
noyaux, vacuoles etc., forment des centres qui contribuent collectivement à la
diffusion élastique des photons dans les tissus (voir [BEA 94, BEA 95 LIU 93]). La
frontière entre cytoplasme et milieu extracellulaire, ou encore « matrice
extracellulaire », est également génératrice de diffusions élastiques fréquentes dans
le milieu biologique.

Figure 6.1. Représentation schématique d’une cellule biologique dans un tissu. On distingue
les structures extracellulaires et intracellulaires avec le noyau, les organelles telles que
mitochondries, appareil de Golgi, vacuoles, etc.
170 La tomographie

La grandeur intuitive permettant de quantifier la fréquence du phénomène de


diffusion est le libre parcours moyen de diffusion ls qui représente la distance
parcourue en moyenne sur l’ensemble des phénomènes de diffusion par un photon
se propageant dans le milieu diffusant, avant de subir un phénomène de diffusion
modifiant sa direction de propagation (voir figure 6.2).

Figure 6.2. a)Parcours multiple d’un photon diffusé par les centres A, B, C et D
du milieu diffusant et finalement absorbé en E.
On appelle ls le libre parcours moyen entre deux événements de diffusion.
b) La fonction de phase décrit la probabilité de diffusion du photon sous un angle θ

Le libre parcours moyen de diffusion est relié à la section efficace de diffusion


par la relation inverse :

1
ls = [6.2]
µs

Une caractéristique importante de la diffusion élastique est donnée par la « fonction


de phase » p (θ ) , qui donne la probabilité de diffusion d’un photon incident en
fonction de l’angle θ sous lequel le photon est diffusé ( θ = ( sˆ 0 , sˆ , où sˆ 0 et ŝ sont
les vecteurs unitaires désignant les directions de propagation du photon incident et,
respectivement, diffusé, voir figure 6.2b). Elle est normalisée à 1 :

∫ d Ω p (θ ) = 1

[6.3]

où Ω est l’angle solide selon la direction de propagation.


La tomographie optique 171

La fonction de phase dépend de la composition du milieu diffusant et résulte


d’une statistique faite sur les populations plus ou moins homogènes de centres de
diffusion. En règle générale, la fonction de phase n’est pas constante en fonction de
θ et traduit une loi de diffusion dite « anisotrope ». Le degré d’anisotropie du
milieu est donné par la moyenne de cos (θ ) et est appelé facteur d’anisotropie g :

g= ∫ d Ω p (θ ) cos (θ )

[6.4]

g est nul si la diffusion est isotrope (dans toutes les directions) et vaut 1 si la
diffusion ne se fait que dans la direction de propagation de l’onde incidente (cas
limite). Pour un milieu biologique, g avoisine souvent 0,98, ce qui traduit une forte
probabilité de diffusion dans la direction initiale de propagation du photon. Une
expression très souvent utilisée comme approximation de la fonction de phase est
l’expression dite de Henyey-Greenstein, proposée en 1941 [HEN 41] pour décrire la
diffusion de la lumière dans le milieu interstellaire :

1 1− g2
pHG (θ ) = [6.5]
4π (1 + g 2 − 2 g cos θ )3 2

Un cas plus « physique » et dont la fonction de phase peut faire l’objet d’un
calcul exact est celui d’une sphère constituée d’un matériau diélectrique dont
l’indice de réfraction est suffisamment différent du milieu environnant. La théorie
développée par Mie et qui porte son nom [MIE 08] donne une expression analytique
exacte de la fonction de phase qui peut être utilisée dans une modélisation du milieu
diffusant. Cette expression, relativement complexe, peut être trouvée par exemple
dans la référence [JAC 95].

Dans tous les cas, que la fonction de phase puisse être déduite d’une simulation
théorique, ou qu’elle le soit d’une mesure expérimentale, cette fonction peut être
usuellement approximée par un développement de Legendre de la forme :


1
p (θ ) =

∑ ( 2n + 1)g P (θ )
n=0
n n
[6.6]

où gn est le moment d’ordre n de la fonction de phase p (θ ) et peut être calculé :

g n = 2π ∫ Pn ( cosθ ) p (θ ) dθ [6.7]
172 La tomographie

L’ordre zéro : g0 est fixé conventionnellement à la valeur 1 alors que g1 est égal
au coefficient d’anisotropie ou facteur d’asymétrie g, précédemment défini. Les
ordres supérieurs g2, g3, etc. jouent un rôle d’importance décroissante dans la
fonction de phase, au fur et à mesure que l’indice n augmente [BEV 98].

Le milieu biologique peut notamment être assimilé à un milieu hétérogène résultant


d’un mélange d’objets diélectriques comportant des interfaces entre milieux d’indices
différents, tels que cytoplasme et milieu intercellulaire, ou encore différentes
composantes du tissu conjonctif. Le milieu intercellulaire est aussi composé de
microparticules telles que noyaux, organelles : mitochondries, vésicules, etc. Ces
particules sont susceptibles de jouer le rôle de centres de diffusion et sont en général
assimilées, du point de vue de la modélisation, à des microsphères ou micro-ellipsoïdes
en suspension dans un gel. La théorie de la diffusion de Mie s’applique parfaitement
dans ce cas et donne une expression exacte de la fonction de phase pour une taille et un
des indices de réfraction intérieurs et extérieurs à la particule donnée. Un modèle
souvent invoqué de répartition du nombre des particules en fonction de leur taille est
un modèle fractal [GEL 96, SCH 96, THU 01] où la taille des particules obéit à une loi
de distribution donnée par la règle :

N ( d ) = N 0 d −α [6.8]

où d est le diamètre de la microsphère (voir figure 6.3) et α la puissance fractale de la


distribution. N0 est un paramètre dont la valeur est reliée au nombre total de particules.

Figure 6.3. Représentation d’un milieu diffusant sous la forme d’un ensemble de particules
de diamètre d et dont le nombre obéit à une loi fractale
La tomographie optique 173

Pour certains tissus, il peut arriver qu’une population de particules ayant une
taille relativement homogène prenne une importance prépondérante dans la
distribution des tailles. C’est le cas notamment de certains tissus néoplasiques, où la
masse nucléaire occupe une part augmentée du volume cellulaire et tissulaire. Ils
diffusent, de ce fait, une part majeure de la lumière incidente et le spectre de la
lumière diffusée se trouve modifié de manière caractéristique : c’est ainsi que l’on
peut observer [PER 98] des oscillations en longueur d’onde du spectre de lumière
diffuse, provoquées par les variations caractéristiques de la fonction de phase et
prédites par la théorie de Mie pour une population de microsphères de taille
homogène et comparable à la longueur d’onde de la lumière.

6.3. Propagation des photons dans les milieux diffusants

Les différents mécanismes d’interaction lumière-matière décrits dans les


paragraphes précédents vont déterminer la propagation des photons dans les milieux
diffusants. Les théories quantiques montrent que la propagation de la lumière peut
être décrite selon un scénario ondulatoire et/ou particulaire, les deux aspects
apportant une part de vérité dans la description des faits expérimentaux. Plus
exactement, le caractère ondulatoire doit être pris en compte lorsque la cohérence
de l’onde associée au photon est maintenue lors de la propagation dans le milieu.
C’est en général le cas lorsque le photon se propage en milieu homogène à l’échelle
de la longueur d’onde : on peut citer évidemment les milieux ordonnés tels que les
cristaux ou les milieux amorphes tels que les verres et polymères. Le cas des
cristaux photoniques est à ranger aussi dans cette catégorie, sachant que la
propagation ne peut se faire que pour certains vecteurs d’onde. Dans le cas des
milieux hétérogènes avec variations aléatoires des propriétés diélectriques, la
cohérence du faisceau incident se perd progressivement, au fur et à mesure des
rencontres du photon avec les centres de diffusion et d’absorption. Lors de la
pénétration du faisceau lumineux dans les milieux diffusants, la propagation
« cohérente » est progressivement remplacée par une propagation dite
« incohérente ». Ainsi, en tomographie optique, les deux types de propagation
doivent être considérés.

6.3.1. Propagation cohérente

La propagation de la lumière est dite cohérente lorsque la valeur du champ


électrique ou champ photonique E en un point r1 de l’onde est corrélée dans
l’espace, mais aussi dans le temps (fonction de corrélation non nulle) à celle du
champ mesuré en un point r2 situé à une certaine distance de r1 (pour la théorie de
base, se référer aux ouvrages : [BOR 99, MAN 95]). Quantitativement, cette
174 La tomographie

corrélation « dans l’espace » est donnée par la fonction de cohérence


mutuelle Γ (r1 , r2 ) , aussi appelée dans ce cas intensité mutuelle I (r1 , r2 ) :

I (r1 , r2 ) = E ∗ (r1 ) ⋅ E (r2 ) [6.9]


ensemble

où les parenthèses représentent la moyenne sur l’ensemble des


ensemble
configurations diélectriques possibles et de même nature statistique que le milieu
considéré. Pour r1 = r2 , l’intensité mutuelle se confond avec l’intensité locale du
champ photonique I (r ) .

En règle générale, et plus particulièrement dans un milieu diffusant, cette


fonction décroît avec la distance selon une loi dépendant des données optiques du
problème (source de radiation en particulier) et des caractéristiques diélectriques du
milieu traversé. Ainsi donc, cette fonction n’est en général non négligeable que pour
des valeurs r2 - r1faibles et limitées. Il convient donc de considérer « localement » la
fonction de cohérence mutuelle en introduisant une fonction parfois appelée « de
cohérence au premier ordre » : il convient de procéder au changement de variable
suivant :

2(
R=1 r1 + r2 ) [6.10]

et :

r = r2 − r1 [6.11]

La distribution locale de la fonction de cohérence mutuelle peut alors être


caractérisée au point R, par sa transformée de Fourier en r . De ce fait, se trouve
introduit le vecteur d’onde k , fixant la direction locale de propagation de l’onde.
Le résultat de cette opération est la fonction de distribution de Wigner du champ
optique au point R et pour une onde se dirigeant selon le vecteur d’onde k . Les
désignations « d’intensité spécifique » ou de « fonction de cohérence de Wigner »
sont également utilisées pour :

I ( R , k ) = ∫ d 3r exp (ikr ) E ∗ ( R + r 2 ) ⋅ E ( R − r 2 ) [6.12]

I ( R , k ) donne ainsi la densité de probabilité du photon dans l’espace de phase, au


point R et correspondant au vecteur d’onde k. Elle permet de caractériser, par une
donnée quantifiable, la cohérence de l’onde propagée. C’est ainsi que, par exemple,
La tomographie optique 175

la distribution de Wigner correspondant à une onde plane de vecteur d’onde k0 est


une distribution de Dirac au point k = k0.

L’intensité du champ photonique et donnée par :

I ( R ) = 1 ( 2π ) ∫ d kI ( R, k )
3 3
[6.13]

Il est possible, pour une géométrie donnée de l’onde et une connaissance


suffisante du milieu de propagation, de calculer comment cette fonction de
cohérence de Wigner est propagée dans l’espace de phase :

I ( R , k ) = ∫ d 3 R ' d 3k ' G W ( R − R ', k , k ') I 0 ( R ', k ') [6.14]

où G W ( R − R ', k , k ' ) est la fonction de Green associée à la propagation de la


fonction de cohérence de Wigner initiale : I 0 ( R ', k ') .

La fonction de Green G W est elle-même calculée à partir de la fonction de


Green G ± décrivant la propagation du champ électrique E = ( Ei , i = x, y, z ) :

Ei (r1 ) ⋅ Ei (r2 ) =
*

[6.15]
= ∫ dr1 ' dr2 ' G + (r1 , r1 ' ) ⋅ G − (r2 , r2 ' ) E *i (r1 ' ) ⋅ Ei (r2 ' )
V

G ± sont les fonctions de Green « avancées et retardées », selon la dénomination


figurant par exemple dans l’ouvrage [JAC 95] et décrivant la propagation progressive
et rétrograde de l’onde électromagnétique de vecteur d’onde k = n (r, ω )ω c (dans le
vide : k0 = ω c , où ω est la pulsation de l’onde et c la vitesse de la lumière), dans un
milieu de nature diélectrique variable, décrite par la fonction diélectrique complexe
ε (r, ω ) et où l’indice de réfraction complexe n (r, ω ) satisfait à la relation :

n 2 (r , ω ) = ε (r , ω ) [6.16]

Considérons une onde traversant un milieu diélectrique suffisamment homogène,


à l’échelle de la longueur d’onde, pour satisfaire à l’équation d’onde :

∇2 Ei (r, ω ) + k 2 (r, ω ) Ei (r, ω ) = 0 [6.17]


176 La tomographie

avec :

k (r , ω ) = k 0 ⋅ n (r , ω ) [6.18]

La fonction de Green décrivant la propagation du champ électrique est alors


donnée par la résolution de l’équation de propagation :

∇ 2 + k 2 (r, ω ) G ± (r, r ' ) = −4π ⋅ δ (r, r ') [6.19]

Dans bon nombre de cas, la fonction diélectrique est une constante n (ω ) dans
l’espace et le temps. La dépendance avec la pulsation ω sera donnée par la loi de
dispersion du matériau. Dans le vide, nous avons :

ε (r , ω ) = ε 0 [6.20]

Dans un milieu homogène dont la fonction diélectrique varie, soit très lentement
dans l’espace, soit au contraire de manière très rapide, avec des variations sur des
distances plus courtes que la longueur d’onde, par exemple sur des distances
comparables aux dimensions atomiques et moléculaires, la fonction diélectrique
peut être considérée comme constante et égale à ε (ω ) qui est la constante
diélectrique moyenne dans l’espace et dans le temps. Dans les cas où la constante
diélectrique fluctue spatialement sur des distances ni trop grandes, ni trop courtes
(c’est-à-dire plus grandes que la longueur d’onde), on écrira :

ε (r, ω ) = ε (ω ) ++ε (r, ω ) [6.21]

où ∆ε (r, ω) est la fluctuation spatiale de la constante diélectrique.

De même, pour les indices de réfraction :

n 2 (r, ω ) = n 2 (ω ) ++n 2 (r, ω ) [6.22]

où n
2
(ω ) est la moyenne du carré de l’indice de réfraction et +n 2 (r, ω ) est la
fluctuation spatiale du carré de l’indice de réfraction.

Dans le cas où le milieu diélectrique est raisonnablement homogène ( +ε (r, ω )


négligeable) et la partie imaginaire de la constante diélectrique n’est pas trop forte à
l’échelle des distances parcourues par le photon, la fonction de Green est donnée par
l’expression :
La tomographie optique 177

G (r, r ', ω ) =
±
(
exp ±i k (r, ω ) r − r ' ) [6.23]
r −r '

Introduite dans l’équation [6.15], il est possible de trouver une expression générale
de la fonction de Green G W ( R − R ', k , k ' ) pour la fonction de cohérence de Wigner.
Dans le cas particulier de l’intensité, on trouve la loi de décroissance de l’intensité :

exp ( −2ki R − R ' )


G W (R − R ', k , k ' ) = 2
δ (k − k ' ) [6.24]
R − R '

où ki est la partie imaginaire du vecteur d’onde k = k r + iki , décrivant


l’atténuation de l’intensité de l’onde avec l’éloignement de la source en raison de
l’absorption optique.

Considérons maintenant plus en détail le cas des milieux aléatoires et diffusants :


la fonction diélectrique ε (r , ω ) est en général une fonction aléatoire du lieu r et
traduit la structure du milieu désordonné. Statistiquement, elle peut être caractérisée
par sa fonction d’autocorrélation, moyennée sur l’ensemble des réalisations
possibles du milieu :

ω4 *
B (r1 , r2 ) = 4 ε (r1 ) ⋅ ε (r2 ) [6.25]
c
où les constantes ω et c ont été introduites dans l’expression de B pour lui donner
les unités du carré de l’énergie (puits de potentiel).

Dans le cas d’un milieu désordonné homogène :

B (r1 , r2 ) = B (r2 − r1 ) = B ( R ) [6.26]

où B peut être avantageusement décrit par sa transformée de


Fourier tridimensionnelle : B (Q ) .

La fonction d’autocorrélation B ( R ) , ou sa transformée B (Q ) joue un rôle


important dans le calcul des propagateurs décrivant la migration des photons dans le
milieu diélectrique. Par assimilation avec le problème de la diffusion des particules
en mécanique quantique, B ( R ) apparaît comme un potentiel de diffusion expliquant
l’existence d’une quantification et de modes propres « propageant » du champ
photonique.
178 La tomographie

On peut considérer le cas particulier où le milieu diélectrique résulte de la


juxtaposition de très grosses molécules, d’agrégats ou de particules (par exemple,
particules colloïdales en suspension dans un gel). On parlera plus généralement de
« motifs » (indice m), possédant la fonction diélectrique ε m (r ) et qui sont
aléatoirement répétés et distribués sur une matrice de points ri :

ε (r ) = ∑ ε m (r − ri ) [6.27]
i

La fonction d’autocorrélation vaut dans ce cas :

ω4 ∞ *
B (r1 , r2 ) = ∑ ε m (r1 − ri ) ⋅ ε m (r2 − rj )
c 4 i,j
ω4 ∞ *  r   r 
4 ∑
= B(R, r ) = ε m  R + − ri  ⋅ ε m  R − − rj  [6.28]
c i,j  2   2 

et sa transformée de Fourier en r :

ω 4 ∞
B (R, q ) = 4
c
∑ ε (R, q )ε (R, q ) exp iq (r − r ) =
i,j
m
*
m i j

[6.29]
ω4 *
= 4 εm (q )εm (q ) ⋅ S (q )
c
avec, par définition, le facteur de structure S (q ) :


S (q ) = ∑ exp iq (ri − r j ) [6.30]
i,j

et le facteur de forme sera défini comme :

εm (q ) = εm (q )εm (q )


2 *
[6.31]

Le facteur de forme se trouve être égal à la fonction de phase définie au


paragraphe [Link], dans le contexte d’une description particulaire.
La tomographie optique 179

Dans [6.29], il a été tenu compte du fait que le milieu est homogène et infini, en
sorte que εm (q ) ne dépend pas de R.

6.3.2. Propagation mixte : cohérente/incohérente

Nous allons suivre dans ce paragraphe l’approche développée par John [JOH 96]
pour décrire la propagation mixte de l’onde cohérente et incohérente dans le milieu
diffusant. G W ( R − R ', k , k ' ) est la fonction de Green associée à la propagation de la
fonction de cohérence de Wigner initiale : I 0 ( R ', k ') . Dans le cas d’un milieu de
propriétés diélectriques aléatoires caractérisé par la fonction caractéristique ou
fonction d’autocorrélation B(r) de la fonction diélectrique ε (r ) ou son spectre se
Fourier B (q ) , le calcul de la fonction de Green, propagateur de la distribution de
Wigner, peut être fait à partir de sa transformée de Fourier :

4
 (Q, k , k ' ) = c d 3 R G ( R , k , k ' ) exp ( −iQ ⋅ R )
ω4 ∫
G W W
[6.32]

 (Q, k , k ') est en fait simplement donné par les


John et al. ont montré que G W

éléments d’une matrice : k ' H −1 k calculée pour un opérateur H −1 . L’opérateur


H peut alors être assimilé à un hamiltonien décrivant le mouvement d’une particule
quantique diffusée par un puits de potentiel B(R, r ) . Les états k et k ' sont les états
propres de l’opérateur H −1 . L’expression suivante peut alors être déduite de ces
calculs :

lˆ lˆ
(
exp − R − R' λ[llm' ] )
GW (R − R' , k , k' ) = ∑ ∑ ( l + l −l ' )
⋅ Ψlm
*
(k )Ψlm (k' ) [6.33]
m = −lˆ l ,l '= m 4πDll ' R − R'
[ m]

où D[m] et λ [m] sont des paramètres déduits du calcul de GW et correspondent


ll ' ll '

respectivement à un facteur de pondération de l’intensité du terme considéré dans le


développement [6.33] et à une longueur caractéristique d’atténuation. Les indices l
et m correspondent aux nombres dits « quantiques », « azimutaux » et,
improprement dans le cas de photons « magnétiques », définissant les harmoniques
()
sphériques ϒlm kˆ . lˆ est « l’indice azimutal maximal » considéré dans le

développement lˆ = 1, 3, 5… Les fonctions dites « spectrales » Ψ ∗lm (k ) sont :


180 La tomographie

()
Ψ ∗lm (k ) = Rl (k ) ϒlm kˆ [6.34]

où Rl (k ) est une fonction « radiale » dont la valeur est concentrée autour de


k = k0 n (ω ) et k̂ est le vecteur d’onde unitaire argument de l’harmonique
sphérique ϒlm .

La longueur caractéristique d’atténuation est infinie pour les nombres


l = l’ = m = 0, λ00[0] = ∞ . Pour l , l ' ≥ m ≥ 1 , λll[m' ] est fini. Les termes de [6.33]
traduisent la propagation d’une proportion significative de l’onde pour laquelle la
distribution en k n’est pas réduite à zéro, ce qui signifie une propagation
« cohérente » de l’onde. Un point très intéressant, mis en évidence par la théorie de
propagation en milieu diffusant de Jones, est que, dans le cas d’un modèle de milieu
diffusant constitué de microsphères de polycarbonate en suspension, λ [0] peut être
11

supérieur de plusieurs dizaines de fois le libre parcours moyen de transport du


milieu diffusant avec lt = 1/µt et µt = µa + µs. Cette propriété établie pour un milieu
diffusant particulier peut certainement être généralisée à une très large catégorie de
milieux diffusants, dont les milieux biologiques.

Ce résultat, très intéressant, prouve que si l’on sélectionne, parmi l’ensemble des
photons se propageant dans le milieu diffusant, ceux qui le font de manière cohérente,
la profondeur de pénétration peut être supérieure à celle que laisse prévoir la théorie de
propagation incohérente des photons. C’est ainsi que les longueurs de pénétration ou
libres parcours moyens de diffusion des photons dits « balistiques », c’est-à-dire ne
subissant aucune interaction avec les centres de diffusion et d’absorption du milieu,
sont en général de quelques centièmes à quelques dixièmes de millimètres, soit bien
inférieures aux longueurs caractéristiques d’atténuation de l’onde cohérente.

6.3.3. Propagation incohérente

Dans l’expression [6.33], pour des distances source-détecteur R − R ' assez


grandes, l’ensemble des termes du développement pour lesquels l , l ' ≥ m ≥ 1
deviennent négligeables en comparaison du terme l = l’ = m = 0 :

1
G W ( R − R ', k , k ' ) = [0]
Ψ ∗00 (k ) Ψ 00 (k ') [6.35]
4π D00 R − R '
La tomographie optique 181

où Ψ 00 (k ) est une fonction indépendante de la direction du vecteur d’onde k̂ et est


fortement piquée pour k = k ≈ k0 n (r, ω ) . La dépendance en k n’existe plus dans
ce cas et la cohérence de l’onde est perdue. Ainsi, G W ( R − R ', k , k ' ) correspond
dans ce cas à un mode de diffusion isotrope et le facteur de pondération
D[ ] correspond dans ce cas au coefficient de diffusion optique (se référer au
0
00

paragraphe 6.3.4 sur le transfert radiatif, voir équation [6.57]).

La distribution de l’intensité est donnée par :

1
I ( R ) = ∫ dR ' [0]
I 0 ( R ') [6.36]
4π D00 R − R '

démontrant ainsi que 1 4π D[0] R − R ' est la fonction de Green pour la propagation
00

de l’intensité I ( R ) de l’onde en régime de diffusion pure.

6.3.4. Théorie du transfert radiatif

Dans le cas particulier où I (r1 , r2 ) = E * (r1 ) ⋅ E (r2 ) ≈ 0 pour


ensemble
r1 ≠ r2 , c’est-à-dire lorsque la cohérence du champ photonique est négligeable, nous
avons :

(
I incoherent ( R, k ) = ∫ dr 3 exp (ikr ) E ∗ R + r
2 ) ⋅ E (R − r 2 ) [6.37]
≈ E ( R ) ⋅ E ( R ) = I ( R )∀k

Il convient de remarquer que la distribution de Wigner donne alors l’intensité du


champ photonique au point R et est alors uniforme dans l’espace réciproque.

En fait, conceptuellement, un champ photonique parfaitement incohérent est


décrit par la distribution de Wigner [6.37] constitue un cas limite résultant d’une
extrapolation où le domaine spectral est infini, ce qui ne correspond pas à une réalité
physique. En outre, le découplage apparent, dans ce cas, entre la variable spatiale R
et le vecteur d’onde k dans l’expression de I incoherent ( R , k ) laisse croire à des
propriétés de « localité » parfaite du champ photonique, en fait en contradiction
avec le respect des relations d’incertitudes (comparables aux relations de
Heisenberg en mécanique quantique) :
182 La tomographie

∆Rm ⋅ ∆km ≥ 1,m = x, y, z [6.38]

Ces relations nous autorisent, en suivant la proposition de John et antérieurement


de Cartwright [CAR 76], à introduire une nouvelle distribution dans l’espace de
phase, appelée intensité spécifique considérée habituellement dans la théorie du
transfert radiatif : I R ( R, k ) (l’indice R fait référence à la théorie du transfert
radiatif) et qui résulte du moyennage de la distribution de Wigner sur une cellule de
l’espace de phase arbitrairement définie, mais satisfaisant à la relation :
∆Rm ⋅ ∆km = 1,m = x, y, z entourant le point (R, k). Mathématiquement, ce
moyennage est obtenu en convoluant la distribution de Wigner par une fonction
gaussienne dans le 6-espace de phase et de largeurs (variances) égale
respectivement à ( ∆Rm ) et( ∆km ) avec m = x, y , z :
2 2

I R ( R , k ) = ∫ d 3R ' d 3k ' ρ ( R , k , R ', k ') I ( R ', k ') [6.39]

avec :
(
ρ ( R , k , R ', k ' ) = π −3 exp − ( R '− R )
2
(+ R )
2
)⋅ [6.40]
(
⋅ exp − (k '− k )
2
(+k )
2
)
où ∆R et ∆k sont des écarts des variables R et k de valeurs arbitraires mais satisfaisant
la relation ∆R. ∆k = 1.

On peut montrer que cette nouvelle distribution est, cette fois, définie positive,
alors que la distribution de Wigner ne l’est pas et correspond physiquement à
l’intensité de l’onde (en watt par mètre carré) au point R et se propageant dans la
direction k avec la pulsation ω = knc et l’énergie du photon =ω . Comme la diffusion
élastique considérée dans ce chapitre ne modifie pas les énergies, seules les directions
de propagation des photons ŝ ( ŝ vecteur unitaire) sont modifiées par un événement de
diffusion. En conséquence, la distribution des intensités spécifiques dans l’espace de
phase peut être décomposée en familles où seules seront considérées les directions ŝ
des photons. Cette distribution est alors appelée radiance et donne le nombre de
photons au point R et se déplaçant dans la direction ŝ :

L ( R , sˆ ) = ∫ dk I R ( R , k ) avec k = k = k0 et k = k ⋅ sˆ [6.41]

La radiance est donc la puissance optique des photons au point R se propageant


dans la direction ŝ et ceci par élément de surface dA et unité d’angle solide dΩ (voir
figure 6.4).
La tomographie optique 183

Le bilan du nombre de photons au point R est donné par l’équation du transport


de Boltzmann :

sˆ ⋅∇L ( R, sˆ ) + µt ( R ) L ( R, sˆ ) = µ s ∫ d Ω ' p (sˆ, sˆ ')L ( R, sˆ ' ) + S ( R, sˆ ) [6.42]


Figure 6.4. La radiance est la puissance photonique au point R dans la direction ŝ


par unité de surface dA et angle solide dΩ

Le terme de gauche donne le bilan des photons lorsque l’on se déplace dans la
direction ŝ . Le premier terme sˆ ⋅∇L ( R , sˆ ) correspond à la variation de la radiance
L ( R, sˆ ) dans la direction ŝ , alors que le deuxième terme µt ( R ) L ( R, sˆ ) correspond à
la déperdition de photons ayant subi une interaction avec le milieu : soit une diffusion
avec la probabilité µ s , soit une absorption avec la probabilité µ a , c’est-à-dire avec
une probabilité totale µt ( R ) = µ s ( R ) + µ a ( R ) d’interaction par unité de longueur
dans la direction ŝ . Le terme de droite décrit l’appoint de photons dans la direction ŝ :
le premier terme correspond à la contribution probable (probabilité donnée par µ s par
unité de longueur) des photons se propageant dans la direction sˆ ' et diffusés dans la
direction ŝ , avec la probabilité donnée par la fonction de phase p (sˆ, sˆ ' ) qui est une
fonction de l’angle θ entre ŝ et sˆ ' . S ( R, sˆ ) est le deuxième terme, décrivant une source
éventuelle émettant des photons dans la direction ŝ : « terme de source ». La
conservation de l’énergie impose globalement l’égalité entre les deux membres de
l’équation de Boltzmann.
184 La tomographie

Le terme de source peut évidemment comprendre des émissions de


luminescence, bioluminescence en particulier. Le terme de source peut être associé
aux contributions provenant des mécanismes de diffusion inélastique de la lumière :
fluorescence, diffusion Raman ou même diffusion de Brillouin. Dans ce cas, il
traduit l’échange entre distributions de populations de photons d’énergie différentes.
Dans l’espace de phase, ces populations sont cantonnées dans des calottes
sphériques différentes et imbriquées de l’espace k. Le terme source peut aussi
traduire les échanges entre deux populations de photons caractérisées par des
distributions différentes dans l’espace de phase. C’est ainsi que, pour des
populations de photons de même énergie, on peut distinguer entre rayonnement
primaire LP ( R, sˆ ) et secondaire ou diffusé LP ( R, sˆ ) :

L ( R, sˆ ) = LP ( R, sˆ ) + LS ( R, sˆ ) [6.43]

En général, le rayonnement primaire correspond à un faisceau collimaté où la


radiance est non nulle que pour la direction de propagation ŝ 0 . Le terme de source
peut alors être écrit :

S ( R, sˆ ) = µ s ( R ) ⋅ p (sˆ, sˆ 0 ) ⋅ LP ( R, sˆ 0 ) [6.44]

Nous pouvons dès lors nous concentrer sur le calcul de l’intensité du champ
photonique diffusé. Un tel régime peut être considéré comme établi lorsque la radiance
ne dépend plus que faiblement de la direction ŝ de propagation des photons. Il s’agit
là d’une hypothèse simplificatrice importante qui s’applique dans un grand nombre de
situation, en général dès que la distance parcourue est supérieure à une dizaine de
libres parcours moyens de diffusion pour des fonctions de phase habituelles en
biologie ( g ≈ 0.9 ), c’est-à-dire de l’ordre du millimètre. Cette hypothèse permet
d’établir une équation simplifiée, gouvernant la distribution de l’intensité ou la fluence
de l’onde diffusée. La dépendance en ŝ de la radiance peut être développée en
sommes d’harmoniques sphériques dont seuls les deux premiers termes sont pris en
considération :
3 S
LS ( R, sˆ ) ≅ Φ S ( R ) + F ( R ) ⋅ sˆ [6.45]

où :

Φ S (R ) = ∫ d ΩL ( R, sˆ )
S
[6.46]

La tomographie optique 185

est la fluence photonique : c’est le nombre de photons au point R et circulant dans


toutes les directions ŝ . Cette grandeur joue, dans un contexte « particulaire », un
rôle équivalent à l’intensité locale du champ photonique I ( R ) .

F S (R ) = ∫ d ΩL (R, sˆ ) ⋅ sˆ
S
[6.47]

est un vecteur : le flux net photonique au point R, pointant dans la direction où les
photons se déplacent majoritairement.

On peut dès lors intégrer les deux membres de l’équation du transport sur l’angle
solide de 4π pour éliminer ŝ :

∫ d Ωsˆ ⋅∇L (R, sˆ ) + ∫ d Ω ( µ ( R ) + µ (R )) L ( R, sˆ ) =


4π 4π
a s

∫ d Ωµ ∫ d Ω ' p (sˆ, sˆ ')L ( R, sˆ ') +


= [6.48]
s
4π 4π

+ ∫ d Ωµ s ( R ) ⋅ p (sˆ, sˆ 0 ) ⋅ LP ( R, sˆ 0 )

Dans le premier terme, on peut sortir l’opérateur ∇ de l’intégrale car il porte


sur R, et l’on peut ainsi faire apparaître le flux vectoriel F S ( R ) . Ensuite, on peut
permuter les deux intégrales dans le premier terme du second membre et tenir
compte de l’équation [6.3] pour faire disparaître la fonction de phase. De même, la
fonction de phase disparaît dans le dernier terme du second membre. Enfin, les
deux termes en µ s s’annulent dans les deux membres. Il reste finalement :

∇F S ( R ) + µ a ( R ) Φ S ( R ) = µ s ( R ) LP ( R, sˆ 0 ) [6.49]

De même, on peut déduire de l’équation du transport une expression de


F ( R ) en intégrant à nouveau sur l’angle solide de 4π les deux membres de
S

[6.42], mais cette fois préalablement multipliés par ŝ . Sans entrer ici dans le détail
des calculs, il faut tenir compte :

∫ d Ωsˆ ⋅ (sˆ ⋅ ∇L (R, sˆ )) = (1 3) ∇L (R )


S S
[6.50]

 
∫ d Ω sˆ  µ ∫ d Ω ' p (sˆ, sˆ ') L (R, sˆ ') = g µ
S [6.51]
s s
4π 4π
186 La tomographie

∫ d Ω sˆ ⋅ S (R, sˆ ) = ∫ d Ω sˆ ⋅ µ (R ) ⋅ p (sˆ, sˆ ) ⋅ L (R, sˆ ) =


P
s 0 0
4π 4π [6.52]
= g µ s ( R ) L ( R, sˆ 0 ) sˆ 0
P

En faisant usage de ces expressions, on aboutit à l’expression de


F ( R ) suivante :
S

1 
F S (R ) = −  µtr (R )  ∇Φ S (R ) + ( g µ s (R ) µtr (R )) LP (R, sˆ 0 ) sˆ 0 [6.53]
3 

où l’on a défini le coefficient d’atténuation du transport photonique en milieu


trouble :

µtr ( R ) = µt ( R ) − g µ s ( R ) = µ a ( R ) − (1 − g ) µ s ( R ) =
= µa (R ) − µ s ' (R ) [6.54]

avec : µ s ' ( R ) = (1 − g ) µ s ( R )

La longueur de diffusion réduite sera alors :


1
ls ' = [6.55]
µs '
Par analogie avec une loi de Fick donnant la description d’un phénomène de
diffusion :
F ( R ) = − D ⋅∇Φ ( R ) + source [6.56]

On en déduit que le coefficient de diffusion pour la diffusion des photons en


milieu turbide est donné par :
1
D = µtr [6.57]
3
Enfin, si l’on introduit l’expression [6.53] dans l’équation [6.49], on obtient une
équation différentielle régissant la distribution du taux de fluence, appelée équation
de la diffusion :

∇ 2 Φ S ( R ) − 3µ a ( R ) µtr ( R ) Φ S ( R ) =
[6.58]
= 3 g µ s ( R ) ∇LP ( R, sˆ 0 ) sˆ 0 − 3µtr ( R ) µ s ( R ) LP ( R, sˆ 0 )
La tomographie optique 187

Il s’agit là d’une équation du type de la diffusion dont la partie homogène est de


la forme :

∇ 2 Φ S ( R ) − µeff (R ) Φ S (R ) = 0
2
[6.59]

où l’on a défini le coefficient d’atténuation effectif :

µeff ( R ) = 3µ a ( R ) µtr ( R ) [6.60]

Cette équation sera d’une grande utilité dans l’élaboration de la méthode de


tomographie optique basée sur la propagation incohérente de la lumière en milieu
désordonné. Pour une étude détaillée du transport des photons en milieu diffusant, le
lecteur peut se référer au chapitre de Starr dans l’ouvrage [WEL 95].

6.4. Méthodes de tomographie optique

L’objectif des méthodes tomographiques optiques est de donner une image en


coupe d’un objet généralement tridimensionnel inclus dans un milieu translucide.
Les principaux exemples d’application relèvent de l’imagerie médicale :
– observation de masses tumorales : cancer du sein par exemple,
– imagerie fonctionnelle du cortex en neurologie et en neurosciences,
– détection des inflammations, notamment articulaires,
– étude du métabolisme musculaire,
– détection des défauts de l’émail, caries notamment, en dentisterie,
– imagerie de l’œil et de ses constituants : cornée, cristallin, rétine, etc.
– imagerie des muqueuses, épithélium, etc.
– imagerie de la peau,
– etc.

Les méthodes de tomographie optiques sont diverses et doivent être mises en


œuvre en considérant plusieurs critères :
– l’intensité du signal provenant de l’objet recherché,
– la nature de la propagation des photons dans le milieu séparant l’objet
recherché du détecteur,
– l’échelle à laquelle la méthode de tomographie doit être mise en œuvre.
188 La tomographie

Le problème de la nature et de l’intensité du signal recherché et permettant de


délimiter l’objet et de déterminer sa forme est important, car il conditionnera les
performances de la méthode tomographique, à savoir la détectabilité des objets et la
résolution avec laquelle ils seront perçus. De manière générale, la détectabilité
dépend :
– du rapport signal/bruit de l’objet considéré,
– de la fonction de transfert optique reliant l’image de la section de l’objet à
celle captée par les détecteurs ou la camera.

Le signal en tomographie optique est directement lié aux mécanismes


d’interactions lumière-matière, décrits à la section 6.2, c’est-à-dire aux phénomènes
de diffusion élastique et inélastique. Plus précisément, c’est principalement les
caractéristiques d’absorption et de diffusion déterminant la propagation de la
lumière dans l’objet, qui permettent d’obtenir le contraste nécessaire à la détection
de l’objet. Les deux grandeurs traduisent des caractéristiques différentes de l’objet :
la spectroscopie d’absorption traduit la composition en chromophores, alors que les
propriétés de diffusion traduisent les spécificités des formes et de l’arrangement
diélectrique du matériau à l’échelle microscopique.

Le bruit concurrence le signal et réduit la probabilité d’une décision correcte


concernant la présence ou l’absence de l’objet. L’origine du bruit est double : le
bruit des détecteurs ou de la caméra d’origine thermique et électronique, ou de
nature quantique est associé au signal lui-même : bruit de granularité. Dans le cas
d’une détection cohérente, possible dans le cas de la propagation cohérente du
signal optique dans le milieu, le rôle du bruit quantique et des autres bruits du
détecteur se trouve beaucoup diminué en raison du niveau plus important du signal
détecté, niveau dû à la contribution du signal de référence. Cet aspect de la détection
cohérente constitue un avantage des méthodes de tomographie de cohérence. Une
seconde source de bruit peut provenir du milieu désordonné lui-même : on peut
parler de « bruit de structure » dans la mesure où ces fluctuations non interprétables
du signal proviennent de structures non interprétées du milieu entourant l’objet ou
de l’objet lui-même, créant ainsi une variabilité réduisant, elle aussi, la probabilité
d’une décision correcte quant à la présence de l’objet.

Enfin, la fonction de transfert optique décrit mathématiquement la relation entre


l’onde optique traversant l’objet et celle détectée de manière cohérente ou
incohérente par les détecteurs. Elle est donnée par les modèles de propagation de
l’onde dans le milieu, éventuellement désordonné entourant l’objet. Ces modèles ont
été décrits dans le détail à la section 6.3. On distingue entre propagation cohérente et
incohérente. Cette distinction conduit à des expressions fondamentalement
différentes des fonctions de transfert optique. La connaissance des fonctions de
transfert permet le calcul de l’image propagée sur le détecteur, résolvant ainsi le
La tomographie optique 189

« problème direct ». Dans bon nombre de cas, mais malheureusement pas dans tous,
la reconstruction de l’image d’une section de l’objet, par propagation inverse du
signal détecté, est possible par simple inversion de la fonction de transfert optique.
Cette approche répond en partie au problème de la tomographie optique.

Le problème de l’échelle à laquelle la tomographie doit être pratiquée est


déterminant dans le choix de la méthode tomographique utilisée. En effet, comme on
l’a montré dans le paragraphe 6.3.1 consacré à la propagation cohérente de la lumière
en milieu diffusant, la pénétration de l’onde « cohérente », bien que supérieure à ce
que laisse prévoir la théorie de transfert radiatif basée sur la propagation incohérente
de la lumière, ne dépasse cependant pas, en règle générale, quelques millimètres dans
les milieux biologiques, alors qu’elle peut être de plusieurs centimètres dans le cas de
la propagation incohérente de la lumière dans les tissus.

Tomographie optique de cohérence

Dans ce paragraphe, nous allons nous concentrer sur la tomographie optique des
milieux diélectriques pour lesquels la propagation cohérente de l’onde optique
incidente est suffisamment intense pour être utilisée pour la reconstruction de
l’objet. C’est en général le cas sur des distances de quelques millimètres pour des
tissus biologiques. Cette profondeur de pénétration dépend évidemment des
caractéristiques de diffusion du milieu (caractérisée par le coefficient de diffusion
µ s ) et de la longueur d’onde utilisée. En effet, la section efficace de diffusion
augmente assez rapidement avec l’énergie du photon incident. C’est ainsi que la loi
de diffusion de Rayleigh prévoit une atténuation du coefficient de diffusion en
ω −4 (voir [JAC 95]) :

µs  1 ω 4 [6.61]

où ω = 2πν = 2π c λ est la pulsation de l’onde incidente. Ainsi, on cherchera à


travailler aux longueurs d’onde les plus grandes possible, afin de minimiser le rôle
de la diffusion de Rayleigh. Cependant, il faut éviter d’aller jusqu’aux longueurs
d’onde où l’absorption (caractérisée par le coefficient d’absorption µ a ) de certains
chromophores commencent à se faire sentir : l’eau, les graisses et autres composés
organiques absorbent de manière limitative au-delà de longueurs d’onde de 1,4 µm.
Ainsi, un optimum peut être trouvé dans la bande de 1 à 1,3 µm et est conditionné
par la disponibilité des sources optiques dans cet intervalle spectral.

Les premières sources disponibles au début des travaux portant sur la


tomographie optique de cohérence ont été les diodes superluminescentes,
disponibles au début vers 820 nm. Les premières démonstrations des techniques
d’imagerie cohérente ont donc été faites dans le proche infrarouge, mais à des
190 La tomographie

longueurs d’onde trop courtes pour une pénétration optique optimale. Les sources
utilisées par la suite : diodes ou laser pulsé aux alentour de 1 200 nm ont permis une
pénétration atteignant plus de 2 mm.

La tomographie de diffraction
On sait que la conformation tridimensionnelle d’un objet peut être obtenue par
sectionnement de l’objet (tomographie) suivi, optionnellement, d’un réassemblage
de ces sections pour obtenir une image 3D complète. Lorsque des rayons X ou
γ sont utilisés, ces sections sont en général obtenues par projection parallèle ou
conique de la section considérée. Le coefficient d’absorption est, en général, la
fonction que l’on cherche à reconstruire dans la section donnée.

Comme décrit ailleurs dans cet ouvrage (voir chapitre 2), l’algorithme utilisé pour
la reconstruction de la fonction recherchée est basé sur la transformation de Radon et
est appelé algorithme de reconstruction par projection inverse ou rétroprojection. Le
calcul des valeurs de la fonction reconstruite peut faire usage du « théorème de
sectionnement de Fourier » qui sert, dans ce cas, de technique de calcul pour la
reconstruction en « coupe-projection » de la section de l’objet grâce à la
transformation de Fourier. D’autres décompositions en fonctions de base, comme les
ondelettes par exemple, peuvent également conduire à une méthode de calcul
performante. Ce théorème établit que la distribution des valeurs de la fonction f(x)
dans la section considérée peut être calculée simplement par transformation inverse à
partir de la transformée de Fourier bidimensionnelle (s’il s’agit d’une section plane) de
la fonction recherchée. Cette transformée est elle-même obtenue dans le plan de
Fourier, en calculant la transformée de Fourier de la projection de l’image sur un axe
d’angle θ et en la rapportant sur un axe parallèle et passant par l’origine et faisant un
angle θ avec l’axe x. En changeant l’angle θ, le plan de Fourier se trouve balayé
complètement et la transformée 2D de la section peut alors être entièrement
déterminée.

Dans le cas où les longueurs d’ondes sont plus grandes et comparables à la taille
des objets que l’on veut observer, le phénomène de diffusion ou de diffraction de
l’onde incidente par l’objet ou les objets que l’on veut imager prend une grande
importance, au point que la probabilité pour un photon de traverser, sans être
diffusé, le milieu où se trouve l’objet, est pratiquement nulle. L’approche dite
« de projection inverse » développée pour la tomographie par les rayons X ou γ ne
fonctionne plus de la même manière, car il ne s’agit plus d’une projection de l’objet,
mais de l’image diffractée de l’objet. Le théorème de sectionnement de Fourier peut
néanmoins être adapté de la manière suivante (voir [BOR 99, CAR 70, DÄN 70,
KAK 88, POR 89, WOL 69]).

Soit un volume V délimitant dans l’espace un milieu désordonné contenant des


objets diffractant la lumière (voir figure 6.5).
La tomographie optique 191

Figure 6.5. Volume V contenant le milieu diffusant et sphère S entourant V

Selon un raisonnement semblable à celui tenu pour la propagation incohérente


de l’onde au paragraphe 6.3.4, considérons l’onde incidente ou primaire P irradiant
le volume V, une onde diffusée prendra naissance dans le volume V et sera propagée
à l’extérieur de ce volume, c’est le rayonnement secondaire ou diffusé S. L’onde
résultante sera :

Ei (r, ω ) = EiP (r, ω ) + EiS (r, ω ) [6.62]

Les deux composantes P et S satisfont à l’équation de propagation de l’onde


[6.17]. Ici intervient une hypothèse simplificatrice, en général vérifiée à faible
échelle dans les matériaux biologiques ou les matériaux comportant des
hétérogénéités dont les indices de réfraction fluctuent faiblement. On supposera que
la propagation de l’onde primaire n’est pratiquement pas affectée par les
fluctuations de l’indice de réfraction de l’objet diffractant. Seule l’onde diffractée
sera supposée satisfaire à l’équation [6.17] avec un indice de réfraction
fluctuant donné par [6.22]. En introduisant [6.22] dans [6.17] et en transférant la
partie fluctuante de l’indice dans le second membre, on obtient :

1
∇2 EiS (r, ω ) + k 2 (r, ω ) EiS (r, ω ) = − F (r, ω ) EiS (r, ω ) [6.63]

où l’on a posé :

1 2 2
F (r , ω ) = k +n (r, ω ) [6.64]

où k 2 et +n 2 (r, ω ) sont donnés par les expressions [6.18] et [6.22].

F (r, ω ) est appelé potentiel de diffusion et constitue un terme de source pour


l’équation de propagation.
192 La tomographie

Une expression intégrale peut être trouvée pour l’onde diffusée en se basant sur
le développement suivant : considérons les équations [6.19] et [6.63]. En multipliant
la première par − EiS (r, ω ) et la deuxième par G ± (r, r ' ) et en soustrayant l’une de
l’autre, on obtient :

∇ 2 G ± (r, r ') ⋅ EiS (r, ω ) − G ± (r, r ') ⋅∇ 2 EiS (r, ω ) =


[6.65]
= 4π F (r, ω ) EiS (r, ω ) G ± (r, r ') − 4π EiS (r, ω )δ ( (r − r ' )
3)

On peut ensuite faire l’échange r ↔ r ' et tenir compte que


G ± (r, r ') = G ± (r ', r ) . Finalement, l’intégration des deux membres de l’équation sur
le volume d’une sphère S entourant le volume V (voir figure 6.5) et dont le rayon
peut être rendu aussi grand que possible donne une expression du champ EiS (r, ω ) :

EiS (r, ω ) = ∫ d 3r ' ‘F (r ', ω ) Ei (r ', ω ) G ± (r, r ', ω ) −


Sphère

 ∂ G ± (r, r ', ω ) ∂E S (r ', ω ) 



−v d 2 s '  EiS (r ', ω ) − G ± (r, r ', ω ) i 
Surf
 ∂n ' ∂n ' 
[6.66]

On peut montrer que, en tenant compte de l’expression effective de la fonction


de Green [6.23] et d’une expression asymptotique de EiS (r, ω ) , l’intégrale s’annule
pour R → ∞ , laissant l’expression :

EiS (r, ω ) = ∫ d 3r ' ‘F (r ', ω ) Ei (r ', ω ) G ± (r, r ', ω ) [6.67]


V

où l’on a tenu compte du fait que l’intégrale était restreinte au volume V des
diffuseurs où F (r ', ω ) n’est pas nulle.

Finalement, en introduisant cette expression dans [6.62], on trouve une équation


intégrale pour le champ total :

Ei (r, ω ) = EiP (r, ω ) + ∫ d 3r ' ‘F (r ', ω ) Ei (r ', ω ) G ± (r, r ', ω ) [6.68]


V

L’approximation de Born
Le champ total Ei (r, ω ) peut être déduit de l’équation implicite [6.68] par
approximations successives. Dans le cas où les fluctuations de l’indice de réfraction
La tomographie optique 193

à l’origine de l’onde diffusée sont faibles, une approche perturbative peut être
développée ; le champ non perturbé est :

Ei ( ) (r, ω ) = EiP (r, ω )


0
[6.69]

Le calcul peut être fait itérativement en calculant au pas n le champ total au


n-ième ordre, à partir du champ total calculé à l’ordre n – 1 :

Ei ( ) (r, ω ) = EiP (r, ω ) + ∫ d 3r ' ‘F (r ', ω ) Ei ( (r ', ω ) G ± (r, r ', ω ) [6.70]


n n −1)
V

La série converge rapidement vers une très bonne approximation du champ total.
Prenons une image particulaire et considérons le volume V comme une mosaïque de
centres de diffusion indépendants chacun capable de diffuser un photon incident. Si
l’on se contente d’un seul pas d’itération, le champ total Ei (1) (r, ω ) contient le champ
diffusé provenant indépendamment de chaque centre de diffusion, sans qu’une
deuxième diffusion ait lieu. On dira que le calcul est fait en première approximation de
Born (voir figure 6.6).

Figure 6.6. Fronts d’onde dans l’approximation de Born. A : onde incidente ;


B : grosses hétérogénéités ; C : petites hétérogénéités, front d’onde peu perturbé

Cette situation constitue une bonne hypothèse de travail dans les cas où la densité
de centres de diffusion est assez faible ou dans le cas où la tomographie est faite à
194 La tomographie

petite échelle : de l’ordre du millimètre pour les tissus biologiques. Le champ total
parvenant au détecteur provient dans ce cas de diffusions uniques et la cohérence de
l’onde diffusée est maintenue. Il est alors possible d’avoir recours à une détection dite
« cohérente » qui présente une sensibilité accrue, pouvant atteindre quelques photons,
une dynamique importante traduisant une profondeur importante de l’image.

Dans le cas où le coefficient de diffusion est plus important, la probabilité d’une


diffusion unique devient trop faible pour permettre une imagerie basée sur la
détection des ondes propagées de manière cohérente. Mathématiquement, le
champ Ei (1) (r, ω ) ne constitue plus une approximation suffisante du champ total et
les itérations doivent être multipliées. Ces opérations traduisent la présence de
diffusions multiples des photons se propageant dans le milieu diélectrique.

Principe de la reconstruction de l’objet en tomographie de diffraction


En admettant la validité de la première approximation de Born [6.68] devient :

Ei ( ) (r, ω ) = EiP (r, ω ) + ∫ d 3r '‘F (r ', ω ) Ei (r ', ω ) G ± (r, r ', ω )


1 P
[6.71]
V

Si l’on prend, comme onde incidente ou onde primaire, une onde plane se
propageant dans la direction r̂0 (vecteur unitaire) avec le vecteur d’onde :

EiP (r, ω )  exp (ik ⋅ sˆ 0 ⋅ r ) [6.72]

Si l’on fait, par ailleurs, l’hypothèse que l’onde diffractée est captée à une
distance assez grande du milieu diffractant :

r − r '  r − sˆ ⋅ r ' [6.73]

où ŝ est le vecteur unitaire dans la direction du vecteur r (voir figure 6.7).

Figure 6.7. Approximation de r −r' aux grandes distances


La tomographie optique 195

La fonction de Green devient :


exp ( ±ik ⋅ r )
G ± (r , r ', ω )  ⋅ exp ( −ik ⋅ sˆ ⋅ r ') [6.74]
r
[6.71] devient :
Ei ( ) (r, ω )  exp (ik ⋅ sˆ 0 ⋅ r ) +
1

exp ( ±ik ⋅ r )
+  ∫ d 3r 'F (r ' ) exp ( −ik ⋅ (sˆ − sˆ 0 ) ⋅ r ' ) = [6.75]
r
exp ( ±ik ⋅ r )
= exp (ik ⋅ sˆ 0 ⋅ r ) + F ( k ⋅ (sˆ − sˆ 0 ))
r
Ce qui signifie que l’onde cohérente résultant de l’interaction avec le centre de
diffusion comprend, en plus de l’onde incidente, une onde diffusée propagée
sphériquement à l’endroit du centre de diffusion et dont l’amplitude complexe est
donnée, en amplitude et en phase, par la transformée de Fourier 3D du potentiel de
diffusion du centre de diffusion, évaluée au point K de l’espace réciproque donné
par :

K = k (sˆ − sˆ 0 ) [6.76]

Si l’on représente graphiquement (voir figure 6.8) le lieu parcouru par le vecteur
K lorsque l’on considère des directions variables ŝ de l’onde diffractée, on constate
que K décrit un cercle de rayon k passant par l’origine O de l’espace réciproque et
centré à l’extrémité P du vecteur − ksˆ 0 .

Figure 6.8. Lieu de l’extrémité du vecteur K lorsque la direction de l’onde diffusée ŝ


varie angulairement (onde incidente ŝ 0 fixée)

Afin de balayer l’espace réciproque de manière dense, on peut varier ŝ 0 dans


toutes les directions en déplaçant ainsi O sur une sphère de centre O’ et de rayon k
(voir figure 6.9).
196 La tomographie

On peut aussi balayer l’espace réciproque en changeant k, c’est-à-dire en


changeant la longueur d’onde λ du faisceau incident (voir figure 6.10). Une
combinaison des deux approches est également possible : ŝ 0 et k .

Figure 6.9. Balayage de l’espace réciproque


lorsque la direction de l’onde incidente ŝ 0 varie

Figure 6.10. Balayage de l’espace réciproque lorsque la longueur d’onde λ varie

Cette description peut évidemment être généralisée au cas tridimensionnel,


auquel cas le vecteur K décrit une sphère de rayon k et passant par l’origine O de
l’espace réciproque : cette sphère est appelée sphère d’Ewald, en faisant ainsi
référence aux travaux du cristallographe Ewald. Ainsi donc, par un jeu de
combinaisons des vecteurs sˆ, sˆ 0 etk , il est possible d’échantillonner la valeur
de F (K ) en tous les points de l’espace réciproque compris dans une sphère de
rayon :

K ≤ 2k = 4π λ [6.77]
La tomographie optique 197

et qui sera appelée sphère limite d’Ewald (représentée à la figure 6.9).

Par transformation de Fourier 3D inverse de F (K ) , on obtient une valeur


1 2 2
« filtrée » du potentiel de diffusion F (r, ω ) = k +n (r, ω ) , traduisant la

répartition de l’écart de l’indice de réfraction +n 2 (r, ω ) , produite par la
composition spatiale du matériau. La résolution avec laquelle cette distribution de
l’indice de réfraction peut être estimée est donc de λ 2 .

Collecte des données


Pratiquement, la collecte des données peut être faite sur l’objet en effectuant une
mesure du champ Ei (1) (r, ω ) sur un plan placé en avant de l’objet (voir figure 6.11)
et en le tournant selon un axe de rotation s’il est de symétrie cylindrique comme
c’est souvent le cas de fibres, fibres optiques en particulier [WED 95], ou selon
deux axes de rotation si ce n’est pas le cas. Cette solution a été adoptée, il y a
longtemps déjà, dans le cas de la mesure de la diffraction des cristaux par les rayons
X. Une solution plus lourde et pratiquement jamais utilisée en tomographie optique
serait de tourner tout le dispositif optique(voir figure 6.11).

Figure 6.11. Collecte du champ diffracté sur la surface sortante Z


et rotation de l’objet diffractant

Une solution partielle au problème posé par la tomographie de diffraction peut


être trouvée sans effectuer de rotation de l’objet, en collectant le champ diffracté sur
deux plans, les plus larges possible, enserrant l’objet de part et d’autre (figure 6.12).
La surface de collecte est néanmoins limitée par l’ouverture numérique du dispositif
optique collectant la lumière dans les deux plans.
198 La tomographie

Figure 6.12. Collecte du champ diffracté sur la surface entrante Z’ et sortante Z

Un balayage du vecteur d’onde incident peut alors être effectué et les valeurs du
champs collectées sur les deux plans en vue de la reconstruction à partir de F ( K ) .

Il est à noter qu’il s’agit bien du champ complexe Ei (1) (r, ω ) , en amplitude et
phase, qui doit être collecté et pas seulement en intensité. Cette exigence constitue
une difficulté supplémentaire, car cette information nécessite une technique
d’acquisition des données plus complexe : le plus souvent, une technique
interférométrique doit être utilisée pour obtenir la phase, bien qu’une approche non
interférométrique ait aussi été proposée. Une approche basée sur la reconstruction
du front d’onde par holographie digitale appliquée à la microscopie est en cours de
développement (voir par exemple [CUC 97, CUC 99a, CUC 99b, CUC 00a,
CUC 00b, CUC 00c]). Celle-ci permet de calculer directement F (K ) à partir de
l’hologramme collecté sur une caméra par le calcul du champ complexe
rétropropagé jusqu’au plan de l’objet. Pour cela, il est fait usage de l’expression de
diffraction de Huygens-Fresnel, permettant de résoudre aisément aussi bien le
problème de la propagation directe que celui de la propagation inverse du champ.
Cette propagation est décrite mathématiquement par le terme :

exp ( ±ik ⋅ r )
[6.78]
r

dans l’expression du champ total Ei (1) (r, ω ) : [6.75].

Les difficultés éprouvées à collecter ces informations de phase sous des angles
difficiles à obtenir pratiquement en microscopie font que la tomographie de
diffraction ne s’est que peu développée, bien que les informations
La tomographie optique 199

tridimensionnelles concernant les propriétés diélectriques des matériaux biologiques


et non biologiques soient du plus haut intérêt dans de nombreuses applications.

La tomographie optique de cohérence


La technique de tomographie optique qui a certainement trouvé les applications
les plus nombreuses est la tomographie optique de cohérence (en anglais optical
coherence tomography). Il s’agit d’un cas particulier de la technique de tomographie
de diffraction présentée au paragraphe précédent. On ne collecte dans ce cas que le
champ rétrodiffusé, c’est-à-dire diffusé une seule fois avec un vecteur d’onde :

k = ksˆ = −k 0 = − ksˆ 0 etK = −2sˆ 0 = −2ksˆ 0 [6.79]

Ainsi donc, F ( K ) est évalué dans ce cas seulement sur le segment de longueur :

K max − K min = −2 ( kmax − kmin ) sˆ 0 = −2+k ⋅ sˆ 0 [6.80]

avec la relation : +k = +ω nc ≈ 2π +λ nλ 2 .

Cette situation particulière est illustrée à la figure 6.13, où l’on voit que le lieu
de l’espace réciproque décrit en variant la longueur d’onde λ est un segment σ. On
comprend dès lors que l’information est bien résolue dans la direction ŝ 0 , mais pas
dans le sens perpendiculaire, ce qui nécessite le recours à une technique de
balayage. Une revue des différents travaux concernant la tomographie optique de
cohérence peut être trouvée dans : [BEA 98, BRE 98, DRE 99, DRE 01, FER 96,
FUJ 98, HUA 91, PUL 97, SWA 93].

Figure 6.13. Lieu balayé en tomographie optique de cohérence : il s’agit du segment V


parcouru par K variant avec la longueur d’onde λ
200 La tomographie

Rôle de la longueur de cohérence


La résolution longitudinale de l’instrument sera donnée très approximativement
par +r = 2π 2+k = nλ 2 2+λ . On peut imaginer utiliser une source de longueur
d’onde variable et calculer l’image par les sommes de Fourier. Une approche
beaucoup plus simple et utilisée universellement consiste à avoir recours à une
source à large bande spectrale [CLI 92]. A la limite, une source blanche offre les
meilleures résolutions. L’instrument ressemble dans ce cas à un interféromètre en
lumière blanche. Plus exactement, la résolution de l’instrument sera donnée par la
longueur de cohérence de la source qui est donnée par la relation :

lc = 4 ⋅ ln ( 2 ) π ⋅ λ 2 +λ [6.81]

Le graphique de la figure 6.14 donne la fonction d’autocorrélation du signal


optique délivré par la source de faible cohérence avec mention de la longueur de
cohérence.

Figure 6.14. Fonction d’autocorrélation d’une source de faible cohérence,


W :délais, lc :longueur de cohérence, I :intensité

Les sources de faible cohérence temporelle utilisées pour la tomographie optique


dite de « faible cohérence » sont très souvent des diodes superluminescente dont la
largeur de bande est environ ∆λ = 25 nm pour λ = 830 nm, ce qui donne une
longueur de cohérence d’environ lc = 25 µm. Par la suite d’autres sources de faible
cohérence ont été utilisées : des sources à 1 310 nm ont été préférées en raison du
fait que le coefficient de diffusion est plus faible, donc la pénétration meilleure. Des
lasers pulsés (Titane-Saphir à modes bloqués) avec des temps d’impulsion
extrêmement courts (de l’ordre d’une dizaine de femtoseconde) ont été utilisés
comme sources de très faible cohérence : les longueurs de cohérence atteintes sont
La tomographie optique 201

de l’ordre du micron. La largeur de bande équivalente du laser atteint près de 350


nm autour d’une longueur de 800 nm. Ces superrésolutions permettent d’entrevoir
les premières structures cellulaires : préparation de cellules du crapaud africain
appelé « tadpole » [DRE 99], les résolutions restent cependant trop faibles encore
pour observer des cellules épithéliales humaines dans des conditions permettant un
diagnostic en toute sécurité.

Le principe de détection cohérente


Dans son principe, l’instrument se présente sous la forme d’un interféromètre
(de type Michelson dans ce cas : figure 6.15a) dont le bras de référence a une
longueur qui peut être variée. Lorsque la longueur du bras de mesure est égale à la
longueur du bras de référence, les interférences apparaissent car l’intensité mutuelle
(voir) est différente de zéro dans ce cas et dans ce cas seulement. Si l’on élimine la
composante continue du signal, le signal résiduel donne la composante cohérente du
signal rétrodiffusé, qui ne représente qu’une petite partie du signal optique total. Les
instruments sont devenus particulièrement performants lorsqu’une technique de
détection dite « hétérodyne » a pu être mise en œuvre : afin d’obtenir le balayage en
profondeur, le miroir de référence est déplacé à une vitesse en principe constante ou
variant peu, de façon à reporter en synchronisme sur l’image l’intensité du signal
détecté et représentant « l’écho », tout comme le ferait un « radar ». Ce déplacement
du miroir de référence crée un effet « Doppler », c’est-à-dire un léger décalage de
fréquence ou de longueur d’onde du faisceau optique de référence. Lors de
l’apparition d’un signal provenant du faisceau de mesure, un battement naît de
l’interférence entre signal de mesure et le signal de référence. Ce battement est un
signal comportant une composante alternative qu’il est facile de filtrer et de
distinguer du signal continu. Ce mode de détection permet une grande sensibilité et
une grande dynamique (pouvant atteindre plus de 120 décibels, c’est-à-dire près de
12 décades en puissance optique). Cette grande sensibilité résulte aussi des
avantages spécifiques de la détection « cohérente ». En effet, la partie de l’intensité
mesurée par le détecteur optique, qui résulte de l’interférence du signal de mesure
avec le signal de référence, est proportionnelle au produit des amplitudes des deux
signaux. Ainsi, si l’amplitude du signal de référence est forte, bien plus forte que
celle du signal de mesure, il en résulte un effet d’amplification qui permet au
détecteur de délivrer un signal supérieur aux bruits thermiques, associés ou non au
courant noir, ou même aux bruits électroniques résiduels. Une détection au niveau
de quelques photons est alors possible. La réalisation d’instruments fait appel
généralement aux technologies des fibres optiques, plus simples et plus robustes
pour une utilisation pratique. Le schéma de principe d’un tel instrument est donné à
la figure 6.15b. Le miroir semi-transparent ou le cube séparateur de faisceau est
remplacé par un coupleur optique, et un modulateur de phase peut être
optionnellement monté dans la fibre de mesure ou de référence.
202 La tomographie

Figure 6.15. a) Dispositif optique pour la détection cohérente du faisceau rétrodiffusé


en tomographie optique de cohérence (OCT) ;
b) dispositif OCT réalisé avec des fibres optiques

Le balayage latéral
La technique instrumentale utilisée pour la tomographie optique de cohérence ne
fournit en elle-même aucune donnée concernant la structure de l’objet diffractant
dans sa dimension latérale, c’est-à-dire perpendiculaire à l’axe du faisceau. Afin de
pallier cette lacune, il convient de balayer latéralement l’objet diffractant. Pour cela,
le faisceau doit être focalisé sur l’objet à visualiser de façon à minimiser le diamètre
du faisceau. Un exemple de montage avec un miroir oscillant est donné figure 6.16.

Figure 6.16. Balayage latéral en OCT


La tomographie optique 203

Dans le cas de l’instrument réalisé avec des fibres optiques monomodes, un


système confocal se trouve de ce fait réalisé. Il combine l’avantage de la résolution
latérale améliorée, en raison de la double fonction de transfert (fonction de transfert
convoluée avec elle-même) avec l’élimination de la lumière diffusée hors du point
focal. Le système confocal présente cependant l’inconvénient d’une trop faible
profondeur de champ associée à la recherche d’une grande résolution latérale. Un
compromis doit donc être trouvé : il faut déterminer la résolution minimale
admissible pour que celle-ci reste supérieure au seuil fixé tout le long du trajet
effectué en profondeur par le faisceau de mesure.

La tomographie de cohérence dans le domaine temporel


La tomographie de cohérence dans le domaine temporel est la technique la plus
répandue. L’acquisition de l’image se fait séquentiellement en balayant
successivement l’image en profondeur (s variable) en faisant coulisser le miroir de
référence, puis en déplaçant le faisceau perpendiculairement pour reprendre une
nouvelle ligne de l’image. Il va de soit que de nombreux perfectionnements ont été
apportés pour accélérer le balayage en profondeur et en largeur [BAL 97]. Nous
n’entrerons pas dans les détails de réalisation. Des vitesses d’acquisition atteignant
1-2 milles/lignes par secondes sont possibles de façon à ce que le nombre d’images
présentées par seconde puisse atteindre vingt, si l’on se contente d’une centaine de
lignes par images.

La figure 6.17 montre une image typique du fond de l’œil (fundus) : on aperçoit
dans la région de la fovéa la surface rétinienne avec l’épithélium pigmentaire et des
détails jusqu’à la choroïde.

Figure 6.17. Exemple de l’image OCT du fond de l’œil montrant la fovéa


avec le profil rétinien, épithélium pigmentaire et choroïde (512 × 1024 pixels)
(avec l’aimable autorisation de Carl Zeiss Ophtalmic Systems, Humphrey division)
204 La tomographie

La tomographie de cohérence dans le domaine spectral


Si l’on revient aux équations [6.75] donnant le champ photonique Ei (1) (r, ω ) ,
rétrodiffusé en amplitude et phase et si l’on tient compte dans l’équation que sˆ = −sˆ 0
et si l’on admet négligeable la dépendance en 1 r du deuxième terme, on s’aperçoit
que Ei (1) (r, ω ) évalué en amplitude et phase aux différentes longueurs d’ondes
correspondant aux valeurs de k dans un intervalle suffisamment large permet de
trouver directement la valeur de F ( 2k ⋅sˆ 0 ) , qui est la transformée de Fourier du profil
d’indice recherché : F ( s ⋅sˆ ) . On supprime ainsi le balayage en profondeur.
Pratiquement, il faut placer un spectrographe à la sortie de l’interféromètre de
Michelson, comme le montre la figure 6.18. Un calcul numérique de la transformée de
Fourier fournit une ligne de l’image. On peut espérer aussi avec cette approche évaluer
le coefficient d’absorption optique du milieu.

Figure 6.18. OCT « spectral »

6.5. La tomographie optique en milieu fortement diffusant

Dans les cas où le milieu est fortement diffusant ou lorsque le chemin parcouru
par la lumière dans ce milieu atteint plus de quelques millimètres, la contribution
des ondes propagées de manière cohérente devient négligeable. Les méthodes de
tomographie dites de cohérence sont caduques. La perspective de disposer de
La tomographie optique 205

techniques de tomographie subsiste cependant dans ce cas. Il faut alors parler de


techniques au pluriel, car les approches sont multiples. Elles sont cependant basées
pour la plupart soit sur l’utilisation de l’équation de transport radiatif ou équation de
transport de Boltzmann (voir équation [6.42]), soit sur l’équation de la diffusion
(voir équation [6.58] du paragraphe 6.3.4).

Pour une compréhension plus détaillée du domaine, on peut recommander une


lecture de [ALF 95, ALF 96, ALF 97, ALF 99, ALF 97, ALF 99, ARR 97a,
ARR 97b, ARR 93, BEN 95, HEB 97, HEB 99, MUE 93, ONO 00, PEI 01].

6.5.1. Modèle direct, modèle inverse

On se référera à la figure 6.19 pour une illustration des concepts développés : la


position des sources et des détecteurs est arbitraire dans ce cas. Ils peuvent aussi
bien être placés sur des plans situés de part et d’autre de l’objet tomographié.

Figure 6.19. Arrangement des sources et des détecteurs en tomographie des milieux
fortement diffusants. On distingue le lieu de propagation de la lumière diffusée
entre la source S1 et le détecteur D3 : « banane » ou « fuseau »

L’approche de base consiste à développer un modèle direct décrivant la


propagation incohérente de la lumière en milieu diffusant. Ce modèle relie les
caractéristiques optiques du milieu diffusant qui constituent l’input du modèle, à
savoir les paramètres que nous désignerons par le terme générique p (rk ) vecteur
indicé par l’ensemble des points d’échantillonnage rk avec k = 1, 2… l, où l est le
nombre de points de l’image (pixel) :
– la répartition des coefficients de diffusion µ s et d’absorption µ a ,
– des moments de la fonction de phase g1 , g 2 ... , gn,
– l’indice de réfraction moyen du milieu n (r, ω ) ,
206 La tomographie

aux grandeurs décrivant certaines caractéristiques du champ photonique sur le bord


du milieu diffusant, aux détecteurs, ou éventuellement distribué dans le milieu
diffusant et qui constituent l’output du modèle, à savoir les grandeurs suivantes,
( )
que nous pouvons aussi désigner par un terme générique U !Si , ! Dj indicé par les
positions respectives des m sources : ! avec i = 1, 2…m et des n détecteurs ! Dj avec
S
i

j = 1, 2…n :
– la distribution de la radiance L(r, sˆ ) (voir paragraphe 6.3.4) ou,
– la fluence Φ (r ) mesurée par les détecteurs, en général sur les bords du milieu.

Il faut également prendre en compte dans le modèle direct un certain nombre de


données qui le définissent complètement : caractéristiques de la ou des sources
d’illumination : irradiance ; les conditions de bord : délimitation du milieu ; et les
propriétés optiques externe (supposées être connues). Le modèle direct peut être
formalisé en introduisant la relation fonctionnelle F [ ] :

U (!Si , ! Dj ) = F S (Uk ) [6.82]

Le modèle inverse fonctionne en sens contraire, c’est-à-dire qu’il permet de


relier, si possible de manière univoque, l’output à l’input, donc de retrouver les
caractéristiques optiques du milieu à partir du champ photonique mesuré aux
frontières du milieu diffusant. Ce modèle inverse peut être représenté
symboliquement par la relation :

p (rk ) = F−1  U (!Si , ! Dj ) [6.83]

Ces caractéristiques fournissent une image tomographique dont les principales


informations concernent la composition et l’organisation tissulaire ainsi que leur
activité métabolique, notamment concernant le degré d’oxygénation tissulaire. Il
apparaît que l’existence d’un modèle inverse n’est pas garantie. A maints égards, le
problème se présente comme mal posé et l’unicité de la solution n’est souvent pas
vérifiée. Il apparaît cependant que la recherche d’informations a priori concernant les
images tomographiques et la définition de certaines conditions aux limites
supplémentaires contribuent de manière efficace à lever les indéterminations. On peut
même parier que la tomographie optique des milieux fortement diffusant sera à
l’avenir, dans une majorité de cas, une technique d’imagerie associée à une autre
technique d’imagerie telle que l’IRM (imagerie par résonance magnétique nucléaire),
l’imagerie ultrasonique ou encore la tomographie computérisée par émission de
photons isolés (SPECT) ou par émission électron-positron (PET). A l’inverse de la
tomographie optique de cohérence, le but de la tomographie optique en milieu
La tomographie optique 207

fortement diffusant apparaît de plus en plus clairement, non pas comme une méthode
capable de fournir des images de haute résolution, mais bien plutôt comme une
méthode d’imagerie capable de fournir des informations sur le fonctionnement des
organes et tissus, donc plutôt une technique d’imagerie fonctionnelle.

6.5.2. Modèle direct

Les équations de transport radiatif ou de Bolzmann et l’équation de la diffusion


sont à la base du développement du modèle direct. Ces équations traduisent les lois
régissant le transport de photons dans le milieu diffusant.

[Link]. Fluence
L’équation de la diffusion [6.59] est utilisée dans la plupart des travaux se
rapportant au modèle direct en tomographie. L’approche numérique est plus simple,
car l’équation porte sur une grandeur scalaire : la fluence photonique Φ (r ) ou
distribution des intensités photoniques cumulées, circulant dans toutes les directions
au point P. L’équation relie Φ (r ) aux constantes optiques du milieu et peut être
résolue de différentes manières :
– des solutions analytiques pour les fonctions de Green existent pour beaucoup
de géométries simples : sphères, ellipsoïdes, cylindres, plaque, semi-espace, etc. ;
– dans les autres cas : géométries plus complexes du milieu diffusant, ou lorsque
les hétérogénéités du milieu lui-même sont complexes, des techniques numériques
sont utilisables : la méthode de Monte-Carlo offre une approche générale. Elle
consiste à simuler la trajectoire aléatoire des photons dans le milieu diffusant en
tirant au hasard la survenue des événements de diffusion. Le défaut de la méthode
est qu’elle est lente et nécessite beaucoup de temps-calcul ;
– la résolution de l’équation de diffusion peut être faite plus rapidement en ayant
recours à des méthodes numériques telles que la méthode des éléments finis ou celle
des différences finies.

[Link]. Radiance
Il faut cependant se rappeler que l’équation de la diffusion résulte d’hypothèses
simplificatrices portant essentiellement sur la continuité de la fluence Φ (r ) . Cette
équation ne permet pas de prédire la fluence réelle au voisinage des discontinuités :
source de lumière, bords, variations rapides de la fluence et du flux de photons,
puits de lumière : en général, le coefficient d’absorption est supposé beaucoup plus
petit que le coefficient de diffusion. Dans ce cas, il faut revenir à l’équation de
transfert radiatif elle-même (équation [6.42]).
208 La tomographie

Le calcul est alors plus complexe dans ce cas, puisqu’il faut évaluer
numériquement une fonction de deux variables : la radiance L ( R , sˆ ) , fonction de la
position dans l’espace R et de la direction de propagation ŝ . Les calculs peuvent
être faits, dans ce cas également, soit par une méthode de Monte-Carlo, soit par une
méthode numérique : celle des éléments finis ou des différence finies. Ces calculs,
bien que plus longs, apportent une meilleure description de la répartition de la
lumière dans toutes les situations où le milieu diffusant comporte des cavités ou des
inclusions de liquides ou de matériaux non diffusants [HIE 98]: on connaît le cas du
cerveau où le liquide cérébrospinal est en général un liquide clair qui constitue un
bon exemple de milieu non diffusant inclus dans un matériau diffusant, à savoir la
matière grise ou la matière blanche du cerveau. Le calcul de la radiance permet dans
ce cas de tenir compte dans plus de détail des régions frontières entre les
circonvolutions cérébrales et le liquide cérébrospinal, où l’on a une forte anisotropie
de la radiance. Ce raffinement de détails a son importance dans la mesure où la
conjugaison de la tomographie optique avec d’autres techniques d’imagerie telles
que, typiquement dans ce cas, l’imagerie par résonance magnétique nucléaire, qui
donnent des précisions millimétriques dans la mesure de la morphologie des tissus.
Ces informations complémentaires permettent d’affiner considérablement
l’estimation locale des paramètres optiques et notamment une spectroscopie fine des
tissus cérébraux.

Un autre domaine où l’estimation de la radiance doit être faite de préférence à la


fluence est celui où l’on travail à petite échelle (millimétrique) et où la répartition et
la propagation du flux photonique est influencée par la fonction de phase
caractérisée par les moments g1 , g 2 ... Il a été montré dans ce cas que le deuxième
moment joue un rôle significatif dans l’estimation des fluences et des radiances
[BEV 98, BEV 99a, BEV 99b, DEP 99]. Le domaine concerné est notamment celui
des « biopsies optiques » pratiquées in vivo et où l’examen des tissus se fait à
l’échelle du millimètre cube, c’est-à-dire à une échelle où l’équation de la diffusion
ne peut s’appliquer en raison de la forte anisotropie du faisceau incident.

6.5.3. Modèle inverse

Le développement du modèle inverse a pour objectif, quand cela est possible, de


calculer les coefficients optiques caractérisant le milieu diffusant : la répartition des
coefficients de diffusion µ s et d’absorption µ a , le premier et parfois le deuxième
moments (dans le cas particulier des faibles distances) de la fonction de phase :
g1 , g 2 .

Dans de très nombreux cas, probablement la plupart, ce ne sont pas les valeurs
des coefficients optiques eux-mêmes que l’on cherche à obtenir, mais les écarts de
La tomographie optique 209

ces coefficients par rapport à la « normale » tissulaire (en toile de fond) ou encore,
dans l’évolution temporelle, les variations des coefficients optiques. Ces variations
traduisent la présence de pulsations cardiaques et/ou les variations associées aux
changements métaboliques des tissus : cérébraux, musculaires, provoqués par
l’activité cérébrale ou musculaire ou encore par des phénomènes de vasomotricité.
L’étude des écarts ou variabilités est en général basée sur une méthode de
perturbations : les écarts sont quantifiés et introduits dans une équation vectorielle.

Il existe de multiples façons d’aborder et, dans certains cas, de résoudre le


problème inverse. On distinguera principalement les méthodes itératives et celles
d’inversion directe.

6.5.4. Méthodes itératives

L’idée est simple : il s’agit de définir une distribution « à l’essai » des


coefficients optiques, principalement sur la base d’informations a priori,
connaissant le type de tissus, ou les géométries attendues des organes et tissus. Ces
données a priori peuvent, par exemple, provenir d’autres techniques d’imagerie ou
d’une mesure préalable, s’il s’agit d’une évolution temporelle. La distribution des
fluences ou radiances photoniques est ensuite calculée à l’aide de modèles directs
décrits à la section précédente et les résultats comparés avec les données
expérimentales, c’est-à-dire les intensités optiques collectées par les détecteurs. La
différence entre prédictions et mesures doit être quantifiée à l’aide d’une fonction
d’erreur qui sera définie en pondérant le vecteur des mesures expérimentales. Une
nouvelle distribution des paramètres optiques sera alors définie à partir de l’erreur
calculée, par une méthode dite « de pente maximale », c’est-à-dire procurant la
décroissance maximale de l’erreur pour l’écart choisi de la distribution. Si la
distribution à l’essai est assez proche de la réelle et les conditions propres du
problème : géométrie de l’ensemble source-détecteurs et du milieu diffusant, sont
favorables (problème « bien posé »), la convergence est en général assez rapide. Il
peut arriver que la stabilité de la solution ne soit pas garantie et que de grosses
fluctuations et écarts avec les valeurs réelles soient observés.

Un avantage de la méthode itérative est qu’elle ne repose sur pratiquement


aucune hypothèse restrictive. En particulier, elle permet de traiter en toute généralité
les non-linéarités entre coefficients optiques et distributions de l’intensité lumineuse
à la surface du milieu diffusant. Les méthodes d’optimisation mises en œuvres
permettent ainsi une méthode de reconstruction applicable en toute généralité.
210 La tomographie

6.5.5. Méthode perturbative

Considérons le vecteur des « écarts » ou des « variations » des paramètres optiques


+p (rk ) . Après linéarisation et dans un modèle direct, ces écarts peuvent être rattachés
( )
à ceux des grandeurs optiques mesurées +U !Si , ! Dj par une relation matricielle :

+U (!Si , ! Dj ) = - + (!Si , ! Dj , Uk ) ⋅+S (Uk ) [6.84]

où l’on a introduit la matrice jacobienne J + (!Si , ! Dj , Uk ) . Dans certains cas, cette


matrice est inversible :

+p (rk ) = J +
−1
(! , !
S
i
D
j , Uk ) ⋅+8 (!Si , ! Dj ) [6.85]

mais on se heurte souvent à des problèmes de stabilité. Notamment, les valeurs


initiales estimées p (rk ) jouent un rôle dans la fiabilité et la stabilité des estimations
des variations +p (rk ) .

6.5.6. Reconstruction par projection inverse

L’idée d’étendre « pragmatiquement » à la tomographie optique l’algorithme de


projection inverse utilisé en tomographie des rayons X et γ a été proposée très tôt pour
résoudre le problème inverse, aussi en tomographie optique. Au lieu de procéder à une
intégrale sur le rayon projeté, il faut intégrer sur un fuseau reliant sources et détecteurs
(voir figure 6.19). Il représente la probabilité ou l’intensité (fluence) sur le trajet
emprunté par les photons de la source au détecteur. Dans le cas d’une géométrie
cylindrique ou sphérique, ce fuseau prend l’allure d’une banane, terme désormais
consacré pour décrire la trajectoire probable d’une source à un détecteur. Dans ce cas,
le théorème de sectionnement de Fourier s’applique en première approximation et
donne au problème inverse une solution stable, bien que grossière.

6.5.7. Le domaine temporel

L’idée d’utiliser des impulsions de lumière très courtes (de l’ordre de la


picoseconde ou de la dizaine de picoseconde) et une fenêtre temporelle très étroite(du
même ordre de grandeur) pour la détection a été proposée assez tôt au cours du
développement de la tomographie optique. Dans l’image présentée au paragraphe
précédent, l’introduction d’une discrimination temporelle permet de réduire la taille du
fuseau ou de la banane, en les rapprochant ainsi du rayon étroit de la tomographie
projective. La figure 6.20 illustre l’évolution temporelle du signal optique collecté par
les détecteurs sur les bords du milieu diffusant.
La tomographie optique 211

Figure 6.20. Evolution temporelle « théorique » de l’intensité optique


collectée par un détecteur lors de l’application d’une impulsion optique très courte
et montrant la propagation distincte des photons balistiques et serpentiles

Dans cette description impulsionnelle de la propagation des photons en milieu


diffusant, on distingue plusieurs catégories de photons :
– les balistiques sont les photons qui pénètrent dans les tissus sans subir
d’interaction, c’est-à-dire sans diffusion élastique ou inélastique, ce sont donc les
photons qui se propagent en ligne droite et en un temps de transit minimum. Ils vont
donc sortir du milieu diffusant, groupés, c’est-à-dire sous la forme d’une impulsion
étroite (si l’on ne tient pas compte du phénomène de dispersion chromatique qui va
élargir un peu l’impulsion) ;
– les serpentiles sont les photons qui vont subir des diffusions élastiques avec
des angles de diffusions faibles. Les photons ne seront donc que peu déviés, si bien
que les trajectoires seront tendues et les temps de transit les plus courts, photons
balistiques exceptés ;
– le reste des photons arrivera dans le gros du peloton, avec des temps de transit
croissants et des chemins de plus en plus complexes, s’écartant de plus en plus de la
trajectoire rectiligne. C’est surtout cette catégorie de photons qui est à l’origine du
flou affectant l’image des objets contenus en milieu diffusant.

Cette description est en fait également valable pour les photons dans le domaine
des rayons X et γ. La grande différence est que dans le domaine des photons
optiques, les ballistiques, que l’on appelle aussi rayonnement primaire en radiologie,
sont pratiquement inexistants après un parcours de quelques millimètres. On peut
donc les utiliser en tomographie incohérente des milieux diffusants. Les photons
« utiles » sont dans ce cas les serpentiles qui, selon l’étroitesse des impulsions et de
la fenêtre temporelle, vont permettre de restaurer une modalité d’imagerie dite
« projective », qui confère à la radiologie, la qualité des images que l’on connaît.

Pour plus de lectures [DEH 93, DEH 96, MIT 94, SOL 97].
212 La tomographie

6.5.8. Le domaine fréquentiel

L’instrumentation utilisée pour la tomographie dans le domaine temporel est


coûteuse et délicate à utiliser : laser pico- ou femtoseconde, caméra ultra rapide, (à
balayage de fente). L’idée de travailler dans le domaine fréquentiel, de préférence
au domaine temporel, est donc apparue d’emblée attractive. En principe les
domaines sont « duaux » l’un de l’autre et s’obtiennent réciproquement par
transformée de Fourier portant sur la variable temporelle. On peut donc supposer
qu’ils permettent d’obtenir les mêmes résultats. L’instrumentation dans le domaine
fréquentiel paraît plus simple à mettre en œuvre et aussi moins onéreuse : il suffit de
travailler dans le domaine de quelques centaines de mégahertz en maîtrisant des
déphasages de l’ordre du degré, ce qui paraît atteignable sans trop de sophistication
avec les composants photo-électroniques désormais habituels : diodes laser
modulées en radiofréquence, photodétecteurs rapides : diodes PIN, diodes photo-
avalanches ces composants ayant été développés pour répondre aux besoins du
marché des télécommunications. Les résolutions en phase de l’ordre du degré ou
même inférieures correspondent dans le domaine temporel à des décalages
temporels aussi faibles que quelques centaines de femtosecondes. De très nombreux
travaux de recherche visant à exploiter le domaine fréquentiel dans le domaine de
l’imagerie ont donc été réalisés.

Une perspective attrayante est notamment de restaurer une modalité d’imagerie


tomographique proche de la tomographie de diffraction (voir paragraphe [Link]) en
générant des ondes de densité de photons. Il s’agirait ainsi de restaurer l’idée
d’utiliser ainsi des ondes « pseudo cohérentes » composées de photons incohérents,
mais groupés par paquets, de façon à « structurer » l’espace réel et réciproque. Les
ondes de densité de photons sont faciles à réaliser en modulant en amplitude les
diodes laser disponibles en grandes quantités et à faibles coûts dans le proche
infrarouge.

Ces travaux ont démontré une réelle amélioration de la résolution des images
obtenues par reconstruction, mais une chute dramatique de l’intensité des signaux
utiles pour des épaisseurs de tissus de quelques centimètres, ce qui se traduit par une
dégradation importante du rapport signal/bruit des images. Après déconvolution, il
apparaît que, pour des épaisseurs de tissus supérieures au centimètre, les résolutions
des images reconstruites sont en fait plus mauvaises lorsque l’on détecte et traite la
lumière modulée que lorsqu’on utilise une source continue. Ainsi, l’approche basée
sur les ondes de densité de photons ne paraît intéressante que pour obtenir des
images tomographiques d’objets de petites tailles tels que les dents ou les vaisseaux
sanguins par exemple.

Quelques travaux traitent de cette approche : [LI 97a, LI 97b, LI 00, MAT 97,
MAT 99a, MAT 99b, MON 00].
La tomographie optique 213

6.6. Bibliographie

[ALF 89] ALFANO R.R., PRADHAN A., TANG G.C., WAHL S.J., « Optical Spectroscopic
Diagnosis of Cancer and Normal Breast Tissues », J. Opt. Soc. Am. B-Opt. Phys.,
vol. 6(5), p. 1015-1023, 1989.
[ALF 95] ALFANO R., CHANCE B., Optical tomography and spectroscopy of tissues and model
media, SPIE, vol. 2389, 1995.
[ALF 96] ALFANO R., CHANCE B., Optical tomography and spectroscopy of tissues and model
media, SPIE, vol. 2949,1996.
[ALF 97] ALFANO R., CHANCE B., Optical tomography and spectroscopy of tissues and model
media, SPIE, vol. 3597, 1997.
[ALF 99] ALFANO R., CHANCE B., Optical tomography and spectroscopy of tissues and model
media, SPIE, vol. 3597, 1999.
[ARN 92] ARNFIELD M.R., MATHEW R.P., TULIP J., MCPHEE M.S., « Analysis of Tissue
Optical Coefficients Using an Approximate Equation Valid for Comparable Absorption
and Scattering », Phys. Med. Biol., vol. 37, n° 6, p. 1219-1230, 1992.
[ARR 97a] ARRIDGE S.R., HEBDEN J.C., « Optical imaging in medicine 2. Modelling and
reconstruction », Phys. Med. Biol., vol. 42, n° 5, p. 841-853, 1997.
[ARR 97b] ARRIDGE S.R., SCHWEIGER M., « Image reconstruction in optical tomography »,
Philos. Trans. R. Soc. Lond. Ser. B-Biol. Sci., vol. 352(1354), p. 717-726, 1997.
[ARR 98] ARRIDGE S.R., LIONHEART W.R.B., « Nonuniqueness in diffusion-based optical
tomography », Opt. Lett., vol. 23, n° 11, p. 882-884, 1998.
[BAL 97] BALLIF J., GIANOTTI R., CHAVANNE P., WALTI R., SALATHE R.P., « Rapid and
scalable scans at 21 m/s in optical low-coherence reflectometry », Opt. Lett., vol. 22,
n° 11, p. 757-759, 1997.
[BEA 94] BEAUVOIT B., KITAI T., CHANCE B., « Contribution of the Mitochondrial
Compartment to the Optical- Properties of the Rat-Liver – a Theoretical and Practical
Approach », Biophys. J., vol. 67, n° 6, p. 2501-2510, 1994.
[BEA 95] BEAUVOIT B., EVANS S. M., JENKINS T.W., MILLER E.E., CHANCE B., « Correlation
between the Light-Scattering and the Mitochondrial Content of Normal-Tissues and
Transplantable Rodent Tumors », Anal. Biochem., vol. 226, n° 1, p. 167-174, 1995.
[BEA 98] BEAUREPAIRE E., BOCCARA A.C., LEBEC M., BLANCHOT L., SAINT-JALMES H.,
« Full-field optical coherence microscopy », Opt. Lett., vol. 23, n° 4, p. 244-246, 1998.
[BEN 95] BENARON D.A., KURTH C.D., STEVEN J.M., DELIVORIAPAPADOPOULOS M., CHANCE
B., « Transcranial Optical-Path Length in Infants by near-Infrared Phase-Shift
Spectroscopy », J. Clin. Monit., vol. 11, n° 2, p. 109-117, 1995.
[BEV 98] BEVILACQUA F., Local optical characterization of biological tissues in vitro and in
vivo, Ecole Polytechnique Fédérale, Lausanne, 1998.
214 La tomographie

[BEV 99a] BEVILACQUA F. et DEPEURSINGE C., « Monte-Carlo study of diffuse reflectance at


source-detector separations close to one transport mean free path », J. Opt. Soc. Am. A.-
Opt. Image Sci. Vis., vol. 16(12), p. 2935-2945, 1999.
[BEV 99b] BEVILACQUA F., PIGUET D., MARQUET P., GROSS J.D., TROMBERG B.J. et
DEPEURSINGE C., « In vivo local determination of tissue optical properties: applications to
human brain », Appl. Optics, vol. 38(22), p. 4939-4950, 1999.
[BOH 83] BOHREN C., HUFFMANN D., Absorption and scattering of light by small particles,
John Wiley & sons, New York, 1983.
[BOL 87] BOLIN F.P., PREUSS L.E., TAYLOR R.C., SANDU T.S., « A Study of the
3Dimensional Distribution of Light (632.8 Nm) in Tissue », IEEE J. Quantum Electron.,
vol. 23, n° 10, p. 1734-1738, 1987.
[BOR 99] BORN M., WOLF E., Principle of optics, Cambridge University Press, 1999.
[BRE 98] BREZINSKI M.E., TEARNEY G.J., BOUMA B., BOPPART S.A., PITRIS C., SOUTHERN
J.F., FUJIMOTO J.G., « Optical biopsy with optical coherence tomography », Ann. NY
Acad. Sci., vol. 838, p. 68-74, 1998.
[CAR 70] CARTER W.H., « Computational reconstruction of scattering objects from
Holograms », Journal of Optical Society of America, vol. 60, p. 306-314, 1970.
[CAR 76] CARTWRIGHT N., « A non-negative Wigner type distribution », Physica, vol. 83A,
p. 210, 1976.
[CAS 67] CASE K.M., ZWEIFEL P.F., Linear transport theory, Addison Wesley, Reading,
Massachusetts, 1967.
[CHA 60] CHANDRASEKHAR C., Radiative Transfer, Dover Pub., New York, 1960.
[CHA 98a] CHANCE B., « Near-infrared images using continuous, phase-modulated, and
pulsed light with quantitation of blood and blood oxygenation », Ann. NY Acad. Sci.,
vol. 838, p. 29-45, 1998.
[CHA 98b] CHANCE B., COPE M., GRATTON E., RAMANUJAM N., TROMBERG B., « Phase
measurement of light absorption and scatter in human tissue », Rev. Sci. Instrum., vol. 69,
n° 10, p. 3457-3481, 1998.
[CHA 99] CHANCE B., « New optical methods in cell physiology », J. Gen. Physiol., vol. 114,
n° 1, p. 19, 1999.
[CHE 90] CHEONG W.F., PRAHL S.A., WELCH A.J., « A Review of the Optical-Properties of
Biological Tissues », IEEE J. Quantum Electron., vol. 26, n° 12, p. 2166-2185, 1990.
[CLI 92] CLIVAZ X., MARQUI-WEIBLE F., SALATHE R.P., NOVAK R.P., GILBEN H.H., « High
resolution reflectometry in biological tissues », Opt. Lett., vol. 17, p. 4-6, 1992.
[CUC 97] CUCHE E., POSCIO P., DEPEURSINGE C., « Optical tomography by means of a
numerical low-coherence holographic technique », J. Opt.-Nouv. Rev. Opt., vol. 28, n° 6,
p. 260-264, 1997.
[CUC 99a] CUCHE E., BEVILACQUA F., DEPEURSINGE C., « Digital holography for quantitative
phase-contrast imaging », Opt. Lett., vol. 24, n° 5, p. 291-293, 1999.
La tomographie optique 215

[CUC 99b] CUCHE E., MARQUET P., DEPEURSINGE C., « Simultaneous amplitude-contrast and
quantitative phase-contrast microscopy by numerical reconstruction of Fresnel off-axis
holograms », Appl. Optics, vol. 38, n° 34, p. 6994-7001, 1999.
[CUC 00a] CUCHE E., Numerical reconstruction of digital holograms: application to phase
contrast imaging and microscopy, Ecole Polytechnique Fédérale, Lausanne, 2000.
[CUC 00b] CUCHE E., MARQUET P., DEPEURSINGE C., « Aperture apodization using cubic
spline interpolation: application in digital holographic microscopy », Optics
Communications, vol. 182, n° 1-3, p. 59-69, 2000.
[CUC 00c] CUCHE E., MARQUET P., DEPEURSINGE C., « Spatial filtering for zero-order and
twin-image elimination in digital off-axis holography », Appl. Optics, vol. 39, n° 23,
p. 4070-4075, 2000.
[DÄN 70] DÄNDLIKER D., WEISS K., « Reconstruction of the three dimensional refractive
index from scattered waves », Opt. Commun., vol. 1, p. 323-328, 1970.
[DEH 93] DE HALLER E., Time resolved breast transillumination:analytical, numerical and
experimental study, Ecole Polytechnique Fédérale, Lausanne, 1993.
[DEH 96] DE HALLER E., « Time-resolved transillumination and optical tomography »,
Journal of Biomedical Optics, vol. 1, n° 1, p. 7-17, 1996.
[DRE 99] DREXLER W., MORGNER U., KARTNER F.X., PITRIS C., BOPPART S.A., LI X.D.,
IPPEN E.P., FUJIMOTO J.G., « In vivo ultrahigh-resolution optical coherence
tomography », Opt. Lett., vol. 24, n° 17, p. 1221-1223, 1999.
[DRE 01] DREXLER W., MORGNER U., GHANTA R.K., KARTNER F.X., SCHUMAN J.S.,
FUJIMOTO J.G., « Ultrahigh-resolution ophthalmic optical coherence tomography », Nat.
Med., vol. 7, n° 4, p. 502-507, 2001.
[DUC 90] DUCK F., Physical properties of tissues, New York, Academic Press, 1990.
[DUD 79] DUDERSTADT J., MARTIN W., Transport theory, John Wiley & Sons, New York, 1979.
[FER 96] FERCHER A.F., « Optical coherence tomography », Journal of biomedical optics,
vol. 1, n° 2, p. 157-173, 1996.
[FLO 87] FLOCK S.T., WILSON B.C., PATTERSON M.S., « Total Attenuation Coefficients and
Scattering Phase Functions of Tissues and Phantom Materials at 633-Nm », Med. Phys.,
vol. 14, n° 5, p. 835-841, 1987.
[FUJ 98] FUJIMOTO J.G., « Optical coherence tomography: A new view toward biomedical
imaging », Photon. Spect., vol. 32, n° 1, p. 114-115, 1998.
[GEL 96] GELEBART B., TINET E., TUALLE J.-M., AVRILLER S. et OLLIVIER J., « Phase
function simulation in tissues phantoms: afractal approach », Pure and Applied Optics,
vol. 5, p. 77-388, 1996.
[HEB 96] HEBDEN J.C., ARRIDGE S.R., « Imaging through scattering media by the use of an
analytical model of perturbation amplitudes in the time domain », Appl. Optics, vol. 35,
n° 34, p. 6788-6796, 1996.
216 La tomographie

[HEB 99] HEBDEN J.C., SCHMIDT F.E., FRY M.E., SCHWEIGER M., HILLMAN E.M.C., DELPY
D.T. et ARRIDGE S.R., « Simultaneous reconstruction of absorption and scattering images
by multichannel measurement of purely temporal data », Opt. Lett., vol. 24(8), p. 534-
536, 1999.
[HEB 01] HEBDEN J.C., VEENSTRA H., DEHGHANI H., HILLMAN E.M.C., SCHWEIGER M.,
ARRIDGE S.R., DELPY D.T., « Three-dimensional time-resolved optical tomography of a
conical breast phantom », Appl. Optics, vol. 40, n° 19, p. 3278-3287, 2001.
[HEN 41] HENYEY L., GREENSTEIN J., « Diffuse radiation of the galaxy », Astrophysical
Journal, vol. 93, p. 70-83, 1941.
[HIE 98] HIELSCHER A.H, ALCOUTTE R.E., BARBOUR R.L., « Comparison of finite-difference
transport and diffusion calculations for phton migration in homogeneous and
heterogeneous tissues », Phys. Med. Biol., vol. 43, p. 1285-1302, 1998.
[HUA 91] HUANG D., SWANSON E.A., LIN C.P., SCHUMAN J.S., STINSON W.G., CHANG W.,
HEE M.R., FLOTTE T., GREGORY K., PULIAFITO C.A., FUJIMOTO J.G., « Optical Coherence
Tomography », Science, vol. 254(5035), p. 1178-1181, 1991.
[ISH 78] ISHIMARU A., Wave propagation and scattering in random media, Academic Press
Inc., Londres, 1978.
[JAC 95] JACKSON J., Classical Electrodynamics, John Wiley & Sons Inc., New York, 1995.
[JOH 96] JOHN S., PANG G., YANG Y., « Optical coherence propagation and imaging in a
multiple scattering medium », Journal of biomedical optics, vol. 1, n° 2, p. 180-191,
1996.
[KAK 88] KAK A., SLANEY M., Principle of computerized tomographic imaging, IEEE Press,
New York, 1988.
[LAK 83] LAKOWITZ J., Principle of fluorescence spectroscopy, Plenum Press, New York, 1983.
[LI 97a] LI X.D., DURDURAN T., YODH A.G., CHANCE B., PATTANAYAK D.N., « Diffraction
tomography for biochemical imaging with diffuse- photon density waves », Opt. Lett.,
vol. 22, n° 8, p. 573-575, 1997.
[LI 97b] LI X.D., DURDURAN T., YODH A.G., CHANCE B., PATTANAYAK D.N., « Diffraction
tomography for biomedical imaging with diffuse photon density waves », Opt. Lett.,
vol. 22, n° 15, p. 1198-1198, 1997.
[LI 00] LI X.D., PATTANAYAK D.N., DURDURAN T., CULVER J.P., CHANCE B., YODH A.G.,
« Near-field diffraction tomography with diffuse photon density waves », Phys. Rev. E,
vol. 61, n° 4, p. 4295-4309, 2000.
[LIU 93] LIU H., MIWA M., BEAUVOIT B., WANG N.G., CHANCE B., « Characterization of
Absorption and Scattering Properties of Small-Volume Biological Samples Using Time-
Resolved Spectroscopy », Anal. Biochem., vol. 213, n° 2, p. 378-385, 1993.
[MAH 98] MAHADEVAN-JANSEN A., MITCHELL W.F., RAMANUJAM N., UTZINGER U.,
RICHARDS-KORTUM R., « Development of a fiber optic probe to measure NIR Raman
spectra of cervical tissue in vivo », Photochem. Photobiol., vol. 68, n° 3, p. 427-431,
1998.
La tomographie optique 217

[MAN 95] MANDEL L., WOLF E., Optical coherence and quantum optics, Cambridge
University Press, 1995.
[MAR 89] MARCHESINI R., BERTONI A., ANDREOLA S., MELLONI E., SICHIROLLO A.E.,
« Extinction and Absorption-Coefficients and Scattering Phase Functions of Human-
Tissues Invitro », Appl. Optics, vol. 28, n° 12, p. 2318-2324, 1989.
[MAT 97] MATSON C.L., CLARK N., MCMACKIN L., FENDER J.S., « Three-dimensional tumor
localization in thick tissue with the use of diffuse photon-density waves », Appl. Optics,
vol. 36, n° 1, p. 214-220, 1997.
[MAT 99a] MATSON C.L., LIU H.L., « Analysis of the forward problem with diffuse photon
density waves in turbid media by use of a diffraction tomography model », J. Opt. Soc.
Am. A-Opt. Image Sci. Vis., vol. 16, n° 3, p. 455-466, 1999.
[MAT 99b] MATSON C.L., LIU H.L., « Backpropagation in turbid media », J. Opt. Soc. Am.
A-Opt. Image Sci. Vis., vol. 16, n° 6, p. 1254-1265, 1999.
[MIE 08] MIE G., Annalen der Physik, Leipzig, vol. 25, p. 377, 1908.
[MIT 94] MITIC G., KOLZER J., OTTO J., PLIES E., SOLKNER G., ZINTH W., « Time-Gated
Transillumination of Biological Tissues and Tissuelike Phantoms », Appl. Optics, vol. 33,
n° 28, p. 6699-6710, 1994.
[MON 00] MONTANDON-VARODA, 3D optical diffraction tomography in thick highly
scattering media uding diffuse photon density waves, Ecole Polytechnique Fédérale,
Lausanne, 2000.
[MUE 93] MUELLER G., CHANCE B., ALFANO R., ARRIDGE S., BEUTHAN J., GRATTON E.,
KASCHKE M., MASTERS B., SVANBERG S., VAN DER ZEE P. (dir.), Medical optical
tomography: Functional imaging and monitoring, SPIE Press, Bellingham, Washington,
1993.
[ONO 00] ONO M., KASHIO Y., SCHWEIGER M., DEHGHANI H., ARRIDGE S.R., FIRBANK M.,
OKADA E., « Topographic distribution of photon measurement density functions on the brain
surface by hybrid radiosity-diffusion method », Opt. Rev., vol. 7, n° 5, p. 426-431, 2000.
[PEI 01] PEI Y.L., GRABER H.L., BARBOUR R.L., « Influence of systematic errors in reference
states on image quality and on stability of derived information for dc optical imaging »,
Appl. Optics, vol. 40, n° 31, p. 5755-5769, 2001.
[PER 98] PERELMAN L.T., BACKMAN V., WALLACE M., ZONIOS G., MANOHARAN R., NUSRAT
A., SHIELDS S., SEILER M., LIMA C., HAMANO T., ITZKAN I., VAN DAM J., CRAWFORD
J.M., FELD M.S., « Observation of periodic fine structure in reflectance from biological
tissue: A new technique for measuring nuclear size distribution », Phys. Rev. Lett.,
vol. 80, n° 3, p. 627-630, 1998.
[POR 89] PORTER R.P., « Generalized Holography with Application tto inverse scattering and
inverse source problem », Progress in optics, Elsevier Science Pub., vol. XXVII, p. 317-
397, 1989.
[PRA 88] PRAHL S., Light transport in tissues, University of Texas, Austin, 1988.
218 La tomographie

[PUL 97] PULIAFITO C.A., « Optical Coherence Tomography (OCT): An example of


successful retinal technology transfer », Invest. Ophthalmol. Vis. Sci., vol. 38, n° 4,
p. 2218-2218, 1997.
[SCH 96] SCHMITT J. et KUMAR G., « Turbulent nature of refractive index variations in
biological tissues », Opt. Lett., vol. 21, p. 1310-1312, 1996.
[SOL 97] SOLKNER G., MITIC G., « Spatial resolution enhancement through time gated
measurements », Adv. Exp. Med. Biol., vol. 413, p. 75-83, 1997.
[SWA 93] SWANSON E.A., IZATT J.A., HEE M.R., HUANG D., LIN C.P., SCHUMAN J.S.,
PULIAFITO C.A., FUJIMOTO J.G., « In-Vivo Retinal Imaging by Optical Coherence
Tomography », Opt. Lett., vol. 18, n° 21, p. 1864-1866, 1993.
[THU 01] THUELER P., Optical spectral probing for epithelial tissue characterisation, Thèse
n° 2241, Ecole polytechnique fédérale, Lausanne, 2001.
[VAN 92] VAN DER ZEE P., Measurement and modelling of optical properties of human tissue
in the near infrared, University College, Londres, 1992.
[VAN 99] VAN ROSSUM M.C.W., NIEUWENHUIZEN T.M., « Multiple scattering of classical
waves: microscopy, mesoscopy, and diffusion », Rev. Mod. Phys., vol. 71, n° 1, p. 313-371,
1999.
[WAG 98] WAGNIERES G.A., STAR W.M., WILSON B.C., « In vivo fluorescence spectroscopy
and imaging for oncological applications », Photochem. Photobiol., vol. 68, n° 5, p. 603-
632, 1998.
[WED 95] WEDBERG T., WEDBERG W., « Tomographic reconstruction of the cross
sectionalrefractive index distribution in semi-transparent, birefringent fibres », Journal of
Microscopy, vol. 177, n° 1, p. 53-67, 1995.
[WEL 95] WELCH A., VAN GEMERT M., Optical – thermal response of laser - irradiated
tissue, , Plenum Press, New York et Londres, 1995.
[WIL 86] WILSON B.C., MULLER P.J., YANCH J.C., « Instrumentation and Light Dosimetry
for Intraoperative Photodynamic Therapy (Pdt) of Malignant Brain-Tumors », Phys. Med.
Biol., vol. 31, n° 2, p. 125-133, 1986.
[WIL 87] WILSON B.C., PATTERSON M.S., FLOCK S.T., « Indirect Versus Direct Techniques
for the Measurement of the Optical-Properties of Tissues », Photochem. Photobiol.,
vol. 46, n° 5, p. 601-608, 1987.
[WOL 69] WOLF E., « Three dimensional struture determination of semi- transparent objects
from holographic data », Optics Communication, vol. 1, p. 153-156, 1969.
Chapitre 7

La tomographie synchrotron

7.1. Introduction

Le rayonnement synchrotron est une source très brillante de rayons X avec un


spectre en énergie très large. Il est produit par un faisceau d’électrons relativistes
déviés dans un champ magnétique. Le faisceau de photons peut ensuite être
monochromatisé, à l’aide de cristaux le plus souvent, tout en gardant une intensité
photonique importante. Le rayonnement synchrotron fournit donc un faisceau X
monochromatique et intense, avec une divergence et une taille de source très faibles.
Il est bien adapté pour servir de source en tomographie quantitative et
microtomographie, ainsi que pour des configurations plus exotiques telles que la
tomographie/microtomographie de fluorescence, la tomographie de diffusion ou de
contraste de phase. Dans ce chapitre, nous décrirons le rayonnement synchrotron,
son principe et ses avantages dans la section 7.2. Nous discuterons la tomographie
quantitative dans la section 7.3 et la microtomographie dans la section 7.4, réservant
à la section 7.5 une brève discussion des efforts expérimentaux portant sur les autres
configurations : tomographie par contraste de phase et holotomographie,
tomographie de réfraction, diffraction, diffusion et fluorescence. Nous nous limitons
aux applications biomédicales, mais le rayonnement synchrotron est
particulièrement bien adapté à la tomographie sur matériaux non biologiques, là où
les contraintes de doses ou de temps d’acquisition sont levées (voir chapitre 8).

Chapitre rédigé par Anne-Marie CHARVET et Françoise PEYRIN.


220 La tomographie

7.2. Le rayonnement synchrotron

7.2.1. Principe physique

Un faisceau d’électrons relativistes dévié dans un champ magnétique émet du


rayonnement de freinage appelé rayonnement synchrotron. Ce phénomène a été
observé pour la première fois sur un petit synchrotron du laboratoire de recherche de la
compagnie General Electric en 1947 (Schenectady, NY, Etats-Unis). Ce rayonnement
est très intense, directionnel et couvre en général une large bande d’énergie, d’où son
intérêt comme source de rayons ultraviolets ou X. Ses caractéristiques dépendent à la
fois du champ magnétique et du faisceau d’électrons.

Lorsque le champ magnétique est uniforme et statique, les électrons décrivent


une trajectoire circulaire dans un plan perpendiculaire au champ magnétique. Les
photons sont émis en cône tangentiellement à la trajectoire des électrons. Pour
l’utilisateur, les rayons UV ou X apparaissent comme une nappe continue dans le
plan horizontal avec une ouverture angulaire verticale très faible. Le rayonnement
électromagnétique émis dans un tel champ magnétique – dit dipolaire – a un spectre
en énergie continu et très étendu, allant des radiofréquences aux rayons ultraviolets
ou X. Ce spectre est caractérisé par une énergie, dite critique, définie comme la
valeur de l’énergie en dessous de laquelle la moitié de la puissance est émise.
L’énergie critique εc (exprimée en keV) dépend de celle des électrons E (en GeV) et
du champ magnétique B0 (en tesla) suivant :

ε c = 0,665 E 2 B [7.1]
0

A l ’ESRF (European Synchrotron Radiation Facility, Grenoble), l’énergie critique


est de 19,2 keV pour les aimants de courbure. L’ouverture angulaire verticale du
faisceau X dépend de l’énergie des photons, les photons plus énergétiques étant émis
dans des cônes d’ouverture plus faible. A l’ESRF, elle est de 170 µrad à l’énergie
critique, soit un faisceau X de 1,7 mm de hauteur à 10 mètres de la source. Sur un
aimant dipolaire, l’ouverture horizontale est définie par l’utilisateur au moyen de
fentes. Du fait de l’émission très anisotrope du rayonnement synchrotron dans la
direction verticale, le facteur de qualité approprié est l’intensité spectrale souvent
intégrée verticalement et exprimée en photons par seconde par milliradian (horizontal)
et par 0,1 % ∆λ/λ. Cette dernière quantité signifie que la bande d’énergie utilisée pour
le calcul pour chaque λ est ∆λ = 0,1 %λ.

L’utilisation de structures magnétiques périodiques permet de changer les


caractéristiques du rayonnement synchrotron, en particulier son spectre énergétique
et son émission angulaire, par un phénomène d’interférence des rayonnements émis
par les périodes magnétiques successives. Dans le cas le plus simple, ces structures
sont constituées d’aimants de polarité alternée qui donnent aux électrons une
La tomographie synchrotron 221

trajectoire sinusoïdale. Elles sont souvent désignées sous le terme d’insertions et


sont caractérisées par un paramètre K, appelé paramètre de déflexion :

K = 0,934 B λu [7.2]

où λu est la période du champ magnétique en cm, et B son intensité en tesla. On


parle d’ondulateur lorsque K est de l’ordre de 1 et de wiggler pour K >> 1 . Dans le
plan horizontal, wiggler et ondulateur donnent aux électrons une déflexion angulaire
maximale de K γ , où γ est l’énergie normalisée des électrons
γ = E[ keV ] 511 keV . Dans le cas du wiggler ( K >> 1 ), la déflexion angulaire des
électrons est plus grande que l’ouverture du cône du rayonnement synchrotron.
L’intensité spectrale du wiggler est alors celle d’un aimant dipolaire multipliée par
le nombre de pôles du wiggler. Elle s’étend donc continûment sur une très large
plage d’énergies. La figure 7.1 donne le spectre du wiggler utilisé sur la ligne
médicale ID17 de l’ESRF, comparé à celui d’un tube X. En ordonnée se trouve
2
l’intensité spectrale en photons/s/mm /0,1 %∆λ⁄λ et en abscisse l’énergie des
photons en keV.

Figure 7.1. Intensité spectrale du faisceau synchrotron produit par un wiggler


comparée à celle du faisceau produit par un tube X

L’ouverture angulaire verticale du faisceau X émis par un wiggler est similaire à


celle d’un aimant dipolaire, alors que l’ouverture angulaire horizontale dépend de
222 La tomographie

l’énergie des photons avec un angle typique de K γ à l’énergie critique. Dans le


cas de l’ondulateur, les rayonnements émis par les différentes périodes interfèrent de
manière cohérente et l’intensité spectrale est proportionnelle à N2, N étant le nombre
de périodes de l’ondulateur. Le spectre énergétique est un spectre de raies étroites,
caractérisé par une longueur d’onde dite fondamentale. Il est plus mou, c’est-à-dire
d’énergie moyenne plus basse, que celui d’un wiggler pour un faisceau d’électrons
d’énergie donnée. L’ouverture angulaire horizontale d’un ondulateur est de l’ordre
de 1 γ , donc le faisceau émis est un pinceau très fermé et de grande brillance. Le
rayonnement synchrotron est, en outre, une source étendue partiellement cohérente,
ce qui permet d’étudier des phénomènes interférentiels tels que l’imagerie par
contraste de phase.

Le rayonnement synchrotron est produit dans des machines constituées de trois


éléments, illustrées sur la figure 7.2. Les électrons sont d’abord accélérés par un
accélérateur linéaire ou linac (A) de basse énergie, puis ils sont amenés à leur
énergie nominale dans un accélérateur circulaire du type synchrotron (B) et
finalement, ils sont injectés dans un anneau de stockage (C) où a lieu la génération
des rayons ultraviolets ou X destinés aux utilisateurs. Dans l’anneau de stockage, le
faisceau d’électrons est maintenu à une énergie constante. Il suit une trajectoire
fermée faite d’arcs de cercles et de sections droites. Des aimants dipolaires assurent
le guidage et des aimants multipolaires une focalisation stable du faisceau. Le
rayonnement synchrotron est produit d’une part dans les portions circulaires dues
aux aimants de courbure, et d’autre part dans les insertions qui sont installées dans
les sections dites droites de la trajectoire. L’énergie perdue par les électrons sous
forme de photons est compensée par des cavités radiofréquence. Les électrons se
déplacent dans la chambre à vide de l’anneau de stockage, dans laquelle règne un
vide très poussé pour éviter les collisions sur les molécules de gaz résiduel. Le
faisceau d’électrons est ainsi stocké pendant de nombreuses heures.

Figure 7.2. Schéma de principe d’un synchrotron : (A) : accélérateur linéaire,


(B) synchrotron, (C) anneau de stockage

Les machines produisant le rayonnement synchrotron sont principalement


caractérisées par l’énergie des électrons qui conditionne la dureté du spectre
photonique émis, par l’émittance du faisceau d’électrons qui conditionne la brillance
La tomographie synchrotron 223

du faisceau de photons produit et enfin par le type de structures magnétiques


produisant principalement le rayonnement synchrotron destiné aux utilisateurs :
aimants de courbure ou aimants d’insertion (ondulateurs et wigglers). Parmi les
machines de construction récente, on peut citer l’ESRF (Europe), APS (Etas-Unis),
Spring’8 (Japon), optimisées pour produire des faisceaux X très brillants vers 10
keV et Sincrotrone Trieste (Italie), SLS (Suisse), ALS (Etats-Unis), optimisées pour
environ 1 keV.

7.2.2. Avantages du rayonnement synchrotron pour la tomographie

Les avantages du rayonnement synchrotron pour la tomographie ont été


soulignés pour la première fois par Grodzins [GRO 83]. Ils proviennent en premier
lieu du fait que les sources synchrotron offrent une intensité photonique importante
sur un très large spectre en énergie.

Le faisceau synchrotron blanc peut être utilisé pour générer un faisceau de


rayons X quasi monochromatiques en utilisant un cristal parfait. Le principe de ce
type de monochromateur repose sur la loi de Bragg, qui établit que lors d’une
réflexion sur un cristal, la longueur d’onde λ sélectionnée dans le faisceau
polychromatique est déterminée par la relation : nλ = 2d sinθ, où θ est l’angle
d’incidence du faisceau sur le cristal et d la distance entre deux plans d’atomes du
cristal. La longueur d’onde, ou de façon équivalente l’énergie du faisceau, peut donc
être simplement réglée en changeant l’orientation du cristal et optimisée pour
chaque type d’échantillon. L’utilisation d’un faisceau monochromatique en
tomographie permet d’éviter les phénomènes de durcissement de faisceau qui
introduisent des non-linéarités dans les mesures [BRO 78]. On est ainsi dans les
conditions idéales pour utiliser une modélisation reposant sur la transformation de
Radon (voir chapitre 2 de [GRA 02]). Il en résulte que l’image reconstruite est une
carte quantitative du coefficient d’atténuation linéique pour l’énergie sélectionnée.
De plus, cette énergie peut être optimisée en fonction de la composition et de la
taille de l’échantillon [GRA 91]. En pratique, des longueurs d’ondes harmoniques
d’intensités faibles et décroissantes peuvent être présentes dans le faisceau après le
cristal et limiter la quantification. Elles sont minimisées par un choix approprié des
plans cristallins de réflexion.

L’intensité spectrale du faisceau de photons délivré par une ligne de lumière


2 6
synchrotron (photons/s/mm à 0,1 % bande passante) est environ 10 fois supérieure
à celle d’un tube classique de rayons X (voir figure 7.1), ce qui permet d’extraire un
faisceau monochromatique tout en conservant une intensité importante. La brillance
du faisceau joue un rôle important lorsque l’on désire obtenir des images à très
haute résolution spatiale : on parle alors de microtomographie. En effet, à rapport
signal sur bruit fixé, le nombre total de photons incidents nécessaire pour imager
224 La tomographie

une coupe est inversement proportionnel au cube de la taille de pixel, multiplié par
l’épaisseur de coupe [FLA 87]. Lorsque la taille de pixel est divisée par un facteur k,
le nombre de photons doit donc être multiplié par un facteur k3. Ce nombre de
photons pouvant être obtenu en jouant soit sur le flux, soit sur la durée
d’acquisition, une brillance élevée permet de limiter la durée d’acquisition.
L’accroissement considérable des temps d’acquisition est souvent une limite dans
les systèmes tomographiques utilisant un tube standard de rayons X pour accéder à
des résolutions spatiales supérieures à 10 µm. Des résolutions spatiales de l’ordre du
micromètre ont déjà été obtenues sur des installations synchrotron avec des durées
d’acquisition limitées.

Toutefois, la tomographie par rayonnement synchrotron présente aussi quelques


limitations, la première étant liée à la disponibilité d’une installation synchrotron.
Pour les applications médicales, la tomographie à très haute résolution spatiale n’est
pas applicable in vivo, puisque la dose délivrée au patient deviendrait inacceptable.
D’autre part, la source X étant fixe, il est nécessaire de faire tourner l’objet à
imager, ce qui complique la mise en œuvre in vivo. Enfin, les sources synchrotrons
présentant généralement un angle d’ouverture angulaire relativement faible en
vertical, l’obtention d’un faisceau parallèle de section carrée, adapté aux dimensions
humaines, est possible moyennant des optiques adaptées, mais celles-ci induisent
une perte en intensité.

7.3. Tomographie quantitative

7.3.1. Etat de l’art

La tomographie par rayonnement monochromatique permet d’obtenir une


cartographie quantitative du coefficient d’atténuation linéique µ à une énergie. Le
coefficient µ dépend de deux paramètres physiques : la masse volumique ρ et le
numéro atomique moyen du matériau dans le voxel de l’image reconstruite. Deux
techniques de soustraction en énergie permettent d’approcher une détermination de la
« nature » du matériau en tomographie de transmission. Il s’agit de la soustraction
autour d’un seuil d’absorption d’une part et de la technique dite de biénergie d’autre
part.

L’imagerie de soustraction autour d’un seuil utilise la discontinuité du


coefficient d’atténuation linéique aux seuils d’absorption dus aux transitions
atomiques vers les premiers niveaux d’énergie vides. Deux images sont acquises à
des énergies situées de part et d’autre du seuil, suffisamment proches pour que
l’atténuation due aux autres éléments varie très peu. L’image soustraite donne donc
une cartographie de la densité d’un élément spécifique. La figure 7.3 illustre la
variation du coefficient d’atténuation massique µ/ρ en fonction de l’énergie pour
La tomographie synchrotron 225

deux éléments utilisés comme agents de contraste, l’iode (a) et le gadolinium (b),
comparée à celle des tissus et de l’os. Les seuils K sont situés à 33,17 keV pour
l’iode et 50,24 keV pour le gadolinium. Pour l’imagerie médicale in vivo, seuls les
seuils K des éléments lourds (Z > 50 environ, transition à partir du niveau 1 s)
correspondent à des énergies de photons X suffisantes pour limiter la dose de
radiation ionisante à des valeurs acceptables. Les éléments constitutifs du corps
humain étant trop légers, des agents de contraste appropriés tels que iode, barium,
gadolinium, doivent le plus souvent être utilisés pour faire des images de
soustraction autour d’un seuil. La technique du « seuil K » a été proposée en
radiographie par Jacobson [JAC 53] et évaluée dans la cadre de la tomographie
polychromatique par Riederer et Mistretta [RIE 77].

Figure 7.3. Coefficients d’atténuation massique en fonction de l’énergie – a : iode,


b : gadolinium, c : os, d : tissus

L’imagerie en biénergie utilise la variation des coefficients d’atténuation


massique en fonction de l’énergie. Une combinaison linéaire appropriée de deux
images acquises à des énergies différentes permet d’obtenir la cartographie du
coefficient d’atténuation photo-électrique et celle du coefficient d’atténuation
Compton [ALV 76]. Le contenu diagnostique de ces deux cartographies est
clairement mis en évidence par Alvarez et Macovski : « Le coefficient photo-
électrique dépend fortement du numéro atomique et donne donc une indication de la
composition de l’objet. Le coefficient de diffusion Compton dépend de la densité
électronique, qui à son tour est proportionnelle à la masse volumique pour la plupart
des matériaux. » Alternativement, cette technique peut être utilisée pour décomposer
l’image suivant deux matériaux de référence, comme par exemple la lucite (pour
simuler les tissus) et un mélange cuivre/aluminium (pour simuler l’os) en
tomodensitométrie osseuse, cela afin de séparer l’os et les tissus mous. Elle est aussi
largement exploitée dans les applications industrielles (voir chapitre 8).
226 La tomographie

Le rayonnement synchrotron produit un rayonnement quasi monochromatique


avec des flux de photons suffisants pour l’imagerie médicale de soustraction in vivo.
Dès 1984, Thompson et al. [THO 84] imageaient ex vivo un cœur de cochon
contenant des inserts iodés en tomographie de soustraction autour du seuil K de
l’iode. Ils utilisaient pour ce faire le système d’angiographie coronarienne par
rayonnement synchrotron du Stanford Synchrotron Radiation Laboratory (SSRL).
En 1988, Dilmanian proposait un tomographe monochromatique multi-énergie,
appelé MECT, dimensionné pour l’imagerie in vivo chez l’homme. Ce système a été
développé sur la ligne de lumière X17B au National Synchrotron Light Source
(NSLS) du laboratoire de Brookhaven [DIL 92]. Les applications prévues étaient la
tomographie vasculaire cérébrale utilisant les agents de contraste (iode et
gadolinium), les études pharmacologiques de ces agents de contraste et l’application
de la biénergie au suivi de l’évolution de la plaque d’athèrome dans l’artère
carotide. A ce jour, les performances de ce tomographe ont été caractérisées avec
des fantômes (objets tests) et des petits animaux ont été imagés. Une ligne de
lumière est dévolue aux applications médicales à l’European Synchrotron Radiation
Facility (ESRF) à Grenoble et inclut un tomographe monochromatique pour
l’imagerie médicale in vivo [ELL 99]. S’inspirant du système proposé par
Dilmanian dans sa conception générale, il doit permettre l’imagerie cérébrale chez
l’homme, des études sur les tumeurs et l’ischémie et des études d’agents de
contraste cérébraux. Outre la caractérisation des performances sur fantômes, des
tumeurs cérébrales ont été imagées chez le rat in vivo, par soustraction au seuil K de
l’iode et du gadolinium, avec réalisation d’études cinétiques [LED 00]. Dans le
cadre d’un programme de bronchographie, des images tomographiques ont été
obtenues chez le lapin au seuil K du xénon après inhalation de xénon. Au
laboratoire KEK (Japon), un tomographe a été développé sur l’anneau
d’accumulation Tristan pour faire de l’imagerie en soustraction de seuil K dans la
gamme d’énergie 30-52 keV. Les applications attendues incluent l’imagerie
médicale fonctionnelle avec agents de contraste (iode, baryum, gadolinium),
l’imagerie et des études pharmacologiques de la distribution minérale osseuse. Des
fantômes et des rats ischémiés ont déjà été imagés.

7.3.2. Système ESRF et applications

Le tomographe monochromatique développé sur la ligne médicale de l’ESRF,


permet l’acquisition d’images en mode coupe ou spiralé (voir chapitre 5 de
[GRA 02]). Les faisceaux de rayons X sont stationnaires et le sujet tourne dans le
faisceau avec un mouvement de rotation simple ou un mouvement hélicoïdal suivant
un axe de rotation-translation vertical. La spécificité du système réside dans les
monochromateurs de production du ou des faisceaux X monochromatiques et dans
le système de positionnement du patient qui requiert des tolérances mécaniques
La tomographie synchrotron 227

statiques et surtout dynamiques très faibles. Les paramètres d’acquisition des


images tomographiques et les techniques de reconstruction sont classiques.

Deux configurations du faisceau X sont possibles. La première configuration


correspond à une acquisition simultanée des deux énergies, mais avec des incidences
angulaires très légèrement différentes (fraction de milliradian), tandis que dans la
seconde, les deux énergies sont acquises séquentiellement. Dans la première
configuration – dite d’angiographie – deux faisceaux X sont produits simultanément
par un seul cristal de Laue courbé. Les faisceaux, larges en énergie de 150 eV et
séparés de 300 eV, sont positionnés de part et d’autre du seuil K choisi, qui peut varier
entre 17 keV et 51 keV. Les deux faisceaux se croisent au niveau de l’objet à imager.
Ils ont 15 cm de largeur et 800 µm de hauteur au point de convergence. L’intensité est
10 2
de l’ordre de 6 × 10 photons/s/mm avec un taux de contamination en troisième
harmonique de 3,6 % de l’intensité du fondamental. Dans la seconde configuration, un
monochromateur dit monochromateur de tomographie, délivre un unique faisceau X
monochromatique, d’énergie réglable entre 18 keV et 90 keV et de largeur en énergie
0,1 %. Le faisceau monochromatique a, actuellement, une largeur utile de 12 cm, qui
doit être étendue à 25 cm ultérieurement, et une hauteur ajustable entre 500 µm et
quelques millimètres. Sa position est indépendante de l’énergie (monochromateur dit à
9 2
sortie fixe). Le flux disponible est de l’ordre de 1,9 × 10 ph/s/mm à 25 keV et de
9 2
4,0 × 10 ph/s/mm à 33 keV. Le contenu en harmoniques est inférieur à 4 % dans les
conditions usuelles d’imagerie. En pratique, seul le troisième harmonique a une
intensité suffisamment importante après détection pour contribuer à l’image
reconstruite. Ce monochromateur ne peut être utilisé que pour imager des structures
bougeant peu (cerveau par exemple).

Le détecteur est un cristal de germanium haute pureté, refroidi à l’azote liquide,


de 2 mm d’épaisseur active. Deux lignes de détection de 432 éléments chacune sont
déposées sur ce cristal. La distance interpixel est de 350 µm, la hauteur des pixels de
10 mm. Les deux lignes de détection sont séparées par 500 µm. Ce détecteur solide
a une efficacité quantique de quasiment 100 % à 33 keV et de 45 % à 99 keV.
L’électronique d’acquisition des données a une dynamique de 16 bits pour chaque
gain et huit gains. Le temps de lecture total des deux barrettes du détecteur est
réglable de 1 ms à quelques dizaines de millisecondes, ou peut être asservi à l’angle
de rotation du système de positionnement du patient. Ce système comporte sept
degrés de liberté pour le choix de l’orientation angulaire de la zone à imager et
permet soit une rotation simple (à vitesse maximale de 1 tour en 2 secondes) pour
une acquisition en coupe, soit un mouvement hélicoïdal de 10 cm de débattement.

Les paramètres d’acquisition des images sont réglables ; leurs valeurs nominales
correspondent à des doses à la peau de l’ordre de 5 cGy par paire d’images, de façon
à être dans les mêmes conditions de dosimètrie que sur un scanner médical, le Gray
étant égal à un joule par kilogramme (J/Kg) d’énergie absorbée. Une détermination
228 La tomographie

de la position de l’axe de rotation par rapport au détecteur est effectuée au 1/10 de


pixel au préalable de chaque session d’imagerie.

Le prétraitement des données acquises est relativement simple. Les corrections


sont dues à la décroissance du flux X incident due à la décroissance exponentielle
du courant électronique dans l’anneau de stockage, au profil d’intensité gaussien du
rayonnement produit par un wiggler, aux fluctuations et à la variation spatiale de la
transmission du monochromateur et à la réponse du détecteur (courant d’obscurité et
variation de gain de pixel à pixel). Dans la pratique, il suffit de mesurer – outre le
sinogramme – le profil d’intensité sans objet et le courant d’obscurité de chaque
pixel du détecteur. La valeur du courant d’obscurité est d’abord soustraite à toutes
les mesures faites, pixel par pixel. Pour chaque ligne du sinogramme et pour le
profil d’intensité sans objet, le signal de chaque pixel est normalisé par le signal
d’un pixel dit de référence (correspondant à un canal donné du détecteur qui ne voit
jamais l’objet), cette étape permettant de prendre en compte la décroissance
temporelle du flux incident et toutes fluctuations affectant tout le faisceau transmis
par le monochromateur. Finalement, chaque valeur du sinogramme est divisée par
l’intensité sans objet, à canal de détecteur correspondant. Cette dernière étape
permet de tenir compte à la fois du profil spatial du faisceau X incident et de la
variation de gain des canaux du détecteur. Le faisceau X étant parallèle et
monochromatique, une simple rétroprojection filtrée suffit pour reconstruire les
sinogrammes normalisés. Les valeurs de µ/ρ des agents de contraste et des
matériaux de référence peuvent être mesurées sur de petits échantillons avec le
faisceau utilisé pour l’acquisition des images, pour améliorer la précision de la
quantification des concentrations. La soustraction ou combinaison linéaire des
acquisitions doit en principe se faire avant reconstruction, mais cela semble avoir
peu d’impact. Il est à noter que les artefacts de reconstruction sont bien sûr plus
visibles sur les images différences que sur une image simple.

Le tomographe de la ligne médicale a été conçu pour des études cliniques sur
l’ischémie et les tumeurs cérébrales, ainsi que sur les agents de contraste utilisés en
imagerie cérébrale, en particulier pour une quantification du volume sanguin
cérébral et de son débit. Des études précliniques sur le rat sont en cours à titre de
faisabilité et dans le cadre de projets de recherche sur l’angiogenèse tumorale. La
figure 7.4 montre deux exemples de tumeur chez le rat sur une image différence
obtenue in vivo au seuil K de l’iode. Le rat était maintenu en position verticale. La
hauteur de coupe était de 0,8 mm et 1 440 projections ont été acquises sur 360°.
L’image différence a été acquise avec un flux photonique donnant une dose à la
peau équivalente de 5 cGy. La quantité d’agent de contraste injectée (Hexabrix®,
Guerbet, France) était de 0,4 ml/100 g, soit quatre fois la dose clinique d’agent de
contraste. Sur les deux images, la tumeur est la tache claire visible dans la zone
cérébrale. Le contour clair des deux coupes est dû à la vascularisation périphérique.
La tomographie synchrotron 229

Les bandes blanches et noires dans les zones osseuses montrent un défaut de
soustraction probablement dû à l’acquisition séquentielle des deux énergies.

Figure 7.4. Images tomographiques de tumeurs cérébrales chez le rat par soustraction
autour du seuil K de l’iode

7.4. Microtomographie par rayonnement synchrotron

7.4.1. Etat de l’art

Différents types de système d’acquisition ont été proposés pour la


microtomographie par rayonnement synchrotron. La qualité des images repose à la
fois sur celle du faisceau et celle du détecteur. Une première génération de systèmes
repose sur le principe des scanners translation-rotation et utilise un faisceau fin de
rayons X et un simple détecteur [SPA 87]. Cette technique a permis d’atteindre une
résolution spatiale de l’ordre du micromètre, puisque la taille de pixel est déterminée
par la taille du faisceau, mais la durée d’acquisition est longue et quasiment prohibitive
en 3D. L’utilisation de détecteurs linéaires, qui évitent les mouvements de translation,
a également été proposée [ENG 89]. Des images 3D peuvent alors être obtenues par
empilement de coupes 2D. Toutefois, la technique la plus rapide pour acquérir une
image 3D consiste à enregistrer simultanément les données pour toutes les coupes, ce
qui est possible en utilisant un détecteur 2D. Le volume entier peut alors être
reconstruit à partir de ses projections 2D sous différents angles de vue [BON 92,
KIN 89]. Dans le cas de faisceau synchrotron, la divergence du faisceau est très faible
et ne produit pas de grandissement. On se trouve alors avec un problème de
reconstruction à partir de projections parallèles et non coniques, comme sur la plupart
des scanners X 3D de laboratoire. Il en résulte que, d’une part la résolution spatiale de
l’image est directement déterminée par la résolution spatiale du détecteur, et que
d’autre part la reconstruction tomographique n’introduit pas d’approximation. Si le
système de détection utilise une conversion des rayons X en lumière, un grandissement
optique peut être réalisé. Mais cette technique peut être limitée par la résolution
spatiale de l’écran convertisseur. Une autre possibilité est de réaliser un grandissement
au niveau des X en utilisant un cristal asymétrique [NAG 92].
230 La tomographie

7.4.2. Système ESRF et applications

Un système de microtomographie 3D par rayonnement synchrotron a été


implanté sur la ligne ID 19 de l’ESRF (High resolution, diffraction and topography
beam-line) [SAL 99]. Cette ligne de lumière est située dans un bâtiment extérieur à
l’anneau, à une distance de 145 mètres de la source synchrotron. Du fait de la légère
divergence de la source, on obtient ainsi un faisceau de dimensions macroscopiques
(environ 40 mm × 15 mm). La ligne comporte ensuite une cabine de mise en forme
qui délivre un faisceau synchrotron quasi parallèle, dans une gamme d’énergie
variant entre 8 keV et 120 keV. Elle est équipée d’un monochromateur double
cristal (Si 111) à sortie fixe qui permet d’extraire du faisceau blanc, un faisceau de
rayons X mono-énergétiques, avec une largeur de bande énergétique d’environ
0,01 %.

Le système d’acquisition microtomographique a été développé sur le principe


d’une géométrie 3D parallèle schématisée sur la figure 7.5. Il utilise le faisceau
parallèle de rayons X extrait du rayonnement synchrotron et un détecteur
bidimensionnel. L’échantillon est monté sur des tables munies de différents
mouvements (translations, rotations) à haute précision. Il subit une séquence
d’acquisitions associées à une rotation autour d’un axe perpendiculaire au faisceau
et parallèle au plan du détecteur. Pour chaque angle de rotation, le faisceau de
rayons X transmis par l’échantillon est enregistré sur le détecteur 2D.

Figure 7.5. Principe du système d’acquisition ESRF (ligne ID 19)

Le détecteur est composé d’un scintillateur (Gd2O2S:Tb) qui convertit le


rayonnement X en lumière visible, d’un système d’optique qui permet de choisir le
grandissement de l’image et d’une caméra CCD 2D qui assure la numérisation. La
caméra CCD typiquement utilisée est la FRELON (Fast REad Out Low Noise),
développée par le groupe détecteur de l’ESRF. Il s’agit d’une caméra refroidie par
effet Peltier, comportant 1 024 × 1 024 éléments (taille 19 µm), offrant une dynamique
de 14 bits, et caractérisée par un temps de lecture court (220 ms). L’optique est
constituée d’un système de deux lentilles qui permet d’adapter la taille du pixel et le
La tomographie synchrotron 231

champ de vue à l’application. Par exemple, en utilisant des lentilles de distances


focales respectives 112 mm et 210 mm, on obtient un grandissement de 1,875, ce qui
conduit à une taille de pixel de 10,13 µm sur l’image de projection 2D. Actuellement,
différentes tailles de pixel entre 10,13 et 0,4 micromètres sont disponibles. Le champ
de vue varie donc approximativement entre 10 mm et 0,4 mm.

Avant l’acquisition, une procédure d’alignement est effectuée pour s’assurer que
la direction de propagation, l’axe de rotation et les lignes du détecteur sont
mutuellement orthogonales. L’acquisition consiste à enregistrer un grand nombre de
projections 2D sous différents angles de vue sur un angle total de 180° et des images
de courant d’obscurité (sans faisceau) et d’autres de référence (sans l’échantillon).
Ces images servent à corriger l’inhomogénité du faisceau, la sensibilité individuelle
des pixels du détecteur et à compenser la décroissance de flux pendant la durée de
l’acquisition. Cette dernière est liée au temps de pose de chaque image, souvent
inférieur à la seconde pour une taille de pixel de 10 µm, ce qui conduit à un temps
total d’acquisition d’une quinzaine de minutes. Pour des tailles de pixel de l’ordre
du micromètre, l’utilisation d’un monochromateur multicouche permet également
de réduire le temps d’acquisition à une dizaine de minutes.

Les données typiquement enregistrées pour un échantillon (900 projections


1 024 × 1 024 sur 2 octets) représentent environ 2 Gigabytes et permettent la
3
reconstruction d’images 3D de taille 1 024 . Compte tenu de la géométrie d’acquisition
parallèle, le problème est équivalent à une séquence de reconstructions 2D, après
réarrangement des données en sinogramme (voir chapitre 2 de [GRA 02]). Pour éviter
la duplication des données, un programme incluant le prétraitement et la reconstruction
directe à partir des radiographies acquises a été développé. Cet algorithme a été
parallélisé afin d’accélérer les temps de calcul. La parallélisation exploite la linéarité
du problème. Il s’agit essentiellement d’un parallélisme de données qui peut être
réalisé soit au niveau du traitement de chaque projection, soit au niveau de la
reconstruction de différents sous-volumes. L’utilisation d’un réseau de 8 PC Linux
permet actuellement de reconstruire le volume entier en moins de deux heures. Des
temps de reconstruction de l’ordre de l’heure ont récemment été obtenus en optimisant
l’architecture de la machine et la structure du programme au problème.

Ce système est particulièrement utilisé pour la caractérisation de la micro-


architecture osseuse, dans le cadre d’études sur l’ostéoporose. Cette maladie de la
fragilité osseuse conduit à des fractures spontanées et touche plus de 30 % des
femmes ménopausées. Les propriétés mécaniques de l’os dépendent à la fois de la
densité minérale osseuse et de sa micro-architecture, qui désigne la partie interne
des os constituée d’un arrangement complexe de fines travées osseuses. Elle est
conventionnellement étudiée par histomorphomètrie, c’est-à-dire par analyse de
coupes histologiques de biopsies osseuses. La microtomographie par rayonnement
synchrotron permet une étude non destructive et tridimensionnelle du réseau
232 La tomographie

trabéculaire à très haute résolution spatiale [PEY 98]. Le système de


microtomographie de l’ESRF a déjà permis d’acquérir différents types
d’échantillons osseux (vertèbres adultes et fœtales, fémurs de souris, os calcanéen,
tête de fémur, biopsies de crête iliaque...). Les images obtenues présentent un
excellent contraste et peu de bruit, ce qui facilite la tâche de quantification
ultérieure. Contrairement à beaucoup de systèmes médicaux d’imagerie 3D, le voxel
est cubique et l’exploitation des images ne nécessite pas d’interpolation préalable. A
titre d’illustration, la figure 7.6 représente les surfaces trabéculaires 3D d’une
vertèbre prélevée sur une femme âgée de soixante-douze ans (taille de voxel
6,65 µm, taille d’échantillon 3,5 mm). On obtient un rendu précis des surfaces
osseuses et l’agrandissement réalisé sur la figure de droite montre qu’il est même
possible de distinguer une perforation dans la travée la plus épaisse.

Figure 7.6. Rendu 3D des travées osseuses d’une vertèbre humaine : a) image 3D,
taille de voxel : 6.65 µm, b) zoom sur une portion de l’image

7.5. Extensions

7.5.1. Tomographie par contraste de phase et holotomographie

La tomographie par contraste de phase a déjà été proposée par différents auteurs,
en particulier pour l’analyse de tissus cancéreux [BEC 97, MOM 95]. En effet,
quand un faisceau de rayons X traverse un objet, il existe à la fois un effet
d’atténuation, mais également un déphasage de l’onde électromagnétique. On
modélise ces phénomènes grâce à un indice de réfraction complexe dont la partie
imaginaire est le coefficient d’atténuation et la partie réelle est liée au déphasage.
Cette dernière est notée (1-δ), car elle est proche de un pour les rayons X. La
modulation de phase donne dans la plupart des cas un contraste largement supérieur
à celui dû à l’atténuation, et de ce fait, cette technique est particulièrement
La tomographie synchrotron 233

intéressante pour l’étude de matériaux légers faiblement absorbants. Généralement,


la tomographie par contraste de phase repose sur l’utilisation d’interféromètres
permettant d’introduire des déphasages entre le faisceau X incident et celui transmis
par l’objet [BON 65]. Il en résulte des figures d’interférence, qui sont combinées
afin de reconstruire le déphasage dû à l’objet. Celui-ci étant proportionnel à la
projection de δ, il est ainsi possible de reconstruire la distribution spatiale de δ en
répétant les mesures interférométriques pour différentes incidences en utilisant un
algorithme de reconstruction classique.

La cohérence spatiale de la source synchrotron de l’ESRF permet une autre


implémentation plus simple de l’imagerie de phase, en laissant le faisceau se
propager après l’objet [CLO 97]. Expérimentalement, il suffit d’enregistrer les
images transmises en plaçant le détecteur à distance de l’échantillon. Lorsque la
distance échantillon-détecteur varie, différents régimes peuvent être observés, allant
d’un simple effet d’atténuation lorsque cette distance est nulle jusqu’à de complexes
effets d’interférences lorsque cette distance augmente. La formation de l’image peut
être modélisée en utilisant la théorie de la diffraction de Fresnel. Une méthode de
restauration a été développée afin d’estimer la phase à partir d’une combinaison
d’images à différentes distances [CLO 99]. De la même façon que précédemment,
les images de phase 2D ainsi obtenues sous différentes incidences peuvent ensuite
être traitées par un algorithme de reconstruction tomographique pour fournir la
distribution tridimensionnelle de la partie réelle de l’indice de réfraction. On parle
alors d’holotomographie. Dans certaines conditions, lorsque la distance échantillon-
détecteur est faible, on peut se contenter d’une seule image et utiliser en première
approximation les algorithmes standards de reconstruction : l’image reconstruite
possède alors une contribution liée à l’atténuation, à laquelle s’ajoute une
contribution liée au laplacien de δ [PEY 97]. Cette image permet de mettre en
évidence des interfaces dans des matériaux d’absorption voisine ou très faible.

7.5.2. Tomographie par réfraction, diffraction, diffusion et fluorescence

Au niveau microscopique, l’interaction d’un photon X avec un électron


atomique donne lieu à un changement de direction et/ou d’énergie du photon
suivant qu’il y a effet photo-électrique (absorption du photon, transition énergétique
de l’électron accompagnée de l’émission d’un photon de fluorescence), diffusion
Thomson élastique (changement de direction du photon sans changement d’énergie)
ou diffusion Compton (changement d’énergie et de direction du photon X). Du
point de vue macroscopique, l’interaction entre un faisceau X et un échantillon
matériel met, en outre, en jeu des effets collectifs. Cela se traduit par des
phénomènes tels que l’atténuation du faisceau X, sa réfraction et sa diffraction,
l’émission de fluorescence, la diffusion Rayleigh et la diffusion aux petits angles.
Tous ces phénomènes donnent des informations sur la nature physicochimique de
234 La tomographie

l’échantillon et peuvent être associés aux techniques tomographiques pour analyser


des échantillons inhomogènes [CES 89, HAR 87]. Le rayonnement synchrotron est
la source X de choix pour ces applications, car ces divers processus ont des sections
efficaces différentielles plus petites que l’atténuation. La mise en œuvre de telles
techniques est cependant beaucoup plus complexe expérimentalement que la
tomographie par atténuation. Les rayonnements secondaires ont des spectres
angulaires et énergétiques larges, ce qui nécessite l’utilisation de multicollimateurs
sophistiqués après l’échantillon et de détecteurs bi-dimensionnels résolus en énergie
(voir chapitre 8), ce qui explique qu’à la suite d’expériences de démonstration de
principe plus ou moins récentes [BOI 87, DIL 00, DUV 98], un long travail
d’instrumentation soit en cours sur tous les synchrotrons produisant des rayons X.
Des lignes de lumière spécialement équipées pour la tomographie de
microfluorescence sont en phase de démarrage [TAK 99, WEI 99]. Les techniques
de reconstruction sont empruntées à la tomographie d’émission, car chaque pixel se
comporte comme un émetteur de photons qui dépend du flux incident et des sections
efficaces d’interaction. Les applications envisagées en biologie et dans le domaine
biomédical incluent l’étude de petits organismes (insectes, etc.), d’échantillons
biologiques et de biopsies. L’applicabilité de ces techniques in vivo est encore à
évaluer, car la limitation en dose est une contrainte importante [KLE 98, YUA 97].

7.6. Conclusion

La tomographie X en transmission est une technique utilisée en routine à


l’hôpital. L’utilisation du rayonnement synchrotron comme source X permet de
travailler en faisceau monochromatique et en géométrie parallèle avec une source de
petite taille. Ces caractéristiques présentent de nombreux avantages pour l’imagerie
tomographique quantitative ou biénergie et la microtomographie. De plus, d’autres
modalités d’imagerie tomographique plus exotiques sont envisageables, comme par
exemple la tomographie par contraste de phase et l’holotomographie, la
tomographie par diffraction, diffusion ou fluorescence. Différents types de
dispositifs d’imagerie tomographique sont déjà en fonctionnement sur certaines
installations synchrotron. Des acquisitions in vivo ont déjà été obtenues sur de petits
animaux en imagerie tomographique autour d’un seuil K. L’imagerie
microtomographique est très attractive pour une analyse précise de l’architecture
osseuse, mais possède bien d’autres applications biologiques, notamment en la
combinant avec les possibilités de l’imagerie de phase.

7.7. Bibliographie

[ALV 76] ALVAREZ R.E., MACOVSKI A., « Energy Spectral Techniques in Computerized
Tomography », Phys. Med. Biol., vol. 21, p. 733-744, 1976.
La tomographie synchrotron 235

[BEC 97] BECKMAN F., BONSE U., BUSH F., GÜNNEWIG O., « X-ray microtomography (µCT)
using phase contrast for the investigation of organic matter », J. Comput. Assist. Tomogr.,
vol. 21, p. 539-553, 1997.
[BOI 87] BOISSEAU P., GRODZINS L., « Fluorescence Tomography using Synchrotron
Radiation at the NSLS », Hyperf. Interact., vol. 33, p. 283-292, 1987.
[BON 65] BONSE U., HART M., « An x-ray interferometer », Applied Physics Letters, vol. 6,
n° 8, p. 155-158, 1965.
[BON 92] BONSE U., NUßHARDT R., BUSCH F., KINNEY J.H., SAROYAN R.A., NICHOLS M.C.,
« X-ray tomographic microscopy », X-ray Microscopy III, A. Michette, G. Morrison, C.
Buckley (dir.), Springer Verlag, Springer Series in Optical Sciences, 1992.
[BRO 78] BROOKS R.A., DI CHIRICO G., « Beam hardening in X-ray reconstructive
tomography », Phys. Med. Biol., vol. 21, p. 689-732, 1978.
[CES 89] CESAREO R., MASCARENHAS S., « A new tomographic device based on the detection
of fluorescent X-rays », Nucl. Instr. Meth., vol. A277, p. 669-672, 1989.
[CLO 97] CLOETENS P., PATEYRON-SALOME M., BUFFIERE J.Y., PEIX G., BARUCHEL J.,
PEYRIN F., SCHLENKER M., « Observation of microstructure and damage in materials by
phase sensitive radiography and tomography », Journal of Applied Physics, vol. 81,
p. 5878-5886, 1997.
[CLO 99] CLOETENS P., Contribution to phase-contrast imaging, reconstruction and
tomography with hard synchrotron radiation, PhD. Thesis, Vrije Universiteit Brussel,
1999.
[DIL 92] DILMANIAN F.A., « Computed Tomography with Monochromatic X-rays », Am. J.
Physiol. Im., vol. 3, p. 175-193, 1992.
[DIL 00] DILMANIAN F.A., ZHONG Z., REN B., WU X.Y., CHAPMAN L.D., ORION I.,
THOMLINSON W.C., « Computed tomography of x-ray index of refraction using the
diffraction enhanced imaging method », Phys. Med. Biol., vol. 45, p. 933-946, 2000.
[DUV 98] DUVEAUCHELLE P., Tomographie par diffusion Rayleigh et Compton avec un
rayonnement synchrotron : Application à la pathologie cérébrale, Mémoire de thèse,
Génie Biologique et Médical, Université Joseph Fourier, Grenoble, 1998.
[ELL 99] ELLEAUME H., CHARVET A.M., BERKVENS P., BERRUYER G., BROCHARD T., DABIN
Y., DOMINGUEZ M.C., DRAPERI A., FIEDLER S., GOUJON G., LE DUC G., MATTENET M.,
NEMOZ C., PEREZ M., RENIER M., SCHULZE C., SPANNE P., SUORTTI P., THOMLINSON W.,
ESTEVE F., BERTRAND B., LE BAS J.F., « Instrumentation at the ESRF medical imaging
facility », Nucl. Instrum. Method., vol. A 428, p. 513-527, 1999.
[ENG 89] ENGELKE K., LOHMANN M., DIX W.R., GRAEFF W., « A system for dual energy
microtomography of bones », Nucl. Instrum. Methods Phys. Res., vol. A 274, p. 380-389,
1989.
[FLA 87] FLANNERY B.P., ROBERGE W.G., « Observational strategies for three-dimensional
synchrotron microtomography », Journal of Applied Physics, vol. 62, n° 12, p. 4668-
4674, 1987.
236 La tomographie

[GRA 91] GRAEFF W., ENGELKE K., « Microradiography and microtomography », dans
Handbook on Synchrotron radiation, S. Ebashi, M. Koch, E. Rubenstein (dir.),vol. 4,
p. 361-405, North Holland, Amsterdam, 1991.
[GRA 02] GRANGEAT P. (dir.), La tomographie médicale, Hermès, Traité IC2, Paris, 2002.
[GRO 83] GRODZINS L., « Optimum energy for x-ray transmission tomography of small
samples », Nucl. Instrum. Methods, vol. 206, p. 541-545, 1983.
[HAR 87] HARDING G., KOSANETZKY J., « Status and outlook of coherent x-ray scatter
imaging », J. Opt. Soc. Am. A., vol. 4, nº 5, p. 933-944, 1987.
[JAC 53] JACOBSON B., « Dichromatic absorption radiography: dichromography », Acta
Radiol., vol. 39, p. 437, 1953.
[KIN 89] KINNEY J.H., JOHNSON Q.C., NICHOLS M.C., BONSE U., SAROYAN R.A., NUßHARDT
R.A, PAHL R., « X ray microtomography on beamline X at SSRL », Rev. Sci. Instrum.,
vol. 60, nº 7, p. 2471-2474, 1989.
[KLE 98] KLEUKER U., SUORTTI P., WEYRICH W., SPANNE P., « Feasibility study of x-ray
diffraction computed tomography for medical imaging », Phys. Med. Biol., vol. 43,
p. 2911-2923, 1998.
[LED 00] LE DUC G., CORDE S., ELLEAUME H., ESTEVE F., CHARVET A.-M., BROCHARD T.,
FIEDLER S., COLLOMB A., LE BAS J.-F., « Feasibility of synchrotron radiation computed
tomography on rats bearing glioma after iodine or gadolinium injection », European
Radiol., vol. 10, n° 9, p. 1487-1492, 2000.
[MOM 95] MOMOSE A., TAKEDA T., ITAI Y., « Phase-contrast x-ray computed tomography
for observing biological specimens and organic materials », Rev. Sci. Instrum., vol. 66,
n° 2, p. 1434-1436, 1995.
[NAG 92] NAGATA Y., YAMAJI Y., HAYASHI K., KAWASHIMA K., « High energy high
resolution monochromatic X ray computed tomography using the Photon Factory vertical
wiggler beam », Rev. Sci. Instrum., vol. 63, n° 1, p. 615-618, 1992.
[PEY 97] PEYRIN F., CLOETENS P., SALOME-PATEYRON M., BARUCHEL J., SPANNE P.,
« Reconstruction 3D en tomographie par rayonnement synchrotron cohérent », Proc.
GRETSI, Grenoble, Tome 1, p. 423-426, 1997.
[PEY 98] PEYRIN F., SALOME M., CLOETENS P., LAVAL-JEANTET A.M., RITMAN E.,
RÜEGSEGGER P., « Micro-CT examinations of trabecular bone samples at different
resolutions: 14, 7 and 2 micron level », Technology and Health Care, IOS Press, vol. 6,
n° 5-6, p. 391-401, 1998.
[RIE 77] RIEDERER S.J., MISTRETTA C.A., « Selective iodine imaging using K-edge energies
in computerized x-ray tomography », Med. Phys., vol. 4, p. 474-481, 1977.
[SAL 99] SALOME-PATEYRON M., PEYRIN F., LAVAL-JEANTET A.M., CLOETENS P., BARUCHEL
B., SPANNE P., « A synchrotron radiation microtomography system for the analysis of
trabecular bone samples », Med. Phys., vol. 26, n° 10, p. 2194-2204, 1999.
[SPA 87] SPANNE P., RIVERS M.L., « Computerized microtomography using synchrotron
radiation from the NSLS », Nucl. Instrum. Methods Phys. Res., B 24/25, p. 1063-1067, 1987.
La tomographie synchrotron 237

[TAK 99] TAKEDA T., YU Q., YASHIRO T., YUASA T., HASEGAWA Y., ITAI Y., AKATSUKA T.,
« Human Thyroid Specimen Imaging by Fluorescent X-Ray Computed Tomography with
Synchrotron radiation », SPIE, vol. 3772, p. 258-267, 1999.
[THO 84] THOMPSON A.C., LLACER J., CAMPBELL FINMAN L., HUGHES E.B., OTIS J.N.,
WILSON S., ZEMAN H.D., « Computed Tomography using Synchrotron Radiation », Nucl.
Instrum. Method, vol. 222, p. 319-323, 1984.
[WEI 99] WEITKAMP T., RAVEN C., SNIGIREV A., « An imaging and microtomography
facility at the ESRF beamline ID 22 », SPIE, vol. 3772, p. 311-317, 1999.
[YUA 97] YUASA T., AKIBA M., TAKEDA T., KAZAMA M., HOSHINO A., WATANABE Y.,
HYODO K., DILMANIAN F.A., AKATSUKA T., ITAI Y., « Incoherent-scatter computed
tomography with monochromatic synchrotron x-ray: Feasibility of multi-CT imaging
system for simultaneous measurement of fluorescent and incoherent-scatter x-rays »,
IEEE Trans. Nucl. Sci., vol. 44, p. 1760-1769, 1997.
TROISIÈME PARTIE

La tomographie pour le contrôle industriel


Chapitre 8

La tomographie par rayons X


en contrôle non destructif industriel

8.1. Introduction

Les premières images obtenues par tomographie dans le cadre de la surveillance


de processus (process tomography) [BAR 57] permettaient de réaliser la
cartographie de la densité de particules en suspension au sein d’un lit fluidisé. Les
applications industrielles se sont diversifiées à partir des années 1980 [THI 98],
après qu’Hounsfield ait mis au point, en 1972, le premier scanner médical. La
tomographie permet la détection des défauts, le contrôle dimensionnel, la
caractérisation des matériaux (mesure de densité, répartition d’une impureté...), ou
encore l’homologation d’un nouveau processus de fabrication. Avec l’évolution de
l’informatique et des caméras CCD, la tomographie tridimensionnelle (3D) devient
un outil de première importance pour la modélisation du comportement des
matériaux : endommagement au sein des composites avancés ou écoulement d’un
fluide au sein d’une roche, par exemple. La taille des objets peut varier de 1 mm à
plusieurs mètres et la taille du voxel de de moins de 1 µm à plusieurs cm. Notons
enfin que tous les types de matériaux peuvent être contrôlés (métaux, composites,
céramiques...). Le terme de tomographie est souvent utilisé pour désigner la
tomographie par transmission, technique la plus utilisée, fondée sur la mesure de
l’atténuation des photons à travers l’objet. Ce même terme recouvre néanmoins
d’autre types d’imagerie, notamment les tomographies par émission, par
fluorescence, par diffusion. Cette dernière technique, fondée sur l’analyse des
photons diffusés par l’objet (par effet Rayleigh ou/et Compton), est évoquée en fin
de chapitre (voir paragraphe 8.6.9).

Chapitre rédigé par Gilles PEIX, Philippe DUVAUCHELLE, Jean-Michel LETANG.


242 La tomographie

8.2. Physique de la mesure

La tomographie par transmission consiste à recueillir sur un détecteur et sous


différentes incidences les photons transmis à travers l’objet contrôlé. Dans le cas des
scanners médicaux, le générateur de rayons X et le détecteur tournent autour du
patient alors que généralement, dans l’industrie, générateur et détecteur sont fixes et
les projections sont obtenues par rotation de la pièce inspectée. Chacun des
récepteurs élémentaires reçoit, pendant un temps d’intégration donné, un nombre de
photons transmis N p qui s’exprime par la loi de Beer-Lambert. Dans le cas d’un
rayonnement monochromatique, on a :

 
N p = N p 0 ⋅ exp ∫ − µ T ( x) ⋅ dx  [8.1]
 
 Trajet 
où µΤ(x) représente le coefficient d’atténuation linéique de la matière à la position x
le long du trajet incident et N p 0 le nombre de photons incidents. La mesure
expérimentale des quantités N p 0 et N p permet ainsi de déterminer l’intégrale de la
quantité µΤ(x).dx tout le long d’une ligne traversant l’objet :

ln ( N p 0 / N p ) = ∫µ
Trajet
T ( x) ⋅ dx [8.2]

La quantité N p 0 correspond à une mesure du flux direct en l’absence de l’objet


(image de référence) et il importe que le détecteur ne soit saturé en aucun point de sa
surface. A partir de l’équation [8.2], l’algorithme de reconstruction délivre la
cartographie du coefficient µΤ au sein de la coupe considérée (voir chapitre 2). Le
coefficient d’atténuation linéique est fonction de la masse volumique ρv du matériau,
de son numéro atomique Z et de l’énergie Ep du rayonnement. On utilise également
très fréquemment le coefficient d’atténuation massique µΤ/ρv qui est indépendant de la
masse volumique du matériau et de son état physique. La figure 8.1 montre les
variations de µΤ/ρv en fonction de l’énergie du rayonnement pour trois matériaux : le
carbone, l’aluminium et le fer.

La tomographie est souvent utilisée dans le simple but d’obtenir une image
qualitative. On constate sur la figure que le domaine photo-électrique (en dessous de
0,2 MeV) est favorable à ce type d’imagerie, puisque µΤ/ρv varie fortement en fonction
de E et Z. Le contraste est alors élevé du fait des fortes valeurs de µΤ/ρv et de
l’importante variation de ce coefficient en fonction de Z, à énergie constante. La
tomographie permet également d’estimer la masse volumique du matériau : on parle
alors de tomodensimétrie. Le coefficient d’atténuation linéique étant fonction à la fois
de ρv et de Z, la mesure de la densité n’est possible qu’après étalonnage et sous
certaines conditions :
La tomographie en contrôle par rayons X 243

– soit en utilisant un rayonnement monochromatique et des matériaux présentant


tous le même numéro atomique effectif ;
– soit en utilisant des photons d’énergie comprise dans le domaine où l’effet
Compton prédomine (approximativement entre 0,2 et 3 MeV) : le coefficient
d’atténuation massique µΤ/ρv est alors quasi indépendant du numéro atomique Z ;
– soit en effectuant plusieurs mesures à différentes énergies (voir paragraphe
8.6.7).

Figure 8.1. Variation du coefficient d’atténuation massique en fonction de l’énergie


du rayonnement pour le carbone (Z = 6), l’aluminium (Z = 13) et le fer (Z = 26).
Ces courbes ont été obtenues à l’aide du logiciel XGAM [BER 87]

8.3. Les sources de rayonnement

Les sources utilisées dans l’industrie sont de deux types : les générateurs de
rayons X (tubes radiogènes ou accélérateurs linéaires) et les sources radioactives
(appelées sources gamma) telles celles de césium-137 ou de cobalt-60. Les
générateurs présentent l’avantage d’émettre un flux important de photons, mais ce
rayonnement est en revanche fortement polychromatique. A l’inverse, les sources
gamma sont peu intenses, mais le spectre d’émission est la plupart du temps
monochromatique. Quelle que soit la source utilisée, le flux de photons doit
présenter une bonne stabilité temporelle au cours de l’acquisition ; c’est la raison
pour laquelle les tubes à rayons X utilisés dans les dispositifs tomographiques
doivent disposer d’une alimentation hautement stabilisée. Dans le cas contraire, on
peut adjoindre un détecteur complémentaire placé hors du faisceau utile, nommé
moniteur, dont l’indication sert à corriger les éventuelles variations de débit du tube.
La figure 8.2 montre le spectre d’une source gamma (à gauche), mesuré à l’aide
d’un détecteur au germanium de haute pureté (GeHP) et le spectre d’un générateur
de rayons X (à droite), obtenu par une méthode de calcul semi-empirique [BIR 79].
244 La tomographie

Figure 8.2. Comparaison des spectres délivrés par une source de césium-137 (à gauche) et
par un générateur de rayons X fonctionnant à 140 kV (à droite). Le faible fond continu qui
apparaît aux énergies inférieures à 0,5 MeV, sur le spectre du césium, correspond à la
diffusion Compton dans le détecteur ; il n’est donc pas représentatif du spectre de la source.

Lorsque la source de rayonnement est polychromatique, chacune des énergies


constituant le spectre est atténuée différemment au sein du matériau inspecté. La
diminution relative des composantes de faible énergie est plus importante, ce qui
conduit à une augmentation de l’énergie moyenne du faisceau. Ce phénomène
s’appelle le durcissement de spectre (figure 8.3). Il entraîne l’apparition d’artefacts
dans l’image reconstruite (voir section 8.5). On peut atténuer ces effets en filtrant le
faisceau à l’aide d’une tôle de faible épaisseur (généralement en cuivre). Les
composantes de faibles énergies sont ainsi éliminées avant l’entrée du faisceau dans
l’objet [BRO 76]. Si ce filtrage ne suffit pas, différentes méthodes de correction
numérique peuvent être envisagées [MOR 89].

Au final, la gamme d’énergie de rayonnement disponible est très vaste. Les


tubes à rayons X fournissent des photons d’énergie faible ou moyenne (quelques
dizaines ou centaines de keV), ce qui permet d’imager les matériaux les plus légers
ou les plus minces (matériaux composites, petits échantillons métalliques). Les
accélérateurs linéaires délivrent au contraire des faisceaux de forte énergie
(plusieurs MeV), destinés au contrôle des matériaux les plus atténuants (numéro
atomique ou épaisseur élevés).

8.4. La détection

Les caractéristiques les plus importantes d’un scanner (appelé encore


tomographe) sont la résolution en densité, la résolution spatiale et les durées
d’acquisition et de reconstruction. Des appareillages très divers ont ainsi été
construits, privilégiant l’une ou l’autre de ces caractéristiques. Dans le cas où l’objet
n’est pas trop atténuant (au maximum 40 mm d’aluminium ou 5 mm d’acier),
l’utilisation d’un scanner médical présente l’avantage d’une très grande rapidité
La tomographie en contrôle par rayons X 245

d’acquisition et de reconstruction (de l’ordre de la seconde), ce qui permet, par


exemple, le suivi dynamique de certains phénomènes. Compte tenu de la grande
diversité des détecteurs, il existe un grand nombre de montages possibles. On peut
néanmoins distinguer trois configurations principales d’acquisition.

Figure 8.3. Illustration du phénomène de durcissement de spectre : en noir,


le spectre d’émission d’un générateur de rayons X fonctionnant à 140 kV ; en gris,
le spectre transmis derrière 20 mm d’aluminium (résultats obtenus par simulation)

Le premier montage (figure 8.4a) correspond à l’utilisation d’un détecteur


comportant un seul élément sensible ou d’une barrette comportant quelques
éléments seulement. La dimension du détecteur est de toute façon plus petite que le
diamètre de l’objet à imager et l’exploration d’une tranche nécessite la combinaison
de déplacements élémentaires (rotations et translations). Le second montage
(figure 8.4b) correspond à l’utilisation d’un détecteur linéaire. La durée
d’exploration de la tranche est réduite puisque chaque acquisition délivre une
projection complète. Le dernier montage (figure 8.4c) comporte un détecteur
surfacique et permet l’exploration complète de l’objet par simple rotation.

Figure 8.4. Trois configurations d’acquisition : scanners a) de première génération,


b) à faisceau éventail et c) à faisceau conique
246 La tomographie

Une contrainte importante sur la technologie de détection porte sur la grande


dynamique requise afin de mesurer simultanément le plein flux et les rayons les plus
atténués. Alors que, dans le cas d’une simple imagerie, la zone de l’image située à côté
de l’objet et recevant le plein flux peut parfaitement être saturée, il n’en est pas de
même dans le cas de la tomographie pour laquelle la linéarité de la mesure de
l’atténuation est capitale (voir équation [8.2]). Les détecteurs doivent également
répondre très rapidement aux variations du flux incident, lors de la rotation de l’objet.

On distingue habituellement la détection indirecte de la détection directe. La


première, la plus utilisée actuellement, comprend :
– les intensificateurs d’image. D’une technologie déjà ancienne, ils sont utilisés
dans des appareillages « clés en mains » destinés au contrôle de petits composants.
Leur dynamique est faible et leur linéarité limitée. De plus, les projections qu’ils
délivrent peuvent présenter des distorsions géométriques qu’il convient de corriger
par voie informatique ;
– les détecteurs à scintillation. Présentant une excellente dynamique, ils sont
constitués d’un écran fluorescent (par exemple en oxysulfure de gadolonium dopé
terbium : Gd2O2S : Tb) déposé sur une ligne de photodiodes ou couplé à une caméra
matricielle à bas niveau de bruit. Dans ce cas, le couplage peut se faire soit par
fibres optiques, soit à l’aide d’un objectif photographique à grande ouverture. Une
technologie de détecteurs plats bidimensionnels, issus du médical, est récemment
apparue. La couche fluorescente est directement déposée sur une matrice de silicium
amorphe (a-Si), appelée également TFT (thin film transistor). Elle offre une bonne
résolution (typ. 130 µm) sur de larges dimensions (typ. 30 × 40 cm²).

La détection directe, historiquement la plus ancienne (détecteurs à gaz), connaît


un nouvel essor avec l’apparition de matrices de semi-conducteurs. Elle comprend :
– les détecteurs à gaz (xénon). Ils équipaient encore récemment les scanners
médicaux. Ils offrent une dynamique élevée mais une efficacité médiocre. On les
rencontrait généralement sous la forme de détecteurs linéaires ;
– les détecteurs à semi-conducteurs. Initialement conçus pour la spectrométrie,
ils se présentent sous la forme de monodétecteurs, souvent à base de germanium.
Plus récemment, des matrices (CdTe, HgI2) permettant l’imagerie directe ont été
développées [RIC 01]. Elles sont utilisables dans une vaste gamme d’énergie (y
compris aux énergies délivrées par les accélérateurs linéaires) ;
– les détecteurs à couche photoconductrice. Ils sont généralement constitués de
sélénium amorphe (a-Se) déposé directement sur une matrice TFT [GLA 97]. Une
telle technologie présente un flou interne plus faible que dans le cas de l’utilisation
d’une couche fluorescente. On s’affranchit en effet de la conversion lumineuse et
donc de la dispersion de la lumière.
La tomographie en contrôle par rayons X 247

8.5. Algorithmes de reconstruction et artefacts

Les algorithmes de reconstruction sont regroupés traditionnellement en deux


classes [KAK 88, PEY 96]. Les méthodes analytiques (voir chapitre 2) sont fondées
sur l’inversion de la transformée de Radon, alors que les méthodes algébriques (voir
chapitre 4) utilisent une représentation discrète du problème direct. L’obtention d’une
reconstruction exacte implique que chacune des projections recouvre une zone plus
large que l’objet. En CND, dans le but d’accélérer l’acquisition et la reconstruction, on
peut être amené à ne pas satisfaire cette condition (projections tronquées). Notons
enfin que pour obtenir une reconstruction exacte, tout plan intersectant l’objet doit
contenir au moins un point source.

8.5.1. Méthodes analytiques

Il existe des formules analytiques exactes de reconstruction 2D et 3D en


géométrie parallèle et conique ; elles font appel au théorème coupe-projection liant
la transformée de Fourier des projections à celle de l’image et sont en général reliées
à la formule d’inversion de la transformée de Radon [JAC 96]. La méthode par
épandage des projections filtrées (FBP), généralisée en géométrie conique par
Feldkamp, est de loin la méthode de reconstruction la plus utilisée, bien qu’elle ne
soit mathématiquement correcte que dans le plan de la trajectoire d’acquisition
[FEL 84]. Différents filtres numériques peuvent être appliqués suivant que l’on
souhaite privilégier la réduction du bruit ou la résolution spatiale [GRA 96].

8.5.2. Méthodes algébriques

Les méthodes algébriques font appel à la résolution d’un système linéaire et


minimisent l’erreur de reconstruction de manière itérative. Le schéma de mise à jour le
plus utilisé est la technique ART de base, où chaque rayon est considéré à tour de rôle.
La convergence est en général rapide, quelques itérations suffisent. La discrétisation
du problème direct repose souvent sur un échantillonnage du volume en voxels
cubiques sans recouvrement, mais des modèles plus élaborés peuvent également être
introduits [MAT 96]. Les méthodes algébriques sont bien adaptées lorsque le nombre
de projections est volontairement restreint afin d’accroître les cadences d’acquisition.
Elles sont également utilisées dans le cas où les données sont irrégulièrement réparties
ou incomplètes, ou lorsque des informations a priori sont disponibles.

8.5.3. Artefacts de reconstruction

Les principales formes d’artefacts sont décrites ici en même temps que leurs
causes.
248 La tomographie

Artefacts circulaires ou ring artifacts (figure 8.5) : les cellules du détecteur ne


sont pas correctement calibrées.

Rayures (streaks) : repliement (aliasing) dû à un sous-échantillonnage


angulaire ; il faut augmenter le nombre de projections.

Valeurs sous-estimées de la mesure au centre de l’objet (cupping effect) : dues


soit à la présence de rayonnement diffusé, soit à l’utilisation d’un rayonnement
polychromatique ; dans le premier cas, on peut collimater le faisceau, filtrer le
rayonnement après l’objet ou utiliser une grille antidiffusante ; dans le second cas, il
faut filtrer le rayonnement incident ou procéder à un étalonnage [DOU 01] ; des
algorithmes itératifs permettent également de corriger les effets du diffusé ou du
durcissement de spectre [DON 94].

Raies tangentielles entre les zones les plus atténuantes (figure 8.5) : dues à
l’utilisation d’un rayonnement polychromatique (voir alinéa précédent).

Raies isolées, ombres derrière les zones très atténuantes : certains pixels du
détecteur sont saturés (sur ou sous-exposition) ou défaillants ; il faut délivrer une
dose mieux adaptée à la dynamique du détecteur ou corriger la valeur des pixels
défaillants par interpolation dans chaque projection.

Lunules, déformation, dédoublage : la géométrie de l’ensemble source/axe de


rotation/détecteur est mal déterminée.

Figure 8.5. Exemples d’artefacts circulaires (à gauche) et de raies tangentielles (à droite)


La tomographie en contrôle par rayons X 249

8.6. Applications

8.6.1. Tomodensimétrie

Afin d’éviter d’obtenir des valeurs sous-estimées du coefficient d’atténuation


linéique au centre de l’objet, il est indispensable de corriger les effets du durcissement
de spectre (voir paragraphe 8.5.3). On réalise pour cela l’image d’un gradin usiné dans
le même matériau que l’objet à contrôler (même numéro atomique Z) : la relation entre
l’intensité transmise (mesurée) et l’épaisseur réelle traversée permet de remplacer dans
les projections le logarithme de Np/Np0 par des longueurs équivalentes de matériau
traversé. La reconstruction délivre ainsi une cartographie de l’épaisseur équivalente de
matériau étalon au sein de chaque pixel. Dans le domaine de la métallurgie des
poudres, l’établissement d’une cartographie de la masse volumique permet de détecter
les porosités et d’optimiser ainsi les méthodes de fabrication [THI 98]. Une précision
-3 -3
de ± 0,1 [Link] peut être atteinte dans une gamme comprise entre 6 et 7 [Link] . La
tomodensimétrie est également utilisée pour optimiser l’élaboration des matériaux
composites carbone-carbone destinés aux applications spatiales [MOR 89] ou au
freinage des avions [DOU 00]. Dans le premier cas, il s’agit d’élaborer des structures
présentant un gradient contrôlé de densité, alors que dans le second, le but est de
détecter les zones oxydées par le freinage, afin de réutiliser les parties restées
-3
suffisamment denses. En tomodensimétrie du carbone, une précision de ± 0,02 [Link]
-3
sur une masse volumique voisine de 1,6 [Link] est aisément atteinte.

8.6.2. Expertise

La tomographie est utilisée pour l’expertise de mécanismes complexes non


accessibles. Ainsi, la société TomoAdour a réalisé l’image d’une coupe à travers un
système de régulation d’une turbine aéronautique, sans ouvrir la structure. Un autre
exemple, illustré par la figure 8.6, montre la possibilité de caractériser les défauts de
contact dans un connecteur et de qualifier un lot par prélèvement.

Figure 8.6. Coupe comparative de deux connecteurs de fabrications différentes


(document TomoAdour)
250 La tomographie

8.6.3. Tomographie à haute énergie

Le CEA-LETI a conçu un scanner qui permet l’examen d’objets fortement


atténuants (équivalence : 1 500 mm d’aluminium ou 300 mm d’acier). Cet appareil
est destiné au contrôle d’engins balistiques (recherche des variations de densité au
sein du propergol). Une précision relative de 0,5 % est atteinte, avec un volume
3
d’analyse élémentaire (voxel) de quelques centaines de mm . L’appareillage est
constitué d’un accélérateur linéaire de 8 MeV et d’une barrette de 25 détecteurs
semi-conducteurs (CdTe). L’acquisition de 1 125 projections de 1 024 pixels dure
quelques minutes. La taille de l’objet contrôlé peut atteindre 500 mm. La société
Aérospatiale-Matra-Lanceurs dispose quant à elle d’un scanner construit autour
d’un tube à rayons X de 420 kV et capable de traverser 340 mm d’aluminium ou
100 mm d’acier. Cet appareil est dédié au contrôle de très gros engins (jusqu’à
2 400 mm de diamètre). Le but est ici de contrôler les structures de propulseurs
avant remplissage en propergol, afin de détecter les éventuels délaminages au sein
de la paroi en composite et les décollements entre les différentes couches
(élastomère, composites, inserts métalliques). La taille du pixel dans le plan de
coupe est fixée à 1 mm dans le cas des plus gros objets. La hauteur de coupe est
réglable entre 2 mm et 20 mm. La figure 8.7 montre l’installation d’un propulseur
sur cet appareil. La durée d’acquisition est comprise entre 20 minutes et 70 minutes
selon le diamètre de l’objet.

Figure 8.7. Contrôle d’un corps de propulseur (document Aérospatiale-Matra-Lanceurs)


La tomographie en contrôle par rayons X 251

8.6.4. Modèles CAO en tomographie : rétroconception et simulation

L’utilisation conjointe de la tomographie et du modèle CAO des pièces


contrôlées est de plus en plus courante. En rétroconception, le volume reconstruit est
utilisé pour générer un maillage surfacique de l’objet, typiquement par extraction
d’une isosurface, afin d’obtenir son modèle CAO. La simulation permet au contraire
d’obtenir un volume reconstruit à partir du modèle CAO dans le but d’estimer la
faisabilité du contrôle par tomographie et de définir les conditions expérimentales
optimales.

Rétroconception (reverse engineering)


La rétroconception assistée par tomographie X permet d’obtenir de manière non
invasive le modèle CAO d’un produit à géométrie complexe, un prototype en
général. Ce modèle peut alors être utilisé pour valider, par analyse dimensionnelle
3D, un procédé de fabrication. Ainsi, la SNECMA a mis au point un système de
contrôle dédié aux pièces équipant le moteur des avions militaires ; le contrôle
dimensionnel des aubes de turbine est effectué avec une précision de ± 0,03 mm
[THI 98]. Un second exemple, portant sur une pièce de régulation destinée aux
moteurs d’hélicoptères est illustré par la figure 8.8. La rétroconception permet ainsi,
même lorsqu’aucune donnée CAO n’est disponible sur le produit, de procéder à une
expertise des caractéristiques techniques d’une pièce (calcul de structure, simulation
d’écoulement, analyse fonctionnelle 3D) [DAS 99].

Figure 8.8. Analyse dimensionnelle 3D d’une pièce de régulation de moteur d’hélicoptère.


A gauche, la photographie de l’objet, à droite son modèle CAO obtenu par rétroconception.
Cette étude a été réalisée par la société TomoAdour avec un générateur X de 450 kV
(résolution : 1 % en densité et 100 µm en dimension)

Simulation
L’intérêt premier de la simulation est d’estimer la faisabilité du contrôle pendant
la phase de conception d’un produit. En effet, le développement de nouveaux
252 La tomographie

systèmes de contrôle demande généralement la mise en œuvre de longues et


coûteuses séries de tests et de mesures. Sans outil de simulation, il est très difficile
d’étudier l’influence propre des différents paramètres qui entrent en jeu dans la
qualité de l’image. La simulation permet ainsi de prévoir et d’optimiser les
performances d’un système complet de contrôle par rayons X (figure 8.9).

Deux types de méthodes sont généralement utilisés pour simuler les interactions
photon-matière :
– les méthodes de type Monte-Carlo sont les plus proches du modèle physique,
mais les temps de calcul sont longs et la géométrie des objets doit impérativement
rester simpliste ;
– les méthodes reposant sur le lancer de rayons (ray-tracing) présentent
l’avantage d’utiliser des modèles CAO 3D et permettent de manipuler aisément des
géométries complexes [DUV 00a, GLI 98, GRA 89].

8.6.5. Microtomographie

Les nouveaux besoins rencontrés dans le domaine de la caractérisation fine des


matériaux ont récemment entraîné le développement de scanners de haute résolution
(quelques µm). La tomographie 3D permet de caractériser la totalité de l’échantillon
et d’imager, à l’aide d’une représentation surfacique, les différentes phases qui le
constituent. Il est par exemple possible de mettre en évidence les billes de verre
servant de renfort au sein d’un matériau modèle en polyméthyle-méthacrylate
(PMMA) (figure 8.10), ou les cloisons séparant les cellules d’une mousse
d’aluminium (figure 8.11).

Figure 8.9. Simulation d’une tomographie 3D sur une ailette de turbine. Le modèle CAO
utilisé est présenté à gauche en rendu de surface. A droite, deux coupes ont été extraites du
volume reconstruit. La simulation a été réalisée avec une source polychromatique et un
détecteur matriciel de 250 × 220 pixels. On peut noter les raies tangentielles claires et le
« cupping effect » dus au durcissement de spectre (document INSA de Lyon - CNDRI).
La tomographie en contrôle par rayons X 253

Figure 8.10. Billes de verre (diamètre 400 µm) au sein d’un matériau modèle en PMMA.
La taille du voxel est de 42 µm. Document INSA-Lyon/GEMPPM-CNDRI

Figure 8.11. Mousse d’aluminium (densité voisine de 0,06). L’arête du cube mesure 3 cm.
La taille du voxel est de 150 µm. Document INSA-Lyon/GEMPPM-CNDRI

De telles images permettent ensuite, grâce à des méthodes de calcul par éléments
finis, de modéliser le comportement mécanique du matériau. Les détecteurs actuels
présentent en général une résolution qui n’est pas suffisante pour délivrer une image
de l’objet avec la résolution requise. Une technique courante consiste à utiliser un
tube à rayons X à microfoyer et à pratiquer un grandissement de l’image en plaçant
254 La tomographie

l’échantillon près du foyer du tube X. Une telle technique offre la possibilité


d’obtenir, selon l’application visée, un grandissement réglable. Si l’on nomme s la
taille apparente du foyer et d la taille du pixel du détecteur, la résolution objet
optimale, notée r, correspond au cas où le flou géométrique est égal à d. Dans ces
conditions, r est donné par la relation :

d .s
r= [8.3]
d+s

Dans le cas où d et s sont égaux, on constate que la meilleure résolution est égale à
s/2. Dans le cas où d et s sont très différents, r tend vers la plus petite de ces deux
valeurs. Une résolution de quelques microns peut ainsi être atteinte [HAL 92]. La
puissance délivrée par un tube X microfoyer étant faible, le temps d’exposition
nécessaire à l’imageur est important. L’acquisition de 900 projections peut, dans
certains cas, demander plusieurs heures. On peut faire appel au rayonnement
synchrotron car, dans ce cas, le débit de photons est énorme. Le faisceau, par contre,
n’est pas divergent et le grandissement de l’image est impossible. On doit alors utiliser
des écrans présentant une très haute résolution [KOC 98], ce qui implique qu’ils soient
minces et donc faiblement efficaces. L’important flux de photons permet néanmoins,
sur les synchrotrons de troisième génération, d’acquérir 900 projections (de taille
1 024 × 1 024) en une quinzaine de minutes, avec une taille de pixel inférieure au
micron.

8.6.6. Surveillance de processus (process tomography)

L’université de Bergen et la société Norsk-Hydro ont mis au point un appareil


statique dédié à la surveillance de l’écoulement d’un mélange multiphasique
[JOH 96]. Cinq sources d’américium-241 sont disposées autour d’une canalisation
et cinq barrettes, comprenant chacune dix-sept éléments semi-conducteurs
(CdZnTe), leur sont diamétralement opposées. Les détecteurs et les circuits de
lecture associés sont capables d’acquérir les informations correspondant à plusieurs
centaines d’images par seconde. Un algorithme de reconstruction itératif délivre
jusqu’à trente images par seconde.

La surveillance d’une réaction catalytique en lit fluidisé présente, dans le domaine


de l’industrie pétrolière, un enjeu important. Dans le but d’établir, au sein d’un
réacteur de craquage pouvant atteindre 1,20 m de diamètre, la cartographie de la
densité d’un catalyseur sous forme de poudre fluidisée, le centre de recherches Elf de
Solaize (France) utilise une source de césium-137 d’une activité de 18 gigabecquerels
et un détecteur unique constitué d’un scintillateur (NaI) muni d’un photomultiplicateur
[BER 95]. L’exploration d’une tranche de la colonne dure environ trois heures. Une
méthode algébrique de reconstruction est utilisée. L’image de la paroi en acier et en
La tomographie en contrôle par rayons X 255

béton réfractaire est éliminée par différence, une première exploration étant faite lors
d’un arrêt du réacteur (figure 8.12). Plus récemment, un scanner comportant trente-
deux détecteurs a été développé par l’Institut français du pétrole et le CEA [BOY 00].
L’accroissement du nombre de détecteurs permet une réduction de la durée
d’exploration.

0-0,05 0,05-0,1

0,1-0,15 0,15-0,2

0,2-0,25 0,25-0,3

0,3-0,35 0,35-0,4

0,4-0,45

Figure 8.12. Densité de particules fluidisées de catalyseur au sein d’un réacteur


de craquage catalytique de 0,82 m de diamètre. Les niveaux de gris de l’image
correspondent à la masse volumique de catalyseur en kg.l-1 (document Elf)

8.6.7. Tomographie biénergie

La connaissance de la carte d’atténuation µT(x,y) d’un objet ne permet en aucun


cas une analyse précise de la nature du matériau, étant donné qu’à une valeur
donnée de µT peuvent correspondre une infinité de couples (ρv, Zeff) où Zeff représente
le numéro atomique effectif du matériau. Pourtant, certaines applications nécessitent
une cartographie précise des différents matériaux présents au sein d’un objet. La
tomographie biénergie permet alors de distinguer les différents milieux [VIN 87].

La théorie de la tomographie biénergie est largement abordée dans la littérature


[ALV 76, LEH 81, MAR 81]. Différents modèles permettent d’exprimer µT par des
fonctions de ρv, Z et Ep. Soit m une constante (voisine de 3) et soient α et β deux
fonctions de l’énergie : on modélise alors l’atténuation par l’équation suivante :

µT (ρv, Z, Ep ) = ρv Zm α(Ep) + ρv β(Ep) [8.4]

La première étape (étalonnage) consiste tout d’abord à déterminer α(Εp) et β(Εp)


pour les deux énergies mises en œuvre. La première énergie est située dans la gamme
où l’effet photo-électrique est prépondérant (partie inclinée de la courbe de la
figure 8.1), alors que la seconde est choisie dans la partie plate de la courbe, là où
l’effet Compton prédomine. On dispose ainsi d’un système de deux équations qui
256 La tomographie

permet de calculer ρv et Z. Toutefois, dans le cas le plus courant d’un rayonnement


polychromatique, l’estimation des fonctions α et β est très délicate, même après
filtrage du faisceau. Plusieurs types de démarches sont alors envisageables. La
première fait appel à une dizaine d’étalons dont la densité et le numéro atomique sont
connus [COE 94]. Une autre consiste à utiliser le fait que n’importe quel matériau peut
être remplacé, du point de vue de l’atténuation, par une combinaison de deux
« matériaux de base » [ROB 99].

Cette dernière démarche est utilisée au CEA-LETI, qui développe un système


permettant de contrôler les fûts de déchets nucléaires. La répartition et l’activité des
différentes sources contenues dans les fûts sont déterminées en tomographie par
émission. Toutefois, afin d’estimer avec précision les activités, il est nécessaire de
prendre en compte l’atténuation des photons émis par les diverses sources réparties
dans l’objet. Il est alors indispensable de connaître le coefficient d’atténuation en
chaque point du fût, et ceci non pas à une énergie unique, mais dans toute la gamme
d’énergie des sources en présence. Pour cette raison, une tomographie en biénergie
par transmission est préalablement effectuée sur l’ensemble du fût. Il est ainsi
possible de déterminer, en tout point, quelle fraction des deux matériaux de base
(l’acier et le PMMA dans ce cas) il faudrait mélanger pour obtenir les mêmes
propriétés d’atténuation que celles de l’objet examiné. Les deux matériaux de base
ayant des propriétés parfaitement connues, on est alors en mesure de calculer, à
toute énergie, le coefficient d’atténuation linéique au sein du fût.

A l’Institut français du pétrole, on visualise l’écoulement de fluides (gaz, eau,


pétrole) au sein des roches poreuses provenant de gisements [THI 98]. Ces trois
fluides étant intimement mêlés, la résolution spatiale dans la coupe ne permet pas de
les séparer. La mesure de la densité moyenne au sein de chaque voxel ne suffit pas
non plus pour déterminer la proportion relative des trois constituants. Un scanner
fonctionnant à 80 kV, puis à 140 kV délivre deux images qui permettent de
remonter à la concentration relative des trois milieux au sein de chaque voxel.

8.6.8. La tomosynthèse

Le but de la tomosynthèse est de rehausser, grâce à un mouvement particulier de


l’objet, un plan de coupe choisi (invariant en projection au cours du mouvement).
Différentes coupes parallèles au plan du détecteur peuvent être obtenues en
superposant les différentes projections après un recalage qui est effectué soit
directement par un mouvement particulier de l’ensemble tube X/détecteur, soit
indirectement par post-traitement (épandage des projections). Cela revient à cumuler
les informations correspondant au plan de coupe choisi a priori, tandis que les
contributions des objets situés en dehors du plan de coupe sont atténuées par un
effet de flou. Quelques exemples sont décrits ici :
La tomographie en contrôle par rayons X 257

– le LETI et la SNPE Propulsion (Société nationale des poudres et explosifs) ont


mis au point un système de contrôle des moteurs à propergol solide d’Ariane 5 pour
la détection de décollement (jusqu’à 0,3 mm) par tirs tangentiels [RIZ 96] ; le
moteur, qui mesure 3 mètres de diamètre, tourne à la vitesse de 0,75 degré par
seconde. La source est un accélérateur linéaire de 15 MeV et le système de détection
consiste en une caméra amplifiée couplée à un écran de Gd2O2S : Tb. La
tomosynthèse est effectuée sur quelques dizaines d’images successives avec une
cadence de reconstruction de six images par seconde ;
– cette technique est également bien adaptée à l’examen de soudures sur cartes
électroniques. A l’institut Fraunhofer de contrôle non destructif (IZFP, Berlin), une
méthode d’inspection par simple translation linéaire (Computed Laminography) sans
mouvement relatif entre la caméra et le détecteur a été mise en œuvre [GON 99] ;
– le BAM (Bundesanstalt für Materialforschung und prüfung, Berlin) a mis au
point un contrôle de soudures circonférentielles par tirs diamétraux sur des tubes. Le
procédé repose sur une technique de tomosynthèse particulière, la laminographie
coplanaire, qui combine un mouvement de translation du tube et un autre orbital du
couple source-détecteur. L’appareillage est ici constitué d’un générateur X de
225 kV et d’une barrette de 2 048 détecteurs au pas de 50 µm [EWE 00].

La tomosynthèse peut en fait être considérée comme un cas particulier de la


tomographie avec un angle de vue limité ; les méthodes algébriques sont donc bien
adaptées à ce type de problème, mais la méthode du moyennage (linéaire ou non)
des images reste la plus utilisée.

8.6.9. Tomographie par diffusion

La tomographie par diffusion est une technique d’imagerie et d’analyse


tridimensionnelle dont le principe est illustré par la figure 8.13a. La source et le
détecteur étant situés du même côté de la pièce examinée, on conçoit qu’une telle
technique demeure utilisable même lorsque l’objet présente de grandes dimensions
ou lorsque l’accès à l’intérieur est impossible. Il s’agit là d’une spécificité des
techniques d’imagerie par diffusion.

Lorsque l’on irradie un objet de forme et de nature quelconques, des interactions


photon-matière se produisent tout au long du trajet incident, en particulier les
phénomènes de diffusion Rayleigh et Compton. La diffusion Compton, contrairement
à la Rayleigh, s’accompagne d’une perte d’énergie dont la valeur dépend de l’énergie
des photons incidents et de l’angle de diffusion. La probabilité d’apparition de ces
deux phénomènes dépend non seulement de l’énergie du rayonnement et de l’angle de
diffusion, mais également de la densité et du numéro atomique du matériau inspecté
[HUB 75]. Deux collimateurs permettent de fixer la taille et la forme du volume de
mesure, volume au sein duquel sont diffusés les photons Compton et Rayleigh
258 La tomographie

recueillis par le détecteur. La réalisation d’images s’obtient classiquement en déplaçant


ce volume d’analyse unique au sein de l’objet à contrôler. Plus récemment, une
technique d’acquisition originale a été développée [DUV 00b] (figure 8.13b) : grâce à
un collimateur de sortie à fentes parallèles, le rayonnement diffusé est intégré le long
d’une ligne correspondant au faisceau incident collimaté. A partir d’un mouvement de
l’objet inspiré des tomographes de première génération, un algorithme standard de
reconstruction permet d’obtenir une coupe dont la résolution spatiale est isotrope et ne
dépend que de l’ouverture du collimateur d’entrée.

,,,
,,,
, ,

,





 


 
,









Figure 8.13. a) Schéma de principe de l’appareillage. Le volume de mesure est situé
à l’intersection des faisceaux incident et diffusé, limités respectivement par les collimateurs
d’entrée et de sortie. Le détecteur, situé derrière ce dernier, compte et analyse les photons
diffusés au sein du volume de mesure ; b) montage à fentes parallèles

Parmi les techniques d’imagerie par diffusion, on peut distinguer deux familles
d’applications :
– recherche de défauts, mesure de densité, mesure d’épaisseur : les appareillages
mis en œuvre pour ce type d’application effectuent un comptage des photons
diffusés, sans distinction de leur énergie [BAB 91, HAR 88, REI 84]. Le résultat est
fonction de la masse volumique et du numéro atomique du matériau. Typiquement,
l’appareillage comprend un générateur de rayons X et un scintillateur (NaI ou
BGO). Les coupes présentées figure 8.14 correspondent à un prototype du bord
d’attaque de la navette spatiale Hermès élaboré en matériau composite carbone-
carbone par la société Aérospatiale-Matra-Lanceurs. Elles montrent très nettement
de nombreux défauts de type caries, cloques et délaminages dus aux contraintes
La tomographie en contrôle par rayons X 259

mécaniques et thermiques importantes infligées à ce prototype. Le même


appareillage peut également être utilisé pour réaliser des mesures d’épaisseur de
parois avec une précision pouvant atteindre 0,01 mm [BAB 92]. Des études ont
également permis de déterminer, avec une précision de 0,5 %, la densité de produits
issus de la métallurgie des poudres et destinés à l’industrie automobile [ZHU 95] ;
– mesure du numéro atomique effectif par diffusion Rayleigh sur Compton : le
rapport du nombre de photons diffusés par effet Rayleigh et par effet Compton
permet de déterminer directement le numéro atomique effectif du matériau
[DUV 00c], indépendamment de sa densité. Cette technique impose l’utilisation
d’une source monochromatique et d’un détecteur résolu en énergie (de type
germanium) pour différencier les deux types de photons. Le spectre recueilli en
chaque point de mesure présente deux pics qu’il convient de séparer [SEB 89].

Figure 8.14. A gauche, une photographie du bord d’attaque de la navette Hermès.


A droite, trois coupes réalisées à différents niveaux
(CNDRI – Aérospatiale Matra-Lanceurs – 1989)

La tomographie par diffusion s’applique bien aux matériaux légers (composites,


aluminium). Le contrôle de matériaux plus denses est toutefois possible, mais les
profondeurs d’exploration sont dans ce cas plus réduites [BAB 91].

8.7. Conclusion

La tomographie par rayons X permet de contrôler des objets constitués de


matériaux très divers et pouvant avoir des formes complexes. Des appareillages
spécifiques ont été construits pour s’adapter aussi bien aux gros objets d’origine
industrielle qu’aux petits échantillons. On pourrait évoquer encore l’utilisation possible
des phénomènes de fluorescence [TAK 95] ou de diffraction [GRA 94] permettant
d’atteindre d’autres types d’informations sur les caractéristiques ou la nature des
matériaux. Les nombreuses possibilités qu’offre la tomographie dans le domaine du
contrôle non destructif laissent envisager une banalisation de cette technique dans les
260 La tomographie

années à venir. Différentes évolutions, aussi bien au niveau des sources que des
détecteurs, permettent d’ailleurs d’espérer une amélioration importante des
performances. On peut enfin penser que les progrès continuels réalisés au niveau des
systèmes informatiques rendront bientôt possible la tomographie en temps réel, grâce à
l’apparition de géométries d’acquisition simplifiées et au développement de nouveaux
algorithmes de reconstruction.

8.8. Bibliographie

[ALV 76] ALVAREZ R.E., MACOVSKI A., « Energy selective reconstructions in X-ray
computerized tomography », Phys. Med. Biol., vol. 21, n° 5, p. 733-744, 1976.
[BAB 91] BABOT D., BERODIAS G., PEIX G., « Detection and sizing by X-ray Compton
scattering of near-surface cracks under weld deposited cladding », NDT & E
International, vol. 24, n° 5, p. 247-251, 1991.
[BAB 92] BABOT D., LE FLOC’H C., PEIX G., « Contrôle et caractérisation des matériaux
composites par tomodensimétrie Compton », Rev. Pratique de Contrôle Industriel,
n° 73bis, p. 64-67, 1992.
[BAR 57] BARTHOLOMEW R.N., CASAGRANDE R.M., « Measuring solids concentration in
fluidized systems by gamma-ray absorption », Industrial and Engineering Chemistry,
vol. 49, n° 3, p. 428-431, 1957.
[BER 87] BERGER M.J., HUBBELL J.H., XCOM: Photon cross-sections on a personal
computer, Gaithersburg, National Bureau of Standards, NBSIR87-3597, 1987.
[BER 95] BERNARD J.R., Frontiers in Industrial Process Tomography, Engineering
Foundation, Ed. DM Scott & RA Williams, New York, p. 197, 1995.
[BIR 79] BIRCH R., MARSHALL M., ARDRAN G.M., Catalogue of Spectral Data For
Diagnostic X-rays, The Hospital Physicists Association, 1979.
[BOY 00] BOYER C., FANGET B., LEGOUPIL S., « Development of a new gamma-ray
tomographic system to investigate two-phase gas/liquid flows in trickle bed reactor of
large diameter », Proceedings of CHISA 2000, Prague, Paper n° 588, 28-31 août 2000.
[BRO 76] BROOKS R.A., DI CHIRO G., « Beam hardening in X-ray reconstructive
tomography », Phys. Med. Biol., vol. 21, n° 3, p. 390-398, 1976.
[COE 94] COENEN J.G.C., MAAS J.G., « Material classification by dual energy computerized
X-ray tomography », International Symposium on Computerized Tomography for
Industrial Applications, Berlin, p. 120-127, 1994.
[DAS 99] DASTARAC D., « Industrial computed tomography: control and digitalization », e-
Journal on Nondestructive Testing & Ultrasonics ([Link]), vol. 4, n° 9, septembre
1999.
[DON 94] DONNER Q., Correction de l’atténuation et du rayonnement diffusé en tomographie
d’émission à simples photons, Thèse, Université Joseph Fourier, Grenoble I, 1994.
La tomographie en contrôle par rayons X 261

[DOU 01] DOUARCHE N., ROUBY D., PEIX G., JOUIN J.M., « Relation between X-ray
tomography, specific gravity and mechanical properties in carbon-carbon composites
braking applications », Carbone, vol. 39, n° 10, p. 1455-1465, 2001.
[DUV 00a] DUVAUCHELLE P., FREUD N., KAFTANDJIAN V., PEIX G., BABOT D., « Simulation
tool for X-ray imaging techniques », in X-Ray Tomography in Material Science, Hermès
Science Publications, p. 127-137, 2000.
[DUV 00b] DUVAUCHELLE P., PEIX G., BABOT D., « Rayleigh to Compton ratio computed
tomography using synchrotron radiation », NDT&E international, vol. 33, n° 1, p. 23-31,
2000.
[DUV 00c] DUVAUCHELLE P., PEIX G., BABOT D., « Effective atomic number in the Rayleigh
to Compton scattering ratio », NIMB, vol. 155, p. 221-228, 1999.
[EWE 00] EWERT U., MÜLLER J., « Laminographic X-Ray Testing of Circumferential Welds
with a Linear-Array Camera », e-Journal of Nondestructive Testing & Ultrasonics
([Link]), vol. 5, n° 4, avril 2000.
[FEL 84] FELDKAMP L.A., DAVIS L.C., KRESS J.W., « 3Practical cone-beam algorithm », J.
Opt. Soc., vol. 1, n° 6, p. 612-619, 1984.
[GLA 97] GLASSER F. et al., « Recent developments on CdTe based X-Ray detector for
digital Radiography », SPIE Medical Imaging, vol. 3032, p. 513-519, 1997.
[GLI 98] GLIERE A., « Sindbad: from CAD model to synthetic radiographs », Review of
Progress in Quantitative Nondestructive Evaluation, p. 387-394, 1998.
[GON 99] GONDROM S., ZHOU J., MAISL M., REITER H., KRONING M., ARNOLD W., « X-ray
computed laminography: an approach of computed tomography for applications with
limited access », Nuclear Engineering and Design, vol. 190, n° 1-2, p. 141-147, 1999.
[GRA 89] GRAY J.N., INANC F., SCHULL B.E., « 3D modelling of projections radiography »,
Review of Progress in Quantitative NDE, vol. 8a, D.O. Thompson et D.E. Schimenti eds,
Plenum Press, New York, 1989.
[GRA 94] GRANT J.A., DAVIS J.R., WELLS P. et al., « X-ray diffraction tomography at the
Australian National Beamline Facility », Opt. Eng., vol. 33, n° 8, p. 2803-2807, 1994.
[GRA 96] GRANGEAT P., LA V., SIRE P., « Tomographie d’émission photonique avec correction
d’atténuation par mesure de transmission », Revue de l’Acomen, vol. 2, p. 182-195, 1996.
[GRA 02] GRANGEAT P. (dir.), La tomographie médicale, Hermès, Traité IC2, Paris, 2002.
[HAL 92] HALMSHAW R., « The effect of focal spot size in industrial radiography », British
Journal of NDT, vol. 34, n° 8, p. 389-394, 1992.
[HAR 88] HARDING G., KOZANETZKY J., « X-ray scatter imaging in non-destructive testing »,
Tomography and scatter imaging, IOP series n° 19, Trowbridge, Grande-Bretagne, p. 1-15,
1988.
[HUB 75] HUBBELL J.H., VEIGELE W.M., BRIGGS E.A. et al., « Atomic form factor,
incoherent scattering function and photons scattering cross-sections », J. Phys. Chem.,
vol. 4, n° 3, p. 471-538, 1975.
262 La tomographie

[JAC 96] JACOBSON C., Fourier Methods in 3D-Reconstruction from Cone-Beam Data, PhD
Thesis, n° 427, Linköping University, 1996.
[JOH 96] JOHANSEN G.A, FRØYSTEIN T, HJERTAKER B.T, OLSEN Ø., « A dual sensor flow
imaging tomographic system », Meas. Sci. Techn., vol. 7, n° 3, p. 297-307, 1996.
[KAK 88] KAK A., SLANEY M., Principles of Computerized Tomographic Imaging, IEEE
Press, 1988.
[KOC 98] KOCH A., RAVEN C., SPANNE P., SNIGIREV A., « X-ray imaging with submicrometer
resolution employing transparent luminescent screens », J. Opt. Soc. Am., A15, p. 1940-
1951, 1998.
[LEH 81] LEHMAN L.A., ALVAREZ R.E., MACOVSKI A., BRODY W.R., « Generalized image
combination in dual KVp digital radiography », Med. Phys., vol. 8, n° 5, p. 659-667, 1981.
[MAR 81] MARSHALL W.H., ALVAREZ R.E., MACOVSKI A., « Initial results with prereconstruction
dual-energy computed tomography », Radiology, vol. 140, p. 421-430, 1981.
[MAT 96] MATEJ S., LEWITT R., « Practical considerations for 3-d image reconstruction using
spherically-symmetric volume elements », IEEE transactions on Med. Imaging, vol. 15,
n° 1, p. 68-78, février 1996.
[MOR 89] MORISSEAU P., CASAGRANDE J.M., HUET J., PAUTON M., « Caractérisation des
matériaux par tomodensimétrie à rayons X », Mémoires et Etudes Scientifiques - Revue
de métallurgie, mai 1989.
[PEY 96] PEYRIN F., GARNERO L., MAGNIN I., « Reconstruction tomographique d’images 2D
et 3D », Traitement du signal, vol. 13, n° 4, 1996.
[REI 84] REIMERS P., GILBOY W.B., GOEBBELS J., « Recent developments in the industrial
application of computerized tomography with ionizing radiation », NDT International,
vol. 17, n° 4, p. 197-207, 1984.
[RIC 01] RICQ S. et al., « Study of CdTe and CdZnTe detectors for X-Ray computed
Tomography », Nucl. Instr. and Meth. in Phys. Res., A 458, p. 534-543, 2001.
[RIZ 96] RIZO P., ANTONAKIOS M., LAMARQUE P., « Solid rocket motor nondestructive
examination using tomosynthesis methods », Conference on NonDestructive Testing,
New Delhi, p. 453-456, 1996.
[ROB 99] ROBERT-COUTANT C., MOULIN V., SAUZE R., RIZO P., CASAGRANDE J.M., « Estimation
of the matrix attenuation in heterogeneous radioactive waste drums using dual-energy
computed tomography », Nucl. Instr. And Meth. In Phys. Res., A422, p. 949-956, 1999.
[SEB 89] SEBER, Wild, Non Linear Regression, John Wiley & Sons, New York, 1989.
[TAK 95] TAKEDA T., TOSHIKAZU M., TETSUYA Y. et al., « Fluorescent scanning x-ray
tomography with synchrotron radiation », Rev. Sci. Instr., vol. 66, n° 2, p. 1471-1473, 1995.
[THI 98] THIERY C. et al., « La tomographie à rayons X », Contr. Indust., n° 214, p. 26-57, 1998.
[VIN 87] VINEGAR H.J., WELLINGTON S.L., « Tomographic imaging of three-phase flow
experiments », Rev. Sci. Instrum., 58, 1, p. 96-107, 1987.
[ZHU 95] ZHU P., PEIX G., BABOT D., MULLER J., « In line density measurement system using
X-ray Compton scattering », NDT & E International, vol. 28, n° 1, p. 3-7, 1995.
Chapitre 9

La tomographie d’émission appliquée


à la visualisation d’écoulements industriels

9.1. Application industrielle de la tomographie d’émission

9.1.1. Contexte et objectifs

La compréhension des phénomènes d’écoulement, et notamment d’écoulement


polyphasique, est un élément capital pour la mise au point et le contrôle de procédés
dans l’industrie et le génie des procédés. Les systèmes d’écoulement mettant en jeu
des fluides à deux phases non miscibles ou plus se rencontrent dans de nombreuses
branches de l’industrie. On les trouve aussi bien dans l’industrie pétrolière que dans
l’agroalimentaire, l’industrie pharmaceutique et la fabrication de matériaux
(fonderie, matières plastiques).

Pour illustrer notre propos, considérons le problème de la conception du


réservoir agité d’un réacteur chimique. L’objectif du concepteur ne sera pas
seulement d’optimiser l’installation en termes d’économie, de dimension et de
production, mais aussi de développer un système de contrôle complet qui assurera le
fonctionnement efficace du procédé. Pour ce faire, il aura recours à des modèles
mathématiques construits à partir de bilans massiques et énergétiques, de la
cinétique des réactions chimiques et des propriétés des matériaux. Cependant, il
n’est souvent pas possible de faire des prédictions à partir des seuls principes de
base. Malgré une diversité des procédés mettant en jeu des écoulements
polyphasiques, la compréhension des problèmes hydrodynamiques rencontrés reste
incomplète. Les écoulements peuvent être de type annulaire, stratifié, à vagues ou à

Chapitre rédigé par Samuel LEGOUPIL et Ghislain PASCAL.


264 La tomographie

bulles. Notre concepteur du réacteur devra alors s’appuyer sur des données
expérimentales acquises soit au cours d’expériences antérieures, soit en laboratoire,
soit au cours d’essais sur une installation pilote à échelle réduite.

La tomographie de procédé peut fournir des informations en temps réel sur la


distribution des phases en tous points du réacteur. Un dispositif de tomographie de
procédé est basé sur une technique de mesure physique non invasive adaptée à la
nature du phénomène observé en termes de propriétés physiques, de résolution
spatiale, de sensibilité et de cinétique. Les données collectées par l’instrument sont un
ensemble de valeurs intégrées par chacun des capteurs. La méthode de reconstruction
tomographique doit également être adaptée à la géométrie de l’instrument de mesure.
C’est la nature des matériaux, leurs propriétés et les conditions de fonctionnement de
l’installation qui déterminent le choix de la technique de mesure physique. Celle-ci
peut être électromagnétique, électrique, acoustique, optique ou nucléaire. Certaines
techniques peuvent être installées à demeure sur le procédé, d’autres, notamment celles
à base de traceur, sont utilisées dans un cadre d’analyse de procédé ou de diagnostic.

9.1.2. Les techniques non nucléaires

La tomographie d’impédance électrique [DIC 93] est une technique non invasive
qui fournit l’image de la distribution des propriétés électriques dans le milieu au
moyen d’un ensemble d’électrodes montées à fleur dans le conduit. Les propriétés
physiques qui peuvent être utilisées sont la capacité, la résistance ou l’inductance selon
leur contraste existant entre les matériaux. La tomographie capacitive semble plus
développée. Les capteurs sont des électrodes placées deux à deux en regard autour de
la section de conduite à analyser. L’avantage de cette méthode, d’un coût réduit, est de
ne nécessiter que d’un ensemble de détection statique et d’avoir des temps
d’acquisition très courts adaptés aux cinétiques rapides. On rencontre des exemples
d’application dans la surveillance de système de transport pneumatique de matière
sèche, du fonctionnement d’hydrocyclones, ou de l’écoulement de poudres [WIL 95].

L’utilisation de la lumière est une technique sensible à la variation d’indice de


réfraction du milieu [DAR 95]. Elle est bien adaptée à la caractérisation de mousses.
Diverses études basées sur des techniques interférométriques ont permis la mesure
de densité et de composition de jets de gaz. Les parois du conduit doivent être
transparentes et le matériau doit être translucide. La tomographie par micro-ondes
[BOL 95] est basée sur les effets de diffraction des ondes électromagnétiques de
longueur comprise entre 1 m et 1 mm. Cette technique dépend des constantes
diélectriques et magnétiques des matériaux. Elle est principalement appliquée aux
mousses solides et aux matériaux composites. La tomographie ultrasonore est basée
sur les variations d’indice de réfraction des ondes acoustiques. Cette technique est
appliquée à la vélocimétrie et à l’analyse de mouvements de bulles.
La tomographie d’émission industrielle 265

9.1.3. Les techniques nucléaires

L’absorption de rayons X ou gamma constitue le principe de base de la plupart


de jauges dites nucléoniques. Elles permettent de mesurer la densité ou la masse de
matière qui intercepte le faisceau de rayonnement. L’absorptiométrie de rayons X
ou gamma à double énergie permet de mesurer la concentration d’un produit dans
un mélange. C’est une technique intéressante pour la caractérisation des
écoulements diphasiques, sous réserve que le contraste d’atténuation des produits
soit suffisant. L’intérêt des techniques à base de rayonnement ionisant est de
pouvoir être utilisées dans les conditions réelles d’une usine. En effet, les
rayonnements gamma peuvent traverser les parois épaisses des conduites et les
mesures sans contact peuvent être réalisées dans les conditions réelles de
température et de pression. L’information tomographique peut être obtenue par un
procédé analogue au scanner médical, par la rotation d’un ensemble source-
détecteur autour de la conduite. Cette technique est décrite au paragraphe 8.6.6.

Le marquage d’une phase par un traceur radioactif fait partie des techniques
nucléaires où, cette fois-ci, c’est le fluide circulant qui émet un signal, le rayonnement
gamma. Les traceurs radioactifs utilisés ont une durée de vie suffisamment brève pour
éviter le risque de contamination de l’environnement. Les traceurs radioactifs
permettent de marquer sélectivement une phase d’un mélange, le rayonnement gamma
issu du traceur permet une détection à distance sans contact à travers les parois d’une
conduite. Cette technique est utilisée pour la détermination des distributions de temps
de séjour en génie des procédés. Le produit marqué, qui peut être liquide, solide ou
gazeux, est injecté à l’entrée du système et le passage de la bouffée est détecté par un
ou plusieurs détecteurs de rayonnement placés en des points judicieusement choisis du
système. Cette méthode d’analyse ne fournit qu’une information monodimensionnelle
sur l’évolution de la concentration du traceur en fonction du temps. Une autre
approche consiste à obtenir une reconstruction tomographique de la distribution du
traceur. Cette approche est analogue aux applications des traceurs radioactifs en
médecine nucléaire décrites au chapitre 1. Certains auteurs [PAR 95] ont utilisé la
tomographie par émission de positons. Ces particules issues de la désintégration
radioactive s’annihilent en rencontrant un électron de la matière et émettent deux
photons gamma se propageant sur une droite dans des sens opposés. La détection en
coïncidence des photons gamma définit un ensemble de paires d’annihilation. La
position du point d’émission est déterminée par un algorithme de reconstruction.
L’inconvénient de la tomographie par émission de positons est le choix limité de
15
radiotraceur. En effet, la majorité d’entre eux sont de très courte période ( O : 2 min,
11 18
C : 20 min, F : 1,8 h) et leur production nécessite l’emploi d’un cyclotron et d’une
chaîne radiochimique à proximité du lieu d’utilisation. En outre, les détecteurs sont
complexes et onéreux. Leur encombrement ne permet pas toujours leur mise en place
dans des installations d’usines. La tomographie à simple photon utilise les mêmes
traceurs gamma que ceux habituellement employés pour la détermination des temps de
266 La tomographie

198
séjour. Parmi les exemples de radiotraceurs, nous citerons le Au de période 2,7 j, ou
140 99m
le La de période 12,8 j comme traceurs particulaires, pour les liquides le Tc de
133
période 6,0 h et comme traceur gazeux, le Xe de période 5,25 j. Le capteur classique
en tomographie d’émission à simple photon est la caméra à scintillation en rotation
autour de l’objet. Ce moyen, par son encombrement et sa fragilité, est peu adapté au
contexte industriel. On préfère utiliser un ensemble statique composé de détecteurs à
scintillation classiques. Le dispositif est portable et adaptable à toutes sortes de
situations en usine. Les applications sont principalement la caractérisation
d’écoulements et l’analyse de systèmes en génie des procédés.

Un paramètre important à considérer dans la mise au point d’un système SPECT


est la géométrie du dispositif de circulation du fluide. Dans la plupart des cas, il
s’agira d’une canalisation cylindrique. Le positionnement des détecteurs peut être
gêné par la présence d’un matériau calorifuge, d’une canalisation secondaire ou de
l’exiguïté autour de la conduite à analyser. Le second paramètre à considérer est le
type d’écoulement que l’on cherche à observer. Une connaissance a priori du type
d’écoulement (figure 9.1) peut conditionner les paramètres géométriques. Si cette
information existe avec un bon niveau de confiance, elle peut conditionner les
paramètres géométriques et la disposition des détecteurs. Dans le cas d’un
écoulement annulaire, il est préférable d’augmenter le nombre de détecteurs dans
une projection au dépens du nombre de projections autour de la canalisation. La
suite du chapitre présente deux exemples d’applications reposant sur l’utilisation de
36 détecteurs indépendants. La méthode d’estimation de la matrice de transport
associée à ce système est exposée. Enfin, les images obtenues par reconstruction à
partir de l’algorithme EM sont décrites.

Figure 9.1. Exemples d’écoulements dans une canalisation


(laminaire, à bulles, turbulent, annulaire)
La tomographie d’émission industrielle 267

9.2. Exemples d’applications

9.2.1. Ecoulement bidimensionnel

L’objet étudié est un cylindre de hauteur petite devant son diamètre, afin de
considérer un écoulement bidimensionnel. L’entrée et la sortie du fluide s’effectuent
par deux ouvertures diamétralement opposées (figure 9.2). Le volume est rempli d’eau
sous légère pression. Le débit d’eau est fixé à 0,4 l/min. Un colorant est injecté
simultanément à 3,5 mCi de technétium 99 m. Outre la bonne correspondance des
images reconstruites avec les images vidéo (figure 9.3), l’activité mesurée (figure 9.3)
correspond à l’activité injectée. Une décomposition de l’image en neuf zones d’intérêt
montre la nature oscillatoire amortie de l’activité (figure 9.4). Après le parcours entre
l’entrée et la sortie du mélangeur, une partie du traceur est expulsée tandis que le reste
séparé symétriquement circule le long de la paroi avant de regagner le flux principal.
Ce processus se reproduit pendant que la diffusion tend à homogénéiser le mélange.

Figure 9.2. Principe du mélangeur 2D

9.2.2. Ecoulement dans une canalisation – analyse d’une jonction

L’objectif de cette application est l’analyse d’une jonction de canalisation. Un


flux Q2 est introduit dans un flux Q1 par un raccord à 90° (figure 9.5). L’injection de
traceur radioactif est effectuée dans la branche Q2 du circuit. La mesure sur Q2
permet de contrôler l’homogénéité du traceur dans le flux. L’objectif en Qt est de
visualiser dynamiquement la distribution du traceur dans la branche mélangée et
d’en estimer les fluctuations. Les images reconstruites en Q2 (figure 9.6) ont pu
démontrer la pénétration du flux 1 dans le flux 2 à une profondeur équivalente à
deux diamètres de canalisation. Ce phénomène périodique se produit sur une section
angulaire de 30° environ.
268 La tomographie

Figure 9.3. Echantillons d’images reconstruites et vidéo.


L’injection est située à droite du mélangeur

Figure 9.4. Activité totale reconstruite et activités reconstruites dans trois régions d’intérêt
La tomographie d’émission industrielle 269

Les mesures sur Qt ont montré la dissymétrie du mélange par rapport à un plan
vertical et une variation périodique du débit du flux tracé à la même fréquence que
celle identifiée sur Q2. Du fait de l’inhomogénéité des vitesses des écoulements dans
le mélangeur (rapport 10 entre les débits), l’interprétation en concentration de
traceur en Qt n’est pas immédiate, car la mesure tomographique est sensible à la
vitesse du traceur. La concentration moyenne mesurée par le dispositif
tomographique est inversement proportionnelle à la vitesse de l’écoulement. Un
modèle de correction au premier ordre, appliqué aux mesures obtenues, montre la
bonne adéquation avec les simulations numériques obtenues sur ce type
d’écoulement (figure 9.7).

Q1 Qt

Tomographe

Q2 Q2

Figure 9.5. Tomographe prototype constitué de 6 x 6 détecteurs et jonction instrumentée.


Le débit Qt = Q1+Q2
270 La tomographie

Figure 9.6. A gauche : images en coupe moyennes reconstruites sur les flux Q2 (haut)
et Qt (bas). A droite : représentation des mêmes images en 3D
où le temps est la 3e dimension (axe vertical)

100

Figure 9.7. Image moyenne reconstruite sur Qt


et comparaison à une simulation numérique de l’écoulement
La tomographie d’émission industrielle 271

9.3. Modèle physique d’acquisition des données

9.3.1. Transport des photons

Les photons émis par le traceur subissent des effets de diffusion ou d’atténuation
dans les milieux qu’ils traversent. Les sections efficaces de ces effets et les cartes
d’atténuation étant parfaitement connues, il est possible de modéliser la probabilité
de détection des photons à partir du tirage aléatoire d’une multitude d’événements.
Les photons sont détectés dans le scintillateur dès lors qu’ils y déposent toute (effet
photo-électrique) ou une partie seulement de leur énergie (effet Compton). La
probabilité que les photons soient détectés par effet Compton est d’autant plus
grande que leur énergie est importante ou que le volume du scintillateur est petit.
Compte tenu de l’énergie des traceurs employés pour une application industrielle, la
suppression des photons diffusés dans le milieu conduit également à la suppression
des photons ayant diffusé uniquement dans le détecteur. Afin d’augmenter le
nombre d’événements détectés, les photons diffusés dans le milieu doivent
également être pris en compte. Par ailleurs, la diffusion des photons n’étant pas
isotrope, sa prise en compte dans le processus d’acquisition tomographique
constitue une difficulté majeure. Qualitativement, les diffusions sont la cause d’une
perte de gradients dans les projections (étalement des profils, figure 9.10) qui
engendre un flou dans l’image. Quantitativement, les diffusions introduisent des
estimations incorrectes de l’activité reconstruite. La contribution du diffusé est
exprimée par le facteur de build-up, défini par le rapport entre le nombre total de
photons détectés et celui de photons directs. En pratique, ce facteur peut atteindre
des valeurs infinies pour un point source situé en dehors de l’angle solide du
détecteur si celui-ci est parfaitement collimaté. Malgré la perte de résolution qu’il
induit, le rayonnement diffusé contient néanmoins une information liée au
phénomène que l’on souhaite observer.

Deux approches sont essentiellement utilisées pour prendre en compte ces


événements. Dans l’esprit d’un modèle global, la matrice de transfert intègre tous
les phénomènes qui contribuent à la détection des photons gamma. En particulier,
les coefficients de la matrice de transport prennent en compte la probabilité qu’un
photon émis depuis l’élément image j puisse être détecté par le détecteur i après une
ou plusieurs diffusions (Compton ou création de paire).

La compensation du diffusé pré ou postreconstruction est une seconde approche


où les photons ayant diffusés dans le milieu sont explicitement séparés des photons
directement collectés. Ces méthodes imposent une détection en double bande
d’énergie et ne sont efficaces que si toute l’énergie des photons est cédée au
détecteur. De par la relation de proportionnalité du nombre de photons diffusés dans
les deux bandes d’énergie, il est alors possible de soustraire les photons diffusés
dans la bande d’énergie qui contient le pic photo-électrique.
272 La tomographie

9.3.2. Principe de la simulation de Monte-Carlo

Le principe de calcul repose sur le fait que l’histoire du trajet d’un photon depuis sa
naissance est composée d’une succession d’interactions avec la matière. Ces processus
sont entièrement décrits par des lois de probabilité et des sections efficaces
d’interaction. A partir du calcul d’une multitude d’histoires, on obtient pour une
géométrie de détection donnée (figure 9.8) la probabilité de détection, le spectre
détecté total, ceux diffusés dans le milieu et dans le détecteur, l’efficacité du blindage,
celle du détecteur, le facteur de build-up. Le spectre du flux de photons incidents à un
détecteur peut ainsi être estimé, de même que la réponse du détecteur à ce flux. En
particulier, l’estimation du nombre de photons incidents à une énergie propre, mais
détectés à une énergie plus faible compte tenu des diffusions dans le détecteur est
possible. En tant que moyennes statistiques, ces grandeurs sont entachées d’une
incertitude, inversement proportionnelle au nombre d’histoires simulées.

Figure 9.8. Géométrie de détection

Afin d’assurer un bon échantillonnage de l’espace observé par un détecteur, la


réponse de celui-ci doit être simulée pour un grand nombre de positions de sources
ponctuelles. Outre les points source placés dans l’angle solide du détecteur, il faut
également prendre en compte les points situés en dehors de l’angle solide. Bien que
la contribution d’une source placée en dehors de l’angle géométrique du collimateur
soit faible, la contribution globale de ces points devient importante. Considérons par
exemple une source surfacique, un collimateur de profondeur h et de diamètre d
placé à une distance l de la source. L’activité mesurée est proportionnelle à
2
(d(l + h)/(hl)) . Si h est faible devant l, l’activité mesurée est quasi indépendante de
la distance à la source l. L’intégration d’une source surfacique compense rapidement
l’éloignement de cette source.

Afin de calculer rapidement un grand nombre de points source, les codes de


simulation de Monte-Carlo intègrent un algorithme de réduction de variance qui
consiste au cours de chaque interaction avec le milieu à forcer le photon vers le
La tomographie d’émission industrielle 273

détecteur et à interagir avec lui. A la fin de chaque histoire, la probabilité de


détection est calculée comme la somme des probabilités calculées à chaque
interaction au cours de l’histoire. Cette méthode de calcul dédiée à la tomographie
d’émission est particulièrement performante, puisqu’elle peut apporter une
accélération d’un facteur 500 sur le temps de calcul par rapport à des codes
généralistes tels que MCNP (OCDE/Nuclear Energy Agency).

Figure 9.9. Spectres simulés pour du brome 82 selon le nombre de diffusions avec le milieu

9.3.3. Calcul des matrices de projection

Estimation des profils de projection


La matrice de projection est calculée par l’estimation des profils de projection de
sources linéiques placées perpendiculairement au plan de détection. Ces profils sont
ajustés par des fonctions analytiques empiriques généralement de forme gaussienne.
Ces fonctions intègrent toutes les probabilités qui ont contribué à la détection des
photons. La simulation de Monte-Carlo pour l’estimation de la matrice de projection
permet de séparer les photons selon le nombre de diffusions dans le milieu avant
leur détection (figure 9.10). L’intérêt est double : d’une part l’ajustement des profils
détectés est simplifié en séparant les photons qui n’ont pas diffusé de ceux qui ont
diffusé une, deux ou plusieurs fois ; d’autre part l’analyse des spectres des photons
incidents au détecteur permet d’optimiser le seuil de sélection en énergie afin
d’éliminer majoritairement ou en totalité les photons qui ont diffusé un trop grand
nombre de fois dans le milieu. L’analyse du spectre obtenu par simulation de
Monte-Carlo permet d’optimiser le seuil de sélection en énergie afin d’éliminer
majoritairement les événements issus de diffusion multiple dans le milieu. Sur
82
l’exemple des spectres simulés pour du Br présentés sur la figure 9.9, on a
274 La tomographie

représenté le spectre des photons détectés selon le nombre de diffusions subies dans
le milieu. Les profils obtenus dans cette configuration montrent que la largeur totale
à mi-hauteur [LTMH] évolue assez peu avec le nombre d’interactions. En revanche,
la largeur totale au dixième de la hauteur [LTDH] est multipliée par 2 selon que l’on
considère une ou vingt-cinq interactions (tableau 9.1). Une coupure en énergie à 250
keV permet de supprimer la majorité des photons qui ont diffusé plus de deux fois
dans le détecteur. La LTMH vaut alors 2,4 cm. En contrepartie 80 % des photons
incidents ne sont pas détectés. Le rapport signal à bruit est divisé par deux.

Nombre de LTMH (cm) LTDH (cm)


diffusions
0 1,9 4,4
1 2,1 6,4
2 2,3 8,0
>2 2,6 13,0

Tableau 9.1. Evolution de la LTMH et LTDH en fonction du nombre d’interactions

Figure 9.10. Profils de projection selon le nombre de diffusion considéré


La tomographie d’émission industrielle 275

L’estimation de la probabilité qu’un photon atteigne le détecteur sans diffuser


peut se faire par un calcul direct. On considère pour cela l’angle solide, les
probabilités de transmission associées aux différents milieux traversés et la
probabilité que le photon soit arrêté dans le détecteur, quelle que soit l’énergie qu’il
y dépose. Un premier dimensionnement d’une expérimentation peut s’affranchir de
l’étape de simulation de Monte-Carlo. Parce que la quantité de traceur utilisable
délimite les conditions d’une expérimentation sur site industriel, il n’est pas
nécessaire de modéliser finement la matrice de projection dans la première phase de
réalisation d’une tomographe. La simulation est réalisée lorsque les paramètres du
système sont définis.

Dans la géométrie de la figure 9.8, les profils sont décomposés en une


composante directe et une diffusée. Chacune de ces composantes est ajustée par une
fonction analytique de la forme :

  y − yd 
η(x)

p(x, y)= p0(x)⋅exp −  
  σ(x)  
  [9.1]

Pour la composante directe, p0(x) est calculé directement par la relation :

 
p0(x)= Sd exp − ∑µi di 
4π(xd − x)2  écran  [9.2]

L’amplitude de la composante diffusée est calculée comme une fraction εd(x) de


la composante directe. εd(x) et η(x) sont ajustées par un polynôme de degré 2. σ(x)
est en général ajusté par une fonction linéaire. Dans le contexte industriel, cette
modélisation permet de réaliser des mesures quantitatives.

Estimation de la matrice de projection


Les milieux examinés sont généralement des conduites cylindriques. De ce fait,
la symétrie de rotation permet de s’affranchir de la simulation de toutes les
incidences. Si une projection est constituée de N détecteurs, la matrice de projection
est entièrement définie par la simulation de la réponse de N/2 détecteurs si N est pair
((N-1)/2 + 1 sinon). Un coefficient Aij de la matrice de projection est une estimation
de la probabilité de détection sur la surface du pixel j. Aij est donc calculé comme
l’intégrale du profil sur la surface du pixel :

xi + d yi + d
2 2
Aij = ∫ ∫ p(x, y)⋅dx⋅dy
xi − d yi − d
2 2 [9.3]
276 La tomographie

où d est la taille du pixel. L’estimation de Aij pour une incidence dont l’angle n’est
pas kπ/2 est calculée par interpolation linéaire sur les quatre valeurs précalculées les
plus proches (figure 9.11). La taille du pixel est choisie de sorte que l’influence de
son orientation par rapport à l’angle de projection soit négligeable.

Figure 9.11. Calcul du coefficient Aij par interpolation linéaire sur un 4-voisinage

9.4. Définition et caractérisation d’un système

9.4.1. Paramètres caractéristiques du système

Pour un problème posé, l’idée consiste généralement à fixer un nombre de


détecteurs et à les répartir convenablement autour de la conduite afin d’optimiser la
résolution spatiale, l’homogénéité sur l’espace de reconstruction (figure 9.13) et le
niveau de signal mesuré. En pratique, il est difficile d’envisager l’utilisation de plus
d’une centaine de détecteurs sur un site industriel pour des raisons de coût et
d’encombrement.

Pour une image test représentant un écoulement stratifié, la variation de la RMS


entre la distribution originale et l’image reconstruite en fonction du nombre de
détecteurs est présentée figure 9.12. Ces données sont calculées sans prendre en
compte les fluctuations statistiques du signal. La quantité d’activité de traceur
autorisée pour une campagne de mesures industrielles définit en grande partie le
nombre et la collimation des détecteurs employés. La limite est imposée par le type
de traceur (radioélément, toxicité, période) et du conditionnement des effluents. Le
rapport signal à bruit des mesures est proportionnel au produit de l’activité injectée
par la section de collimation. Pour une collimation déterminée, il existe un nombre
de détecteurs au-delà duquel les performances spatiales n’évoluent plus. Ainsi,
cinquante détecteurs environ sont nécessaires pour une collimation définie par une
LTMH de la PSF au centre de l’objet égale à 25 % du diamètre objet. En pratique et
pour des raisons d’encombrement, un prototype d’appareillage a été développé sur
la base de trente-six détecteurs répartis en hexagone.
La tomographie d’émission industrielle 277

Figure 9.12. Représentation de la RMS entre une image originale et l’image reconstruite
en fonction du nombre de détecteurs et d’incidences autour de la canalisation
pour un écoulement stratifié

Figure 9.13. LMH d’un système tomographique 6 x 6 détecteurs


en fonction de la position radiale

9.4.2. Caractérisation des images reconstruites par l’algorithme EM

Le processus de détection étant un phénomène linéaire, la linéarité du système


d’imagerie est donc liée aux propriétés de l’algorithme de reconstruction. Les
images sont ici reconstruites à partir de l’algorithme EM décrit au chapitre 4.

Un tel système d’imagerie est caractérisé par son aptitude à distinguer deux
sources proches (pouvoir séparateur). Une comparaison entre le pouvoir séparateur
théorique et réel permet d’affiner cette description. Pour un système linéaire, le
pouvoir séparateur est directement associé à la fonction de transfert de modulation.
278 La tomographie

Pour un système non linéaire, il est nécessaire de mesurer le pouvoir séparateur plus
en détail. Cette analyse repose sur la reconstruction de deux sources ponctuelles
prises ensemble, puis séparément. La distance les séparant est traduite en fréquence
spatiale. Soient b, l’amplitude reconstruite au point source, a l’amplitude du milieu
des sources et a’ la somme des activités reconstruites au milieu, les sources étant
prises séparément. Cette analyse permet d’estimer le pouvoir séparateur. La
comparaison entre le pouvoir séparateur théorique et réel permet d’estimer la
linéarité du système (figure 9.14). On définit les PS théorique et réelle par :

b−a
PS réel (d ) = [9.4]
a

b − a'
PS théorique (d ) = [9.5]
a'

Système sous-déterminé
Dans le développement de l’algorithme EM, le nombre de mesures doit être
théoriquement supérieur ou égal au nombre de pixels. Cette contrainte n’étant pas
remplie, l’image introduite à l’itération 0 de l’algorithme définit partiellement la
solution. Dans ces conditions, la stabilité de la solution face au bruit des mesures est
fortement détériorée. En pratique, pour une ouverture de collimation donnée, la
stabilité de la solution est très peu dépendante du nombre de détecteurs autour de
l’objet. A contrario, des pixels situés en bordure de l’objet ont souvent beaucoup de
difficulté à converger lorsque le nombre de détecteurs est réduit. Ces pixels
correspondent à de faibles valeurs de ∑ A ij . L’application d’un filtre médian en
cours d’itération améliore la qualité de l’image reconstruite. Le filtre est appliqué
lorsque ce type de pixel est détecté. Le lissage est appliqué afin de rendre
compatible la solution obtenue avec une distribution réelle de l’écoulement.

9.5. Conclusion

La tomographie par émission de monophoton est une technique originale qui


permet de visualiser des écoulements dans des conditions réelles (température,
pression, débit…) à travers des conduites opaques rendant les méthodes classiques
inopérantes. Chaque situation est un cas particulier qui nécessite une modélisation
du processus de physique de détection. Bien que les performances en termes de
résolution spatiale et linéarité soient très inférieures à celles obtenues sur les
appareils médicaux ou de CND, cette approche permet à l’exploitant ou à un
concepteur d’un système de génie de procédé d’estimer in situ les caractéristiques
des écoulements en présence.
La tomographie d’émission industrielle 279

Figure 9.14. Pouvoir séparateur réel et théorique en configuration 6 x 6 détecteurs

9.6. Bibliographie

[BOL 95] BOLOMEY J.C., « Microwave tomography: Optimization of the operating frequency
range », Frontiers in Industrial Process Tomography, Scott D.M., Williams R.A. (dir.),
Engineering Foundation, New York, 1995.
[CHA 97] CHAOUKI J., LARACHI F., DUDUKOVIC P., « Noninvasive Tomographic and
Velocimetric Monitoring of Multiphase Flows », Ind. Eng. Chem. Res., 36, p. 4476-4503,
1997.
[DIC 93] DICKIN. F.J., WILLIAMS R.A., BECK M.S., « Determination of composition and
motion of multicomponent mixtures in process vessels using electrical impedance
tomography », Principles and process engineering applications, Chem. Eng. Sci, 48,
p. 1883, 1993.
[DAR 95] DARTON R.C., THOMAS P.D., WHALLEY P.B., « Application of optical tomography
in process engineering », Process Tomography 1995 – Implementation for industrial
processes, p. 427-439, 1995.
[GRA 02] GRANGEAT P. (dir.), Tomographie médicale, Hermès, Traité IC2, Paris, 2002.
[LEG 96] LEGOUPIL S., PASCAL G., CHAMBELLAN D., BLOYET D., « Determination of the
detection process in an experimental tomograph for industrial fluid flow visualization
using radioactive tracers », IEEE Transactions on Nuclear Science, vol. 43, n° 2, 1996.
[LEG 97] LEGOUPIL S., Tomographie d’émission gamma à partir d’un nombre limité de
détecteurs appliquée à la visualisation d’écoulement, Thèse de doctorat, Université de
Caen, 1997.
[LEG 99] LEGOUPIL S., TOLA F., CHAMBELLAN D., VITART X., A SPECT device for industrial
flows visualizatio, Italian Association of Chemical Engineering Conference series,
Florence, 1999.
280 La tomographie

[PAR 95] PARKER D.J, DIJKASTRA A.E., MC NEIL P.A., « Positron emission particle tracking
studies of granular flow in a rotating drum », Process Tomography 1995 –
Implementation for industrial processes, p. 352-360, 1995.
[WIL 95] WILLIAMS R.A., DYAKOWSKI T., XIE C.G., LUKE S.P., GREGORY P.J., EDWARDS
R.B., DICKIN F.J., GATE L.F., « Industrial Measurement and Control of Particulate.
Processes using Electrical Tomography », Process Tomography 1995 – Implementation
for industrial processes, p. 3-15, 1995.
Index

3D 229, 230, 231, 232, 236 balistique 211


3DRP 76 banane 210
bande
A de Soret 167
interdite 165, 166
absorption 164
baryum 226
multiphotonique 159
bayésien 122
accélérateur linéaire 222
Beer-Lambert 242
actine 167, 168
biénergie 224, 225
activité métabolique 166
bile 166
ADN 151, 153
bioluminescence 184
agent de contraste 225, 228
biopsie optique 208
Airy 146, 148
biphotonique 159, 160, 161
algébrique 114, 135
Brillouin 169
algorithme 44, 116, 143, 157, 158
bronchographie 226
de Feldkamp 82
bruit 113, 130
de Parker 65
de structure 188
itératif 44
analyse dimensionnelle 251
C
angiographie 226, 227
anisotrope 150, 151 cancer du sein 187
approche CAO 251
analytique 41 carie 187
continue 41 carte de corrélations 152
discrète 41 CCD 230
approximation de Born 192 centre coloré 165
ARN 151 champs de Markov 123
ART 120 cinématique 34, 41
ARTHUR 129 circonvolution cérébrale 208
atténuation 223, 224, 232, 233 CLSM 144, 146, 148, 149, 150, 157
autofluorescence 168 coefficient
d’absorption 165, 166
B d’anisotropie 172
d’atténuation 32, 33, 186
balayage
d’atténuation effective 187
électronique 39
d’atténuation linéique 242
mécanique 39
282 La tomographie

d’atténuation massique 242 dérivée 58


de diffusion 33, 186 détection hétérodyne 201
de Fourier 88 détecteur 227, 229, 230, 233
cohérence 233 à gaz 246
au premier ordre 174 à scintillation 246
mutuelle 174 à semi-conducteur 246
colocalisation 152, 153 intensificateur d’image 246
compensation de taille limitée 84
d’absorption 155 deux photons 159, 160
du mouvement 40 développement de Legendre 171
complet 42 diabétique 167
Compton 225, 233 diagnostic 43
condition tissulaire 169
d’Orlov 69, 70, 76 diffraction 190, 264
de Shannon généralisée 93 diffusion 168, 225, 233
de Tuy 79, 80, 83 Compton 241
conditionnement 115 de Brouillon 184
conditions d’échantillonnage 89, 102 de la lumière 164
contrainte 115, 119, 121, 122 élastique 164, 168, 169
contraste 33, 34, 39 inélastique 164, 168
de phase 222, 232 multiple 194
contrôle des procédés 263 optique 164
convergence 157 Ra 184
convolution linéaire 154 Raman 168
Cormack 44 Rayleigh 241
cornée 187 diode
corps entier 40 laser 190, 212
corrélation linéaire 153 photo-avalanche 212
cortex 187 PIN 212
coupe-projection 190 superluminescente 200
coupleur optique 201 discontinuité 124, 125
coût 40 discrète 111
cristallin 187 distribution
cristaux 173 de temps de séjour 265
photoniques 173 de Wigner 174
cube séparateur 201 divergence 219, 229, 230
cyto-architecture 168 domaine fréquentiel 212
cytochrome 167 dose 224, 225, 228, 234
cytométrie de flux 153 double énergie 34
cytoplasme 150, 169 droite d’acquisition 62
d’estimation 44 durcissement de faisceau 223
de fonctions périodiques en certaines dynamique 36, 41, 44
variables 95
de la transformée de Radon 95 E
eau 167
D
échantillonnage de la transformée conique 110
débruitage 154 échantillonnage 104
décomposition d’Helmholtz 100 de la transformée en rayons X 105
déconvolution 143, 156, 158, 159 efficace 92
défocalisation 145, 146, 148, 150 entrelacé 98
densité 33, 34 standard 98
dentisterie 187 écho 201
dérivée première de la transformée de Radon écoulement polyphasique 263
3D 71, 79, 83 effet Doppler 201
Index 283

élastine 167, 168 flavine 167, 168


électron 221 fluence 184, 207
élément fini 208 photonique 185
émail 187 fluorescence 34, 144, 145, 151-153, 156, 162-
ensemble fondamental 87 164, 167, 184, 233
épandage 58 fluorochrome 145, 150, 152
épiderme 167 fluorogramme 152, 153
épifluorescence 144 fonction 87
épithélium 187 de cohérence de Wigner 174
équation de Green 175, 195
de Boltzmann 40 de phase 170, 178
de convolution 41 de transfert optique 188
de diffusion 186, 207 diélectrique 176
de Maxwell 42 d’étalement du point 145, 146
du transport de Boltzmann 183 essentiellement limitée en
élastodynamique 40 fréquence 91
erreur d’échantillonnage 91 radiale 180
ESRF 220, 26, 230, 232, 233 trigonométrique 88
estimateur 156, 157 force d’oscillateur 165
état FORE 75
de surface 163 formation de l’image 144, 147, 148, 156
électronique 165 formule
expertise 249 de Grangeat 79
de Poisson 89
F d’inversion 58, 64, 72
fortement mal posé 42
facteur
Fourier rebinning 75
d’anisotropie
foyer 145, 146, 148
d’asymétrie 172
fundus 203
de build-up 271
fuseau 210
de pondération 179
faible cohérence temporelle 200
G
faiblement mal posé 42
faisceau gadolinium 225
d’électrons 219, 220 gaussien 124, 129
parallèle 224, 230 générateur de rayons X 243
FBP 59 génie des procédés 263
fenêtre géométrie
d’apodisation 59 conique 77, 78
de Hamming 60 éventail 62
temporelle 210 parallèle 56
fibre 197 d’acquisition 55
optique 197 germanium 227
optique monomode 203 geste chirurgical 48
fidélité 34 GFP 152, 153
filtered backprojection 58 glucose 167
filtrage 58, 64, 70, 72, 82, 244 glycémie 167
gaussien 155, 157 gradient 117
linéaire inverse 156
filtre H
de Colsher 70, 77
Hammersley-Clifford 123
médian 155
harmonie sphérique 179
rampe 58, 59, 73, 82
harmonique 227
de rang 155
HeLa 150, 153, 158
FLASH 152
284 La tomographie

hème 166 libre parcours moyen de diffusion 170


hémoglobine 166 lignes de réponse 73
Henyey-Greenstein 171 linéarité 278
holotomographie 232, 233 liquide cérébrospinal 208
Hounsfield 46 locale 61, 72
hybridation in situ 142, 151 localisation 39
hydrodynamique 263 loi 121, 130, 132
hyperparamètre 127 de Fick 186
de Poisson 154
I de propagation 163
longueur caractéritique d’atténuation 179
îlot quantique 168
de cohérence 200
image diffractée de l’objet 190
de diffusion 186
imagerie
LOR 73, 75
bidimensionnelle 35, 41
lumière transmise 144
cérébrale 226, 228
luminescence 184
Doppler 100
fonctionnelle 45, 187, 207
M
médicale 47
morphologique 45 MAP 122, 127
par émission électron-positron 206 MAP-EM 128
par résonance magnétique nucléaire 206 masse tumorale 187
tridimensionnelle 35, 41, 47 matière
ultrasonique 206 biologique 164
immuno-marquage 151 blanche 208
impédance 264 grise 208
incomplet 42 matrice 43
indice de réfraction 32, 175 de projection 273
industrie 48 extracellulaire 169
infrarouge 161, 165 maximum d’entropie 157
intensité mélangeur 267
mutuelle 174 mélanine 167
spécifique 174, 182 MEM 130, 133
spectrale 220 mesure 112
interaction lumière-matière 163 d’épaisseur 258
interférométrie 201, 264 de densité 258
interpolation de Shannon 90 indirecte 31
interrogation intégrale 41
directe/indirecte 33 MET 142
invariante par rotation 101 métabolisme musculaire 187
inverse généralisé 114, 119 méthode
iode 225 analytique 53, 54
IRM 142 de Monte-Carlo 207
ischémie 226, 228 déterministe 43
itératif 112, 116 discrète 54
itération 156, 157 itérative 209
numérique 208
L probabiliste 43, 44
Michelson 201
laminographie 257
micro-électronique 144
lancer de rayons 252
microparticule 172
Landweber 117
microscopie
laser 144, 145, 151, 152, 163
confocale 142, 144, 145, 147, 149, 150,
argon UV 152
151, 154, 159
pulsé 200
Index 285

électronique en transmission 142 ouverture


X 142 angulaire 81, 83, 84
microsphère 180 numérique 146, 148-150
microtomographie 41, 142, 223, 229-231, 252 parcours moyen de transport 180
milieu pénétration 165
amorphe 173 phonon 166
extracellulaire 169 photodégradation 154
hétérogène 173 photodétecteur 145, 212
translucide 165 photo-électrique 225, 233
miroir semi-transparent 201 photomultiplicateur 145, 156
mitochondrie 150, 151, 158, 169 photon 145, 152, 154, 211
ML-EM 127, 128, 133 physique d’acquisition 271
mode pinhole 145, 150
acoustique 169 pixel 35, 152, 224, 228, 229, 231, 234
optique 169 plan de détection 77, 80
vibratoire 164 plasma sanguin 167
modèle Poisson 132, 133
direct 163, 205 polycarbonate 180
fractal 172 polymère 173
inverse 205, 208 pondération 64, 82
modélisation 128 porphyrine 167, 168
MOISE 129 potentiel 123, 125, 127
monochromateur 223, 227, 230 de diffusion 191
monochromatique 219, 223, 224, 226 pouvoir séparateur 277
Monte-Carlo 252, 272 première approximation de Born 193
moyenne a posteriori 122 principe distance-fréquence 61, 75
multi-énergie 226 problème
muqueuse 187 direct 32, 41, 53, 189
inverse mal posé 42, 54
N, O inverse 32, 41, 53, 158
process tomography Voir surveillance de
NA 146, 148, 149, 150
processus
NADH 167, 168
processus ligne 126
nanocristaux 152
produit de contraste 34
nanoparticule 168
profondeur de champ 148
neuroscience 187
projection 39, 84
non tronquée 69
intégrale 54, 63
non locale 60
inverse 190
noyau 169
parallèle 1D 56
numéro atomique effectif 259
parallèle 2D 68
Nyquist-Shannon 89
parallèle tronquée 73
propagation
O cohérente 173
œil 187 incohérente 164
onde propriété
acoustique 32 diélectrique 173
de densité de photons 212 physique des tissus 164
électromagnétique 32, 163 pseudo locale 60
primaire 191 PSF 146, 147, 148, 150, 156, 157
pseudo cohérente 212 puissance fractale 172
supérieure 168
ondulateur 221 Q, R
opérateur 55 quadrillage 35, 36, 41
organelle 169 radar 201
286 La tomographie

radiance 182, 207 rétroprojection 44, 58, 59, 64, 70, 72, 73, 82, 84,
radiofréquence 212 143, 190
Radon 46 des projections filtrées 59, 64, 67, 70, 76,
rapport signal/bruit 188 77, 81
Rayleigh 233 reverse engineering Voir rétroconception
ray tracing Voir lancer de rayons rhodamine 150, 151, 158, 164
rayonnement 32 rhodopsine 167
cohérent 32
diffusé 271 S
gamma 265
sang 166
ionisant 265
sciences
monochromatique 243
de l’univers 48
non cohérent 33
de la matière 48
polychromatique 243
de la vie 47
secondaire 191
scintillateur 230
synchrotron 219-220, 223, 230, 234, 254
section efficace
rayons X 33, 39
d’absorption 166
réarrangement 64, 74, 81, 83
de diffusion 170
reconstruction 39, 41, 45, 141, 143, 152, 155,
sectionnement optique 141, 142, 144, 149, 150
158, 247
semi-conducteur 166
3D 158
sensibilité 32
aliasing 248
série de Fourier 88
ART 247
serpentile 211
artefact 244, 247
service 48
cupping effect 248
seuil K 225, 227
d’image 53
signal continu 201
épandage 247
simulation 251
filtre 247
numérique 270
indirecte 84
single-slice rebinning 74
méthode algébrique 247
sinogramme 64, 228, 231
méthode analytique 247
oblique 74
rayures 248
SIRT 116
repliement 248
SNR 154
transformée de Radon 247
Soret 166
redondance des données 70
source
réflexion 33, 144
à large bande spectrale 200
réfraction 219, 232, 233
radioactive 243
régularisation 42, 43, 54, 115, 122, 125
soustraction 224, 228, 229
réjection du bruit 155
spécificité 32
relation
spectre 219, 243
de cohérence 168
durcissement 244
d’incertitude 42, 181
spectroscopie optique 163
reprojection 79
sphère limite d’Ewald 196
réseau trabéculaire 232
SSRB 74
résolution 254
statique 36
axiale 145, 148, 149, 150, 158
statistique 121, 134
latérale 145, 146, 150
suivi d’un traitement thérapeutique 48
spatiale 35, 36, 223, 229, 232
superrésolution 201
temporelle 35, 36, 40
support
résonance magnétique nucléaire 33
de la transformée de Fourier 62
restauration 154, 156, 157
essentiel 92
rétine 167, 187
surveillance de processus 241, 254
rétroconception 251
synchrotron 142
rétrodiffusion 33
Index 287

système tomosynthèse 256


actif 33 trajectoire hélicoïdale 66, 80, 82, 83, 84
confocal 203 transformation
passif 34 de Radon 2D en géométrie éventail 63
sous-déterminé 278 de Radon 2D 56
de Radon 3D 67, 72, 80
T de Radon atténuée 61
de Radon 71
taux de saturation de l’hémoglobine 167
rayons X 2D 56
théorème
rayons X 3D en géométrie conique 77, 78
coupe-projection 57, 69, 72
rayons X 3D 66, 67
de convolution 58
transformée
de sectionnement de Fourier 190
de Fourier 39, 43, 57, 61, 69, 72, 75, 88
théorie
de Fourier inverse 88
de la diffusion de Mie 171, 172
de Fredholm 43
du transfert radiatif 181
de Hilbert 58
thérapie 48
de Radon 39, 43
Thomson 233
de Radon 2D 74, 77
tissus 166
de Radon 3D 71
cancéreux 232
en rayons X atténuée 102
néoplastiques 173
intégrale de Fredholm 39
nerveux 167
rayons X 3D en géométrie conique 78
pathologiques 168
rayons X 3D 69, 70, 73, 74
tumoraux 168
transmission 33
Titane-Saphir 200
trappe 168
tomodensimétrie 242, 249
triphotonique 159
tomographe 269
tube X 221
d’émission à positons 73
tumeur 226, 228
tomographie 31, 45, 47, 53, 141-144, 241
biénergie 255
U, V
computérisée par émission de photons
isolés 206 ultraviolet 165
de cohérence 188 vacuole 169
de procédé 264 vecteur d’onde 174
haute énergie 250 verre 173
optique 163, 188 vertèbre 232
optique de cohérence 189, 199 visible 165
par diffraction 194, 259 volume 229, 231
par diffusion 241, 257 sanguin cérébral 228
par émission 113, 118, 127, 132, 241 voxel 35, 143, 152
par fluorescence 241
par transmission 241 W, X
quantitative 224
wiggler 221, 228
ultrasonore 264
xénofluorophore 168
vectorielle 99

Vous aimerez peut-être aussi