0% ont trouvé ce document utile (0 vote)
54 vues221 pages

Masques Photométriques et Transits Planétaires

Masques Photométriques et Détection des transits planétaires Dans le cadre de la mission CoRoT Pascal Guterman To

Transféré par

barbara.borloz
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
54 vues221 pages

Masques Photométriques et Transits Planétaires

Masques Photométriques et Détection des transits planétaires Dans le cadre de la mission CoRoT Pascal Guterman To

Transféré par

barbara.borloz
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Masques Photométriques et Détection des transits

planétaires Dans le cadre de la mission CoRoT


Pascal Guterman

To cite this version:


Pascal Guterman. Masques Photométriques et Détection des transits planétaires Dans le cadre de la
mission CoRoT. Traitement du signal et de l’image [[Link]]. Université Paul Cézanne - Aix-Marseille
III, 2005. Français. �NNT : �. �tel-00419970�

HAL Id: tel-00419970


[Link]
Submitted on 25 Sep 2009

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
Université Paul Cézanne Aix-Marseille III
École Doctorale Physique et Sciences de la Matière
Laboratoire d’Astrophysique de Marseille

Masques Photométriques
et
Détection des transits planétaires
Dans le cadre de la mission Corot

THÈSE
pour obtenir le grade de

Docteur de l’Université Paul Cézanne

Discipline : Optique, Image et Signal

par

Pascal Guterman

Soutenue publiquement le 29 novembre 2005 au


Laboratoire d’Astrophysique de Marseille

Devant le Jury composé de :


Pr. Annie Baglin . . . . . . . . . . . . . . . . . Examinatrice
Pr. Salah Bourennane . . . . . . . . . . . . Examinateur
Dr. Antoine Llebaria . . . . . . . . . . . . . Directeur
Dr. Pierre Barge . . . . . . . . . . . . . . . . . . Directeur
Pr. David Naccache . . . . . . . . . . . . . . Rapporteur
Dr. Fabio Favata . . . . . . . . . . . . . . . . . . Rapporteur
Pr. Mustapha Ouladsine . . . . . . . . . . Président

2005 AIX3-0041
Université Paul Cézanne Aix-Marseille III
École Doctorale Physique et Sciences de la Matière
Laboratoire d’Astrophysique de Marseille

Masques Photométriques
et
Détection des transits planétaires
Dans le cadre de la mission Corot

THÈSE
pour obtenir le grade de

Docteur de l’Université Paul Cézanne

Discipline : Optique, Image et Signal

par

Pascal Guterman

Soutenue publiquement le 29 novembre 2005 au


Laboratoire d’Astrophysique de Marseille

Devant le Jury composé de :


Pr. Annie Baglin . . . . . . . . . . . . . . . . . Examinatrice
Pr. Salah Bourennane . . . . . . . . . . . . Examinateur
Dr. Antoine Llebaria . . . . . . . . . . . . . Directeur
Dr. Pierre Barge . . . . . . . . . . . . . . . . . . Directeur
Pr. David Naccache . . . . . . . . . . . . . . Rapporteur
Dr. Fabio Favata . . . . . . . . . . . . . . . . . . Rapporteur
Pr. Mustapha Ouladsine . . . . . . . . . . Président

2005 AIX3-0041
Remerciements
Cette thèse au Laboratoire d’Astrophysique de Marseille fut initiée dans le
cadre d’une collaboration avec la société Gemplus qui m’emploie. Elle m’a donné
la chance de faire connaissance avec la communauté scientifique par le biais de
la mission Corot . Le privilège de cette expérience a dépassé de loin toutes mes
espérances et le plaisir de travailler au LAM fut quotidien.

Le souvenir de ces années passionnantes et intenses reste si vivace qu’on


dirait que tout s’est déroulé dans la seule journée d’hier. Le contact avec le
monde astronomique était un rêve d’enfant. Je ne remercierais jamais assez
David Naccache, scientifique et dirigeant d’exception à Gemplus, pour sa
compréhension et sa flexibilité. C’est à lui que je dois la réalisation de ce rêve. Je
le remercie également d’avoir accepté la charge de rapporteur.
La plus importante des rencontres qui ont enrichi ce parcours fut sans conteste
celle d’Antoine Llebaria, responsable du traitement d’image au LAM et
Directeur de cette thèse. Je tiens à exprimer tout particulièrement ma gratitude
et mon amitié envers cet esprit aussi brillant que sympathique. Il a toujours
trouvé du temps à me consacrer et je lui dois la plus grande partie de ce que j’ai
appris.
Je remercie chaleureusement Pierre Barge, également Directeur de cette thèse.
Il m’a guidé tout le long du trajet et son soutien humain de tous les instants m’a
été crucial. Il m’a “éveillé” à l’astronomie et passionné au sujet de la formation
planétaire. Je le remercie aussi pour le temps considérable consacré, pour ses
encouragements à la publication et son travail de relecture.
Je suis particulièrement honoré et touché qu’Annie Baglin ait eu la gentillesse
de faire partie du jury malgré ses énormes responsabilités de PI Corot . Je suis
heureux d’avoir fait partie de son équipe et lui exprime toute mon admiration.
Je tiens également à remercier Salah Bourennane et Mustapha Ouladsine
qui ont aimablement accepté la charge de membre et président du jury. Je
remercie également Fabio Favata pour son travail de rapporteur.

Raphael Cautain m’a beaucoup aidé par sa culture absolue de Corot et la


clarté de ses explications. Je suis redevable à Céline Quentin qui m’a aidé pour
la publication sur la détection des transits. Je sais gré à Eric Brier pour son
aide dans les calculs.
Nombre de personnes m’ont été d’un grand secours et il serait impossible de les
énumérer toutes. Je remercie entre autres Jean-Charles Meunier pour son aide,
Thomas Fenouillet qui m’a presque persuadé que l’ordinateur était un objet
docile, Claire Martin en souvenir de nos fins de thèses respectives lorsque 3
6

heures du matin était une heure ordinaire pour communiquer, les personnes de
l’administration et les étudiants dont l’entraide m’a épargné nombre d’errements.

Au cours de cet itinéraire, Magali Deleuil ainsi que Claire Moutou m’ont
ouvert la porte d’une mission d’observation à La Palma pour prendre un peu
de recul. Même si c’était une nuit de 31 décembre et qu’il a fallu combiner 34
vols bons marchés (à quatre) afin de rester en famille, je les remercie pour cette
palpitante épopée. Message : je reste volontaire. La palme de la bonne humeur
revient sans conteste à Magali, ainsi que tout le palmier.

Au-delà de ce travail de thèse, je tiens à rendre grâce à Claire, ainsi que Jean-
Claude Bouret, Stéphane Arnouts, François Bouchy, Laurence Tresse,
Stéphane Basa, Christophe Adami et tant d’autres astronomes qui ont répondu
avec patience et pédagogie au flot de mes questions sur leur extraordinaire métier.

J’adresse toute mon affection à mes parents, et remercie en particulier ma


mère à qui j’ai donné quelques soucis à l’époque de mon orientation scolaire,
même si ce n’est qu’après l’équivalent de 20 ans de redoublements.

Enfin, Joëlle (Madame) fut le papillon de “l’effet papillon” : quand elle eut
l’idée fondatrice “Pourquoi ne reprendrais-tu pas les études ?”, elle ne pouvait
soupçonner l’ampleur du basculement climatique qui se déclencherait en retour.
En effet, bien que déjà salarié d’une entreprise, je m’engouffrais aussitôt dans la
passion de cette deuxième vie en parallèle. Du DEA jusqu’en fin de thèse, les
conséquences pour elle et pour nos filles Camille et Julie furent parfois pesantes.
Elle a pourtant assumé, résisté à la tentation légitime de sortir mes affaires sur
le perron, et a toujours continué de m’encourager.

Je te dédie, Joëlle, ces années et cette thèse.


Table des matières

1 Introduction générale 3

2 La détection des planètes extra-solaires 9


2.1 Les différentes méthodes . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.1 Vélocimétrie radiale . . . . . . . . . . . . . . . . . . . . . 9
2.1.2 Astrométrie . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.3 Méthode par réflexion . . . . . . . . . . . . . . . . . . . . 12
2.1.4 Observation directe . . . . . . . . . . . . . . . . . . . . . . 12
2.1.5 Lentilles gravitationnelles . . . . . . . . . . . . . . . . . . 12
2.2 la Méthode des transits . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.1 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.2 Durée du transit . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.3 Intérêt du spatial . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.4 Le bruit photonique . . . . . . . . . . . . . . . . . . . . . 16
2.2.5 La variabilité stellaire . . . . . . . . . . . . . . . . . . . . . 17

3 La recherche de planètes extrasolaires avec Corot 23


3.1 Présentation de la mission . . . . . . . . . . . . . . . . . . . . . . 23
3.2 l’Instrument . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1 Le baffle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.2 La défocalisation de l’image . . . . . . . . . . . . . . . . . 28
3.2.3 Le système disperseur . . . . . . . . . . . . . . . . . . . . 29
3.2.4 Les PSFs de référence . . . . . . . . . . . . . . . . . . . . 29
3.2.5 Position de référence . . . . . . . . . . . . . . . . . . . . . 31
3.3 Photométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3.1 Photométrie par ajustement de PSF . . . . . . . . . . . . 31
3.3.2 Photométrie d’ouverture . . . . . . . . . . . . . . . . . . . 33
3.3.3 Sélection des cibles . . . . . . . . . . . . . . . . . . . . . . 34
3.4 Capacité de détection . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.1 Nombre de détections attendues . . . . . . . . . . . . . . . 37

i
ii TABLE DES MATIÈRES

I Fenêtrage optimisé 39
4 Énoncé des contraintes pour l’optimisation des masques pho-
tométriques 41
4.1 Terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2 Critère de qualité pour le fenêtrage . . . . . . . . . . . . . . . . . 43

5 Calcul des masques optimaux 45


5.1 Le signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.2 Les bruits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.1 Le bruit photonique . . . . . . . . . . . . . . . . . . . . . 46
5.2.2 La contamination . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.3 Le jitter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.2.4 La respiration . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.2.5 Les bruits électroniques . . . . . . . . . . . . . . . . . . . . 49
5.2.6 Le traı̂nage . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2.7 La saturation . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.2.8 Bruits d’arrondi . . . . . . . . . . . . . . . . . . . . . . . . 50
5.2.9 La variabilité stellaire . . . . . . . . . . . . . . . . . . . . . 51
5.2.10 Les éclipses d’étoiles du fond . . . . . . . . . . . . . . . . . 51
5.3 Modèle du bruit photonique . . . . . . . . . . . . . . . . . . . . . 52
5.4 Modèle jitter 1-D . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.4.1 Signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.4.2 Bruit au 1er ordre . . . . . . . . . . . . . . . . . . . . . . 54
5.4.3 Bruit au 2ème ordre . . . . . . . . . . . . . . . . . . . . . 56
5.5 Modèle jitter 2-D . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.5.1 Bruit 2-D au 1er ordre . . . . . . . . . . . . . . . . . . . . 57
5.5.2 Bruit 2-D au 2ème ordre . . . . . . . . . . . . . . . . . . . 58
5.6 Vérification expérimentale . . . . . . . . . . . . . . . . . . . . . . 59
5.7 Simulation d’Images . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.7.1 Simulation des PSFs stellaires . . . . . . . . . . . . . . . . 62
5.7.2 Masques optimaux . . . . . . . . . . . . . . . . . . . . . . 64
5.8 Première publication Llebaria et al. (2002), SPIE. . . . . . . . . 66

6 Réduction Optimisée du nombre de patrons 67


6.1 Introduction au problème de la réduction optimisée . . . . . . . . 67
6.2 Nécessité et contraintes de la réduction . . . . . . . . . . . . . . . 68
6.3 Méthode 1 : Paramétrisation a priori . . . . . . . . . . . . . . . . 69
6.4 Méthode 2 : Paramétrisation a posteriori . . . . . . . . . . . . . . 70
6.4.1 Pertinence de la réduction : . . . . . . . . . . . . . . . . . 70
6.4.2 Dimension sous-jacente . . . . . . . . . . . . . . . . . . . . 71
6.4.3 Formalisation de la méthode utilisée précédemment . . . . 72
TABLE DES MATIÈRES iii

6.4.4 Défauts de cette approche . . . . . . . . . . . . . . . . . . 75


6.5 Méthode 3 : L’homogénéisation morphologique directe . . . . . . . 75
6.5.1 Algorithme de Base : la Condensation . . . . . . . . . . . . 76
6.6 Méthode 4 : Le problème à K-moyennes . . . . . . . . . . . . . . 78
6.7 Méthode 5 : Le tri efficace de masques pseudo-aléatoires . . . . . 81
6.7.1 Dilemme de l’optimisation collective . . . . . . . . . . . . 82
6.7.2 Mesure du S/B global . . . . . . . . . . . . . . . . . . . . . 84
6.7.3 Tolérance aux masques aléatoires . . . . . . . . . . . . . . 84
6.7.4 Description de la méthode . . . . . . . . . . . . . . . . . . 86
6.7.5 Résultats obtenus . . . . . . . . . . . . . . . . . . . . . . . 87
6.7.6 Mise en oeuvre de la procédure . . . . . . . . . . . . . . . 89
6.7.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.8 Deuxième publication Llebaria et al. (2003), SPIE. . . . . . . . . 93

7 Attribution des patrons sur une image complète 95


7.1 Méthodes testées . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.2 Méthode choisie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
7.3 Résultat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
7.4 Double critère de priorité . . . . . . . . . . . . . . . . . . . . . . . 100
7.5 Données destinées à la détection des transits . . . . . . . . . . . . 104
7.6 Conclusion et perspectives pour le fenêtrage . . . . . . . . . . . . 107

II Détection des transits dans les courbes de lu-


mière 109
8 Énoncé des contraintes. 111
8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
8.2 Les méthodes de détection . . . . . . . . . . . . . . . . . . . . . . 112
8.3 Test en aveugle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
8.3.1 Les données de simulation . . . . . . . . . . . . . . . . . . 116
8.3.2 Les méthodes utilisées . . . . . . . . . . . . . . . . . . . . 118
8.3.3 Traitement des données manquantes . . . . . . . . . . . . 120

9 La méthode proposée 123


9.1 La détection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
9.1.1 Définition du débruitage et de la détection . . . . . . . . . 124
9.1.2 Justification du séquencement inversé . . . . . . . . . . . . 124
9.1.3 Détecteur utilisé . . . . . . . . . . . . . . . . . . . . . . . 126
9.1.4 Modèles de transit . . . . . . . . . . . . . . . . . . . . . . 128
9.1.5 Gabarit optimal . . . . . . . . . . . . . . . . . . . . . . . . 129
9.1.6 Premier résultat . . . . . . . . . . . . . . . . . . . . . . . . 129
9.2 Le débruitage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
iv TABLE DES MATIÈRES

9.2.1 Prépondérance des bruits systématiques . . . . . . . . . . 131


9.2.2 Identification des modes communs . . . . . . . . . . . . . . 132
9.2.3 Obtention des courbes de vraisemblance . . . . . . . . . . 134
9.2.4 Classification des courbes de lumière . . . . . . . . . . . . 135
9.2.5 Caractérisation des événements . . . . . . . . . . . . . . . 137
9.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
9.4 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
9.5 Troisième publication Guterman et al. (2005), SPIE. . . . . . . . 142

10 Conclusion 143
10.1 Acquisition des données . . . . . . . . . . . . . . . . . . . . . . . 143
10.2 Détection des transits . . . . . . . . . . . . . . . . . . . . . . . . . 145

Annexes
A Performances des patrons 149

B Le test en aveugle 151


B.1 Article de Moutou et al. (2005), A&A. . . . . . . . . . . . . . . . 152
Résumé

La mission spatiale Corot sera lancée fin 2006. L’un de ses objectifs est de
détecter des planètes extrasolaires dont la taille n’excède pas quelques rayons
Terrestre. Corot utilise la méthode des transits. Il s’agit de déceler, à l’aide d’un
petit télescope, la très faible baisse de flux d’une étoile causée par le passage d’une
planète devant le disque stellaire. Pour réaliser son objectif, Corot atteindra une
précision photométrique de 7.10−4 sur des étoiles de magnitude 15.5 intégrées
pendant une heure. Corot mesurera ainsi 60 000 étoiles sur l’ensemble de sa
mission.
Les étoiles sont mesurées simultanément et continûment par champs de 12 000
cibles grâce à l’utilisation d’une matrice CCD. Pour limiter le volume de données,
Corot réalise à bord une photométrie d’ouverture : à chaque pose, les pixels
compris dans une ouverture entourant chaque étoile-cible sont sommés en
une mesure photométrique unique. Idéalement, chacune des 12 000 fenêtres est
optimisée en fonction des paramètres et de l’environnement de son étoile-cible. Le
problème est qu’il faut réduire la variété de forme des ouvertures (les “patrons”)
d’un facteur 20, pour rester compatible avec la capacité de traitement des
données à bord du satellite. Il s’ensuit une perte de spécialisation des fenêtres,
contradictoire avec le maintien d’un rapport signal à bruit maximal pour toutes
les cibles. Le centre de la question est donc de déterminer une collection réduite
de patrons qui satisfasse l’objectif scientifique de Corot . C’est un problème
très important pour le succès de la mission car la qualité des mesures de Corot
dépend directement du choix des fenêtres. Un deuxième problème important
est la détection des transits planétaires dans les multiples courbes de lumière
temporelles que produira Corot .
La première partie des travaux que j’ai menés est consacrée à l’étude des
méthodes de réduction des patrons, et à leur répartition sur les étoiles cibles en
préservant au mieux le rapport signal à bruit. La deuxième partie de l’étude
s’attache à la détection des transits dans les courbes de lumière temporelles que
produira Corot . L’organisation en deux parties de ce mémoire traduit ce double
thème.

Les chapitres introductifs 1 et 2 esquissent le contexte et exposent les méthodes


de détection des planètes extrasolaires en détaillant la méthode des transits plané-
taires. Le chapitre 3 dresse une description du volet exoplanètes de Corot et en
précise l’objectif.
La première partie du manuscrit est consacrée à l’optimisation des fenêtres. Le
chapitre 4 situe le problème. Mon travail a commencé par l’étude d’une expres-
sion analytique pour le rapport signal à bruit (chapitre 5). Puis, la résolution du
problème se déroule en 3 étapes :
– L’obtention de 12 000 masques de lecture, chacun optimisé pour sa cible,
sert de base pour la réduction.
– Le chapitre 6 relate l’étude sur la réduction de diversité de ces masques. J’ai
testé différentes méthodes de classification, ou de regroupement suivant des
critères morphologiques. La méthode mise au point et finalement retenue
est un tri efficace de masques pseudo aléatoires.
– Au chapitre 7, j’ai comparé des méthodes d’assignation des patrons aux
cibles. Le problème est d’attribuer les patrons en gérant des priorités pour
éviter les chevauchements entre fenêtres. Ces chevauchements sont causés
par l’encombrement des champs stellaires visés. La technique mise au point
est basée sur une gestion de file d’attente.

La deuxième partie du mémoire est consacrée à la détection des transits


planétaires dans les courbes de lumière de Corot . Leur signature est une baisse
périodique de luminosité de forme caractéristique. Les transits de plus faible
amplitude et de plus grande période correspondent aux planètes recherchées,
mais sont aussi les plus difficiles à détecter. L’amplitude des transits détectables
est limitée par le bruit en aval du détecteur ; les pics de détection correspondant
aux petits transits tendent à rester noyés dans le continuum de détection.
J’ai étudié la façon d’améliorer la détection en atténuant dans le continuum
les artefacts liés à des facteurs systématiques. Pour identifier ces artefacts, la
méthode proposée tire parti du grand nombre des courbes de lumière qui seront
produites par Corot . Le chapitre 8 expose le problème, dresse un panorama
des méthodes de détection et décrit l’élimination des bruits dans une collection
de courbes simulées. Le chapitre 9 décrit la méthode proposée, basée sur la
pondération des facteurs systématiques présents dans les courbes de corrélation
temporelle.

La conclusion générale est présentée au chapitre 10. Les méthodes proposées


pour la réduction des patrons et leur affectation aux cibles permettent de préser-
ver le plus souvent 95% à 97% du rapport signal à bruit initial. Une étoile est
d’autant mieux préservée qu’elle est brillante. Ces techniques seront utilisées pour
déterminer les masques de vol. Pour la détection des transits, le recours à l’identi-
fication et au traitement des systématiques a permis de réduire significativement
le bruit dans la détection, faisant émerger des transits supplémentaires.
Chapitre 1

Introduction générale

Le premier but du travail présenté dans cette thèse est de déterminer les
ouvertures photométriques optimales servant à fenêtrer l’image des étoiles sur
la matrice CCD embarquées à bord de satellites conçus pour la recherche des
transits exoplanétaires.
Le second but de ce travail est de présenter l’utilisation qui peut être faite du
grand nombre des étoiles cibles d’un champ d’observation pour améliorer la
capacité de détection des signaux de transits dans les courbes de lumière.
Le travail réalisé s’inscrit dans le cadre de la préparation de la mission spatiale
Corot , ses différentes parties ont fait l’objet de 4 publications figurant dans ce
manuscrit.

Depuis la prise de conscience que les myriades d’étoiles qui emplissent


notre ciel nocturne sont autant de Soleils, l’hypothèse de planètes gravitant
autour de l’une d’elles devı̂nt inéluctable. C’est Mayor & Queloz (1995) qui ont
détecté pour la première fois l’un de ces mondes autour de l’étoile 51-Pegasi.
Depuis, les découvertes se succèdent et s’accélèrent. Après maintenant une
décennie, on connaı̂t 168 planètes extra-solaires, ou exoplanètes, et 18 systèmes
multi-planétaires1 .

Le nombre d’objets détectés est suffisant pour aborder les faits du point de
vue statistique. La table 1.1 de masse des exoplanètes montre une abondance
accrue de planètes peu massives, ce qui laisse espérer nombre de planètes
telluriques de quelques masses terrestres. Vers les faibles masses, la coupure
marque la limite de sensibilité. A l’autre extrémité la raréfaction au-delà de 10
MJ , nommée “désert des naines brunes” annonce la transition vers une autre
classe d’objets.

1
Une encyclopédie électronique est maintenue à jour par l’observatoire de Meudon au lien
http ://[Link]/planets

3
4 Introduction générale

Fig. 1.1 – Diagramme des masses d’exoplanètes, en masse Jovienne. La diminution


de population vers 10 MJ n’est pas un biais de mesure car ces astres sont les plus
facilement détectables. Pour comparaison la masse Terrestre M⊕ ' 0.003MJ

D’autres statistiques, telle la distribution comparée entre la masse et la


période, ou la probabilité de présence d’une planète en fonction du taux d’élé-
ments lourds de l’étoile permettent de contraindre les mécanismes de formations
planétaires. La corrélation avec la métallicité montre par exemple qu’étoiles et
planètes se forment suivant des scénarii très différents.

Les principaux mécanismes proposés mettent en jeu aussi bien les forces
gravitationnelles, radiatives ou magnétiques que les forces de friction aérodyna-
miques. Il semble aujourd’hui que les grandes lignes d’un scénario de formation
planétaire se dessinent. A l’issue de la formation de l’étoile, il subsiste un disque
de gaz et de poussières : le disque protoplanétaire. Les poussières vont se coller
sous l’effet de l’attraction électrostatique et moléculaire, formant de minuscules
grains de 1µm à 1 mm (coagulation). Ces grains s’agglomèrent ensuite, tout en
étant contrariés par les fréquents chocs à haute vitesse relative qui tendent à les
désagréger. Au-delà d’une taille critique, la matière rencontrée s’accumule sans
dommage, formant des planétésimaux. Cette étape rapide se déroule en moins de
105 années, les corps sont alors assez massifs pour que le gaz ne joue plus de rôle
dans leur mouvement. Certains corps massifs dans les régions externes du disque
pourraient capturer une grande quantité de gaz environnant en quelques millions
d’années, devenant ainsi des planètes géantes gazeuses. La totalité du processus
doit avoir pris place avant que le gaz ait disparu, soufflé par l’étoile. Dans la
partie plus interne du disque, les collisions entre corps solides formeraient des
planètes rocheuses en 10 à 100 millions d’années. Ces collisions expliqueraient la
5

cratérisation observée des planètes actuelles. Le temps de formation peut être


plus long car le gaz n’y joue plus de rôle.

L’étape de formation planétaire est complexe et il se pourrait que des


tourbillons à grandes échelles se forment dans le disque protoplanétaire, aidant
le matériau solide à se concentrer et s’agglomérer pour former des corps de taille
astéroı̈dale. Barge & Sommeria (1995) proposent un mécanisme qui repose sur
la persistance de tourbillons stables à grande échelle dans le gaz de la nébuleuse
protoplanétaire. Un anticyclone persistant capturerait un grand nombre de
particules, les forçant à s’agréger en planétésimaux. La masse capturée présente
un maximum à hauteur de l’orbite de Jupiter. Au-delà de cette distance, les
matériaux capturés de faible densité sombreraient profondément dans le vortex
en s’effondrant pour donner naissance au noyau solide des planètes géantes.
En deçà de cette orbite, la capture sélectionne plutôt les particules denses, les
agrégeant en un planétésimal assez massif pour être éjecté du maëlstrom. Il
fusionnerait alors avec d’autres pour former une planète tellurique.

Loin d’être un simple comptage, la quête des exoplanètes révèle un trésor


de diversité. La table 1.1 présente quelques cas remarquables. La plupart sont
des planètes massives gravitant près de leur étoile. Ces “Jupiter chauds” peuvent
atteindre des températures de l’ordre du millier de degré. Les modèles de
formation planétaires situaient jusqu’alors les géantes gazeuses loin de l’étoile
pour y trouver suffisamment d’atomes légers. Les durées de révolution s’étalent
entre 1.2 jours et 12 ans. Vers les faibles masses, Mu Area d (HD 160691d)
fut la première candidate planète de masse comparable à celle de Neptune
tellurique avec moins de 10M⊕ (masses terrestre). Dans un autre registre, on
trouve des systèmes multi-planétaires, mais aussi de plus insolites systèmes
multi-stellaires où le record appartient à HD 188753A b qui gravite autour d’une
des composantes d’un système triple. On s’explique encore mal comment une
planète a pu se former dans un environnement aussi secoué de perturbations
gravitationnelles.

Cette abondance de cas atypiques a bouleversé notre vision de la formation


des systèmes planétaires. On pensait qu’à l’image de notre propre système, la
formation planétaire produisait de petites planètes denses et proches de l’étoile,
et des géantes gazeuses éloignées. Les premières agglomèrent les atomes lourds
résiduels de la formation de l’étoile, les secondes trouvent assez d’atomes légers
dans la large circonférence du disque circumstellaire. Les planètes auraient
gravité sur le lieu même de leur formation. Les Jupiter chauds semblent être en
contradiction avec cette idée. Ils sont parfois multiples et paraissent trop proches
de l’étoile pour avoir trouvé sur place la matière suffisante à leur formation. On
envisage à présent un mécanisme de migration qui opère alors que la planète
6 Introduction générale

Tab. 1.1 – Exoplanètes remarquables

masse orbite
Exoplanète Particularité date
(MJ ) (jour)

51 Pegasi 0.468 4.2 (Mayor & Queloz 1995)


La première
(HD 217014) b

HD 202206 b La plus massive 17.4 255

Gliese 876 La tellurique la 7.3


1.9 2005
(HIP 113020) d moins massive MTerre

OGLE-TR-56 L’orbite la plus 1.45 1.21 (Torres et al. 2003)


b brève

Détection
d’Oxygène et
Carbonne (Henry et al. 1999),
Osiris 0.69 3.5 (Vidal-Madjar et al.
atmosphériques à
1 000 °C
(HD209458) b 2004)
s’accrétant sur
l’étoile

Upsilon 0.69 4.6


Le premier système 1.89 241 (Marcy & Butler 1996)
Andromedae
stellaire 3.7 1284
(HD9826) b,c,d

Système à 4 0.784 14.7


55 Cancri exoplanétes, avec 0.217 43.9
(HD 75732) ceinture de Kuiper 1996 à 2004
3.92 4517
b,c,d,e et orbite la plus 0.045 2.81
longue

Mu Area La première 14
9.55 2004
(HD 160691) d tellurique MTerre

Exoplanète autour (Wolszczan 1994)


PSR :B1257+12 d’un pulsar

La première image
directe. Exoplanète 2450
2M1207 5 (Chauvin et al. 2004)
autour d’une naine ans
brune

Exoplanète autour
d’une des étoiles 1.14 3.34 (Konacki 2005)
HD 188753A b
triples HD
188753A,B,C
7

à presque terminé son accrétion. Avec le temps, la planète se rapprocherait


de l’étoile et pourrait dans certains cas y sombrer. A la lumière de ces décou-
vertes, notre système Solaire n’est plus la règle mais fait plutôt figure d’exception.

L’autre source d’intérêt majeur des exoplanètes est bien entendu la quête
philosophique et scientifique d’autres éclosions de la vie. Dans ce sens, Vidal-
Madjar et al. (2004) ont détecté autour de la planète Osiris la présence de
Carbone et d’Oxygène dans la haute atmosphère, certes en train de tomber
sur l’étoile. Il sera nécessaire de repousser toujours plus loin les limites de la
détection d’exoplanètes afin de collecter des informations les plus précises sur
la nature et la composition de ces objets. Quelle que soient les spéculations
exobiologiques, les planètes-hôte sont recherchées dans la zone “habitable” d’une
étoile, située à une distance de l’ordre de l’unité astronomique (UA). On adopte
comme critère d’habitabilité la plage de pression et de température compatible
avec la présence d’eau liquide. Les planètes trop proches ne sont pas compatibles
avec une chimie élaborée, l’excès de chaleur et de rayonnements ultraviolet brise
les assemblages moléculaires. Les mondes éloignés sont froids et figés.

A part le cas 2M1207 qui est une étoile naine rouge peu lumineuse, les exo-
planètes ne peuvent pas être observées directement à ce jour. Elles sont un milliard
de fois moins lumineuses que leur étoile, et trop proches d’elle au regard de la
distance qui nous en sépare. On a donc recours à des méthodes indirectes qui
décèlent l’effet des perturbations gravitationnelles ou lumineuses que la planète
induit sur l’étoile. La détection est d’autant plus difficile que les planètes sont pe-
tites et éloignées de leur étoile. C’est pourquoi une précision accrue est nécessaire
pour détecter et étudier les planètes “habitables”. Schneider (1999) dresse un tour
d’horizon des méthodes et projets. En attendant la réalisation d’interféromètres
spatiaux ambitieux, les techniques les plus appropriées sont la vélocimétrie ra-
diale et la méthode des occultations dite méthode des transits. La vélocimétrie
radiale donne accès à la masse et à la période de la planète, donc au demi grand
axe de son orbite car la masse de l’étoile peut être estimée de façon assez précise.
Les transits indiquent la taille de cette planète et affinent la détermination de
la période. Ces deux méthodes sont complémentaires et la combinaison de leurs
informations permet de déterminer complètement le système, de lever les ambi-
guı̈tés, et de déduire la densité de la planète donc son éventuelle nature rocheuse.
Elles se prêtent toutes deux à des études systématiques.
8 Introduction générale
Chapitre 2

La détection des planètes


extra-solaires

Ce chapitre présente les différentes méthodes de détection des exoplanètes et


détaille les principaux perturbateurs intervenant dans la méthode des transits.

2.1 Les différentes méthodes


2.1.1 Vélocimétrie radiale
Cette méthode spectroscopique est à l’origine de la quasi-totalité des décou-
vertes ou confirmations à ce jour. Dans un système planète-étoile, l’attraction
réciproque fait légèrement tourner l’étoile autour du centre de masse commun.
Vue de la Terre, l’étoile oscille autour de sa position d’équilibre (voir Fig.2.1).
La composante de ce “va-et-vient” vers l’observateur provoque un décalage Dop-
pler récurrent du spectre. Une spectroscopie précise permet de remonter à v? (t),
vitesse de l’étoile à différentes dates.
A partir de v? et T , période du mouvement, on cherche à retrouver la masse
m de la planète. A tout moment, les vitesses de l’étoile et de la planète sont liées
par la dérivée de la relation barycentrique :
m
v? = v (2.1)
M +m

où v est la vitesse de la planète, M la masse de l’étoile connue par le type de son
spectre. On voit que plus la planète est proche de son étoile, plus elle est rapide
et donc détectable. Dans le temps T , elle parcourt une orbite de circonférence
2πa où a étant le demi grand axe de la planète, donc v = 2πa/T 3 (on néglige
le mouvement de l’étoile). Cette relation nous permet d’éliminer a en utilisant la
3ème loi de Kepler et de relier v à M :

9
10 La détection des planètes extra-solaires

Fig. 2.1 – A gauche, trajectoire d’un système planète-étoile autour du barycentre com-
mun G. A droite, vitesse de Mu Area mesurée à différents instants par le spectromètre
HARPS. La figure montre le meilleur ajustement par une sinusoı̈de, la courbe étant
repliée à la période estimée de la planète.

G(M + m) a3
= (2.2)
4π 2 T2
1 v3T 3
= . (2.3)
T 2 (2π)3
G est la constante de gravitation universelle. En revenant à v? (Eq.2.1) :
  31
2πG
v? = m (2.4)
T (M + m)2
Comme l’effet Doppler ne donne accès qu’à la composante radiale v?r , il faut
multiplier les termes par sin i, l’inclinaison de l’orbite sur la voûte céleste. Fina-
lement :
 13
T M2

m sin i = v?r
2πG
projetée sur la ligne de visée La masse de la planète n’est connue qu’à un facteur
sinus près. Mais cela influe peu sur l’ordre de grandeur de m car au sens d’une
distribution uniforme 66% des angles ont un sinus supérieur à 0.5.

La résolution de vitesse en vélocimétrie radiale atteint 3m.s−1 , ce qui paraı̂t


prodigieux concernant un astre étendu, couvert de cellules convectives opérant
sur des dimensions de l’ordre du millier de kilomètres, de surcroı̂t en rotation
2.1 Les différentes méthodes 11

différentielle, et animé d’une vitesse propre de plusieurs km.s−1 , éjectant de la


matière par intermittence, etc. . .. En fait la multiplicité des vitesses se traduit
par un élargissement des raies et la résolution initiale est augmentée de 2-3 ordres
de grandeur grâce à l’étude simultanée d’un très grand nombre de fréquences. La
Terre sur son orbite n’induit qu’une vitesse radiale de 0.1 m/s sur le Soleil. Mais
des Terres plus proches induiraient un mouvement plus marqué. L’instrument le
plus accompli à ce jour est le spectromètre HARPS (pour High Accuracy Radial
velocity Planetary Search) installé au foyer d’un télescope de ∅3.6 m à La Silla,
appartenant à l’ESO. HARPS obtient une précision record de 0.4 m.s−1 . La limite
physique du phénomène dépend essentiellement de l’étoile. Pour les étoiles les plus
calmes sans activité notable, cette limite se situe sous la limite instrumentale. On
peut trouver une description sur le site de l’ESO (Pepe et al. 2002)

2.1.2 Astrométrie
L’astrométrie s’intéresse à la modulation de position d’une étoile sous l’effet
d’une planète. C’est le même phénomène que pour la vélocimétrie radiale, mais
ici c’est la position de l’étoile que l’on mesure.

Si dans le système précédent d est notre distance à l’étoile, la déviation angu-


laire de l’étoile vaut :
a?
sin α = 'α
d
En faisant intervenir les paramètres de la planète (Eq.2.1) :
a m
α=
dM +m
Les masses et distance de l’étoile sont connues par ailleurs. On peut connaı̂tre
a à l’aide de T par la 3ème loi de Kepler (Eq.2.2). On trouve alors la masse de la
planète en fonction de l’écart angulaire. En pratique, la variation de position de
l’étoile n’est pas mesurée de façon absolue, mais différentielle par rapport à un
objet fixe, c’est-à-dire loin dans l’arrière-plan.

Cette méthode présente l’avantage d’être indépendante de l’angle sous lequel


est vu le système. Mais bien qu’à masse égale l’éloignement d’une planète amplifie
le déplacement de l’étoile, c’est un élément défavorable car la lenteur du mouve-
ment le rend non-détectable. La Terre, vue à 10 parsecs (32 années lumières), ne
déplace le Soleil que de 0.3µas (microseconde d’arc). Or les mesures depuis le sol
sont limitées à une milliseconde d’arc. Elles devraient atteindre prochainement
10µas sur des champs réduits. Dans le domaine spatial, le projet SIM (Space
Interferometric Mission) cible une précision de 4µas. L’ambitieux projet GAIA
doit atteindre 1µas et mesurer un milliard d’étoiles de la galaxie. Il pourrait per-
12 La détection des planètes extra-solaires

mettre de détecter une centaine d’Uranus (jusqu’à 10m⊕ ) dans les 10 pc qui nous
entourent.

2.1.3 Méthode par réflexion


Le flux de lumière réfléchie par une planète varie avec sa surface éclairée (un
“croissant”) tout au long de son orbite. Même si l’étoile et la planète ne sont pas
discernables ce croissant module le flux reçu. La variation de flux pour une planète
de période P qui orbite autour d’une étoile de flux L? est (Schneider 1999) :
AL?  r 2
Lp = Φ(t)
8 a
r est le rayon de la planète, A son pouvoir de réflexion isotrope (albédo). La
phase Φ vaut :
Φ(t) = 1 − sin i sin(2πt/T )
i est toujours l’inclinaison de l’orbite. L’amplitude de cette modulation décroı̂t
avec i. Mais dans la plupart des cas le taux de modulation est bien trop faible
pour être détectable.

2.1.4 Observation directe


Imager directement une planète requiert un dispositif capable d’“éteindre”
l’étoile de façon très efficace, coupant tout le flux lumineux pour une séparation
angulaire de seulement 0.1 milli-arcseconde. Une occultation par un obturateur
mécanique est très insuffisante et il faut avoir recours à l’optique en utilisant la
l’interférométrie ou la coronographie. Ces principes sont rappelés par Schneider
(1999). En voici quelques projets :
– La déformation contrôlée du miroirs d’un télescope pourvu d’un dispositif
d’optique adaptative peut être utilisée pour faire interférer destructivement
la lumière de l’étoile sur les différentes parties du miroir. Les rayons lumi-
neux issus de la planète, suivant un trajet différent ne seraient pas atténués.
– Le nulling fait interférer deux télescopes situés à une distance l qui peut être
ajustée pour obtenir une déphasage de 180°entre les télescopes. Cependant,
issue d’une direction légèrement différente de celle de l’étoile, la lumière
planétaire serait peu déphasée.
– Des projets d’interféromètres spatiaux sont en gestation tel DARWIN, une
constellation de télescopes spatiaux volant en formation.

2.1.5 Lentilles gravitationnelles


Le phénomène de lentille gravitationnelle se produit lorsqu’un astre massif
passe devant un objet observé en arrière-plan. L’astre courbe légèrement les
2.2 la Méthode des transits 13

rayons lumineux émis par l’objet du fait de sa gravité et les concentre comme le
ferait une lentille, provoquant un pic d’intensité lumineuse lors de son passage.
Une planète en orbite autour de son étoile, bien que moins massive que cette
dernière déviera également les rayons, faisant apparaı̂tre des pics secondaires.
La Fig.2.2 montre la courbe de lumière de l’événement OGLE (pour Optical
Gravitational Lensing Experiment Udalski et al. (1992)) 2003-BLG-235/MOA
2003-BLG-53 (Udalski et al. 1993)

Fig. 2.2 – Courbe de lumière de l’événement OGLE 2003-BLG-235/MOA 2003-BLG-


53. La courbe théorique (ligne continue) explique bien les pics observés (cercles et
disques)

Ces phénomènes sont cependant très rares du fait de la précision d’alignement


requise. Il est donc nécessaire d’observer un très grand nombre d’étoiles, par
exemple en visant vers le bulbe de notre galaxie. En outre cette méthode ne
permet qu’une étude statistique des planètes car les événements ne se produisent
qu’une seule fois.

2.2 la Méthode des transits


Il s’agit de détecter des exo-éclipses par une mesure continue du flux lumineux
d’une étoile. Une partie de ce flux est occultée par le passage d’une planète
devant le disque de l’étoile (voir Fig.2.3), ce qui provoque une baisse temporaire
et récurrente à la période orbitale. Le signal est plus accentué qu’avec la méthode
14 La détection des planètes extra-solaires

par réflexion car ici c’est directement le flux de l’étoile qui est affecté et non le
flux réfléchi par la planète.

Fig. 2.3 – Méthode des transits.

Le transit d’une planète devant le disque de son étoile se traduit par une baisse
du flux lumineux de l’étoile dépendante de la géométrique de l’événement. Pour
une planète de rayon r passant devant une étoile de rayon R dont le disque est
uniformément lumineux, l’amplitude du transit est égale au rapport des surfaces :

∆F  r 2
= (2.5)
F R
Cette relation au premier ordre néglige la luminosité propre de la planète, hors
d’atteinte des instruments. A Rr donné, la présence d’un gradient de luminosité
à la surface d’un disque stellaire jouera en faveur de la détection pour les planètes
transitant près de son centre. La Terre produit un transit de 0.8×10−4 en passant
devant le Soleil, Jupiter atteint 2.5×10−2 . Cet ordre de grandeur est accessible à la
mesure. L’amplitude relative du transit a l’avantage d’être insensible à la distance
observateur-étoile, mais nécessite un quasi-alignement de la ligne de visée avec le
plan orbital de la planète.

2.2.1 Probabilité
Les orbites de rayon a qui peuvent produire une éclipse sont comprises dans
la surface de la tranche de sphère, assimilée à un cylindre, de rayon a et hauteur
2R (voir Fig.2.4).
Le nombre d’orbites observables est donc proportionnel à 2πa × 2R. Leur
fraction (ou probabilité) s’obtient en normalisant par la surface totale 4πa2 . On
obtient :
2.2 la Méthode des transits 15

Fig. 2.4 – Observabilité d’un transit.

R
P= (2.6)
a
En pratique P = 0.47% pour la Terre et seulement 0.01% pour Jupiter. L’éloi-
gnement joue proportionnellement en défaveur des transits. Une orbite éloignée
est également plus pénalisante du fait de l’allongement de la période de révolu-
tion. On augmente les chances de détection en suivant simultanément un grand
nombre d’étoiles. Certaines expériences portant sur l’observation simultanée de
toutes les étoiles d’un champ sont menées depuis le sol, telle OGLE ou WASP.
D’autres le seront depuis l’espace comme la mission Européenne Corot ou la mis-
sion Américaine Kepler.

2.2.2 Durée du transit


Le paramètre d’impact p est la distance séparant la ligne de contact de la
ligne équatoriale
p de l’étoile (voir Fig.2.3). L’éclipse parcourt la corde de longueur
2
l = 2R 1 − p à la vitesse v = 2πa/T . Elle mettra donc un temps :

RT p
t= 1 − p2 (2.7)
πa
La table 2.1 résume les caractéristiques des transits Terrestre et Jovien.

Tab. 2.1 – Caractéristiques-type des transits dans le système Solaire.


Planète ∆F/F P durée (h) Période (année)
Terre 0.810−4 0.47% 11.3 1
Mercure + Venus + Terre 2%
Jupiter 2.510−2 0.01% 29 11.9
16 La détection des planètes extra-solaires

2.2.3 Intérêt du spatial


Il faut donc une précision photométrique relative de quelques 10−4 sur
1h, temps caractéristique des transits, pour détecter le transit d’une planète
tellurique. Depuis le sol, on ne peut guère espérer dépasser 10−3 en raison de la
turbulence atmosphérique.

Idéalement il faudrait une observation continue pendant une très longue


période de temps, ce que ne peuvent assurer les télescopes terrestres qui ne
fonctionnent que la nuit. Certes on pourrait utiliser plusieurs télescopes répartis,
mais la solution serait coûteuse et resterait soumise aux aléas météorologiques.
Il faut en outre une stabilité des conditions de mesure équivalente à la précision
recherchée, ce qui n’est pas le cas pour l’atmosphère.

A cause de la révolution de la Terre autour du Soleil, une région donnée vue


depuis le sol ne reste visible durant plus d’une demi-nuit, que pendant trois mois.
Le domaine spatial reste de prédilection pour la méthode des transits, car le
Soleil peut rester pendant 6 mois situé à plus de 90 degrés d’une direction de visée.

La méthode des transits semble bien adaptée pour détecter de petites planètes,
en particulier des planètes telluriques analogues à la Terre. Elle a été retenue dans
le cadre de la mission spatiale Corot . Le présent travail s’inscrit dans ce contexte.

La limitation physique de la méthode provient essentiellement de deux causes :


le bruit quantique ou photonique, et les variations de flux dues à l’activité propre
des étoiles.

2.2.4 Le bruit photonique


Dans un flux lumineux faible de moyenne f , un photon peut atteindre le
détecteur à n’importe quel moment. Le nombre de photons touchant le détecteur
chaque seconde fluctue suivant une loi de Poisson de paramètre f . La probabilité
de recevoir exactement i photons durant 1 seconde vaut :
f i .e−f
P (i) =
i!
Selon une propriété connue, l’écart-type de la mesure est :
p
σ= f
Le bruit photonique augmente en valeur absolue avec le flux, mais pas en valeur
relative. En effet, le rapport signal à bruit (S/B ) vaut :
p
r = f/ f
2.2 la Méthode des transits 17

Il s’améliore comme f . On a donc intérêt à collecter le plus de photons
possible. Ceci s’obtient en préférant pointer les étoiles brillantes et en limitant les
pertes à l’intérieur de l’instrument. Les bruits s’additionnant par leur variance,
on convient généralement qu’aucun ne doit excéder le bruit photonique. C’est ce
qui à été fait dans la mission Corot .

Les longueurs d’onde mesurées sont inférieures à 0.85µm, bien moins que la
dimension d’un pixel (13.5µm). On traite donc les photons comme des particules
et non des ondes qui pourraient tomber dans deux pixels à la fois. Il n’y a donc au-
cun espoir de corriger le bruit photonique d’un pixel en cherchant sa contrepartie
dans d’autres pixels.

2.2.5 La variabilité stellaire


Les étoiles sont le siège d’une activité intense se manifestant par des éjections
de matière, de la granulation, des taches sombres etc. . .. Cette activité se signale
par une variabilité du flux émis par l’étoile et qui perturbe le signal photonique.
Les phénomènes en cause peuvent induire des changements sur des échelles
de temps commensurables avec les transits. Par exemple l’apparition d’une
tache sombre entraı̂née par la rotation de l’étoile peut imiter la signature d’un
transit. La variabilité Solaire atteint 1/1000 et l’on attend 10 fois plus pour
d’autres étoiles. Plus une étoile est chaude, plus elle est active. Pour les étoiles
calmes, les temps caractéristiques attendus pour les phénomènes mis en cause
sont supérieurs à ceux des transits et doivent pouvoir faire l’objet d’un filtrage
numérique.

On peut estimer à partir de quelques hypothèses simples la proportion d’étoiles


qui auront un niveau d’activité acceptable pour la détection des transits :
– le niveau d’activité diminue brutalement avec le nombre de Rossby R0 =
Prot /Tconv , ou Prot est la période de rotation de l’étoile et Tconv le temps de
retournement de la convection. Une étoile en rotation rapide sera le siège de
mouvements plus violents. Pour R 6 0.66, la variabilité devient acceptable,
comprise entre 0.1 et 0.001.
– La rotation d’une étoile diminue constamment avec son âge. Soderblom
(1983) a vérifié par l’observation pour les Hyades que Prot est proportionnel
à la racine de l’âge de l’étoile. Le coefficient de proportion dépend du type
spectral1 2 .
– Pour un type spectral donné, on peut donc calculer l’âge à partir duquel
R 6 0.66. En comparant cet âge à la durée de vie de l’étoile, on obtient la
1
Le type spectral est le classement des d’étoiles par gamme de températures. Il est désigné
par une lettre O,B,F,G,K ou M par température décroissante
2
La classe spectrale subdivision en dix chaque type spectral
18 La détection des planètes extra-solaires

fraction des étoiles calmes. On répète le calcul pour chaque type spectral
présent dans le champ, correctement pondéré.

Les résultats sont présentés en table 2.2. On peut compter sur une proportion
de 80% d’étoiles suffisamment calmes.

Tab. 2.2 – Fraction d’étoiles ayant réduit leur activité, en fonction du type spectral
Type spectral Tconv (jours) tmin (Gyr) T(Gyr) fraction
F8 3 0.2 4 0.95
G0 8 0.9 9 0.90
G2 10 0.7 1. 0.93
G5 20 2 1.2 0.83
G8 30 4 1.6 0.75
K0 30 3 3 0.9
K3 30 2.2 >0.9
K5 30 2 >0.9

Dans les étoiles les plus calmes dont fait partie notre Soleil, les principales
variations photométriques attendues à l’échelle de temps des transits sont dues
aux régions actives et aux mouvements turbulents. Des travaux sont menés pour
mieux connaı̂tre ces phénomènes.

Modèle de rotation des régions actives


Les régions actives apparaissent et disparaissent sans cesse, entraı̂nées par la
rotation de l’étoile. Lanza et al. (2003) ont étudié la variation du flux Solaire
dans les données acquises entre 1996 et 2001 par l’instrument VIRGO à bord
de la sonde SoHO. Pour modéliser la variabilité, ils considèrent un nombre
discret de régions actives réparties à la surface d’une sphère en rotation. En
dehors de ces régions, la brillance du disque stellaire croı̂t vers le centre sous
l’effet de l’assombrissement centre-bord. C’est un effet d’incidence rasante qui
fait qu’un rayon lumineux issu du bord du disque de l’étoile traverse une plus
grande épaisseur d’atmosphère stellaire qu’un rayon issu du centre du disque.
Les couches internes chaudes et intenses nous sont donc masquées. Un exemple
de paramétrage de leur modèle est donné figure 2.5.

Lanza et al. (2003) ont utilisé trois régions actives renouvelées tous les
sept jours en taille et position pour tenir compte de leur évolution propre.
A l’image des taches Solaires, les régions sont formées d’une zone sombre de
moindre convection cerclée de facules brillantes. Leur simulation comporte onze
paramètres libres : 6 de position, 3 d’aire des surfaces actives, 1 de brillance
2.2 la Méthode des transits 19

Fig. 2.5 – Déplacement de taches sombres sur une sphère non homogène en rotation.

du disque d’arrière-plan, le dernier est la période de rotation Solaire. Ils ont


ajusté au mieux ces paramètres en minimisant une statistique du χ2 . L’accord a
permis de reproduire de manière fiable la variabilité bolométrique du Soleil sur
une échelle de sept à dix jours, en dehors de son maximum d’activité. L’erreur
résiduelle est de l’ordre de 2.10−4 . La figure 2.6 détaille cet ajustement pour deux
périodes de quelques semaines. En retranchant le modèle des données réelles,
cette technique réduit le bruit d’activité Solaire d’un ordre de grandeur.

Fig. 2.6 – Accord entre simulation et flux Solaire pour deux plages de temps. La varia-
tion relative de luminosité figure dans le cadran supérieur. Les points de mesure sont
en gras, la simulation est la ligne continue qui émerge à t = 2000.02. Les points du
modèle ne sortent pratiquement pas des points mesurés. Le cadran inférieur contient le
résidu.

Outre sa capacité à réduire l’effet de la variabilité stellaire dans les courbes


de lumière, cette technique devrait fournir des indications sur la rotation propre
de l’étoile ainsi que l’inclinaison de son axe. Pour l’utiliser dans la recherche de
transits, il faut rester vigilants à ce que l’ajustement du modèle n’intègre pas le
transit lui-même comme une configuration particulière de l’activité.
20 La détection des planètes extra-solaires

Modèle de spectre de granulation


L’autre principale source de variabilité stellaire est la convection. Les
différentes échelles des cellules se traduisent par différents temps caractéristiques
(voir Tab.2.3).

Tab. 2.3 – Phénomènes convectifs types.


Activité T (s) f
5
Régions actives 1 à 3.10 5 µHz
super granulation 3 à 7.104 20 µHz
méso granulation 8 000 125 µHz
granulation 200 à 500 3 mHz
points brillants 70

Les différentes échelles de granulation contribuent indépendamment au spectre


de l’étoile. Harvey et al. (1993) considèrent que chaque granulation apporte au
spectre d’irradiance la contribution :
A
P (ν) =
1 + (2πνT )b

qui correspond à la décroissance exponentielle d’une fonction d’autocorréla-


tion de temps caractéristique T . A est l’amplitude et b un coefficient à déterminer.

Pour étudier l’influence de la granulation sur la détection des transits,


Aigrain et al. (2003) ont élaboré une méthode qui reproduit efficacement le
spectre des mesures VIRGO SoHO sur la période de 1996 à 2001. L’objectif est
de simuler des courbes de lumière pour tester la robustesse des algorithmes de
détection. Dans leur méthode, ils considèrent le spectre d’une section de courbe
de lumière SoHO de longueur L = 180 jours. Ils l’ajustent avec un premier
jeu de paramètres A1 , T1 , b1 , puis ils affinent l’accord à l’aide du jeu A2 , T2 , b2
et ainsi de suite jusqu’à ce que l’apport d’une nouvelle composante n’apporte
pas d’amélioration. Ils appliquent le même traitement pour la section suivante,
obtenue en décalant l’origine de 20 jours et en utilisant les Ai , Ti , bi comme
nouvelles valeurs initiales. La figure reproduite ici (Fig.2.7) montre un exemple
d’ajustement de spectre. Il s’avère que trois composantes sont suffisantes pour
modéliser le spectre Solaire.

Mené dans plusieurs bandes de couleur, l’exercice souligne que pour le Soleil
l’effet de la granulation est plus marqué dans le vert et le bleu que dans le rouge.
2.2 la Méthode des transits 21

Fig. 2.7 – Exemple d’ajustement du spectre Solaire par 3 composantes.


22 La détection des planètes extra-solaires
Chapitre 3

La recherche de planètes
extrasolaires avec Corot

3.1 Présentation de la mission


Corot (pour COnvection ROtation and planetary Transits) est une mission
spatiale pour la détection de planètes par la méthode des transits. Elle observera
60 000 étoiles de manière continue pendant 5 périodes de 150 jours. Elle offre
une précision photométrique atteignant 7.10−4 pour des étoiles de magnitude 12
à 15.5 en flux intégré pendant une heure.

Corot fait partie des ’mini missions’ du CNES, qui en assure la maı̂trise
d’ouvrage et le lancement. C’est un projet Européen qui a vu le jour sous l’impul-
sion du Laboratoire d’Etudes Spatiales et d’Instrumentation en Astrophysique
(LESIA, à Meudon), de l’Institut d’Astrophysique Spatiale (IAS, à Orsay) et
du Laboratoire d’Astrophysique de Marseille (LAM), cadre de la présente thèse.
Corot embarque deux expériences de photométrie de haute précision : L’une de
sismologie stellaire, consacrée à l’étude des couches profondes par la mesure des
modes d’oscillation de l’étoile (le ’chant’ des étoiles) sous l’effet de la pression
et de la gravité (Baglin et al. 2001) ; l’autre de détection d’exoplanètes par la
méthode des transits 1 . Les observations sont réparties à raison de 5 champs de
12 000 étoiles pendant les 2ans 12 que dure la mission

L’instrument Corot est un petit télescope de ∅27cm. Le lancement est prévu


à Baı̈konour au 2ème semestre 2006 par une fusée SOYUZ. L’orbite polaire
inertielle permet de conserver une direction d’observation fixe pendant six mois
sans être ébloui par le Soleil ni masqué par la Terre (voir Fig. 3.1). L’orbite située
1
Les sites officiels de Corot se trouvent sur http ://[Link]/ et
http ://[Link]/COROT/. Le site consacré aux exoplanètes peut être consulté sur
http ://[Link]/exoplanetes

23
24 La recherche de planètes extrasolaires avec Corot

à 896 Km d’altitude est parcourue en 1h42min. Un observateur situé sur Corot


verrait l’horizon terrestre tourner autour de la ligne de visée en 1h42, à 20 degrés
d’elle, tout en défilant continûment. Ce défilement ferait alterner les périodes jour
et nuit une fois par orbite. Le Soleil se déplacerait lentement à l’arrière passant
en six mois d’un côté à l’autre. Après six mois, le Soleil commence à passer à
l’avant. Corot est pivoté de 180° et un nouveau semestre d’observation débute.
Ni la lune ni les planètes du système solaire ne passent près de cette ligne de visée.

Fig. 3.1 – Corot pointe perpendiculairement au plan de son orbite. La Terre ne passe
jamais dans le champ. Le Soleil reste dans le “dos” de Corot durant un semestre. Le
satellite est pivoté de 180˚après chaque phase d’observation.

L’altitude du satellite est un compromis. Trop basse l’horizon lumineux serait


près de l’axe de visée, trop haute le champ magnétique terrestre ne protégerait
plus Corot contre les rayons cosmiques ionisants, principalement rencontrés lors
la traversée de l’anomalie de l’atlantique sud (SAA).

Le satellite est constitué de l’instrument Corot porté par une plate-forme


générique PROTEUS (Plate-forme Reconfigurable pour l’Observation, pour les
Télécommunications et les Usages Scientifiques) développée par le CNES. C’est
elle qui assure les fonctions de communication, pointage, énergie etc. . .. Les
panneaux solaires pivotent tous les 15 jours pour suivre le mouvement apparent
du Soleil.

L’orientation du satellite dans les trois axes est maintenue constante par un
mécanisme dynamique. Toute variation est détectée par les senseurs stellaires
et gyromètres de la plate-forme. Celle-ci déclenche une action contraire en
modifiant la vitesse de roues à inertie dans les trois axes. Le couple moyen des
forces externes n’étant pas nul dans le repère du satellite, la vitesse des roues
à tendance à augmenter en permanence. Pour les ralentir, on les couple pério-
diquement avec le champ magnétique terrestre à l’aide de magnéto-coupleurs.
3.1 Présentation de la mission 25

Cette opération s’appelle la désaturation. La constance du pointage est un


point critique pour Corot car les fluctuations de visée induisent un bruit de
mesure : le bruit de jitter (détaillé au chapitre 5). PROTEUS offre une précision
standard de 1 à 2 secondes d’arc (notées 2”), ce qui correspond à un “flotte-
ment” supérieur demi-pixel, excessif pour Corot . Une des spécificité de cette
mission est d’améliorer ce pointage en confiant la mesure de la consigne au téles-
cope lui-même. On espère ainsi un jitter inférieur a 0.15” d’arc, soit 1/10e de pixel.

Moins de 6% du temps sera perdu pour la mesure, principalement à cause


de la rotation des panneaux solaires, de la traversée de la SAA, et des calibrations.

La table 3.1 indique les principales caractéristiques de la mission.

Tab. 3.1 – Caractéristiques techniques de la mission Corot .


Masse entre 570 et 630 kg
Masse Charge Utile ' 270 kg
Hauteur 4100 mm
Diamètre 1984 mm
Puissance électrique 380 W
Précision du pointage 0.15 arcsec
Télémétrie 900 Mbit/jour
Orbite 896 Km
Période 1h 42min
Durée d’exposition 512s (8.5 min), en sommant 16 poses de 32s
Nombre de cibles 60 000, à raison de 5 champs de 12 000
Durée d’observation continue 6 mois par champ
Durée totale de la mission 2 ans 1/2
∅ pupille d’entrée 27cm
champ exoplanètes 3.5 deg2
mV cibles de 10.5 à 15.5
Longueurs d’onde 370 à 950 nm
Sensibilité ∆F/F = 7.10−4 à mV = 15.5
Réjection du baffle 10−13
Objectif 6 lentilles dioptriques
CCD 2048 × 2048
Taille pixel 13.5µm
Jitter 0.5 arcsec (0.2 pixel)
26 La recherche de planètes extrasolaires avec Corot

3.2 l’Instrument
L’instrument Corot est schématisé figure 3.2. Le télescope forme une image
sur 4 capteurs CCD indépendants de 2048 × 2048 pixels de 13.5µm dont deux
sont dédiés aux exoplanètes. Le CCD est éclairé par l’arrière et fonctionne en
mode transfert de trames. Ce capteur est stable et reste linéaire sur une grande
échelle. La même conformation permet de mesurer des phénomènes sur plus de
deux ordres de grandeur. Suivant les étoiles, le capteur reçoit un flux intégré de
quelques centaines à près d’une dizaine de milliers de photons par seconde (voir
table 3.2). Ces photons sont accumulés durant 32s sous forme d’électrons, puis la
charge électrique résultante est acheminée vers une électronique de mesure pour
y être numérisée. Les mesures sont sommées sur 512 s (' 8.5 min), temps de
pose élémentaire, puis transmises au sol lors du passage suivant à portée d’une
antenne. Le bruit d’un CCD diminue avec sa température. Celle-ci est régulée
vers -40‰ au 1/100° près. L’électronique de mesure est maintenue à +20‰.

Tab. 3.2 – Nombre de photons (ou photoélectrons notés e− /s) capturés en fonction de
l’étoile.
Teff 4500 K 5750 K 6500 K 8000 K
mv
10.5 135 667 105 268 98 358 88 811
12 34 078 26 442 24 706 22 308
14 5 427 4 165 3 912 3 881
16 860 660 620 615

Les champs visés par Corot s’étendent sur 3.5 deg2 , soit 8 fois la surface de la
pleine lune. Ils sont choisis dans 2 directions opposées de 180 ° : Le centre de la
galaxie et l’anticentre. Ces champs sont suffisamment denses pour contenir 12 000
cibles brillantes de magnitudes comprises entre 12 et 162 .

3.2.1 Le baffle
L’altitude n’est que 2/10e du rayon de la Terre ; l’horizon terrestre se trouve
donc situé à 20° seulement de la ligne de visée (Fig. 3.3). A la précision requise,
la lumière parasite réfléchie et diffractée sur les organes mécaniques du satellite
devient prépondérante. Un baffle d’entrée est chargé d’éliminer toute lumière hors
d’axe. C’est un cylindre absorbant de forme allongée situé dans le prolongement
La magnitude visuelle d’une étoile dont on reçoit le flux f est m = −2.5 log ff0 , f0 étant un
2

flux de référence. Le flux est divisé par 10 quand la magnitude augmente de 2.5 unités.
3.2 l’Instrument 27

Fig. 3.2 – Chemin optique (en haut) et Instrument Corot (en bas). La lumière entre par
la gauche. Elle est filtrée par le baffle (cylindre de grand diamètre) après que l’obturateur
(couvercle) à été ouvert. Le miroir primaire (extrémité droite) la réfléchit sur le miroir
secondaire (au pied du baffle). Elle pénètre alors dans l’objectif dioptrique (tube oblique
inférieur entre les armatures) contenant les six lentilles qui la guident vers le bloc
focal. Celui-ci, de la taille d’une boı̂te à chaussures est situé dans le plateau à droite
des armatures. Il contient le prisme et les CCDs, protégés des rayons cosmiques par
un blindage. La case à équipements (bloc de droite) contient les boı̂tiers électroniques
‰
d’acquisition, de régulation thermique au 1/100 , et l’électronique de traitement des
données. Le plan inférieur saillant sous la case est le radiateur du bloc focal
28 La recherche de planètes extrasolaires avec Corot

du télescope. Tout rayon lumineux incident indésirable y subit au moins trois


réflexions absorbantes sur les chicanes internes. L’atténuation record atteint
10−13 pour les photons terrestres.

Fig. 3.3 – Horizon de Corot

Un obturateur à l’entrée du baffle protège le détecteur de la vue directe du


Soleil lors des manoeuvres de mise en orbite du satellite. Il permet aussi de faire
les étalonnages de début de mission. Après stabilisation de Corot en attitude,
l’obturateur s’ouvre définitivement.

3.2.2 La défocalisation de l’image


La luminosité des étoiles d’une région dense s’étend sur plusieurs ordres de
grandeur. Pour une étoile ponctuelle trop brillante, l’excès de lumière dépasse
la capacité de 120 000 photoélectrons que peut contenir un pixel : C’est la
saturation. L’étoile est non seulement perdue pour la mesure, mais le trop plein
d’électrons compromet les étoiles voisines en s’épanchant de part et d’autre dans
la colonne. Pour limiter cet effet, la tache image est volontairement étalée par
insertion d’un système disperseur. Ainsi les photons d’une étoile recouvrent en
moyenne 80 pixels. Corot atteindra une précision photométrique inégalée, mais
sera volontairement myope.

La défocalisation à d’autres avantages, elle protège contre :


– La différence de sensibilité entre pixels, nommée PRNU (Pixels Response
Non Uniformity),

– Les différences au sein d’un même pixel,

– La perte des étoiles trop proches de l’interstice inter-pixels.

La défocalisation repousse la magnitude saturante à mV . 12, suivant le


spectre de l’étoile, sa position et son entourage. En approchant de cette limite, le
3.2 l’Instrument 29

CCD perd graduellement sa linéarité.

3.2.3 Le système disperseur


Un bi-prisme est inséré sur le trajet lumineux. Il disperse spatialement les
couleurs afin de distinguer la signature d’un transit planétaire des fluctuations
intrinsèques l’étoile. En effet, un transit est un événement essentiellement
géométrique dont la signature lumineuse est similaire dans les trois bandes
de couleurs rouge, vert, bleue que délivre Corot . A l’inverse une fluctuation
stellaire, telle une tache sombre, a une origine thermique qui se traduit par une
variation chromatique.

3.2.4 Les PSFs de référence


Une étoile Corot a une extension angulaire de l’ordre du nano-arcsec, un mil-
lion de fois inférieure au pixel. C’est donc un point source optique, superposition
ponctuelle des longueurs d’onde du spectre stellaire. Sa tâche image I est la ré-
ponse impulsionnelle F de l’instrument, nommée PSF (de l’Anglais Point Spread
Function) sommée sur le spectre :
Z
I(x, y) = a(λ)δ(x, y) ∗ Fλ dλ
λ

ou δ désigne le Dirac positionné sur l’étoile, a(λ) le spectre en longueurs d’onde.


La répartition des photons dans la PSF n’est pas uniforme, les composantes
rouges (grands λ) sont localisées à droite de la PSF (CCD vu par l’arrière) et
contiennent la plupart de l’énergie. La composante verte est au centre et la bleue
à gauche. La position sur le CCD modifie I.

La figure 3.4 résume la transformation subie par la lumière le long du chemin


optique de Corot .
Les taches images du champ exoplanètes comptent 50 à 120 pixels émergeant
du bruit, selon la magnitude de l’étoile.

Les deux méthodes employées pour connaı̂tre la PSF de Corot sont la


modélisation et la mesure expérimentale. Il est difficile de connaı̂tre les PSFs de
vol au niveau de précision exigé. Avant le tir, on travaille sur des PSFs simulées
et complétées de quelques vérifications expérimentales. On utilise le logiciel de
simulation ZEMAX qui envoie des rayons virtuels à travers les éléments optiques
du modèle de l’instrument, miroirs, lentilles etc. . ., et calcule leur impact dans
le plan du CCD. Le logiciel explore l’espace des paramètres de position dans la
30 La recherche de planètes extrasolaires avec Corot

Fig. 3.4 – Schéma du chemin optique. Après étalement du spectre par le bi-prisme, les
rayons monochromatiques atteignent le CCD avec une défocalisation qui dépend de leur
longueur d’onde. La tache image d’une étoile n’est pas uniforme, l’énergie incidente est
principalement contenue dans la composante rouge, sur la droite.

pupille, d’angle et de longueur d’onde du rayon.

L’échantillonnage en longueur d’onde couvre la gamme 350 − 1050 nm


par pas de 1 nm, chaque PSF étant calculée pour 18 positions réparties sur
les deux CCDs. Afin de réduire le nombre d’échantillons nécessaires de 700
à ∼ 170, Llebaria et al. (2004) ont utilisé un pas non constant plus espacé
vers les grandes longueurs d’onde où la PSF varie lentement. Les longueurs
d’onde manquantes sont aisément retrouvées par interpolation 1D des pixels.
Ces longueurs d’onde sont combinées en 16 spectres stellaires de référence dont
la composition en longueur d’onde est indiquée par Pickles (1998). Les types
spectraux correspondants sont indexés uniquement par T , température de la
photosphère. La PSF est une fonction continue, mais elle est délivrée sous forme
d’une imagette sur-échantillonnée au pas de 1/5e de pixel Corot .

La mesure expérimentale des PSFs est prévue en début de mission. Corot


transmettra au sol quelques clichés complets acquis dans les conditions d’un bon
S/B . Ces images de vol permettront de remonter aux vraies PSFs en se basant
sur les PSFs simulées. La meilleure information proviendra des étoiles brillantes
et isolées. L’image de vol à l’avantage d’être la vraie mesure in situ, mais son
usage présente néanmoins deux difficultés :

– Après compensation du traı̂nage (voir le paragraphe sur les bruits, §5.2.6),


il faut tout d’abord séparer la PSF d’une étoile de celle du fond. Ce fond
contient les étoiles d’arrière-plan, la composante continue et les bruits. On
3.3 Photométrie 31

commence classiquement par affiner la PSF en utilisant les étoiles les plus
brillantes. Les étoiles d’arrière-plan sont ajustées à partir du résidu de la
soustraction. Le fond continu est ajusté par un polynôme de faible degré
traduisant des variations lentes.

– L’autre difficulté vient de la pixellisation. Le problème consiste à partir


d’une image discrète à déduire la PSF continue sous-jacente. Cette déduc-
tion est nécessaire car la même PSF sert à plusieurs étoiles distantes d’un
nombre de pixels non entier.

3.2.5 Position de référence


Pour positionner une PSF polychromatique sur le CCD, il faut établir une
correspondance avec un de ses points pris comme référence. Avec les télescopes
terrestres soumis à la turbulence atmosphérique, l’étoile est au centre de sa PSF
concentrique, maximum d’une Gaussienne 2D centrée sur l’étoile. Par extension
si la PSF n’est pas symétrique, on choisit de continuer à centrer sur le maximum.
Mais dans Corot la position de la PSF monochromatique dépend de la longueur
d’onde à cause du bi-prisme. Or les coordonnées du point de référence de la PSF
sur le CCD ne doivent pas dépendre du spectre de l’étoile. On choisit le point
maximum de la PSF monochromatique à λ = 650nm, longueur d’onde à laquelle
la déviation par le prisme est nulle.

3.3 Photométrie
Les deux principales méthodes en la matière sont la photométrie par ajuste-
ment de PSF et la photométrie d’ouverture. C’est cette dernière qui est utilisée
dans Corot .

3.3.1 Photométrie par ajustement de PSF


Les grands principes en sont rappelés par Debray (1982). En présence de
bruit, l’image d’un objet O à travers un instrument de réponse F vaut

I =O∗F +N

N représente le bruit d’origine photonique, thermique, électronique ou environ-


nemental. Le bruit prend la forme d’un fond brillant et irrégulier qui varie entre
deux expositions. Dans l’espace de Fourier, cette équation s’inverse en

I˜ − Ñ
Õ =

32 La recherche de planètes extrasolaires avec Corot

On ne peut pas déduire O de cette manière, car pour les fréquences spatiales où
F̃ est faible le terme Ñ

créera une erreur importante.

Dans le cas d’une optique achromatique et linéaire, l’image d’un champ


stellaire est en première approximation la répétition d’une même PSF I affectée
de coefficients affines différents. Ces coefficients constituent la mesure de flux
recherchée.

Dans un champ dense les PSFs se chevauchent, le recouvrement pouvant même


être total. Un point donné de l’image R est la somme des contribution des k PSFs
voisines. Supposons que k PSFs contiennent le point (x, y)
k
X
R(x, y) = N (x, y) + A.I + Ai Ii (x − xi , y − yi )
i=1

où A est l’amplitude de l’étoile cible, I sa PSF et Ai l’amplitude de la PSF


Ii centrée en (xi , yi ) des étoiles de fond. Les I étant connues, la résolution du
problème consiste à retrouver le meilleur A par des méthodes statistiques. Cet
ajustement passe par l’évaluation des Ai . Il faut tenir compte du fait que les
Ii , xi et yi sont connus avec une précision limitée.

Cette approche ne convient pas à Corot pour plusieurs raisons :

– Le débit de transmission des mesures (télémesure) est insuffisant. Il


faudrait 5Gbit/jour pour transmettre 12 000 imagettes 15×10 toutes
les 8.5 minutes alors qu’on ne dispose que de 900Mbit/jour. On ne
peut comprimer ces données à cause de la puissance de calcul limitée
disponible à bord. De plus des données comprimées sont fragiles car
l’altération d’un seul bit peut entraı̂ner la perte d’un bloc, d’autant plus
grand que le flot est plus comprimé. L’ajout de codes correcteurs augmen-
terait l’encombrement de la bande passante et le travail du microprocesseur.

– Pour être efficace, cette photométrie requiert une connaissance précise des
PSFs. Les PSFs de vol seront différentes des PSFs simulées à cause des
changements de conditions, ou des déformations subies lors du tir. Or,
dans Corot , les PSFs sont difficiles à mesurer in situ avec précision car
elles sont très dépendantes du type spectral, de la position et du centrage
par rapport aux pixels. Par conséquent une PSF ne se reproduit pas deux
fois dans les mêmes conditions, on ne peut donc pas l’affiner en moyennant
plusieurs réalisations. Le type spectral lui-même n’est connu qu’avec une
précision limitée. En effet il est mesuré à travers l’atmosphère par des
télescopes terrestres et la mesure ne porte que sur 4 bandes de couleur
3.3 Photométrie 33

standard B,V,r et i (voir table 3.3).

En outre pour avoir un bon résultat, il faut résoudre non seulement les PSFs
des étoiles cibles, mais également celles des étoiles de fond qui y participent.

Pour terminer, les PSFs varient dans le temps au cours de l’orbite à cause
des déformations dues aux différences entre la partie diurne et nocturne de
l’orbite (la “respiration”), et à la gigue de pointage (le “jitter”).

3.3.2 Photométrie d’ouverture


On définit tout d’abord une ouverture autour de la PSF : le masque photomé-
trique. La photométrie d’ouverture consiste à sommer le flux dans les pixels du
masque et à en retrancher le fond estimé. Le flux recherché est donné par :

N
X
f= fi − N × b
i=1

où les fi sont les flux dans les N pixels que compte le masque. b est la valeur
commune du fond estimé. Cette photométrie est très simple. Elle comporte
cependant quelques points délicats :

– Le résultat dépend de la forme du masque. Dans les systèmes classiques,


le masque est soit un disque centré (pour la turbulence atmosphérique),
soit une ligne isophote. Pour Corot , la détermination des masques est
compliquée par d’autres facteurs. Un masque inadapté bruitera la mesure.
La détermination des masques est l’objet de la section 5.7.2.

– L’estimation du fond peut être faite par extrapolation du profil d’intensité


sur des couches concentriques autour de l’étoile, ou par l’histogramme
des pixels environnants. Mais le problème devient délicat quand le fond
contient à son tour des étoiles, comme c’est le cas pour les champs denses.
Ces étoiles vont être incorporées au fond ou à l’étoile. Heureusement
pour Corot , la mesure ne porte que sur des variations temporelles. Les
sources secondaires et le fond s’en trouvent automatiquement soustraits.
En revanche leur variabilité dans le temps persistera et pourra être une
source d’ambiguı̈tés.

Dans la photométrie d’ouverture pratiquée avec Corot , la sommation est


effectuée en vol et le fond est retranché par post-traitements. Ce dernier est
34 La recherche de planètes extrasolaires avec Corot

estimé à partir de fenêtres noires ne contenant pas d’étoiles. Le masque pho-


tométrique est virtuel, obtenu par programmation de l’électronique de lecture.
Cette technique réduit considérablement le volume des données, chaque étoile
se résume à 24 bits/8.5 min. Elle est également adaptée au bruit de photons
dominant, qui se moyenne dans la sommation.

Afin de distinguer les couleurs, le masque des 5 000 cibles les plus brillantes
est subdivisé en trois sous-masques dits colorés, bleu, vert, rouge sommés
indépendamment. Ces définition de couleurs ne correspond pas aux bandes
standard (voir Tab. 3.3), il s’agit d’une définition propre à Corot , basée sur une
répartition de l’énergie d’environ 40%, 30% et 30% variable d’étoile à étoile.

Une variante de la photométrie d’ouverture est proposée pour le futur projet


Kepler, où les pixels sont pondérés individuellement avant sommation à bord.
Ceci permet par exemple d’affaiblir ponctuellement une étoile d’arrière plan. On
trouve une description de ce projet par Duren et Al (Duren et al. 2004) ou sur
internet 3 .

La détermination des masques obéit à de nombreuses contraintes et fait l’objet


de la première partie de cette thèse.

3.3.3 Sélection des cibles


Toute étoile n’est pas forcément une bonne cible. Tout d’abord il faut que la
région pointée satisfasse simultanément les exigences du 2ème objectif scientifique
de Corot qui s’intéresse à l’astéro-sismologie. Celle-ci exige qu’au moins une
étoile très brillante (mV 6 6) isolée soit positionnée sur l’un des deux CCDs
dédiés. Pour la voie exoplanètes qui utilise les deux autres CCD nous avons vu
précédemment que les meilleurs conditions de type spectral et de magnitude
étaient obtenues pour des étoiles naines F,G,K,M avec mV 6 15.5. On peut aussi
ajouter un critère de contamination (le taux de photons dans la PSF provenant
d’étoiles de fond ou voisines) inférieur à 10%, imposé par la densité importante
des champs du centre et de l’anticentre galactique.

Plusieurs régions peuvent réunir ces conditions. Pour y déterminer précisé-


ment le meilleur pointage, un recensement systématique à été mené à partir du
sol avec la caméra grand champ du télescope Isaac Newton situé à La Palma4 .
Des millions d’étoiles ont été mesurées jusqu’à la magnitude m = 20 dans 4
bandes de couleur standard B, V, r et i (voir table 3.3), permettant par différence
d’accéder au type spectral et d’avoir une idée de la classe de luminosité. Bien
3
http ://[Link]/
4
Informations techniques http ://[Link]/Astronomy/telescopes/int/[Link]
3.4 Capacité de détection 35

que les étoiles faibles ne soient pas des cibles potentielles, il est important de les
connaı̂tre car ce sont les plus nombreuses et leur lumière participe au fond de
ciel. Un risque important lié à ce fond stellaire est la présence d’éclipses d’étoiles
binaires. Ces éclipses peuvent, en effet, mimer un transit sur l’étoile principale et
engendrer des ambiguı̈tés.

Tab. 3.3 – Photométrie standard.


domaine spectral indice de couleur λ(µm) ∆λ(µm)
UV U 0.36 0.068
bleu B 0.44 0.098
visible V 0.55 0.089
rouge R 0.70 0.22
proche IR I 0.90 0.24

Les millions d’étoiles collectées sont stockés dans une base de données
(EXODAT) qui est développée au LAM et qui permet d’établir les profils précis
de chaque position. La densité d’étoiles dans le champ étant très inhomogène, on
cherche à affiner le compromis entre grand nombre de cibles et encombrement
excessif. Un outil de sélection des cibles dédié aux deux objectifs scientifiques de
Corot à été développé à cette fin, il s’agit du simulateur COROTSKY (voir sites
internet). Ce logiciel permet de visualiser les CCDs sur le ciel, et de faire toutes
sortes de statistiques. Pour un pointage donné, COROTSKY fournit la liste et
les caractéristiques des étoiles retenues comme cibles à destination du choix des
masques.

3.4 Capacité de détection


La détectivité de Corot en termes de types de planète dépend de nombreux
paramètres planétaires, dont certains sont mal connus. On rappelle le rôle que
jouent les principaux d’entre eux :

– Le rayon de la planète est de première importance. Les plus grandes sont


plus facilement détectables mais probablement gazeuses. On leur préfère
les petites planètes potentiellement tellurique mais moins faciles à détecter.

– La magnitude visuelle de l’étoile. Les étoiles plus brillantes offrent un


meilleur S/B , donnant accès à des planètes plus petites. Mais les étoiles
moins brillantes ont l’avantage du nombre, qui double à chaque magnitude
36 La recherche de planètes extrasolaires avec Corot

supplémentaire (voir Fig. 3.5).

Fig. 3.5 – Répartition des magnitudes en échelle logarithmique dans un champ Corot
de l’anticentre galactique, jusqu’à la magnitude de coupure du catalogue. Le nombre
d’étoiles progresse d’un facteur 2.2 à chaque pas de magnitude

– La taille de l’étoile. Un transit sera plus marqué sur une étoile de petit
diamètre. En revanche un plus grand éclat dû à un accroissement de la
surface émissive n’est pas un avantage. Le flux supplémentaire n’est pas
affecté par le transit et ne fait qu’augmenter le bruit de photons. Les
étoiles naines de la séquence principale (le Soleil est considéré comme tel)
présentent en outre l’intérêt d’une activité moindre.

– La distance de la planète. Une planète trop éloignée aura des transits moins
fréquent et moins de chances d’être vue par la tranche (voir Eq. 2.6). Trop
proche elle sera plus chaude car soumise à un flux intense.

– Le type de l’étoile gouverne sa température, sa masse et son diamètre qui


varient tous dans le même sens. Une étoile chaude est plus brillante aussi
plus active qu’une étoile froide. Elle tend aussi à augmenter la température
de la planète. Inversement une étoile de masse plus faible raréfie les transits
par la révolution plus lente de ses planètes. Les types spectraux les plus
favorables sont F,G,K,M.

Bordé et al. (2003) ont pris en compte tous ces facteurs pour préciser les
bornes du domaine de détection. Il font quelques hypothèses supplémentaire sur
les facteurs instrumentaux et les algorithmes de détection :

– Algorithme de détection. Afin de limiter la probabilité Gaussienne à une


fausse alarme unique pour toute la mission, on contraint la profondeur
3.4 Capacité de détection 37

du transit à ∆F > 7σ, σ étant l’écart-type de la courbe de lumière. √


L’accumulation de k transits améliore le signal proportionnellement à k.
La confirmation de périodicité exige au minimum trois transits en 150 jours.

– Les bruits pris en compte sont le bruit quantique, la variabilité stellaire, les
bruits électroniques, le fond de lumière zodiacale, le bruit de dépointage
(décrit dans un chapitre ultérieur), et la contamination par les PSFs
d’étoiles de fond.

Compte tenu de ces éléments, et en se bornant aux étoiles naines de la


séquence principale Corot sera adapté pour la détection de :

– Planètes terrestres (r ∼ 2R⊕ ) autour d’étoiles de type K2 à M2, jusqu’à la


magnitude 14-15,

– Planètes de classe Uranus (r ' 3R⊕ ) à partir du type G2 jusqu’à la 15ème


magnitude,

– Planètes géantes (r > 3R⊕ ) dès le type F7,

– au-delà de r > 5R⊕ , la détectivité cesse de dépendre de l’étoile.

3.4.1 Nombre de détections attendues


Estimer les nombre de détection est un exercice hasardeux car on ne sait
presque rien de la fréquence des systèmes planétaires. Corot va aider à lever
un coin de voile en la matière. On peut néanmoins appliquer la détectivité
précédente à une distribution réaliste de types et distances stellaires. Bordé
et al. (2003) ont utilisé le modèle de Robin & Creze (1986), connu sous le nom de
modèle de Besançon. Pour rester indépendants de toute probabilité de planète,
ils calculent en supposant la présence d’une planète par étoile. Sa distance suit
une loi uniforme à partir de 0.05 Unité Astronomique réduite (i.e ramenée à
la luminosité du Soleil), qui est la plus petite distance de planète connue. Ces
calculs ne doivent pas être interprétées comme une prédiction. Le résultat est
présenté table 3.4.

Le modèle de Besançon peut s’avérer très différent de la réalité des champs


Corot , mais l’inconnue majeure est la fréquence des exoplanètes.
38 La recherche de planètes extrasolaires avec Corot

Tab. 3.4 – Détections intégrées pour une planète certaine/étoile/UA à partir de 0.05
UA. Valeur pour 60 000 étoiles naines. Il convient de retrancher 10% à cause de la
contamination par les étoiles de fond. La valeur 10R⊕ est indiquée car son taux de
planètes est mieux connu et indique moins d’une planète par étoile. On se place dans
l’hypothèse d’une variabilité stellaire d’amplitude Solaire.

r Nombre de détection
(R⊕ ) intégré
1.0 5
1.25 12
1.5 26
2.0 70
3.0 189
5.0 300
(10.0) 311
Première partie

Fenêtrage optimisé

39
Chapitre 4

Énoncé des contraintes pour


l’optimisation des masques
photométriques

On est amené à définir une ouverture photométrique ou “fenêtre” pour chacune


des 6 000 étoiles cible de chaque CCD, soit 12 000 au total, en limitant à 250 par
CCD le nombre des différentes formes possibles. Ces formes sont appelées les
“patrons”. En effet, les 2×12 000 fenêtres ne peuvent utiliser que 2 × 250 patrons
pour des raisons opérationnelles qui limitent le logiciel.
1. Le S/B d’une étoile munie d’un patron doit être le plus proche possible de
celui qui est obtenu avec son ouverture taillée sur mesure. Cette ouverture
spécifique est nommée “masque optimal”.
2. Dans la mesure du possible, les patrons ne doivent pas être spécifiques d’un
champ particulier, centre ou anticentre galactique, car il est préférable en
terme de risque de conserver le même jeu de patrons pour les 5 champs de
la mission.
3. Le jeu de patrons doit aussi se montrer robuste aux incertitudes sur le
comportement de Corot en orbite, particulièrement pour ce qui concerne le
jitter de pointage et la respiration jour/nuit.
4. Les ouvertures photométriques doivent respecter certaines limitations
techniques dues à l’électronique de bord :

– Une ouverture est un empilement de segments de ligne. Deux segments


du même masque doivent être en contact par un pixel au minimum ce
qui exclut les configurations non-connexes, les trous (voir Fig. 4.1),

– l’intersection entre deux fenêtres doit être vide, même si les cibles sont
proches,

41
Énoncé des contraintes pour l’optimisation des masques
42 photométriques

a) b)
Fig. 4.1 – a) Patron correct, b) Patron interdit. Les anomalies cerclées montrent de
haut en bas un segment discontinu, un trou, l’absence de contact d’un pixel.

– la surface du patron doit être inférieure à 150 pixels dans une fenêtre
25 × 20 pixels, et valoir en moyenne de 60 pixels pour limiter le temps
de traitement à bord,

– il doit y avoir au plus 100 patrons qui coupent une ligne donnée,

– aucun patron ne doit chevaucher la colonne centrale d’un CCD, qui est
inerte pour des raisons techniques, ni “mordre” sur les bords.

4.1 Terminologie

On nomme masque photométrique, l’ouverture virtuelle d’une cible à la


surface du CCD. Il y a 12 000 masques de formes différentes. Chacun est
optimisé pour une étoile de façon à donner un S/B aussi proche que possible de
celui du bruit photonique pur.

On nomme patrons les formes en nombre restreint que peuvent prendre les
masques. Il y à 250 patrons qui doivent préserver le mieux possible le S/B des
12 000 cibles.

On nomme fenêtre chacune des 12 000 ouvertures munie d’un des 250 patrons.

Le problème étant trop complexe pour être résolu globalement, on procède en


trois étapes :
4.2 Critère de qualité pour le fenêtrage 43

Etape 1 : Masques optimaux

A partir d’un grand nombre d’étoiles typiques de la variété des champs Corot
, on crée autant de masques sur mesure, optimisés en termes de S/B . Ces étoiles
“de travail” peuvent être en nombre quelconque, mais on choisi d’en utiliser 12 000
pour que les résultats soient représentatifs.

Etape 2 : Réduction

Les 12 000 masques optimaux sont réduits à 250 patrons. Nous avons adapté
ou conçu quatre méthodes de réduction. Les trois premières visent à maximiser
la ressemblance entre un masque optimal et son patron. La quatrième utilise
directement le S/B comme métrique et précise la notion de S/B global, pour la relier
aux dégradations individuelles subies par les étoiles. Un critère d’acceptabilité
est défini et une matrice “d’acceptabilité” permet de choisir les patrons parmi les
masques optimaux les plus fréquemment acceptables.

Etape 3 : Affectation

Les patrons sont répartis sur les étoiles d’un champ de cibles, qui n’est pas
nécessairement celui utilisé pour la réduction. Il faut choisir le meilleur patron
pour chaque étoile, les patrons ne devant pas se chevaucher. La mise en oeuvre
d’une file d’attente avec priorité au S/B permet d’optimiser à la fois le S/B des
cibles tout en éliminant le moins possible de candidats.

Ces étapes peuvent être optimisées indépendamment. Elle sont précédées


d’une définition du rapport signal à bruit qui guide les optimisations.

4.2 Critère de qualité pour le fenêtrage


Le critère de qualité qui guide le fenêtrage a pour objectif la détection du
plus petit transit possible dans une courbe de lumière. La qualité d’une courbe
de lumière augmente avec l’information issue de l’étoile et diminue avec le bruit.
On utilise habituellement un rapport signal à bruit (S/B ) ou son inverse, la
détectivité.

Le signal d’intérêt est le flux informatif f issu de l’étoile. Le bruit est lié à
la fluctuation de la mesure autour de sa moyenne. Classiquement on l’assimile à
σ, écart-type des points de mesure. Cette définition est suffisante bien qu’elle ne
tienne pas compte des particularités du bruit, corrélation, fréquences etc. . .dont
la connaissance facilitera le filtrage des courbes de lumières. Le S/B peut donc
Énoncé des contraintes pour l’optimisation des masques
44 photométriques

s’écrire :
f
S/B =
σ

Nous avons d’une part le S/B analytique calculable, et d’autre un paramètre


physique, le rayon de la planète lié à ∆f /f par l’équation 2.5. Par construction
S/B évolue dans le même sens que f /∆f , si bien qu’un masque conçu pour
maximiser S/B minimisera du même coup le rayon de la planète détectable.

On peut lier ∆f /f et S/B par un indice de confiance en cherchant quel


S/B donne moins d’une chance sur 100 pour que l’écart ∆f d’un point soit le
fruit du hasard. √Pour une distribution Gaussienne de ∆f , cela implique que
∆f > 2.65σ ' 7σ (voir Fig. 4.2). On réalise cette condition en moyennant
les 7 poses que compte une heure. Une telle durée est acceptable car elle reste
brève devant la durée d’un transit (3 heures au minimum). Le transit le plus bref
serait réduit à 3 points quasi-certains. L’hypothèse Gaussienne pour le bruit est
admissible car ses sources sont multiples, indépendantes et du même ordre. Avec
Corot , certains bruits sont quasi-Gaussiens (bruit quantique), d’autres sont les
résidus de correction de facteurs déterministes.

Fig. 4.2 – Indice de confiance 99% à −2.65σ, pour une fonction de répartition Gaus-
sienne.

Le plus petit transit détectable à 99% de confiance par pixels est donc :

∆f σ1h
détectable =
f f
Dans la suite, on parle indifféremment du S/B ou de son inverse quand le
contexte n’est pas équivoque.
Chapitre 5

Calcul des masques optimaux

Il nous faut calculer le S/B un grand nombre de fois durant les phases de
réduction et d’attribution. Dans cette section, je reprends les modèles de S/B
analytiques que j’ai exposé dans la publication Llebaria et al. (2002) et les com-
pare avec des simulations. Dans le modèle photonique contaminé, je fais une
rapide estimation de l’effet du taux de contamination en fonction de la magni-
tude. Les petites lettres désignent les objets isolés (tel le flux f ), et les grandes
(F ) leurs pendants contaminés (i.e contenant des photons qui n’appartiennent
pas à la cible).

5.1 Le signal
Le signal choisi dans l’expression du S/B est le flux f de l’étoile. On pourrait
penser qu’il est équivalent de choisir F , flux total comprenant l’étoile et le fond
car la photométrie différentielle devrait retrancher d’elle-même la contamination.
Il n’en est rien car l’utilisation de F tendrait à privilégier l’entrée de la contami-
nation, par ailleurs bruitée.

Ce choix de f a comme conséquence que le rapport signal à bruit F/σ mesuré


sur une courbe de lumière sera supérieur au S/B théorique car la courbe inclut
des photons contaminants. Par exemple mesurer σ = 1.0 × 10−3 relatif sur une
courbe, alors que le S/B prédisait σ/f = 1.1 × 10−3 ne signifie pas que la réalité
est meilleure. Cela veut simplement dire que la courbe contient 10% de photons
étrangers et qu’il faut une planète de plus grande dimension (∆f /f = 1.1 × 10−3 )
pour provoquer une baisse de flux égale au σ mesuré.

Il faut se rappeler que la contamination n’est pas facilement identifiable dans


les courbes, sa mesure est possible seulement à partir d’images.

45
46 Calcul des masques optimaux

5.2 Les bruits


Ce sont les bruits qui déterminent la forme du masque. Par exemple ils en
limitent l’extension en proscrivant les pixels trop éloignés qui apportent plus de
bruit que de signal. Voici la liste des principaux bruits avec leurs caractéristiques.

5.2.1 Le bruit photonique


Nous avons vu que le bruit photonique d’un flux de moyenne f vaut

σ= n

Donc le rapport signal à bruit purement photonique d’un flux vaut

f p
= f
σ

Pour doubler le S/B , il faut donc quadrupler le flux. Corot à été conçu pour que
la somme des autres bruits n’excède pas le bruit photonique.

5.2.2 La contamination
La contamination est la lumière provenant d’étoiles d’arrière plan, mesurées
en même temps que la cible du fait du chevauchement des PSFs. A l’ordre 0
elle dépend de l’environnement de chaque cible. C’est un des principaux critères
de sélection des cibles. Plus finement, elle dépend du masque de mesure et est
donc prise en compte dans l’optimisation des masques. La contamination (notée
c) agit par augmentation du bruit photonique dans la fenêtre. On mesure le taux
de contamination d’une étoile de flux f par :
c
τ= (5.1)
f +c

Une étoile contaminée à 50% compte autant de photons étrangers que de


photons appartenant à la cible.

Il y a deux types de contamination : la contamination du fond continu et


celle d’origine stellaire. Seule la deuxième dépend du choix des cibles.

La contamination stellaire utilisée pour le choix des cibles est estimée à partir
d’images simulées en se dotant d’une PSF fixe, donc indépendante de la position
de l’étoile. On la mesure à l’aide du masque optimal de la cible non contaminée.
Nous ferons dans la suite l’hypothèse suivante : pour être retenue comme cible,
5.2 Les bruits 47

une étoile doit satisfaire τ ≤ 10%. Les sources contaminantes sont par ordre
d’importance :

Les étoiles proches. C’est la principale source de contamination. La PSF de


la cible chevauche la PSF des étoiles de fond distantes de moins d’une
dizaine de secondes d’arc. Les coordonnées des contaminantes sont connues,
ces étoiles contraignent fortement la forme du masque. La procédure de
sélection consistera à les exclure du masque le plus possible.

La lumière solaire rétro-diffusée par la terre. Malgré l’atténuation de


10−13 apportée par le baffle, une quantité non négligeable de photons
diffusés parvient à s’immiscer dans le circuit optique. Cette lumière est
réduite à 7 e− /s/pixel, mais il peut subsister, suivant la position de la Terre
et du Soleil, des pics plus importants. Ce contaminant n’est pas uniforme
à l’échelle du CCD, mais est considéré comme tel à l’échelle d’un masque.
Il influe peu sur la forme du masque.
La lumière zodiacale. C’est la lumière diffusée par les poussières interplané-
taires situées dans le plan de l’écliptique. Suivant la ligne de visée, elle
contribue pour environ 12 e− /s/pixel. Elle varie annuellement de ∼ 10%.
Le fond continu des étoiles non résolues. Les étoiles plus faibles que la
magnitude 21 ne sont pas cataloguées par les observations préparatoires
au sol. En effet il faudrait effectuer une pose courte pour caractériser les
étoiles fortes sans saturer le télescope et une pose longue sur le même
champ pour déceler les étoiles faibles. Ce doublement du nombre de poses
est trop exigeant en temps de télescope. De plus durant la pose longue
on perdrait les étoiles faibles proches des cibles par saturation. Pour les
besoins de la simulation, on assimile ces étoiles faibles et nombreuses à
un fond continu supplémentaire de 3 e− /s/pixel. Ce fond est estimé en
extrapolant l’histogramme figure 3.5 au-delà de la magnitude de coupure
du catalogue.

5.2.3 Le jitter
Les inévitables fluctuations résiduelles de pointage subsistant après l’asser-
vissement ont pour effet de faire osciller l’image à l’intérieur du masque. Cette
vibration de ∼ 0.1 pixel d’amplitude se produit à un temps caractéristique de
l’ordre de la seconde. Par conséquent des photons frontaliers sortent et entrent en
permanence dans le masque engendrant une variation du signal lumineux comme
illustré figure 5.1. Ce bruit de gigue nommé jitter est un facteur important pour
48 Calcul des masques optimaux

la forme du masque. Son rôle est étudié section 5.3. Le jitter est mesuré en per-
manence par le satellite, il sera en partie corrigé dans les données à l’aide d’un
modèle de PFS.

Fig. 5.1 – Jitter. Les déplacements de PSF causent des entrées-sorties de flux. En
quantités inégales, elles sont à l’origine du bruit de jitter.

La signature du jitter est très sous-échantillonnée pour les temps de pose de


512 s. Les périodes impliquées sont donc réparties sur le spectre par le phénomène
d’aliasing. On l’assimile à un bruit blanc.

5.2.4 La respiration
Le satellite parcourt une moitié de son orbite exposé au Soleil tandis qu’il reste
dans l’ombre de la Terre durant l’autre. Sa température varie donc ; il s’ensuit
des déformations susceptibles de modifier légèrement la focalisation du télescope.
A nouveau, des photons vont franchir la frontière du masque induisant le bruit
de respiration. On modélise cet effet par une dilatation-contraction centrée du
masque, avec un temps caractéristique de 1h. On néglige l’interpénétration
variable des PSFs et l’on considère que la dilatation reste centrée.

Le satellite est protégé par une couche de MLI (Multi Layer Isolation) à
l’aspect de papier aluminium doré qui limite efficacement les transferts radiatifs.
Les données actuelles laissent prévoir une amplitude de respiration de ∼ 0.2 pixel.

L’effet de la respiration est une dérive périodique du flux moyen conjuguée à


la variation de bruit photonique. On s’estime à même de corriger partiellement
cette dérive dans les signaux reçus, notamment par filtrage ou à l’aide d’un
repliement à la période orbitale pour déterminer un profil local. La respiration
n’entre donc pas intégralement en ligne de compte dans la forme du masque. On
la fait intervenir pondérée d’un coefficient résiduel reflétant l’erreur de correction
et le supplément de bruit photonique.
5.2 Les bruits 49

5.2.5 Les bruits électroniques


Ces bruits apparaissent dans la partie analogique du trajet des électrons.
Voici leurs principales causes :

Le bruit de lecture. La lecture du CCD se déroule en véhiculant les électrons


de pixel en pixel le long d’une colonne. Puis la dernière ligne est décalée
pixel à pixel jusqu’au convertisseur de sortie qui transforme la charge élec-
trostatique en nombre entier. La polarité des puits de potentiels que sont
les pixels est permutée pour pousser les électrons vers la sortie, pixel après
pixel comme dans un jeu de Taquin. Certains électrons restent piégés dans
les puits, et leur nombre variable engendre un bruit. Ce bruit qui reste
inférieur à 0.5 e− /s/pixel est négligé.
Le courant d’obscurité. L’agitation thermique crée spontanément des élec-
trons qui sont piégés par les puits. Ils sont comptabilisés à√tort comme
photons. La variabilité de leur nombre est proportionnelle à T , où T est
la température en Kelvins. C’est pourquoi le CCD est maintenu à -40‰. Le
bruit attendu est de 0.5 e− /s/pixel en début de mission, augmentant avec
le vieillissement jusqu’à 10 e− /s/pixel.
Le bruit électronique proprement dit est inhérent au passage√du courant dans
tout circuit électronique. Il est blanc et proportionnel à RT où R est la
résistance équivalente du circuit. Pour le limiter, les boı̂tiers électroniques
sont soigneusement régulés en température. Avec le courant d’obscurité, ces
bruits sont équivalents à une contamination uniforme supplémentaire de 1
e− /s/pixel
Etant uniformes et faibles, les bruits électroniques n’interviennent que très
peu dans la forme du masque.

5.2.6 Le traı̂nage
Corot est dépourvu d’obturateur occultant le CCD. Pendant la lecture, il
continue à recevoir les photons, créant des traı̂nées lumineuses sur toute la
colonne suivant le mécanisme expliqué P figure 5.2. Chaque colonne reçoit une
contamination
P uniforme égale à tlec . i f où tlec = 0.3 s est le temps de lecture,
et i f est le flux sommé sur les i pixels de la colonne.

Ce phénomène est particulièrement problématique dans le cas des étoiles très


brillantes, saturées ou non. Il étend à toute la colonne la portée de la contamina-
tion qu’elles induisent. Le traı̂nage dépend de tout le champ. Par conséquent il
n’est pas pris en compte dans le masque mais seulement lors de l’attribution des
patrons.
50 Calcul des masques optimaux

Fig. 5.2 – Les photons de l’étoile (à gauche) continuent à arriver durant la lecture
lors même que d’autres pixels passent sous l’étoile (au centre). La colonne entière s’en
trouve éclairée. Certains photons seront comptabilisés dans d’autres pixels, ceux qui ne
l’ont pas été le seront à la lecture suivante. A droite une image simulée, la saturation
d’une étoile rend bien visible l’excès de traı̂nage.

5.2.7 La saturation
La saturation n’est pas un bruit à proprement parler mais elle pose des
problèmes particuliers. Malgré la défocalisation, les étoiles plus brillantes que
mV 6 12 vont saturer, plus particulièrement les pixels situés sous le maximum de
la PSF. Ce phénomène n’est pas une simple redistribution des électrons, il rend
les pixels impropres à la mesure. Les meilleures étoiles sont ainsi perdues. Heu-
reusement elles sont rares. En revanche la saturation peut agir à longue portée
par traı̂nage (Fig. 5.2, droite) dégradant d’autres étoiles.

5.2.8 Bruits d’arrondi


Lors de l’analyse des données, la valeurs des quantités numériques telle le
flux reste très éloignées des extrêmes manipulables par un ordinateur. Ceci
limite les erreurs d’arrondi, mais on restera vigilants sur l’ordre de grandeur
des résultats intermédiaires. Le problème est présent lors de la combinaison
de deux nombres d’échelles éloignées, ou au contraire lors de la soustrac-
tion de deux nombres proches. Par exemple si (x + ε) résulte d’un calcul
arrondi à la précision δ négligeable devant x mais pas devant ε, la différence
(x + ε) − x = ε est instable car elle propulse δ au premier plan. On trouve
une analyse intéressante du bruit numérique dans l’ouvrage de Press et al. (1997)
5.2 Les bruits 51

5.2.9 La variabilité stellaire


L’étoile cible est le siège d’une activité propre décrite dans la section 2.2.5.
Provenant de la source d’information elle-même, ce bruit ne peut pas être amélioré
par la forme du masque. Il peut être pris en compte en amont par un choix des
cibles. L’activité stellaire sera traitée en aval lors de l’analyse des données reçues.
Les masques ne prennent pas non plus en compte la variabilité des étoiles de fond.

5.2.10 Les éclipses d’étoiles du fond


On estime qu’une étoile de fond sur deux est susceptible d’être formée de deux
étoiles non résolues gravitant l’une autour de l’autre. Pour une telle binaire 2000
fois plus faible que la cible, l’éclipse totale vue dans le plan de l’orbite commune
produit une baisse de flux ∆F/F = 1/1000, tout à fait analogue à un transit
sur la cible. La magnitude d’une telle étoile vaudrait m0 = m + 6.7, où m est
la magnitude de la cible. D’après la relation constatée sur l’histogramme des
magnitudes (voir Fig. 3.5), pour n étoiles de magnitude m on a :
0
n0 ' n × 2.2m −m

où n0 est le nombre d’étoiles de magnitude m0 . Numériquement elles sont


200 fois plus nombreuses. Heureusement toutes ne sont pas dans le masque
et leur chance d’être vues dans le plan est limitée. Des simulations récentes
semblent montrer que les binaires gênantes sont néanmoins en nombre significatif.

A l’heure actuelle, ce problème n’est pas pris ne compte dans la réalisation


des masques. D’une part l’information de binarité d’une étoile n’est pas connue.
D’autre diminuer le nombre d’étoiles d’arrière plan en réduisant la taille des
ouvertures diminuer du même coup le flux de la cible et il faudrait définir des
équivalences pour régler le compromis. De surcroı̂t, l’effort fait pour exclure
certaines étoiles d’arrière plan ne va pas dans le sens de la généricité des masques.

Certains de ces phénomènes seront distinguables par la différence de signature


entre éclipse antérieure et postérieure, ou bien par un suivi au sol par la méthode
des vitesses radiales.

Importance des différents Bruits


En pratique, il est spécifié que le cumul de toutes les dégradations ne doit
pas excéder deux fois le bruit de photons. Corot est spécifié pour une détectivité
(S/B)−1 ≤ 7 × 10−4 pour mV ≤ 15.5, sur une heure.
52 Calcul des masques optimaux

5.3 Modèle du bruit photonique


Le calcul du S/B ne tient compte ici que du bruit photonique des étoiles
résolues et des sources de contamination énumérées au §5.2.2. D’après l’expression
de la variance d’un flux photonique, le S/B d’une étoile de flux f contaminée par
un flux c vaut :

f
S/B = √ (5.2)
f +c
C’est la limite physique que l’on cherche à atteindre. La table 5.1 indique
quelques valeurs pour des magnitudes et contaminations types. A taux de conta-
mination égal, l’influence des étoiles proches est constante, mais l’importance
du fond uniforme augmente pour les étoiles faibles. Ceci reste vrai même si on
réduit la dimension du masque.

Tab. 5.1 – Limite de sensibilité. Pour chaque magnitude, on donne q et le rayon de la


plus petite planète en fonction de trois contaminations : 1) l’étoile seule, 2) τ = 10%
d’étoiles proches et 3) ajout du fond uniforme c0 = 13e− /s/pixel. La taille du masque
est adaptée à f .
mV (e− /s) τ q −1 (1h) r/R⊕ (1h)
0 9429 1,1
12.0 24700 0.1 =5.1% 1,2
0.1 + c0 × 100 pix =7.3% 1,2
0 3752 1,8
14.0 3912 0.1 =5.1% 1,8
0.1 + c0 × 75 pix =14% 1,9
0 1876 2,5
15.5 978 0.1 =5.1% 2,6
0.1 + c0 × 50 pix =25% 2,9

La dégradation de S/B en fonction du taux de contamination τ s’obtient en


substituant c (cf. Eq. 5.1) dans l’équation précédente. On trouve :
p √
S/B = f. 1 − τ

Les forts flux rendent tolérants à la contamination : à S/B fixé, une étoile
brillante admettra un taux de contamination plus élevé qu’une étoile peu brillante.
5.4 Modèle jitter 1-D 53

5.4 Modèle jitter 1-D


L’approche à une dimension permet de comprendre l’interaction entre bruit
photonique et jitter. La PSF ϕ répartit continûment les photons incidents à la
surface du CCD. On voit figure 5.3 que le flux moyen f reçu dans un masque
mono-dimensionnel [X, Y ] vaut :
Z Y
f= ϕ(x) dx (5.3)
X

Fig. 5.3 – Lien entre flux f et PSF ϕ

Tout dépointage élémentaire λ causé par le jitter déplace les frontières, modi-
fiant f :
Z Y −λ Z Y
f (λ) = ϕ(x) dx = ϕ(x − λ) dx (5.4)
X−λ X

Etudions ce qu’il advient de q lorsqu’on fait varier λ de façon aléatoire. Les


lettres majuscules telles F ou φ désignent les grandeurs contaminées.

5.4.1 Signal
Le signal est l’espérance mathématique hf i du flux “jitté” non contaminé. Si
P(i) est la probabilité globale de recevoir exactement i photons, par définition :

X
hf i = i.P(i) (5.5)
i=0

On écrit P(i) en fonction de λ par la relation de Bayes sur les probabilités


conditionnelles : Z +∞
P(i) = P|λ (i)Q(λ) dλ
λ=−∞
54 Calcul des masques optimaux

où Q est la loi de probabilité du jitter supposée connue. On peut


Z à présent sub-
P
stituer Pi dans l’équation 5.5. En permutant les signes et il vient :
 
Z
X
hf i = iP|λ (i) Q(λ) dλ (5.6)


λ
| i {z }
f|λ
L’expression entre parenthèses n’est autre que le flux moyen pour un dépoin-
tage λ, c’est-à-dire le flux photonique f (λ). Ce flux est donné par l’équation 5.4,
ce qui amène :
Z Z Y
hf i = ϕ(x − λ)Q(λ) dx dλ (5.7)
λ X
En permutant les intégrales on reconnaı̂t le produit de convolution :
Z Y
hf i = ( ϕ ∗ Q )(x) dx (5.8)
X

Le signal moyen en présence de jitter est celui de la PSF de l’étoile, élargie


par convolution avec le jitter.

5.4.2 Bruit au 1er ordre


Nous allons calculer la variance du flux jitté F . Etant jitté, il ne suit pas
forcément la loi Poisson, il faut repartir de la variance σ 2 = hF 2 i − hF i2 . Pour le
premier terme, on revient à la définition :

X
F 2
= j 2 .P 0 (j)
j=0
0
Où P est la loi de photon de l’étoile en présence de sa contamination et du
jitter. En introduisant λ de la même manière que pour le signal on obtient :
 
Z
X 2 0
F2 = j P |λ (j) Q(λ) dλ


λ j
| D {z E }
F|λ2

P 0 |λ est la loi de probabilité des photons non jittés ; c’est une loi de Poisson. Une
propriété connue de cette loi concerne l’espérance du carré :
D E D E2 D E
F|λ2 = F|λ + F|λ
5.4 Modèle jitter 1-D 55

. D E
Le terme F|λ est simplement le flux F (λ). On peut donc écrire la variance :

Z Z Z 2
2 2
σ = F (λ) Q(λ) dλ + F (λ)Q(λ) dλ − F (λ)Q(λ) dλ (5.9)
λ λ λ
Z
·)2 pour des fonctions
R 2
Il n’existe pas de relation simplificatrice entre (· ) et (
quelconques. Intéressons nous donc à la tendance de σ pour de petits jitters en
linéarisant F . Ceci est légitime car en pratique l’ordre du jitter sera inférieur à
0.2 pixel, petit devant les 10 pixels typiques d’un masque. Nous aurons soin plus
loin de mesurer l’erreur commise à l’aide de simulations. Au 1er ordre :
dF
F (λ) ' F (0) + λ (0)
dx
On substitue cette expression dans l’équation 5.9. En simplifiant hλi = 0 et
hλ2 i = σλ , il ne reste que :

dF
σ 2 = F (0) + σλ2 (0)
dx
On peut expliciter F (0) et dF/dx(0) en revenant à la définition de la PSF :
(
F (0) = Fnon jitté
R 0
Y −λ
(dF /dx)(0) = X−λ
φ(x) dx (0) = φ(Y ) − φ(X)

d’où la variance totale du flux jitté :

σ 2 = Fnon jitté + σλ2 (φ(Y ) − φ(X))2

L’expression complète du S/B 1-D jitté au 1er ordre est :

fϕ∗Q
q=p
F + σλ2 (φ(Y ) − φ(X))2

Le √signal est le flux d’une PSF convoluée. On retrouve au dénominateur le


terme F du bruit photonique contaminé, dégradé par un terme de jitter. Ce
nouveau facteur est sensible à la différence de valeur de la PSF prise entre bords
opposés du masque. Comme montre la Fig. 5.4, chaque déplacement élémentaire
fait entrer et sortir des flux inégaux. Il faut donc privilégier les masques dessinés
sur une ligne de niveau de la PSF, ou plutôt chercher à s’en approcher puisque
56 Calcul des masques optimaux

Fig. 5.4 – La variation de flux lors d’un déplacement dλ est la différence de hauteur
entre les zones hachurées φ(X)dλ et φ(Y )dλ.

les pixels sont par nature discontinus.

La principale difficulté à laquelle on se heurte pour définir des masques


photométriques se fait jour : un pixel individuel n’a pas de sens en termes de S/B
car celui-ci dépend de toute la frontière délimitant le masque. Pour la surmonter
on est donc contraint à de lourdes explorations parmi les combinaisons possibles.
Les principaux ingrédients d’une optimisation efficace apparaissent :

1. Englober le plus de PSF de l’étoile au numérateur,


2. Exclure au mieux les photons contaminés du dénominateur,
3. Suivre une ligne de niveau, pour minimiser le jitter.
Cette question est détaillée par Llebaria (Llebaria et al. 2002).

5.4.3 Bruit au 2ème ordre


Améliorons la précision en développant à présent F (λ) au second ordre :

dF λ2 d2 F
F (λ) ' F (0) + λ (0) + (0)
dx 2 dx2
Le nouveau terme (d2 F /dx2 )(0) = φ0 (X) − φ0 (Y ) introduit une correction liée
à la différence des pentes au bord du masque. Hélas, réintroduite dans l’équation
5.9 l’expression finale se simplifie peu, conservant des termes croisés avec des
moments d’ordre 3 et 4 de la loi Q(λ). Cette expression n’est pas développée ici.

5.5 Modèle jitter 2-D


Les PSFs ϕ(x, y), la loi de jitter Q(λx , λy ) et le masque S sont en réalité des
objets à deux dimensions. Nous allons généraliser le cas 1-D suivant les mêmes
5.5 Modèle jitter 2-D 57

étapes. Le signal (cf. Eq. 5.6) devient :


ZZ !
X
hf i = iP|λx ,λy (i) Q(λx , λy ) dλx dλy
λx ,λy i

On reconnaı̂t entre parenthèses le flux photonique à travers une PSF déplacée


de (λx , λy ) :
ZZ I
hf i = ϕ(x − λx , y − λy ) dxdyQ(λx , λy ) dλx dλy
λx ,λy S

En permutant l’ordre de ces intégrales on obtient le produit de convolution


2-D étendu à toute la surface du masque :
I
hf i = ( ϕ ∗ Q )(x, y) dxdy (5.10)
S

5.5.1 Bruit 2-D au 1er ordre


Pour calculer la variance du flux, on commence cette fois-ci par le linéariser
au premier ordre en fonction d’une perturbation de pointage ~λ :
−−→
F (~λ) ' F (~0) + ~λt .gradF (~0)
Par additivité des variances :
−−→
varF (~λ) = varF (~0) + var(~λt .gradF (0))

D’une part F (~0) est le flux non jitté, sa variance de Poisson vaut donc
−−→
F . D’autre part en tant que fluctuation ~λ est centrée, donc var(~λt .gradF ) =
h(λx .gx + λy .gy )2 i où gx et gy sont les coordonnées du gradient. On obtient :

varF = Fnon jitté + σx2 gx2 + σy2 gy2 + 2gx gy cov(λx , λy )

Explicitons gx et gy . Par définition de la PSF :


h−−→ i I 
−−→
gradF λx = 0 = grad φ(x − λx , y − λy ) dxdy
λx = 0
λy = 0 S λy = 0
−−→ i
I h
= gradφ λx = 0 dxdy
IS λy = 0

= ~nφ(x, y) dxdy
C
58 Calcul des masques optimaux

Où ~n est la normale unitaire qui parcourt le contour C du masque. Le gradient


est bien un vecteur à deux coordonnées. Dans notre cas, la décomposition sur x, y
est très simple car C suit des pixels carrés. Il en découle :
( X
gx = φ(x0 ) − φ(x) = ∆x
X
gy = φ(y 0 ) − φ(y 0 ) = ∆y
Les x, x0 , y, y 0 sont les bords gauche, droit, inférieur et supérieur du masque,
∆x et ∆y les différences de hauteur cumulée entre frontières opposées. Avec le
numérateur, l’expression complète du rapport signal à bruit 2-D est :
H
ϕ∗Q
S
q=
Fnon jitté + σx2 ∆2x + σy2 ∆2y + 2cov(λx , λy )∆x ∆y

Comparaison au modèle 1-D


On retrouve les mêmes éléments : La PSF convoluée au numérateur et la PSF
contaminée au dénominateur. Elle n’intervient que par sa valeur aux frontières du
masque. Les frontières horizontales et verticales sont sommées indépendamment
comme si elles étaient contiguës et alignées. La dépendance entre λx et λy appa-
raı̂t dans le terme additif de couplage cov(λx , λy ). Pour comprendre le phénomène,
supposons de petits déplacements λx et λy qui induisent respectivement des sup-
pléments de flux dfx etdfy . Le flux total devient plus erratique quand le couplage
x, y augmente car alors dfx et dfy se somment sans plus pouvoir se compenser.

5.5.2 Bruit 2-D au 2ème ordre


Nous avons étendu le calcul pour de plus grands jitters en développant F au
2ème ordre. Pour présenter le résultat nous avons besoin des notations supplé-
mentaires :

~i.− −→
Z
0
 ∆x = gradφ dy


Zy
 ∆0y =

 ~j.−−→
gradφ dx
x

qui sont les différences cumulées de pente entre bords opposés du masque. Les
moments d’ordre supérieur du jitter interviennent, mais l’expressions reste trop
lourde à manipuler. Sous l’hypothèse simplificatrice d’indépendance des λx et λy ,
il en reste :
σ 2 = Fnon jitté + σx2 (∆2x + ∆0x /2) + σy2 (∆2y + ∆0y /2)+
+ σx4 ∆0x 2 + σy4 ∆0y 2 + σx2 σy2 ∆0x ∆0y
5.6 Vérification expérimentale 59

Les simulations du paragraphe suivant montrent que cette expression n’ap-


porte pas de précision supplémentaire. En effet l’écart entre résultats des ex-
pressions au 1er et au 2ème ordre est négligeable devant l’écart entre formules
analytiques et simulation.

5.6 Vérification expérimentale


J’ai comparé les S/B analytiques précédents avec un S/B obtenu par simula-
tion. Nous verrons que c’est l’expression en 1-D du §5.4.2 qui assure le meilleur
compromis précision-simplicité sous l’hypothèse de λx , λy indépendants. Le mode
opératoire est le suivant :

– Un programme déplace aléatoirement une PSF sous un masque par pas de


1 seconde,
– Après chaque déplacement, on mesure le flux dans le masque,
– Les mesures sommées sur 512s constituent la courbe de lumière (voir
Fig.5.5)
– On mesure dans la courbe le S/B simulé, en tenant compte de la contami-
nation.
– On compare avec celui que l’on a calculé analytiquement avec les mêmes
paramètres de jitter, PSF, . . .

Fig. 5.5 – Simulation de flux sur une seconde (en noir) et intégré sur 512 secondes
(en blanc), pour mV = 14.

Le test a été effectué pour trois cibles mV = 11, 13 et 14, contaminées à


τ = 1.6, 3.9 et 5.8%. Pour simuler le bruit de photons, les flux suivent une loi
60 Calcul des masques optimaux

Gaussienne G(n, n) avec le nombre de photons n adéquat. Les flux cible et
contamination sont simulés séparément. En sortie, le S/B est estimé graphique-
ment par le rapport :
˜ = f
S/B
σ˜F
La variation de pointage simulée est la somme de deux composantes. L’une
aléatoire et Gaussienne autour du pointage moyen l’autre, déterministe, est le dé-
placement de ce pointage moyen au cours de l’orbite en fonction des harmoniques
2 et 4. Pour x par exemple :

λx (t) = G(0, σ) + k1 sin(4πt/Torb ) + k2 sin(8πt/Torb ).

où σ est l’écart-type, k1 et k2 sont les coefficients des harmoniques 1 et 2. Le


dépointage résultant en x, y est indiqué figure 5.6.

Fig. 5.6 – Variations de pointage simulées sur trois orbites. Les coefficients du jitter
sont σ = 0.18”, k1 = 0.15” et k2 = 0.06” suivant les x et σ = 0.16”, k1 = 0.12”,
k2 = 0.05” suivant y.

On compare les trois expressions de la section précédente :


– Le modèle 1-D, en additionnant le bruit indépendamment varλ = varλx +
varλy
– Le modèle 2-D au 1er ordre, équivalant au précédent, corrigé par le couplage
λx , λy mesuré,
– Le modèle 2-D au 2ème ordre, similaire au second mais prenant en compte
tous les moments d’ordre supérieurs.
5.6 Vérification expérimentale 61

La loi Q du jitter est estimée avec les points disponibles. Le produit de convo-
lution est donné par le signal analytique :
ZZ I
s= ϕ(x − λx , y − λy ) dxdyQ(λx , λy ) dλx dλy
λx ,λy S

se résume à
1 X
s= ϕ(x − λx , y − λy )m
n
(λx ,λy )

où m est le masque binaire. La comparaison des trois modèles est présentée table
5.2.

Tab. 5.2 – Comparaison entre S/B mesuré et formules analytiques. La simulation est
conduite sur une durée de trois orbites. Les paramètres du jitter sont ceux de la figure
précédente. Les taux de contamination sont indiqués entre parenthèses.
mV 11.3(τ = 1.6%) 13.2(τ = 3.9%) 13.9(τ = 5.8%)
simulé 1 463 784 1 583
1-D 2 404 482 2 924
2-D 1er ordre 2 646 840 2 779
2-D 2ème ordre 2 625 830 2 766

La non prise en compte de la covariance entre x et y dans l’expression 1-D


entraı̂ne une différence notable de résultat avec les expressions 2-D. Ces dernières
au 1er et au 2ème ordre donnent des résultats proches (∆ ∼ 1%), on retient donc
l’expression 2-D au 1er ordre en vertu de sa simplicité, bien qu’il subsiste une
différence par rapport aux simulations.
62 Calcul des masques optimaux

5.7 Simulation d’Images


Avant le vol, il nous faut faire des simulations aussi réalistes que possible
pour pallier l’absence d’images réelles. Ces images ont l’avantage de contenir plus
d’information que des images réelles Corot : Elle gardent trace de l’identité et des
proportions des sources éclairant un pixel donné. La simulation des images est
décrite en détail dans l’article de Llebaria (Llebaria et al. 2002) adossé ci-après
et rappelée ici.

Le point de départ de la simulation est :

– Une liste d’étoile extraite de la base EXODAT pour le pointage choisi.


Cette liste contient notamment les magnitudes des étoiles du champ dans
les bandes B,V,r,i,

– les PSFs de référence calculées pour 16 types-spectraux de références


indexés par T , température de la photosphère et pour 9 positions par CCD.
Ces PSFs sont échantillonnées au 1/5e de la taille du pixel.

– la correspondance entre coordonnées angulaires de l’étoile et position (x, y)


sur le CCD du point de référence de la PSF.

Le CCD initial est vierge. Puis la PSF de chacune des 50 000 à 250 000 étoiles
du champ, cibles et non cibles, est simulée et accumulée à l’état courant du CCD.

5.7.1 Simulation des PSFs stellaires


Chaque cible est placée au centre d’une petite imagette de 40 × 26 pixels. Le
point de départ est l’indice de couleur V-R= mV − mR de la cible (magnitudes
dans les bandes vertes et rouges). Il est indépendant de la magnitude de l’étoile
et relativement peu sensible à l’absorption par le milieu interstellaire. Il est ca-
ractéristique du type spectral de l’étoile et l’on en déduit la température T de sa
photosphère.
On extrait parmi les PSFs de référence celles encadrant T (choisies à la bonne
position sur le CCD, voir figure 5.7) et l’on interpole leurs pixels pour obtenir la
PSF polychromatique à normaliser par le flux total. La figure 5.8 donne quelques
exemples de PSF pour différentes températures.

Il reste à positionner correctement sur le CCD cette PSF polychromatique


fournie sur-échantillonnée au 1/5e de pixel par ZEMAX, grâce à son point de
référence (cf. §3.2.5), et à la re-échantillonner au pas du pixel comme la verra
Corot .
5.7 Simulation d’Images 63

Fig. 5.7 – La PSF d’une étoile de type G2, calculée en neuf positions différentes pour
chaque CCD. Pour la simulation de PSFs stellaires on se contente de choisir un cadran
plutôt que de faire appel à une interpolation 2D.

La PSF de la cible ainsi calculée, on réitère avec les étoiles de fond présentes
dans la trame de travail. Toutes les étoiles sont ainsi simulées ; les plus faibles
seront noyées dans le bruit de fond mais néanmoins présentes et susceptibles
d’engendrer des éclipses d’étoile double gênantes. Le catalogue disponible est
cependant incomplet, la magnitude de coupure se situant vers mV > 19.5 (voir
Fig. 3.5). Les étoiles non résolues contribuent malgré tout à la PSF. On en tient
compte sous forme d’un fond uniforme, dont le flux est calculé en intégrant la
droite d’extrapolation figure 5.9.

Pour compléter, il est nécessaire d’ajouter au fond continu la lumière


zodiacale et rétro-diffusée, ainsi que le courant d’obscurité et les autres bruits
électroniques. On termine par les artefacts instrumentaux globaux : ailes de
saturation et traı̂nage. La figure 5.10 montre un exemple d’image Corot simulée.

Nous appelons champ local l’imagette d’une cible et celle de sa contamination


associée. Un tel champ est conservé car il contient plus d’information qu’une
image réelle (i.e) la séparation entre photons des cibles et photons contaminants.
Malgré la multiplicité des opérations qu’il est nécessaire d’effectuer pour obtenir
64 Calcul des masques optimaux

Fig. 5.8 – PSF polychromatique pour différents types d’étoiles, résumés à la tempéra-
ture en Kelvin de leur photosphère. A cause de la dispersion par le prisme le maximum
de flux se décale vers le rouge (en bas à droite) quand la température de l’étoile décroı̂t.

Fig. 5.9 – Magnitude de coupure et extrapolation.

une imagette, la simulation du champ complet ne dure guère plus de 1/2 heure.

5.7.2 Masques optimaux


La méthode de détermination de ces masques est décrite dans l’article de
Llebaria (Llebaria et al. 2002). Les masques ayant une surface de 50 à 120 pixels,
le nombre de possibilités est bien trop grand pour faire une recherche exhaustive.
La procédure comprend deux étapes.
1. L’étape d’ébauche calcule le meilleur masque pour la cible et ses contami-
nants en l’absence du bruit de jitter et de respiration. Dans ce cas l’expres-
sion du S/B n’est pas liée à la forme de la frontière (cf. §5.3) ; On procède
par classement : les pixels sont englobés dans le masque jusqu’à ce que le
5.7 Simulation d’Images 65

Fig. 5.10 – Extrait de champ simulé. Cette image correspond à 1/10e du champ vu
par Corot . On remarque bien la densité du champ et le chevauchement des PSFs

S/B cesse d’augmenter. L’algorithme travaille ligne par ligne pour garantir
que tout pixel soit rattaché au masque par un côté au minimum.
2. La phase de finition est un ajustement en présence des effets de jitter et de
respiration. L’expression du S/B dépend cette fois de la géométrie de la ligne
frontière. Elle ne permet pas d’isoler le rôle d’un pixel donné : il faut tester
toutes les formes de frontière possibles. En supposant la frontière idéale
proche de la frontière ébauchée, on déforme cette dernière en testant une
centaine de milliers de combinaisons. Le masque de meilleur S/B devient le
masque optimal.
Cette opération est répétée pour chacune des 12 000 cibles.

Le S/B utilisé dans l’optimisation des masques doit tenir compte du vrai jit-
ter σλ ' 0.1 pixel et non pas d’une valeur résiduelle après correction. En effet,
une valeur trop petite produirait l’effet inverse de celui recherché : les courbes
de lumière ne seraient pas optimisées en jitter, rendant moins efficace la correc-
tion. C’est seulement à l’issue du processus de fenêtrage que l’on peut mesurer
les performances attendues après correction du jitter, en utilisant cette fois un
coefficient résiduel (σλ ' 0.02) pour simuler une correction imparfaite.
66 Calcul des masques optimaux

5.8 Première publication Llebaria et al. (2002),


SPIE.
Designing photometric patterns for exoplanet transit search
on board COROT
Llebaria A. a, Vuillemin A.a, Guterman P.b and Barge P. a
a Laboratoire Astrophysique de Marseille(CNRS), 13776 BP8 Marseille Cedex12, France
b Gemplus, Aubagne, France

ABSTRACT
COROT is a mission of the CNES space agency, to be launched in 2005 in a near Polar orbit. It is devoted to
star seismology and to exoplanetary transit search. Five star elds chosen close to the galactic plane will be
observed during the mission with a high photometric accuracy (relative). Each observation run will last 150
days monitoring continuously more than 6000 stars. This paper presents a new method designed to perform
optimal aperture photometry on board in high density elds. We describe the way the photometric windows or
patterns are dened and centered on the CCD around each target star, with the expected performances. Each
pattern depends on the specic 2D prole of the point spread function (PSF) but also on the pointing jitter and
on the tiny deformations of the telescopes. These patterns will be stored on board in order to dene for each
target star the optimal pattern which will produce the integrated ux to be measured. This method allows a
signicant increase of the sampling rate to aproximatively one measure per star each 8 mn).
Keywords: image processing, exoplanets, pattern analysis, stellar photometry

1. INTRODUCTION
COROT (COnvection) ROtation and planetary Transits) is a mission developped in the framework of the
CNES small satellite programme with a wide european cooperation.1, 2 It has to be launched in 2005. The
aim of COROT mission is double: 1) to monitor the sysmology of stars and 2) detect and measure exoplanetary
transits.
1.1. Mission prole for exoplanets research
COROT will be located in a PROTEUS platform designed for low-Earth orbits. For long uninterrupted ob-
servations an inertial polar orbit is needed. The orbital plane can be chosen freely and will remain the same
during all the mission.
Necessity to keep a very low level of straylight avoiding the Earth limb in the eld of view, limits the visible
sky of Corot to two circles of approximatively 10 to 15 degrees of radius, centered on the celestial equator. The
position of this circles has been chosen to optimize the two scientic programmes: their centers are at right
ascension of 102:5 2 and 282:5 deg (where the equatorial plane crosses the galactic plane). The eld of view
is 3o :46 wide.
Yearly the observation time is divided in two periods each period includes a long run (150 days) and two
short runs (10 to 20 days). During each run COROT will measure simultaneously 6000 stars with a record
rate of  6 measures/star/hour. The expected transits of planetary bodies will look like tiny notches in the
photometric records of stars. The notch will be on the 3:10;4 range of the full signal and will last for some
hours (between 3h and 10h is the work hypothesis). The relative precision of such measures, not their absolute
accuracy, is the crucial point of this mission. Therefore the stability of experimental conditions and a very low
straylight level are important items.
Further author information: (Send correspondence to Antoine Llebaria)
[Link].: E-mail: [Link]@[Link], Telephone: +33 (0)4 91 05 59 00
the Centre National d'Etudes Spatiales (CNES) is the french spatial agency
1.2. Optical instrumentation
The optical scheme has been built to reduce the internal straylight and therefore the minimize the in uence of
the periodic changes on the illumination from the Sun and from the Earth. The optical instrument is an o
axis telescope with an entrance pupil of 600 cm2 and it includes a 2 mirrors afocal section and a 6 lenses dioptic
objective, with 30 cm of diameter aperture and 1200 mm of focus, working in 370-950 nm range. This design
was chosen because it is compact and it shows an hight rejection rate for straylight (better than 1013.
The focal plane includes 4 CCDs of 2048  2048 pixels each (Marconi MPP), of 13.5 microns of pixel interval,
working in frame transfert. Two are dedicated to seismology and the other two to exoplanetary detection. These
ones work in focus but with a small dispersion (R4) parallel to the rows of the CCD. Such dispersion is caused
with a low dispersion prism which intercepts the optical path on the exoplanetary side in order to obtain some
color information about the measured stars and therefore to get additionnal criteria to discriminate the transits
from the otherwise normal stellar activity. So the best possible couloured PSF in the exoplanet eld has a
strong peak in the red and is more dispersed in the blue.
1.3. On board processing
Telemetry constraints (TM rate < 550 Mbits/day) force to on board heavy processing, to extract the photometric
imformation from the images 2048  2048 pixels wide. In order to avoid the saturation of CCDs the exposure
time is 32 sec. Each image is read in the auxiliary memory where the \extractor" (a specic programmable
device) denes 6000 windows i.e. predeteminated subsets of adjacent pixels. Each window will cover a star
image, therefore the number of selected stars dene the total number of windows. The total ux and the red ux
is measured in each window. For each of them the DPU (digital processing unit) adds 16 successive measures
and each 8 minutes packs the nal results in the telemetry (TM) format. A very small subset of windows are
included in the TM ow as mini-images.
The DPU software allocates a particular window design (called pattern thereafter) to each selected star. All
the windows are dened from the limited collection of 256 patterns preloaded from the ground. Loading new
patterns from ground on the DPU is a very slow operation, is by far more fast to reload new positions only
and to redirect the preloaded patterns to the new subset of stars. Therefore, when the star eld changes, the
extractor uses the same collection of patterns for the new set of positions.
The description of the pattern build-up process and its expected performances are the main objective of
this paper. The experiment objectives and constraints are resumed on section 2. Simulated images are needed
to dene the set of patterns, their characteristics and build-up are detailed in section 3. Deduction of specic
patterns for each star is the subject of section 4 and their redution on a small collection of generic masks is the
subject of section 5. Expected performances are discussed in section 6.
2. PHOTOMETRY
Star photometry in the COROT elds is dicult because they are dense and the ux of each star is contaminated
with the ux of neighbour stars. Crawded elds are usually reduced with PSF tting technics, however in our
case such processing methods are useless due to the operational constraints like DPU power, PSF variability,
etc.. Flux integration was chosen here because it is fast enough and can be easely taylored to the variability
of PSF aspect along the eld and with the spectral type of the star. The prism in the optical pathway of the
exo-planets channel disperses the star light over the CCD surface. For any star the nal PSF image is the
addition of a continuous set of monochrome PSFs in the useful wavelength range, changing in position and of
form. They are weighted by the star spectral prole and the spectral responsivity of COROT which includes
the CCD responsivity.
One of the most classical ux integration methods adds the ux arriving to two concentric windows of
increasing diameter centered on the star image. Background is estimated by dierence between both windows.
Is possible to use a window alone if background can be estimated independently. The COROT primary purpose
is to obtain stable measures from frame to frame, that is, only the relative precision between successive measures
of each star matters, therefore only a window per star is needed. The background time stability can be monitored
in ad hoc windows.
Optimal windows will include as much ux as possible comming from the star and as few ux as possible
comming from its sourroundings, S/N has to be maximized. Aside any prerequisite, any pixel able to increase
the total S/N has to be included in the window. S/N is weakened by platform dependent noises like jitter
and breathing and by extrinsic noises due to the background level (generating Poisson noise), variable star
neighbours, cosmic rays, stray light, erratic dust particles, etc.
Jitter is the residual movement of the line of sight after platform stabilization. The main star image is
formed in one of the sysmology CCDs dening the line of sight, therefore there is a local movement relative
to the CCD frames in each star image. The local movement, for each star, depends on the residual movement
of the main star and on the small rigid body rotation around this target. Jitter is directly linked to attitude
stability. Jitter is a wide-band phenomena relatively to the measure rate of 1 measure each 32 sec.
Breathing results from internal changes on the telescope structure due to the thermal chages and aging. It
is synchonous with the orbit, but their eect is deeper than the eect of jitter because breathing modies the
PSF aspect. Due to the abrupt edges of the pattern, integration in windows will be very sensitive to jitter and
breathing with variable backgrounds. The optimization procedure tries to minimize this crucial drawback.
Because the extractor device has a limited capacity, it is necessary to resume the full set of optimized
windows in a limited collection of 256 patterns. These patterns are called generic masks. Each star image to
be measured will be associated to a window which pattern has the \best" match with its optimized window.
Consequently, photometric windows will be build-up in a multistep process.
 Image simulation.
 Dening the optimal window for each target.
 Resuming all patterns in a reduced collection of 256 generic masks.
 Bestowing each target upon one of generic masks.
Summarizig, the image of each mesurable star, the image of its background and the expected errors due to
jitter and breathing are the basic elements to determine a window and its expected performance
3. STAR FIELD SIMULATION
Simulation of the future images is the only way we have to dene the patterns. They are of two classes: the
full CCD images and the local images. Only local images are useful here, full CCD images will be used for the
test of the overall process including star detection and adjustement of processing parameters. Both simulations
require many basic elements:
1. The catalog of stars on the eld including positions, color index and spectral classes.
2. Background level including zodiacal light and straylight.
3. The collection of 2D PSFs depending on position over the CCD, spectral type and class.
4. The geometric parameters needed to determine the star images on the CCD plane.
5. The radiometric response of COROT
3.1. Star catalogs
A photometric study of the selected elds until the 19 mag(R) for the BVRI colours is in progress. In the
meantime we use the DENIS and USNO catalogs as simulation basis. The histogram shows clearly the limits of
both catalogs their completude falls beyond the 19 mag(R). Therefore local number of stars has been statisticaly
extrapolated to simulate the background beyond this magnitude.
The catalog provides: star positions, magnitudes, a set of color indexes and rates of measure reliability
(only for a subset of these magnitudes). The mag(R) is used as reference because the maximum of COROT
sensivity yelds in this domain of wavelenght, it is the most common measured magnitude and it is known for
an overwhelming majority of cataloged stars.
3.2. PSFs
Local and global simulations use a large collection of modelized PSFs. Such PSFs depend mainly on the spectral
type and class of the star and on the eld position. The PSF collection is formed in successive steps:
1. Collecting a set of spectra in the 350 : : :1050 nm wavelength range for a set of surface temperatures
(correlative to spectral type) of the main sequence stars.
2. Modelling a very large set (> 200  18) of monochrome PSFs for a group of 18 positions on the eld.
3. Building up the collection of polychrome PSFs ( 10  18) from the monochrome PSF applying the star
spectral models, the CCDs response courbe and the COROT passband eciency.
The PSF models have been built using optical design software packages (ASAP and ZEEMAX). Dierences
between theirs results are irrelevant. They show equivalent performances of run time.
The PSF choice for a specic star on the catalog uses its apparent color index aCI y. (if it is known). With
any assumption about the interstellar reddenning, aCI is associated to an apparent surface temperature aT z .
i.e. the key value to chose the spectral prole.
3.3. Geometric parameters
Geometric parameters link a sight direction with a PSF position on the CCD. This parameters include external
parameters like the COROT attitude, and internal parameters like mean focus distance and distortion. The
reference is dened for 500 nm. of wavelenght. In summary:
 External parameters tie the star coordinates to COROT coordinates
 Internal parameters tie any sight directions in COROT coordinates to its position in CCDs plane (in mm)
for the 500 nm wavelength.
 CCD parameters tie the each CCD positions to image positions.
This chain of references denes for each star on the eld the position of its correlative image in the CCD image.
3.4. Simulated images
For local simulations the oversampled PSF of each selected star is projected over the correlative part of the
CCD. The new PSF is built by interpolation between PSFs corresponding to the most close values ( aT and
position) amongst the parametrized PSF models. This operations ends on a PSF image rebined and placed
in the selected area of the CCD. The same operation is repeated for all the neighbours of the target included
into the selected area and, at last, the background straylight level is added. Consequently the nal image is
composed of two parts: source and background, in order to determine the initial estimate of the S/N in each
pixel. Absolute scaling is done in order to convert stellar magnitudes to photoelectron events. Such images
are the basis to determine the patterns and, going ahead, to analyze the local photometric environnement of a
particular target.
Full images are built in the same way adding targeted stars, background stars, photon noise, smearing, cosmic
rays, star saturations, etc.. Main application of full images is to prepare the check, once COROT in orbit, that
the targeted stars t their forecasted parameters. For this a unique full CCD image will be downloaded at the
begining of each observational period.
y
we discriminate aCI from the true color index corrected from stellar extinction to deduce spectral types and classes
from color index is not a straightforward task because reddening in this regions is very frequent and it has to be accurately
deduced aside
z In order to set up an appropiate link between color index and the PSF spectral entries an ad-hoc parameter the
\apparent temperature" (aT) is used
4. OPTIMAL MASKS
4.1. Build up process
In each eld of view COROT will measure the set of target stars. CCD positions of these stars will be registered
in the on board extractor. It will select for each position a specic pattern surrounding the star image. The
number of admissible patterns is limited to 256 and they must be dened on ground. From the ground COROT
receive 1) the set of patterns and 2) the set of positions, each with its reference to the assigned pattern.
As said in section 2, pattern denition is a multistep process using actual star elds and instrumental
characteristics to determine the photometric environemment of each target in the CCD image. First step
determines an optimal window for each of the 6000  n targets (where n  5 is the number of els to observe)
independently from the others. Second step reduce the collection to about 2000 sub-optimal masks grouping
the star parameters. Third step reduces further the set sub-optimal masks to se the nal set of 256 generic
masks by similitude criteria. Fourth step assigns the best generic mask to each star.
The optimal window is deduced setting to zero the jitter and breathing and selecting the pixels such if
added to measure they increase the S/N. Only the Poisson noise generated by the the targeted PSF itself, the
neighbours and the background sources matter. To ensure the only a segment per line and per target condition
the build up of each pattern is achieved line by line. Each target is synthetized from both: its own PSF image
and the background image. Procedure follows:
1. The pixel with the better S/N and its line is chosen as seed. Lets be I the number of pixels in each line,
(i j)x . the pixel coordinates and S(i j) N(i j) its respective signal and variances. Lets be (i0  j0) the
\best S/N pixel".
2. For the line j0 the S/Ns r(:): Pi=i0
S
r(k i0  j0) = q O + i=k S(i j0 )
Pi=i0
V0 + i=k V (i j0 )
are calculated for each point of the sequence f0 1 : : : i0 ; 1g (left sequence) and of the sequence fi0 +
1 : : : I ; 1g (right sequence). The highest r(k i0  j0) denes the best stops points kj;0 , kj+0 for the left
and for the right sequence respectively. S0 and V0 are the cumulated values of the signal and variance
respectively.
3. The procedure dened in 2) is used in successive lines, j0 + 1 j0 ; 1 j0 + 2 j0 ; 2 : : :, starting with the
\best" pixel on the line. S0 and V0 cumulate the S and V of accepted pixels in the successive lines, S0 = 0
and V0 = 0 for the initial line j = j0.
4. Procedure stops when no pixel adjacent to previous segments exist.
The set of pixels dened by the previous process complies by construction with continuity requirements and
is very close to the optimal mask. We call `n theory" optimal mask the set dened: 1) sorting the pixels by
S/N 2) adding the ux and variance of pixels by decreasing order and 3) selecting the index where the S/N is
the maximum. Such mask can not be used because it may be not compliant with the only a segment per line
and per target requirement.
4.2. Contamination
In dense elds, a star PSF is often distorded by the close neighbours. This perturbing eet is called contam-
ination. Contamination can modify the expected pattern mask dramaticaly. Contamination is measured here
by the ratio between the ux due to the star neighbours in the measured ux and the ux due to the star
itself. Very often star neighbours can include many referenced stars whose contribution exceeds 1% of the
measured star. Of course bright stars show tipicaly low contamination C < 0:01 and dim stars show moderate
0:01 < C < 0:1 to high contamination 0:1 < C. The total ux, the global S/N, the contamination, the mean
background level, the position and the color index are the key parameters dened by the rst step.
x
in conventional image coordinates i stands for column index and j for line index (0 0) is the left-bottom corner
4.3. Jitter and breathing disturbances
The Corot platform is 3 axis stabilized. Star trackers will maintain the platform in the right attitude for the
preliminary phases and hand over this task to the sysmographic channel of COROT for the observational phase.
Residual mouvement depend on the residual pointing error and on the weak oscillatig mouvement centered on
the sysmographic star. Because the photometric mask have sharp borders and the background is variable
around, any mouvement will modify the photometry. Therefore the jitter i.e. the pointing error vs. time (t)
will cause additional noise in the photometric measures.
A study, performed in 1D for sake of clarity, allows to quantify and reduce the jitter's noise, relying on
dierent jitter models. In this study, X and Y are mask borders, g(x) is the contaminated PSF value. Three
scenarii being considered here:
1. Random jitter: Because the sampling is slow, this jitter is assimilated to white noise in depointing value.
The additionnal term to total variance is:
VJ = 2 (g(X) ; g(Y ))2
This shows the interest of choosing mask limits close to equilevel lines of PSFs.
2. Perfectly known jitter: This ideal model attempts to reduce jitter eect by using additionnal information
on jitter: it's time law. This law can be deduced from the serie of the sucessive on-board depointing
measurements. Corrective actions are supposed to be intantaneous regarding the time between two of
them. Then (t) can be rebuilt, considering that between 2 actions, the satellite slides balistically from
one known position to the next. In this case the additive term to total variance is null. Meanwhile, due
to depointing, the S=N is reduced by two eets: 1) a little decrease of informative photons (i.e coming
from the measued star) is lost out and 2) a corresponding increase of contaminating photons.
3. Imperfectly known jitter: In this actual model, (t) is known with a samall error . The resulting added
noise term is:
VJ =  2 (g(X) ; g(Y ))2
In this case, VJ is improved, compared to the random jitter model, in proportion of  2 =2 . Moreover, the
optimising citeria is the same in the two cases.
Due to the thermoelastic sensivity of the COROT telescope the night-day periods in the orbital trajectory
will cause little but signicant changes on the PSFs. This eect is known as breathing. For sake of tractability
breathing is assimiled to a \extend/shrink" (cES ) parameter neglecting other second order phenomena (lateral
shift is included into the jitter variance).

VES = cES Va
Similary to the Known jitter models cES depends on the accuracy in the breathing value restitution. Breath-
ing is a very low frequency phenomena unlike jitter. Breathing will be detected using many parallel records. It
is not possible at present to know how precisely can be measured and removed.
Jitter and breathing introduce new terms in the optimization procedure for patterns. However a theoretical
move is excluded due to the overall complexity. In practice the starting point is the pattern dened in the
optimal window procedure 4.1. Then we continue with the quasi-exaustive search for a minimum variance
including jitter and breathing using the studied models.
In order to reduce the exaustive search initial masks are enlarged only by a pixel wide in four successive
directions: x+,x;,y+ and y;. For each direction all admissible enlargements are tried (see g.)
5. GENERIC MASKS
The restrictions of the on board extractor compel to replace the full set of initial masks with a reduced set of
256 generic masks. As said before this reduction is done in two steps rst to 2000 masks then to 256 in a
further reduction.
The rst reduction is guided by decisions done in the space of star parameters, i.e. brightness, position
and pseudo-temperature. In this space masks change smoothly. Contamination adds a new coordinate in
the parameter space. Heavly contaminated stars show very specic patterns depending on its neighbours.
Moderately contaminated stars generate masks with a \standard look". To deduce generic masks, specic
windows are classed and added on large volumes of the parameter space, composing a reduced set of classes.
Parameter N of Cls Classes Comments
mag(R) 7 f12: 12:513: :: :15:g Red magnitude
log(aT) 4 f3:863, 3:763, 3:707, 3:584g log of apparent temp.
XC 3 f00:20,00:86,10:52g angle of sight (X)
YC 6 f;0 :320,0 :208,00:736,10:264,10:792,20:320g
0 0 angle of sight (Y)
C 4 f0:01, 0:1, 1:0, 10:0g contamination level

The stars wich contamination exceeds 1. are discarded so this parametric space is divided in 1512 classes.
Figure 1 shows a subset of 432 low contamined classes among the 1512. Each of the 6  3 cluster represents a
value of YC  XC angle. In a given cluster, columns are log(aT) and rows are mag(R). A class mask is obtained
by simply adding all specic masks class stars, followed by a thresholding. The gray level indicates the number
of specic masks implied in each pixel.

Figure 1. 432 Classe's Masks (see details in the text)


All the classes are grouped further in a second step in order to meet the requirement of 256 dierent classes.
The classical PCA (principal component analysis) is used in this step.
6. EXPECTED PERFORMANCES
In the training work a limited eld has been used for sake of performace. It was extracted from the DE-
NIS and from the USNO catalogs and it covers a near square eld of 00:6  00:64 The central sight point is
2840:29 ;90:575]. We found 17.648 stars of mag(R) in this eld, where 1165 were selected as potential targets.
Figure 2 shows the number of concerned stars vs. log10 (S=N). Graphics concern the 432 previous classes.
One graphic per magnitude. There are 300 stars is the representative chosen eld. The S=N is evaluated for a
single 32s exposure. Because each mesure sent by TM cumulate 16  32s integrated uxes, its S=N is expected
to be 4 times better (log10 (S=N) + 0:6).

Figure 2. expected S=N (see details in the text)

7. CONCLUSION
The method described is able to determine a limited set of generic masks to monitor the star ux variability in a
crowded eld of COROT mission. The useful range spans star magnitudes (R) 12 to 14. We have here detailed
the main steps leading to a collection of masks . The performances of the all system are being analysed and
the preliminary studies show that the use of generic masks preserves for a the majority of cases the theoretical
performances of the use of specic masks. Results are preliminary but show a clear trend and conrms the
extreme importance to minimize jitter and breathing (J& B). A more complete study remains to be done using
1) the new set of PSFs 2) more actual J & B levels and 3) star variability (for 10% of stars).
APPENDIX A. FIELD SIMULATION
A.1. Characteristics of the star eld
Due to the limits in catalog completude, mag(R) = 15 (approx.) is the frontier between two methods: for
mag(R) < 15 only stars in catalogue are used for mag(R) > 15 star distribution is simulated using the local
statistics The exact limit can vary depending on the maximal number of observed stars in the eld. The upper
limit (mag(R)  2021) depends on the background S/N.
A.2. Field simulation for stars of mag(R)< 15
Purpose: A precise prediction of each mini-spectra (for  20000 stars) and its surroundings Uses existing stars
catalogues (DENIS, USNO). Each mini-spectra is placed with 1/10th of pixel position and rebined to CDD
resolution. Each original mini-spectra (PSFs) depends on color index, position and magnitude. Algorithm :
I (n+1) = E (n+1) :PSF(cindex(n + 1)) + I (n)

where E (n+1) is the n + 1 star and I ( n) the simulated image in the n step
A.3. Field simulation for stars of mag(R)> 15
Purpose: To predict the background of each mini-spectrum with statistical accuracy and fast enough( 3:106
stars) Catalogues are completed with random sets of ctive stars (distr. exp. for mag, uniform for a,d ).
Position accuracy:  1=4 pixel . Background is built using a mean mini-spectrum (PSFm ) Algorithm:
I0(n+1) = E (n+1) + I0(n)
I = PSFm  I0(n+1)
APPENDIX B. JITTER STUDY
B.1. Random Jitter Model
Without jitter, the PSF function G()
R
(, g() for contamined ux ) spreads the ux < F > (, < f >) into an
X Y ] mask limits such as < F >= XY G(x) dx. A  depointing causes a -shift to mask limits. The resulting
ux is:
Z Y
< F j >= G(x ; ) (1)
X

In this part, we consider depointing as a probability distribution P <  >= 0 2 ]. Lets compute S=N.
1
X
S =< F >= mP (m)
m=0
Where P(m) is the probability to receives exactly m photons during time exposure. Bayes theorem gives for
signal: 1 Z Z
X
S = m P (m)P () =
j
< F j > P ()
m=0Z Y
(1 )) = ( G  P )(x)
X
For noise, assume N 2 = 2 =< f 2 > ; < f >2 of the jitted and contaminated ux. Since f j is a Poisson
variable,
Z Z 2
; 
2 = < f j  >2 + < f j > P () ; < f j > P () (2)
Thanks to   Y ; X, we can develop at rst order < f j > () = h + h0 . (2) becomes 2 = h + 2 h02.
 R
knowing h = < f j > (0) = XY g(x) =< f >
h0 = < f j >0 (0) = g(X) ; g(Y )
RY
GP
We nally obtain S=N = p<f>+X2 (g(X );g(Y ))2
This shows that for a given jitter, noise increases with ux dierence at PSF's borders. Hence, an optimal
mask shall be close to an equilevel line of PSF.
Figure 3. Jitter Balistique

B.2. Jitter Noise Reduction


The jitter noise can be reduced by the knowledge of depointing used for attitude corrections. Corrective actions
i i + 1 are considered intantaneous regarding the time ti ti+1 between them. During ti ti+1 the satellite slides
balistically from one position to the next. Then the jitter time law is known as serie of sucessive linear segments
as shown g 3
During time dt the depointing contributes for < dN >=< F j >dt to total photons received. The measured
ux during time exposure T is given by:
Z Z TZ Y
1 1
< Fmes >= T < dN >= T G(x ; )dxdt
0 X
Wich can be written as

< Fmes >=< F > ;K (3)


R R R 
With K =constant= T1 0T XX ; G(x) dx + YY;    dt (, k g for contamined). K represents the part of
star ux out of mask, due to jitter (, k is the part of additional contaminating ux in the mask).
The random variable M = Fmes +K (, m = fmes +k) is obviously an unbiased estimator of < F >(, < f >).
Since var(m)=var(fmes )+var(k) =var(fmes ), we nally obtain:
S=N = p<F> ;K
<f>;k

We recognize in N a photonoise of unjitted ux < f >, simply lacking it's portion k fell out of the mask, and
added with extra contaminating photons.
Conclusion: Jitter's is in theory cancelled, thanks to signal m. m also permits to compute an intantaneous
S=N for later processings. The limits are 1) accuracy in the depointing information, 2) accuracy of the PSF
simulation. The rst of this limits can be improved by using depointing history, or correlation across a large
number of stars signal variations, pondered according to their positions on CCD.
B.3. In uence of Measure Accuracy
The depointing position is considered known with a certain error ;. Let's study 's in uence on noise reduction.
Substituting (t) by (t) ; , the expression of K (equat. 3) becomes:
Z T Z Z ! Z T Z Z !
X ; + Y  
K = T1
0
G(x) + G(x) = K + T1 G(x + X ; ) ; G(x + Y ; )
0 X Y ; + 0 0 0
R
Since   , we can develop at rst order, using 0 G ' 0 + G(X ; ) (resp, G(Y ; )):
Z T
K 0 = K + T G(X ; ) ; G(Y ; )]
0
This expression still depends on . Since   X ; Y , we can develop again, using G(X ; ) ' G(X) ; G0(X)
(resp, G(Y ) ; G0(Y )):
K 0 = K + G(X) ; G(Y )] + G0(Y ) ; G0 (X)]
G(X) ; G(Y )] because 0
Considering contamined uxes, the noise added by residual jitter, compared to the term VJ = 2 (g(X) ; g(Y ))2
obtained in xB.1 is improved in proportion of 22 .

APPENDIX C. BREATHING NOISE REDUCTION


Disfocusing the CCD, Breathing can be modeled by a PSF-centered dilatation. If M is the center of PSF, 
the dilatation coecient, the measured ux becomes:
Z
< F j >=
Y1 G(M + x ; M ) d = Z M + MY G(u) du
X   M ; XM


Wich can be decomposed in:


< Fmes >=< F j >=< F > +L
R M+ R XM
With L =constant= MX; XM

G(u) + Y

G(u) Similary to xB.2, we take advantage to use the unbiased
signal n =< Fmes > ;L whose S=N is again:
S=N = p<F>;L
<f>;l

We again recognize a breathingless photonic S=N for a ux simply relieved from the out masked photons
and added with extra enterring contamination.
C.1. Breathing With Jitter Noise Reduction
By combining xB.2 and xC the measured ux becomes
Z T Z Y;
< Fmes > = T1 Gdilated (x)dxdt
0 X;
Z T Z M + MY ;
= T1
 
G(u) du
0 M ; XM  ;
= < F > +Q
With Q =constant= L + T1 0T MM;;XM ; + MM++MY ; 
R R XM R MY

  
Using unbiased signal p =< Fmes > ;Q gives a S=N:
S=N = p<F> ;Q
<f>;q

In wich we again recognize S=N of pure photonic noise for a ux simply relieved from the out masked photons
and added with extra entering contamination.
C.2. Acknowledgments
We are grateful to [Link] for his helpful discussions about the jitter statistics as well to [Link] and
[Link] for the fruitfull exchanges on mask determination and noise level determination. This work has been
found by the CNES (the french space agency) and the CNRS.
REFERENCES
1. D. Rouan, A. Baglin, P. Barge, E. Copet, M. Deleuil, A. Leger, J. Schneider, D. Toublanc and A. Vuillemin
\Searching for exosolar planets with the COROT space mission", Physics and Chemistry of the Earth Part
C, 24, 5, pp. 567{571, 2000.
2. D. Rouan, A. Baglin, E. Copet, J. Schneider, P. Barge, M. Deleuil, A. Vuillemin and A. Leger, \The
Exosolar Planets Program of the COROT satellite", Earth, Moon, and Planets, 81, 1, pp. 79{82, 2000.
Chapitre 6

Réduction Optimisée du nombre


de patrons

6.1 Introduction au problème de la réduction


optimisée
Le problème est le suivant : disposant de 12 000 étoiles toutes différentes par
la combinaison de leur magnitude, spectre, géométrie de contamination, on doit
réduire d’un facteur 50 la diversité de leurs masques optimaux tout en préservant
la qualité des courbes de lumière. Ces deux nécessités sont contraires. En effet les
étoiles ne pouvant conserver leur masque le mieux adapté, le S/B est forcément
dégradé. L’objectif est donc de gérer au mieux cette contradiction.

N.B : Dans la pratique la réduction ne s’opérera pas forcément sur le champ à


observer lui-même ni même sur un champ réel, mais il est commode de le
considérer comme tel durant la description des méthodes.

La première des méthodes est une approche paramétrique qualitative qui


consiste à regrouper les étoiles par familles partageant les mêmes critères a
priori. Il s’agit de critères physiques traditionnels ; toutes les étoiles de la même
famille adoptent un patron commun.

J’ai envisagé quatre autres méthodes de réduction qui sont exposées ci-après.
Certaines sont des adaptations, d’autres sont conçues spécifiquement et chacune
s’efforce de pallier les défauts de la précédente. Dans la deuxième technique,
la classification a posteriori, je formalise les concepts de la méthode a priori
pour appliquer la même opération après avoir identifié les facteurs effectivement
dominants. Mais cette approche s’avère biaisée.

67
68 Réduction Optimisée du nombre de patrons

Le contrôle du biais m’a conduit à adopter une approche morphologique


du problème. La troisième méthode est une condensation itérative où à chaque
étape les deux masques les plus ressemblants fusionnent en un masque unique.

La quatrième méthode laisse les masques initiaux en place et répartit parmi


eux 250 “graines” initiales (des masques au hasard) qui évoluent itérativement
de sorte à minimiser la distance totale aux autres masques. Après convergence,
les graines deviennent les patrons recherchés. Mais on constate qu’une apparence
similaire entre masques et patrons n’est pas garante d’un bon S/B .

Puisqu’une performance accrue requiert un contrôle permanent du S/B ,


j’ai conçu la cinquième méthode, un tri efficace de masques aléatoires. C’est
l’approche retenue pour Corot . Elle impose d’adopter dès le début une définition
claire de la qualité globale d’un champ et de l’exprimer à l’aide d’un paramètre
unique. Cette définition permet de jeter un nécessaire pont entre le S/B global
et les S/B individuels. J’utilise ce paramètre comme métrique pour guider une
sélection parmi un grand nombre de masques pseudo-aléatoires, après avoir
quantifié la tolérance des étoiles envers des masques qui ne leur sont pas adaptés.

Ces différentes méthodes sont publiées dans l’article (Llebaria et al. 2003)
inséré à la fin de ce chapitre.

6.2 Nécessité et contraintes de la réduction


Après chaque pose, les pixels sont lus à raison de 4Mbit/s. A une telle
cadence, pour séparer les pixels à conserver des autres pixels on a recours à une
électronique rapide de pré-traitement de type logique câblée, comme l’explique
la note de Steller et al. (2002). Classiquement la distinction se fait par un bit à
1 ou à 0, selon que le pixel est à conserver ou non, dans une table en mémoire,
miroir du CCD. Mais la quantité de mémoire requise pour les 4 millions de pixels
que compte un CCD est excessive. La cartographie des fenêtres est donc codée de
manière plus compacte sous forme de descripteurs ligne à ligne. Pour conserver
une taille raisonnable de ces descripteurs, l’index pointant sur le patron est un
mot de 8 bits, ne pouvant prendre que 256 valeurs distinctes. A l’issue, les pixels
conservés sont suffisamment peu nombreux pour que le microprocesseur, plus
lent, puisse se charger de les trier.

Parmi les 256 patrons disponibles, six ont des usages réservés, tels les fenêtres
de mesure du fond, si bien qu’il n’en reste que 250 pour les étoiles cibles.
6.3 Méthode 1 : Paramétrisation a priori 69

6.3 Méthode 1 : Paramétrisation a priori


Dans cette approche, on suppose qu’un patron qui donne un S/B élevé pour
son étoile aura aussi un bon S/B sur d’autres étoiles similaires. La méthode (cf.
Llebaria et al. (2002)) consiste à regrouper les étoiles par familles qui partagent
des caractéristiques communes. Puis chaque famille reçoit un patron qui lui est
propre. On choisit les facteurs d’influence qui président à la composition des
familles parmi les paramètres physiques habituels en astronomie (les termes en
italique seront repris dans la deuxième méthode). Des classes d’équivalence sont
établies pour les facteurs suivants :

1. La magnitude des étoiles contraint l’aire de la PSF, elle est divisée en 7


plages.
2. La température de surface s’échelonne de 3500K à 9000K pour les cibles
Corot . Elle contraint le spectre et donc l’amplitude des PSFs monochro-
matiques. On la sépare en 4 intervalles.
3. La position sur le CCD contraint la forme des PSFs. Elle est cloisonnée en
18 cadrans différents sur les deux CCDs.
4. La contamination joue sur la taille et la spécificité du masque optimal. Plus
une étoile est contaminée, plus grand sera le nombre de pixels perdus à la
frontière. On distingue 4 taux de contamination.
On obtient ainsi un millier de classes intermédiaires qui sont à leur tour
regroupées pour passer sous la barre des 250 familles. Le patron commun à tous
les membres d’une même famille est obtenu par moyenne des masques optimaux
de la famille. Ses pixels n’étant plus binaires, sont arrondis à l’entier 0 ou 1 le
plus proche. La figure 6.1 donne l’allure des masques réduits pour 432 classes
d’étoiles peu contaminées.

L’approche a priori que nous venons de décrire donne un bon ordre d’idées
mais reste assez qualitative et très arbitraire. En effet :

– Rien ne garantit que les paramètres habituels soient effectivement domi-


nants pour Corot ;
– les frontières des classes sont fixées de manière arbitraire ;
– rien ne nous aide à pondérer leur importance ;
– il peut exister des paramètres cachés ou combinés propres à Corot ;
– les particularités statistiques du champ d’étoiles ne sont pas prises en
compte ;

Malgré ses imperfections, cette méthode fournit une première approche du


problème qui s’est avérée riche d’enseignements. Elle a permi de montrer que
70 Réduction Optimisée du nombre de patrons

Fig. 6.1 – Masques réduits pour 432 familles peu contaminées. Chaque bloc est un
secteur du CCD. La température de surface varie suivant les colonnes et la luminosité
suivant les lignes. Le niveau de gris indique le nombre de membres de la famille

l’idée d’une réduction était réaliste sans hypothéquer irrémédiablement la préci-


sion photométrique. Nous allons au cours de la méthode qui suit conserver cette
idée d’un regroupement par familles tout en la formalisant pour tenter d’en cor-
riger les défauts.

6.4 Méthode 2 : Paramétrisation a posteriori


Nous reprenons la même approche de classement par famille, mais cette fois
pour réduire le nombre d’hypothèses nous travaillons non pas sur les paramètres
stellaires mais sur ce qu’en perçoit Corot c’est-à-dire les masques optimaux dé-
coulant des PSF sur le CCD. Nous ne cherchons plus à remonter aux paramètres
stellaires.

6.4.1 Pertinence de la réduction :


Avant toute chose, commençons par vérifier qu’une réduction est bien
envisageable. Pour cela, nous nous assurerons que les étoiles tolèrent d’autres
masque que leur propre masque optimal. J’ai ainsi calculé le S/B sur 1 000
étoiles d’un échantillon témoin, lorsqu’on applique à chacune les 999 masques
optimisés des autres étoiles. Le résultat est présenté sous forme de matrice
figure 6.2. La dominance de stries verticales (à étoile constante) indique une pré-
servation de l’ordre de grandeur du S/B ce qui légitime les tentatives de réduction.

Le long de cette description, nous expliciterons en gras les notions notées


en italiques dans la première méthode. Afin de pouvoir comparer les différentes
6.4 Méthode 2 : Paramétrisation a posteriori 71

Fig. 6.2 – Dans cette matrice 1 000 × 1 000, le point qij représente le S/B de l’étoile j
(colonnes) à laquelle on applique le masque de l’étoile i (lignes). Un pixel clair indique
un fort S/B . La dominance de stries verticales montre que la perte reste limitée en cas de
masque désadapté. Des lignes sombres horizontales pointent les masques trop spécialisés
qui ne s’adaptent pas à d’autres étoiles. La diagonale qii contient les masques optimisés.
Elle n’apparaı̂t pas assez contrastée dans cette représentation non-logarithmique. En
effet la variation de S/B pour une étoile est faible devant les variations entre étoiles.

méthodes nous garderons le même échantillon d’étoiles que celui que nous venons
d’utiliser.

6.4.2 Dimension sous-jacente


Un masque est symbolisé par un vecteur − →
m dont les coordonnées sont binaires
(cf. Fig.6.3) Il possède une coordonnée par pixel, obtenue en mettant bout à
bout les lignes des imagettes de travail 37 × 16. Une coordonnée égale à 1 signifie
que le pixel de l’imagette est couvert par le masque. Initialement, − →m possède
n = 592 coordonnées dans cette base, dite canonique.

On suppose que les patrons utilisent les mêmes pixels que les masques op-
timaux ce qui nous conduit à travailler dans le sous-ensemble E engendré par
ces derniers. La vraie dimension de E est certainement inférieure à n. Pour la
connaı̂tre on extrait la plus grande famille libre en réduisant la matrice 592 ×
1 000 formée des vecteurs colonne −
→. On obtient moins de 100 coordonnées suf-
m i
72 Réduction Optimisée du nombre de patrons

Fig. 6.3 – Notation vectorielle des masques : la succession des lignes binaires forme
un vecteur.

fisantes pour décrire E. Donc plus de 492 demeurent fixes (liés à la taille de la
trame de travail) ou varient ensemble (liés par une cause physique sous-jacente).
On effectue le changement de base pour travailler plus simplement. En contrepar-
tie, le lien avec les masques est moins direct et les nouvelles coordonnées ne sont
plus binaires mais ceci n’est pas gênant à ce stade.

6.4.3 Formalisation de la méthode utilisée précédemment


Les “paramètres physiques” a posteriori sont les combinaisons de co-
ordonnées (i.e d’autres coordonnées) dont les variations expérimentales sont
indépendantes les unes des autres. On identifie ces paramètres en procédant à
une analyse en composantes principales (PCA).

A partir de l’ensemble des mi masques, construisons la matrice de covariance


intra-masque centrée :
G=E − m→ .−→t 
i mi (6.1)
. Ses éléments constitutifs sont les variances et covariances entre coordonnées :

σ12 cov(1, 2) · · · cov(1, n0 )


 
..
 cov(2, 1) σ22 .
 

G=  .. .. .
..

 . . 

.. .. 2
. . σn0

L’examen de G montre beaucoup de termes non nuls hors diagonale. Donc les
coordonnées utilisées sont interdépendantes. G est symétrique par construction
mais aussi définie et positive en tant que somme de carrés. Elle est donc diago-
nalisable avec des valeurs propres réelles et non négatives et des vecteurs propres
qui forment une base orthogonale. Sa diagonalisation nous fournit les matrices D
et P toutes deux de dimension n0 × n0 et telles que :
G = P −1 .D.P
6.4 Méthode 2 : Paramétrisation a posteriori 73

D est la matrice diagonale des valeurs


n− propres λoi et P est la matrice denpassage
→ −
→ →o

vers la base des vecteurs propres V1 , . . . Vn0 . P est formée des Vi en
colonnes, dans l’ordre des λi .

Changeons de base et travaillons dans la base des vecteurs propres. Un


P − →
masque s’y écrit −

m = xi Vi . Dans cette base la nouvelle matrice de covariance
est directement D. Les Vi varient indépendamment les uns des autres car les
termes croisés cov(xi , xj )i6=j sont tous nuls : Ce sont les paramètres physiques
a posteriori recherchés.

Les “facteurs d’influence” sont parmi ces nouveaux paramètres, ceux


qui entraı̂nent le plus de diversité dans la forme des masques, c’est-à-dire les
composantes qui varient le plus. Les autres peuvent être considérés comme une
constante. L’“influence” d’un facteur Vi est donc mesurée par sa variance λi ,
les facteurs d’influence sont les Vi associés aux plus grandes valeurs de λi . En
réordonnant les λi on obtient la répartition de la figure 6.4.

Fig. 6.4 – Classement décroissant des valeurs propres. Le rang de la composante Vi


figure en abscisse et sa variance en ordonnée. La dispersion σi2 n’est importante que
pour un petit nombre de paramètres. La variabilité totale est donnée par l’aire située
sous la courbe.

Un petit nombre de vecteurs propres, environs 5, suffit à exprimer la plus


grande partie de variabilité des masques optimaux. Pour visualiser les Vi sous
forme de facteurs d’influence, il faut revenir à la base canonique par inversion
des changements de bases. La figure 6.5 présente un exemple de décomposition.

Une famille est par définition un groupe de masques dont les membres par-
74 Réduction Optimisée du nombre de patrons

= + +. . .+

Masque facteur 1 facteur 2 constante

Fig. 6.5 – Le masque m résulte de la somme des facteurs d’influence (ici non-
pondérés), et de la constante. Les “pixels” utilisés à ce stade n’ont aucune raison d’être
binaires,
P ni même positifs. Ce ne sont que des intermédiaires de calcul dont la somme
m ~
~ = xi Vi , elle, doit être binaire.

tagent des caractéristiques proches, c’est-à-dire des coordonnées x1 , . . . x5 voisines.


Pour obtenir 250 familles, on partitionne les valeurs prises par x1 (respectivement
x2 , . . . ) en k1 (respectivement k2 , . . . ) intervalles tels que :

k1 × k2 × k3 × k4 × k5 6 250

Chaque combinaison (k1 , k2 , k3 , k4 , k5 ) est une famille a posteriori. Pour


déterminer les limites définissant la famille i on examine la répartition des xi . La
figure 6.6 en montre un exemple. Une fois les familles cloisonnées, les masques
optimaux de chacun de leurs membres sont moyennés pour fournir leur patron
commun.

Fig. 6.6 – Histogramme des coordonnées suivant un V~i . Les frontières sont choisies
dans les zones les moins peuplées.

Arrondi : Ramené dans la base canonique, un patron − →p n’a aucune chance


d’être binaire, comme dans l’exemple de gauche de la figure 6.7. Il faut donc


identifier le patron binaire p0 le plus proche. On remarque que les patrons binaires
6.5 Méthode 3 : L’homogénéisation morphologique directe 75

sont les sommets de l’hypercube unitaire de dimension canonique 592. Le schéma


de droite de la figure 6.7 montre que le problème se découple en projetant − →
p
→0

indépendamment sur chaque axe. On choisit pour p le coin le plus proche. Ce
découplage justifie le seuil de 12 appliqué lors de l’arrondi dans l’approche a priori.

Exemple de patron : ils ne On remarque que leurs co-


sont plus binaires. ordonnées continues xi 6
1 les rendent équivalents
à un point à l’intérieur
de l’hypercube unitaire de
même dimension.
Fig. 6.7 – Rebinarisation

6.4.4 Défauts de cette approche


Malgré les améliorations apportées par cette méthode la détermination des
frontières entre familles conserve une part d’arbitraire. Cette méthode est biaisée :
si n =12 000 patrons étaient autorisés, elle ne convergerait jamais vers les n
masques optimaux de départ. Nous ne poursuivons donc pas l’approche par fa-
milles et recherchons donc une méthode évitant ce biais.

6.5 Méthode 3 : L’homogénéisation morpholo-


gique directe
Afin de supprimer le biais, nous cherchons avec les méthodes 3 et 4 à
maximiser la ressemblance morphologique entre masques et patrons. L’idée de la
troisième méthode est de jouer à l’envers le film de la convergence : partant des
12 000 masques optimaux, nous nous en éloignons graduellement en réduisant
76 Réduction Optimisée du nombre de patrons

un à un leur nombre jusqu’aux 250 patrons recherchés. La quatrième méthode


équirépartit directement les patrons parmi les masques. Après avoir exposé
ces deux techniques, l’une basique et l’autre éprouvée, nous conclurons à la
persistance de défauts.

Deux masques se“ressemblent”s’ils ont en commun un grand nombre de pixels.


Les masques sont à présent symbolisés par des points dans la base canonique. La
ressemblance de deux masques m1 et m2 est la distance quadratique :

D(m1 , m2 ) = k−
m−1−
m→k2
2

Etant quadratique, cette distance tend à éviter les écarts importants entre
masques et patrons.

6.5.1 Algorithme de Base : la Condensation


Il n’existe pas de solution analytique connue fournissant directement le jeu
de patrons qui minimise la distance totale des masques aux patrons (le grand
minimum). En revanche on s’en approche en cheminant le long d’une suite
d’étapes simples que l’on sait optimiser individuellement. Le minimum local qui
est alors atteint n’a aucune raison d’être le grand minimum mais il peut nous
suffire.

Nous allons jouer à l’envers le scénario de la convergence et supprimer les


12 000 masques optimaux un à un. Le mode de suppression est choisi pour
minimiser à chaque fois le supplément de distance créée. A chaque itération un
couple de masques-points est remplacé par un point unique à mi-chemin entre
les deux. Pour prendre une analogie, ce processus dans son principe ressemble à
la coalescence des gouttelettes d’eau lors de la condensation de vapeur sur une
surface embuée : Quand deux gouttelettes entrent en contact, elle fusionnent en
un goutte unique située quelque part entre les deux positions. Cette idée est à
l’évidence sans biais.

Afin de déterminer la meilleure substitution nous cherchons a la première


itération par quel point g remplacer un couple arbitraire {m1 , m2 } pour minimiser
l’accroissement de distance δ.

δ=−−→2 + −
gm 1
−→2
gm 2 (6.2)

Par dérivation, on trouve que la solution g est le barycentre de {m1 , m2 }.


6.5 Méthode 3 : L’homogénéisation morphologique directe 77

∂δ −−→ + −
om −→
om
= 0 ⇐⇒ →

og =
1 2
(6.3)


∂ og 2
Il reste à choisir le meilleur couple à substituer. D’après l’équation 6.2 l’ac-
croissement de distance obtenu avec g vaut :

(−−→ − −
om 2
−→)2
om 1
δ=
2
Pour minimiser δ, il faut minimiser km−1−
− m→k. La première itération consiste
2
donc à choisir les deux points les plus proches et à les remplacer par leur
barycentre. On affectera g du poids w = 2.

Généralisons ce résultat aux itérations suivantes qui agissent sur un “mélange”


de points et de barycentres. Tout d’abord on constate que remplacer un couple
de barycentres {g1 , g2 } affecté des poids {w1 , w2 } par leur barycentre g minimise
effectivement la distance créée entre g et tous les points d’origine impliqués dans
g1 et g2 . En effet en généralisant l’équation 6.2 aux w1 + w2 points d’origine et en
la dérivant on obtient :
∂ X − → −−→)2 = 2
X


X
−−→ − 2
X
−−→

− ( og − om i og − 2 om i om j (6.4)
∂ ogw1 +w2 w1 +w2 w1 w2

Le classement des points en mi ou mj est fonction de leur appartenance au bary-


centre g1 ou g2 . On reconnaı̂t dans les deux derniers termes la définition de w1 −→
og1
et w2 −→. La dérivée s’annule bien pour :
og2


→ w1 −→+w −
og1

2 og2
og =
w1 + w2
L’accroissement de distance est bien minimal en remplaçant g1 et g2 par
g. La première itération n’est que le cas particulier où w1 = w2 = 1, le terme
général de l’itération sera obtenu en remplaçant les deux points les plus proches,
barycentres ou non, par leur barycentre pondéré.

Bien que sans biais et apparemment logique, cette méthode est inefficace :

1. La quantité de calculs est excessive. Pour trouver les points les plus
proches, il faut évaluer environ n(n + 1)/2 distances à chacune des ' n
itérations, chaque distance nécessitant elle-même 592 multiplications. Cette
complexité d’ordre n3 n’est pas envisageable pour nos milliers d’étoiles.
Il est cependant possible de la réduire en cloisonnant les points dans des
boı̂tes virtuelles et en limitant le calcul aux distances inter et intra-boites.
De plus, on peut travailler dans une base plus simple. La complexité
78 Réduction Optimisée du nombre de patrons

tomberait alors à n2 , valeur qui serait acceptable.

2. Le résultat est piètre dans la pratique. Tous les points condensent vers le
plus petit masque. Ceci semble tenir au fait que, les petits masques ayant
peu de coordonnées non nulles, sont plus proches entre eux que les grands.
Ils commencent donc à se condenser, puis vident graduellement les couches
périphériques, isolant un peu plus les grands masques. On peut y voir un
défaut dans le choix de la distance qui n’est pas relative à la taille du
masque. Mais il serait inutile d’adopter une distance normée par la surface :

k−m−1−
m→k2
2
D(m1 , m2 ) = −
km 1 k + k−
→ 2 →k2
m 2

Ceci aurait un effet désastreux : annuler l’importance de la surface du


masque, et donc la brillance de l’étoile. Cette absence de succès met au
grand jour la lacune évoquée au début de cette section : minimiser n ac-
croissements locaux ne revient pas à minimiser l’accroissement global.

6.6 Méthode 4 : Le problème à K-moyennes


Nous allons voir que l’on résout cette difficulté en ne supprimant pas les
masques optimaux initiaux, mais en les laissant coexister en permanence avec
les patrons. Notre problème est analogue au problème connu dit problème à
K-moyennes. Le terme en est : Etant donné n élèves répartis au hasard, où placer
p < n écoles pour minimiser le trajet total ? Il existe une classe d’algorithmes
itératifs portant le même nom que le problème, décrite par Press et al. (1997).
Ces algorithmes possèdent de “bonnes” propriétés : ils nécessitent peu de calculs
et convergent rapidement vers une solution stable. Ils ont besoin d’une condition
initiale arbitraire, mais le point de convergence est relativement indépendant de
son choix. Dans notre cas p = 250 et n =12 000.

Le principe de l’algorithme à K-moyennes est très simple : On jette p


“graines” au hasard (des masques qui vont devenir les futurs patrons) qui vont
évoluer pour se répartir au milieu des masques. Contrairement à l’algorithme
de condensation, celui-ci est protégé du risque d’accumulation car la position
des masques optimaux initiaux reste inchangée. L’algorithme s’arrête quand un
certain critère de convergence est atteint.

J’ai choisi la variante suivante :


Initialisation : Les 250 graines sont choisies au hasard parmi les 12 000
masques. C’est ce choix qui assure l’absence de biais : si 12 000 graines
6.6 Méthode 4 : Le problème à K-moyennes 79

étaient admises, elle ne pourraient qu’être les 12 000 masques optimaux


eux-mêmes.
Itération : La boucle itérative comporte deux étapes (voir Fig. 6.8) :
1. La formation des groupes. Il y a un groupe par graine constitué des
masques optimaux les plus proches,
2. Le centrage de la graine. La graine est déplacée au centre de son groupe,
c’est-à-dire le barycentre. Ainsi la distance totale entre graine et groupe
est minimisée, rendant la graine représentative de son groupe.

1) Les graines sont les cercles, 2) Formation des groupes :


les masques optimaux sont les Chaque masque est affecté à
points. sa graine la plus proche.

3) La graine est déplacée au 4) Les nouveaux groupes sont


barycentre de son groupe (la formés etc . . .
distance graine-groupe est mi-
nimisée).
Fig. 6.8 – Boucle d’itération.

Arrêt : Au gré des itérations la distance totale diminue. La convergence absolue


est atteinte quand les graines ne se déplacent plus. Mais on ne peut garantir
l’absence d’oscillations infinies, ne serait-ce qu’à cause des erreurs d’arrondi.
Nous avons amélioré ce critère par le choix d’une condition double : La
convergence est atteinte si :
1. La distance totale ne diminue plus (moins de 1/1000e deux fois de
suite) ce qui englobe la convergence absolue,
ou
2. L’arrêt est inconditionnel si la convergence n’est pas atteinte après 20
itérations. Ce cas étant anormal, un message d’avertissement est émis.
80 Réduction Optimisée du nombre de patrons

Arrondi : comme précédemment les graines finales sont des moyennes et donc
leurs coordonnées sont continues. On choisit pour chacune d’elles le masque
binaire le plus proche (qui n’est pas nécessairement un masque optimal) qui
devient un patron, comme on l’a vu au §6.4.3.
La complexité calculatoire est très réduite. Il ne faut pas plus de n × p
évaluations de distance par itération, et dans notre cas la convergence est très
rapide. Elle se produit la plupart du temps avant le 10e tour.

Pour comprendre en quoi les graines ont tendance à se “repousser” plutôt


qu’a “s’attirer”, imaginons deux graines très proches à un moment donné. Elles
laissent un grand trou Z1 vide de graines. Ce trou n’en est pas moins peuplé
de points qui deviennent autant d’attracteurs. Lors de la prochaine formation
des groupes, ces points ne se trouveront rattachés qu’à la plus proche des deux
graines. Celle-ci se déplacera alors vers le centre de Z1 tendant à le combler,
laissant elle-même un trou Z2 plus petit derrière elle. A son tour Z2 deviendra
un attracteur, plus faible que Z1 , propageant ainsi un mouvement aux autres
graines tout en l’atténuant. C’est pour cette raison que la distance finale est peu
sensible aux conditions initiales.

Il existe de nombreuses variantes : La répartition aléatoire initiale peut être


plus ou moins orientée ; un taux d’apprentissage peut freiner progressivement le
déplacement des graines pour favoriser la convergence ; les points peuvent avoir
des poids différents afin d’en privilégier certains ; enfin les graines peuvent être
animées d’une faible “vibration” aléatoire additionnelle pour les faire ressortir
des minimum locaux (dans ce cas la convergence devra tenir compte de cette
vibration).

Résultat : sur notre échantillon de 1 000 masques à réduire en 40 patrons, les


performances en termes de distance sont très bonnes. La convergence est obtenue
en moins de 10 itérations et la distance totale est en moyenne inférieure à 2% de
la taille du masque, soit 2 pixels pour les grand masques et 1 seul pour les petits.

Mais en dépit de ce résultat, cette méthode ainsi que toutes celles qui sont
basées sur la maximisation d’une ressemblance sont inadéquates. Le résultat
en termes de S/B est trop imprédictible. La figure 6.9 montre que malgré une
distance égale entre un masque individuel et plusieurs patrons, le rapport signal
à bruit varie beaucoup trop.

En fait, trop de facteurs entrent en jeu pour qu’il y ait continuité entre la forme
d’un masque appliqué à une étoile et le S/B qui en résulte. Certains produisent des
effets de seuil, tel le passage de coordonnée continue à coordonnée binaire, couplé
avec la dépendance envers l’ensemble de la frontière. Pour compenser l’erreur due
6.7 Méthode 5 : Le tri efficace de masques pseudo-aléatoires 81

Fig. 6.9 – Corrélation entre distance et S/B . Le S/B en abscisse est calculé pour des
patrons situés à différentes distances (en ordonnée). La distance est relative au masque
optimal (celui qui est situé à D = 0). L’étalement des points suivant les horizontales
montre que pour une distance donnée le S/B est peu prédictible.

à l’arrondi d’un pixel, il peut être nécessaire d’en faire basculer de nombreux
autres. En conclusion le critère de ressemblance est peu légitime. Comme on
souhaite une performance en termes de S/B , il faut trouver une métrique qui
tienne compte explicitement du S/B .

6.7 Méthode 5 : Le tri efficace de masques


pseudo-aléatoires
Nous décrivons ici la méthode utilisée en pratique, c’est la plus efficace de
toutes car uniquement fondée sur le S/B .

Il faut tout d’abord fixer une définition du S/B global qui traduise au mieux
les besoins scientifiques de Corot et qui s’exprime à l’aide d’un paramètre unique.
Ce paramètre peut alors être utilisé comme métrique pour guider la réduction.
On ne peut pas se contenter d’utiliser le S/B moyen d’un champ. En effet,
une moyenne peu dégradée par la réduction peut néanmoins cacher des biais
importants tels que la perte des meilleures cibles.
82 Réduction Optimisée du nombre de patrons

Le critère choisi consiste à limiter la dégradation de S/B que subit une étoile
lorsque son masque optimal est remplacé par le patron générique qu’on lui attri-
bue. Autrement dit, on s’impose qu’après réduction, toutes les étoiles considérées
comme cibles conservent au moins

S/B > τ × S/Bopt (6.5)

où S/Bopt est leur rapport signal à bruit que donne le masque optimal. Ainsi,
la répartition finale des S/B est identique à la répartition initiale, les étoiles
préservant leur capital dans une égale mesure.

Ce choix établit la correspondance entre S/B global d’un champ et S/B indi-
viduels des étoiles qu’il contient. En effet si pour toute étoile i l’on à :

S/B0i > τ S/Bi

où S/Bi est la valeur du S/B en amont de la réduction et S/B0i sa valeur en aval,
on sera alors assuré que
S/B0 > τ S/B

où S/B et S/B0 sont les S/B moyens sur tout le champ avant et après réduction.

Afin d’arbitrer la contradiction entre le nombre réduit de patrons et


la qualité du champ nous commençons par imposer une consigne τ , puis
nous examinons le nombre de patrons requis n = f (τ ) pour satisfaire cette
consigne à l’aide d’un l’algorithme de tri f . L’algorithme de tri est décrit plus loin.

6.7.1 Dilemme de l’optimisation collective


Nous développons ici les raisons du choix du critère τ pour Corot .

Quand le nombre de patrons n’est pas limité, les optimisations locales et


globales coı̈ncident. L’amélioration du S/B d’une étoile profite au champ dans son
ensemble. Mais quand le nombre de patrons disponibles diminue, les ressources
disponibles pour récupérer l’information photométrique deviennent limitées. Ce
qui est optimisé pour une étoile ne peut l’être pour les autres ; en quelque sorte
l’intérêt du groupe n’est plus l’intérêt de ses membres. Le premier problème est
donc de déterminer quelle répartition de S/B offrira le meilleur retour scientifique,
avant même de chercher comment l’obtenir. Deux possibilités opposées s’offrent
à nous :

– 1) Une répartition “inégalitaire” des ressources où les quelques étoiles les
plus brillantes sont préservées au détriment de la majorité des autres, cela
6.7 Méthode 5 : Le tri efficace de masques pseudo-aléatoires 83

sans égard pour le nombre de ces dernières,

– 2) Une répartition “égalitaire” qui équilibre l’usage de la ressource, et donc


favorise les étoiles faibles en misant sur leur grand nombre.

On peut tenter d’échapper à ce choix de façon qualitative (voir Fig. 6.10


ci-dessous).

Fig. 6.10 – Stratégies “égalitaires” et “inégalitaires”. En trait plein le S/B hors


contraintes : le patron de chaque étoile est son meilleur masque. En bistre la stratégie
égalitaire : aucune étoile n’est privilégiée ce qui maximise le S/B moyen mais sacrifie
les étoiles brillantes. En pointillés la politique inégalitaire où 20% des étoiles à plus fort
S/B sont préservées au prix de 80% des patrons. Le S/B moyen n’est pas maximum.

La performance de la stratégie utilisée peut être mesurée en calculant l’aire


comprise sous les courbes de la figure 6.10.
X
Q= ni .qi

où ni est le nombre d’étoiles conservant le S/B qi après réduction. Ainsi


on pourrait chercher à maximiser Q. Mais cette métrique cache en réalité la
stratégie égalitaire en gommant le poids des disparités.

Une autre idée est l’introduction d’un facteur de “coût normalisé” C qui re-
présente la “part” du jeu de patrons que requiert une étoile. C est élevé quand
l’étoile est peu tolérante et nécessite un patron très spécifique, peu réutilisable
par d’autres. Notre qualité devient alors :
84 Réduction Optimisée du nombre de patrons

X
Q= qi .Ci
i

Plus une étoile i “consomme” de patrons, plus elle doit être optimisée pour
compenser son coût. Ces étoiles sont les étoiles brillantes ; le “coût” des étoiles
faibles est réduit car leur signal photonique se distingue peu du bruit de fond
(identique pour toutes les étoiles) et leurs masques tendent donc à se ressembler.
La pondération utilisée traduit le fait qu’une stratégie inégalitaire n’est pas
forcément pénalisante. Dans la pratique cette pondération ne sera pas utilisée.
En effet, le facteur C est trop difficile à évaluer car il dépend de l’ensemble des
patrons et des étoiles.

Nous recentrons maintenant ces développements en revenant aux besoins


scientifiques de la mission Corot qui demande de conserver la meilleure précision
sur les objets les plus brillants.

On utilisera donc la définition suivante pour la qualité d’un champ dont les
masques optimaux ont été réduits : la répartition des S/B dans un champ muni de
patrons doit être la même que la répartition des S/B avec les masques optimaux.

6.7.2 Mesure du S/B global


Une fois choisi le critère de qualité globale, il faut le mesurer à l’aide d’un pa-
ramètre unique. On pense en premier lieu à l’écart quadratique entre histogramme
des S/B initiaux et finaux, mais une telle mesure n’a pas de sens individuel : les
pertes de S/B risquent de se compenser entre étoiles brillantes et étoiles moyennes.

Pour qu’aucune étoile n’échappe à la règle il fallait un critère ferme, à base de


seuil : la distance maximale entre ces histogrammes. C’est pourquoi nous avons
choisi τ .

6.7.3 Tolérance aux masques aléatoires


Il est important de remarquer que le S/B est, en moyenne, assez bien préservé
en valeur relative même si on mesure une étoile à l’aide d’un masque mal adapté.
Cela apparaı̂t dans la matrice étoiles × masques (Fig. 6.11), chaque point clair
situé hors de la diagonale des masques adaptés atteste d’une bonne préservation
du S/B . Ces points se rangent parfois le long de lignes horizontales claires,
révélant que le masque est adapté à de nombreuses étoiles. Ce sont les masques
correspondants à ces lignes claires qui deviendront les patrons. L’histogramme
de la même figure montre que 45% des masques préservent en moyenne τ > 95%
de S/B aux étoiles. Les écarts peuvent être importants entre magnitudes, mais
6.7 Méthode 5 : Le tri efficace de masques pseudo-aléatoires 85

cette valeur nous servira d’ordre de grandeur.

a) b)

Fig. 6.11 – a) Préservation du S/B avec des masques non adaptés. La matrice est
extraite de la matrice étoiles/masques[1 000,1 000] de la figure 6.2 dont on à normé
chaque colonne (étoile) par le S/B obtenu avec son masque adapté. On remarque les
masques adaptés sur la diagonale. b) Histogramme des valeurs de la matrice de gauche.
Jusqu’à 45% des couples masque × étoile (aire à droite de la ligne pointillée) perdent
moins de 5% de S/B avec un masque désadapté.

On va exploiter au mieux les recoupements au sein de ces 45% de masques.


Le rôle de l’algorithme sera de rechercher les masques les plus communs possible
parmi tous ceux qui préservent une étoile donnée.

Nous donnons maintenant une estimation qualitative de l’ordre de grandeur


du nombre de patrons pour τ = 95%, sous l’hypothèse d’une répartition uniforme.
Pour illustrer les choses supposons que les étoiles sont des boules stockées dans
une urne et qu’un masque est un tirage des p = 45% de boules satisfaisant τ .
Calculons après combien de tirages (avec remise) toutes les boules ont été tirées
au moins une fois. La probabilité P(n) qu’une boule soit tirée au moins une fois
en n tirages avec remise est :

P̄ = (1 − p)n
Si on se donne moins d’une chance sur mille qu’une des boules de notre échan-
tillon de 1 000 étoiles reste non-tirée, il faut P̄ 6 10−6 par boule. La solution en
n de l’inéquation est :
n > log(10−6 )/ log(1 − p)
86 Réduction Optimisée du nombre de patrons

Il faut n > 24 tirages (patrons). C’est bien dans la proportion recherchée car
24/1000 ' 250/12 000, laissant espoir pour la réduction avec 95% de préservation.

6.7.4 Description de la méthode


La séquence complète de réduction est la suivante :
1. Initialisation : Le point de départ est un champ d’étoiles et un réservoir
de masques aléatoires, la matrice des S/B s est obtenue par application de
tous les masques à chacune des étoiles. Il est préférable que les masques
aléatoires soient en fait les masques optimaux des autres étoiles du champ
mais ce n’est pas indispensable.

2. Itération : Ces étapes sont illustrées figure 6.12.


(a) On se donne une consigne sévère, par exemple τ = 0.97,

(b) La matrice des signaux à bruit est seuillée avec τ ce qui la transforme
en matrice binaire, nommée matrice “d’acceptabilité” et dont l’élément
(i, j) = 1 signifie “l’étoile j accepte le masque i”. Il y a au minimum un
masque acceptable par étoile : son masque optimal. Plus une colonne
compte d’éléments égaux à 1, plus l’étoile est “tolérante”. Plus une
ligne compte d’éléments égaux à 1, plus le masque est “apprécié” des
étoiles candidates.

(c) Le masque le plus apprécié de tous est choisi comme le premier des
patrons,

(d) Les étoiles qui ont accepté ce patron sont considérées comme “servies”
et sont exclues du reste de la procédure,

(e) On recommence l’étape c) pour déterminer le 2ème patron, et ainsi de


suite jusqu’à ce que toutes les étoiles aient été servies,

(f) Si n, le nombre de patrons nécessaire pour satisfaire τ est trop grand,


on relâche la contrainte τ . Ainsi chaque étoile admet un plus grand
nombre de patrons, et on recommence à partir de b) jusqu’à obtenir
n 6 250.

3. Sortie : Le nombre et l’identité des 250 patrons sont connus.


6.7 Méthode 5 : Le tri efficace de masques pseudo-aléatoires 87

1) La matrice d’acceptabilité est obtenue


par seuillage à la valeur τ de la ma-
trice précédente. Les éléments de cette
matrice sont binaires, 1 (en blanc) signifie
“cette étoile accepte le masque”. Les étoiles
sont des colonnes et les masques sont des
lignes.

2) Tri : Le masque totalisant le plus d’é- 3) Les étoiles servies sont exclues et on
toiles satisfaites est choisi comme premier itère le 2) pour extraire le second patron.
patron. La somme des lignes est repré-
sentée sur la partie droite.

Fig. 6.12 – Tri efficace de masques aléatoires.

Cette méthode est sans biais. En effet, supposons que 12 000 patrons soient
autorisés. Si τ < 100%, la réduction aura lieu et on aura donc moins de 12 000 pa-
trons. Donc la seule valeur possible pour τ est 100% et les 12 000 étoiles n’auront
plus qu’un choix : leur propre masque optimisé.

6.7.5 Résultats obtenus


Les résultats évalués sur notre échantillon de 1000 étoiles sont prometteurs.
En réduisant d’un facteur 40, la perte se limite à 6 2%. La performance est
favorisée par deux effets :
88 Réduction Optimisée du nombre de patrons

– La perte obtenue est forcément moindre que la consigne fixée. En imposant


une consigne τ > 95% on obtient un S/B ∼ 97% car le masque retenu pour
toute étoile i satisfait τi > τ ,

– Une conséquence inattendue de l’utilisation de masques aléatoires est


qu’elle revient à étendre la recherche semi-exhaustive utilisée pour déter-
miner les masques optimaux (Llebaria et al. 2002) au prix d’un temps
de calcul supplémentaire. Ces essais supplémentaires trouvent parfois de
meilleures solutions.

Le degré d’utilisation des patrons est très inégal ; le plus utilisé satisfait à lui
seul 130 étoiles (Fig. 6.13). Ce patron le plus “populaire” est de petite surface et
sans spécificité, il ne satisfait que les étoiles faibles dont les signes distinctifs sont
noyés dans le bruit. On ne doit pas sa présence à un hasard particulièrement
favorable : il y en a beaucoup comme lui en compétition sur les mêmes étoiles,
dont un seul est retenu. A l’opposé, certaines étoiles brillantes n’acceptent qu’un
seul patron.

Fig. 6.13 – Masque convenant à 130 étoiles. Sa surface est réduite, sa forme standard.

Bien qu’étant l’hypothèse centrale de notre procédé de réduction, notre


critère d’acceptabilité demeure très souple. Nous utiliserons cette propriété à la
section suivante pour augmenter la robustesse pratique.

Il existe plusieurs méthodes de tri. Celle qui est proposée est simple et
efficace. La solution exacte est hors de portée du calcul et ne serait pas forcément
meilleure dans la pratique. L’élément important est la représentativité des étoiles
utilisées.

Nous avons envisagé d’autres formes d’acceptabilité, mais le seuillage binaire


reste un impératif afin de satisfaire l’objectif scientifique de conserver toutes leurs
chances aux étoiles. Le choix d’une préservation moyenne et non minimale du S/B
, c’est-à-dire la moyenne des lignes de perte relative (sans seuillage), serait un
mauvais critère. L’accumulation d’un grand nombre d’étoiles faibles peut priver
une étoile plus brillante de ses masques préférentiels, ce que l’on s’interdit. Seul
un seuillage permet d’imposer qu’aucune étoile ne soit délaissée.
6.7 Méthode 5 : Le tri efficace de masques pseudo-aléatoires 89

6.7.6 Mise en oeuvre de la procédure

Dans la pratique le même jeu de patrons sera appliqué sur plusieurs champs
pour réduire les interruptions de télémesure et les risques techniques lors des
opérations de rechargement. Nous avons vu au début que la procédure de réduc-
tion travaillait à partir d’un regroupement d’étoiles, nommé “champ composite”,
choisies représentatives des champs stellaires et conditions de mesure qui seront
celles de Corot . La population des champs composites se limite à 3 000 étoiles,
suivant un compromis avec la puissance de calcul nécessaire. Les caractéristique
de ces champs sont les suivantes :

– On choisit une distribution de magnitudes inversée par rapport à la réalité,


pour sur-représenter les étoiles brillantes car leurs tâches-image sont plus
variées. On utilise quatre, voire huit classes de magnitudes.
– la moitié des étoiles sont issues du centre galactique, l’autre moitié de l’an-
ticentre,
– les imagettes sont simulées avec différents taux de jitter/respiration pour
faire face à toutes les valeurs éventuelles.

L’autre facteur important est l’adaptation du critère de qualité globale.


L’efficacité de la méthode nous permet de disposer d’une marge de manoeuvre
que l’on exploite pour privilégier les rares étoiles brillantes. Nous avons considéré
comme important le fait de pouvoir y observer de faibles variations de luminosité,
même en l’absence de transits. Un tel choix n’est pas pénalisant pour les étoiles
faibles, grâce à la marge de manoeuvre. Pour le mettre en pratique, il suffit
de remplacer le seuil fixe τ (cf. Eq. 6.5) par un seuil paramétrable τ (mV ). On
choisit τ (16) = 5%, qui diminue graduellement jusqu’à τ (12) = 1%. Malgré cette
condition plus stricte, la méthode tient toujours la contrainte des 250 patrons.

Pour accroı̂tre le plus possible la robustesse, on contraint encore davantage


la méthode en imposant que tout patron de la collection finale convienne au mi-
nimum à plusieurs étoiles, dont le nombre dépend de la magnitude (voir Tab.
6.1). Mais cette contrainte supplémentaire est en fait incompatible avec notre
démarche initiale où n, le nombre de patrons résulte de la consigne τ . Pour com-
prendre pourquoi nous considérons le cas extrême (irréaliste) d’une étoile qui
n’admet qu’un seul masque, si spécialisé qu’il ne convient à aucune autre étoile.
Ce masque doit faire partie de la collection, mais en même temps il ne satisfait pas
la nouvelle contrainte. Pour résoudre ce cas on renonce simplement à satisfaire
cette étoile, jugée trop atypique pour participer aux patrons génériques.
90 Réduction Optimisée du nombre de patrons

Fig. 6.14 – Population stellaire en fonction du S/B potentiel. Le niveau de gris indique
le nombre d’étoiles d’une magnitude donnée qui ont un S/B donné. Cette figure est
établie à partir d’un champ réel. La limite supérieure de la surface indique le cas idéal
du bruit photonique pur. Les meilleures étoiles sont les plus rares.

Tab. 6.1 – Nombre d’étoiles que doit satisfaire un patron en fonction de la magni-
tude. Ce nombre imposé est plus important pour les étoiles faibles car elles sont plus
tolérantes. On fixe également une nombre maximal de masques par catégorie (nmasque )
pour réserver plus de masques aux étoiles brillantes. Les étoiles faibles non servies quand
nmasque est atteint restent exclues de l’échantillon des patrons. Le patron qui leur sera
affecté leur fera donc perdre plus de τ × S/Bopt .

mV 11.5 12.5 13.5 14.5 15.5


n? /masque (min) 1 5 15 20 25
nmasque (max) 64 64 64 42 16

6.7.7 Conclusion
La précision photométrique de Corot n’est pas compromise par le processus
de réduction que nous avons mis au point. La robustesse semble acquise, le
S/B obtenu en affectant un jeu de patrons à des étoiles n’ayant pas participé
à l’obtention de ce jeu reste satisfaisant, sauf de rares exceptions. On doit la
performance de la méthode à l’exploitation de la bonne tolérance de certaines
étoiles vis-à-vis de masques désadaptés.
6.7 Méthode 5 : Le tri efficace de masques pseudo-aléatoires 91

Le jeu de patrons obtenu est une solution globale au problème : il serait


néfaste de chercher à retoucher un patron particulier pour l’adapter plus complè-
tement à une étoile donnée. En effet, un patron est un compromis délicat mettant
en jeu ∼ 40 étoiles ainsi que d’autres patrons. Cette tentative désadapterait
d’autres étoiles en nombre bien plus grand.

Un exemple de jeu de patrons est représenté Fig. 6.15. Ils sont groupés par
classe de magnitude décroissante à partir de mV = 16. L’anomalie du 6ème
patron de magnitude 13 provient sans doute d’un masque élaboré pour une
contamination très particulière d’une étoile faible, mais qui ne gêne pas les autres
types de contaminations.

Fig. 6.15 – Patrons photométriques obtenus avec le processus de réduction développé


dans ce travail ; les patrons sont regroupés par classe de magnitude. Les étoiles mV = 12
(en bas) sont plus exigeantes que les étoiles mV = 16 (en haut) très permissives.

Le nombre d’utilisations des patrons sur un champ (voir Fig. 6.16) montre
une décroissance rapide. Les patrons les plus utilisés sont ceux des étoiles faibles.
On remarque qu’une vingtaine de patrons restent inutilisés, ce sont ceux qui sont
élaborés avec des paramètres trop différents du champ de cibles choisi.
92 Réduction Optimisée du nombre de patrons

Fig. 6.16 – Taux d’utilisation des patrons. Le nombre d’utilisation en ordonnée est
obtenu sur un vrai champ, après la procédure d’attribution décrite au chapitre suivant.
6.8 Deuxième publication Llebaria et al. (2003), SPIE. 93

6.8 Deuxième publication Llebaria et al. (2003),


SPIE.
94 Réduction Optimisée du nombre de patrons
Photometric masking methods and predicted performances
for the CoRoT exoplanetary mission
Llebaria A.a , Guterman P.b , Ollivier M.c
b Laboratoire Astrophysique de Marseille(CNRS), 13776 BP8 Marseille Cedex12, France
a Gemplus, BP100, 13881 Gemenos Cedex, France
c Institut d’Astrophysique Spatiale(CNRS), Campus Univ. d’Orsay bat.121, 91405 Orsay Cedex, France

ABSTRACT
CoRoT mission for year 2006 is a small space telescope that will measure continuously for 6 months the light
flux of 12 000 star in a mission of 2 12 years. The aim is to detect small droops in the light curves revealing
planets transitting in front of their star. For this, 12 000 logical Regions Of Interest (ROI) are defined on the
CCD to optimise each star Signal to Noise Ratio (s/n). Unfortunatly only less than 256 different shapes are
permitted for all ROIs, forseeing a loss in global S/N. We found a method wich reduces the 12 000 ROIs to a
small set of 250 shapes in a lossless way. Overall performances are discussed.
Keywords: image processing, exoplanets, pattern analysis, stellar photometry

1. INTRODUCTION
CoRoT, standing for Convection, Rotation and planetary Transits, is a European mission led by the CNES∗
who is the prime contractor.1, 2 Is a main purpose of the orbital telescope CoRoT to detect earth sized
exoplanets orbiting at a medium distance around their stars during its 2.5 years mission. The basic method is
to find “transits” i.e to detect droops of particular shape in the temporal light curve, corresponding to the tiny
brightness decrease when the planet passes in front of its star. Due to planet/star proportions, such droops
will be very faint, the detection of 3.10−4 in relative brightness decreasing is the expected performance. CoRoT
will be in an inertial polar orbit at 850 km permitting to point in the same galactic direction during 6 month
runs. During runs the sun is always in CoRoT back side. The indirect light scatered by the earth is reduced
by optic means. During runs CoRoT measures continuously light fluxes coming from 12 000 stars selected in its
field of view of 3.5 degrees sq. Observing 5 of such areas for 6 months each we estimate that about one hundred
planetary systems can detected, along with a dozen of “small planets”.3
CoRoT is an off-axis 30 cm telescope, with 1200 mm focus and an entrance pupil of 600 cm2 . The optical
path is made of 2 afocal mirrors and a 6 lenses dioptric objective. CoRoT works in the 370−950 nm wavelengths
range. On the purpose to discriminate a monochromatic transit from other stellar activity a biprism, just placed
before the focal plane, induces a weak dispersion to get somme colored information. The little spectra depending
on the star spectral type and class as well as on the position on the field, will be designed in this paper as PFS’s.
An entry baffle reduces straylight to a 10−13 factor. On the focal plane there are 4 CCDs (Marconi MPP) of
2048 × 2048 pixels of 13.5µm of square size working in frame transfert. To avoid saturations due to bright stars,
both CCDs are read every 32 s. Readings are packed by 16 to give a 512 s exposure.
In order to fulfill the telemetry constraints, stars are measured on board and the results are transmited to
ground (each exposure is 32 sec long, the sequences of 16 exposures are added on board to form individual
measures). These measures constitute a time series or “light curve” for each star. The relative photometry
consists on integrating the flux in each ROI (region of interest) which includes the Point Spread Function (PSF)
of a selected star. In the instrument working group of CoRoT ROIs are called “masks” and its 2D shapes
“patterns”. These ROIs are designed from a complex process4 which aims at maximizing the S/N ratio in view
Further author information: (Send correspondence to Antoine Llebaria)
E-mail: [Link]@[Link], Telephone: +33 (0)4 91 05 59 00

the Centre National d’Etudes Spatiales (CNES) is the french space agency
of constraints like local crowding, background, jitter, etc. Moreover on board software limits to less than 256
the number of disponible 2D shapes beside other minor constraints. Therefore this shapes will be optimized to
be used for large groups of stars depending on place on the field, magnitude, type, etc. In order to define ROIs
the full process will be unfold in two steps: in the first one (the “definition” step), a specific ROI for each PSF
of selected stars is deduced, in the second one (the “reduction” step) these large sample of ROIs is resumed in
a limited set of optimal shapes in compliance with the on-board software requirements.
The definition of the initial (or specific) ROIs has been detailed in a previous paper,4 instead in the present
work we will deal in more detail with the reduction step and the final results. We will discuss in a first place
about the optimization criteria, second about the reduction process and last about the predicted performances.

Figure 1. Left: Image 256 × 256 subfield in logarithmic scale of brightness. Right: correlative ROIs map image

2. OPTIMIZATION CRITERIA
2.1. Defining the noise level
Relative photometry is adequate to detect transit events, therefore the stability of measurements is the crucial
point for the exoplanets CoRoT mission. That means to reach the lowest noise level for each serie of measures,
therefore the stability of experimental conditions and the low straylight level (mainly due to the earth) are
very important items. Because PSFs are different from a star to next one, as we said before, and also because
the PSF is subsampled, the only practical photometric method is aperture photometry. The star fields to
observe are very crowded and the aperture shape or ROIs will depend on: 1) the PSF distribution, 2) the
local background and 3) on the neighboring stars (as matter of fact they belong also to the local background).
ROIs are small (∼ 70 pixels area) and therefore any tiny displacement or image change in the CCD plane can
perceptibily modify the total flux. Displacements are due to residual jitter of the 3D pointing system. Image
changes depend mainly on the thermoelastic response of the telescope to the orbital constraints.
The best ROI for each star will minimize such effects to approach the ideal S/N ratio of photon limited noise.
Out of operational constraints we will define the optimal ROI applying a exaustive trial and error procedure to
determine the shape with the lowest noise to signal ratio for each star. That’s why a method to found a simple
expression to forecast the noise level for each star and each proposed ROI is crucial.
The signal is defined by the total flux of the star included on the ROI. The noise depends on:
1. photon noise from the star itself;
2. photon noise from the background and the overlapping stars;

3. variable stars neighbours (expected only for < 0.1% of measures);


4. residual jitter;
5. breathing;
6. periodic (orbital) straylight variations;
7. missed data.

These sources of noise can be grouped on two main classes: a) (Pseudo)white sources and b) quasi-perodic
or colored sources. Sources from 1) to 4) correspond to (pseudo)white noise; sources 5) and 6) correspond to
colored noise. Even if we can assume a plausible guess for each component we cannot easely mix both classes
in a short expression without further assumptions on the future signal processing.
Straylight will show a orbital frequency component (with harmonics and sub-harmonics). Breathing looks
much more complex due to the thermic control in flight. In any case such colored noises can be detected and
measured because they are global and show a very low frequency cut off. Correcting such terms in the time series
of flux data will cancel an important part of the colored noise but a “whitened” residue is certainly foreseeable.
This residue will be included in the global expression of noise. Summarizing the discussion of this subjet held
in the previous paper,4 final expression of variance will include three terms: 1) photon noise, 2) jitter noise and
3) whitened noise due to uncorrected residuals of breathing. Obviously variable stars on background, secondary
effects of missing data and saturated stars are not considered here. The final expression is:

VT OT = FT OT + δλ2 ∆g(X)2 + c2ES g(X)2 (1)

Where VT OT stands for the final variance, FT OT the final flux, X represents the ROI border and g(X) is the
flux per unit area in this border. ∆g(X)2 is the quadratic mean of all flux differences in X induced by a
series of small PSF displacements, it is the jitter term. g(X)2 stands for the quadratic mean due to breathing
(whitened). δλ2 and c2ES are respectively the mean square deviation of jitter and the residual mean square error
for breathing.

2.2. Optimization process


This expression has been used to optimize specific ROIs for each star. For each of them an initial ROI is defined
assuming a null jitter and breathing noises. In the second step roundROIs are modified to get a minimal variance
(relative to the star flux). The third step will reduce the full set of ROIs issued from all selected stars of all
selected fields to the limited final set of 256 shapes. In the last step to each star is assigned the most fitted
shape of this limited set.
From a practical point of view, we must simulate the 12 000 PSFs (6 000 for each CCD), as well as the full
field (including more than 5.105 stars) to determine their ROI. PSF are modeled using optical software for 9
positions regularly apart on each CCD, their sampling is 10 × 10 more fine than the final image, and resumed
in a set of 200 monochromatic PSFs in the 350 to 1050 nm wavelenght range (nonuniform) per CCD position.
A large set of polychromatic stars is derivated as function of spectral types and classes. Combining this PSFs
with a catalog of stars for each field results in a set of 6 000 star images per CCD and a global simulation of
both full images of size 2 048 × 2 048. Once the initial ROI is defined the process deduces a optimal ROI for each
of 12 000 stars maximizing the S/N by a quasi exaustive trial and error process. The process deduces S and N
from the expected star flux and from the expected local background including other local stars (considered as
contaminants). This local background is extracted from the full field simulation of the CCD image.
2.3. Verifiying noise expression with simulations
We use simulations to verify the pertinence of the variance formula we simulate the received signal by moving a
PSF across a ROI. The simulation program creates an {xi , yi } i = 1, . . . , N jitter time serie according to CoRoT
parameters. Each second the PSF is shifted by {xi , yi } and the corresponding star and background fluxes are
separatly integrated in the ROI. Table. 1 compares the simulated results with S/N analytic expressions. The
table shows a pessimistic estimation using the theoretical expression of noise (by a factor between 1 and 2)
relative to the simulations but still, the global agreement is good. Further analysis for the discrepancies is in
progress.

Table 1. Computations are made for a 0.86 pixels rms jitter, for 3 stars from strong (Mv=11.3) to mean (Mv=13.9)
magnitude. Results are expressed in N/S(ppm) rather than S/N. SIM stands for simulation 1D,2D(1) and 2D(2) stands
for one dimensional expression, two dimensional expression to first order and two dimensional expression to second order
(see Appendix A)

Magnitude Contamination SIM 1D 2D(1) 2D(2)


Mv % rate ppm ppm ppm ppm
11.3 2% 1463 2404 2646 2625
13.2 4% 784 789 840 830
13.9 6% 1583 2924 2779 2766

3. REDUCTION
To reduce the very large collection of masks (∼ 100 000) to the small set of 2 × 128 with a minimal degradation
in S/N ratio we have tried a set of methods: 1) parametric families, 2) principal component analysis, 3) direct
morphing and 4) table sorting. With the last we get, by far, the best results. We design thereafter the group
of first ones as tentative methods the last one being the selected method.

3.1. Tentative methods


3.1.1. Parametric families
Stars, and its respective ROIs, are classed in a multidimensional espace of a priori natural parameters: brigth-
ness, position, spectral type and contamination level. They are “traditionnal” major influence factors, a priori
important. Since ROIs very often change smoothly when the parameters change, the parametric space is divided
in a limited set of classes (or families). All stars in a family will be satisfied by a unique shape, obtained by
“averaging” all ROIs of this family and thrshoding the result. This method was detailed in a previous paper.4
This approach is straightforward but unsatisfactory because: 1) The minimun number of needed classes is
larger than the 2 × 128 allowed shapes, therefore it needs a second reduction step. 2) The pertinent choice of
factors is not obvious because underlying parameters, contamination profiles, statistical particularities of the
field,. . . or a concealed combination of some of them can dominate the global S/N. 3) The choice of class limits
is somehaw arbitrary, even if it is based on equalization procedures. 4) The compliance of the resulting ROI to
convexity requirements is not undoubtely preserved by the process.

3.1.2. Principal components analysis


In this approach we will look for a set of a posteriori families. Instead a priori (or intuitive) set of factors
we will define a minimum set of shapes from the full set of specific ROIs, each one being considered as one
multidimensional binary vector. It will help us to define a patterns space where to determine the true dimension
of the set of ROIs. Also the S/N cross correlation matrix (see Fig. 2) between stars and ROIs points out to this
approach.
Figure 2. S/N cross-correlation matrix
between stars and ROIs (presently 1000
stars and its ROIs). Each pixel (i, j) rep-
resents the relative S/N for the star i ob-
served with the mask j. Matrix is normal-
ized column by column to the best score
(see Fig. 3). Vertical strays mean that
bright stars can keep a good S/N with sev-
eral ROIs. showing that is possible to re-
place ROIs without further degradation on
S/N in the reduction step. Faint horizontal
dark strays show that a few ROIs are bad
for large number of stars.

In spite of some preliminary encouraging results we discard lately this method due to the strong bias : if
1000 shapes where allowed, they would never converge to the 1000 initial ROIs. As in the parametric families
approach some a priori is still present in families boundaries choice. The details are discussed in the Appendix B.

3.1.3. Direct morphing


The direct morphing from ROIs to final shapes attempts to suppress previous drawbacks. Using the affine
description of ROIs, we run a K-mean clustering algorithm that finds the few shapes that best represent (i.e
at a close distance) all ROIs. Due to its mild results this method was discarded. The deep motive is that
morphologic similitude is not an adapted metric for S/N optimisation. Details are discussed in the Appendix C.

3.2. Selected method


3.2.1. Table sorting basics
The selected method, i.e. table sorting is directly S/N oriented, that’s why its results are clearly better than
previous ones. As matter of fact the previous methods build generic shapes in spaces defined by diverse features
close linked to S/N (brigthness, ROIs etc..), not by the loss of S/N itself. The matrix of cross S/N ratios (see
Fig. 2) shows that for a large set of ROIs the S/N is very often close to the best S/N i.e. the S/N of individual
stars is tolerant relative to a panel of less of adapted ROI. Moreover because the search for an optimal ROI can
not be exhaustive in the S/N matrix “foreings” ROIs can show better performance. Starting from this remark,
our strategy is to find few ROIs that are acceptable for as much stars as possible. To deal with the trade off
between a good global S/N and a reduced number of shapes we define a convenient acceptability criterium for
a couple {star, ROI} : the maximum acceptable S/N loss ratio τ . Indeed 1) τ is relative to each star 2) if all
stars satisfy τ then the global S/N also satisfies τ .

3.2.2. Strategy
Practically we consider all ROIs found in the set of specific ROIs as a tank of random ROIs. Given a τ , our
process determines the required number of shapes to satisfy τ . By successive tries, we adjust τ to obtain the
2 × 128 shapes. 2 steps are necessary :

1. Convert the exaustive matrix of fig. 2 into the S/N losses matrix of fig. 3
2. The best ROI, i.e. the row on the acceptability matrix with a maximal number of compliant couples, is
removed from the matrix as well as the compliant stars. A new losses matrix with the remaining stars
and ROIs is defined. Iteratively convert to shape “status” the ROIs acceptable for the largest number of
compliant stars, as described Fig. 3
The losses matrix results from the S/N matrix in The acceptability matrix i.e. the tresholded losses
fig. 2. Each column of the S/N matrix has been matrix to loss τ . White spots signal compliant
normalized to its highest column value. Columns couples of {stari , ROIj } to this loss level
show the S/N loss ratio across ROIs.

Figure 3. The losses matrix and its derivated acceptability matrix

In the acceptability matrix the most white spotted Compliant stars for the last extracted shape are
line marks the best shape to extract. This shape is switched off. A new iteration can start in order to
assigned to all compliant stars of this line find a next best shape and so until star exaustion

Figure 4. Iterative procedure to determine the set of shapes from the S/N acceptability matrix

3. The 1) and 2) steps are iterated until star exhaustion, or a maximum of 128 ROIs (per CCD). If the
maximum number of ROIs is reached without exhausting all stars, we have to decide the increase of τ
losses for a subset of stars or admit a more reduced S/N for the remaining stars. Trials with actual fields
shows a very small proportion of remaining stars for (1 − τ ) S/N loss levels lower than 10% starting from
more than 120 000 stars-ROIs pairs (from different fields but relative to the same CCD).

At the end we obtain:

1. The shapes list.


2. The guarantee that local S/N losses are better than (1 − τ ).
3. Temporarly a shape (or “generic mask”) is assigned to each star referred in the S/N matrix.
Because in the actual process only a subset of stars is involved in the S/N acceptability iteration, in the final
run for each star the shape showing the best S/N is assigned as its definitive ROI.
With a test deck we reduced 1000 stars and specific ROIs to 26 shapes. The S/N loss (1 − τ ) fall under 1%.
Hence the global S/N is close to the (dedicated ROI)/(best random ROI) ratio. This one is lower than 100%
because the preliminary ROI optimizations are only semi-exhaustive. Therefore we can consider our reduction
method as lossless. However practical issues dealing with many thousands of stars show somehow less favorable
rates (see section 4).
3.2.3. From theory to practice

Figure 5. Left Accepted stars per magnitude in a typical field. Right Size of accepted stars overimposed to the acceptance
histogram. Small masks are de most frequent ones.

Generic masks will be optimized for a large set of observable fields, not just for only one of them. Each field
contains as much as 2 × 6 000 potential stars to observe, therefore the exaustive analysis with all candidates
(> 50 × 2 × 6 000 candidates) requiring an exaustive S/N acceptability matrix of 600 0002 elements is clearly
out of our reach. Instead a stochastic selection has been applied. This process:

1. selects at random a large sample of stars (> 3000) between all candidates in a large sample of fields and
builds the S/N acceptability matrix,
2. finds the limited set (< 2 × 128) of the most common accepted shapes (or “generic masks”) following the
table sorting method.

A final procedure assigns ROIs in each field to 6000 star candidates from the limited set of shapes. Once shapes
assigned, a small proportion of candidates (< 10%) are rejected due to practical constraints like to avoid: 1)
the intersection with borders and 2) the overlapping between ROIs in the CCD. (see fig. 5).

4. PERFORMANCE
Performance has been mesured in a set of 12 fields in the Milky Way of 1.6◦ × 1.6◦ each. The number of stars
per field is more than 120 000 to mgR 19.6. They are more than 6 000 candidates in each field to mgR 15. Sets
of 2 × 128 shapes have been extracted from this fields, and ROIs and its positions defined for most of them. We
present here the typical results for one of these fields:

• The 2D histogram of the star number as function of S/N and magnitude.(fig. 6)


• The histogram of total ROIs per shape or frequency use in decreasing order of use from left to right. (fig. 7
left)
Figure 6. Number of stars per magnitude and S/N ratio (scales in log10 (S/N ) vs. mgR coordinates )

Figure 7. Left Accepted stars per magnitude in a typical field. Right The graph showing the size of masks is overimposed
to the graph of accepted stars per magnitude

• Shape sizes overimposed to the frequency use.


• The histogram of shape sizes (fig. 7 right)
• The ROI Statistics: 1) Size histogram, 2) 2D histogram of size and magnitude, 3) 2D Histogram of length
and magnitude and 4) 2D histogram of height and magnitude (fig. 8)

The 2D histogram (fig. 6) of the star number as function of S/N and magnitude (mgR) shows a dense
population of stars grouped along the theorical limit of S/N rate as fuction of magnitude (scales in log10 (S/N )
vs. mgR coordinates, the Poisson noise limit is a straight line of slope -0.2 per 1 mg). In the graph, the
distribution ridge is shifted of 0.2 in log10 (S/N ) units, corresponding to the ∼ 20% decrease in S/N performance
relative to the pure Poisson noise of the star PSF without background. Such degradation includes the noise due
to contamination from neighbour stars and from the background level, the jitter effects, etc.
The ROIs statistics (fig. 8 left) shows: 1) the size distribution of ROI shapes (mean of 70 pixels), 2) the
frequency of use: most of stars are observed with ROIs of < 100 pixels, 3) the height and length distributions:
mean of 9 × 15, 4) 2D histograms of nb of ROIs as function of magnitude and size, low magnitudes use big ROIs
as expected.

Figure 8. ROI Statistics: 1) Size histogram, 2) 2D histogram of size and magnitude, 3) 2D Histogram of length and
magnitude and 4) 2D histogram of height and magnitude

5. CONCLUSION
This paper has presented the procedure to obtain the reduced set of masks used into photometric integration in
the CoRoT exoplanets experiment as well as the expected performances. Operational constraints to a limited
set of masks. In fact a limited subset of masks (< 50) are enough to measure a majority of stars with a low
degradation in the S/N ratio. The procedure described here shows an outstanding improvement relative to the
classical methods of reduction of pattern sets. The expected overall performance is better than 80% of the
“photon noise” limited observations and the field crowding will discard in mean less than 25% of less bright
stars. Future work will try to verify this performances with the full set of CoRoT exoplanets fields.

5.1. Acknowledgments
We are grateful to [Link] for his helpful discussions about the jitter statistics as well to [Link] for the
fruitfull exchanges on mask determination and noise level determination. This work has been found by the
CNES (the french space agency) and the CNRS.

APPENDIX A. 2D ANALYTIC S/N EXPRESSIONS


Complete expressions of S/N with 2D PSF and jitter can be approximated by a 1st or a 2nd order formulas.
F (i, j), FT OT (i, j) and λ(i, j) are 2D expressions for distributions of PSF flux, total flux and (i, j) positions
respectively. i and j stand for continuous pixel coordinates. ROI is the window area. FT OT = F + FBackground .
The λ(i, j)
 distribution of (i, j) can be
 defined by the set of its centered moments µ20 , µ11 , µ02 , . . .. Let be
< F >= ROI F ∗ λ and < FT OT >= ROI FT OT ∗ λ the mean fluxes for the star only and for the full window
 −−−→ − →  −−−→ −→
respectively. Let be q1 = FT OT . i (resp. q2 = FT OT . j ) that is to say differences between vertical (resp.
horizontal) borders.
S/N expression at 1st order is :

<F >
S/N = 
< FT OT > +µ220 q12 + µ202 q22 + 2µ11 q1 q2
 −−→ →
−  −−→ →

Let q3 = gradFT OT . i (resp. q4 = gradFT OT . j ) thats to say differences between horizontal (resp.
vertical) slopes. Noise expression of noise contribution becomes at 2nd order :

N2 = < FT OT > +µ20 (q12 + q3 /2) + µ02 (q22 + q4 /2) + 2µ11 q1 q2


+ µ202 q32 + µ202 q42 + µ20 µ02 q3 q4
+ µ30 q1 q3 + µ12 q1 q4 + µ21 q2 q3 + µ30 q2 q4 + µ40 q32 /4 + µ22 q3 q4 /2 + µ40 q42 /4

APPENDIX B. PRINCIPAL COMPONENTS ANALYSIS


Instead of classification based on parameters what we ”feel” important, we work here only with the visible effect
denoted on ROIs. We apply the a priori method, properly formalised, on the PCA analysis. To isolate ROIs
caracteristics factors we find the eigenvalues of the covariance matrix of the ROIs vector coordinate. The first
15% of coordinates account for more of 75% of ROI variations. We keep them as a posteriori major factors.

= + +. . . +

ROI factor 1 factor 2 constant

Figure 9. Example of ROI decomposition in independant factors.

In this process the columns of an ROI image (37 × 16 pixels) are stacked in a vector −→
m with one binary coor-
dinate per pixel in the canonic base (i.e 592-coordinates). A coordinate of −

m set to 1 signifies the corresponding
pixel is used in the ROI. For shake of clarity let us fix the number of ROIs to 1 000. The {m −→i , i = 1 · · · 1000}
induce a sub-space where we assume the searched shapes to reside. We searching the underlying dimension of
the system, we cannot find more than 100 independent {m −
→i }. This means that 492 of the 592 pixels actually
never toggle or are tied with another. So we change for this new base of 100 coordinates. Note that such
coordinates are no more binaries.
Influence factor formalization : A combinaison of coordinates whose variations are not correlated to the
others. To determine them we consider the covariance matrix A of m −
→i coordinates. Non-diagonal terms are


covariance between coordinates (i.e factors). Let’s diagonalize A and change to the base of eigenvectors { Vi , i =


1 · · · 100}. The non-diagonal terms of A are null so the new coordinates are independant. In other words, { Vi }
are our influence factors. We formalize thereafter all this concepts

• Major factors: Those who varies most between ROIs. The variance of the ith coordinate is the eigenvalue


λi . So we reorder { Vi } by descending λi .
• Family: All members of a family share a close value for a factor. Analytically this value is the projection
−−→ →

of an ROI on a Vi . To share into 250 families, we cut factors values into equal parts or equal populations
of ROIs, as shown Fig. 10 left.
• Rebinarization: The obtained shapes (see Fig. 10, center) are back translated to the canonic base. As it
is, shapes a negligeable chance to show binary coordinates. A way to solve this is to notice that binary
shapes are located at corners of an hypercube in the continuous space (see Fig. 10, right). This justifies
the intuitive choice made in Sect. 3.1 of pixel averaging among a family.

V1
J
V2

1.

VN
N K
1.
m

1. I
Significant factors or eigenval- The resulting best shape is al- Continuous shapes are included
ues are quantified most always a continuous one in a cube of binary shapes

Figure 10. From continous shape to the closest binary shape

APPENDIX C. DIRECT MORPHING


We use a progressive morphing from ROIs to shapes. We assume that 2 similar shapes applied to the same
star will give a similar S/N. In this section it is convenient to represent shapes by affine points with binaries
coordinates. Logically, 2 shapes mi mj are said similar if they have only few differing pixels. In other terms, if
the distance m−
−− −

i mj  is small. The term of data clusterring algorithms is, given a numerous set of points mi , to
find a limited number of representative catergories.
  −Categories are resumed to their centers cj . The algo finds
the cj and assigns mi accordingly such as j i − cj −
→i  is minimal.
m

C.1. Basic algorithm

a) Selection b) Fusion

Figure 11. At each iteration, the closest pair of type {point, point} or {point, centroı̈d} or {centroı̈d, centroı̈d} is
replaced by its centroı̈d, hence reducing by one the number of weighted points.
A simple algorithm doing this is illustrated in Fig. 11. The principle is, starting from the complete set of
points, we remove one point at each iteration.5 Elimination rule : the 2 closest points are replaced by their
barycenter (centroı̈ds). Advantages : 1) No more a priori. 2) Shapes converge obviously throught ROIs as their
number increase.
The algorithm iterates nROI −nShape times. The complexity of all distances computation is heavy, roughtly
n2 ×nbiterations , but can be significantly reduced, for instance by sharing the space into virtual boxes and
in 2
computing distances only inside and between boxes. The algo is completed by the same rebinarisation than
App. B. The result of this basic algorithm converges badly. Indeed, all points condense on the smallest ROI.
This seems due to that points with few non-null coordinates have the more chances to be close together since
both are close to the origin. Consequently central points start to condense and atract all the others.
C.2. K-means problem
Its general term is : Given n pupils spread over a region, where to place K schools, K < n such as the total
distances to schools is minimun. In our case, pupils are ROIs and schools are shapes. There is no analytic
answer, but a class of iterative algorithms6 known also as K-means cluster algorithm. The computational
complexity falls downto K × n per iteration. Lets detail one. Initial state : Spread K seeds (future shapes) over
the space. We preferently choose for seeds K regulary distributed ROI to respect convergence toward initial
ROIs as shapes number increases. Figure. 12 illustrates the 2 steps of an iteration. The iteration stops when a

Step 1 : Make clusters. Step 2 : Move seed at cluster Iterate Step 1 etc. . .
Affect each point to the barycenter.
closest seed

Figure 12. At each iteration, all points are assigned the closest seed, then the seed is moved to the cluster’s centroı̈d

convergence criterium is reached, like no more decrease of the global distance. Centroı̈ds are then transformed
to shapes by binarisation (App. B). The result we obtained is satisfying, only 1.7% surface differ between initial
ROIs and final shapes. Moreover this ratio is quite independent from initial seed choice and the algorithm
converges in a few iterations. Unfortunatly, we note that the basic hypothesis saying that close ROI would give
close S/N was non relevant. In fact, studying the relative distance versus S/N degradation, we note that same
distance could lead to quite different S/N. We conclude that morphology criterium is risky and we abandon
morphing methods.

REFERENCES
1. D. Rouan, A. Baglin, P. Barge, E. Copet, M. Deleuil, A. Léger, J. Schneider, D. Toublanc and A. Vuillemin
“Searching for exosolar planets with the CoRoT space mission”, Physics and Chemistry of the Earth Part
C, 24, 5, pp. 567–571, 2000.
2. D. Rouan, A. Baglin, E. Copet, J. Schneider, P. Barge, M. Deleuil, A. Vuillemin and A. Léger, “The
Exosolar Planets Program of the CoRoT satellite”, Earth, Moon, and Planets, 81, 1, pp. 79–82, 2000.
3. P. Bord, D. Rouan, A. and A. Léger, “Exoplanet detection capability of the COROT space mission”,
astro-ph/10305159 A&A, in press, 2003.
4. A. Llebaria, A. Vuillemin, P. Guterman, P. Barge, [Link] 4849 # 112, 2002.
5. Everitt, Brian S., Cluster Analysis, Arnold Publications, 2001.
6. A.K. Jain and R.C. Dubes, Algorithms for Clustering Data. Englewood Cli s, NJ: Prentice Hall, 1988.
Chapitre 7

Attribution des patrons sur une


image complète

Nous avons vu à la section précédente comment déterminer un nombre réduit


de patrons. Il reste à les répartir de manière optimisée sur les cibles du champ
d’étoiles sélectionné. Il ne s’agit pas simplement d’attribuer à chaque étoile son
meilleur patron possible. Lors du calcul des patrons, les étoiles étaient prises
en compte indépendamment les unes des autres. Mais en fait, les contaminants
d’une cible sont souvent eux-mêmes des cibles. N’ayant pas la possibilité de se
chevaucher leurs patrons peuvent se trouver en conflit. Ce sont des situations
qu’il faut gérer, les “collisions”, interdites pour des raisons techniques, pouvant
aboutir à un rejet pur et simple de certaines cibles potentielles.

Pour cette optimisation nous nous trouvons à nouveau devant le dilemme de


devoir arbitrer entre qualité et quantité de l’information disponible sur les CCDs.
Ce besoin d’optimisation est cependant plus simple à gérer que précédemment
(cf. §6.7.1). Les deux antagonistes sont ici le S/B individuel qui augmente avec
la surface du patron (donc son encombrement) et le nombre d’étoiles rejetées à
cause des collisions.

Après avoir testé les deux alternatives opposées sous la forme d’une procédure
privilégiant le S/B individuel et d’une autre réduisant la surface des ouvertures,
j’ai mis au point une méthode très simple qui résout le dilemme de manière
avantageuse. Elle consiste en une attribution itérative suivant la priorité des
S/B , combinée à un repêchage “équitable” en cas de collision. Cette solution
évite d’avoir à choisir un compromis car elle se révèle supérieure aux deux
autres possibilités, chacune sur son terrain de prédilection. C’est-à-dire que
le S/B total est supérieur à celui obtenu par la procédure orientée S/B et le
nombre de cibles retenues est plus grand qu’avec la procédure qui réduit la surface.

95
96 Attribution des patrons sur une image complète

Dans la suite, le terme fenêtre désignera un patron positionné sur une étoile.
Il y a donc 250 patrons et 12 000 fenêtres. Les contraintes techniques sont les
suivantes :

Collisions : deux fenêtres ne doivent avoir aucun pixel en commun ;


Colonne inerte : aucune fenêtre ne doit chevaucher l’inter-colonne centrale si-
tuée entre les colonnes 1024 et 1025 du CCD (en commençant à 1), à cause
de contraintes propres à l’électronique de mesure ;
Bordures : les fenêtres ne doivent pas “mordre” au delà du bord externe du
CCD ;
Saturations : on s’interdit de placer une fenêtre sur les traı̂nées de saturation,
impropres à la mesure.
L’algorithme mis au point étant destiné à être intégré dans une chaı̂ne opé-
rationnelle facile à gérer, il a également fallu soigner sa réalisation et le rendre
simple. Pour cela je l’ai épuré et rationnalisé en cloisonnant les flux de données
et en centralisant les données d’interface. L’algorithme est également documenté
et produit des comptes rendus d’éxécution.

7.1 Méthodes testées


Les étapes d’attribution sont les mêmes quelle que soit la méthode utilisée.
Elles procèdent par champ d’un CCD complet contenant 6 000 cibles. Les cibles
désignées ne sont à ce stade que des candidats. Pour en retenir 6 000 par CCD,
il faut en disposer d’environ 15% de plus. Voici le schéma commun :

– Les données d’entrée sont la collection de patrons, la PSF de chaque cible,


une imagette de sa contamination, l’image du champ complet incluant l’in-
terpénétration des cibles, les saturations et le traı̂nage,
– on calcule une matrice signal à bruit des 250 patrons disponibles appliqués
aux > 6 000 cibles,
– les étoiles sont classées par ordre de S/B ,
– la boucle d’affectation est au coeur de la méthode. Sa description figure plus
bas,
– les données de sortie sont les positions et patrons des fenêtres, ainsi que
des informations complémentaires destinées à la détection des transits.

Voici les deux boucles d’affectation de spécificité opposées utilisées initiale-


ment.
Méthode 1 : elle est séquentielle, orientée S/B . Les étoiles sont affectées par
ordre de S/B décroissant. Chacune reçoit son meilleur patron possible. En
7.2 Méthode choisie 97

cas de collision, on passe à la suivante. L’étoile est donc perdue, au profit


de sa rivale déjà en place qui offre un meilleur S/B .
Méthode 2 : elle est séquentielle, orientée S/B avec compromis de surface.
Les étoiles sont affectées dans le même ordre que précédemment, mais ne
reçoivent pas leur meilleur patron. Elles reçoivent le plus petit des patron
qui leur cause 6 5% de perte (seuil ajustable). Les fenêtres étant plus pe-
tites, le CCD en contient davantage.

Les défauts de l’une et l’autre de ces techniques sont qu’il reste souvent 6 6000
cibles retenues, parfois privées d’étoiles dont le potentiel en S/B était pourtant
intéressant, ou bien que le S/B est systématiquement diminué.

7.2 Méthode choisie


Chacune des méthodes précédentes donne un résultat sous forme d’un couple
{q1 , n1 } (resp. {q2 , n2 }), où q est le S/B total et n ne nombre de cibles retenues.
q et n évoluent en sens contraire : q1 > q2 et n1 < n2 . On ne peut donc pas dire
objectivement quelle méthode est supérieure à l’autre. Dans de tels cas on est
en général contraint de relier q et n par classement, pondération, seuil ou toute
autre classe d’équivalence pour se ramener à un critère unique. Mais ce choix
comporte une part d’arbitraire.

La seule manière de départager en toute objectivité est de trouver une


méthode dont le résultat {q3 , n3 } satisfasse à la fois q3 > q1 et n3 > n2 . C’est ce
que réalise la méthode mise au point, que l’on qualifie d’ “itérative avec repêchage
équitable”. Son principe est simple : en l’absence de collision une étoile reçoit
son meilleur patron, de même que dans la méthode orientée S/B . Mais en cas de
collision elle n’est pas éliminées tant que son S/B potentiel reste intéressant. On
exploite pour cela la forme du patron grâce à un algorithme itératif qui conserve
une combinatoire réduite.

Le fonctionnement est très simple. C’est une gestion de file d’attente (voir Fig.
7.1). Les étoiles sont rangées par ordre de S/B décroissant tous patrons confondus.
La première étoile reçoit son meilleur patron (donc le même qu’avec la méthode
1). Puis la seconde etc.. Lors d’une collision, l’étoile est privée de ce patron. Son
S/B potentiel est recalculé avec les patrons restants et elle est réinsérée en file
d’attente au rang correspondant. Ainsi les étoiles qui conservent un bon S/B
potentiel même une fois dégradé, sont réessayées en priorité. C’est en cela que
le “repêchage” est dit “équitable”. C’est seulement quand tous ses patrons sont
épuisés qu’une cible est éliminée ; mais à ce stade elle est déjà fortement dégradée.
98 Attribution des patrons sur une image complète

Les étoiles sont classées et affectées par L’étoile est replacée dans la file d’attente
ordre S/B décroissant. Si une étoile col- au rang qui lui correspond à son nouveau
lisionne, elle est privée de son meilleur “meilleur S/B ”. L’affectation se poursuit
patron. La colonne grisée représente le en reprenant le processus là où il s’était
meilleur S/B de cette étoile avec les pa- interrompu.
trons restants.

Fig. 7.1 – Attribution priorité S/B avec repêchage

Les résultats des trois méthodes sont comparés table 7.1. La méthode itérative
conserve le même S/B individuel sur toutes les cibles que la méthode 1 a retenu
aussi. Elle permet en plus de distribuer des patrons supplémentaires avec un bon
niveau de S/B . Le nombre d’étoiles perdues se limite à 10% et il s’agit des moins
intéressantes. Un examen plus précis montre que les cibles perdues peuvent être :
(a) des cibles recouvertes par le patron de cibles plus brillantes, (b) des cibles en
contact avec une étoile brillante ou avec la bordure du CCD (masques interdits).
Ces cas ne posent pas vraiment problème. Les premières sont en général très
contaminées, les secondes perdent une part importante de leur flux qui, sommé
dans la fenêtre de leur voisine, ne pourra pas en être distingué.

Pour vérifier cette analyse sur tous les cas nous avons ajouté quelques masques
qualifiés “de sauvetage”, parce qu’ils sont dessinés pour tester les cas spécifiques
précédents sans souci du S/B . Ils ont la forme d’une pixel unique ou d’un
disque plein évidée d’un secteur de 25%. Les étoiles restantes ont alors toutes
trouvé un patron, ce qui confirme que leur précédente élimination était due à la
géométrie du champ, et que la procédure ne laisse pas perdre d’étoile intéressante.

7.3 Résultat
Nous avons comparé les méthodes sur une champ-test qui compte 5 193
cibles candidates. Le résultat se trouve table 7.1. La méthode 1 orientée S/B perd
1 000 cibles mais les cibles restantes conservent leur meilleur niveau de S/B . En
réduisant la taille des fenêtres, la méthode 2 affecte 200 cibles supplémentaires
7.3 Résultat 99

au prix de 3% de S/B perdu. La méthode 3 conserve au moins les mêmes cibles


que la méthode 1 avec un S/B égal, mais en plus elle regagne 200 cibles sur la
méthode 2 et à moindre perte.

Tab. 7.1 – Comparaison des méthodes. Le S/B de la méthode 1 est la référence utilisée
pour faire la comparaison.

Méthode 1 2 3
Priorité S/B n cibles S/B itérative
fenêtres 4100 4300 4573
ratio S/B -0% -3% -0% (les brillantes)
(référence) 6 -1% la plupart des autres

La table 7.2 présente le résultat d’une affectation pour un champ encombré du


centre galactique. Les 7225 étoiles candidates sont plus nombreuses que les 6 000
cibles possibles. On voit qu’avec une réserve de candidat, la procédure produit
95% des courbes de lumière qui perdront < 10% de S/B par rapport à leur meilleur
patron possible. L’autre avantage est que la perte reste cantonnée aux étoiles qui
avaient déjà une carence de S/B .

Tab. 7.2 – Extrait du compte rendu d’exécution du programme d’affectation joué sur
un champ de 7 225 candidates du centre galactique. Il indique le potentiel en étoiles et
en S/B , le nombre de cibles affectées avec différents taux de perte, et la surface totale
couverte par les fenêtres.

; affecting windows to stars Tue Apr 26 11 :00 :20 2005


; computing sn and reordering affectations Tue Apr 26 11 :00 :22 2005
; potential : 7225 stars , 1.120E+06 total sn
; affected targets : 5563, with sn loss <1% of best
; 175, with 90%<sn<=99% of best
; 194, with 50%<sn<=90% of best
; unaffected or lost > 50% sn : 68,
; masks area ratio : 11.5%

La table 7.3 montre sur un exemple que la stratégie d’affectation parvient à


préserver préférentiellement les étoiles de S/B > 100 (sur 8.5 min) qui reçoivent
presque toutes leur meilleur patron possible. Elle reste très efficace dans les
tranches inférieures où plus de 96% des étoiles de S/B > 40 ne subissent aucun
dommage. L’ essentiel de l’effet des collisions est absorbé par les étoiles faibles
S/B < 25. Au total plus de 90% des 6 000 canaux ont reçu une étoile.
100 Attribution des patrons sur une image complète

Tab. 7.3 – Taux de préservation du S/B en fonction S/B pour la plupart des 5 564
étoiles attribuées d’un champ du centre galactique.

S/B 398.1 251.2 158.5 100.0 63.1 39.8 25.1 15.8


τ
40.% 0 0 0 0 1 1 3 6
50.% 0 0 0 0 1 2 10 18
63.% 0 0 2 2 3 10 29 38
79.% 0 2 0 7 27 42 74 40
100.% 72 210 411 715 1083 1513 892 171

La table 7.4 montre l’effet cumulé de la réduction et de l’attribution. On voit


que les étoiles plus brillantes que mV = 14 ont des S/B relativement regroupés,
signe d’une bonne préservation à travers les procédures. Pour mV > 14, l’étale-
ment des S/B reflète de la priorité inférieure de ces étoiles à travers les différentes
étapes. Elles servent en quelque sorte de “régulateur” pour préserver les meilleures
candidates.

Tab. 7.4 – S/B sur 8.5 min en fonction de la magnitude pour la même attribution que
la figure.7.3.

mV 11.5 12.0 12.5 13.0 13.5 14.0 14.5 15.0 15.5


S/B
15.8 0 1 1 4 2 6 16 56 188
25.1 0 0 1 1 8 15 49 167 768
39.8 0 0 5 8 11 45 160 614 728
63.1 0 1 4 9 40 171 507 347 38
100.0 0 6 7 40 191 356 113 11 0
158.5 2 6 53 169 150 27 4 1 0
251.2 4 43 101 55 8 1 0 0 0
398.1 22 35 8 1 1 0 0 0 0
631.0 3 1 0 0 0 0 0 0 0

7.4 Double critère de priorité


Il est nécessaire de prendre en compte un deuxième critère de priorité S basé
sur le seul intérêt scientifique des cibles. S n’est pas figé à ce jour mais nous
devons gérer le cas où il entre en conflit avec le S/B . Pour illustrer ce point,
7.4 Double critère de priorité 101

on supposera qu’on souhaite pour des raisons scientifiques faire la photométrie


précise d’une étoile donnée (par exemple une étoile chaude) mais qu’elle est
contaminée et que son patron empiète sur celui d’une autre étoile, celle-ci
brillante avec un fort S/B . Ici encore, tant qu’on n’a pas de correspondance entre
le critère S et le S/B , on ne sait pas en général résoudre le problème de façon
automatique. Nous verrons qu’en pratique, s’il existe un lien même ténu entre
les deux critères, l’attribution selon S× q (la simple multiplication) donne un
résultat très satisfaisant. Il permet en outre de disposer du logiciel, sans devoir
attendre que S soit décidé.

S peut être une classe de magnitudes, une contamination maximale autorisée


ou une classe de luminosité qui préside au diamètre de l’étoile. Ces critères ne
co-évoluent pas de manière nette avec le S/B . La Fig. 7.2 illustre ce fait dans le
cas de la contamination.

Fig. 7.2 – Rapport signal à bruit en fonction du taux de contamination pour une gamme
de magnitudes donnée. Bien que le lien soit évident le S/B peut varier du simple au
double pour une contamination donnée.

On peut résoudre complètement le problème dans le cas trivial d’une priorité


S et d’un S/B tous deux booléens. Ecrivons la table de vérité du comportement
à adopter en cas de collision (Tab. 7.5).

On reconnaı̂t la table de la fonction “ET” logique, la priorité est donc dans ce


cas une multiplication Booléenne :

PBool = S.q
102 Attribution des patrons sur une image complète

Tab. 7.5 – Table de vérité à double entrée S × q. La sortie 1 indique la décision :


l’étoile candidate est conservée comme cible.
1 0 1
S
0 0 0
0 1
rsb

Cette règle reste intuitivement valable pour la multiplication entre nombres réels,
dans le cas de priorités continues, dès lors que les distributions sont fortement
piquées autour de 0 et de 1. En effet il est souhaitable que les étoiles de grand
intérêt scientifique et de fort S/B soient attribuées en priorité.

Voyons si l’on peut généraliser cette solution à toutes les distributions de


priorités. Envisageons pour cela quatre cas réalistes :

H0 : Hypothèse de référence S = 1 : la seule priorité est le S/B , c’est le cas


actuel ;
H1 : Priorités booléennes : les étoiles contaminées à plus de 10% sont simplement
éliminées des cibles,
H2 : Priorités discrètes : on supposera des tranches de magnitudes assorties des
priorités scientifiques suivantes :

mV 6 14 ⇒ S = 3/3
mV 6 15 ⇒ S = 2/3
mV 6 16 ⇒ S = 1/3
mV > 16 ⇒ S =0

H3 : Priorités continues : La priorité décroı̂t quand le diamètre de l’étoile


augmente afin de donner un équivalent des ∆F/F des transits en termes
de rayon des planètes.

Les résultats sont présentés dans la table 7.6. Pour des raisons techniques,
H3 n’a pas été testée mais les autres cas sont suffisants pour juger.

Les résultats sont très voisins, quoique légèrement moins bons pour H1 et
H2. Les étoiles ayant perdu leur S/B optimal se retrouvent pour la plupart
rétrogradées dans la bande des −10% à −50%. Ceci n’a rien de surprenant, en
effet (pour H1) on les classe suivant la contamination et on les mesure suivant
le S/B . L’effet individuel de H1 sur les étoiles est présenté figure 7.3. Les pics
7.4 Double critère de priorité 103

Tab. 7.6 – Comparatif des différentes hypothèses H0, H1, H2. Nombre de cibles af-
fectées qui perdent respectivement moins de 1%, 10% et 50% de leur S/B nominal

∆ S/B H0 H1 H2 H3
6 1% 5 753 5 723 5 686
6 10% 130 124 137
6 50% 114 140 168
> 50% (≡ perdue) 3 13 9

négatifs et les zéros sont les étoiles ayant perdu du S/B ou ayant cédé leur place.
L’élément important est que l’impact de H 6= H0 reste cantonné aux étoiles
faibles.

Fig. 7.3 – Effet individuel de H1. Les étoiles affectées sous H0 sont classées par S/B
décroissant. Elles sont ensuite réaffectées suivant H1 et superposées en suivant le même
classement.

On constante l’apparition d’un pic positif pour une étoile (désignons la par
’X’) en position 1 400. Ceci peut paraı̂tre surprenant en effet, comment une étoile
peut-elle doubler son S/B simplement quand on en exclut d’autres plus mineures
qu’elle (avec H1) ? L’explication tient au fait que, pour des raisons pratiques
nous n’avons pas éliminé complètement les étoiles, mais leur avons donné une
priorité négligeable. On voit figure 7.4 que sous H0 le masque de X est bloqué par
une étoile ’Y’ qui présente un S/B supérieur malgré une contamination dépassant
10%. Sous H1, l’étoile Y se trouve rejetée en fin de classement et la fenêtre de
’X’ peut s’étendre. On en voit la contrepartie sous forme d’un pic négatif pour
Y visible dans les forts S/B près de l’origine. C’est la conservation d’une priorité
104 Attribution des patrons sur une image complète

minuscule qui fait que peu d’étoiles sont absentes avec H1, sinon Y aurait été
perdue. Le bilan est donc défavorable à H1, ce qui est logique puisque la métrique
qui fixe les priorités d’affectation (contamination) est différente de celle utilisée
pour la mesure de la performance (S/B ).

Fig. 7.4 – Vue locale de la collision entre l’étoile 1 400 marquée d’un ’X’ et une étoile
de fort S/B mais contaminée ’Y’. Sous H0 (à gauche) Y bloque logiquement X, mais
sous H1 (à droite) Y est rejetée en fin d’affectation.

Il en va du même genre de scénario pour H2. Les variations brutales d’une


priorité discrétisée ne changent rien à l’affectation car le S/B est fortement lié à
la magnitude. Les exception sont les rares cas de collision impliquant des étoiles
à la frontière de deux classes.

En conclusion une priorité à double critère S et S/B produit peu d’effet. Pour
que celui-ci se fasse sentir il faut : 1) qu’il y ait collision (moins de 20% des cas),
2) que cette collision concerne des étoiles de S/B voisin, ce qui est très rare pour
les étoiles fortes qui sont peu nombreuses. 3) même dans ce cas, si les critères
sont liés le résultat sera souvent le même qu’avec le seul S/B . Notre priorité
mixte PBool = S.q répond donc bien à la question et permettra des changements
ultérieurs dans le choix des priorités scientifiques sans nécessité de retouche.

7.5 Données destinées à la détection des transits


Lors de l’attribution, le programme est amené à séparer dans chaque fenêtre
les photons de l’étoile de ceux des contaminants. La fraction de PSF fj (i) de
l’étoile i dans la fenêtre j est connue, quelles que soient i et j ; on stocke cette
information intermédiaire afin de la rendre disponible pour la détection des
transits. En voici deux utilisations éventuelles :
7.5 Données destinées à la détection des transits 105

1. Décontamination. En cas de chevauchement entre les PSFs d’une cibles 1


et d’une cible 2, une partie du flux de l’étoile 2 est incorporé dans la fenêtre
de l’étoile 1. L’activité stellaire de 2 polluera donc l’étoile 1. Pour corriger
cette pollution dans la courbe de lumière de la fenêtre 1 (f1 ), il faut en
retrancher f1 (2). Mais au sol on ne connaı̂tra pas le flux de l’étoile 2. On
sait simplement qu’il domine sa propre courbe de lumière f (2). On utilisera
donc l’approximation suivante :

f1 (2)
s1 = f (1) − f (2)
f2 (2)
où s1 est le signal corrigé. On pourra donc à l’aide de ces informations
atténuer dans une courbe de lumière, la part de contamination imputable
aux étoiles des courbes voisines.
2. Localisation d’une source : Supposons qu’on détecte un candidat transit
dans la fenêtre j. Un problème important est de s’assurer qu’il ne provient
pas de l’éclipse de l’une des étoile de fond qui serait binaire. On utilise
l’information spectrale fournie par le prisme comme information spatiale
de nature à faciliter la discrimination entre un transit sur la cible et une
éclipses d’arrière plan. On dispose des fj (i) de toutes les étoiles i de la
fenêtre. Les fenêtres sont dissociées en 3 canaux r, v, b. Considérons un tran-
sit hr , hv , hb observé dans les trois courbes correspondantes. Les écarts-type
de ces courbes sont σr , σv , σb (hors transit). Plusieurs étoiles de la fenêtre
peuvent être suspectées d’avoir donné naissance à h si elles sont binaires à
éclipse. Pour chaque étoile i on fabrique l’indicateur :

 2  2  2
fr (i) fv (i) fb (i)
hr − h̃. hv − h̃. hb − h̃.
fr fv fb
χ2i = 1/3. 2
+ 2
+ 2
σr σv σb

h̃ est le ∆F/F inconnu à l’origine de l’événement observé. fr , fv , fb sont


les flux totaux des bandes rouge, verte et bleue. Un χ2i faible indique une
forte probabilité pour l’étoile i d’être à l’origine de l’événement observé.
On range χ2i calculé pour toutes les étoiles de la fenêtre dans une table
(voir Fig. 7.5).

La probabilité pour une étoile donnée de mimer l’événement observé est


maximale quand le pic est haut. Plus le pic est pointu, meilleure est l’es-
timation du responsable et son ∆F/F . La cible est un candidat comme
un autre. La gamme des ∆F/F commence à 10−4 pour un transit sur la
cible, et augmente jusqu’à 50%, pour l’ éclipse de plein fouet d’une étoile de
fond. La table peut servir à déterminer l’origine d’une observation si le pic
106 Attribution des patrons sur une image complète

Fig. 7.5 – Inverses du χ2 pour chaque étoile de la fenêtre et pour différents niveau
d’occultation h̃. L’un des point est à l’origine de l’événement observé.

est haut, ou simplement à éliminer les étoiles et amplitudes étrangères au


phénomène quand aucun pic ne se distingue. Dans ce dernier cas on préfère
l’indicateur  2
fq
hq − h̃.
02 f
χ = max 2
q={r,v,b} σq
qui présentera des creux plus marqués dès qu’une couleur sera incompatible
avec la couleur de l’observé.

Pour finir, les PSFs ne se limitent pas aux frontières d’un seule fenêtre.
On pourrait aller chercher de l’information dans les fenêtres voisines en ne
considérant plus des couleurs mais des cannaux indifférenciés. Pour l’étoile
i:  2
fj (i)
X hj − h̃. fj
2
χi = 1/n
j
σj2

Où j désigne tout canal ayant une source de photons commune avec ceux
où le transit à été observé. Cette technique n’a pas encore été quantifiée à
l’heure actuelle.

Afin de préciser la magnitude des étoiles de fond dont les éclipses seraient
gênantes, on a simulé figure 7.6 des éclipses de plein fouet dans chacune des
fenêtres d’un champ du centre galactique. Les points sont les plus petits
transits détectables sur la cible, les lignes obliques sont les profondeurs de
transit que mimerait une étoile binaire située prés de la cible. On voit que
les éclipses d’étoiles de fond plus brillantes que mV = 20 seront toujours
7.6 Conclusion et perspectives pour le fenêtrage 107

visibles. Celles d’étoiles mV = 21 deviennent gênantes pour des cibles


plus faibles que mV = 13.5, et les étoiles de fond mV > 22 se sont jamais
détectables.

Fig. 7.6 – Détectabilité des étoiles de fond binaires à éclipses. L’affectation à eu


lieu pour un champ de l’anticentre galactique. Les étoiles sont classées par magni-
tude. Chaque point du nuage supérieur est la taille du plus petit transit détectable, en
lui supposant une amplitude ∆F > 2σ sur une heure. Ces valeurs tiennent compte
de la contamination, des bruits de photon, des bruits électroniques, du jitter et de la
respiration. Le nuage inférieur ne considère que le bruit photonique de la cible et sa
contamination. Les lignes obliques sont les transits équivalents pour des éclipses de
plein fouet d’étoiles de fond située dans le même pixel que la cible. Le trait pointillé
horizontal est le transit à 10−3 .

7.6 Conclusion et perspectives pour le fenêtrage


Les procédures de réduction et d’affectation sont maı̂trisées et donnent de
bons résultats avec les PSFs théoriques. En aval de toutes ces procédures, les
étoiles perdent rarement plus de quelques pour cent du S/B qu’elles auraient si
elle étaient des cibles isolées munies de leur masque optimal.

Ces résultats sont obtenus pour des PSFs théoriques connues avec la précision
nécessaire. L’étape suivante consiste à savoir préserver ces performances avec les
108 Attribution des patrons sur une image complète

PSFs réelles de Corot en vol. Ces PSFs vont différer des PSFs théoriques car elles
découleront de mesures effectuées à partir d’une image prise en vol. Sur une telle
image, on ne peut pas séparer avec précision les cibles de leur contamination. Il
s’ensuit que la précision des PSFs déduites sera très limitée ; on parle de plus de
20% d’erreur à l’endroit du pic de la PSF. Il faudra donc être capable de calculer
des masques optimaux, de savoir les réduire et les affecter en dépit d’un S/B peu
précis.

Deux éléments devraient cependant jouer un rôle dans la résolution de ce


problème :
– Tout d’abord ce sont les PSFs des étoiles faibles qui seront connues avec
le moins de précision, or on a vu que ces étoiles étaient justement les plus
tolérantes aux masques peu adaptés ;
– Ensuite, la connaissance précise du flux total dans chaque pixel permettra
tout de même de connaı̂tre deux des trois termes de bruits intervenant dans
le S/B : le bruit photonique et le jitter. Il ne restera qu’un nombre limité
d’hypothèses à faire quant à la valeur du flux de l’étoile.
Le nombre d’hypothèses à faire s’en trouve donc limité.
Deuxième partie

Détection des transits dans les


courbes de lumière

109
Chapitre 8

Énoncé des contraintes.

Le but recherché est de détecter les plus petits transits possibles dans
12 000 courbes de lumière contenant plusieurs types de bruit tout en évitant au
maximum les fausses détections.

La détection doit être adaptée aux bruits de diverses natures, aléatoire (bruit
de photons), stellaire (activité), environnemental (résidus de lumière diffusée) ou
technique (impacts de protons, jitter ou respiration résiduelle).

Il faut également être en mesure de distinguer les transits détectés des


événements d’une autre nature, notamment les éclipses d’étoiles doubles ou
triples situées en arrière plan, les taches sombres sur une étoile en rotation, etc. . .

En dépit des différents types de bruit, il faut parvenir à estimer avec précision
l’amplitude ∆f /f , la durée et la période des transits,

On pourra également exploiter l’information des trois bandes colorées r, v, b


qui est présente dans environ 10 000 des courbes,

L’algorithme de détection doit également s’accommoder des données man-


quantes, dues notamment aux impacts de rayons cosmiques sur le CCD lors du
survol de l’anomalie magnétique de l’Atlantique Sud (SAA), au dépointage lors
de la rotation des panneaux solaires, aux calibrations ou encore aux opérations
de maintenance.

On essaiera aussi de travailler au fur et à mesure de l’arrivée des données afin


de mettre les événements détectés à disposition le plus tôt possible.

Quand j’ai débuté mon travail sur la détection, les méthodes utilisées
n’avaient pas encore exploité la multiplicité des courbes de lumière, qui est un

111
112 Énoncé des contraintes.

avantage spécifique de Corot . J’ai montré dans le cadre d’un test en aveugle que
l’on pouvait améliorer les capacités de détection par recoupement des différentes
courbes. La statistique permet de reconnaı̂tre parmi le bruit des variations qui
sont en fait déterministes. J’ai utilisé un algorithme de détection simple dérivant
du “filtrage adapté”, pour tester plusieurs façons de déceler et d’exploiter ces
déterminismes communs. En procédant par pondération des artefacts synchrones,
on fait émerger du continuum 80% d’événements supplémentaires par rapport à
la détection simple.

En dépit de la simplicité du détecteur utilisé, le résultat s’inscrit dans la


moyenne de ceux des autres équipes participantes au test en aveugle attestant
de l’intérêt d’une approche collective du débruitage.

8.1 Introduction
Depuis l’espace, Corot transmettra les données de 60 000 étoiles mesurées
toutes les 8,5 min dans des conditions identiques et pendant 150 jours. Corot est
dimensionné pour conserver une précision σ = 7.10−4 jusqu’à la magnitude 15.5.
Avant de pouvoir être exploitées par les algorithmes de détection, les courbes
de lumière sont prétraitées par un pipeline de données qui les calibre et les
débarrasse des effets instrumentaux et environnementaux connus tel le jitter,
la lumière diffusée, les impacts de particules ionisantes, etc . . .Les algorithmes
de détection interviennent après cette étape. Pour détecter les planètes les plus
petites, ces algorithmes doivent exploiter au maximum l’information disponible
sur le signal et sur le bruit.

Le problème de la détection d’un signal donné dans un environnement


bruité est un des problèmes de base du traitement du signal. La spécificité de
la détection des transits planétaires est qu’on cherche à la fois une forme et
une période. On peut chercher les transits dans l’espace direct en comparant
la courbe temporelle avec une référence de transit, on peut aussi prospecter
dans l’espace des fréquences car ce sont les seuls signaux ponctuels parfaitement
périodiques. La difficulté est de combiner ces deux indications en un critère de
détection unique.

8.2 Les méthodes de détection


Plusieurs méthodes sont proposées pour la détection. Certaines recherchent
un gabarit dans le signal temporel, d’autres combinent forme et fréquence.
8.2 Les méthodes de détection 113

Mais aucune méthode efficace n’est basée sur l’analyse de Fourier. En effet,
les transits sont des événements brefs, leur faible énergie se répand donc
dans une large gamme de fréquences dont aucune n’a tendance à émerger
du bruit. Comme l’explique Bordé (2003) seul ' 7% de l’énergie d’un transit
de durée analogue à celui de HD 209458 b se trouve à la fréquence du fondamental.

La méthode de corrélation est la méthode la plus classique. Elle est optimale au


sens du maximum de vraisemblance pour un signal en présence de bruit Gaussien
additif non corrélé. Il s’agit de calculer la valeur de la corrélation :
X
ρ= s(t)x(∆f, d, T, t + φ)
t

entre le signal observé s(t) où t est un temps discret, et un gabarit multi-transit
de référence de même longueur à quatre paramètres x(∆f, d, T, φ), ∆f étant la
profondeur, d la durée, T la période et φ la phase à tester. Il s’agit d’essayer
toutes les valeurs possibles de ∆f, d, T, φ, le jeu le plus probable étant celui qui
maximise ρ. On voit que le nombre des combinaisons est très élevé, mais on peut
le réduire par les considérations suivantes :

– ∆f n’a pas besoin de varier, la multiplication par une constante ne change


pas les valeurs optimales pour les autres paramètres, on choisit donc ∆f = 1,
– On calcule la corrélation pour toutes les valeurs de φ en une seule opération
à l’aide de la transformée de Fourier discrète (TFD). En effet, la TFD de
la corrélation vue comme une fonction de la variable φ peut s’écrire :
" #
X
TF D s(t), x(t + φ) = S ∗ .X (8.1)
t

où S, resp. X sont les transformées de s, resp. x, et ∗ désigne le complexe


conjugué. La phase optimale φ̃ est donc la phase qui maximise :

TF D−1 (S ∗ .X).

– La quantité de calculs se trouve réduite pour les autres paramètres ce qui


permet d’utiliser un maillage suffisamment serré pour d et T , après avoir
contrôlé que les pics de détection tolèrent la largeur de maille souhaitée.

Cette méthode n’est optimale que dans le cas Gaussien, mais un filtrage
préalable des courbes de lumière permet d’atténuer les bruits trop éloignés de
cette hypothèse. Cette méthode est fréquemment nommée “filtre adapté”, duquel
elle n’est en fait qu’un cas particulier (Defaÿ 2001).
114 Énoncé des contraintes.

Dans le cas où chaque point possède son propre écart-type σ(t), le filtre
adapté s’écrit :
X s(t)x(t)
ρ= .
t
σ 2 (t)

Le cas le plus général du filtre adapté est optimal pour les bruits corrélés.
Une littérature abondante s’y rapporte (voir par ex. Kay (1998)). Il exploite les
corrélations internes du bruit et s’écrit :
xt R−1 s
ρ= √
st R−1 s

où R−1 est l’inverse de la matrice d’autocorrélation du bruit (supposé centré). On


suppose pour simplifier qu’on peut se ramener au cas où R est inversible. Pour
percevoir le rôle de R, plaçons-nous dans la base orthogonale de ses vecteurs
propres (on a vu au §6.4.3 que R était symétrique, définie et positive). Dans ce
cas R−1 est la matrice
 −2 
σ1 0 ··· 0
−2 .. 
0 σ . 

2
R−1 = 

 .. . .. .. 
 . . 

.. .. −2
. . σn

où σi est à présent l’écart-type suivant le ième vecteur propre. L’expression de ρ


équivaut alors à : P xi s i
σ2
ρ = qP i 2
si
σi2

les xi , resp. si étant les coordonnées de x, resp. s dans cette base. C’est-à-dire
que les entités comparées ne sont plus les points de mesure (qui sont des
quantités interdépendantes), mais leurs combinaisons linéaires (qui elles, sont
indépendantes). Dans notre cas, la difficulté est de choisir une matrice R qui soit
bien représentative du bruit. On peut songer à s’aider d’une classification des
courbes de lumière par types spectraux ou par similitudes du bruit.

Pour les planètes tournant autour d’étoiles doubles analogues à CM draconi,


les conformations de gabarits décrivant les trois corps sont très nombreuses.
Jenkins et al. (1996) a étudié dans ce cas l’usage du filtre adapté.

De leur côté, Deeg et al. (1998) ont pris en compte la variabilité atmosphé-
rique suivant la quantité d’atmosphère traversée en construisant un profil de
8.2 Les méthodes de détection 115

pondération estimé à partir de nombreuses observations.

Suivant une approche différente, la méthode Bayésienne de Defaÿ et al.


(2001) estime la forme du transit à partir de 7 harmoniques. Le fondamental le
plus probable est obtenu par le maximum de vraisemblance. Aigrain & Favata
(2002) utilisent également une approche Bayésienne du problème.

Une autre classe de méthodes combinent de manière constructive le facteur


de forme et de période. Le “Box Least Square” (BLS) proposé par Kovács et al.
(2002) commence par replier la courbe de lumière sur elle même à une période
arbitraire T puis calcule la ressemblance entre la courbe repliée et un transit
de référence choisi rectangulaire. La nouvelle courbe x(t), i = 1, 2, . . . , n est
constituée de super-points regroupant les points initiaux en coı̈ncidence. Un
super-point xi est affecté du poids :
" #−1
σ 2 (t)
w(t) = Pn 2
.
j=1 σ (j)

où σ(t) est l’écart-type des points constitutifs du super-point t. L’utilisation d’un
gabarit rectangulaire permet de calculer L̃ la profondeur optimale du transit,
directement à partir des données ce qui fige l’un des paramètres libres, les autres
étant d, T et φ. L̃ est calculée avec les points internes au transit par :
P
wi xi
L̃ = P
wi
On reconnaı̂t l’expression de leur barycentre. L’algorithme explore l’espace des
paramètres après avoir déterminé le maillage optimal. La ressemblance avec le
gabarit est évaluée par un test de χ2 . Cette méthode à été employée avec succès
dans le cadre de l’expérience OGLE. Tingley (2003b) note une correspondance
de formulation entre le BLS à base de χ2 et le filtre adapté.

Pour leur part, Aigrain & Irwin (2004) utilisent une approche similaire avec
un gabarit en créneau dont ils calculent le χ2 aux courbes repliées. Ils effectuent
un lissage préalable destiné à uniformiser le niveau moyen local de la courbe
avant repliement et utilisent une pondération adéquate des points dont la mesure
ne tombe ni entièrement dans le transit, ni entièrement en dehors.

D’une manière générale, quand les transits deviennent faibles il faut pousser
la sensibilité en modifiant un seuil, pour continuer de les détecter. Mais cette
opération s’accompagne d’une croissance rapide des fausses détections. Les
méthodes évoquées sont d’autant plus efficaces qu’elles opèrent sur des courbes
débruitées. Par exemple les variations à long terme dues à l’activité stellaire
116 Énoncé des contraintes.

peuvent avoir une amplitude supérieure à celle des transits, risquant d’oblitérer
les données dans les courbes repliées.

8.3 Test en aveugle


Afin de préciser les idées quant à la détectivité de Corot , des méthodes
existantes adaptées pour Corot ou développées ad hoc par cinq équipes ont
été comparées dans le cadre d’un test en aveugle. Mis en place par Moutou
et al. (2005), ce test est basé sur 1 000 courbes simulées semblables à celles que
produira Corot . Des événements de nombre et de nature non-révélés ont été
ajoutés dans certaines. Il s’agit de comparer la capacité des différentes méthodes
à détecter de petits transits en évitant les fausses détections, et d’évaluer l’impact
de la variabilité stellaire et des étoiles de fond binaires à éclipses.

8.3.1 Les données de simulation


Les courbes ont été produites à l’aide d’un simulateur d’instrument. Elles
incluent la micro-variabilité stellaire, et quelques dizaines de transits planétaires
et stellaires. Les algorithmes se révèlent d’efficacité différentes, tant pour détecter
les transits que pour éviter les fausses détections. Le test souligne également
l’importance du “débruitage” des courbes. Ce sont les algorithmes à base de
repliement temporel qui se comportent le mieux. Les fausses détections sont
différentes entre les méthodes mais pas les vraies, ce qui favorise leur discrimina-
tion.

Voici une liste des bruits inclus dans la simulation et qui n’ont pas été
divulgués durant le test, ainsi que les techniques possibles pour s’en affranchir :

– Le bruit de photon d’écart-type F . Il suit une loi quasi-Gaussienne.

Moyenner n échantillons réduit l’écart-type d’un facteur n et équivaut à
un temps de pose n fois plus long. Mais cette opération peut déformer le
transit ou y incorporer des points anormaux.

– La lumière diffusée par la Terre. Dans cet exercice, elle varie le long de
l’orbite. On en simule une compensation imparfaite par le pipeline à l’aide
d’un profil temporel d’amplitude '0.5 e− /pixel/seconde pondéré d’un
coefficient résiduel aléatoire, positif ou négatif. Ce résidu peut engen-
drer une amplitude maximale de σ/F ' 1% pour une étoile mV = 14 et
un masque de 80 pixels, c’est-à-dire supérieure à l’ordre de certains transits.
8.3 Test en aveugle 117

Les résidus de correction proviennent de l’utilisation de modèles prédictifs


imparfaits. On peut envisager d’affiner le modèle à l’aide des données
sur le long terme. Il en va de même pour la correction du jitter, mais
l’opération est plus complexe car elle dépend d’une PSF en deux dimensions.

– La variabilité stellaire. Elle est injectée de deux façons, soit à partir


de son spectre (Aigrain et al. 2003), soit à l’aide de modèles de zones
actives Lanza et al. (2003). Moins nombreux que les courbes de lumière,
les profils de variabilité sont dilatés et déphasés arbitrairement pour éviter
leur répétition.

Elle peut dans une certaine mesure être modélisée pour en dégager un profil
temporel déterministe comme l’ont fait Lanza et al. (2003) avec succès
pour le Soleil. On peut aussi s’attacher à ses caractéristiques fréquentielles
déterminées par Aigrain et al. (2003), enfin on peut la caractériser de
manière statistique.

– Les impacts de protons. Ils sont très abondants pendant ' 15 min
toutes les 1.7 heures, lors de la traversée de l’anomalie magnétique. Leur
détection par l’électronique de bord est simulée par l’absence des mesures
correspondantes,

Les trous de données qu’ils causent ne sont pas des bruits, mais compliquent
la détection. On peut les interpoler ou utiliser des méthodes de détection
qui les tolèrent. Certains rayons cosmiques de basse énergie échappent à la
détection basée sur un seuil. On peut tout de même déceler l’origine non
lumineuse d’un pic en comparant les trois courbes de lumière d’une fenêtre
colorée.

– On remarque la présence de points fortement excentrés. Ils sont de nature


à induire un biais si on les combine à d’autres points par une opération
linéaire. Ignorant leur origine, on ne peut pas les rectifier à l’aide d’un
modèle. On se contente d’en réduire le nombre par des combinaisons à
base de seuil ou de médiane. La difficulté est qu’on ne sait pas à partir de
quel écart un point doit être considéré comme anormal. En fait ils étaient
simplement dus à la combinaison des autres bruits listés.

– Les bruits non listés sont mineurs. Il s’agit de la non-uniformité de réponse


du CCD (1%), du bruit de lecture (10e− /pixel/seconde) et de la lumière
zodiacale (12e− /pixel/seconde). Ils sont uniformes ou constants, onles
suppose corrigés et on n’en conserve que le bruit de photons.
118 Énoncé des contraintes.

– Le jitter ne fait pas partie de la simulation,

Pour finir, des transits de 1.6R⊕ à 1.3RJ ont été inclus dans certaines
courbes, ainsi que différents autres phénomènes stellaires, étoiles triples, transits
stellaires, binaires rapprochées. Ni leur nature, ni leur nombre et paramètres ou
ceux des bruits n’étaient connus.

La figure 8.1 montre deux exemples de courbes de lumière ainsi simulées,


l’une avec et l’autre sans transit. A long terme les courbes sont dominées par la
variabilité stellaire basse fréquence et le fort écart-type. A une échelle plus brève
d’une dizaine d’orbites, on remarquerait surtout les trous, la lumière diffusée
périodique et les points anormaux. L’ensemble des bruits est souvent d’un ordre
égal ou supérieur à celui des transits potentiels.

° °
Fig. 8.1 – Courbes de lumière brute n 1 (gauche) et n 34 (droite). Seule celle de droite
contient des transits, qui sont parmi les plus visibles.

8.3.2 Les méthodes utilisées


Toutes les méthodes utilisées pour le test en aveugle sauf celle proposée, ont
en commun une phase de filtrage qui précède la détection proprement dite. Le
filtrage sert à débarrasser les courbes de la variabilité stellaire et à les nettoyer
des bruits les plus évidents, pour permettre à l’algorithme de détection de se
focaliser sur les transits.

Les anomalies les plus visibles sont la lumière diffusée et la présence de


données manquantes. Comme le test est organisé en aveugle, l’origine des bruits
8.3 Test en aveugle 119

inclus n’était pas communiquée. Ceci associé au fait que les équipes travaillaient
séparément à conduit à une grande diversité de techniques de filtrage, décrites
dans Moutou et al. (2005). On trouve principalement :

La normalisation : Les courbes peuvent être ramenées à l’échelle des transits


∆f /F en les divisant par F .

Les données manquantes : – Elles sont parfois interpolées linéairement,

– Les trous peuvent aussi être comblés par des procédures de lissage des
points anormaux, filtre médian ou moyenne glissante,

– Dans certains cas, les courbes conservent leurs trous et ce sont les
traitements qui s’adaptent.

La lumière diffusée : – Le plus fréquent est le filtre passe bas car la lumière
diffusée se trouve aux fréquences f > forb . Les filtres utilisés peuvent
être une moyenne glissante, ou un lissage médian itératif alternant avec
la suppression des points éloignés de plus de 3σ ce qui supprime du
même coup les points anormaux.

– Comme l’origine de nombreux bruits est un mouvement circulaire,


l’équipe 3 a ajusté la somme d’harmoniques sinusoı̈daux qui explique au
mieux le signal observé. La fréquence fondamentale de la lumière diffusée
est mesurée à T = 1.7 h. Leur technique s’adresse en même temps à la
variabilité stellaire en utilisant un autre fondamental à T = 300 j. Les
harmoniques de ce dernier sont choisis pour ne pas englober de transit
dans l’ajustement. Le système d’équation surdéterminé est résolu à
l’aide d’une décomposition en valeurs singulières (Press et al. 1997) qui
minimise la distance entre la solution retenue et l’observé. Les données
manquantes ne font simplement pas partie du système d’équation.

– La courbe est repliée à la période T = 1.7 h, lissée pour obtenir le profil


périodique de lumière diffusée (constant dans la simulation mais pas
dans la réalité), puis soustraite,

– On trouve enfin un procédé de sous-échantillonnage suivi d’un ré-


interpolation en lissant indépendamment les parties inférieures et
supérieures de la courbe considérée comme une image à deux dimensions.

La variabilité stellaire : Elle est approximée globalement par un filtre


120 Énoncé des contraintes.

passe-bas, ou bloc par bloc à l’aide d’une droite où d’un polynôme dont
on minimise la distance à la courbe au sens des moindre carrés. Le modèle
réalisé est ensuite soustrait. Pour limiter le risque d’ajuster les transits
en même temps que la variabilité, la taille des blocs (12h-72h) est choisie
supérieure à la durée supposée des transits.

La figure 8.2 montre un exemple de processus de débruitage. En haut, la


courbe est brute ; au centre, les trous sont comblés et un filtre passe-bas à été
appliqué. En bas la variabilité stellaire à été modélisée puis soustraite. On voit
beaucoup mieux apparaı̂tre les transits.

Fig. 8.2 – Haut : courbe brute, les trous ne sont pas visibles à cette échelle. Centre :
courbe filtrée passe-bas (fc ∼ 1.5h). Bas la variabilité modélisée est soustraite.

Les méthodes de détection employées reposent sur le filtre adapté ou le re-


pliements des courbes à des périodes d’essais. Pour plus de détails se référer à
l’article de Moutou et al. (2005) situé en annexe.

8.3.3 Traitement des données manquantes


Des méthodes différentes ont été utilisées pour gérer les données manquantes.
Certains pré-traitements comblent les trous en les interpolant, d’autres non.

Il est à l’évidence plus confortable d’interpoler les données à l’aide par


exemple d’une fonction linéaire, médiane ou cubique de Spline (Press et al.
8.3 Test en aveugle 121

1997). Mais le comblement des trous risque de diluer l’information disponible


dans de l’information factice. En effet, supposons l’interpolation linéaire de deux
point p1 et p3 entourant un trou. L’utilisation du point interpolé p2 = (p1 + p3 )/2
rendra la courbe plus “lisse”, mais ne fera que donner un poids exagéré à p1 et
p3 . Une détection sur une courbe interpolée équivaut à chiffrer la ressemblance
d’un gabarit avec des points qui n’existent pas. En toute rigueur la détection
doit procéder à l’inverse : appauvrir le gabarit des points manquants dans la
courbe et faire la détection avec ce qu’il en reste.

Mais d’un autre côté un échantillonnage régulier et sans trous permet l’accès
à des méthodes éventuellement plus efficaces. Le gain pour la détection peut se
révéler supérieur au biais introduit. Il n’y a pas de règle universelle pour choisir,
cela dépend de la taille des trous, du bruit et de la redondance des données.
Mais si on choisit d’interpoler, la démarche logique est de confirmer après coup
la robustesse des détections en faisant varier les points interpolés.

Dans ce travail nous avons préféré ne pas interpoler car :


– Le nombre de données manquantes peut atteindre 15%,
– ces données sont localement denses, regroupées par intervalles continus de 17
à 25 min pouvant perturber des fréquences de ∼ 45 min qui sont compatibles
avec celles présentes dans les transits.
122 Énoncé des contraintes.
Chapitre 9

La méthode proposée

La méthode que nous proposons montre que l’on peut améliorer la détection
par une caractérisation collective des courbes de lumière d’un même champ. Elle
tire parti du fait que les courbes de lumière de Corot sont nombreuses, acquises
simultanément et dans des conditions identiques.

Dans un premier temps, la détection directe a permi d’identifier 12 événe-


ments. Ensuite l’élimination des caractéristiques communes aux 1 000 courbes
a mis à jour 10 événements supplémentaires. Notre stratégie comporte deux
spécificités : l’algorithme de détection est appliqué en amont du filtrage d’une
part, et de l’autre on utilise l’information disséminée dans l’ensemble des courbes
pour pondérer les artefacts ayant survécu à la détection. Cette méthode est celle
utilisée par l’équipe numéro 1 de l’article de Moutou et al. (2005) en annexe où
elle est décrite à côté des autres méthodes. Elle à également été détaillée dans
une publication à part jointe à la fin de ce chapitre.

Le processus commence par l’application d’un détecteur simple dérivant du


filtrage adapté. Il s’agit du coefficient de corrélation statistique entre chaque
section de la courbe et un transit de référence. Ce détecteur s’adapte au bruit
local et le nombre de paramètres des transits de référence à essayer (aussi appelés
“gabarits”) est réduit. Il produit des courbes de détection temporelles, une par
étoile, dont les pics indiquent la probabilité des transits.

La deuxième étape consiste à supprimer les tendances communes parmi les


courbes de détection. L’identification de ces tendances se fait au moyen d’une
analyse par composantes principales (Press et al. 1997). Seuls sont conservés
les pics de détection qui se démarquent significativement de la tendance commune.

La dernière étape est le contrôle de la périodicité et de la nature des


événements détectés. Le bruit est moyenné par repliement des courbes brutes

123
124 La méthode proposée

après recentrage individuel des événements. L’examen séparé des occurrences


d’indice paires et impaires aide à distinguer les éclipses dissymétriques des étoiles
de fond binaires.

Cette chronologie contraste avec celles des autres méthodes du test en aveugle
parce que la détection y précède tout filtrage pour rehausser préalablement le
contraste des transits recherchés.

9.1 La détection
9.1.1 Définition du débruitage et de la détection
Le filtrage et la détection sont en fait des notions proches. Par exemple la
technique connue sous le nom de “filtre adapté” est en fait une méthode de
détection. Afin d’éviter les confusions voici les définitions préalables que nous
emploierons par la suite :

Le débruitage consiste à utiliser des algorithmes pour réduire le niveau du bruit


d’une courbe de lumière dans le domaine temporel ou fréquentiel. Le résul-
tat du débruitage est une nouvelle courbe de lumière plus douce. Seuls
certains bruits sont bien connus comme le bruit de Poisson, par conséquent
les procédures de filtrage ne peuvent jamais être parfaitement adaptées. On
utilisera indifféremment les termes de débruitage ou de filtrage.
La détection consiste à repérer dans une courbe de lumière les motifs qui res-
semblent le plus aux transits. Le résultat de la détection est une surface
multidimensionnelle ρ(∆f /f, d, T, φ) paramétrée par l’amplitude ∆f /f , de
durée d, la période T et la phase φ des candidats transit. Le détecteur que
nous employons se limite à produire une courbe de corrélation temporelle
ρ(t) de même longueur que la courbe de lumière, qui présente des pics aux
instants où un transit est probable.
Dans ce qui suit, on ne parlera que de “point” ou d’“échantillon”, le terme
“pixel” étant réservé aux images pour éviter toute confusion.

9.1.2 Justification du séquencement inversé


Le signe distinctif de notre méthode est que l’ordre des opérations est inversé
par rapport aux autres méthodes. Nous préférons appliquer la détection sur les
courbes préalablement au débruitage pour plusieurs raisons :
9.1 La détection 125

– L’information la plus précise doit être utilisée la première pour permettre


que le rehaussement du contraste soit maximal. Dans le cas de Corot ,
il s’agit de la forme des transits, de laquelle on possède une description
analytique.

– L’énergie des transits est concentrée en temps, ce qui lui donne plus de
chances de se démarquer du bruit local. Tout filtrage, temporel ou fréquen-
tiel, implique le mélange d’un point avec ses voisins, diluant le transit avec
les échantillons environnants. Pour le vérifier, nous avons appliqué la dé-
tection sur une courbe, avant et après filtrage de la lumière diffusée. Le
filtrage utilise une moyenne glissante à la période orbitale. Ce filtrage est
très efficace contre la lumière diffusée tout en ayant des effets minimes sur
les composantes plus lentes. Nous avons utilisé pour cette détection aussi
bien un gabarit intact que le filtré de ce gabarit par la même transformation
que la courbe. Le résultat pour le gabarit intact est présenté figure 9.1. Les
pics de détection sont plus importants dans le cas de la courbe filtrée, mais
proportionnellement entourés de plus haut pics de bruit. Au final le S/B de
détection, défini par :
ρ(t)
S/B =
σ
où ρ(t) est la hauteur des pics de détection et σ l’écart-type de la courbe
de détection, est dégradé par le filtrage. Seule la détection appliquée sur
la courbe brute permet de distinguer qu’en réalité deux transits distincts
alternés sont présents, signe d’une étoile de fond binaire.

La raison de ce phénomène est que le filtrage dilue le signal de transit avec


d’autres points, et tous les signaux estompés ont tendance à se ressembler.
Dans le domaine fréquentiel, le filtrage coupe les hautes fréquences du
gabarit, dont on a vu qu’elles emportaient une part importante de l’énergie.

– A mesure qu’on veut le rendre plus efficace, les composantes touchées par
le débruitage s’approchent de celles du transit et le dégradent de plus en
plus. C’est d’autant plus vrai que certains bruits étant peu connus, fixer
une limite comporte une part d’arbitraire.

– Une autre raison qui nous incite à ne pas commencer par le débruitage
est qu’il est inutile d’éliminer des courbes initiales les composantes qui le
seront de toute façon par la détection.

– La dernière raison est que le détecteur choisi est insensible aux données
manquantes. Leur seul effet est d’augmenter légèrement le bruit de détec-
tion aux dates des trous.
126 La méthode proposée

1) 2)
Fig. 9.1 – 1) Détection de transit sur une courbe de lumière brute et 2) après filtrage
ciblé de la lumière diffusée. Les pics de détection sont plus hauts après filtrage, mais le
S/B de détection a chuté.

En complément, tout ajout d’un flux correctif distord partiellement le transit


embarqué. En effet, ce flux ne contient aucun photon de l’étoile, alors que le flux
disparu en contenait. Un transit s’en trouvera donc affecté. En toute rigueur il
faut modifier le gabarit en conséquence, mais cet effet reste minime. De plus cet
effet n’existe pas pour les corrections portant sur un excès temporaire de flux qui
lui, est dû à une contamination passagère et peut être retiré.

9.1.3 Détecteur utilisé


Il faut nous doter d’un détecteur simple et efficace. D’après les essais de Tin-
gley (2003b) (qui ne sont toutefois pas faits avec des courbes de Corot ), le filtre
adapté et les méthodes à base de corrélation sont celles qui donnent le meilleur
résultat. Compte tenu de la forme du bruit nous avons choisi un détecteur de
cette famille qui se montre adaptatif au bruit local : le coefficient de corrélation
statistique. On se donne un transit de référence x de longueur n (impaire) et une
courbe de lumière s(t), la courbe de détection temporelle vaut :

x.s(t) − x.s(t)
ρ(t) = (9.1)
σx σs (t)

où la moyenne s(t) et l’écart-type σs (t) portent sur le segment


[t − 21 (n − 1), t + 21 (n − 1)] de s, de longueur n centrée sur t. σx est l’écart-type
p
estimé par x2 − x2 . Le temps t est en réalité un temps discret, c’est-à-dire un
9.1 La détection 127

numéro d’échantillon.

Ce détecteur à plusieurs avantages :

– Il s’adapte au bruit et à l’offset local de la courbe à l’instant t car s(t)


et σs (t) sont recalculés à chaque position, ce qui n’est pas le cas avec la
corrélation qui utilise la transformée de Fourier (cf. 8.1),

– Le détecteur produit une courbe temporelle, ce qui réduit à deux le choix


des paramètres initiaux (∆F, d, T, φ) du gabarit,

– Ce détecteur est sensible à la forme, mais pas au facteur d’échelle en


ordonnée. Le choix du gabarit se résume à un paramètre unique : d,

– La présence d’un trou n’altère pas significativement la détection. On peut


voir ρ comme la mesure du nuage de points statistiques dont l’abscisse est
le flux sur la courbe et l’ordonnée le flux sur le gabarit au même instant.
La présence des trous se traduit par 15% de points en moins sans changer
l’épaisseur du nuage,

– Le résultat est normalisé entre −1 (anticorrélation) et 1 (corrélation


parfaite en l’absence de bruit) ce qui permet de comparer les courbes de
détection ρi (t) entre elles,

– La recherche de la période T et de la phase φ se limite aux pics de détection


qui dépassent un seuil arbitraire, typiquement ρ > 0.7ρmax .

– La puissance de calcul nécessaire est faible. On peut le programmer de


manière optimisée en actualisant les résultats intermédiaires obtenus à la
position t pour trouver ceux de la position t + 1. L’algorithme traite une
courbe de 150 jours en une seconde.

– Cette technique évite de perdre les transits situés aux extrémités de la


courbe : il suffit de ne travailler que sur la partie de gabarit qui reste
superposée à la courbe.

– Enfin, elle se prête bien à un calcul au fils de l’eau à mesure de l’arrivée des
données.
128 La méthode proposée

9.1.4 Modèles de transit


Les modèles de transits vont du plus simple au plus complet. Le transit
élémentaire est un simple créneau carré. Bien qu’approximatif, ce modèle reste
correct pour les transits de plein fouet (équatoriaux) car ils ont une signature
quasiment “à fond plat”. C’est suffisant quand ∆f ne se démarque pas suffi-
samment de σ, l’écart-type de la courbe, car alors l’estimation des paramètres
secondaires est impossible. Son utilisation permet de réduire à deux le nombre
des paramètres car la profondeur ∆f la plus vraisemblable se déduit directement
de la courbe comme l’ont démontré Kovács et al. (2002) et Aigrain & Favata
(2002).

Fig. 9.2 – Transit analytique pour un rayon planétaire r/R? = 0.1. La courbe en trait
plein concerne un disque stellaire uniforme, les autres sont obtenues en incorporant
différents termes de la loi de gradient de la loi d’assombrissement centre-bord. Les
lignes fines à peine discernables des autres montrent l’approximation quand le flux est
constant sous la surface recouverte par la planète.

Les modèles intermédiaires sont le modèle géométrique où un petit disque


planétaire occulte une partie de la surface d’un disque stellaire uniforme, et le
transit en marche d’escalier utilisé par Gregory & Loredo (1992).

Le modèle le plus complet prend en compte à la fois la phase d’immersion


et l’assombrissement graduel du centre vers le limbe de l’étoile. Claret (2000)
a montré que la luminosité d’un point du disque d’une étoile de la séquence
principale suit une loi quadratique en fonction de cos θ, l’angle entre la visée et sa
surface (θ = 0 au centre de l’étoile et θ = 90° au bord). Partant de là, Mandel &
Agol (2002) donnent une formulation analytique du transit d’une planète devant
une telle étoile, dont quelques exemples sont reproduits figure 9.2. Si la planète
9.1 La détection 129

est petite, on peut négliger le gradient de flux sous l’occultation. Ce modèle


fournit le paramètre d’impact et le rapport des rayons quand les conditions de
bruit le permettent.

9.1.5 Gabarit optimal


Le gabarit d’un mono-transit comporte le profil temporel de l’occultation
entouré de deux segments constants quand la planète n’est pas devant l’étoile.
Ses paramètres libres sont la longueur totale n du gabarit, et la durée d du
transit inclus (voir Fig. 9.3). Nous avons conduit des essais de robustesse par
injection de transits sur l’une des 1 000 courbes, qui montrent que deux durées
du transit de référence, 5 h et 10 h au sein d’un gabarit de 27 h, suffisent à
couvrir tous les transits entre 3h et 14h qui seraient contenus dans une courbe.

Fig. 9.3 – Paramètres libres du gabarit.

Il reste encore à déterminer n. Une période de calme où la planète n’est pas
devant l’étoile est indispensable dans le gabarit car elle fait partie intégrante
du phénomène physique étudié. Au sens de la détection, elle permet de calibrer
le bruit local. Nous l’avons vérifié expérimentalement : quand n est réduit à
la seule éclipse, la corrélation du transit est supérieure, mais noyée dans un
bruit de détection important. De nombreuses fluctuations aléatoires de la courbe
ressemblent alors à l’éclipse isolée. Si à l’inverse n est trop grand la corrélation
du transit diminue car le poids de l’éclipse devient faible. D’après la table 9.1,
l’optimum se situe vers d/n ' 70%, d étant la durée totale hors immersion.

9.1.6 Premier résultat


La détection précédente à été appliquée sur les 1 000 courbes de lumière
du test en aveugle. Elle a permis d’identifier 12 événements, certains sont
représentés figure 9.4. Les événements apparaissent avec un rapport signal à
bruit de la détection d’environ 5σ. Sur la courbe 31, la dissymétrie alternative
des événements trahit leur origine de binaire de fond à éclipses.
130 La méthode proposée

Tab. 9.1 – 1) Dissymétrie de la distribution des pics de détection mesurée par son 3ime
moment (skewness), en fonction de la longueur hors transit d du gabarit. La mesure
porte sur une courbe qui contient des transits durant entre 3 h et 14 h. Un 3ime moment
important traduit l’émergence de pics de détection. A son maximum, le pic de détection
culmine à 7σ au-dessus du continuum (cas favorable).

d/n d=5 h d=10 h


0.95 9 '0
0.90 20 2
0.80 18 10
0.60 15 8
0.40 16 7
0.20 '0 3

Fig. 9.4 – Détections d’événements par simple corrélation d’une courbes de lumière
avec un gabarit. L’abscisse des courbes est le numéro de point durant toute la période
d’observation, qui va de 0 à 25 055. En ordonnée de chaque courbe, la valeur du coef-
ficient de corrélation avec le gabarit.
9.2 Le débruitage 131

9.2 Le débruitage
9.2.1 Prépondérance des bruits systématiques
Les méthodes de détection de transit décrites antérieurement au test en
aveugle faisaient état d’un fonctionnement courbe après courbe. Or dans les
courbes de lumière du test en aveugle, le bruit est nettement dominé par des
motifs collectifs aux courbes (voir Fig. 9.5). C’est donc la première des sources
de bruit à traiter pour ouvrir l’accès aux informations plus fines dissimulées dans
le même bruit. Nous allons donc chercher la meilleure manière d’identifier et
d’exploiter les informations collectives.

Fig. 9.5 – Composantes systématiques. Deux courbes de lumières typiques sont repré-
°
sentées. Bien qu’à un degré moindre, on retrouve dans celle du bas (courbe n 5) des
°
structures présentes dans celle du haut (courbe n 1).
.

Nous ouvrons une parenthèse anecdotique pour illustrer par un exemple le


potentiel des méthodes statistiques appliquées à un grand nombre de courbes. Il
s’agit de l’extraction de la clé cryptographique d’une carte à puce par Kocher
et al. (1999), à partir de courbes de consommation de courant temporelles
(quelques dizaines de milliers, comme pour Corot ). Les courbes étaient ac-
quises et de manière synchrone (autre point commun avec Corot ) durant le
132 La méthode proposée

chiffrement. Sa technique (aujourd’hui obsolète) utilisait un test d’hypothèses


très judicieux portant sur 64 valeurs possibles d’une variable intermédiaire
de calcul, directement liée à la valeur d’un fragment de clé. Il parvint ainsi à
isoler le rôle de quelques transistors parmi les dizaines de milliers commutant
pseudo-anarchiquement dans le microprocesseur.

9.2.2 Identification des modes communs


Cette tendance aux modes communs persiste quand on passe des courbes de
lumière aux courbes de détection. Ces dernières ont des airs de famille, marqués
par une décroissance générale du continuum de détection durant les 50 premiers
jours et un pic central marqué, positif ou négatif en milieu d’observation. La
figure 9.6 montre trois exemples représentatifs.

Il peut y avoir deux causes à ces ressemblances :

1. La présence d’une composante déterministe, visible ou cachée par le bruit,


2. La variation simultanée des écarts-type du bruit aléatoire.
Le pic central s’explique finalement par un phasage transitoire entre la
SAA et le pic maximum de lumière diffusée dans cet exercice. Les poses les
plus lumineuses sont systématiquement perdues, faisant brièvement chuter la
moyenne. Ce phénomène apparaı̂t avec presque toutes les méthodes, contraignant
à ignorer les données correspondantes. On verra qu’il est naturellement pris en
compte par notre processus de filtrage, et que rien dans le principe n’interdit la
détection d’un transit centré à cet endroit.

Ces ressemblances sont visibles, mais suggèrent qu’il peut en exister d’autres,
trop faibles pour être flagrantes mais exerçant tout de même une influence sur la
détection. Nous allons les identifier toutes au moyen de statistiques portant sur
la collection complète de courbes.

Un nouvel indice qui plaide en faveur de l’application préalable de la détection


est que la similitude entre les ρi dépend peu de la variabilité stellaire qui se
trouve dans les courbes de lumière. Celle-ci à donc été significativement rejetée
par la détection.

La méthode élémentaire pour isoler une information constante parmi un grand


nombre de courbes bruitées est d’en faire la moyenne, en espérant ainsi faire
apparaı̂tre le profil commun. Considérons le modèle additif suivant :
ρi = si + wi δ + B
9.2 Le débruitage 133

Fig. 9.6 – 3 courbes de détection présentant des motifs communs. On voit distinctement
la persistance d’une tendance. Comme l’atteste le pic central cette tendance peut être
positive, négative, ou à peine décelable.

Où ρi est la ime courbe de détection, si ses transits décorrélés entre les courbes, δ
le motif sous-jacent pondérée affecté d’un poids wi propre à chaque courbe. Enfin
B est le bruit général de moyenne nulle. La moyenne d’ensemble sera alors égale
à :

hρi = 0 + hwi δ + 0
et donc proportionnelle à δ. Mais cette technique ne fonctionne pas avec les
courbes du test aveugle, ce qui fait penser que w est de moyenne faible, voire
nulle. Cette supposition s’est révélée exacte (après le test) car w simule un résidu
de correction imparfaite de la lumière diffusée.

Il faut donc une autre méthode pour identifier δ. On a recours à une Analyse
134 La méthode proposée

en Composantes Principales (PCA) décrite dans l’article de Guterman et al.


(2005). Le δ ainsi identifié est présenté en figure 9.7. On reconnaı̂t le pic central
et les oscillations de début d’observation. L’importance du bruit en début de
détection s’explique donc par un facteur systématique plus important et non un
réel bruit. En fin d’observation, l’amplitude de δ n’est pas négligeable. Un part
du continuum de détection s’avère donc être déterministe. On peut donc espérer
en extraire des informations.

Fig. 9.7 – Composante systématique identifiée par PCA sur 200 courbes de détection.
Le vecteur à été normé. On distingue des stries à la période T = 1.7 h correspondant à
la lumière diffusée. La méthode à donc “appris” la lumière diffusée.

Lors du test aveugle, nous avons commencé par identifier δ à l’aide d’une
technique équivalente1 . Dans cette technique, on part de l’une des courbes choisie
très typée et on la considère comme l’ébauche δ0 de la composante commune.
Cette ébauche est inévitablement biaisée. On la raffine en moyennant toutes
les autres courbes préalablement normées positivement ou négativement pour
égaliser leur composante suivant δ0 . Les biais sont non corrélés et s’annulent
dans la moyenne, laissant l’accès à δ.

9.2.3 Obtention des courbes de vraisemblance


La technique la plus répandue pour supprimer une composante gênante est
de la soustraire après l’avoir convenablement pondérée, pour ne conserver que
1
On peut en trouver les détails sur le site de la 6ème semaine Corot , http ://[Link].u-
[Link]/medoc/cw6/
9.2 Le débruitage 135

les pics de détection informatifs. Le poids w de δ dans une courbe ρ s’obtient


simplement par :
→ −
− →
ρ
w= δ. .
kρk
Mais cette opération n’est pas optimale dans notre cas car :

– Le poids w ainsi obtenu est une constante pour toute la courbe, alors que
la vraie pondération devrait être de la forme w(t). En effet, ρ(t) dépend du
bruit local et donc le même événement situé à deux instants dont les bruits
ambiants sont différents peut produire deux pics différents.
– On n’a pas encore exploité l’information de dispersion des courbes de
détection autour de la composante commune. On l’utilise donc maintenant
pour indiquer le niveau de confiance d’un écart donné.

Dans ce but, on définit l’écart-type instantané des courbes ρi autour de δ :

σ 2 (t) = var(ρ(t) − w.δ(t))

où w est la pondération idéale de δ dans chacune des courbes. On peut à


présent convertir les pics en vraisemblance, c’est-à-dire la probabilité que le pic
ne soit pas dû au bruit dans le modèle Gaussien :

ρi (t) − wi .δ(t)
Li (t) =
σ(t)

La figure 9.8 montre un exemple de l’effet de cette conversion. La courbe de


gauche est une courbe de détection brute, celle de droite est la vraisemblance
correspondante. La conversion fait nettement ressortir les pics de détection. On
observe l’effet régulateur de cette opération : le faux pic central de détection
central à complètement disparu et l’anomalie du continuum des 50 premiers
jours est éliminée, sans avoir eu besoin de les modéliser.

9.2.4 Classification des courbes de lumière


Ceci étant, l’efficacité du procédé varie significativement d’une courbe à
l’autre. Le facteur identifié n’est donc pas commun à toutes. Nous avons supposé
que différents bruits ont été injectés dans différentes familles de courbes pour
tester les méthodes suivant différentes hypothèses. Dans certains cas, cela rend
artificiellement inopérante la caractérisation collective.

Afin de se remettre dans les conditions d’application de notre méthode, nous


devons regrouper les courbes par types de bruit, sans connaı̂tre ces types par
136 La méthode proposée

1) 2)
Fig. 9.8 – Filtrage des modes communs. 1) courbe de corrélation contenant des pics
peu visibles. 2) les pics sont traduits en indice de confiance et les transits émergent
clairement. L’excès de bruit des 50 premiers jours à disparu.

avance. Cette tâche d’identification de représentants parmi une population est


précisément la fonctionnalité de l’algorithme à K-moyennes déjà décrit au §6.6
dans la réduction des masques. Les représentants sont ceux qui minimisent la
distance Euclidienne de tous les groupes.

Mais cet algorithme n’est pas adapté à notre recherche d’effets systématiques.
En effet, supposons deux courbes ρ1 et ρ2 = −kρ1 , où k est un coefficient quel-
conque. Leur distance peut être importante bien qu’elles soient identiques pour
les systématiques. On pourrait songer à utiliser comme métrique le coefficient de
corrélation lui-même entre ρ1 et ρ2 (cf. Eq. 9.1) :

D = corr2 (ρ1 , ρ2 )

qui est insensible a k. Mais dans ce cas, c’est le déplacement des graines (cf. Fig.
6.8) au barycentre du groupe qui pose problème car il ne minimise plus cette
distance.

On a recours à un algorithme rudimentaire mais efficace décrit figure 9.9. La


première courbe est choisie comme 1er “père”, on lui attribue les “fils” qui lui
ressemblent. L’une des courbes restantes est désignée comme 2ème père et ainsi
de suite. Le filtrage des composantes communes a alors lieu famille par famille.

L’ensemble de ces opérations a fait apparaı̂tre 10 détections supplémentaires


en diminuant le niveau de continuum dans les courbes de détection.
9.2 Le débruitage 137

Fig. 9.9 – Classement par famille. On choisit un premier “père”. Puis ses fils sont
les courbes corrélées au-delà de |ρ| > 0.7. On sélectionne alors le deuxième père parmi
les courbes orphelines et ainsi de suite. On obtient un ensemble de familles dont les
membres présentent des ressemblances au sens d’une composante homothétique.

Mais dans le contexte du test en aveugle, l’effet d’apprentissage a pu invo-


lontairement éliminer une partie de la variabilité stellaire. Le résultat sera donc
révisé à la baisse avec les vraies données. En effet, ce sont les mêmes profils qui
sont injectés dans plusieurs courbes, après déphasage et dilatation en temps. Si
ces distorsions sont trop faibles il arrive, quoique très rarement, que la variabilité
se trouve brièvement en concordance dans deux courbes. Ceci est néanmoins
suffisant pour que la méthode se rende compte de la ressemblance et la corrige
automatiquement en tant qu’erreur systématique. Ce cas ne s’est présenté qu’une
dizaine de fois, la correction n’est que locale et se limite au début de courbe, et
nous n’avons volontairement pas utilisé les profils mis à jour de cette manière car
cela aurait été hors de l’objectif du test. Aucun transit n’a été trouvé de cette
manière, mais ce fait confirme l’efficacité de la méthode à repérer et traiter des
sources de bruit inattendues.

9.2.5 Caractérisation des événements


L’étape suivante est le contrôle de la périodicité des événements détectés.
On n’effectue ce contrôle que pour les principaux pics détectés. On peut
alors replier les courbes suivant la période identifiée pour contrôler si leur ori-
gine est un transit ou non, dans le cas où au moins trois événements sont présents.

En superposant n transits, les barres d’erreur diminuent d’un facteur n.
Pour diminuer un peu plus le bruit, le repliement est effectué en recentrant
138 La méthode proposée

préalablement les événements. Le recentrage est double : en ordonnée il est


nécessaire car le niveau moyen de la courbe fluctue à cause de la variabilité
stellaire, en abscisse il est nécessaire car la date des événements n’est déterminée
qu’avec une précision limitée par le bruit. Ce recentrage est effectué par rapport à
un événement“moyen”, défini comme celui qu’on aurait en l’absence de recentrage.

Afin de discriminer les transits se produisant sur l’étoile cible de l’effet des
binaires à éclipses d’arrière plan, on compare 3 moyennes : celles des événements
d’indice pair, impair, et total. Les éclipses dont la dissymétrie est suffisamment
marquée auront des moyennes paires et impaires distinctes, réparties symétri-
quement autour de la moyenne générale.

La figure 9.10 montre quelques exemples de caractérisation. Les points sont


les événements après recentrage, les lignes continues sont les 3 moyennes. Les
barres d’erreur ne sont pas représentées. On compte une courbe à transits
planétaire, une binaire à éclipses, un couple d’étoiles serrées et une planète
n’ayant produit que deux transits. Malgré le “nuage” des points de mesure, la
forme des transits se dessine précisément car les trois moyennes sont très proches.

9.3 Résultats
Par rapport aux résultats obtenus après la seule phase de détection (12
événements), le processus de débruitage collectif conduit à 10 événements
supplémentaires (+80%). L’amélioration est donc tangible pour le détecteur par
corrélation.

Pour vérifier que l’amélioration ne se limite pas aux événement “faciles”,


il faut comparer notre résultat avec celui des autres équipes. Ce bilan est
explicité dans l’article de Moutou et al. (2005) et synthétisé dans la table 9.2 ;
notre résultat est médian. Les transits concernés sont bien d’un niveau égal à
ceux des autres méthodes ce qui, compte tenu de la performance modeste du
détecteur employé, souligne bien l’intérêt du débruitage par identification des
déterminismes collectifs cachés.

Les transits vrais détectés à l’occasion du test sont les mêmes quelle que
soit la méthode utilisée. Ceci donne une idée de la sensibilité de détection de
Corot . A l’inverse, les fausses détections dues au bruit sont différentes entre
les méthodes, donc la comparaison semble être un critère discriminatoire. On
note aussi que la variabilité stellaire ne semble pas gênante pour la détection si
elle reste inférieure à 0.5%. La détectivité de Corot devrait rendre possible la
9.3 Résultats 139

1) 2)

3) 4)
Fig. 9.10 – Discrimination des événements. Les points sont ceux des événement dé-
tectés, les courbes sont les moyennes des événements d’indice pair, impair et la moyenne
générale. 1) Courbe avec transits planétaire. La forme du transit apparaı̂t distinctement,
les trois moyennes sont proches. 2) Une étoile de fond binaire à éclipses 3) Une étoile
double en orbite serrée. Il s’agit d’un objet double en rotation, et non plus d’éclipses,
4) Une planète n’ayant transité que deux fois.

Tab. 9.2 – Résultats comparatifs. Notre méthode (équipe 1) se situe dans la moyenne.
Elle évite les fausses détections grâce à une phase d’analyse visuelle semi-manuelle. Les
détecteurs arrivant en tête utilisent le repliement.

Equipe 1 2 3 4 5 Parmi
Transits 12 11 15 12 14 20
Autres événements 10 6 10 12 12 16
Fausses détections 0 1 0 3 5

découverte de planètes de 1.1R⊕ , autour d’étoiles naines M 0 pourvu que leur


période soit inférieure à 3 jours.
140 La méthode proposée

Il est possible que l’apport de notre approche soit moindre avec les vraies
données de Corot qu’avec les données simulées du test en aveugle. En effet, les
bruits expérimentaux seront plus efficacement traités par l’EXOPIPE à l’aide
de modèles spécifiques, et peut-être évolutifs. Ce faisant, il accomplira en amont
une partie du travail de notre méthode car ces bruits contiennent une grande
part des déterminismes cachés. Mais elle restera utile pour traquer les bruits
résiduels dus à l’imperfection des modèles.

En revanche notre méthode peut faire face à des situations imprévues, comme
on l’a vu dans l’exemple du pic central de fausse détection (cf. Fig. 9.6). Cet
artefact d’envergure majeure situé en milieu d’observation est causé par la
conjonction entre la SAA et le pic de lumière diurne. Il gêne la majorité des
équipes en lice, qui n’ont d’autre recours que d’ignorer cette fausse détection à
l’aide d’un traitement ad hoc, disqualifiant ainsi les données correspondantes.
Au contraire avec notre méthode, le pic s’évanouit de lui-même sans faire l’objet
d’aucun traitement particulier, permettant à l’information occultée de revenir
d’elle-même au premier plan.

De la même façon, la mise à jour involontaire de quelques profils de variabilité


stellaire contenus dans les courbes du test en aveugle montre la capacité de notre
approche à réagir rationnellement aux sources de bruit inattendues.

Le pic est commun à la plupart des méthodes car elles réagissent toutes
aux mêmes facteurs. Elles sont certainement aussi gênées par les autres effets
systématiques moins visibles que nous avons mis à jour. Quelle que soit la
méthode, la prospection et la suppression de ces déterminismes qui sinon
restent considérés comme du bruit de détection ferait certainement progresser la
détectivité de Corot .

La contribution du débruitage collectif à été confirmée depuis par Tamuz et al.


(2005) qui utilisent une stratégie similaire, adaptée aux conditions de l’expérience
OGLE. Ayant identifié une source de nuisance, ils recherchent dans toutes les
courbes sa meilleure pondération en supposant qu’elle produit un effet linéaire ou
quadratique. Leur calcul tient compte des incertitudes individuelles de mesure.
Par exemple pour l’extinction atmosphérique, supposons que a(t) soit l’épaisseur
d’air traversée à l’instant t. Si si (t) est la ième courbe de lumière (t est un temps
discret), on cherche la pondération ci qui y accorde le mieux a(t). Il s’agit de
minimiser la fonction :
X (si (t) − ci a(t))2
Si2 =
t
σi2 (t)
où σi (t) est l’erreur de mesure à l’instant t. Cette équation admet une solution
9.4 Perspectives 141

formelle. Une fois en possession des pondérations ci de toutes les courbes, on peut
raffiner rétroactivement le modèle de perturbation a(t) en a0 (t) car son effet n’est
pas forcément linéaire, notamment à cause des changements météorologiques.
On obtient :
2
P
0 i si (t)ci /σi (t)
a (t) = P 2
i ci /σi (t)

Tamuz et al. (2005) généralisent leur technique à plusieurs effets indépendant


linéaires ou quadratiques, notamment les phases de la lune et la position de
l’étoile sur le CCD.

Leur méthode s’avère plus efficace que l’analyse en composantes principales,


mais nécessite d’avoir identifié les sources de bruit et de disposer des erreurs de
mesure. Ces spécificités sont complémentaires à la nôtre et suggèrent l’avantage
qu’aurait un usage conjoint. A la réception des données Corot , on conçoit qu’il
soit raisonnable de commencer par faire un “état des lieux” du bruit par exemple
avec l’approche que nous proposons, puis d’agir sur les bruits que l’on sait
modéliser par des méthodes plus ciblées.

9.4 Perspectives
Du côté détection, on peut combiner une approche collective non plus avec
notre détecteur basique, mais avec les détecteurs fonctionnant par repliement des
courbes de lumière qui donnent actuellement les meilleurs résultats. On pourrait
de plus exploiter l’information de la symétrie intrinsèque des transits à l’aide
d’un auto-repliement supplémentaire par rapport à leur centre.

Un premier perfectionnement du débruitage collectif est son extension à


des sources de bruit multiples et locales. En effet, celle-ci est compatible avec
l’identification de plusieurs caractéristiques communes même si elles n’ont pas les
mêmes poids relatifs dans les courbes. Elle permettrait seule, ou secondée d’un
classement par familles, de déduire la combinaison de certaines perturbations,
sans connaissance préalable des courbes concernées.

L’application d’une approche collective à la variabilité stellaire peut s’avérer


d’un grand intérêt. Sa cible ne serait plus la concordance temporelle des
signaux, mais l’identification et la caractérisation statistique des familles de
variabilité. On pourrait par exemple dégager une matrice de covariance représen-
tative de chaque famille pour exploiter pleinement les capacités du filtrage adapté.
142 La méthode proposée

9.5 Troisième publication Guterman et al.


(2005), SPIE.
Improving transit detection with collective light curves
information
Guterman P.a , Barge P.a , Llebaria A.a , Quentin C .a
a Laboratoire Astrophysique de Marseille(CNRS), 13776 BP8 Marseille Cedex12, France

ABSTRACT
The search for planetary transits in star light-curves can be improved in an non standard way applying ap-
propriate filtering of the systematic effects just after the detection step. The procedure has been tested using
a set of light curves simulated in the context of the CoRoT space mission. The level of the continuum in the
detection curves is significantly lowered when compared to other standard approaches, a property we use to
reduce false alarm. Ambiguities may originate in unexpected effects that combine instrumental and environ-
mental factors. In a large set of synchronous light curves collective behaviours permit to identify systematic
effects against which the detected events are compared. We estimate a significance of our detections and show
that with our procedure the number of true detections is increased by more than 80% (22 events detected over
the 36 injected ones). In spite of its simplicity, our method scores quite well (average results) when compared
to the other methods used for the CoRoT ”blind test” exercice by Moutou et al.1
Keywords: corot, transit detection, survey, pattern analysis , stellar photometry

1. INTRODUCTION
1.1. Corot
High precision stellar photometry permits to detect extra-solar planets by the transit method. Indeed, the tran-
sit of a planet in front of the disk of its parent star results in a photometric signal (a weak, short and periodic
decrease of the received photon flux F) that can be detected in stellar light-curves. The relative amplitude of the
signal ranges from 10−2 for giant planets like Jupiter to 10−4 for a terrestrial planet; its periodicity P and dura-
tion ∆t are related to the orbital motion of the planets (P ≃ weeks to months or years, and ∆t ≃ 1−10hrs). The
CoRoT small satellite project is a space mission which is half devoted to search for telluric extra-solar planets
(the other half is devoted to stellar seismology). A description2 can be found at link [Link]
It will permits the detection of photon flux variations about 7.10−4 in a one our integration time, compatible
with planetary transits on stars whose magnitude ranges from 12 to 15.5 . CoRoT should be able to detect
10-40 terrestrial planets and several of ”hot Jupiters” dependent on the a priori hypotheses on the existence of
the planetary systems. Space missions such as CoRoT will provide very large number of light-curves, which
will require optimized and automated detection algorithms for the processing of the data. Various detection
algorithms have been developed so far, but an important question is also to get free at best from instrumental
noises and systematics. This is the point we want to address in the present paper, using the collective infor-
mation from the large number of available light-curves in a field of view. A new approach of the problem in
which detection precedes the filtering procedure.

1.2. Signal and Noises


The signal is a nearly constant flux F marked by the slight dips due to the possible transit of a planet in front
of the star disk. The typical value of the flux for a star with mv=14 is 2.106 phe− in a 512s exposure time. The
signal is affected by various noises and perturbers namely, by decreasing order of importance:

• The photon noise. It is proportional to the square root of the number n of photons received from the
target star. Of course the larger n is, the better s/n is. However, due to PSF overlapping in crowded
field, photons of the target are mixed with non-informative photons of the background stars so that s/n
is decreased.

1
• The scattered light. Rejection of light reflected from the Earth by a high performance baffle allows to
reduce the stray-light by a factor of 10−13 . The residual disturbance is strongly modulated at the orbital
period of the satellite. The mean induced variations can be corrected but not its associated photon noise.
In the simulated data used in our tests the mean level correction was imperfectly modeled.

• The intrinsic variability of stars. Up to now, only the variability of the Sun is well known, mainly through
the observations of a complete activity cycle with the SoHO satellite. On the other hand the variability of
stars others than the Sun remains poorly known (it will be explored with CoRoT). It has been mimiced in
our simulated data using the Virgo-SoHO data with appropriate scaling and extrapolations as described
by Moutou et al.1

• Jitter and breathing. Jitter noise is the residue of fast pointing corrections which causes random varia-
tions of the signal (with CoRoT a typical 0.1 pixel amplitude is expected). Breathing is due to the thermo-
elastic deformations of the telescope structure at the orbital period (much longer than jitter period) and
can be approximated by a simple defocus. The residuals after correction of these perturbations are not
simulated in the present set of our test light curves.

• The readout noise of the CCD. It directly contribute to the total variance, like dark current. The non
uniformity of pixel or sub-pixel response acts in combination with jitter.

• Cosmic rays. The glitches (local saturations) they form on the CCD, may imply a consequent loss of
information for the target stars. Saturated exposures are rejected on-board and produce gaps in the data
localized at SAA crossing.

1.3. The various methods used on the simulated light-curves


Various algorithms have been developed to detect planetary transits in star light-curves. In the bayesian ap-
proach of Defaÿ et al.,3 the most probable period of the transit is estimated thanks to maximum likelihood
and the transit signal is reconstructed using the Fourier coefficients of the fundamental harmonics. The well
known matched filter can be used with a large collection of reference transits as those computed by Jenkins4 in
the general case of a planet orbiting a binary star. Finally combining unknown periodicity and a priori shape
Aigrain et al.5 and Kovács et al.6 fold the signal to improve S/N and make detection with a box fitting algo-
rithm using χ2 -test. These authors also deduce the optimal in-transit and out-transit level from the data-set
itself. No detection algorithms based on Fourier Transform have been used because the low energy of transits
is spread down into many harmonics because of it’s temporal briefness.

The performances of these various methods were compared on simulated C O R O T light curves by Moutou
et al.1 They require a preliminary denoising step to avoid spurious detections due to straylight or star vari-
ability. The main tools used at this stage were: simple thresholding, median filter, non linear filter based on
a structuring element, polynomial local fitting for removal of the stellar variability, subtraction of long term
variations or fitting with a family of sinusoids. On the other hand, in the context of the Kepler mission, Jenk-
ins7 removes stellar variability using wavelets. In each case, gaps in the data were processed differently, being
interpolated or not.

Two of the 1000 light curves of the blind exercise are plotted in Fig. 1. Only the right curve (no 34) contains
transits. But they are concealed as a set of spikes embedded in noise. Nevertheless they have been found by
all the different concurrent methods (see Moutou et al.1 ).

2
Figure 1. Raw light curve number 1 (left) and 34(right). Only lc34 contains transits. See main text for details.

2. THE PROPOSED METHOD


Our method referred as team 1 in the synthesis by Moutou et al.1 starts by the detection step before any de-
noising. This is in contrast with all the other methods presented in referred paper.1 They pre-process the
curves to reduce the noise level in detection. In our method, detection is performed directly on the raw light
curves (lc) transforming them into temporal detection curves (dc) of same lenght. Then the dc s are analyzed
to bring out the unique features of each transit discarding the common noise caracteristics. The common sig-
nature of the systematics can be spotted thanks to the common behaviors across the whole set of dc’ s. After
discriminating analysis we obtain the confidence score for each data point in the detection space against the
whole set. Finally, the list of transit candidates is sorted out and the periodicity criterion is used to decide the
more likely ones.

First we will spend a while defining the two steps, namely denoising and detection.

De-noising consists in applying algorithms for reducing the noise level, in time or in frequency space. The
result of the denoising step is a new light-curve lc′ , which is smoothed with respect to the initial lc. Some
noise components are well defined like Poisson noise but others like stellar variability remain hypothet-
ical but can be checked afterwards. Therefore filtering procedures can never be perfectly adapted.
Detecting consists in searching for periodic transit like signals in the light-curves. The detection algorithms
converts lc’ s into dc’ s. Each point of a dc indicates the chance that the lc contains a transit at correspond-
ing time. Our detector is correlation between the light curve and a reference transit.

The most accurate information must be used first, that is our strategy. Because transits shapes are better
known than noise effects, detection must arrive first. Mandel & Agol8 had elaborated a precise analytic ex-
pression. The main parameters are depht and duration. Also the luminosity gradient from center to limb of
the star surface is considered. One example of compliance with real stars is shown Fig.2.
As said before, the lc noises are known with less precision, in particular the star activity whose models are
influenced by the Sun. An initial filtering of light curves will affect all possible included transits, resulting in
a degradation for later detections. At the opposite, a leading detection will be performed using a collection of
transits. The closest set to the true transit corresponds to the highest signal to noise ratio in detection. Our trial

3
show that 2 references of transit are sufficient to cover the full duration range. One of 35 pixels (5 hours) and
one of 70 pixels(10 hours). The robustness of our correlation based detection criteria avoids any pre-process
prior to detection.

Figure 2. A planet occulting star hd2 09458 observed by the Hubble Space Telescope. Experimental points are perfectly
sticking to the model over plotted.

Common methods for light-curve de-noising are based on time averaging, frequency filtering, interpola-
tion/removal of data or morphological non linear filtering. These methods focus on reducing noise levels but
must also avoid to perturb the transit signals. Perturbations are very weak when the noise frequencies are far
from the frequencies associated to the transits. However, as the goal is to reduce at best the noise contributions,
a natural tendency is to get closer to the noise/transit limit. For instance, in the case of CoRoT we are inter-
ested in removing harmonics at the orbital period of the satellite (100 minutes) which modulate the stray-ligth
and the PSF variations. Although these periods are quite far from standard transit durations (several hours),
pollutions of the transit signals are still possible: (i) via high frequencies, if working in Fourier space; (ii) via
small changes in the relative flux values due to the correction of the stray-light modulations.

The inconvenience of a pre-processing of the data (prior to detection) can be illustrated in the case of CoRoT.
The stray-light from the Earth is an important source of noise modulated by the orbital motion of the satellite,
but can be removed after simple orbital averaging. In the case of a strong transit, detection can be different
following the light-curves are corrected or not from the stray-light variations. The results we get in the case
of CoRoT are plotted as correlation curves in Fig. 3. The left dc is the result of detection applied to the raw lc
number 30. Right dc corresponds to the same lc, but smoothed at orbital period. Detection seems less effective
if the stray-light modulations are removed from the light-curves than if they are not. In the raw case, the de-
tection accuracy is sufficient to notice the 2 different eclipses of a background binary star. In the second case,
the smoothed lc seems nicer at naked eye, but the dc reveals a loss in signal to noise despite higher correlation
pics. This is likely due to the fact that in preprocessed light-curves the signal is ”eroded” and patterns fitting
to the transits reference become more numerous.

2.1. Detection
Our method is a simple statistical correlation between the data and a reference signal. We use the appropriate
correlation coefficient:

4
Figure 3. Detection of transit in a light curve without any pre-processing (left) and after removing the stray-light modula-
tions (right). Detection pics are higher for pre-processed light-curves but S/N is higher for unprocessed light-curves.

xy − x.y
ρ = r  
x2 − x2 y 2 − y 2

where x is the measured series, y the model and x, y their mean values. In our problem, x is any segment
of the light curve and y a reference transit of same width. In the (x, y) plane we get a dot cloud which is flat
when ρ is large, what means that lc and the reference are in good accordance at the time of x. ρ is insensitive
to scales and offsets which just inflates or tilts the dots cloud, a useful property which avoids normalization
between the different light-curves. The number of the unknown parameters is reduced to three: period, phase
and duration.
Another advantage of the above correlation is that it can manage data gaps without interpolating missing
points. This avoids artifacts and limits possible false alarms. The values of ρ range in [−1, 1], whatever the flux
or the amplitude of lc. This will help for further linear processing. It also copes with problem of border points
exclusion (t < l/2 and t > l/2) in the time extent of the transit of reference. Light-curves with data gaps will
have lower ρ values.

Detection curves dc are constructed by plotting, for each light-curve lc, the point
dc(t) = ρ(lc [t − l/2, t + l/2] , g) as a function of time; g denotes the reference transit (template) of length l + 1.
This deals with the phase of the event, reducing the number of remaining free parameters at two: period and
duration. As transit model we use the quadratic expression of Mandel & Agol8 with recommended coeffi-
cients, (γ1 and γ2 ) equal to 0.5.

In fact, a transit of reference has an additional free parameter that cannot be assumed to be zero: the total
time extent of the transit model l̄ which include the transit duration l plus two out of eclipse durations, just
before and just after the eclipse itself. To assess the more appropriate ¯l we led several tries which are summa-
rized in table 1. Paradoxically, we find that a good transit model must contain out of eclipse durations up to
four time longer than the transit duration itself. This is because a full flux just before and just after the transit
itself are an integral part of the planetary occultation phenomenon. Such a model brings more complete in-
formation on the transit events than the standard single dip model. Zooming Fig. 3, we found, indeed, that

5
negative pics with smaller amplitude are bordering detection pics; this signature corresponds to the associated
anti-correlations between the transit model and the transit event when in temporal quadrature.

Table 1. Performance of detection as a function of the reference transit model (duration of the ”prelude” and ”coda” of the
transit). We measure the skewness, with highest values for a noise histogram with a secondary bump. Both 35 pixel (5h)
and 70 pixel (10h) eclipses peak around 70% of required non-transit time. We kept this value. The detection signal to noise
ratio reaches 8.1 (Resp. 6.5) in mentioned favorable case.
l 95 90 80 60 40 20
tr = 35 9 20 18 15 16 ≃0
tr = 70 ≃0 2 10 8 7 3

2.2. Filtering Detection Curves


We applied the described detection for the whole set of 1000 curves. Except for a few tens, the detection
curves keep noisy. But, comparing them in Fig. 4 shows obviously dominating common characteristics. We
can reasonably assume that the common aspect of all these curves is originated by 1) a deterministic common
embedded pattern and 2) a common distribution of random noise. Both items are discussed in this paper. An
encouraging sign is that the similitude between dc’ s do not depend much on star activity level. Using the
synchronized acquisitions, we will identify and treat those points, each curve learning from all the others.

Figure 4. Systematics and trends in standard deviation. 3 representative detection curves are represented. Their similar
aspect can have 4 possible sources 1) The dominating visible artifacts. They are deterministic and even sometimes known,
for example the deep spike at curves center is due to local synchronism between SAA cancellation and daytime higher
level. This pic is either positive or negative revealing an algebraic weight. 2) The common behavior of error bars, as
marked at curves beginning. 3) Suspected tiny pattern lying under noise level, like possibly in curves second half. 4) real
random noise.

To cancel uncorrelated noises and conserve the searched constant, one would naturally average dc’ s all
together. But it doesn’t work. We suspected that, despite a constant looking at macro-scale, the added noise
is actually homothetic with null average when looking closer. After the test, this was confirmed as due to
simulating unperfected corrections. We use the next model to address all possible common mode variations:

dci = si + ki .δ + n

6
dci is the ith detection curve. All elements are unknown but have different properties: s is the searched de-
tection signal made of pics, δ the systematic, ki its individual weight and n the centered random noise. These
properties are sufficient to derive the missing information with sufficient accuracy. Our model effectively ex-
plains that hdci = 0.

A sound tool to derive at the same time an unknown pattern and all its weights is the principal component


analysis (PCA), described by Press et al.9 In our case, we search for a constant unitary vector δ , present in


all dc, which accounts for most part of the variations, simply by appropriate weights. In other words the

→ −

projections of dc’ s over δ show a maximal variance. We can note this:


→ −
→− → −
→ −

δ / max E(dc. δ )2 = max δ t .G. δ (1)

→− →
with G = E([Link] ) the covariance matrix of detection curves. Writing this equation in the eigen base it turns


that we search {xi } the coordinates of δ in eigen base such that :

λi x2i
 P
 {x1 , . . . xi } maximizes
and (2)
 −→
k δ k2 = 1
the λi are the eigen values. The eigen base is sorted by decreasing order of λi . The solution is x1 = 1, x2 , · · · =


0. Therefore, δ appears to be the first eigen vector of G. Weights ki are deduced by scalar products ki =
−→ − →
dci . δ . In practice, all dc’ s are as a preventive centered and normed to avoir round-off instability in matrix
diagonalisation. The result is shown in Fig.5. The found pattern looks clearly compliant with the detection
curves of Fig.4.

Figure 5. This curve results from the PCA between 200 detection curves (see the main text). The vector has been normed.

The central spike is due to SAA and daytime synchronism. Its depth is of same order than the amplitude at
the begin of the run. So we can expect to remove a significant part of initial continuum in dc’ s. The right part

7
of the pattern is not negligible, so we can again expect some improvement in dc’ s end continuum, despite it
seems only made of random continuum.


We can now remove ki δ from the detection signal to recover only the signal pics. But doing a simple sub-
traction of ki .δ from dci is worthless because 1) two pics of same dc can nevertheless show different distances


to ki δ . This results from their different weighting due to their two different level of noise in original lc series
at their 2 different epochs. And 2) we still ignore what confidence can be granted to a particular deviation
from one pixel dci (t) to all pixels dcj6=i (t). To derive a confidence level, we first need the instantly spreading of
curves around δ. At time t:

σ 2 (t) = var (dc(t) − k.δ(t))

We then convert pics into their significance, that’s to say the probability that a pic is not due to chance in
the Gaussian model:

dc(t) − k.δ(t)
L(t) =
σ(t)

Figure 6 shows an example of the regulating effect produced on noise continuum and shows how pics
can emerge from noise. In the blind test we also used an equivalent technique10 with more details at link
[Link] We first located the common pattern by working on short sub-series of lc’
s. We start by a first guess δ, then refine it by cancellation of uncorrelated biases. Then we move to PCA.

Figure 6. PCA effect. Left a raw detection curve. Abscissa are the days, ordinates is the correlation. Right the same one
converted into confidence level of pics. This example clearly shows a regulation and noise lowering effect, allowing events
to rise out from continuum.

Actually the efficiency is different for each curves, suggesting distinct embedded instrumental noise scheme
for sake of comparison. But distinct patterns are no more systematics and will not be present in real C O R O T data.
So we replayed the de-noising after a basic classification. This classification choses an arbitrary ’father’, then
his sons are the most correlated lc. We iterate with next father and so on. This improved the result, but the

8
learning effect unwillingly removed part of star activity at the same time. This comes from scarcity of star
activity measurements which obliged to put close patterns in several curves.

This way we identify 12 more periodical events. At the end, all dc’ s are sorted out by order of interest
and the most interesting examined one by one. We control the strict periodicity of transit candidates, possibly
guided by the Fourier transform, and fold lc accordingly to distinguish from non-transit events. Main confu-
sion sources are grazing background binaries which behave like a monolithic rotating object, or background
eclipsing binaries which alternate 2 different true transits.

2.3. Results
We detect 12 events after the detection step. The proposed de-noising rises this number up to 22 overall events.
The repartition is 12 transits found among 22 and 10 other events over 16. The physical origin of 5 of the other
events was wrong, but this identification was not part of our study. The result for all teams is resumed in table.
2 and detailed by Moutou et al.1 The detected and not detected transits are common to all method, hence
giving an idea of detection sensibility.

Table 2. Comparative results. Our method rank on the average. A given false positive is never detected twice, which gives
advantage to the complementarity of the methods.
Team 1 2 3 4 5 Total
Tansits 12 11 15 12 14 20
Other events 10 6 10 12 12 16
False positives 0 1 0 3 5

Our result ranks on the average. This is interesting, in term of improvement regarding the simplicity of
the detection criteria. The interrest of such a collective approach has been confirmed by Tamuz et al.11 which
present another technique for the OGLE ground based survey (they correct linear systematic perturbations in
light curves like atmosphere transparence. Their technique gives better results that the PCA, thanks to the use
of measurements uncertainties).

3. CONCLUSION AND PERSPECTIVES


We have demonstrated the interest of performing detection before filtering. By first exploiting the most accu-
rate information (the transit shape), the detection improves better the signal to noise ratio. Hence the risk of
artifact caused by a filtering which transforms the signal is reduced. The detection also deals with the missing
data without interpolating it. We additionally show that properly normed detection curves can be processed
by linear operations, as a direct signal. This gives benefit of identifying disturbing systematic effects by the
study of collective dc’ s behaviors, without need of a model. This is an advantage when systematic effects can
not be known and modeled with a sufficient accuracy. This approach is in fact complementary with the more
classical techniques, being able to exploit the global information from the big amount of light curves obtained
by C O R O T .

Three improvements √ are under study 1) The early folding of curves should improve the detection signal to
noise by a factor up to n for an n-times folding. This is challenging leading roughly to a 3000 times computa-
tion overhead (today 1 sec/curve). Nevertheless, avoiding some redundancies in computation could reduce it
to 300. For instance we could keep intermediate results in sliding correlations, compute all harmonics at same
time, or even accumulate the daily data as they arrive slowly. 2) The extension of PCA to several independent
cumulated patterns. 3) The use of a more specialized detector.

9
REFERENCES
1. C. Moutou, F. Pont, P. Barge, S. Aigrain, M. Auvergne, D. Blouin, R. Cautain, A. Erikson, V. Guis, P. Guter-
man, M. Irwin, A. F. Lanza, D. Queloz, H. Rauer, H. Voss, and S. Zucker, “Comparative blind test of
five planetary transit detection algorithms on realistic synthetic light curves.” accepted in Astronomy and
Astrophysics, 2005.
2. “Corot: Cnes web site.” [Link]
3. C. Defaÿ, M. Deleuil, and P. Barge, “A bayesian method for the detection of planetary transits,” Astronomy
and Astrophysics 365, pp. 330–340, Jan. 2001.
4. J. M. Jenkins, L. R. Doyle, and D. K. Cullers, “A matched filter method for ground-based sub-noise detec-
tion of terrestrial extrasolar planets in eclipsing binaries: Application to cm draconis,” Icarus 119, pp. 244–
260, Feb. 1996.
5. S. Aigrain and M. Irwin, “Practical planet prospecting,” Monthly Notices of the Royal Astronomical Society
350, pp. 331–345, May 2004.
6. G. Kovács, S. Zucker, and T. Mazeh, “A box-fitting algorithm in the search for periodic transits,” Astron-
omy and Astrophysics 391, pp. 369–377, Aug. 2002.
7. J. M. Jenkins, “The impact of solar-like variability on the detectability of transiting terrestrial planets,” The
Astrophysical Journal 575, pp. 493–505, Aug. 2002.
8. K. Mandel and E. Agol, “Analytic light curves for planetary transit searches,” The Astrophysical Journal
580, pp. L171–L175, Dec. 2002.
9. W. Press, S. Teukolsky, W. Vetterling, and B. Flannery, Numerical recipes in C - The art of scientific computation,
ISBN 0-521-43108-5, Cambridge University Press, 2nd ed., 1992.
10. “Corot week 6.” [Link]
11. O. Tamuz, T. Mazeh, and S. Zucker, “Correcting systematic effects in a large set of photometric light
curves,” Monthly Notices of the Royal Astronomical Society 356, pp. 1466–1470, Feb. 2005.
12. B. Tingley, “A rigorous comparison of different planet detection algorithms,” Astronomy and Astrophysics
403, pp. 329–337, May 2003.
13. B. Tingley, “Improvements to existing transit detection algorithms and their comparison,” Astronomy and
Astrophysics 408, pp. L5–L7, Sept. 2003.

10
Chapitre 10

Conclusion

La mission Corot mettra bientôt en oeuvre depuis l’espace la méthode


des occultations pour détecter des planètes extrasolaires. Corot mesurera en
continu le flux de 60 000 étoiles et permettra d’atteindre la précision nécessaire
pour détecter des planètes de taille tellurique. Corot devrait ainsi lever un peu
plus le voile sur les mécanismes de formation planétaire et ouvrir la voie vers
l’exobiologie en repérant, peut-être, la signature de planètes de type terrestre
propices au développement d’une chimie de la vie.

Les travaux présentés dans cette thèse se proposaient deux objectifs :


1. La détermination d’un jeu réduit de formes pour les ouvertures photomé-
triques de la voie exoplanètes de Corot , répondant aux multiples contraintes
du logiciel de bord tout en évitant le plus possible de dégrader la photomé-
trie.
2. L’élaboration d’une méthode de détection des transits planétaires dans les
courbes de lumière qui seront produites en fenêtrant à bord l’image d’un
champ d’étoiles, et permettant d’exploiter au mieux les spécificités de Corot
.

10.1 Acquisition des données


Nous avons montré qu’un nombre limité d’ouvertures était suffisant pour
assurer la photométrie optimisée d’un grand nombre d’étoiles. 250 “patrons”
doivent ainsi permettre de fenêtrer les 12 000 étoiles cibles d’un champ sur le
CCD de Corot . Une méthode spécifique, dite de “réduction”, pour obtenir ces
patrons a été développée.

A chaque étoile cible est associée une fenêtre photométrique dont la forme est
choisie parmi les patrons. Malgré la perte de spécialisation par rapport au cas

143
144 Conclusion

idéal où la photométrie de chaque étoile serait réalisée avec un fenêtre dessinée
sur mesure, le S/B ne subit pas de dégradation notable.

Cette méthode de réduction opère sur une collection d’étoiles (i.e) un


ensemble d’étoiles extraites d’une série d’images simulées représentatives de
la diversité des champs d’observation de Corot . Elle présente 5 étapes différentes :

1. Détermination du “masque optimal” de chaque étoile, c’est-à-dire l’ouver-


ture qui maximise son S/B en fonction de sa position, de son type spectral
et des étoiles qui peuplent l’arrière-plan.
2. Mesure de la robustesse de chaque étoile, en termes de S/B , envers les
masques optimaux d’autres étoiles de la collection choisies par tirage aléa-
toire. Notre procédure exploite le fait que les étoiles se montrent tolérantes
à des degrés divers envers d’autres masques que le leur.
3. Définition d’un critère d’“acceptabilité” pour chaque étoile cible, sous forme
du niveau de préservation de son S/B compatible avec l’objectif scientifique
de Corot .
4. Tri optimisé des étoiles cibles et des masques sélectionnés lors du tirage,
cibles et masques étant disposés dans une matrice binaire appelée “matrice
d’acceptabilité”.
5. Ajustement du seuil pour obtenir 250 patrons au plus.

Enfin, partant de données d’observation d’un champ d’étoiles réel, nous avons
mis au point une procédure de distribution de ces patrons à toutes les cibles
potentielles. Cette procédure utilise une méthode itérative de “repêchage” qui
permet de récupérer jusqu’à 50% des cibles qui avec d’autres méthodes étaient
considérées perdues pour la mesure à cause des “collisions” entre fenêtres.

L’objectif fixé pour le fenêtrage du CCD (6 000 cibles avec 250 patrons)
est atteint puisque seules 10% des étoiles perdent plus de la moitié de leur S/B
idéal. De surcroı̂t ces étoiles s’avèrent les moins “intéressantes” pour les objectifs
de Corot , grâce à un mécanisme de gestion des priorités combinant le critère
de S/B et la priorité scientifique des cibles. On constate que > 80% des étoiles
conservent leur S/B idéal.

Au-delà du problème abordé dans cette thèse se pose la question du maintien


de ces résultats quand les images de travail simulées seront remplacées par des
images réelles, plus fiables mais moins riches en informations sur la source des
photons d’un pixel. Nous avons 2 pistes pour limiter l’effet du manque de précision
dans les PSF :
10.2 Détection des transits 145

1. Les étoiles faibles, dont les PSF sont les moins bien déterminées à partir
de l’image, sont en revanche les plus tolérantes envers l’erreur sur le patron
affecté.
2. Certaines composante du S/B seront néanmoins connues avec une meilleure
précision que les PSFs. Il s’agit du bruit photonique, de “jitter” et de “res-
piration” qui se calculent à partir du flux total accessible par l’image. L’im-
précision sur le S/B calculé devrait s’en trouver amoindrie.

10.2 Détection des transits


Nous avons montré le bénéfice, en termes de détectivité, qui peut être tiré
d’une approche collective du débruitage des courbes de lumière. L’approche
collective s’avère aussi très utile pour gérer de manière automatique et rationnelle
les artefacts imprévus sans avoir besoin d’un modèle spécifique bâti a priori.
C’est certainement là que réside son principal avantage.

L’originalité de cette méthode est aussi de placer l’étape de détection avant


celle de débruitage, contrairement aux méthodes standard. L’interversion de ces
deux étapes a pour avantage de rehausser le contraste des signaux de transit en
utilisant l’information la mieux connue (la “forme” des transits) avant que celle-ci
ne soit altérée par les processus de filtrage.

C’est en travaillant sur 1 000 courbes de lumière simulées pour un test en


aveugle dans le cadre de la mission Corot , et confronté à la prépondérance
des motifs communs participants au bruit que j’ai été conduit à envisager une
stratégie collective. Cette approche a pour but de regrouper l’information éparse
afin de pouvoir mieux l’étudier et la corriger. Cette approche met à profit
l’avantage de disposer d’un grand nombre de courbes de lumière acquises de
manière synchronisée, dans des conditions de mesures stables et sur de longues
périodes comme cela est le cas avec une expérience de photométrie dans l’espace
telle que Corot .

La méthode que nous avons développée pour traiter les courbes de lumière
comprend trois étapes :
1. Une détection à l’aide d’une corrélation glissante entre une section de courbe
et un transit de référence nommé “gabarit”. Ce détecteur est insensible aux
facteurs d’échelle, tient compte du bruit local et tolère les données man-
quantes sans utiliser d’interpolation. Des essais de robustesse ont montré
que dans la pratique deux gabarits étaient suffisants.
2. Un débruitage qui identifie les bruits systématiques ayant survécu à la dé-
tection et utilise une analyse en composantes principales et un classement
146 Conclusion

des bruits par familles. Seuls sont conservés les pics de détection qui se
démarquent significativement de la tendance commune.
3. La périodicité des événements détectés est contrôlée, et ceux-ci sont
caractérisés en repliant les courbes brutes après recentrages individuels.
L’examen séparé des occurrences paires et impaires aide à distinguer les
éclipses dissymétriques des étoiles de fond binaires.

Le principal avantage de notre méthode est de traiter automatiquement et de


façon pondérée les effets déterministes (identifiés ou non) ou certaines de leurs
combinaisons imprévues donnant lieu à des artefacts, qui sinon sont considérés
comme du bruit, voire des données perdues.

Elle a permis de réduire de façon significative le niveau de bruit dans les


courbes de détections en y éliminant les déterminismes cachés. Par exemple
la principale fausse détection présente dans toutes les courbes, due à l’effet
imprévu de la conjonction entre la SAA et le pic de lumière diurne, et qui
gênait la plupart des autres méthodes du test, a disparu d’elle-même ; les
données correspondantes ont pu être conservées contrairement au cas général.
Cette efficacité dans l’identification est aussi illustrée par la mise en évidence
involontaire de quelques-uns des profils de variabilité stellaire simulée qui avaient
été dissimulés à l’intérieur des courbes de lumière du test en aveugle.

Les transits détectés s’inscrivent dans la moyenne des autres méthodes ce qui,
compte tenu de la performance modeste du détecteur confirme l’intérêt d’une
méthode de débruitage collectif.

A l’exemple du pic commun, il est probable que la plupart des méthodes


aient conservé dans leur bruit de détection d’autres déterminismes moins visibles
que nous avons mis à jour. La prospection et la suppression de ceux-ci ferait
certainement progresser le seuil de détectivité attendu aujourd’hui pour Corot .

L’intérêt de traiter statistiquement les effets collectifs pour améliorer la


détection des transits ne fait aujourd’hui plus de doute. D’autres méthodes
l’ont confirmé en pratique sur des données obtenues à partir du sol. L’une
d’elles pousse d’ailleurs plus loin l’efficacité de cette stratégie en lui associant
l’utilisation de modèles.

Loin d’être en concurrence, toutes les méthodes de débruitage et de détection


sont complémentaires. Les méthodes statistiques éliminent les perturbations
répertoriées, non répertoriées ou fugitives. La nôtre se spécialise dans un “état
des lieux” préventif permettant de guider le choix des modèles et de traiter les
résidus ; les méthodes de filtrage quant à elles traitent efficacement la varia-
10.2 Détection des transits 147

bilité stellaire ; les méthodes de détection par repliement combinent au mieux


la forme et la période des transits. Seule une association et des perfectionne-
ments à ces techniques permettront de détecter des planètes toujours plus petites.

Beaucoup d’améliorations sont envisageables au rang desquelles l’utilisation


d’une stratégie semblable pour l’identification et la caractérisation statistique
des types de variabilité stellaire considérées comme des “textures” de bruit.
148 Conclusion
Annexe A

Performances des patrons

La table A.1 montre l’influence des paramètres de jitter et de respiration


sur les patrons et les affectations. Les patrons ont été réduits avec différents
coefficients, exprimés en pixels, utilisés dans le calcul du S/B . Les étoiles affectées
dans les mêmes conditions. C’est la respiration (L9111) qui provoque la plus grosse
perte de performances.

Tab. A.1 – Etoiles affectées et S/B total en fonction des patrons. Les patrons ont été
obtenus avec diverses valeurs de jitter et de breathing. Les colonnes sont 1) le nom de
la collection de patrons, 2) et 3) les conditions de jitter et de respiration qui prévalaient
lors de la réduction, 4) le nombre d’étoiles affectées qui gardent S/B > 100 (sur 8.5
min), 5) le nombre d’étoiles affectées total, 6) le S/B total pour les étoiles de la première
catégorie, 7) le S/B total des étoiles affectées et 8) le S/B potentiel si toutes les étoiles
étaient affectées sans perte.

1 2 3 4 5 6 7 8
nom jitter respiration n n S/B S/B S/B
100 total 100 total optimal
((×10 ) (×104 ) (×104 )
4

L6111 0.03 0.00 5106 5818 116 122 123


L5111 0.10 0.00 4690 5784 108 116 118
L7111 0.20 0.00 4237 5829 98 109 112
L2111 0.35 0.00 3651 5729 85 98 101
L9111 0.40 0.04 1447 5614 28 49 50
L8111 0.50 0.00 3368 5718 78 91 94

149
150 Performances des patrons
Annexe B

Le test en aveugle

151
152 Le test en aveugle

B.1 Article de Moutou et al. (2005), A&A.


Astronomy & Astrophysics manuscript no. paper˙blind˙final February 21, 2005
(DOI: will be inserted by hand later)

Comparative blind test of five planetary transit detection


algorithms on realistic synthetic light curves
Moutou, C.1 , Pont, F.1,5 , Barge, P.1 , Aigrain, S.2 , Auvergne, M.3 , Blouin, D.1 , Cautain, R.1 , Erikson, A.
R.6 , Guis, V.1 , Guterman, P.1 , 7, Irwin, M.2 , Lanza, A. F.4 , Queloz, D.5 , Rauer, H.6 , Voss, H.6 , Zucker,
S.5,8

1
LAM, Traverse du Siphon, BP8, Les Trois Lucs, 13376 Marseille cedex 12, France
2
Institute of Astronomy (IoA), University of Cambridge, Madingley Road, Cambridge CB3 0HA, United Kingdom
3
OPM, Place J. Janssen, 92195 Meudon cedex, France
4
INAF-Osservatorio Astrofisico di Catania, Via S. Sofia, 78, 95123 Catania, Italy
5
Observatoire de Genève, 51 Chemin des Maillettes, 1290 Sauverny, Switzerland
6
DLR Institute of Planetary Research, Rutherfordstr. 2, D-12489 Berlin, Germany
7
Gemplus Card International, La Ciotat, France
8
Present adress: Faculty of Physics, Weizman Institute of Science, Rehovot 76100, Israel

Received date / accepted date

Abstract. Photometric surveys for exoplanet transits are very promising sources of new discoveries for future
years. Consequently, many algorithms are being developed to detect transit signals in stellar light curves. This
paper discusses the comparison of such algorithms for the next generation of transit detection surveys: dedicated
space missions like CoRoT, Kepler and Eddington. The comparison of five independent analyses of a thousand
synthetic light curves is presented here. The light curves were produced with an end-to-end instrument simulator
and include stellar micro-variability and a varied sample of stellar and planetary transits diluted among a much
larger sample of light curves. The results show that different algorithms perform quite differently, with varying
degree of success in detecting real transits and avoiding false positives. We also find that the detection algorithm
alone does not make all the difference, the way the light curves are filtered and detrended beforehand also has
a strong impact on the detection limit and on the false alarm rate. The microvariability of sun-like stars is a
limiting factor only in extreme cases, when the fluctuation amplitudes are large and the star is faint. In the
majority of cases it does not prevent the detection of planetary transits. The most sensitive analysis is performed
with periodic box-shaped detection filters. False positives are method-dependent, which should allow to reduce
their detection rate in real surveys. Background eclipsing binaries are wrongly identified as planetary transits in
most cases, a result which confirms that contamination by background stars is the main limiting factor. With
parameters simulating the CoRoT mission, our detection test indicates that the smallest detectable planet radius
is of the order of 2 Earth radii for a 10-day orbital period planet around a K0 dwarf.

Key words. Planetary systems - Methods: data analysis - Techniques: photometric - Stars: activity

1. Introduction a few mmag, the main limitation comes from residual


systematics due to the instrument and from intrinsic
Transit searches have recently shown their potential stellar variability. These are the problems that the transit
in discovering planetary candidates. The ground-based detection algorithms should face in future space mis-
OGLE project, for instance, (Udalski et al. 2002a,b, 2003, sions for long-term planet searches: CoRoT (Baglin 2003),
2004) detected 177 planetary transit candidates, among Kepler (Borucki et al. 2004) and Eddington (Favata 2004).
which so far 5 are confirmed as short-period planets
(Konacki et al. 2003; Bouchy et al. 2004; Pont et al. 2004;
Konacki et al. 2005, submitted). Space-based transit Several transit detection algorithms were proposed in
searches are expected to be much more efficient, because the recent literature: Bayesian algorithms (Doyle et al.
of i) their continuous time sampling over long periods, 2000; Defaÿ et al. 2001; Aigrain & Favata 2002), matched
ii) the more stable photometric signal. At precisions of filters (Jenkins et al. 1996), box-shaped transit finder
(Aigrain & Irwin 2004) and the Box-fitting Least Squares
Send offprint requests to: [Link]@[Link] (BLS) method (Kovács et al. 2002). A theoretical compar-
2 Moutou et al.: Blind test detection of planet transits

ison of these methods was proposed (Tingley 2003) which sis of our synthetic light curve construction. Let us recall
concluded that “no detector is clearly superior for all tran- that the CoRoT onboard software will perform photome-
sit signal energies”, but an optimized BLS algorithm still try on a pre-determined list of stars (12,000 per pointing)
performs slightly better for shallower transits. Here, we every 8 minutes during 150 days, by summing all the signal
adopt a more empirical approach to make the compar- within pre-defined aperture covering between 100 and 60
ison: we use as a testbench synthetic light curves with pixels depending on the magnitude. Environmental per-
detailed simulations of the instrumental noise and astro- turbations such as light scattered by the Earth, radiation
physical sources of variability, to blindly test five different flux, Attitude Control System jitter and temperature vari-
transit detection techniques. The five different detection ations are computed by specialised models. The outputs
teams have no prior knowledge on their content. are light curves at the focal plane level, proton fluxes with
This comparison of detection algorithms is likely rel- a 10 mm CCD shielding, satellite angular depointing and
evant for all transit-search programmes, from the ground temperature curves for the most sensitive sub-systems.
and from space, although it has been focussed here on Monochromatic PSFs are then provided using an optical
CoRoT, the first space mission largely dedicated to tran- model of the telescope, and used to compute white PSFs,
sit searches, to be launched in 2006. The CoRoT char- taking into account the optical transmission, CCD quan-
acteristics are given in Boisnard & Auvergne (2004) and tum efficiency and target flux for main sequence stars in
its planet detection capability is estimated in Bordé et al. the effective temperature range 3500 to 9000 K. The ap-
(2003). This ability is empirically addressed in this paper. propriate photometric aperture is computed, depending
The goals of this blind detection simulation are the on the star position, magnitude and colour (Llebaria et al.
following: 2003).
We build 25 basic light curves based on stars scanning
– To independently apply several light curve analysis
5 magnitudes, from 12 to 16, and 5 temperatures, from
methods on the same simulated light curves, remov-
4500K to 6750K, all located at the same CCD position.
ing the possible “subjective” elements (possible biases
They contain the following realistic noise contributions:
when the same person simulates the transit and detects
(i) Photon noise (Poisson statistics).
it)
(ii) Flat-field noise, with a 1% non-uniformity.
– To compare their ability to detect faint transits, avoid-
(iii) Read-out noise of 10 electrons/pixel/read-out.
ing false positives (false positives beeing hereafter de-
(iv) No jitter amplitude; it is negligible in the CoRoT
fined as the noise features from instrumental or stel-
broad bandpass.
lar micro-variability origin, accidentally picked up as a
(v) Zodiacal light, the unique source of sky background in
transit signature).
space, a uniform offset of 12 electrons/pixel/second over
– To estimate the impact of star micro-variability for
the CCD remaining constant along the orbit. It is cor-
transit searches.
rected by subtraction and the resulting additional photon
– To test the ability to distinguish between a planetary
noise is kept.
transit and an eclipsing binary from the light curve
(vi) Proton impacts. The exposures corresponding to the
alone.
crossing of the South-Atlantic (SAA) anomaly are not us-
Applied to CoRoT, this exercise will help deriving an es- able and the final data thus contain a large number of
timate of the detection limits of this instrument and its quasi-periodic gaps (typical duration of 30 min each inter-
limiting factors, as well as defining the strategy for light val of 1.7 hours) that should be handled by the detection
curve analysis and required follow-up. algorithms (Figure 1).
Section 2 presents the light curve building procedure; (vii) Earth scattered light, which is is not uniform over the
Section 3 then describes the five light curve analysis meth- CCD, and varies along the orbit, almost following the or-
ods and Section 4 discusses the results and draws conclu- bital period. We insert a scattered light contribution with
sions. a realistic maximum value of 1 electron/pixel/second. As
it will be corrected in the processed CoRoT light curves
to a certain level, we subsequently remove the scattered
2. Generating simulated light curves
light contribution to first order, leaving a random < 50%
The synthetic light curves were built by combining sev- residual. The correction applied may lead to a positive or a
eral components: the instrumental model, stellar micro- negative residual signal, corresponding respectively to an
variability, and in some cases a planetary transit, eclipsing overestimation or underestimation of the actual scattered
binary or variable star signal. light level (Figure 1). This allows (i) to test the robustness
of the detection algorithms, especially against a negative
(i.e. when it is over-corrected), quasi-periodic signal, and
2.1. Instrumental model
(ii) to create 999 light curves with varying scattered-light
An instrument model (Auvergne et al. 2003) has been noise amplitudes, produced from a parent set of 25 instru-
designed for CoRoT in order to evaluate the instrument mental curves. Note that scattered light is the dominant
detection capabilities and test the onboard and ground- systematic signal in the CoRoT instrumental noise and the
based software. We use the output of this model as the ba- only instrumental systematics included in the simulation;
Moutou et al.: Blind test detection of planet transits 3

In order to simulate optical light curves for main-


sequence stars rotating faster than the Sun and with a
higher activity level, the rotation period and the areas of
the three model active regions are varied: the areas of the
three active regions as well as the uniform background
term are multiplied by a factor f = A(P, Sp)/A , where
A(P, Sp) is the average amplitude of the optical light
curves of a star of rotation period P and spectral class Sp
derived from Messina et al. (2003) and A = 2.2 × 10−3
mag is the maximum amplitude of the solar optical vari-
ability. For stars with a rotation period longer than 12
days, there is no information on the amplitude of the rota-
tional modulation in the optical passband (except for the
Sun), so that f is assumed to be in the range 1.5 to 6 for a
spectral type varying from F5V to K5V. The coordinates
Fig. 1. Example of an instrumental light curve before (top)
of the three active regions are those of the solar model ac-
and after the partial correction of scattered light (once under- tive regions and the inclination of the stellar rotation axis
estimated (middle), and once overestimated (bottom)). The with respect to the line of sight is fixed at 90◦ . To reduce
sharp peaks in the upper plot are due to the SAA crossing; the impact of the small discontinuities occurring every 7.0
they become gaps in the output light curves. days at the passage from a fit to the next, the model pa-
rameters are linearly interpolated in time between succes-
sive best fits. The brightness contrast coefficients and their
center-to-limb variations are the solar ones. The ratio of
this is the reason why we deliberately took a conservative
the area of the faculae to that of the sunspots in an ac-
value for its level of correction.
tive region is estimated by extrapolating the relationship
given by Chapman et al. (1997) to larger sunspot areas.
2.2. Stellar micro-variability The resulting facular contribution is found to be negligible
for stars with a rotation period shorter than 20 days and
Stellar micro-variability curves are taken from two inde- spectral type later than G8. The variability on time scales
pendent models. These effects are independent of the in- significantly shorter than the rotation period is modelled
strument and are usually thought to be among the main by scaling the residuals of the best fits to the solar TSI
limitations of transit detection. Considering two types of variations, which are due to the evolution of the solar ac-
micro-variability curves, there are 55 different light curves. tive regions on time scales shorter than 4-5 days (Lanza
To build the final light curves the micro-variability curves et al. 2003, 2004). In order to increase the amplitude of the
are all scaled by a random factor between 0.5 and 2, to short-term stellar variability to make the planetary tran-
account for the dispersion in the variability level observed sit search more challenging, the residual solar variability
in real stars. They are also phase shifted by an arbitrary is multiplied by a factor 3f and linearly interpolated to
value, and rebinned in their time sampling by a random get an even time sampling of 8 minutes. Finally, Poisson
factor between 1.0 and 1.2, to avoid excessive similarity random fluctuations with a relative standard deviation of
between the final light curves. [3 × (f A )2 ]−0.5 = 3.8 × 10−3 f −1 are added to simulate
short-term variations due to microflaring or convection on
2.2.1. A scaled solar-like model for stellar variability time scales of several minutes.

Lanza et al. (2003) model the variation of the Total Solar


Irradiance (TSI) by considering a simple stellar-like model
based on the rotational modulation of the visibility of
three active regions plus a uniformly distributed back- In addition to the original TSI light curve, 9 light
ground component which accounts for the surface features curves were produced with this method, with spectral
affecting the mean level of the solar flux. Each active re- types F5, G0 and G8 and rotation periods 3, 10 and 20
gion consists of faculae and sunspots in a fixed area ratio days. The amplitude of micro-variability ranges from 0.1
and with brightness contrasts that are functions of the to 4 %. The stellar optical time series so obtained are dom-
limb angle. A time interval of 153 days ranging from 1st inated by the rotational modulation except for rotation
July to 1st December 2000 is selected as representative of periods longer than 15-20 days for which the active region
the variability of the TSI close to the maximum of the 11- evolution prevails on the rotational modulation signal. A
yr cycle. The model is applied to successive subintervals few small discontinuities are present, due to the passage
of length 14 days, separated by 7 days from each other, to from a 14-d fit to the successive one, but they never exceed
obtain the coordinates and the areas of the three model 5% of the amplitude of the rotational modulation, even in
active regions plus the uniform background term. the case of the most active stars.
4 Moutou et al.: Blind test detection of planet transits

2.2.2. Light curves from SIMLC the method described in Section 2.2.1. This is thought to
be due to the more coherent nature of micro-variability in
SIMLC is a tool to simulate stellar micro-variability for active stars, which SIMLC currently cannot reproduce.
stars with spectral types F5 to K5 and ages later than
625 Myr. It works by computing an artificial power spec-
trum, starting from a fit to solar data and scaling it us- 2.3. Transits
ing empirical scaling laws. The power spectrum is then
sampled as appropriate given the time sampling and light Twenty planet transits were simulated. For a thousand
curve duration required, coupled with a random phase ar- light curves, this represents about an order of magnitude
ray, and reverse Fourier-transformed to the time domain. more transit events than expected in real samples (Bordé
More details can be found in Aigrain et al. (2004), and et al. 2003). It is important that light curves without
only a brief summary is given here. transit vastly outnumber those with transits in the sim-
Following Andersen et al. (1994), the power spectrum ulation, so that the detection thresholds have to be set
of the Sun’s total irradiance variations up to ∼ 600 µHz realistically high. The characteristics of the inserted tran-
(as observed with the PMO6 radiometer, which is part sits are not chosen with the goal of reproducing planet
of the VIRGO experiment on SOHO), is modelled as a statistics, because those are mostly unknown in the range
sum of three broken power laws, each characterised by an where CoRoT will discover planets; the idea is rather to
amplitude, characteristic timescale and slope. There are test limitations and to explore the borders of detectability.
3 components, with timescales of 10 days, 4 days and 10 The objectives are then (1) to sample a variety of system
min. The powerlaw slopes are 3.8, 1.8 and 2.0. All these cases and (2) to investigate the detection limit by includ-
values are those measured for the Sun. Note that because ing a large number of small planets in light curves with a
of the slope of the first powerlaw is quite steep it falls of varying noise level. The characteristics of the transits are
quickly for timescales larger than 10 days, while the sec- summarized in Table 1. The planet size spans the range
ond powerlaw, which is quite shallow, is still the dominant from 1.6 Earth radius (RE ) to 1.3 Jupiter radius (RJ ).
component at 100 µHz (timescales of a few hours, typical One system with two planets is inserted. The period do-
of transits). The amplitude of the lowest frequency, or ‘ac- main is 4 to 90 days. The target stars with the planetary
tive regions’, component is correlated with simultaneous transits are chosen at ”directed random”, with the aim
measurements of the Caii K-line index indicator of chro- of exploring the regions near the limit of detectability.
mospheric activity. Higher frequency components, which For instance, the largest planets are inserted in the light
have much smaller amplitude, are thought to be related, curve of faint and/or active stars. The largest planets are
respectively, to super- or meso- granulation and to a su- also the ones with the lower number of transits (the hot
perposition of granulation, oscillations and photon noise. Jupiter configurations, beeing easy cases for space transit
searches, are not emphasized here).
Empirically derived scaling laws can be used to scale
The transit light curves are simulated with the aid of the
the amplitude and timescale of each power law to what
Universal Transit Modeler (Deeg 1999). Limb darkening of
might be expected for other stars. Currently this can be
stars are estimated from recent calculations from ATLAS9
done only for the dominant low-frequency component, us-
models and the CoRoT bandpasses (Barban, priv. comm.,
ing chromospheric activity as a proxy. Observational con-
see method in Barban et al. (2003)), taking into account
straints are currently insufficient to derive scaling laws
a linear limb-darkening law and a classical mixing-length
for the other components, including the second compo-
theory.
nent which corresponds to the timescales characteristic
of planetary transits, and those are thus left as they are
measured in the Sun. Upcoming data, in particular from 2.4. Eclipsing binaries and large-amplitude variable
the MOST (Micro-variability and Oscillations of STars) stars
satellite (Walker et al. 2003), are expected to provide con-
straints on this component in the near future. Simulations (Brown 2003) and the results of the OGLE
A set of 45 light curves lasting 150 days, with 8 min planetary transit follow-up (Bouchy et al. 2004b, Pont et
sampling, were generated for the present exercise. They al. 2004b) indicate that for a given transit signal depth,
correspond to a grid of stars of spectral type F5, F8, G0, the contamination by grazing and background eclipsing
G2, G5, G8, K0, K2 & K5, and ages 0.625, 1, 2, 3 and binaries (EB) will be at least as numerous as the planet
4.5 Gyr. The amplitude of the dominant, ‘active regions’ transits themselves, or could even largely outweigh the
component of the variations scales with convection zone true planet events. To simulate this contamination, we in-
thickness (which is larger in later spectral types) and the serted ten low-depth stellar eclipse signals among the light
inverse of the rotation period (which is larger in older curves. There are grazing binaries (6 events), background
stars), while the characteristic timescale scales roughly binaries (4 events) and one hierarchical triple stellar sys-
with the rotation period. As a result, at 0.625 Gyr the tem. Finally, we inserted five background variable stars: a
most variable stars are F-stars, while at 4.5 Gyr they are low-amplitude delta Scuti, a classical Cepheid, a β Cephei,
K-stars. The amplitude of micro-variability ranges from the semi-regular variable Z UMa and the irregular Z Cam.
0.01 to 0.1%, a level much lower than those obtained with The background variables and background eclipsing bina-
Moutou et al.: Blind test detection of planet transits 5

ries refer to fainter objects included in the same aperture, 2.2), and due to the injection of a fainter stellar light curve
3 to 7 magnitudes fainter than the main target. In the (section 2.5). The micro-variability light curve was also se-
case of grazing eclipses, the binary star is the main target lected to match the color temperature (or spectral type)
itself, i.e. in the magnitude range 12–16 for CoRoT. of the instrumental light curve. In total, 964 light curves
The characteristics of these light curves are summarized do not have any transit or EB/variable star signal.
in Table [Link], the characteristics of the systems are The temporal sampling of the final light curve is 8 min-
chosen to cover most possible combinations rather than utes, with a duration of 150 days, as for CoRoT long ob-
to reproduce the expected characteristics of real samples. serving runs. A complete light curve contains 25056 data
Our eclipsing binary transits include curves with anti- points.
transit signals, with sine and double-sine modulations out- The package of 999 light curves (identified with ID 1 to
side the transits due to the ellipsoidal deformation of the 999 in the following) were supplied to the detection teams
primary under the gravitational influence of the secondary, with no information on their content nor on the way they
V-shaped eclipses (grazing) and U-shaped eclipses (central were calculated; neither the number of hidden planets nor
eclipse in a background contaminant system). For graz- the nature of injected noise sources were known by the de-
ing eclipsing binaries, the algorithms of Mandel & Agol tecting teams. In the real case with CoRoT light curves,
(2002) and Wichmann (1998) are used. The Universal some data will be known beforehand, such as the star
Transit Modeler (Deeg 1999) is used for background eclips- magnitude, spectral type, luminosity class, contamination
ing binaries and the triple star. The variable star light by neighbours, and pipeline processing parameters. This
curves are taken from the literature and from the archives knowledge is not fundamental for transit detection but will
of the AAVSO (American Association of Variable Star obviously help in the identification of the detected events.
Observers).

3. Blind search for transit events


2.5. Crowding
In this section, we describe the five methods used for de-
Another consequence of background stars is to contribute trending the light curves and detecting the transits. Their
to the flux variations measured in the aperture placed on elements span a wide range of complexity from fairly basic
the primary target. To simulate this effect, we systemati- to very evolved. They also differ by their previous use: one
cally added to the primary light curve the contribution of team started from scratch with no experience in transit de-
one background star, characterised by a light curve con- tection, two teams use algorithms that they developed for
structed with the same procedure as for the main target, ground-based transit surveys (BEST and OGLE), and two
and a magnitude difference with a distribution probability teams are working on algorithms for space-based transit
∼ 2∆m in the range 0-6 magnitude (thus including stars searches.
up to 22th magnitude). For the second star, another stellar
micro-variability curve is used. Thus, each final simulated 3.1. Team 1: correlation with a sliding transit template
light curve consists in the addition of two different con-
tributors. The first algorithm is based on correlation of the light
curve with a single sliding template, without prior de-
trending. Systematic noise on short timescales is removed
2.6. The final set of 999 simulated light curves from the correlation function, then candidates with a high
signal in the correlation function are examined individu-
The sample of 999 light curves was composed from a com-
ally by eye to pick up the final detections.
bination of the individual elements described so far, as
it is developed in this section. The parent lightcurves are
the 25 instrumental curves (from a grid of 5 magnitudes Detecting the transits: The light curves are correlated with
and 5 color temperatures), with a level of scattered-light a sliding template to compute a correlation function C(t).
residual noise different in all lightcurves. The magnitude The template is a transit shape based on the algorithm of
of each target was drawn from a probability distribution: Mandel & Agol (2002). The use of a unique transit tem-
p(m) ∼ 2m , approximating an isotropic distribution near plate is sufficient and makes the method much simpler; the
the Galactic plane, between 12 and 16 mag. The distribu- optimum template has a transit duration of ∼8 hours and
tion of color temperatures was selected to roughly match a is bordered by two flat segments of ∼14 hours. Previous
spectral type distribution realistic for magnitude-limited, filtering of the long-term variations is not crucial in this
transit-search fields near the Galactic plane; from an anal- case, because the template covers only a small part of the
ysis of the stellar population in future CoRoT fields, there light curve at a time. Fig. 2 shows the resulting correlation
are 40% of F dwarfs, 40% of G dwarfs and 20% of K dwarfs functions for a few cases. In this method, no periodicity is
(Moutou et al, in prep.). Finally, the micro-variability fluc- assumed in the transit signal and the period is estimated
tuations were inserted: from the 55 parent light curves, all a posteriori.
final micro-variability contributions are unique due to the One advantage of the correlation method is that it is
applied amplitude and temporal extension factors (section not affected by gaps in the time coverage of the data.
6 Moutou et al.: Blind test detection of planet transits

riodic signals and folding accordingly each light curve to


point out autosimilarity of the shape.

Discussion: It turns out that the “families” of objects used


to remove the noise in the correlation function often cor-
respond to sets of light curves based on the same parent
noise curve. Therefore, with this method, the removal of
the systematic noise is probably more efficient on simu-
lated data than it would be in reality.
Correlation with a sliding transit template is among
the simplest possible methods for transit detection, short
of direct examination of all light curves by eye, and the re-
sults of this algorithm on our synthetic sample can be used
as a reference point of comparison for the performances of
the other algorithms.
Fig. 2. A) and B) are two correlation functions (”detection
curves” DC) showing systematic noise. Artefacts are sometimes
obvious (synchroneous spikes and similar envelope) or can be 3.2. Team 2: Box search with lowpass filtering and
hidden, with a known or unknown origin. C) and D) show broken-line detrending
DC613 before then after detrending (note the very different
y-axis scales). The algorithm searches for box-shaped signals in normal-
ized, filtered, variability fitted and unfolded light curves.
It was designed to detect single as well as periodic transit
events.
Missing epochs simply make no contributions to the cor-
relation function, which avoids the problems caused by
any interpolation of the data in the gaps. Detrending the light curves: In a first step all the light
curves are normalized, neglecting all the epochs without
flux value. These epochs, covering a maximal time span
Detrending the light curves: As explained above, no de- of 43 minutes caused by crossings of the SAA, are short
trending was done on the long-term variations. Correlation compared with the transit durations of minimal 2 hours.
curves show a common pattern of perturbation on short Therefore the missing epochs are linearly interpolated,
time scales, associated with instrumental effects like tem- without risk of introducing false transit events. A Fourier
perature changes (“breathing”), scattered light or point- analysis is carried out, giving a dominant systematic pe-
ing jitter. We assume that this instrumental noise intro- riodic signal at a period of P∼1.13 hours – the orbital
duces a common noise in all correlation functions, except period of the satellite (residuals of the scattered light con-

→ →
for a scale factor. We model this by Ci = − si + λi .−

p where tribution). A standard lowpass-filter is used to eliminate

→ →

Ci is the temporal correlation curve, si is the unknown this signal and other high frequency signals. The cut-off
noise-free correlation curve, p (with − →
p  = 1 by conven- frequency is varied between 0.059 day−1 and 0.177 day−1 .
tion) the unknown instrumental perturbation common to The shape of the transit signals is moderately deformed by
all objects, weighted by the unknown λi . It appears that this kind of filtering, but for the purpose of a detection tool
the average of λ is close to zero, so that p cannot be simply the influence of this side-effect is negligible. Another side-
estimated by averaging the curves. To retrieve p we apply effect of the lowpass-filtering is that an additional modu-
the following sequence: lation of the light curves occurs at the beginning and the
end of the data. Therefore the data of the first and last
1. Choose an initial guess for p from a light curve strongly 10 days are excluded from the transit search. The stellar
dominated by p;
−→ variability is fitted locally. The light curves are separated
2. Estimate a first-guess λi by projecting Ci on − →p; into sub-sections and a linear least-squares fit to the data
3. The mean of C/λ over all objects is our refined p, giving is performed for every sub-section. The size of the sub-
the refined λi . sections is varied in a range between 0.5 to 3 days to en-
sure that no transit-like signals are significantly altered.
Actually, we found that the instrumental noise pattern
In a subsequent step the fit is subtracted from the data
was not common to all stars, but could be classified into
(see Fig. 3).
a number of families. We therefore applied the above pro-
cedure to determine different p for each empirically deter-
mined family. Detecting the transits: The standard deviation of the nor-
Detrended correlation functions exhibiting a strong malized, lowpass-filtered and variability-fitted light curves
signal (i.e. about 5% of the light curve sample) are then is calculated. Subsequently a box search for transit-like
examined by eye, selecting the candidates with strictly pe- events is carried out. All data points deviating from the
Moutou et al.: Blind test detection of planet transits 7

signals more information about the host star is helpful,


especially for non-periodic single transit events.

3.3. Team 3: Box least-squares with 200-harmonics


filtering
In this method, the light curves are detrended by fitting
200+5 harmonics, then transits are detected with a box-
fitting on the phase-folded signal.

Detrending the light curves: The scattered light periodic


effect is verified to have the same period in all light curves,
though its shape is varying among them. Therefore it
seems plausible to describe it (in each light curve inde-
pendently) as a sum of a small number of harmonics (5)
of a fundamental frequency – fS = 14.18 day−1 .
5
 5

FS (tn ) = ak cos(2πkfS tn ) + bk sin(2πkfS tn ) .
k=1 k=1
Fig. 3. In the figure the different steps of the light curve anal-
ysis of team 2 is exemplified for light curve #34. First the Separately, the long term stellar variability is also mod-
data gaps (not visible at this scale) are interpolated and the elled as a sum of harmonics. The fundamental frequency
1
light curve is normalized (top) and a lowpass-filter is applied used this time is fL = 2T , where T is the whole duration of
to remove high frequency signals (middle). Finally the stellar the light curve (about 150 days). The number of harmon-
variability is modeled and a search for period signals is per- ics to consider for the long-term variability model, NL , is
formed (bottom). The periodic signal found is marked in the fixed to 200. Thus, the highest frequency in this model
figure. corresponds to a period of 1.5 day. We expect the energy
in a planetary transit signal to be mainly concentrated in
average signal by 3σ are identified and the neighbouring higher frequencies, because of the relatively sharp ingress
deviating points are combined into a single detection. A and egress. Therefore the harmonics we fit should include
maximal and a minimal signal length are defined, corre- only a negligible fraction of the energy in the transit sig-
sponding to transit lengths between 1 to 30 hours. Mean nal.
epochs of the signals are determined, spurious detections NL
 NL

are excluded (this mostly concerns an instrumental arte- FL (tn ) = ck cos(2πkfL tn ) + dk sin(2πkfL tn ) .
fact that is identified in all light curves) and all remain- k=1 k=1

ing single detections are listed for further inspections. Including also the average level, the model is parame-
Thereafter the epochs of the potential events found are au- terized by 411 parameters, estimated by a least-square
tomatically searched for periodicity: time differences be- fit. Naı̈vely, that would involve solving a system of 411
tween all detected events with approximately the same linear equations (known as the normal equations) with
detection level are estimated and retained when a sin- the same number of unknowns. This may be prohibitively
gle time difference or multiples of it have occured sev- time-consuming. Therefore, we consider only the times tn
eral times within a given error margin. For possible cases for which a valid measurement existed for all light curves,
a detailed investigation of the potential transit events is i.e., times which are guaranteed to lie outside the SAA.
performed where the depths and duration of the events This amounts to about two thirds of the original sampling
are determined. The corresponding light curves are man- times. Using only those points, which are common to all
ually inspected for secondary eclipses and gravitationally light curves, allows us to calculate SVD (Singular Value
induced modulations caused by high-mass secondaries. Decomposition) pseudoinverse of the normal equation ma-
Finally all light curves with detected events are classi- trix (Press et al. 1993) and then use the same matrix to
fied as either possible transit-like or other events. solve for the 411 coefficients in each light curve separately.
As it turns out, the price we pay by using only part of the
points is negligible, because of the very good time cover-
Discussion: The algorithm is based on a search routine for
age. After the fit, the derived coefficients are used to model
single transit events developed for the ground-based tran-
and remove the scattered light and stellar variability from
sit search BEST (Rauer et al. 2004). The adapted version
the complete set of points of the light curve.
can detect both single and periodic transit-like events. It
was also adapted to be able to detrend the microvariability
that is not an issue for ground-based wide angle searches. Detecting the transits: We apply the Box-fitting Least-
In general, to discriminate between real and false transit Squares (BLS) algorithm, presented in Kovács et al.
8 Moutou et al.: Blind test detection of planet transits

4
x 10
−5
3.4. Team 4: Matched filter with image-processing
detrending
3
Adjusted SR

2 In this method, the signal is denoised with the ”Gauging


Filter” (GF), and the detection is performed with a stan-
1
dard matched-filter associated to a three-criteria decision
0 process (Guis & Barge 2004).
−2 −1 0
10 10 10
−1
frequency [day ]
200 Detrending the light curves: In order to remove from the
signal the low frequency modulations, the GF is applied
150
to the light curves following a procedure described in Guis
100 & Barge (2004). In this method the time plot drawing of
a light curve is considered as a 2D-image which splits into
50
two parts: one corresponds to the area below the time
0
plot, the other corresponds to the area above. Then, a de-
4 6 8 10 12 14 16 18
Normalized Score
noised signal SF is defined as the mean value of the two
curves resulting from the processing of these two images.
Fig. 4. Top: The adjusted SR function for light curve 34, which The result may still contain residual components at vari-
shows the typical peaks of a transit signal. Bottom: The dis- ous frequencies. These residuals are removed thanks to a
tribution of the normalized SR of the 999 light curves. The second-order filtering at various scales and Fourier trans-
arrow points to the adopted detection threshold of 7.0 (Team forms.
3).
The GF detrending procedure is the following: (i) the light
curve is successively under-sampled and expanded with a
linear recursive interpolation method over the data gaps in
order to keep the total size of the light curve unchanged;
(2002), on the detrended data. We use a logarithmic sam- (ii) the resulting light curve is smoothed out with a 4-
pling of the frequency space, with 2000 frequencies be- width smoothing filter (widths are 2n with n = 6,7,8,9),
tween 0.01 and 3 day−1 . The maximum allowed transit producing smoothed light curves with different low fre-
width is proportional to the cubic root of the period, as quency ranges; (iii) the final light curve is chosen as the
suitable for Keplerian orbits, and 5 phase bins are allowed optimum of the four filtered light curves. The final choice
in a maximum width transit. Eventually, a simple function is made in Fourier space looking at the local minima of the
(a + fb , where f is the frequency) is fitted and subtracted energy contained in the four light curves and selecting the
from the SR (Signal Residue) function (Kovács et al. 2002) one within the lowest frequency range (i.e. the furthest
to adjust it for the varying number of configurations tested from the transit frequencies).
in each frequency (Fig. 4 top). Fig. 4 (bottom) displays the For a given light curve, the best fit of the low frequency
distribution of the normalized relative heights of the SR modulations obtained with our detrending method is de-
peak, for all 999 light curves. One can clearly see a bell- noted CLF . In most light curves, the low frequency mod-
shape distribution, whose samples all lie below a value of ulations are quite weak and using under-sampled light
7.0. Thus, we fix 7.0 as the detection threshold, tagging curves with loose smoothing is sufficient.
all the scores above it as detections.

Detecting the transits: The detection method is based on


Discussion The main attractive feature of the harmonic- the classical matched filter aimed at detecting a single fea-
fitting procedure is the fact that it does not require any ture in a noisy signal (Defaÿ 2001). It is composed of three
interpolation of the measurements onto a regular grid. main steps: (i) a subtraction of CLF from the light curve;
Such interpolation would have introduced interpolation (ii) a convolution of the detrended light curve with a refer-
noise with some periodic nature, due to the SAA gaps, ence filter (based on a model of planetary transit) resulting
and probably introduce more false alarms. in a convolution curve M ; (iii) the identification of local
Removing harmonics with periods as short as 1.5 days convolution maxima in M which directly provides possi-
may modify a little the shape of the transit signal, but it ble positions for the transit like features. The convolution
does not affect the detection capability. The final charac- maxima are selected in two different ways: one is a corre-
terization of the transit signal is done by fitting, together lation in Fourier space with a library of periodic signals;
with the harmonics, a simplified transit model, with linear the other is a sorting of the convolution peaks and a selec-
ingress and egress, and a ’flat-bottom’ transit. Fitting it tion according to criteria based on statistical parameters
together with the harmonics proved quite easy, using the like the variance or the entropy of the peak distribution
SVD pseudoinverse method, and the derived transit signal (Guis & Barge 2004). In summary, our detection method
is not modulated by the harmonics. combines the standard matched filter, which is well suited
Moutou et al.: Blind test detection of planet transits 9

for localising isolated features, and the Fourier correlation,


which permits to find periodicities more efficiently.
With the above method a total of 25 light curves were
found to contain transit-like features (Tables 1, 2). 19
of them are identified thanks to Fourier correlation; 13
(resp. 2) of them corresponds to single (resp. bi-) pe-
riodic features present all along the light curve, and 4
have the characteristics of an eclipsing binary. Bi-periodic
events are characterized by two not-commensurable peri-
ods. Selection by peak sorting allowed to identify the 6
other detections, with a lower confidence level, but also
some secondary features.

Discussion: Detection is made using pairs of peaks chosen


among the set of the selected peaks. The period corre-
sponding to this pair is then checked against the posi- Fig. 5. Light curve 34 before (top) and after (bottom) iterative
non-linear filtering with a trial duration of 3.3 hrs (Team 5).
tions of other selected peaks. The larger the number of
The Y-axis represents a relative flux.
the pairs or the shorter the periodicities, the higher the
confidence level. In some cases (IDs 983, 985) the noise
level is so strong, probably due to star micro-variability, each iteration from the median of the absolute deviations
that detections become less reliable. Indeed, the matched of the difference signal. The final clipped continuum is
filter is very sensitive to strong discontinuities in the sig- subtracted from the original signal and the median level
nal. Further, it can be noted that selection by peak sorting restored to give the filtered (white-noise-like) light curve
permits to bring out some potentially interesting cases, as (see example in Fig. 5).
for example signals with rough periodicity on parts of a
light curve. However, such cases were removed from our Detecting the transits: The box-shaped transit finding al-
list of possible events because their periodicity was not gorithm of Aigrain & Irwin (2004) is applied to the filtered
firmly established. light curves. This algorithm, based on likelihood maximi-
sation of a box-shaped, periodic transit √ model, maximises
3.5. Team 5: Box maximum-likelihood with iterative the transit signal-to-noise ratio S = Ntr × ∆F/σ, where
1-D filtering Ntr is the number of in-transit points, ∆F the transit
depth (which is the mean deviation from the median of
Detrending the light curves: Residual scattered light vari- the in-transit points) and σ is the robustly estimated scat-
ations, whose period is determined by sine-fitting over the ter. The parameters are the transit duration, period and
range 0.065 to 0.075 day, are removed by phase-folding epoch. Note that the optimal transit depth is fully deter-
each light curve at the best-fit period, smoothing it us- mined by the light curve and is thus not a free parameter.
ing a 1–D filter (median, then boxcar filter, with respec- The maximum multiple and single transit statistics (SM
tive widths of 511 & 11 data points), and subtracting the and SS respectively) are then saved and plotted for all
smoothed light curve from the original. Other ‘glitches’ light curves (see Fig. 6).
common to all light curves are removed by scaling each Light curves without events form a clump at low SS
light curve to unit median, computing the median of all and SM , while those containing significant residual stellar
scaled light curves, and subtracting a scaled version of variations form a tail at high SS , with SM ∝ SS . A thresh-
this ‘common component’ from each light curve. Bad data old of the form SM ≥ a+ b × SS was therefore used to pick
points (large scatter in ‘common component’ light curve) out periodic events, with a = 1 (a makes the threshold
are also flagged at this stage. more stringent at low SS ’s) and b = 1.3. All events below
Long term (stellar) variations are then removed us- a similar line with b = 1.4 are marked as low-confidence
ing an iterative clipped non-linear filter (Aigrain & Irwin events. All light curves with SS ≥ 20 are also included
2004). First the light curve is pre-filtered with a com- in the candidate lists as potentially containing single deep
bined median/boxcar filter (duration 7,3 samples) to re- transits.
move short duration glitches and to minimise the removal The long-term variation filtering and transit search are
of signal from transit-like features. A ”continuum” is then run for trial transit durations of 3.3, 6.7 and 13.3 hrs, yield-
computed from this pre-filtered curve by iteratively ap- ing 3 initial lists of 30, 74 and 167 candidates respectively.
plying a similar median/boxcar filter (duration 2d,d sam- After examining the corresponding light curves by eye to
ples, where d is the trial transit duration), flagging points remove obviously spurious candidates, the final (merged)
where the difference between continuum and original is list contains 31 candidates, of which 6 are low-confidence
> 3σ, and recomputing the continuum without the flagged detections (SM ≤ 1.0+1.4×SS ), 5 are identified as eclips-
points up to 5 times. The σ is robustly re-computed at ing binaries due to visible secondary eclipses, 1 as a triple
10 Moutou et al.: Blind test detection of planet transits

value. A Jupiter-type planet with two transits is de-


tected around a mV =16 G dwarf star. The smallest
planet detected by all teams (ID 390) has a radius of
2.4 RE , a period of 8 days and orbits a bright G-type
dwarf star (m =12).
– Seven transit events were not detected by any team (ID
numbers 317, 326, 575, 618, 681, 715). One (ID 715)
corresponds to a giant planet in grazing eclipse on a
strongly variable, faint and large-radius star. The other
non-detected transits correspond to small planets (1.8
to 2.5 RE ) and possibly illustrate the detection limit
expected for CoRoT (Fig. 7 and next section).
– Five transits were detected by only some of the teams.
ID 168, 537, 613 and 624 were detected by 2 to 4
teams. They correspond to star-planet systems with
Fig. 6. Candidate selection in the multiple (SM ) versus single more than 10 transit events in the total light curve
(SS ) transit detection statistic plane (trial duration 3.3 hrs). duration. Finally, ID 915, detected by two teams, had
Solid line: detection threshold. Dashed line: low-confidence a “trick”: it is a 58-day period planet around a binary
threshold. Diamonds: correct detections. Squares: false detec- star; only two teams have seen the planet whereas the
tions (grey: excluded at the light curve examination stage). binary was easily detected by all teams.
Triangles: missed detections (grey: detected using another trial – Nine false positives were announced. Teams 2, 4 and
duration). (Team 5) 5 detected 1, 3 and 5 false events respectively, while
teams 1 and 3 did not detect any. It never happens
that a false event is detected by two independent teams
star system and 1 as showing only sinusoidal variations on the same light curve. This probably represents the
(no transits). most remarkable result of this study. This result is
The actual duration of transit candidates is estimated very positive as it clearly proves that false alarms are
as the full-width at half-minimum of the transits in the method-dependent. It is probable that using such in-
phase-folded, filtered light curve. If that differed from the dependent multiple analyses will considerably reduce
trial duration, the filtering is re-run using the measured the false-alarm rate also with real data. Again, this
duration to obtain a better transit depth measurement result is not specific to CoRoT.
(period and epoch were deduced from the transit search – Six eclipsing binaries and variable stars were detected
itself). Additionally to the transit search, a search for pe- by all teams but sometimes wrongly identified as plan-
riodic variations with 0.5 ≤ P ≤ 4 days is run by sine- etary transits when they are background or grazing
fitting, providing improved period estimates for the stellar eclipsing binaries (ID 31, 249, 386, 919, 937, 985). Note
variables identified by the transit search, and one addi- that such cases should be identified by spectroscopic
tional detection of sinusoidal variation. or/and photometric ground-based follow-up.
– Three of the contaminating events are not detected.
ID 271 and 650 are non-periodic variables, and thus
4. Comparison and analysis
do not affect the transit search. ID 518 is the only
The analysis of the results is performed in two steps: first, eclipsing binary which is never detected, but it has only
an objective comparison of the individual results, and sec- two shallow transits over the 150-day period (grazing
ond, a discussion of each subteam on its own performance. binary with an M-dwarf companion).

Quantitative comparisons on the computing time required


4.1. ”Blind” analysis do not evidence major discrepancies between the teams;
Tables 1 and 2 give the details of the detection ability moreover, this was not always the priority of the detec-
of each team for each transit and other contaminating tion teams to minimize the analysis time, so that a crude
events. From a direct comparison of the individual results comparison is not realistic at this level. Eventhough, no
we observe that: analysis method requires a computing time which is un-
compatible with the data flow expected from space transit
– Nine transits were detected by all teams (ID num- searches. Also, none of the methods described in this pa-
bers 34, 85, 207, 390, 460, 474, 533, 835, 917). These per is strongly sensitive to the short and frequent gaps
are clearly validated by 5 independent detections. The in the data due to the SAA. Finally, the strong residual
measured parameters are very similar, except for the scattered-light noise never limits the detection, whatever
transit duration, whose estimation probably depends method is used, even when an over-correction of the scat-
on the measurement protocol. Periods are always es- tered light led to a periodic, negative signal, more easily
timated with a < 0.1% dispersion around the actual confused with transit signatures.
Moutou et al.: Blind test detection of planet transits 11

The results show that the simple correlation method


proposed by Team 1 is already a performant detection
tool (22 detected events over 38 inserted). It also appears
that teams 3 and 5 have detected significantly more tran-
sit events than the three other teams (26 detected events).
Team 3, moreover, had no false positive, compared to five
false positives for team 5. Team 5 could have included
less false positives with a higher threshold (see Figure 6),
but the method of team 3 has the additional advantage
of a very natural way of setting the threshold (Figure 4
bottom). This points towards a greater robustness of the
method used by team 3. It confirms that the BLS algo-
rithm is more sensitive to faint transits, a result which
also shows up in the theoretical comparison performed by
Tingley (2003) or in the recent re-analysis of the OGLE
data (Udalski et al. 2003). The better results of team 3 Fig. 7. Depth of the transits versus number of transits. Plus
could also be due to a more efficient detrending technique. signs show the non-detected events, diamonds show the events
detected by five groups independently, and filled circles cor-
respond to 1 to 4 detection occurences. The dashed line thus
4.2. Derived detection limits of CoRoT
shows the border of the simulated CoRoT detection limit (pro-
Figure 7 shows the three types of results (5 detections, 1 portional to n−1/2 ). The only plus sign above the detection line
to 4 detections, 0 detection) against the main parameters is a grazing planet on a faint fluctuating star.
that affect the detection sensitivity: transit depth d and
number of transits n in the light curve. The non-detected
tool such as Principal-Component Analysis. Filtering the
events are all situated below the empirical detection
long-period variations would also be useful.
curve d  2 10−3 n−1/2 , except one which corresponds to
a difficult case described earlier (ID 715). The detection
capability of CoRoT derived from this blind test analysis 4.3.2. Team 2
(where r is the planet radius and R the star radius) are:
- n = 50 (period < 3 days): r > 0.017R is detected. Non-detections: For most of the non-detections some indi-
- n = 15 (period < 10 days): r > 0.023R is detected. vidual events were detected on a very low confidence level,
- n = 3 (period < 50 days): r > 0.034R is detected. but most signals were below the detection limit of our rou-
tine. To detect these events a search in folded light curves
This ”law” may overestimate the minimum detected is necessary to improve the S/N ratio of the signals. For
size when the number of transits is small. It also does not ID 168, several transit-shaped events were detected with
account for the detrending of systematics, which may have a medium confidence level, but many were resulting from
an unpredictable impact on the detection. the variability of the stars, confusing the detection algo-
Table 3 gives the corresponding values of the minimal rithm searching for a periodicity. Consequently the treat-
detected planet size for four types of parent stars, F0V, ment of the variability of the stars and the robustness of
G0V, K0V and M0V. the periodicity search has to be improved.
False detections: Only one false detection was made by
the team. In light curve ID 213, simulating a faint star,
a false transit event was found. This detection had the
4.3. Lessons learned per team lowest confidence level of all our detections (3σ).
Prospects for further improvements: A first step would
4.3.1. Team 1
be to search for transits in folded light curves to be able
Non-detections: The residual pollution by stellar micro- to detect fainter transits in noisier environments. We also
variability may explain some non-detections. Light curve plan to test a Fourier analysis and remove frequencies that
ID 915, where the transit is mixed with a fast eclipsing can be identified as instrumental noise. The deformation of
binary, was missed because such a possibility was not con- the transit events can be prevented that way. Additionally
sidered. It would however not have been detected since the the light curves of variable stars have to be analysed more
small event was embedded in a secondary detection peak. carefully to reduce periodic variations that can confuse
It shows one of the detection limits of the method. the detection algorithm.
False detections: None, due to the low sensitivity limit
of the method and to visual elimination steps.
4.3.3. Team 3
Prospects for further improvements: The periodicity of
the transit signal could be used in the detection. The re- Non-detections; False detections: We have not detected
moval of the instrumental noise could be improved with a six of the simulated transits, and we had no false detec-
12 Moutou et al.: Blind test detection of planet transits

tions. Examining the non-detections reveals that the cor- threshold, which is automatically optimized from an esti-
rect peak appears in the SR for two of them – ID num- mate of the noise in the input signal. The threshold thus
bers 317 and 575. In order to detect light curve 575 we strongly depends on the quality of the detrending process.
would have to lower the detection threshold to 5.6, which
would have resulted in 86 false detections! The score of Prospects for further improvement: The method devel-
light curve 317 was 3.9, which would mean an unrealistic oped in the present exercise can certainly be improved for
lowering of the threshold. Most of the non-detected (ID higher noise level.A new filter based on image processing
numbers 317, 326, 575, 618 and 681) transits corresponded is presently being tested to improve the detection capac-
to planets of the smallest radii – less than 0.023 R . Light ity. It is developed on the same ground as the detrending
curve 715 was affected by the presence of two different pe- tool presented in section 3.4.
riods and escaped detection. Visual inspection of some of Another issue is the actual robustness of the algorithms
the non-detected transits also suggests that maybe some to periodicity changes, due for example to binarity, sec-
additional variability still exists after removal of the har- ondary planets or residual instrumental drift. This ques-
monics, but this effect was not quantified yet. tion has not been addressed in the present exercise since
Prospects for further improvements: The detrending transit signals were assumed strictly periodic.
process may benefit significantly from new procedures
recently developed for systematic-effect removal (Tamuz 4.3.5. Team 5
et al. 2005; Kovács et al. 2005). This procedure may re-
move a significant part of the stellar variability, but also Non detections; false detections: Three noteworthy points
some systematic effects that were not modelled in this ex- emerge from Fig. 6. First, the tail of small dots with high
ercise. SS and SM  SS (ie no clear evidence of a periodic signal)
The detection stage may benefit from the correction represents light curves with residual non-periodic varia-
proposed by Tingley (2003) to the BLS algorithm. In tions. In some cases, these were on too short a timescale to
principle, the corrected BLS should be somewhat more be fully filtered. However, some of the stellar light curves
powerful in distinguishing between a transit signal and built with the method of Section 2.2.1 contained transit-
random noise, thus improving the detection ability. like features, which are probably artefacts. Second, all the
Another improvement in the application of the BLS false alarms that escaped removal at the light curve exam-
may be related to a better sampling of the frequency ination stage were low-confidence events. Had the higher
space, fine tuning of the algorithm parameters (maximum threshold of SM ≥ 1.0+1.4SS been used, there would have
transit width, bin width, etc.), or better adjustment of been no false alarms. This is the result of a conscious de-
the SR function. Finally, one could also make a 2-D search cision to include low-confidence detections,in order to pin-
that looks at both the ”SDE” and ”DDE” parameters of point the detectability limit. Third, there were 11 missed
Kovács et al. (2002) and check whether this allows some detections for the 3.3 hr trial duration. Of those, 3 were
gain in the detection capability. detected at other trial durations and one was a planet
orbiting a binary causing non-periodic events, which we
didn’t tailor our search for. By lowering the threshold, we
could have detected ID 575 and ID 317 at the cost of 1
4.3.4. Team 4 and 17 additional false alarms respectively. Of the others,
3 produced SM ’s close to our algorithm’s white-noise limit
Non-Detections: A posteriori analyses show that the algo- of ∼ 6 (Aigrain & Irwin 2004) and are thus probably be-
rithm cannot detect a planet with radius less than 0.02R yond the detectability limit of CoRoT. The other 3 were
or when the noise (likely stellar noise) is so strong that the highly variable light curves.
denoising algorithm starts modifying the transit itself. Prospects for further improvements: Future improve-
False detections: Among the detected signals, three of ments will include refinement of the detrending stages, of
them turn out to be false detection (IDs 701, 703, 983). the choice of threshold through Monte Carlo simulations,
The case of ID 983 corresponds to a discontinuity of the and of the post-detection transit characterisation.
light curve produced by the stellar variability simulation
(sect. 2.2.1). In the other cases (IDs 701, 703), transit
5. Conclusion and prospects
features were erroneously identified with the peak sorting
method due to a random and unlucky location of the The present paper reports on the first “real size” blind
peaks in the convolution curve M . This kind of false study of a large set of synthetic stellar light curves, by
detection should however not be specific to our algo- five independent expert teams, to detect planetary tran-
[Link] best results are obtained when the matched sits. Different transit detection methods were tested, rang-
filter is associated with a peak selection by Fourier corre- ing from ad-hoc procedures built from scratch to seasoned
lation. No false alarm is found in this case, while selection algorithms used in existing ground-based surveys (OGLE
by peak sorting can lead to a number of false alarms due and BEST) and for future space missions (CoRoT and
to ambiguities with noise artefacts. Finally, the number Kepler). Together, they offer a global view of most possible
of false positives does not change with the detection approaches to light curve detrending and transit detection
Moutou et al.: Blind test detection of planet transits 13

algorithms. The results show that specialised algorithms be very nearly periodic and the algorithms for periodic
can detect transit signals down to the noise limit. It turns signals will probably be able to detect them.
out that rather simple procedures can identify most de- Among the algorithms studied here, at least two have
tectable transit signals, but that the additional effort put reached “maturity” for monochromatic light curves with-
into refined detection algorithms is really worthwhile to out a priori information. Continuation of this study could
recover the shallower detectable transits – potentially the consider the inclusion of more information: e.g. chromatic
most interesting ones. light curves (CoRoT), colour or spectroscopic information
The results also show that false detections may not about the target star. It could also include other instru-
be a major difficulty when various detection methods are mental contents (Kepler, Eddington) and a refinement of
applied, since no false event was ever detected twice inde- stellar micro-variability in the frequency-amplitude pa-
pendently in the simulation. Also, one method (harmonic- rameter zone where it may mimic transit features.
fitting filtering plus BLS detection) does not suffer from The 999 light curves produced and a table with used
any false detections on the synthetic sample. We note that parameters are made available to the community by re-
stellar micro-variability limits the transit detection only quest to the authors for testing and improving other de-
when its standard deviation is larger than 0.5 % and its tection algorithms.
main frequency is around 0.1 day−1 . In most cases, stel- Another by-product of our blind comparison of detect-
lar micro-variability such as simulated here (section 2.2) ing transits in light curves simulated as CoRoT data, is a
is not the main limitation, mostly because the fluctua- refined estimate of the detection limitation of this instru-
tion frequencies are not in the domain of the transit du- ment to come: a 3-day 1.1RE planet around an M0 dwarf
ration, and the amplitude is usually low. This result com- star would probably be detected. CoRoT would also de-
pares well with the conclusions of Jenkins (2003) and are tect the transits of a planet like µ Arae d, the 14.5-Earth
important in the context of space transit detection mis- mass planet with 9.55-day period recently discovered in
sions. Of course, this is true only as far as activity models radial-velocity surveys (Santos et al. 2004), if it is larger
based on the solar case correctly describe other stars. In than 2.7 RE , i.e. with a density up to that of terrestrial
the next few years, space astero-seismology missions may planets.
provide better constraints on stellar micro-variability on
Acknowledgements. We are grateful to the CoRoT PI Annie
timescales of a few hours. Baglin and to the whole CoRoT/Exoplanet Working Group
The present study shows that the detrending method for their support and fruitful discussions on this exercise. S.Z.
is almost as important for the detection of faint tran- wishes to acknowledge support by the European RTN “The
sits as the detection algorithm itself. Precise detrend- Origin of Planetary Systems” (PLANETS, contract number
ing process can cancel off almost all the variability and HPRN-CT-2002-00308) in the form of a fellowship. Finally, we
reflected light contamination. On the other hand, arte- express our acknowledgements to the anonymous referee for
facts of the detrending can cause spurious transit detec- his/her detailed reading and many interesting suggestions.
tions. The relative importance of detrending and detection
could be quantified by coupling the detrending and de- References
tection phases between the five algorithms. This was not
attempted in the present study. Aigrain, S. & Favata, F. 2002, A&A, 395, 625
Aigrain, S., Favata, F., & Gilmore, G. 2004, A&A, 414,
The processing of real data will suffer more systematic 1139
effects than those introduced in this exercise. In space, Aigrain, S. & Irwin, M. 2004, MNRAS, 350, 331
these are due to temperature cycles, pointing jitter or scat- Allen, C. 2000, ”Astrophysical Quantities”, A.N. Cox edi-
tered light gradients along the detector. In ground-based tions
transit surveys, systematics are mainly due to fluctuations Andersen, B. N., Leifsen, T., & Toutain, T. 1994, Sol.
in the Earth atmosphere. Future work will include a com- Phys., 152, 247
parative study of the gain brought by the correction of Andreasen, J. 1988, A&A, 196, 159
systematics using comparison stars, such as recently pro- Auvergne, M., Boisnard, L., & Buey, J.-T. 2003, SPIE,
posed by Tamuz et al. (2005) and Kovács et al. (2005). 4853, 170
The characterisation of transits (shape, radius ratio, Baglin, A. 2003, Adv. Sp. Res., 31, 345
orbital inclination, etc) requires an entirely different set Barban, C., Goupil, M. J., & Van’t Veer-Menneret, C.
of analysis tools and no particular insight was obtained 2003, A&A, 405, 1095
about it from the detection simulation – apart from con- Boisnard, L. & Auvergne, M. 2004, in 55 th IAF Congress,
firming that eclipsing binaries can easily be confused with October 4-7 2004 Vancouver, IAC-04-Q.1.01
planetary transits. Bordé, P., Rouan, D., & Léger, A. 2003, A&A, 405, 1137
Some of the algorithms used here focus on the detec- Borucki, W., Koch, D., Boss, A., et al. 2004, in Second
tion of individual transits as well as strictly periodic sig- Eddington Workshop: Stellar structure and habitable
nals. Detection of not strictly periodic transit signal is planet finding. Edited by F. Favata, S. Aigrain and A.
an issue that was not considered here. In most realistic Wilson. ESA SP-538, p. 177
cases (two planets, circumbinary planet), the transits will Bouchy, F., Pont, F., & Santos, N. 2004, A&A, 421, L13
14 Moutou et al.: Blind test detection of planet transits

Brown, T. 2003, ApJ, 593, 125


Chapman, G. A., Cookson, A., & Dobias, J. 1997, ApJ,
482, 541
Deeg, H. 1999, Universal Transit Modeler,
[Link]/galeria/hdeeg/idl hans lib/utm/
Defaÿ, C. 2001, PhD Thesis
Defaÿ, C., Deleuil, M., & Barge, P. 2001, A&A, 365, 330
Doyle, L. R., Deeg, H. J., Kozhevnikov, V. P., et al. 2000,
ApJ, 535, 338
Favata, F. 2004, in Second Eddington Workshop: Stellar
structure and habitable planet finding. Edited by F.
Favata, S. Aigrain and A. Wilson. ESA SP-538, p. 3
Guis, V. & Barge, P. 2004, PASP, accepted
Jenkins, J., Doyle, L., & Cullers, D. 1996, Icarus, 119, 244
Konacki, M., Torres, G., Jha, S., & Sasselov, D. 2003,
Nature, 421, 507
Konacki, M., Torres, G., & Sasselov, D. 2005, submitted,
ApJ
Kovács, G., Bakos, G., & Noyes, R. 2005, MNRAS, 356,
557
Kovács, G., Zucker, S., & Mazeh, T. 2002, A&A, 391, 369
Lanza, A. F., Rodonò, M., Pagano, I., Barge, P., &
Llebaria, A. 2003, A&A, 403, 1135
Lanza, A. F., Rodonò, M., & Pagano, I. 2004, A&A, 425,
707
Llebaria, A., Guterman, P., & Ollivier, M. 2003, SPIE,
5170, 155
Mandel, K. & Agol, E. 2002, ApJ, 580, L171
Messina, S., Pizzolato, N., Guinan, E., & Rodonò, M.
2003, A&A, 410, 671
Pont, F., Bouchy, F., Queloz, D., et al. 2004, A&A, 426,
L15
Press, W., Teukolsky, S., Vetterling, W. T., & Flannery,
B. P. 1993, Numerical Recipes in C (2nd ed.; Cambridge
Univ. Press)
Santos, N., Bouchy, F., Mayor, M., Pepe, F., & Queloz,
D. 2004, A&A, 426, L19
Tamuz, O., Mazeh, T., & Zucker, S. 2005, MNRAS, 356,
1466
Tingley, B. 2003, A&A, 408, L5
Udalski, A., Paczynski, B., Zebrun, K., et al. 2002a, Acta
Astron., 52, 1
Udalski, A., Pietrzynski, G., Szymanski, M., et al. 2003,
Acta Astron., 53, 133
Udalski, A., Szymanski, M. K., Kubiak, M., et al. 2004,
Acta Astronomica, 54, 313
Udalski, A., Zebrun, K., Szymanski, M., et al. 2002b, Acta
Astron., 52, 115
Walker, G., Matthews, J., Kuschnig, R., et al. 2003, PASP,
115, 1023
Wichmann, R. 1998, Nightfall [Link] −
[Link]/users/rwichman/N ightf [Link]
Moutou et al.: Blind test detection of planet transits 15

Table 1. The characteristics of the transits that were inserted in the light curves: the star radius R (in solar radius units),
the stellar limb darkening coefficient (LD), the planet radius r, the orbital period in days, the system inclination in degrees,
the semi-major axis a, the star magnitude, the final standard deviation of the light curve in percents, and some comments.
The detection flag shows a series of + and − signs, corresponding to each team, respectively from 1 to 5; + means a positive
detection (for team 1 in position 1, etc...), − means that the event is missed.

ID R LD r period inc a m Std Dev. Comment Detection


(R ) (R ) (days) (deg) (R ) % Flag
34 0.92 0.6 0.025 5.52 88.8 12.77 13 0.17 +++++
85 1.1 0.4 0.099 26.4 88.9 37.876 15 0.75 +++++
168 0.92 0.5 0.13 11.5 87.4 20.827 15 0.71 −−+++
207 0.92 0.5 0.11 88.4 90.0 79.89 16 1.42 +++++
317 1.1 0.6 0.02 33.8 89.5 44.66 12 0.09 −−−−−
326 0.85 0.6 0.017 6.8 89.9 13.9 14 0.40 −−−−−
390 0.92 0.6 0.022 8.0 89. 16.35 12 0.07 +++++
460 1.1 0.3 0.076 32.9 89.52 23.49 15 0.82 +++++
474 0.92 0.6 0.028 11.34 89. 20.63 13 0.18 +++++
533 0.92 0.7 0.095 6.4 90.0 7.89 16 1.54 +++++
537 0.85 0.6 0.015 2.78 89.9 7.68 12 0.09 −−+−+
575 0.85 0.6 0.019 15.9 90.0 24.57 14 0.40 −−−−−
613 1.1 0.6 0.026 4.8 89.4 12.16 14 0.29 +−+−+
618 1.3 0.6 0.023 8.48 89. 19.55 12 0.09 −−−−−
624 1.1 0.6 0.029 6.7 89.8 15.18 14 0.29 +−+++
681 1.1 0.6 0.023 19.8 89.6 31.27 13 0.20 −−−−−
715 1.3 0.3 0.098 10.1 86.4 21.96 15 0.75 Planet 1 −−−−−
0.07 63.8 89.7 75.0 Planet 2 −−−−−
835 1.1 0.4 0.084 42.6 89.3 52.10 15 0.74 +++++
915 1.5 0.25 0.13 58.32 89.9 70.0 15 0.74 Planet −++−−
0.3 1.1 2.9 86.0 11.4 Binary +++++
917 0.85 0.6 0.028 30.4 89.7 37.8 13 0.18 +++++

Table 2. Table of contaminating events which were introduced in the light curves: magnitude, event type (”BEB” stands for
background eclipsing binaries, ”GrB” stands for grazing binaries), period and relative flux (contribution of the background star
to the total flux), standard deviation of the final light curve. Detection flag: detection and correct identification (+), wrong
identification (i), no detection (−), for each team from 1 to 5. References: UTM (Deeg, 1999, UTM), Nightfall (Wichmann,
1998, W98), (Mandel & Agol, 2002, MA), AAVSO (American Association of Variable Star Observers), Andreasen (1988) (A88).

ID mv Event type period relative Std Dev. Reference Detection


(days) flux % Flag
31 14 BEB 24.7 0.03 0.38 UTM +++++
131 14 δ Cepheid 5.86 - 0.40 A88 −−−+−
249 16 triple star 3.9 - 1.03 UTM +++++
259 15 GrB 1.4132 - 0.82 W98 +−+++
271 15 Z Cam - - 0.82 AAVSO −−−−−
384 15 β cephei 0.2835 0.001 0.81 AAVSO +−−++
386 15 GrB 17.1 - 0.66 UTM i i i i i
486 15 BEB 2.4128 0.01 0.66 UTM −−i−+
518 15 GrB 78.3 - 0.82 MA −−−−−
553 15 δ scuti 0.07342 0.003 0.66 AAVSO −−+++
599 15 GrB 1.874 - 0.75 W98 +−+ i +
650 14 semi regular - - 0.37 AAVSO −−−−−
809 15 GrB 3.2 - 0.75 W98 i − +++
919 16 GrB 13.2 - 1.02 UTM i ++ i i
937 15 BEB 8.452 0.01 0.81 UTM i i i i i
985 15 BEB 5.19 0.01 0.71 UTM i i i i i
16 Moutou et al.: Blind test detection of planet transits

Table 3. Minimum planet radius for F0V, G0V, K0V and M0V stars, in unit of Earth radius, corresponding to the empirical
detection curve estimated by the blind test, which possibly overestimates the minimal radius of the detected planets at the
longest periods. The star radii are from Allen (2000), i.e. 1.5, 1.1, 0.85 and 0.6 solar radius, respectively.

Period F0V G0V K0V M0V


50-day 5.6 4.0 3.2 2.2
10-day 3.75 2.75 2.1 1.5
3-day 2.8 2.0 1.6 1.1
Bibliographie

Aigrain, S. & Favata, F., Bayesian detection of planetary transits. A modified


version of the Gregory-Loredo method for Bayesian periodic signal detection.
2002, A&A, 395, 625

Aigrain, S., Gilmore, G., Favata, F., & Carpano, S., The Frequency Content of
the VIRGO/SoHO Light Curves : Implications for Planetary Transit Detection
from Space. 2003, in ASP Conf. Ser. 294 : Scientific Frontiers in Research on
Extrasolar Planets, 441–444

Aigrain, S. & Irwin, M., Practical planet prospecting. 2004, Monthly Notices of
the Royal Astronomical Society, 350, 331

Baglin, A., Auvergne, M., Catala, C., Michel, E., & COROT Team, Asteroseis-
mology with the space mission CoRoT : photometric performances targets and
mission profile. 2001, in ESA SP-464 : SOHO 10/GONG 2000 Workshop :
Helio- and Asteroseismology at the Dawn of the Millennium, 395–398

Barge, P. & Sommeria, J., Did planet formation begin inside persistent gaseous
vortices ? 1995, A&A, 295, L1

Bordé, P., Rouan, D., & Léger, A., Exo-planet detection with the CoRoT space
mission. I. A multi-transit detection criterion. 2001, Academie des Sciences
Paris Comptes Rendus Serie Physique Astrophysique, 7, 1049

Bordé, P., Rouan, D., & Léger, A., Exoplanet detection capability of the CoRoT
space mission. 2003, A &A, 405, 1137

Bordé, P., Détection et Caractérisation de Planètes Extrasolaires par Photométrie


Visible et Interférométrie Infrarouge à très haute Précision . 2003, PhD thesis,
Observatoire de Paris

Chauvin, G., Lagrange, A.-M., Dumas, C., et al., A giant planet candidate near a
young brown dwarf. Direct VLT/NACO observations using IR wavefront sen-
sing. 2004, A&A, 425, L29

153
154 BIBLIOGRAPHIE

Claret, A., Non-linear limb-darkening law for LTE models (Claret, 2000). 2000,
VizieR Online Data Catalog, 336, 31081

Debray, B., Photométrie Stellaire dans les Champs Encombrés Pour l’Etude des
Galaxies Proches. 1982, PhD thesis, Universite de droit d’économie et des
sciences d’Aix Marseille

Deeg, H. J., Doyle, L. R., Kozhevnikov, V. P., et al., Near-term detectability of


terrestrial extrasolar planets : TEP network observations of CM Draconis. 1998,
A&A, 338, 479

Defaÿ, C., Traitement du Signal pour la Détection des Transits planétaires : Ap-
plication à la Mission Spatiale CoRoT. 2001, PhD thesis, Laboratoire d’Astro-
physique Spatiale

Defaÿ, C., Deleuil, M., & Barge, P., A Bayesian method for the detection of
planetary transits. 2001, Astronomy and Astrophysics, 365, 330

Deleuil, M. & et al., Detection of Earth-Sized Planets with the CoRoT Space
Mission. 1997, in ASP Conf. Ser. 119 : Planets Beyond the Solar System and
the Next Generation of Space Missions, 259–+

Duren, R. M., Dragon, K., Gunter, S. Z., et al., Systems engineering for the Kepler
Mission : a search for terrestrial planets. 2004, in Optimizing Scientific Return
for Astronomy through Information Technologies. Edited by Quinn, Peter J. ;
Bridger, Alan. Proceedings of the SPIE, Volume 5497, pp. 16-27 (2004)., 16–27

Epstein, G., Adda, M., Auvergne, M., et al., CoRoT instrument : Constraints
and solutions. 2000, in The Third MONS Workshop : Science Preparation and
Target Selection, 157–+

Everitt & S., B. 2001, Cluster Analysis (Arnold Publications)

Gregory, P. C. & Loredo, T. J., A new method for the detection of a periodic
signal of unknown shape and period. 1992, ApJ, 398, 146

Guterman, P., Barge, P., Llebaria, A., & Quentin, C., Improving transit detection
with collective light curves information. 2005, in Techniques and Instrumenta-
tion for Detection of Exoplanets II. Edited by Coulter, Daniel R. Proceedings
of the SPIE, Volume 5905, pp. 155-166 (2005).

Harvey, J. W., Duvall, T. L., Jefferies, S. M., & Pomerantz, M. A., Chromospheric
Oscillations and the Background Spectrum. 1993, in ASP Conf. Ser. 42 : GONG
1992. Seismic Investigation of the Sun and Stars, 111–+
BIBLIOGRAPHIE 155

Henry, G. W., Marcy, G., Butler, R. P., & Vogt, S. S., HD 209458. 1999,
IAU Circ., 7307, 1

Jain, A. & Dubes, R. 1988, Algorithms for Clustering Data (Englewood Cli s,
NJ : Prentice Hall)

Jenkins, J. M., The Impact of Solar-like Variability on the Detectability of Tran-


siting Terrestrial Planets. 2002, ApJ, 575, 493

Jenkins, J. M., Doyle, L. R., & Cullers, D. K., A Matched Filter Method for
Ground-Based Sub-Noise Detection of Terrestrial Extrasolar Planets in Eclip-
sing Binaries : Application to CM Draconis. 1996, Icarus, 119, 244

Kay, S. 1998, Fundamentals of Statistical Signal Processing, Volume 2 : Detection


Theory (Prentice Hall)

Kocher, P., Jaffe, J., & Jun, B., Differential Power Analysis. 1999, Lecture Notes
in Computer Science, 1666, 388

Konacki, M., An extrasolar giant planet in a close triple-star system. 2005, Nature,
436, 230

Kovács, G., Zucker, S., & Mazeh, T., A box-fitting algorithm in the search for
periodic transits. 2002, Astronomy and Astrophysics, 391, 369

Lanza, A. F., Rodonò, M., Pagano, I., Barge, P., & Llebaria, A., Modelling the
rotational modulation of the Sun as a star. 2003, A&A, 403, 1135

Lecavelier des Etangs, A., Vidal-Madjar, A., McConnell, J. C., & Hébrard, G.,
Atmospheric escape from hot Jupiters. 2004, A&A, 418, L1

Llebaria, A., Auvergne, M., & Perruchot, S., Design of polychromatic PSFs for the
CoRoT experiment. 2004, in Optical Design and Engineering. Edited by Ma-
zuray, Laurent ; Rogers, Philip J. ; Wartmann, Rolf. Proceedings of the SPIE,
Volume 5249, pp. 175-181 (2004)., 175–181

Llebaria, A., Guterman, P., & Ollivier, M., Photometric masking methods and
predicted performances for the CoRoT exoplanetary mission. 2003, in Tech-
niques and Instrumentation for Detection of Exoplanets. Edited by Coulter,
Daniel R. Proceedings of the SPIE, Volume 5170, pp. 155-166 (2003)., 155–166

Llebaria, A., Vuillemin, A., Guterman, P., & Barge, P., Designing photometric
patterns for exoplanet transit search on board CoRoT. 2002, in Highly Innova-
tive Space Telescope Concepts Edited by Howard A. MacEwen. Proceedings of
the SPIE, Volume 4849, pp. 112-123 2002., 112–123
156 BIBLIOGRAPHIE

Mandel, K. & Agol, E., Analytic Light Curves for Planetary Transit Searches.
2002, The Astrophysical Journal, 580, L171

Marcy, G. W. & Butler, R. P., First three planets. 1996, in Proc. SPIE Vol. 2704,
p. 46-49, The Search for Extraterrestrial Intelligence (SETI) in the Optical
Spectrum II, Stuart A. Kingsley ; Guillermo A. Lemarchand ; Eds., 46–49

Mayor, M. & Queloz, D., A Jupiter-Mass Companion to a Solar-Type Star. 1995,


Nature, 378, 355

Moutou, C., Pont, F., Barge, P., et al., Comparative blind test of five planetary
transit detection algorithms on realistic synthetic light curves. 2005, A&A, 437,
355

Neuhäuser, R., Guenther, E. W., Wuchterl, G., et al., Evidence for a co-moving
sub-stellar companion of GQ Lup. 2005, A&A, 435, L13

Pepe, F., Mayor, M., Rupprecht, G., et al., HARPS : ESO’s coming planet sear-
cher. Chasing exoplanets with the La Silla 3.6-m telescope. 2002, The Messen-
ger, 110, 9

Pickles, A. J., A Stellar Spectral Flux Library : 1150 - 25000 A (Pickles 1998).
1998, VizieR Online Data Catalog, 611, 863

Press, H., Teukolsky, A., Vetterling, T., & Flannery, P. 1997, Numerical Recipes
in C, The Art of Scientific Programming (Cambridge University Press)

Robin, A. & Creze, M., Stellar populations in the Milky Way - Comparisons of a
synthetic model with star counts in nine fields. 1986, A&AS, 64, 53

Rouan, D., Baglin, A., Barge, P., et al., Searching for exosolar planets with the
CoRoT space mission. 1999, Physics and Chemistry of the Earth C, 24, 567

Rouan, D., Baglin, A., Copet, E., et al., The Exosolar Planets Program of the
CoRoT satellite. 2000, Earth Moon and Planets, 81, 79

Schneider. 2005, The Extrasolar Planets Encyclopaedia,


http ://[Link]/planets

Schneider, J., The study of extrasolar planets : methods of detection, first disco-
veries and future perspectives. 1999, Academie des Sciences Comptes Rendus
Serie Mecanique Physique Chimie Sciences de la Terre et de l Univers, 327, 621

site internet. 2004, CoRoT Week 6, http ://[Link].u-


[Link]/medoc/cw6/[Link] ?action=presentlist

site internet. 2005a, CoRoT : CNES Web Site, http ://[Link]/COROT/


BIBLIOGRAPHIE 157

site internet. 2005b, CoRoT : CNES Web Site, http ://[Link]/

site internet. 2005c, Kepler : NASA Web Site, http ://[Link]/

site internet. 2005d, Telescope Issac Newton, La Palma, Espagne,


http ://[Link]/Astronomy/telescopes/int/[Link]

Soderblom, D. R., Rotational studies of late-type stars. II - Ages of solar-type


stars and the rotational history of the sun. 1983, ApJS, 53, 1

Steller, M., Heihsler, J., Ottacher, H., & Weiss, W. 2002, From stars to habitable
planets, the austrian contribution to the CoRoT mission

Tamuz, O., Mazeh, T., & Zucker, S., Correcting systematic effects in a large set
of photometric light curves. 2005, Monthly Notices of the Royal Astronomical
Society, 356, 1466

Tingley, B., Improvements to existing transit detection algorithms and their com-
parison. 2003a, Astronomy and Astrophysics, 408, L5

Tingley, B., A rigorous comparison of different planet detection algorithms. 2003b,


Astronomy and Astrophysics, 403, 329

Torres, G., Konacki, M., Sasselov, D. D., & Jha, S., The transiting planet OGLE-
TR-56b. 2003, American Astronomical Society Meeting Abstracts, 203,

Udalski, A., Szymanski, M., Kaluzny, J., et al., The optical gravitational lensing
experiment. Discovery of the first candidate microlensing event in the direction
of the Galactic Bulge. 1993, Acta Astronomica, 43, 289

Udalski, A., Szymanski, M., Kaluzny, J., Kubiak, M., & Mateo, M., The Optical
Gravitational Lensing Experiment. 1992, Acta Astronomica, 42, 253

Vidal-Madjar, A., Désert, J.-M., Lecavelier des Etangs, A., et al., Detection of
Oxygen and Carbon in the Hydrodynamically Escaping Atmosphere of the Ex-
trasolar Planet HD 209458b. 2004, ApJL, 604, L69

Wolszczan, A., Confirmation of Earth Mass Planets Orbiting the Millisecond Pul-
sar PSR :B1257+12. 1994, Science, 264, 538
158 BIBLIOGRAPHIE
Résumé

Le mini-satellite Corot lancé en 2006 utilisera la méthode des transits :


Une exoplanète signe son passage devant l’étoile par une brève baisse de flux
inférieure au millième. La stabilité et continuité de mesure seront assurées sur
150 jours pour 60.000 étoiles afin d’augmenter le nombre de configurations
favorables. La photométrie d’ouverture intègre chaque flux dans un masque de
lecture adapté aux multiples bruits, limité à 250 formes différentes pour 12.000
cibles. J’ai étudié des méthodes autorisant cette réduction sans perte notable de
signal à bruit. Le tri efficace de masques aléatoires s’avère la plus satisfaisante.

Pour la détection, j’ai développé une méthode qui rehausse le contraste des
transits en éliminant les composantes des effets collectifs et de certains artefacts.
Après détection temporelle les systématiques sont identifiées, même celles d’ori-
gine et de poids inconnus. On fait émerger de nouvelles détections en jaugeant la
dispersion autour de ces composantes.

Abstract

The Corot mini-satellite to be launched in 2006 uses the transits method : An


exoplanet signs its crossing in front of its star by a short drop in light curve with
amplitude smaller than 1 per 1000. The stability and continuity of measurement
will be ensured over 150 days for 60.000 stars in order to increase the number
of favorable configurations. The aperture photometry integrates each star flux
inside a reading mask adapted to all noises, but limited to 250 different shapes
for 12.000 targets. I studied methods allowing to lead this reduction keeping low
S/N loss. The sorting of random masks appears to be the most efficient.

For detection, I developed a method to raise the contrast of transits by eli-


minating components of collective effects and of some artifacts. After temporal
detection the systematics are identified, even those of unknown origin and weights.
Then new detections arise by assessing dispersion around these components.

Vous aimerez peut-être aussi