Masques Photométriques et Transits Planétaires
Masques Photométriques et Transits Planétaires
Masques Photométriques
et
Détection des transits planétaires
Dans le cadre de la mission Corot
THÈSE
pour obtenir le grade de
par
Pascal Guterman
2005 AIX3-0041
Université Paul Cézanne Aix-Marseille III
École Doctorale Physique et Sciences de la Matière
Laboratoire d’Astrophysique de Marseille
Masques Photométriques
et
Détection des transits planétaires
Dans le cadre de la mission Corot
THÈSE
pour obtenir le grade de
par
Pascal Guterman
2005 AIX3-0041
Remerciements
Cette thèse au Laboratoire d’Astrophysique de Marseille fut initiée dans le
cadre d’une collaboration avec la société Gemplus qui m’emploie. Elle m’a donné
la chance de faire connaissance avec la communauté scientifique par le biais de
la mission Corot . Le privilège de cette expérience a dépassé de loin toutes mes
espérances et le plaisir de travailler au LAM fut quotidien.
heures du matin était une heure ordinaire pour communiquer, les personnes de
l’administration et les étudiants dont l’entraide m’a épargné nombre d’errements.
Au cours de cet itinéraire, Magali Deleuil ainsi que Claire Moutou m’ont
ouvert la porte d’une mission d’observation à La Palma pour prendre un peu
de recul. Même si c’était une nuit de 31 décembre et qu’il a fallu combiner 34
vols bons marchés (à quatre) afin de rester en famille, je les remercie pour cette
palpitante épopée. Message : je reste volontaire. La palme de la bonne humeur
revient sans conteste à Magali, ainsi que tout le palmier.
Au-delà de ce travail de thèse, je tiens à rendre grâce à Claire, ainsi que Jean-
Claude Bouret, Stéphane Arnouts, François Bouchy, Laurence Tresse,
Stéphane Basa, Christophe Adami et tant d’autres astronomes qui ont répondu
avec patience et pédagogie au flot de mes questions sur leur extraordinaire métier.
Enfin, Joëlle (Madame) fut le papillon de “l’effet papillon” : quand elle eut
l’idée fondatrice “Pourquoi ne reprendrais-tu pas les études ?”, elle ne pouvait
soupçonner l’ampleur du basculement climatique qui se déclencherait en retour.
En effet, bien que déjà salarié d’une entreprise, je m’engouffrais aussitôt dans la
passion de cette deuxième vie en parallèle. Du DEA jusqu’en fin de thèse, les
conséquences pour elle et pour nos filles Camille et Julie furent parfois pesantes.
Elle a pourtant assumé, résisté à la tentation légitime de sortir mes affaires sur
le perron, et a toujours continué de m’encourager.
1 Introduction générale 3
i
ii TABLE DES MATIÈRES
I Fenêtrage optimisé 39
4 Énoncé des contraintes pour l’optimisation des masques pho-
tométriques 41
4.1 Terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2 Critère de qualité pour le fenêtrage . . . . . . . . . . . . . . . . . 43
10 Conclusion 143
10.1 Acquisition des données . . . . . . . . . . . . . . . . . . . . . . . 143
10.2 Détection des transits . . . . . . . . . . . . . . . . . . . . . . . . . 145
Annexes
A Performances des patrons 149
La mission spatiale Corot sera lancée fin 2006. L’un de ses objectifs est de
détecter des planètes extrasolaires dont la taille n’excède pas quelques rayons
Terrestre. Corot utilise la méthode des transits. Il s’agit de déceler, à l’aide d’un
petit télescope, la très faible baisse de flux d’une étoile causée par le passage d’une
planète devant le disque stellaire. Pour réaliser son objectif, Corot atteindra une
précision photométrique de 7.10−4 sur des étoiles de magnitude 15.5 intégrées
pendant une heure. Corot mesurera ainsi 60 000 étoiles sur l’ensemble de sa
mission.
Les étoiles sont mesurées simultanément et continûment par champs de 12 000
cibles grâce à l’utilisation d’une matrice CCD. Pour limiter le volume de données,
Corot réalise à bord une photométrie d’ouverture : à chaque pose, les pixels
compris dans une ouverture entourant chaque étoile-cible sont sommés en
une mesure photométrique unique. Idéalement, chacune des 12 000 fenêtres est
optimisée en fonction des paramètres et de l’environnement de son étoile-cible. Le
problème est qu’il faut réduire la variété de forme des ouvertures (les “patrons”)
d’un facteur 20, pour rester compatible avec la capacité de traitement des
données à bord du satellite. Il s’ensuit une perte de spécialisation des fenêtres,
contradictoire avec le maintien d’un rapport signal à bruit maximal pour toutes
les cibles. Le centre de la question est donc de déterminer une collection réduite
de patrons qui satisfasse l’objectif scientifique de Corot . C’est un problème
très important pour le succès de la mission car la qualité des mesures de Corot
dépend directement du choix des fenêtres. Un deuxième problème important
est la détection des transits planétaires dans les multiples courbes de lumière
temporelles que produira Corot .
La première partie des travaux que j’ai menés est consacrée à l’étude des
méthodes de réduction des patrons, et à leur répartition sur les étoiles cibles en
préservant au mieux le rapport signal à bruit. La deuxième partie de l’étude
s’attache à la détection des transits dans les courbes de lumière temporelles que
produira Corot . L’organisation en deux parties de ce mémoire traduit ce double
thème.
Introduction générale
Le premier but du travail présenté dans cette thèse est de déterminer les
ouvertures photométriques optimales servant à fenêtrer l’image des étoiles sur
la matrice CCD embarquées à bord de satellites conçus pour la recherche des
transits exoplanétaires.
Le second but de ce travail est de présenter l’utilisation qui peut être faite du
grand nombre des étoiles cibles d’un champ d’observation pour améliorer la
capacité de détection des signaux de transits dans les courbes de lumière.
Le travail réalisé s’inscrit dans le cadre de la préparation de la mission spatiale
Corot , ses différentes parties ont fait l’objet de 4 publications figurant dans ce
manuscrit.
Le nombre d’objets détectés est suffisant pour aborder les faits du point de
vue statistique. La table 1.1 de masse des exoplanètes montre une abondance
accrue de planètes peu massives, ce qui laisse espérer nombre de planètes
telluriques de quelques masses terrestres. Vers les faibles masses, la coupure
marque la limite de sensibilité. A l’autre extrémité la raréfaction au-delà de 10
MJ , nommée “désert des naines brunes” annonce la transition vers une autre
classe d’objets.
1
Une encyclopédie électronique est maintenue à jour par l’observatoire de Meudon au lien
http ://[Link]/planets
3
4 Introduction générale
Les principaux mécanismes proposés mettent en jeu aussi bien les forces
gravitationnelles, radiatives ou magnétiques que les forces de friction aérodyna-
miques. Il semble aujourd’hui que les grandes lignes d’un scénario de formation
planétaire se dessinent. A l’issue de la formation de l’étoile, il subsiste un disque
de gaz et de poussières : le disque protoplanétaire. Les poussières vont se coller
sous l’effet de l’attraction électrostatique et moléculaire, formant de minuscules
grains de 1µm à 1 mm (coagulation). Ces grains s’agglomèrent ensuite, tout en
étant contrariés par les fréquents chocs à haute vitesse relative qui tendent à les
désagréger. Au-delà d’une taille critique, la matière rencontrée s’accumule sans
dommage, formant des planétésimaux. Cette étape rapide se déroule en moins de
105 années, les corps sont alors assez massifs pour que le gaz ne joue plus de rôle
dans leur mouvement. Certains corps massifs dans les régions externes du disque
pourraient capturer une grande quantité de gaz environnant en quelques millions
d’années, devenant ainsi des planètes géantes gazeuses. La totalité du processus
doit avoir pris place avant que le gaz ait disparu, soufflé par l’étoile. Dans la
partie plus interne du disque, les collisions entre corps solides formeraient des
planètes rocheuses en 10 à 100 millions d’années. Ces collisions expliqueraient la
5
masse orbite
Exoplanète Particularité date
(MJ ) (jour)
Détection
d’Oxygène et
Carbonne (Henry et al. 1999),
Osiris 0.69 3.5 (Vidal-Madjar et al.
atmosphériques à
1 000 °C
(HD209458) b 2004)
s’accrétant sur
l’étoile
Mu Area La première 14
9.55 2004
(HD 160691) d tellurique MTerre
La première image
directe. Exoplanète 2450
2M1207 5 (Chauvin et al. 2004)
autour d’une naine ans
brune
Exoplanète autour
d’une des étoiles 1.14 3.34 (Konacki 2005)
HD 188753A b
triples HD
188753A,B,C
7
L’autre source d’intérêt majeur des exoplanètes est bien entendu la quête
philosophique et scientifique d’autres éclosions de la vie. Dans ce sens, Vidal-
Madjar et al. (2004) ont détecté autour de la planète Osiris la présence de
Carbone et d’Oxygène dans la haute atmosphère, certes en train de tomber
sur l’étoile. Il sera nécessaire de repousser toujours plus loin les limites de la
détection d’exoplanètes afin de collecter des informations les plus précises sur
la nature et la composition de ces objets. Quelle que soient les spéculations
exobiologiques, les planètes-hôte sont recherchées dans la zone “habitable” d’une
étoile, située à une distance de l’ordre de l’unité astronomique (UA). On adopte
comme critère d’habitabilité la plage de pression et de température compatible
avec la présence d’eau liquide. Les planètes trop proches ne sont pas compatibles
avec une chimie élaborée, l’excès de chaleur et de rayonnements ultraviolet brise
les assemblages moléculaires. Les mondes éloignés sont froids et figés.
A part le cas 2M1207 qui est une étoile naine rouge peu lumineuse, les exo-
planètes ne peuvent pas être observées directement à ce jour. Elles sont un milliard
de fois moins lumineuses que leur étoile, et trop proches d’elle au regard de la
distance qui nous en sépare. On a donc recours à des méthodes indirectes qui
décèlent l’effet des perturbations gravitationnelles ou lumineuses que la planète
induit sur l’étoile. La détection est d’autant plus difficile que les planètes sont pe-
tites et éloignées de leur étoile. C’est pourquoi une précision accrue est nécessaire
pour détecter et étudier les planètes “habitables”. Schneider (1999) dresse un tour
d’horizon des méthodes et projets. En attendant la réalisation d’interféromètres
spatiaux ambitieux, les techniques les plus appropriées sont la vélocimétrie ra-
diale et la méthode des occultations dite méthode des transits. La vélocimétrie
radiale donne accès à la masse et à la période de la planète, donc au demi grand
axe de son orbite car la masse de l’étoile peut être estimée de façon assez précise.
Les transits indiquent la taille de cette planète et affinent la détermination de
la période. Ces deux méthodes sont complémentaires et la combinaison de leurs
informations permet de déterminer complètement le système, de lever les ambi-
guı̈tés, et de déduire la densité de la planète donc son éventuelle nature rocheuse.
Elles se prêtent toutes deux à des études systématiques.
8 Introduction générale
Chapitre 2
où v est la vitesse de la planète, M la masse de l’étoile connue par le type de son
spectre. On voit que plus la planète est proche de son étoile, plus elle est rapide
et donc détectable. Dans le temps T , elle parcourt une orbite de circonférence
2πa où a étant le demi grand axe de la planète, donc v = 2πa/T 3 (on néglige
le mouvement de l’étoile). Cette relation nous permet d’éliminer a en utilisant la
3ème loi de Kepler et de relier v à M :
9
10 La détection des planètes extra-solaires
Fig. 2.1 – A gauche, trajectoire d’un système planète-étoile autour du barycentre com-
mun G. A droite, vitesse de Mu Area mesurée à différents instants par le spectromètre
HARPS. La figure montre le meilleur ajustement par une sinusoı̈de, la courbe étant
repliée à la période estimée de la planète.
G(M + m) a3
= (2.2)
4π 2 T2
1 v3T 3
= . (2.3)
T 2 (2π)3
G est la constante de gravitation universelle. En revenant à v? (Eq.2.1) :
31
2πG
v? = m (2.4)
T (M + m)2
Comme l’effet Doppler ne donne accès qu’à la composante radiale v?r , il faut
multiplier les termes par sin i, l’inclinaison de l’orbite sur la voûte céleste. Fina-
lement :
13
T M2
m sin i = v?r
2πG
projetée sur la ligne de visée La masse de la planète n’est connue qu’à un facteur
sinus près. Mais cela influe peu sur l’ordre de grandeur de m car au sens d’une
distribution uniforme 66% des angles ont un sinus supérieur à 0.5.
2.1.2 Astrométrie
L’astrométrie s’intéresse à la modulation de position d’une étoile sous l’effet
d’une planète. C’est le même phénomène que pour la vélocimétrie radiale, mais
ici c’est la position de l’étoile que l’on mesure.
mettre de détecter une centaine d’Uranus (jusqu’à 10m⊕ ) dans les 10 pc qui nous
entourent.
rayons lumineux émis par l’objet du fait de sa gravité et les concentre comme le
ferait une lentille, provoquant un pic d’intensité lumineuse lors de son passage.
Une planète en orbite autour de son étoile, bien que moins massive que cette
dernière déviera également les rayons, faisant apparaı̂tre des pics secondaires.
La Fig.2.2 montre la courbe de lumière de l’événement OGLE (pour Optical
Gravitational Lensing Experiment Udalski et al. (1992)) 2003-BLG-235/MOA
2003-BLG-53 (Udalski et al. 1993)
par réflexion car ici c’est directement le flux de l’étoile qui est affecté et non le
flux réfléchi par la planète.
Le transit d’une planète devant le disque de son étoile se traduit par une baisse
du flux lumineux de l’étoile dépendante de la géométrique de l’événement. Pour
une planète de rayon r passant devant une étoile de rayon R dont le disque est
uniformément lumineux, l’amplitude du transit est égale au rapport des surfaces :
∆F r 2
= (2.5)
F R
Cette relation au premier ordre néglige la luminosité propre de la planète, hors
d’atteinte des instruments. A Rr donné, la présence d’un gradient de luminosité
à la surface d’un disque stellaire jouera en faveur de la détection pour les planètes
transitant près de son centre. La Terre produit un transit de 0.8×10−4 en passant
devant le Soleil, Jupiter atteint 2.5×10−2 . Cet ordre de grandeur est accessible à la
mesure. L’amplitude relative du transit a l’avantage d’être insensible à la distance
observateur-étoile, mais nécessite un quasi-alignement de la ligne de visée avec le
plan orbital de la planète.
2.2.1 Probabilité
Les orbites de rayon a qui peuvent produire une éclipse sont comprises dans
la surface de la tranche de sphère, assimilée à un cylindre, de rayon a et hauteur
2R (voir Fig.2.4).
Le nombre d’orbites observables est donc proportionnel à 2πa × 2R. Leur
fraction (ou probabilité) s’obtient en normalisant par la surface totale 4πa2 . On
obtient :
2.2 la Méthode des transits 15
R
P= (2.6)
a
En pratique P = 0.47% pour la Terre et seulement 0.01% pour Jupiter. L’éloi-
gnement joue proportionnellement en défaveur des transits. Une orbite éloignée
est également plus pénalisante du fait de l’allongement de la période de révolu-
tion. On augmente les chances de détection en suivant simultanément un grand
nombre d’étoiles. Certaines expériences portant sur l’observation simultanée de
toutes les étoiles d’un champ sont menées depuis le sol, telle OGLE ou WASP.
D’autres le seront depuis l’espace comme la mission Européenne Corot ou la mis-
sion Américaine Kepler.
RT p
t= 1 − p2 (2.7)
πa
La table 2.1 résume les caractéristiques des transits Terrestre et Jovien.
La méthode des transits semble bien adaptée pour détecter de petites planètes,
en particulier des planètes telluriques analogues à la Terre. Elle a été retenue dans
le cadre de la mission spatiale Corot . Le présent travail s’inscrit dans ce contexte.
Les longueurs d’onde mesurées sont inférieures à 0.85µm, bien moins que la
dimension d’un pixel (13.5µm). On traite donc les photons comme des particules
et non des ondes qui pourraient tomber dans deux pixels à la fois. Il n’y a donc au-
cun espoir de corriger le bruit photonique d’un pixel en cherchant sa contrepartie
dans d’autres pixels.
fraction des étoiles calmes. On répète le calcul pour chaque type spectral
présent dans le champ, correctement pondéré.
Les résultats sont présentés en table 2.2. On peut compter sur une proportion
de 80% d’étoiles suffisamment calmes.
Tab. 2.2 – Fraction d’étoiles ayant réduit leur activité, en fonction du type spectral
Type spectral Tconv (jours) tmin (Gyr) T(Gyr) fraction
F8 3 0.2 4 0.95
G0 8 0.9 9 0.90
G2 10 0.7 1. 0.93
G5 20 2 1.2 0.83
G8 30 4 1.6 0.75
K0 30 3 3 0.9
K3 30 2.2 >0.9
K5 30 2 >0.9
Dans les étoiles les plus calmes dont fait partie notre Soleil, les principales
variations photométriques attendues à l’échelle de temps des transits sont dues
aux régions actives et aux mouvements turbulents. Des travaux sont menés pour
mieux connaı̂tre ces phénomènes.
Lanza et al. (2003) ont utilisé trois régions actives renouvelées tous les
sept jours en taille et position pour tenir compte de leur évolution propre.
A l’image des taches Solaires, les régions sont formées d’une zone sombre de
moindre convection cerclée de facules brillantes. Leur simulation comporte onze
paramètres libres : 6 de position, 3 d’aire des surfaces actives, 1 de brillance
2.2 la Méthode des transits 19
Fig. 2.5 – Déplacement de taches sombres sur une sphère non homogène en rotation.
Fig. 2.6 – Accord entre simulation et flux Solaire pour deux plages de temps. La varia-
tion relative de luminosité figure dans le cadran supérieur. Les points de mesure sont
en gras, la simulation est la ligne continue qui émerge à t = 2000.02. Les points du
modèle ne sortent pratiquement pas des points mesurés. Le cadran inférieur contient le
résidu.
Mené dans plusieurs bandes de couleur, l’exercice souligne que pour le Soleil
l’effet de la granulation est plus marqué dans le vert et le bleu que dans le rouge.
2.2 la Méthode des transits 21
La recherche de planètes
extrasolaires avec Corot
Corot fait partie des ’mini missions’ du CNES, qui en assure la maı̂trise
d’ouvrage et le lancement. C’est un projet Européen qui a vu le jour sous l’impul-
sion du Laboratoire d’Etudes Spatiales et d’Instrumentation en Astrophysique
(LESIA, à Meudon), de l’Institut d’Astrophysique Spatiale (IAS, à Orsay) et
du Laboratoire d’Astrophysique de Marseille (LAM), cadre de la présente thèse.
Corot embarque deux expériences de photométrie de haute précision : L’une de
sismologie stellaire, consacrée à l’étude des couches profondes par la mesure des
modes d’oscillation de l’étoile (le ’chant’ des étoiles) sous l’effet de la pression
et de la gravité (Baglin et al. 2001) ; l’autre de détection d’exoplanètes par la
méthode des transits 1 . Les observations sont réparties à raison de 5 champs de
12 000 étoiles pendant les 2ans 12 que dure la mission
23
24 La recherche de planètes extrasolaires avec Corot
Fig. 3.1 – Corot pointe perpendiculairement au plan de son orbite. La Terre ne passe
jamais dans le champ. Le Soleil reste dans le “dos” de Corot durant un semestre. Le
satellite est pivoté de 180˚après chaque phase d’observation.
L’orientation du satellite dans les trois axes est maintenue constante par un
mécanisme dynamique. Toute variation est détectée par les senseurs stellaires
et gyromètres de la plate-forme. Celle-ci déclenche une action contraire en
modifiant la vitesse de roues à inertie dans les trois axes. Le couple moyen des
forces externes n’étant pas nul dans le repère du satellite, la vitesse des roues
à tendance à augmenter en permanence. Pour les ralentir, on les couple pério-
diquement avec le champ magnétique terrestre à l’aide de magnéto-coupleurs.
3.1 Présentation de la mission 25
3.2 l’Instrument
L’instrument Corot est schématisé figure 3.2. Le télescope forme une image
sur 4 capteurs CCD indépendants de 2048 × 2048 pixels de 13.5µm dont deux
sont dédiés aux exoplanètes. Le CCD est éclairé par l’arrière et fonctionne en
mode transfert de trames. Ce capteur est stable et reste linéaire sur une grande
échelle. La même conformation permet de mesurer des phénomènes sur plus de
deux ordres de grandeur. Suivant les étoiles, le capteur reçoit un flux intégré de
quelques centaines à près d’une dizaine de milliers de photons par seconde (voir
table 3.2). Ces photons sont accumulés durant 32s sous forme d’électrons, puis la
charge électrique résultante est acheminée vers une électronique de mesure pour
y être numérisée. Les mesures sont sommées sur 512 s (' 8.5 min), temps de
pose élémentaire, puis transmises au sol lors du passage suivant à portée d’une
antenne. Le bruit d’un CCD diminue avec sa température. Celle-ci est régulée
vers -40 au 1/100° près. L’électronique de mesure est maintenue à +20.
Tab. 3.2 – Nombre de photons (ou photoélectrons notés e− /s) capturés en fonction de
l’étoile.
Teff 4500 K 5750 K 6500 K 8000 K
mv
10.5 135 667 105 268 98 358 88 811
12 34 078 26 442 24 706 22 308
14 5 427 4 165 3 912 3 881
16 860 660 620 615
Les champs visés par Corot s’étendent sur 3.5 deg2 , soit 8 fois la surface de la
pleine lune. Ils sont choisis dans 2 directions opposées de 180 ° : Le centre de la
galaxie et l’anticentre. Ces champs sont suffisamment denses pour contenir 12 000
cibles brillantes de magnitudes comprises entre 12 et 162 .
3.2.1 Le baffle
L’altitude n’est que 2/10e du rayon de la Terre ; l’horizon terrestre se trouve
donc situé à 20° seulement de la ligne de visée (Fig. 3.3). A la précision requise,
la lumière parasite réfléchie et diffractée sur les organes mécaniques du satellite
devient prépondérante. Un baffle d’entrée est chargé d’éliminer toute lumière hors
d’axe. C’est un cylindre absorbant de forme allongée situé dans le prolongement
La magnitude visuelle d’une étoile dont on reçoit le flux f est m = −2.5 log ff0 , f0 étant un
2
flux de référence. Le flux est divisé par 10 quand la magnitude augmente de 2.5 unités.
3.2 l’Instrument 27
Fig. 3.2 – Chemin optique (en haut) et Instrument Corot (en bas). La lumière entre par
la gauche. Elle est filtrée par le baffle (cylindre de grand diamètre) après que l’obturateur
(couvercle) à été ouvert. Le miroir primaire (extrémité droite) la réfléchit sur le miroir
secondaire (au pied du baffle). Elle pénètre alors dans l’objectif dioptrique (tube oblique
inférieur entre les armatures) contenant les six lentilles qui la guident vers le bloc
focal. Celui-ci, de la taille d’une boı̂te à chaussures est situé dans le plateau à droite
des armatures. Il contient le prisme et les CCDs, protégés des rayons cosmiques par
un blindage. La case à équipements (bloc de droite) contient les boı̂tiers électroniques
d’acquisition, de régulation thermique au 1/100 , et l’électronique de traitement des
données. Le plan inférieur saillant sous la case est le radiateur du bloc focal
28 La recherche de planètes extrasolaires avec Corot
Fig. 3.4 – Schéma du chemin optique. Après étalement du spectre par le bi-prisme, les
rayons monochromatiques atteignent le CCD avec une défocalisation qui dépend de leur
longueur d’onde. La tache image d’une étoile n’est pas uniforme, l’énergie incidente est
principalement contenue dans la composante rouge, sur la droite.
commence classiquement par affiner la PSF en utilisant les étoiles les plus
brillantes. Les étoiles d’arrière-plan sont ajustées à partir du résidu de la
soustraction. Le fond continu est ajusté par un polynôme de faible degré
traduisant des variations lentes.
3.3 Photométrie
Les deux principales méthodes en la matière sont la photométrie par ajuste-
ment de PSF et la photométrie d’ouverture. C’est cette dernière qui est utilisée
dans Corot .
I =O∗F +N
I˜ − Ñ
Õ =
F̃
32 La recherche de planètes extrasolaires avec Corot
On ne peut pas déduire O de cette manière, car pour les fréquences spatiales où
F̃ est faible le terme Ñ
F̃
créera une erreur importante.
– Pour être efficace, cette photométrie requiert une connaissance précise des
PSFs. Les PSFs de vol seront différentes des PSFs simulées à cause des
changements de conditions, ou des déformations subies lors du tir. Or,
dans Corot , les PSFs sont difficiles à mesurer in situ avec précision car
elles sont très dépendantes du type spectral, de la position et du centrage
par rapport aux pixels. Par conséquent une PSF ne se reproduit pas deux
fois dans les mêmes conditions, on ne peut donc pas l’affiner en moyennant
plusieurs réalisations. Le type spectral lui-même n’est connu qu’avec une
précision limitée. En effet il est mesuré à travers l’atmosphère par des
télescopes terrestres et la mesure ne porte que sur 4 bandes de couleur
3.3 Photométrie 33
En outre pour avoir un bon résultat, il faut résoudre non seulement les PSFs
des étoiles cibles, mais également celles des étoiles de fond qui y participent.
Pour terminer, les PSFs varient dans le temps au cours de l’orbite à cause
des déformations dues aux différences entre la partie diurne et nocturne de
l’orbite (la “respiration”), et à la gigue de pointage (le “jitter”).
N
X
f= fi − N × b
i=1
où les fi sont les flux dans les N pixels que compte le masque. b est la valeur
commune du fond estimé. Cette photométrie est très simple. Elle comporte
cependant quelques points délicats :
Afin de distinguer les couleurs, le masque des 5 000 cibles les plus brillantes
est subdivisé en trois sous-masques dits colorés, bleu, vert, rouge sommés
indépendamment. Ces définition de couleurs ne correspond pas aux bandes
standard (voir Tab. 3.3), il s’agit d’une définition propre à Corot , basée sur une
répartition de l’énergie d’environ 40%, 30% et 30% variable d’étoile à étoile.
que les étoiles faibles ne soient pas des cibles potentielles, il est important de les
connaı̂tre car ce sont les plus nombreuses et leur lumière participe au fond de
ciel. Un risque important lié à ce fond stellaire est la présence d’éclipses d’étoiles
binaires. Ces éclipses peuvent, en effet, mimer un transit sur l’étoile principale et
engendrer des ambiguı̈tés.
Les millions d’étoiles collectées sont stockés dans une base de données
(EXODAT) qui est développée au LAM et qui permet d’établir les profils précis
de chaque position. La densité d’étoiles dans le champ étant très inhomogène, on
cherche à affiner le compromis entre grand nombre de cibles et encombrement
excessif. Un outil de sélection des cibles dédié aux deux objectifs scientifiques de
Corot à été développé à cette fin, il s’agit du simulateur COROTSKY (voir sites
internet). Ce logiciel permet de visualiser les CCDs sur le ciel, et de faire toutes
sortes de statistiques. Pour un pointage donné, COROTSKY fournit la liste et
les caractéristiques des étoiles retenues comme cibles à destination du choix des
masques.
Fig. 3.5 – Répartition des magnitudes en échelle logarithmique dans un champ Corot
de l’anticentre galactique, jusqu’à la magnitude de coupure du catalogue. Le nombre
d’étoiles progresse d’un facteur 2.2 à chaque pas de magnitude
– La taille de l’étoile. Un transit sera plus marqué sur une étoile de petit
diamètre. En revanche un plus grand éclat dû à un accroissement de la
surface émissive n’est pas un avantage. Le flux supplémentaire n’est pas
affecté par le transit et ne fait qu’augmenter le bruit de photons. Les
étoiles naines de la séquence principale (le Soleil est considéré comme tel)
présentent en outre l’intérêt d’une activité moindre.
– La distance de la planète. Une planète trop éloignée aura des transits moins
fréquent et moins de chances d’être vue par la tranche (voir Eq. 2.6). Trop
proche elle sera plus chaude car soumise à un flux intense.
Bordé et al. (2003) ont pris en compte tous ces facteurs pour préciser les
bornes du domaine de détection. Il font quelques hypothèses supplémentaire sur
les facteurs instrumentaux et les algorithmes de détection :
– Les bruits pris en compte sont le bruit quantique, la variabilité stellaire, les
bruits électroniques, le fond de lumière zodiacale, le bruit de dépointage
(décrit dans un chapitre ultérieur), et la contamination par les PSFs
d’étoiles de fond.
Tab. 3.4 – Détections intégrées pour une planète certaine/étoile/UA à partir de 0.05
UA. Valeur pour 60 000 étoiles naines. Il convient de retrancher 10% à cause de la
contamination par les étoiles de fond. La valeur 10R⊕ est indiquée car son taux de
planètes est mieux connu et indique moins d’une planète par étoile. On se place dans
l’hypothèse d’une variabilité stellaire d’amplitude Solaire.
r Nombre de détection
(R⊕ ) intégré
1.0 5
1.25 12
1.5 26
2.0 70
3.0 189
5.0 300
(10.0) 311
Première partie
Fenêtrage optimisé
39
Chapitre 4
– l’intersection entre deux fenêtres doit être vide, même si les cibles sont
proches,
41
Énoncé des contraintes pour l’optimisation des masques
42 photométriques
a) b)
Fig. 4.1 – a) Patron correct, b) Patron interdit. Les anomalies cerclées montrent de
haut en bas un segment discontinu, un trou, l’absence de contact d’un pixel.
– la surface du patron doit être inférieure à 150 pixels dans une fenêtre
25 × 20 pixels, et valoir en moyenne de 60 pixels pour limiter le temps
de traitement à bord,
– il doit y avoir au plus 100 patrons qui coupent une ligne donnée,
– aucun patron ne doit chevaucher la colonne centrale d’un CCD, qui est
inerte pour des raisons techniques, ni “mordre” sur les bords.
4.1 Terminologie
On nomme patrons les formes en nombre restreint que peuvent prendre les
masques. Il y à 250 patrons qui doivent préserver le mieux possible le S/B des
12 000 cibles.
On nomme fenêtre chacune des 12 000 ouvertures munie d’un des 250 patrons.
A partir d’un grand nombre d’étoiles typiques de la variété des champs Corot
, on crée autant de masques sur mesure, optimisés en termes de S/B . Ces étoiles
“de travail” peuvent être en nombre quelconque, mais on choisi d’en utiliser 12 000
pour que les résultats soient représentatifs.
Etape 2 : Réduction
Les 12 000 masques optimaux sont réduits à 250 patrons. Nous avons adapté
ou conçu quatre méthodes de réduction. Les trois premières visent à maximiser
la ressemblance entre un masque optimal et son patron. La quatrième utilise
directement le S/B comme métrique et précise la notion de S/B global, pour la relier
aux dégradations individuelles subies par les étoiles. Un critère d’acceptabilité
est défini et une matrice “d’acceptabilité” permet de choisir les patrons parmi les
masques optimaux les plus fréquemment acceptables.
Etape 3 : Affectation
Les patrons sont répartis sur les étoiles d’un champ de cibles, qui n’est pas
nécessairement celui utilisé pour la réduction. Il faut choisir le meilleur patron
pour chaque étoile, les patrons ne devant pas se chevaucher. La mise en oeuvre
d’une file d’attente avec priorité au S/B permet d’optimiser à la fois le S/B des
cibles tout en éliminant le moins possible de candidats.
Le signal d’intérêt est le flux informatif f issu de l’étoile. Le bruit est lié à
la fluctuation de la mesure autour de sa moyenne. Classiquement on l’assimile à
σ, écart-type des points de mesure. Cette définition est suffisante bien qu’elle ne
tienne pas compte des particularités du bruit, corrélation, fréquences etc. . .dont
la connaissance facilitera le filtrage des courbes de lumières. Le S/B peut donc
Énoncé des contraintes pour l’optimisation des masques
44 photométriques
s’écrire :
f
S/B =
σ
Fig. 4.2 – Indice de confiance 99% à −2.65σ, pour une fonction de répartition Gaus-
sienne.
Le plus petit transit détectable à 99% de confiance par pixels est donc :
∆f σ1h
détectable =
f f
Dans la suite, on parle indifféremment du S/B ou de son inverse quand le
contexte n’est pas équivoque.
Chapitre 5
Il nous faut calculer le S/B un grand nombre de fois durant les phases de
réduction et d’attribution. Dans cette section, je reprends les modèles de S/B
analytiques que j’ai exposé dans la publication Llebaria et al. (2002) et les com-
pare avec des simulations. Dans le modèle photonique contaminé, je fais une
rapide estimation de l’effet du taux de contamination en fonction de la magni-
tude. Les petites lettres désignent les objets isolés (tel le flux f ), et les grandes
(F ) leurs pendants contaminés (i.e contenant des photons qui n’appartiennent
pas à la cible).
5.1 Le signal
Le signal choisi dans l’expression du S/B est le flux f de l’étoile. On pourrait
penser qu’il est équivalent de choisir F , flux total comprenant l’étoile et le fond
car la photométrie différentielle devrait retrancher d’elle-même la contamination.
Il n’en est rien car l’utilisation de F tendrait à privilégier l’entrée de la contami-
nation, par ailleurs bruitée.
45
46 Calcul des masques optimaux
f p
= f
σ
Pour doubler le S/B , il faut donc quadrupler le flux. Corot à été conçu pour que
la somme des autres bruits n’excède pas le bruit photonique.
5.2.2 La contamination
La contamination est la lumière provenant d’étoiles d’arrière plan, mesurées
en même temps que la cible du fait du chevauchement des PSFs. A l’ordre 0
elle dépend de l’environnement de chaque cible. C’est un des principaux critères
de sélection des cibles. Plus finement, elle dépend du masque de mesure et est
donc prise en compte dans l’optimisation des masques. La contamination (notée
c) agit par augmentation du bruit photonique dans la fenêtre. On mesure le taux
de contamination d’une étoile de flux f par :
c
τ= (5.1)
f +c
La contamination stellaire utilisée pour le choix des cibles est estimée à partir
d’images simulées en se dotant d’une PSF fixe, donc indépendante de la position
de l’étoile. On la mesure à l’aide du masque optimal de la cible non contaminée.
Nous ferons dans la suite l’hypothèse suivante : pour être retenue comme cible,
5.2 Les bruits 47
une étoile doit satisfaire τ ≤ 10%. Les sources contaminantes sont par ordre
d’importance :
5.2.3 Le jitter
Les inévitables fluctuations résiduelles de pointage subsistant après l’asser-
vissement ont pour effet de faire osciller l’image à l’intérieur du masque. Cette
vibration de ∼ 0.1 pixel d’amplitude se produit à un temps caractéristique de
l’ordre de la seconde. Par conséquent des photons frontaliers sortent et entrent en
permanence dans le masque engendrant une variation du signal lumineux comme
illustré figure 5.1. Ce bruit de gigue nommé jitter est un facteur important pour
48 Calcul des masques optimaux
la forme du masque. Son rôle est étudié section 5.3. Le jitter est mesuré en per-
manence par le satellite, il sera en partie corrigé dans les données à l’aide d’un
modèle de PFS.
Fig. 5.1 – Jitter. Les déplacements de PSF causent des entrées-sorties de flux. En
quantités inégales, elles sont à l’origine du bruit de jitter.
5.2.4 La respiration
Le satellite parcourt une moitié de son orbite exposé au Soleil tandis qu’il reste
dans l’ombre de la Terre durant l’autre. Sa température varie donc ; il s’ensuit
des déformations susceptibles de modifier légèrement la focalisation du télescope.
A nouveau, des photons vont franchir la frontière du masque induisant le bruit
de respiration. On modélise cet effet par une dilatation-contraction centrée du
masque, avec un temps caractéristique de 1h. On néglige l’interpénétration
variable des PSFs et l’on considère que la dilatation reste centrée.
Le satellite est protégé par une couche de MLI (Multi Layer Isolation) à
l’aspect de papier aluminium doré qui limite efficacement les transferts radiatifs.
Les données actuelles laissent prévoir une amplitude de respiration de ∼ 0.2 pixel.
5.2.6 Le traı̂nage
Corot est dépourvu d’obturateur occultant le CCD. Pendant la lecture, il
continue à recevoir les photons, créant des traı̂nées lumineuses sur toute la
colonne suivant le mécanisme expliqué P figure 5.2. Chaque colonne reçoit une
contamination
P uniforme égale à tlec . i f où tlec = 0.3 s est le temps de lecture,
et i f est le flux sommé sur les i pixels de la colonne.
Fig. 5.2 – Les photons de l’étoile (à gauche) continuent à arriver durant la lecture
lors même que d’autres pixels passent sous l’étoile (au centre). La colonne entière s’en
trouve éclairée. Certains photons seront comptabilisés dans d’autres pixels, ceux qui ne
l’ont pas été le seront à la lecture suivante. A droite une image simulée, la saturation
d’une étoile rend bien visible l’excès de traı̂nage.
5.2.7 La saturation
La saturation n’est pas un bruit à proprement parler mais elle pose des
problèmes particuliers. Malgré la défocalisation, les étoiles plus brillantes que
mV 6 12 vont saturer, plus particulièrement les pixels situés sous le maximum de
la PSF. Ce phénomène n’est pas une simple redistribution des électrons, il rend
les pixels impropres à la mesure. Les meilleures étoiles sont ainsi perdues. Heu-
reusement elles sont rares. En revanche la saturation peut agir à longue portée
par traı̂nage (Fig. 5.2, droite) dégradant d’autres étoiles.
f
S/B = √ (5.2)
f +c
C’est la limite physique que l’on cherche à atteindre. La table 5.1 indique
quelques valeurs pour des magnitudes et contaminations types. A taux de conta-
mination égal, l’influence des étoiles proches est constante, mais l’importance
du fond uniforme augmente pour les étoiles faibles. Ceci reste vrai même si on
réduit la dimension du masque.
Les forts flux rendent tolérants à la contamination : à S/B fixé, une étoile
brillante admettra un taux de contamination plus élevé qu’une étoile peu brillante.
5.4 Modèle jitter 1-D 53
Tout dépointage élémentaire λ causé par le jitter déplace les frontières, modi-
fiant f :
Z Y −λ Z Y
f (λ) = ϕ(x) dx = ϕ(x − λ) dx (5.4)
X−λ X
5.4.1 Signal
Le signal est l’espérance mathématique hf i du flux “jitté” non contaminé. Si
P(i) est la probabilité globale de recevoir exactement i photons, par définition :
∞
X
hf i = i.P(i) (5.5)
i=0
P 0 |λ est la loi de probabilité des photons non jittés ; c’est une loi de Poisson. Une
propriété connue de cette loi concerne l’espérance du carré :
D E D E2 D E
F|λ2 = F|λ + F|λ
5.4 Modèle jitter 1-D 55
. D E
Le terme F|λ est simplement le flux F (λ). On peut donc écrire la variance :
Z Z Z 2
2 2
σ = F (λ) Q(λ) dλ + F (λ)Q(λ) dλ − F (λ)Q(λ) dλ (5.9)
λ λ λ
Z
·)2 pour des fonctions
R 2
Il n’existe pas de relation simplificatrice entre (· ) et (
quelconques. Intéressons nous donc à la tendance de σ pour de petits jitters en
linéarisant F . Ceci est légitime car en pratique l’ordre du jitter sera inférieur à
0.2 pixel, petit devant les 10 pixels typiques d’un masque. Nous aurons soin plus
loin de mesurer l’erreur commise à l’aide de simulations. Au 1er ordre :
dF
F (λ) ' F (0) + λ (0)
dx
On substitue cette expression dans l’équation 5.9. En simplifiant hλi = 0 et
hλ2 i = σλ , il ne reste que :
dF
σ 2 = F (0) + σλ2 (0)
dx
On peut expliciter F (0) et dF/dx(0) en revenant à la définition de la PSF :
(
F (0) = Fnon jitté
R 0
Y −λ
(dF /dx)(0) = X−λ
φ(x) dx (0) = φ(Y ) − φ(X)
fϕ∗Q
q=p
F + σλ2 (φ(Y ) − φ(X))2
Fig. 5.4 – La variation de flux lors d’un déplacement dλ est la différence de hauteur
entre les zones hachurées φ(X)dλ et φ(Y )dλ.
dF λ2 d2 F
F (λ) ' F (0) + λ (0) + (0)
dx 2 dx2
Le nouveau terme (d2 F /dx2 )(0) = φ0 (X) − φ0 (Y ) introduit une correction liée
à la différence des pentes au bord du masque. Hélas, réintroduite dans l’équation
5.9 l’expression finale se simplifie peu, conservant des termes croisés avec des
moments d’ordre 3 et 4 de la loi Q(λ). Cette expression n’est pas développée ici.
D’une part F (~0) est le flux non jitté, sa variance de Poisson vaut donc
−−→
F . D’autre part en tant que fluctuation ~λ est centrée, donc var(~λt .gradF ) =
h(λx .gx + λy .gy )2 i où gx et gy sont les coordonnées du gradient. On obtient :
= ~nφ(x, y) dxdy
C
58 Calcul des masques optimaux
qui sont les différences cumulées de pente entre bords opposés du masque. Les
moments d’ordre supérieur du jitter interviennent, mais l’expressions reste trop
lourde à manipuler. Sous l’hypothèse simplificatrice d’indépendance des λx et λy ,
il en reste :
σ 2 = Fnon jitté + σx2 (∆2x + ∆0x /2) + σy2 (∆2y + ∆0y /2)+
+ σx4 ∆0x 2 + σy4 ∆0y 2 + σx2 σy2 ∆0x ∆0y
5.6 Vérification expérimentale 59
Fig. 5.5 – Simulation de flux sur une seconde (en noir) et intégré sur 512 secondes
(en blanc), pour mV = 14.
Fig. 5.6 – Variations de pointage simulées sur trois orbites. Les coefficients du jitter
sont σ = 0.18”, k1 = 0.15” et k2 = 0.06” suivant les x et σ = 0.16”, k1 = 0.12”,
k2 = 0.05” suivant y.
La loi Q du jitter est estimée avec les points disponibles. Le produit de convo-
lution est donné par le signal analytique :
ZZ I
s= ϕ(x − λx , y − λy ) dxdyQ(λx , λy ) dλx dλy
λx ,λy S
se résume à
1 X
s= ϕ(x − λx , y − λy )m
n
(λx ,λy )
où m est le masque binaire. La comparaison des trois modèles est présentée table
5.2.
Tab. 5.2 – Comparaison entre S/B mesuré et formules analytiques. La simulation est
conduite sur une durée de trois orbites. Les paramètres du jitter sont ceux de la figure
précédente. Les taux de contamination sont indiqués entre parenthèses.
mV 11.3(τ = 1.6%) 13.2(τ = 3.9%) 13.9(τ = 5.8%)
simulé 1 463 784 1 583
1-D 2 404 482 2 924
2-D 1er ordre 2 646 840 2 779
2-D 2ème ordre 2 625 830 2 766
Le CCD initial est vierge. Puis la PSF de chacune des 50 000 à 250 000 étoiles
du champ, cibles et non cibles, est simulée et accumulée à l’état courant du CCD.
Fig. 5.7 – La PSF d’une étoile de type G2, calculée en neuf positions différentes pour
chaque CCD. Pour la simulation de PSFs stellaires on se contente de choisir un cadran
plutôt que de faire appel à une interpolation 2D.
La PSF de la cible ainsi calculée, on réitère avec les étoiles de fond présentes
dans la trame de travail. Toutes les étoiles sont ainsi simulées ; les plus faibles
seront noyées dans le bruit de fond mais néanmoins présentes et susceptibles
d’engendrer des éclipses d’étoile double gênantes. Le catalogue disponible est
cependant incomplet, la magnitude de coupure se situant vers mV > 19.5 (voir
Fig. 3.5). Les étoiles non résolues contribuent malgré tout à la PSF. On en tient
compte sous forme d’un fond uniforme, dont le flux est calculé en intégrant la
droite d’extrapolation figure 5.9.
Fig. 5.8 – PSF polychromatique pour différents types d’étoiles, résumés à la tempéra-
ture en Kelvin de leur photosphère. A cause de la dispersion par le prisme le maximum
de flux se décale vers le rouge (en bas à droite) quand la température de l’étoile décroı̂t.
une imagette, la simulation du champ complet ne dure guère plus de 1/2 heure.
Fig. 5.10 – Extrait de champ simulé. Cette image correspond à 1/10e du champ vu
par Corot . On remarque bien la densité du champ et le chevauchement des PSFs
S/B cesse d’augmenter. L’algorithme travaille ligne par ligne pour garantir
que tout pixel soit rattaché au masque par un côté au minimum.
2. La phase de finition est un ajustement en présence des effets de jitter et de
respiration. L’expression du S/B dépend cette fois de la géométrie de la ligne
frontière. Elle ne permet pas d’isoler le rôle d’un pixel donné : il faut tester
toutes les formes de frontière possibles. En supposant la frontière idéale
proche de la frontière ébauchée, on déforme cette dernière en testant une
centaine de milliers de combinaisons. Le masque de meilleur S/B devient le
masque optimal.
Cette opération est répétée pour chacune des 12 000 cibles.
Le S/B utilisé dans l’optimisation des masques doit tenir compte du vrai jit-
ter σλ ' 0.1 pixel et non pas d’une valeur résiduelle après correction. En effet,
une valeur trop petite produirait l’effet inverse de celui recherché : les courbes
de lumière ne seraient pas optimisées en jitter, rendant moins efficace la correc-
tion. C’est seulement à l’issue du processus de fenêtrage que l’on peut mesurer
les performances attendues après correction du jitter, en utilisant cette fois un
coefficient résiduel (σλ ' 0.02) pour simuler une correction imparfaite.
66 Calcul des masques optimaux
ABSTRACT
COROT is a mission of the CNES space agency, to be launched in 2005 in a near Polar orbit. It is devoted to
star seismology and to exoplanetary transit search. Five star elds chosen close to the galactic plane will be
observed during the mission with a high photometric accuracy (relative). Each observation run will last 150
days monitoring continuously more than 6000 stars. This paper presents a new method designed to perform
optimal aperture photometry on board in high density elds. We describe the way the photometric windows or
patterns are dened and centered on the CCD around each target star, with the expected performances. Each
pattern depends on the specic 2D prole of the point spread function (PSF) but also on the pointing jitter and
on the tiny deformations of the telescopes. These patterns will be stored on board in order to dene for each
target star the optimal pattern which will produce the integrated ux to be measured. This method allows a
signicant increase of the sampling rate to aproximatively one measure per star each 8 mn).
Keywords: image processing, exoplanets, pattern analysis, stellar photometry
1. INTRODUCTION
COROT (COnvection) ROtation and planetary Transits) is a mission developped in the framework of the
CNES small satellite programme with a wide european cooperation.1, 2 It has to be launched in 2005. The
aim of COROT mission is double: 1) to monitor the sysmology of stars and 2) detect and measure exoplanetary
transits.
1.1. Mission prole for exoplanets research
COROT will be located in a PROTEUS platform designed for low-Earth orbits. For long uninterrupted ob-
servations an inertial polar orbit is needed. The orbital plane can be chosen freely and will remain the same
during all the mission.
Necessity to keep a very low level of straylight avoiding the Earth limb in the eld of view, limits the visible
sky of Corot to two circles of approximatively 10 to 15 degrees of radius, centered on the celestial equator. The
position of this circles has been chosen to optimize the two scientic programmes: their centers are at right
ascension of 102:5 2 and 282:5 deg (where the equatorial plane crosses the galactic plane). The eld of view
is 3o :46 wide.
Yearly the observation time is divided in two periods each period includes a long run (150 days) and two
short runs (10 to 20 days). During each run COROT will measure simultaneously 6000 stars with a record
rate of 6 measures/star/hour. The expected transits of planetary bodies will look like tiny notches in the
photometric records of stars. The notch will be on the 3:10;4 range of the full signal and will last for some
hours (between 3h and 10h is the work hypothesis). The relative precision of such measures, not their absolute
accuracy, is the crucial point of this mission. Therefore the stability of experimental conditions and a very low
straylight level are important items.
Further author information: (Send correspondence to Antoine Llebaria)
[Link].: E-mail: [Link]@[Link], Telephone: +33 (0)4 91 05 59 00
the Centre National d'Etudes Spatiales (CNES) is the french spatial agency
1.2. Optical instrumentation
The optical scheme has been built to reduce the internal straylight and therefore the minimize the in uence of
the periodic changes on the illumination from the Sun and from the Earth. The optical instrument is an o
axis telescope with an entrance pupil of 600 cm2 and it includes a 2 mirrors afocal section and a 6 lenses dioptic
objective, with 30 cm of diameter aperture and 1200 mm of focus, working in 370-950 nm range. This design
was chosen because it is compact and it shows an hight rejection rate for straylight (better than 1013.
The focal plane includes 4 CCDs of 2048 2048 pixels each (Marconi MPP), of 13.5 microns of pixel interval,
working in frame transfert. Two are dedicated to seismology and the other two to exoplanetary detection. These
ones work in focus but with a small dispersion (R4) parallel to the rows of the CCD. Such dispersion is caused
with a low dispersion prism which intercepts the optical path on the exoplanetary side in order to obtain some
color information about the measured stars and therefore to get additionnal criteria to discriminate the transits
from the otherwise normal stellar activity. So the best possible couloured PSF in the exoplanet eld has a
strong peak in the red and is more dispersed in the blue.
1.3. On board processing
Telemetry constraints (TM rate < 550 Mbits/day) force to on board heavy processing, to extract the photometric
imformation from the images 2048 2048 pixels wide. In order to avoid the saturation of CCDs the exposure
time is 32 sec. Each image is read in the auxiliary memory where the \extractor" (a specic programmable
device) denes 6000 windows i.e. predeteminated subsets of adjacent pixels. Each window will cover a star
image, therefore the number of selected stars dene the total number of windows. The total ux and the red ux
is measured in each window. For each of them the DPU (digital processing unit) adds 16 successive measures
and each 8 minutes packs the nal results in the telemetry (TM) format. A very small subset of windows are
included in the TM ow as mini-images.
The DPU software allocates a particular window design (called pattern thereafter) to each selected star. All
the windows are dened from the limited collection of 256 patterns preloaded from the ground. Loading new
patterns from ground on the DPU is a very slow operation, is by far more fast to reload new positions only
and to redirect the preloaded patterns to the new subset of stars. Therefore, when the star eld changes, the
extractor uses the same collection of patterns for the new set of positions.
The description of the pattern build-up process and its expected performances are the main objective of
this paper. The experiment objectives and constraints are resumed on section 2. Simulated images are needed
to dene the set of patterns, their characteristics and build-up are detailed in section 3. Deduction of specic
patterns for each star is the subject of section 4 and their redution on a small collection of generic masks is the
subject of section 5. Expected performances are discussed in section 6.
2. PHOTOMETRY
Star photometry in the COROT elds is dicult because they are dense and the ux of each star is contaminated
with the ux of neighbour stars. Crawded elds are usually reduced with PSF tting technics, however in our
case such processing methods are useless due to the operational constraints like DPU power, PSF variability,
etc.. Flux integration was chosen here because it is fast enough and can be easely taylored to the variability
of PSF aspect along the eld and with the spectral type of the star. The prism in the optical pathway of the
exo-planets channel disperses the star light over the CCD surface. For any star the nal PSF image is the
addition of a continuous set of monochrome PSFs in the useful wavelength range, changing in position and of
form. They are weighted by the star spectral prole and the spectral responsivity of COROT which includes
the CCD responsivity.
One of the most classical ux integration methods adds the ux arriving to two concentric windows of
increasing diameter centered on the star image. Background is estimated by dierence between both windows.
Is possible to use a window alone if background can be estimated independently. The COROT primary purpose
is to obtain stable measures from frame to frame, that is, only the relative precision between successive measures
of each star matters, therefore only a window per star is needed. The background time stability can be monitored
in ad hoc windows.
Optimal windows will include as much ux as possible comming from the star and as few ux as possible
comming from its sourroundings, S/N has to be maximized. Aside any prerequisite, any pixel able to increase
the total S/N has to be included in the window. S/N is weakened by platform dependent noises like jitter
and breathing and by extrinsic noises due to the background level (generating Poisson noise), variable star
neighbours, cosmic rays, stray light, erratic dust particles, etc.
Jitter is the residual movement of the line of sight after platform stabilization. The main star image is
formed in one of the sysmology CCDs dening the line of sight, therefore there is a local movement relative
to the CCD frames in each star image. The local movement, for each star, depends on the residual movement
of the main star and on the small rigid body rotation around this target. Jitter is directly linked to attitude
stability. Jitter is a wide-band phenomena relatively to the measure rate of 1 measure each 32 sec.
Breathing results from internal changes on the telescope structure due to the thermal chages and aging. It
is synchonous with the orbit, but their eect is deeper than the eect of jitter because breathing modies the
PSF aspect. Due to the abrupt edges of the pattern, integration in windows will be very sensitive to jitter and
breathing with variable backgrounds. The optimization procedure tries to minimize this crucial drawback.
Because the extractor device has a limited capacity, it is necessary to resume the full set of optimized
windows in a limited collection of 256 patterns. These patterns are called generic masks. Each star image to
be measured will be associated to a window which pattern has the \best" match with its optimized window.
Consequently, photometric windows will be build-up in a multistep process.
Image simulation.
Dening the optimal window for each target.
Resuming all patterns in a reduced collection of 256 generic masks.
Bestowing each target upon one of generic masks.
Summarizig, the image of each mesurable star, the image of its background and the expected errors due to
jitter and breathing are the basic elements to determine a window and its expected performance
3. STAR FIELD SIMULATION
Simulation of the future images is the only way we have to dene the patterns. They are of two classes: the
full CCD images and the local images. Only local images are useful here, full CCD images will be used for the
test of the overall process including star detection and adjustement of processing parameters. Both simulations
require many basic elements:
1. The catalog of stars on the eld including positions, color index and spectral classes.
2. Background level including zodiacal light and straylight.
3. The collection of 2D PSFs depending on position over the CCD, spectral type and class.
4. The geometric parameters needed to determine the star images on the CCD plane.
5. The radiometric response of COROT
3.1. Star catalogs
A photometric study of the selected elds until the 19 mag(R) for the BVRI colours is in progress. In the
meantime we use the DENIS and USNO catalogs as simulation basis. The histogram shows clearly the limits of
both catalogs their completude falls beyond the 19 mag(R). Therefore local number of stars has been statisticaly
extrapolated to simulate the background beyond this magnitude.
The catalog provides: star positions, magnitudes, a set of color indexes and rates of measure reliability
(only for a subset of these magnitudes). The mag(R) is used as reference because the maximum of COROT
sensivity yelds in this domain of wavelenght, it is the most common measured magnitude and it is known for
an overwhelming majority of cataloged stars.
3.2. PSFs
Local and global simulations use a large collection of modelized PSFs. Such PSFs depend mainly on the spectral
type and class of the star and on the eld position. The PSF collection is formed in successive steps:
1. Collecting a set of spectra in the 350 : : :1050 nm wavelength range for a set of surface temperatures
(correlative to spectral type) of the main sequence stars.
2. Modelling a very large set (> 200 18) of monochrome PSFs for a group of 18 positions on the eld.
3. Building up the collection of polychrome PSFs ( 10 18) from the monochrome PSF applying the star
spectral models, the CCDs response courbe and the COROT passband eciency.
The PSF models have been built using optical design software packages (ASAP and ZEEMAX). Dierences
between theirs results are irrelevant. They show equivalent performances of run time.
The PSF choice for a specic star on the catalog uses its apparent color index aCI y. (if it is known). With
any assumption about the interstellar reddenning, aCI is associated to an apparent surface temperature aT z .
i.e. the key value to chose the spectral prole.
3.3. Geometric parameters
Geometric parameters link a sight direction with a PSF position on the CCD. This parameters include external
parameters like the COROT attitude, and internal parameters like mean focus distance and distortion. The
reference is dened for 500 nm. of wavelenght. In summary:
External parameters tie the star coordinates to COROT coordinates
Internal parameters tie any sight directions in COROT coordinates to its position in CCDs plane (in mm)
for the 500 nm wavelength.
CCD parameters tie the each CCD positions to image positions.
This chain of references denes for each star on the eld the position of its correlative image in the CCD image.
3.4. Simulated images
For local simulations the oversampled PSF of each selected star is projected over the correlative part of the
CCD. The new PSF is built by interpolation between PSFs corresponding to the most close values ( aT and
position) amongst the parametrized PSF models. This operations ends on a PSF image rebined and placed
in the selected area of the CCD. The same operation is repeated for all the neighbours of the target included
into the selected area and, at last, the background straylight level is added. Consequently the nal image is
composed of two parts: source and background, in order to determine the initial estimate of the S/N in each
pixel. Absolute scaling is done in order to convert stellar magnitudes to photoelectron events. Such images
are the basis to determine the patterns and, going ahead, to analyze the local photometric environnement of a
particular target.
Full images are built in the same way adding targeted stars, background stars, photon noise, smearing, cosmic
rays, star saturations, etc.. Main application of full images is to prepare the check, once COROT in orbit, that
the targeted stars t their forecasted parameters. For this a unique full CCD image will be downloaded at the
begining of each observational period.
y
we discriminate aCI from the true color index corrected from stellar extinction to deduce spectral types and classes
from color index is not a straightforward task because reddening in this regions is very frequent and it has to be accurately
deduced aside
z In order to set up an appropiate link between color index and the PSF spectral entries an ad-hoc parameter the
\apparent temperature" (aT) is used
4. OPTIMAL MASKS
4.1. Build up process
In each eld of view COROT will measure the set of target stars. CCD positions of these stars will be registered
in the on board extractor. It will select for each position a specic pattern surrounding the star image. The
number of admissible patterns is limited to 256 and they must be dened on ground. From the ground COROT
receive 1) the set of patterns and 2) the set of positions, each with its reference to the assigned pattern.
As said in section 2, pattern denition is a multistep process using actual star elds and instrumental
characteristics to determine the photometric environemment of each target in the CCD image. First step
determines an optimal window for each of the 6000 n targets (where n 5 is the number of els to observe)
independently from the others. Second step reduce the collection to about 2000 sub-optimal masks grouping
the star parameters. Third step reduces further the set sub-optimal masks to se the nal set of 256 generic
masks by similitude criteria. Fourth step assigns the best generic mask to each star.
The optimal window is deduced setting to zero the jitter and breathing and selecting the pixels such if
added to measure they increase the S/N. Only the Poisson noise generated by the the targeted PSF itself, the
neighbours and the background sources matter. To ensure the only a segment per line and per target condition
the build up of each pattern is achieved line by line. Each target is synthetized from both: its own PSF image
and the background image. Procedure follows:
1. The pixel with the better S/N and its line is chosen as seed. Lets be I the number of pixels in each line,
(i j)x . the pixel coordinates and S(i j) N(i j) its respective signal and variances. Lets be (i0 j0) the
\best S/N pixel".
2. For the line j0 the S/Ns r(:): Pi=i0
S
r(k i0 j0) = q O + i=k S(i j0 )
Pi=i0
V0 + i=k V (i j0 )
are calculated for each point of the sequence f0 1 : : : i0 ; 1g (left sequence) and of the sequence fi0 +
1 : : : I ; 1g (right sequence). The highest r(k i0 j0) denes the best stops points kj;0 , kj+0 for the left
and for the right sequence respectively. S0 and V0 are the cumulated values of the signal and variance
respectively.
3. The procedure dened in 2) is used in successive lines, j0 + 1 j0 ; 1 j0 + 2 j0 ; 2 : : :, starting with the
\best" pixel on the line. S0 and V0 cumulate the S and V of accepted pixels in the successive lines, S0 = 0
and V0 = 0 for the initial line j = j0.
4. Procedure stops when no pixel adjacent to previous segments exist.
The set of pixels dened by the previous process complies by construction with continuity requirements and
is very close to the optimal mask. We call `n theory" optimal mask the set dened: 1) sorting the pixels by
S/N 2) adding the ux and variance of pixels by decreasing order and 3) selecting the index where the S/N is
the maximum. Such mask can not be used because it may be not compliant with the only a segment per line
and per target requirement.
4.2. Contamination
In dense elds, a star PSF is often distorded by the close neighbours. This perturbing eet is called contam-
ination. Contamination can modify the expected pattern mask dramaticaly. Contamination is measured here
by the ratio between the ux due to the star neighbours in the measured ux and the ux due to the star
itself. Very often star neighbours can include many referenced stars whose contribution exceeds 1% of the
measured star. Of course bright stars show tipicaly low contamination C < 0:01 and dim stars show moderate
0:01 < C < 0:1 to high contamination 0:1 < C. The total ux, the global S/N, the contamination, the mean
background level, the position and the color index are the key parameters dened by the rst step.
x
in conventional image coordinates i stands for column index and j for line index (0 0) is the left-bottom corner
4.3. Jitter and breathing disturbances
The Corot platform is 3 axis stabilized. Star trackers will maintain the platform in the right attitude for the
preliminary phases and hand over this task to the sysmographic channel of COROT for the observational phase.
Residual mouvement depend on the residual pointing error and on the weak oscillatig mouvement centered on
the sysmographic star. Because the photometric mask have sharp borders and the background is variable
around, any mouvement will modify the photometry. Therefore the jitter i.e. the pointing error vs. time (t)
will cause additional noise in the photometric measures.
A study, performed in 1D for sake of clarity, allows to quantify and reduce the jitter's noise, relying on
dierent jitter models. In this study, X and Y are mask borders, g(x) is the contaminated PSF value. Three
scenarii being considered here:
1. Random jitter: Because the sampling is slow, this jitter is assimilated to white noise in depointing value.
The additionnal term to total variance is:
VJ = 2 (g(X) ; g(Y ))2
This shows the interest of choosing mask limits close to equilevel lines of PSFs.
2. Perfectly known jitter: This ideal model attempts to reduce jitter eect by using additionnal information
on jitter: it's time law. This law can be deduced from the serie of the sucessive on-board depointing
measurements. Corrective actions are supposed to be intantaneous regarding the time between two of
them. Then (t) can be rebuilt, considering that between 2 actions, the satellite slides balistically from
one known position to the next. In this case the additive term to total variance is null. Meanwhile, due
to depointing, the S=N is reduced by two eets: 1) a little decrease of informative photons (i.e coming
from the measued star) is lost out and 2) a corresponding increase of contaminating photons.
3. Imperfectly known jitter: In this actual model, (t) is known with a samall error . The resulting added
noise term is:
VJ = 2 (g(X) ; g(Y ))2
In this case, VJ is improved, compared to the random jitter model, in proportion of 2 =2 . Moreover, the
optimising citeria is the same in the two cases.
Due to the thermoelastic sensivity of the COROT telescope the night-day periods in the orbital trajectory
will cause little but signicant changes on the PSFs. This eect is known as breathing. For sake of tractability
breathing is assimiled to a \extend/shrink" (cES ) parameter neglecting other second order phenomena (lateral
shift is included into the jitter variance).
VES = cES Va
Similary to the Known jitter models cES depends on the accuracy in the breathing value restitution. Breath-
ing is a very low frequency phenomena unlike jitter. Breathing will be detected using many parallel records. It
is not possible at present to know how precisely can be measured and removed.
Jitter and breathing introduce new terms in the optimization procedure for patterns. However a theoretical
move is excluded due to the overall complexity. In practice the starting point is the pattern dened in the
optimal window procedure 4.1. Then we continue with the quasi-exaustive search for a minimum variance
including jitter and breathing using the studied models.
In order to reduce the exaustive search initial masks are enlarged only by a pixel wide in four successive
directions: x+,x;,y+ and y;. For each direction all admissible enlargements are tried (see g.)
5. GENERIC MASKS
The restrictions of the on board extractor compel to replace the full set of initial masks with a reduced set of
256 generic masks. As said before this reduction is done in two steps rst to 2000 masks then to 256 in a
further reduction.
The rst reduction is guided by decisions done in the space of star parameters, i.e. brightness, position
and pseudo-temperature. In this space masks change smoothly. Contamination adds a new coordinate in
the parameter space. Heavly contaminated stars show very specic patterns depending on its neighbours.
Moderately contaminated stars generate masks with a \standard look". To deduce generic masks, specic
windows are classed and added on large volumes of the parameter space, composing a reduced set of classes.
Parameter N of Cls Classes Comments
mag(R) 7 f12: 12:513: :: :15:g Red magnitude
log(aT) 4 f3:863, 3:763, 3:707, 3:584g log of apparent temp.
XC 3 f00:20,00:86,10:52g angle of sight (X)
YC 6 f;0 :320,0 :208,00:736,10:264,10:792,20:320g
0 0 angle of sight (Y)
C 4 f0:01, 0:1, 1:0, 10:0g contamination level
The stars wich contamination exceeds 1. are discarded so this parametric space is divided in 1512 classes.
Figure 1 shows a subset of 432 low contamined classes among the 1512. Each of the 6 3 cluster represents a
value of YC XC angle. In a given cluster, columns are log(aT) and rows are mag(R). A class mask is obtained
by simply adding all specic masks class stars, followed by a thresholding. The gray level indicates the number
of specic masks implied in each pixel.
7. CONCLUSION
The method described is able to determine a limited set of generic masks to monitor the star ux variability in a
crowded eld of COROT mission. The useful range spans star magnitudes (R) 12 to 14. We have here detailed
the main steps leading to a collection of masks . The performances of the all system are being analysed and
the preliminary studies show that the use of generic masks preserves for a the majority of cases the theoretical
performances of the use of specic masks. Results are preliminary but show a clear trend and conrms the
extreme importance to minimize jitter and breathing (J& B). A more complete study remains to be done using
1) the new set of PSFs 2) more actual J & B levels and 3) star variability (for 10% of stars).
APPENDIX A. FIELD SIMULATION
A.1. Characteristics of the star eld
Due to the limits in catalog completude, mag(R) = 15 (approx.) is the frontier between two methods: for
mag(R) < 15 only stars in catalogue are used for mag(R) > 15 star distribution is simulated using the local
statistics The exact limit can vary depending on the maximal number of observed stars in the eld. The upper
limit (mag(R) 2021) depends on the background S/N.
A.2. Field simulation for stars of mag(R)< 15
Purpose: A precise prediction of each mini-spectra (for 20000 stars) and its surroundings Uses existing stars
catalogues (DENIS, USNO). Each mini-spectra is placed with 1/10th of pixel position and rebined to CDD
resolution. Each original mini-spectra (PSFs) depends on color index, position and magnitude. Algorithm :
I (n+1) = E (n+1) :PSF(cindex(n + 1)) + I (n)
where E (n+1) is the n + 1 star and I ( n) the simulated image in the n step
A.3. Field simulation for stars of mag(R)> 15
Purpose: To predict the background of each mini-spectrum with statistical accuracy and fast enough( 3:106
stars) Catalogues are completed with random sets of ctive stars (distr. exp. for mag, uniform for a,d ).
Position accuracy: 1=4 pixel . Background is built using a mean mini-spectrum (PSFm ) Algorithm:
I0(n+1) = E (n+1) + I0(n)
I = PSFm I0(n+1)
APPENDIX B. JITTER STUDY
B.1. Random Jitter Model
Without jitter, the PSF function G()
R
(, g() for contamined ux ) spreads the ux < F > (, < f >) into an
X Y ] mask limits such as < F >= XY G(x) dx. A depointing causes a -shift to mask limits. The resulting
ux is:
Z Y
< F j >= G(x ; ) (1)
X
In this part, we consider depointing as a probability distribution P < >= 0 2 ]. Lets compute S=N.
1
X
S =< F >= mP (m)
m=0
Where P(m) is the probability to receives exactly m photons during time exposure. Bayes theorem gives for
signal: 1 Z Z
X
S = m P (m)P () =
j
< F j > P ()
m=0Z Y
(1 )) = ( G P )(x)
X
For noise, assume N 2 = 2 =< f 2 > ; < f >2 of the jitted and contaminated ux. Since f j is a Poisson
variable,
Z Z 2
;
2 = < f j >2 + < f j > P () ; < f j > P () (2)
Thanks to Y ; X, we can develop at rst order < f j > () = h + h0 . (2) becomes 2 = h + 2 h02.
R
knowing h = < f j > (0) = XY g(x) =< f >
h0 = < f j >0 (0) = g(X) ; g(Y )
RY
GP
We nally obtain S=N = p<f>+X2 (g(X );g(Y ))2
This shows that for a given jitter, noise increases with ux dierence at PSF's borders. Hence, an optimal
mask shall be close to an equilevel line of PSF.
Figure 3. Jitter Balistique
We recognize in N a photonoise of unjitted ux < f >, simply lacking it's portion k fell out of the mask, and
added with extra contaminating photons.
Conclusion: Jitter's is in theory cancelled, thanks to signal m. m also permits to compute an intantaneous
S=N for later processings. The limits are 1) accuracy in the depointing information, 2) accuracy of the PSF
simulation. The rst of this limits can be improved by using depointing history, or correlation across a large
number of stars signal variations, pondered according to their positions on CCD.
B.3. In uence of Measure Accuracy
The depointing position is considered known with a certain error ;. Let's study 's in uence on noise reduction.
Substituting (t) by (t) ; , the expression of K (equat. 3) becomes:
Z T Z Z ! Z T Z Z !
X ; + Y
K = T1
0
G(x) + G(x) = K + T1 G(x + X ; ) ; G(x + Y ; )
0 X Y ; + 0 0 0
R
Since , we can develop at rst order, using 0 G ' 0 + G(X ; ) (resp, G(Y ; )):
Z T
K 0 = K + T G(X ; ) ; G(Y ; )]
0
This expression still depends on . Since X ; Y , we can develop again, using G(X ; ) ' G(X) ; G0(X)
(resp, G(Y ) ; G0(Y )):
K 0 = K + G(X) ; G(Y )] + G0(Y ) ; G0 (X)]
G(X) ; G(Y )] because 0
Considering contamined uxes, the noise added by residual jitter, compared to the term VJ = 2 (g(X) ; g(Y ))2
obtained in xB.1 is improved in proportion of 22 .
We again recognize a breathingless photonic S=N for a ux simply relieved from the out masked photons
and added with extra enterring contamination.
C.1. Breathing With Jitter Noise Reduction
By combining xB.2 and xC the measured ux becomes
Z T Z Y;
< Fmes > = T1 Gdilated (x)dxdt
0 X;
Z T Z M + MY ;
= T1
G(u) du
0 M ; XM ;
= < F > +Q
With Q =constant= L + T1 0T MM;;XM ; + MM++MY ;
R R XM R MY
Using unbiased signal p =< Fmes > ;Q gives a S=N:
S=N = p<F> ;Q
<f>;q
In wich we again recognize S=N of pure photonic noise for a ux simply relieved from the out masked photons
and added with extra entering contamination.
C.2. Acknowledgments
We are grateful to [Link] for his helpful discussions about the jitter statistics as well to [Link] and
[Link] for the fruitfull exchanges on mask determination and noise level determination. This work has been
found by the CNES (the french space agency) and the CNRS.
REFERENCES
1. D. Rouan, A. Baglin, P. Barge, E. Copet, M. Deleuil, A. Leger, J. Schneider, D. Toublanc and A. Vuillemin
\Searching for exosolar planets with the COROT space mission", Physics and Chemistry of the Earth Part
C, 24, 5, pp. 567{571, 2000.
2. D. Rouan, A. Baglin, E. Copet, J. Schneider, P. Barge, M. Deleuil, A. Vuillemin and A. Leger, \The
Exosolar Planets Program of the COROT satellite", Earth, Moon, and Planets, 81, 1, pp. 79{82, 2000.
Chapitre 6
J’ai envisagé quatre autres méthodes de réduction qui sont exposées ci-après.
Certaines sont des adaptations, d’autres sont conçues spécifiquement et chacune
s’efforce de pallier les défauts de la précédente. Dans la deuxième technique,
la classification a posteriori, je formalise les concepts de la méthode a priori
pour appliquer la même opération après avoir identifié les facteurs effectivement
dominants. Mais cette approche s’avère biaisée.
67
68 Réduction Optimisée du nombre de patrons
Ces différentes méthodes sont publiées dans l’article (Llebaria et al. 2003)
inséré à la fin de ce chapitre.
Parmi les 256 patrons disponibles, six ont des usages réservés, tels les fenêtres
de mesure du fond, si bien qu’il n’en reste que 250 pour les étoiles cibles.
6.3 Méthode 1 : Paramétrisation a priori 69
L’approche a priori que nous venons de décrire donne un bon ordre d’idées
mais reste assez qualitative et très arbitraire. En effet :
Fig. 6.1 – Masques réduits pour 432 familles peu contaminées. Chaque bloc est un
secteur du CCD. La température de surface varie suivant les colonnes et la luminosité
suivant les lignes. Le niveau de gris indique le nombre de membres de la famille
Fig. 6.2 – Dans cette matrice 1 000 × 1 000, le point qij représente le S/B de l’étoile j
(colonnes) à laquelle on applique le masque de l’étoile i (lignes). Un pixel clair indique
un fort S/B . La dominance de stries verticales montre que la perte reste limitée en cas de
masque désadapté. Des lignes sombres horizontales pointent les masques trop spécialisés
qui ne s’adaptent pas à d’autres étoiles. La diagonale qii contient les masques optimisés.
Elle n’apparaı̂t pas assez contrastée dans cette représentation non-logarithmique. En
effet la variation de S/B pour une étoile est faible devant les variations entre étoiles.
méthodes nous garderons le même échantillon d’étoiles que celui que nous venons
d’utiliser.
On suppose que les patrons utilisent les mêmes pixels que les masques op-
timaux ce qui nous conduit à travailler dans le sous-ensemble E engendré par
ces derniers. La vraie dimension de E est certainement inférieure à n. Pour la
connaı̂tre on extrait la plus grande famille libre en réduisant la matrice 592 ×
1 000 formée des vecteurs colonne −
→. On obtient moins de 100 coordonnées suf-
m i
72 Réduction Optimisée du nombre de patrons
Fig. 6.3 – Notation vectorielle des masques : la succession des lignes binaires forme
un vecteur.
fisantes pour décrire E. Donc plus de 492 demeurent fixes (liés à la taille de la
trame de travail) ou varient ensemble (liés par une cause physique sous-jacente).
On effectue le changement de base pour travailler plus simplement. En contrepar-
tie, le lien avec les masques est moins direct et les nouvelles coordonnées ne sont
plus binaires mais ceci n’est pas gênant à ce stade.
L’examen de G montre beaucoup de termes non nuls hors diagonale. Donc les
coordonnées utilisées sont interdépendantes. G est symétrique par construction
mais aussi définie et positive en tant que somme de carrés. Elle est donc diago-
nalisable avec des valeurs propres réelles et non négatives et des vecteurs propres
qui forment une base orthogonale. Sa diagonalisation nous fournit les matrices D
et P toutes deux de dimension n0 × n0 et telles que :
G = P −1 .D.P
6.4 Méthode 2 : Paramétrisation a posteriori 73
Une famille est par définition un groupe de masques dont les membres par-
74 Réduction Optimisée du nombre de patrons
= + +. . .+
Fig. 6.5 – Le masque m résulte de la somme des facteurs d’influence (ici non-
pondérés), et de la constante. Les “pixels” utilisés à ce stade n’ont aucune raison d’être
binaires,
P ni même positifs. Ce ne sont que des intermédiaires de calcul dont la somme
m ~
~ = xi Vi , elle, doit être binaire.
k1 × k2 × k3 × k4 × k5 6 250
Fig. 6.6 – Histogramme des coordonnées suivant un V~i . Les frontières sont choisies
dans les zones les moins peuplées.
D(m1 , m2 ) = k−
m−1−
m→k2
2
Etant quadratique, cette distance tend à éviter les écarts importants entre
masques et patrons.
δ=−−→2 + −
gm 1
−→2
gm 2 (6.2)
∂δ −−→ + −
om −→
om
= 0 ⇐⇒ →
−
og =
1 2
(6.3)
→
−
∂ og 2
Il reste à choisir le meilleur couple à substituer. D’après l’équation 6.2 l’ac-
croissement de distance obtenu avec g vaut :
(−−→ − −
om 2
−→)2
om 1
δ=
2
Pour minimiser δ, il faut minimiser km−1−
− m→k. La première itération consiste
2
donc à choisir les deux points les plus proches et à les remplacer par leur
barycentre. On affectera g du poids w = 2.
−
→ w1 −→+w −
og1
→
2 og2
og =
w1 + w2
L’accroissement de distance est bien minimal en remplaçant g1 et g2 par
g. La première itération n’est que le cas particulier où w1 = w2 = 1, le terme
général de l’itération sera obtenu en remplaçant les deux points les plus proches,
barycentres ou non, par leur barycentre pondéré.
Bien que sans biais et apparemment logique, cette méthode est inefficace :
1. La quantité de calculs est excessive. Pour trouver les points les plus
proches, il faut évaluer environ n(n + 1)/2 distances à chacune des ' n
itérations, chaque distance nécessitant elle-même 592 multiplications. Cette
complexité d’ordre n3 n’est pas envisageable pour nos milliers d’étoiles.
Il est cependant possible de la réduire en cloisonnant les points dans des
boı̂tes virtuelles et en limitant le calcul aux distances inter et intra-boites.
De plus, on peut travailler dans une base plus simple. La complexité
78 Réduction Optimisée du nombre de patrons
2. Le résultat est piètre dans la pratique. Tous les points condensent vers le
plus petit masque. Ceci semble tenir au fait que, les petits masques ayant
peu de coordonnées non nulles, sont plus proches entre eux que les grands.
Ils commencent donc à se condenser, puis vident graduellement les couches
périphériques, isolant un peu plus les grands masques. On peut y voir un
défaut dans le choix de la distance qui n’est pas relative à la taille du
masque. Mais il serait inutile d’adopter une distance normée par la surface :
k−m−1−
m→k2
2
D(m1 , m2 ) = −
km 1 k + k−
→ 2 →k2
m 2
Arrondi : comme précédemment les graines finales sont des moyennes et donc
leurs coordonnées sont continues. On choisit pour chacune d’elles le masque
binaire le plus proche (qui n’est pas nécessairement un masque optimal) qui
devient un patron, comme on l’a vu au §6.4.3.
La complexité calculatoire est très réduite. Il ne faut pas plus de n × p
évaluations de distance par itération, et dans notre cas la convergence est très
rapide. Elle se produit la plupart du temps avant le 10e tour.
Mais en dépit de ce résultat, cette méthode ainsi que toutes celles qui sont
basées sur la maximisation d’une ressemblance sont inadéquates. Le résultat
en termes de S/B est trop imprédictible. La figure 6.9 montre que malgré une
distance égale entre un masque individuel et plusieurs patrons, le rapport signal
à bruit varie beaucoup trop.
En fait, trop de facteurs entrent en jeu pour qu’il y ait continuité entre la forme
d’un masque appliqué à une étoile et le S/B qui en résulte. Certains produisent des
effets de seuil, tel le passage de coordonnée continue à coordonnée binaire, couplé
avec la dépendance envers l’ensemble de la frontière. Pour compenser l’erreur due
6.7 Méthode 5 : Le tri efficace de masques pseudo-aléatoires 81
Fig. 6.9 – Corrélation entre distance et S/B . Le S/B en abscisse est calculé pour des
patrons situés à différentes distances (en ordonnée). La distance est relative au masque
optimal (celui qui est situé à D = 0). L’étalement des points suivant les horizontales
montre que pour une distance donnée le S/B est peu prédictible.
à l’arrondi d’un pixel, il peut être nécessaire d’en faire basculer de nombreux
autres. En conclusion le critère de ressemblance est peu légitime. Comme on
souhaite une performance en termes de S/B , il faut trouver une métrique qui
tienne compte explicitement du S/B .
Il faut tout d’abord fixer une définition du S/B global qui traduise au mieux
les besoins scientifiques de Corot et qui s’exprime à l’aide d’un paramètre unique.
Ce paramètre peut alors être utilisé comme métrique pour guider la réduction.
On ne peut pas se contenter d’utiliser le S/B moyen d’un champ. En effet,
une moyenne peu dégradée par la réduction peut néanmoins cacher des biais
importants tels que la perte des meilleures cibles.
82 Réduction Optimisée du nombre de patrons
Le critère choisi consiste à limiter la dégradation de S/B que subit une étoile
lorsque son masque optimal est remplacé par le patron générique qu’on lui attri-
bue. Autrement dit, on s’impose qu’après réduction, toutes les étoiles considérées
comme cibles conservent au moins
où S/Bopt est leur rapport signal à bruit que donne le masque optimal. Ainsi,
la répartition finale des S/B est identique à la répartition initiale, les étoiles
préservant leur capital dans une égale mesure.
Ce choix établit la correspondance entre S/B global d’un champ et S/B indi-
viduels des étoiles qu’il contient. En effet si pour toute étoile i l’on à :
où S/Bi est la valeur du S/B en amont de la réduction et S/B0i sa valeur en aval,
on sera alors assuré que
S/B0 > τ S/B
où S/B et S/B0 sont les S/B moyens sur tout le champ avant et après réduction.
– 1) Une répartition “inégalitaire” des ressources où les quelques étoiles les
plus brillantes sont préservées au détriment de la majorité des autres, cela
6.7 Méthode 5 : Le tri efficace de masques pseudo-aléatoires 83
Une autre idée est l’introduction d’un facteur de “coût normalisé” C qui re-
présente la “part” du jeu de patrons que requiert une étoile. C est élevé quand
l’étoile est peu tolérante et nécessite un patron très spécifique, peu réutilisable
par d’autres. Notre qualité devient alors :
84 Réduction Optimisée du nombre de patrons
X
Q= qi .Ci
i
Plus une étoile i “consomme” de patrons, plus elle doit être optimisée pour
compenser son coût. Ces étoiles sont les étoiles brillantes ; le “coût” des étoiles
faibles est réduit car leur signal photonique se distingue peu du bruit de fond
(identique pour toutes les étoiles) et leurs masques tendent donc à se ressembler.
La pondération utilisée traduit le fait qu’une stratégie inégalitaire n’est pas
forcément pénalisante. Dans la pratique cette pondération ne sera pas utilisée.
En effet, le facteur C est trop difficile à évaluer car il dépend de l’ensemble des
patrons et des étoiles.
On utilisera donc la définition suivante pour la qualité d’un champ dont les
masques optimaux ont été réduits : la répartition des S/B dans un champ muni de
patrons doit être la même que la répartition des S/B avec les masques optimaux.
a) b)
Fig. 6.11 – a) Préservation du S/B avec des masques non adaptés. La matrice est
extraite de la matrice étoiles/masques[1 000,1 000] de la figure 6.2 dont on à normé
chaque colonne (étoile) par le S/B obtenu avec son masque adapté. On remarque les
masques adaptés sur la diagonale. b) Histogramme des valeurs de la matrice de gauche.
Jusqu’à 45% des couples masque × étoile (aire à droite de la ligne pointillée) perdent
moins de 5% de S/B avec un masque désadapté.
P̄ = (1 − p)n
Si on se donne moins d’une chance sur mille qu’une des boules de notre échan-
tillon de 1 000 étoiles reste non-tirée, il faut P̄ 6 10−6 par boule. La solution en
n de l’inéquation est :
n > log(10−6 )/ log(1 − p)
86 Réduction Optimisée du nombre de patrons
Il faut n > 24 tirages (patrons). C’est bien dans la proportion recherchée car
24/1000 ' 250/12 000, laissant espoir pour la réduction avec 95% de préservation.
(b) La matrice des signaux à bruit est seuillée avec τ ce qui la transforme
en matrice binaire, nommée matrice “d’acceptabilité” et dont l’élément
(i, j) = 1 signifie “l’étoile j accepte le masque i”. Il y a au minimum un
masque acceptable par étoile : son masque optimal. Plus une colonne
compte d’éléments égaux à 1, plus l’étoile est “tolérante”. Plus une
ligne compte d’éléments égaux à 1, plus le masque est “apprécié” des
étoiles candidates.
(c) Le masque le plus apprécié de tous est choisi comme le premier des
patrons,
(d) Les étoiles qui ont accepté ce patron sont considérées comme “servies”
et sont exclues du reste de la procédure,
2) Tri : Le masque totalisant le plus d’é- 3) Les étoiles servies sont exclues et on
toiles satisfaites est choisi comme premier itère le 2) pour extraire le second patron.
patron. La somme des lignes est repré-
sentée sur la partie droite.
Cette méthode est sans biais. En effet, supposons que 12 000 patrons soient
autorisés. Si τ < 100%, la réduction aura lieu et on aura donc moins de 12 000 pa-
trons. Donc la seule valeur possible pour τ est 100% et les 12 000 étoiles n’auront
plus qu’un choix : leur propre masque optimisé.
Le degré d’utilisation des patrons est très inégal ; le plus utilisé satisfait à lui
seul 130 étoiles (Fig. 6.13). Ce patron le plus “populaire” est de petite surface et
sans spécificité, il ne satisfait que les étoiles faibles dont les signes distinctifs sont
noyés dans le bruit. On ne doit pas sa présence à un hasard particulièrement
favorable : il y en a beaucoup comme lui en compétition sur les mêmes étoiles,
dont un seul est retenu. A l’opposé, certaines étoiles brillantes n’acceptent qu’un
seul patron.
Fig. 6.13 – Masque convenant à 130 étoiles. Sa surface est réduite, sa forme standard.
Il existe plusieurs méthodes de tri. Celle qui est proposée est simple et
efficace. La solution exacte est hors de portée du calcul et ne serait pas forcément
meilleure dans la pratique. L’élément important est la représentativité des étoiles
utilisées.
Dans la pratique le même jeu de patrons sera appliqué sur plusieurs champs
pour réduire les interruptions de télémesure et les risques techniques lors des
opérations de rechargement. Nous avons vu au début que la procédure de réduc-
tion travaillait à partir d’un regroupement d’étoiles, nommé “champ composite”,
choisies représentatives des champs stellaires et conditions de mesure qui seront
celles de Corot . La population des champs composites se limite à 3 000 étoiles,
suivant un compromis avec la puissance de calcul nécessaire. Les caractéristique
de ces champs sont les suivantes :
Fig. 6.14 – Population stellaire en fonction du S/B potentiel. Le niveau de gris indique
le nombre d’étoiles d’une magnitude donnée qui ont un S/B donné. Cette figure est
établie à partir d’un champ réel. La limite supérieure de la surface indique le cas idéal
du bruit photonique pur. Les meilleures étoiles sont les plus rares.
Tab. 6.1 – Nombre d’étoiles que doit satisfaire un patron en fonction de la magni-
tude. Ce nombre imposé est plus important pour les étoiles faibles car elles sont plus
tolérantes. On fixe également une nombre maximal de masques par catégorie (nmasque )
pour réserver plus de masques aux étoiles brillantes. Les étoiles faibles non servies quand
nmasque est atteint restent exclues de l’échantillon des patrons. Le patron qui leur sera
affecté leur fera donc perdre plus de τ × S/Bopt .
6.7.7 Conclusion
La précision photométrique de Corot n’est pas compromise par le processus
de réduction que nous avons mis au point. La robustesse semble acquise, le
S/B obtenu en affectant un jeu de patrons à des étoiles n’ayant pas participé
à l’obtention de ce jeu reste satisfaisant, sauf de rares exceptions. On doit la
performance de la méthode à l’exploitation de la bonne tolérance de certaines
étoiles vis-à-vis de masques désadaptés.
6.7 Méthode 5 : Le tri efficace de masques pseudo-aléatoires 91
Un exemple de jeu de patrons est représenté Fig. 6.15. Ils sont groupés par
classe de magnitude décroissante à partir de mV = 16. L’anomalie du 6ème
patron de magnitude 13 provient sans doute d’un masque élaboré pour une
contamination très particulière d’une étoile faible, mais qui ne gêne pas les autres
types de contaminations.
Le nombre d’utilisations des patrons sur un champ (voir Fig. 6.16) montre
une décroissance rapide. Les patrons les plus utilisés sont ceux des étoiles faibles.
On remarque qu’une vingtaine de patrons restent inutilisés, ce sont ceux qui sont
élaborés avec des paramètres trop différents du champ de cibles choisi.
92 Réduction Optimisée du nombre de patrons
Fig. 6.16 – Taux d’utilisation des patrons. Le nombre d’utilisation en ordonnée est
obtenu sur un vrai champ, après la procédure d’attribution décrite au chapitre suivant.
6.8 Deuxième publication Llebaria et al. (2003), SPIE. 93
ABSTRACT
CoRoT mission for year 2006 is a small space telescope that will measure continuously for 6 months the light
flux of 12 000 star in a mission of 2 12 years. The aim is to detect small droops in the light curves revealing
planets transitting in front of their star. For this, 12 000 logical Regions Of Interest (ROI) are defined on the
CCD to optimise each star Signal to Noise Ratio (s/n). Unfortunatly only less than 256 different shapes are
permitted for all ROIs, forseeing a loss in global S/N. We found a method wich reduces the 12 000 ROIs to a
small set of 250 shapes in a lossless way. Overall performances are discussed.
Keywords: image processing, exoplanets, pattern analysis, stellar photometry
1. INTRODUCTION
CoRoT, standing for Convection, Rotation and planetary Transits, is a European mission led by the CNES∗
who is the prime contractor.1, 2 Is a main purpose of the orbital telescope CoRoT to detect earth sized
exoplanets orbiting at a medium distance around their stars during its 2.5 years mission. The basic method is
to find “transits” i.e to detect droops of particular shape in the temporal light curve, corresponding to the tiny
brightness decrease when the planet passes in front of its star. Due to planet/star proportions, such droops
will be very faint, the detection of 3.10−4 in relative brightness decreasing is the expected performance. CoRoT
will be in an inertial polar orbit at 850 km permitting to point in the same galactic direction during 6 month
runs. During runs the sun is always in CoRoT back side. The indirect light scatered by the earth is reduced
by optic means. During runs CoRoT measures continuously light fluxes coming from 12 000 stars selected in its
field of view of 3.5 degrees sq. Observing 5 of such areas for 6 months each we estimate that about one hundred
planetary systems can detected, along with a dozen of “small planets”.3
CoRoT is an off-axis 30 cm telescope, with 1200 mm focus and an entrance pupil of 600 cm2 . The optical
path is made of 2 afocal mirrors and a 6 lenses dioptric objective. CoRoT works in the 370−950 nm wavelengths
range. On the purpose to discriminate a monochromatic transit from other stellar activity a biprism, just placed
before the focal plane, induces a weak dispersion to get somme colored information. The little spectra depending
on the star spectral type and class as well as on the position on the field, will be designed in this paper as PFS’s.
An entry baffle reduces straylight to a 10−13 factor. On the focal plane there are 4 CCDs (Marconi MPP) of
2048 × 2048 pixels of 13.5µm of square size working in frame transfert. To avoid saturations due to bright stars,
both CCDs are read every 32 s. Readings are packed by 16 to give a 512 s exposure.
In order to fulfill the telemetry constraints, stars are measured on board and the results are transmited to
ground (each exposure is 32 sec long, the sequences of 16 exposures are added on board to form individual
measures). These measures constitute a time series or “light curve” for each star. The relative photometry
consists on integrating the flux in each ROI (region of interest) which includes the Point Spread Function (PSF)
of a selected star. In the instrument working group of CoRoT ROIs are called “masks” and its 2D shapes
“patterns”. These ROIs are designed from a complex process4 which aims at maximizing the S/N ratio in view
Further author information: (Send correspondence to Antoine Llebaria)
E-mail: [Link]@[Link], Telephone: +33 (0)4 91 05 59 00
∗
the Centre National d’Etudes Spatiales (CNES) is the french space agency
of constraints like local crowding, background, jitter, etc. Moreover on board software limits to less than 256
the number of disponible 2D shapes beside other minor constraints. Therefore this shapes will be optimized to
be used for large groups of stars depending on place on the field, magnitude, type, etc. In order to define ROIs
the full process will be unfold in two steps: in the first one (the “definition” step), a specific ROI for each PSF
of selected stars is deduced, in the second one (the “reduction” step) these large sample of ROIs is resumed in
a limited set of optimal shapes in compliance with the on-board software requirements.
The definition of the initial (or specific) ROIs has been detailed in a previous paper,4 instead in the present
work we will deal in more detail with the reduction step and the final results. We will discuss in a first place
about the optimization criteria, second about the reduction process and last about the predicted performances.
Figure 1. Left: Image 256 × 256 subfield in logarithmic scale of brightness. Right: correlative ROIs map image
2. OPTIMIZATION CRITERIA
2.1. Defining the noise level
Relative photometry is adequate to detect transit events, therefore the stability of measurements is the crucial
point for the exoplanets CoRoT mission. That means to reach the lowest noise level for each serie of measures,
therefore the stability of experimental conditions and the low straylight level (mainly due to the earth) are
very important items. Because PSFs are different from a star to next one, as we said before, and also because
the PSF is subsampled, the only practical photometric method is aperture photometry. The star fields to
observe are very crowded and the aperture shape or ROIs will depend on: 1) the PSF distribution, 2) the
local background and 3) on the neighboring stars (as matter of fact they belong also to the local background).
ROIs are small (∼ 70 pixels area) and therefore any tiny displacement or image change in the CCD plane can
perceptibily modify the total flux. Displacements are due to residual jitter of the 3D pointing system. Image
changes depend mainly on the thermoelastic response of the telescope to the orbital constraints.
The best ROI for each star will minimize such effects to approach the ideal S/N ratio of photon limited noise.
Out of operational constraints we will define the optimal ROI applying a exaustive trial and error procedure to
determine the shape with the lowest noise to signal ratio for each star. That’s why a method to found a simple
expression to forecast the noise level for each star and each proposed ROI is crucial.
The signal is defined by the total flux of the star included on the ROI. The noise depends on:
1. photon noise from the star itself;
2. photon noise from the background and the overlapping stars;
These sources of noise can be grouped on two main classes: a) (Pseudo)white sources and b) quasi-perodic
or colored sources. Sources from 1) to 4) correspond to (pseudo)white noise; sources 5) and 6) correspond to
colored noise. Even if we can assume a plausible guess for each component we cannot easely mix both classes
in a short expression without further assumptions on the future signal processing.
Straylight will show a orbital frequency component (with harmonics and sub-harmonics). Breathing looks
much more complex due to the thermic control in flight. In any case such colored noises can be detected and
measured because they are global and show a very low frequency cut off. Correcting such terms in the time series
of flux data will cancel an important part of the colored noise but a “whitened” residue is certainly foreseeable.
This residue will be included in the global expression of noise. Summarizing the discussion of this subjet held
in the previous paper,4 final expression of variance will include three terms: 1) photon noise, 2) jitter noise and
3) whitened noise due to uncorrected residuals of breathing. Obviously variable stars on background, secondary
effects of missing data and saturated stars are not considered here. The final expression is:
Where VT OT stands for the final variance, FT OT the final flux, X represents the ROI border and g(X) is the
flux per unit area in this border. ∆g(X)2 is the quadratic mean of all flux differences in X induced by a
series of small PSF displacements, it is the jitter term. g(X)2 stands for the quadratic mean due to breathing
(whitened). δλ2 and c2ES are respectively the mean square deviation of jitter and the residual mean square error
for breathing.
Table 1. Computations are made for a 0.86 pixels rms jitter, for 3 stars from strong (Mv=11.3) to mean (Mv=13.9)
magnitude. Results are expressed in N/S(ppm) rather than S/N. SIM stands for simulation 1D,2D(1) and 2D(2) stands
for one dimensional expression, two dimensional expression to first order and two dimensional expression to second order
(see Appendix A)
3. REDUCTION
To reduce the very large collection of masks (∼ 100 000) to the small set of 2 × 128 with a minimal degradation
in S/N ratio we have tried a set of methods: 1) parametric families, 2) principal component analysis, 3) direct
morphing and 4) table sorting. With the last we get, by far, the best results. We design thereafter the group
of first ones as tentative methods the last one being the selected method.
In spite of some preliminary encouraging results we discard lately this method due to the strong bias : if
1000 shapes where allowed, they would never converge to the 1000 initial ROIs. As in the parametric families
approach some a priori is still present in families boundaries choice. The details are discussed in the Appendix B.
3.2.2. Strategy
Practically we consider all ROIs found in the set of specific ROIs as a tank of random ROIs. Given a τ , our
process determines the required number of shapes to satisfy τ . By successive tries, we adjust τ to obtain the
2 × 128 shapes. 2 steps are necessary :
1. Convert the exaustive matrix of fig. 2 into the S/N losses matrix of fig. 3
2. The best ROI, i.e. the row on the acceptability matrix with a maximal number of compliant couples, is
removed from the matrix as well as the compliant stars. A new losses matrix with the remaining stars
and ROIs is defined. Iteratively convert to shape “status” the ROIs acceptable for the largest number of
compliant stars, as described Fig. 3
The losses matrix results from the S/N matrix in The acceptability matrix i.e. the tresholded losses
fig. 2. Each column of the S/N matrix has been matrix to loss τ . White spots signal compliant
normalized to its highest column value. Columns couples of {stari , ROIj } to this loss level
show the S/N loss ratio across ROIs.
In the acceptability matrix the most white spotted Compliant stars for the last extracted shape are
line marks the best shape to extract. This shape is switched off. A new iteration can start in order to
assigned to all compliant stars of this line find a next best shape and so until star exaustion
Figure 4. Iterative procedure to determine the set of shapes from the S/N acceptability matrix
3. The 1) and 2) steps are iterated until star exhaustion, or a maximum of 128 ROIs (per CCD). If the
maximum number of ROIs is reached without exhausting all stars, we have to decide the increase of τ
losses for a subset of stars or admit a more reduced S/N for the remaining stars. Trials with actual fields
shows a very small proportion of remaining stars for (1 − τ ) S/N loss levels lower than 10% starting from
more than 120 000 stars-ROIs pairs (from different fields but relative to the same CCD).
Figure 5. Left Accepted stars per magnitude in a typical field. Right Size of accepted stars overimposed to the acceptance
histogram. Small masks are de most frequent ones.
Generic masks will be optimized for a large set of observable fields, not just for only one of them. Each field
contains as much as 2 × 6 000 potential stars to observe, therefore the exaustive analysis with all candidates
(> 50 × 2 × 6 000 candidates) requiring an exaustive S/N acceptability matrix of 600 0002 elements is clearly
out of our reach. Instead a stochastic selection has been applied. This process:
1. selects at random a large sample of stars (> 3000) between all candidates in a large sample of fields and
builds the S/N acceptability matrix,
2. finds the limited set (< 2 × 128) of the most common accepted shapes (or “generic masks”) following the
table sorting method.
A final procedure assigns ROIs in each field to 6000 star candidates from the limited set of shapes. Once shapes
assigned, a small proportion of candidates (< 10%) are rejected due to practical constraints like to avoid: 1)
the intersection with borders and 2) the overlapping between ROIs in the CCD. (see fig. 5).
4. PERFORMANCE
Performance has been mesured in a set of 12 fields in the Milky Way of 1.6◦ × 1.6◦ each. The number of stars
per field is more than 120 000 to mgR 19.6. They are more than 6 000 candidates in each field to mgR 15. Sets
of 2 × 128 shapes have been extracted from this fields, and ROIs and its positions defined for most of them. We
present here the typical results for one of these fields:
Figure 7. Left Accepted stars per magnitude in a typical field. Right The graph showing the size of masks is overimposed
to the graph of accepted stars per magnitude
The 2D histogram (fig. 6) of the star number as function of S/N and magnitude (mgR) shows a dense
population of stars grouped along the theorical limit of S/N rate as fuction of magnitude (scales in log10 (S/N )
vs. mgR coordinates, the Poisson noise limit is a straight line of slope -0.2 per 1 mg). In the graph, the
distribution ridge is shifted of 0.2 in log10 (S/N ) units, corresponding to the ∼ 20% decrease in S/N performance
relative to the pure Poisson noise of the star PSF without background. Such degradation includes the noise due
to contamination from neighbour stars and from the background level, the jitter effects, etc.
The ROIs statistics (fig. 8 left) shows: 1) the size distribution of ROI shapes (mean of 70 pixels), 2) the
frequency of use: most of stars are observed with ROIs of < 100 pixels, 3) the height and length distributions:
mean of 9 × 15, 4) 2D histograms of nb of ROIs as function of magnitude and size, low magnitudes use big ROIs
as expected.
Figure 8. ROI Statistics: 1) Size histogram, 2) 2D histogram of size and magnitude, 3) 2D Histogram of length and
magnitude and 4) 2D histogram of height and magnitude
5. CONCLUSION
This paper has presented the procedure to obtain the reduced set of masks used into photometric integration in
the CoRoT exoplanets experiment as well as the expected performances. Operational constraints to a limited
set of masks. In fact a limited subset of masks (< 50) are enough to measure a majority of stars with a low
degradation in the S/N ratio. The procedure described here shows an outstanding improvement relative to the
classical methods of reduction of pattern sets. The expected overall performance is better than 80% of the
“photon noise” limited observations and the field crowding will discard in mean less than 25% of less bright
stars. Future work will try to verify this performances with the full set of CoRoT exoplanets fields.
5.1. Acknowledgments
We are grateful to [Link] for his helpful discussions about the jitter statistics as well to [Link] for the
fruitfull exchanges on mask determination and noise level determination. This work has been found by the
CNES (the french space agency) and the CNRS.
<F >
S/N =
< FT OT > +µ220 q12 + µ202 q22 + 2µ11 q1 q2
−−→ →
− −−→ →
−
Let q3 = gradFT OT . i (resp. q4 = gradFT OT . j ) thats to say differences between horizontal (resp.
vertical) slopes. Noise expression of noise contribution becomes at 2nd order :
= + +. . . +
In this process the columns of an ROI image (37 × 16 pixels) are stacked in a vector −→
m with one binary coor-
dinate per pixel in the canonic base (i.e 592-coordinates). A coordinate of −
→
m set to 1 signifies the corresponding
pixel is used in the ROI. For shake of clarity let us fix the number of ROIs to 1 000. The {m −→i , i = 1 · · · 1000}
induce a sub-space where we assume the searched shapes to reside. We searching the underlying dimension of
the system, we cannot find more than 100 independent {m −
→i }. This means that 492 of the 592 pixels actually
never toggle or are tied with another. So we change for this new base of 100 coordinates. Note that such
coordinates are no more binaries.
Influence factor formalization : A combinaison of coordinates whose variations are not correlated to the
others. To determine them we consider the covariance matrix A of m −
→i coordinates. Non-diagonal terms are
→
−
covariance between coordinates (i.e factors). Let’s diagonalize A and change to the base of eigenvectors { Vi , i =
→
−
1 · · · 100}. The non-diagonal terms of A are null so the new coordinates are independant. In other words, { Vi }
are our influence factors. We formalize thereafter all this concepts
• Major factors: Those who varies most between ROIs. The variance of the ith coordinate is the eigenvalue
→
−
λi . So we reorder { Vi } by descending λi .
• Family: All members of a family share a close value for a factor. Analytically this value is the projection
−−→ →
−
of an ROI on a Vi . To share into 250 families, we cut factors values into equal parts or equal populations
of ROIs, as shown Fig. 10 left.
• Rebinarization: The obtained shapes (see Fig. 10, center) are back translated to the canonic base. As it
is, shapes a negligeable chance to show binary coordinates. A way to solve this is to notice that binary
shapes are located at corners of an hypercube in the continuous space (see Fig. 10, right). This justifies
the intuitive choice made in Sect. 3.1 of pixel averaging among a family.
V1
J
V2
1.
VN
N K
1.
m
1. I
Significant factors or eigenval- The resulting best shape is al- Continuous shapes are included
ues are quantified most always a continuous one in a cube of binary shapes
a) Selection b) Fusion
Figure 11. At each iteration, the closest pair of type {point, point} or {point, centroı̈d} or {centroı̈d, centroı̈d} is
replaced by its centroı̈d, hence reducing by one the number of weighted points.
A simple algorithm doing this is illustrated in Fig. 11. The principle is, starting from the complete set of
points, we remove one point at each iteration.5 Elimination rule : the 2 closest points are replaced by their
barycenter (centroı̈ds). Advantages : 1) No more a priori. 2) Shapes converge obviously throught ROIs as their
number increase.
The algorithm iterates nROI −nShape times. The complexity of all distances computation is heavy, roughtly
n2 ×nbiterations , but can be significantly reduced, for instance by sharing the space into virtual boxes and
in 2
computing distances only inside and between boxes. The algo is completed by the same rebinarisation than
App. B. The result of this basic algorithm converges badly. Indeed, all points condense on the smallest ROI.
This seems due to that points with few non-null coordinates have the more chances to be close together since
both are close to the origin. Consequently central points start to condense and atract all the others.
C.2. K-means problem
Its general term is : Given n pupils spread over a region, where to place K schools, K < n such as the total
distances to schools is minimun. In our case, pupils are ROIs and schools are shapes. There is no analytic
answer, but a class of iterative algorithms6 known also as K-means cluster algorithm. The computational
complexity falls downto K × n per iteration. Lets detail one. Initial state : Spread K seeds (future shapes) over
the space. We preferently choose for seeds K regulary distributed ROI to respect convergence toward initial
ROIs as shapes number increases. Figure. 12 illustrates the 2 steps of an iteration. The iteration stops when a
Step 1 : Make clusters. Step 2 : Move seed at cluster Iterate Step 1 etc. . .
Affect each point to the barycenter.
closest seed
Figure 12. At each iteration, all points are assigned the closest seed, then the seed is moved to the cluster’s centroı̈d
convergence criterium is reached, like no more decrease of the global distance. Centroı̈ds are then transformed
to shapes by binarisation (App. B). The result we obtained is satisfying, only 1.7% surface differ between initial
ROIs and final shapes. Moreover this ratio is quite independent from initial seed choice and the algorithm
converges in a few iterations. Unfortunatly, we note that the basic hypothesis saying that close ROI would give
close S/N was non relevant. In fact, studying the relative distance versus S/N degradation, we note that same
distance could lead to quite different S/N. We conclude that morphology criterium is risky and we abandon
morphing methods.
REFERENCES
1. D. Rouan, A. Baglin, P. Barge, E. Copet, M. Deleuil, A. Léger, J. Schneider, D. Toublanc and A. Vuillemin
“Searching for exosolar planets with the CoRoT space mission”, Physics and Chemistry of the Earth Part
C, 24, 5, pp. 567–571, 2000.
2. D. Rouan, A. Baglin, E. Copet, J. Schneider, P. Barge, M. Deleuil, A. Vuillemin and A. Léger, “The
Exosolar Planets Program of the CoRoT satellite”, Earth, Moon, and Planets, 81, 1, pp. 79–82, 2000.
3. P. Bord, D. Rouan, A. and A. Léger, “Exoplanet detection capability of the COROT space mission”,
astro-ph/10305159 A&A, in press, 2003.
4. A. Llebaria, A. Vuillemin, P. Guterman, P. Barge, [Link] 4849 # 112, 2002.
5. Everitt, Brian S., Cluster Analysis, Arnold Publications, 2001.
6. A.K. Jain and R.C. Dubes, Algorithms for Clustering Data. Englewood Cli s, NJ: Prentice Hall, 1988.
Chapitre 7
Après avoir testé les deux alternatives opposées sous la forme d’une procédure
privilégiant le S/B individuel et d’une autre réduisant la surface des ouvertures,
j’ai mis au point une méthode très simple qui résout le dilemme de manière
avantageuse. Elle consiste en une attribution itérative suivant la priorité des
S/B , combinée à un repêchage “équitable” en cas de collision. Cette solution
évite d’avoir à choisir un compromis car elle se révèle supérieure aux deux
autres possibilités, chacune sur son terrain de prédilection. C’est-à-dire que
le S/B total est supérieur à celui obtenu par la procédure orientée S/B et le
nombre de cibles retenues est plus grand qu’avec la procédure qui réduit la surface.
95
96 Attribution des patrons sur une image complète
Dans la suite, le terme fenêtre désignera un patron positionné sur une étoile.
Il y a donc 250 patrons et 12 000 fenêtres. Les contraintes techniques sont les
suivantes :
Les défauts de l’une et l’autre de ces techniques sont qu’il reste souvent 6 6000
cibles retenues, parfois privées d’étoiles dont le potentiel en S/B était pourtant
intéressant, ou bien que le S/B est systématiquement diminué.
Le fonctionnement est très simple. C’est une gestion de file d’attente (voir Fig.
7.1). Les étoiles sont rangées par ordre de S/B décroissant tous patrons confondus.
La première étoile reçoit son meilleur patron (donc le même qu’avec la méthode
1). Puis la seconde etc.. Lors d’une collision, l’étoile est privée de ce patron. Son
S/B potentiel est recalculé avec les patrons restants et elle est réinsérée en file
d’attente au rang correspondant. Ainsi les étoiles qui conservent un bon S/B
potentiel même une fois dégradé, sont réessayées en priorité. C’est en cela que
le “repêchage” est dit “équitable”. C’est seulement quand tous ses patrons sont
épuisés qu’une cible est éliminée ; mais à ce stade elle est déjà fortement dégradée.
98 Attribution des patrons sur une image complète
Les étoiles sont classées et affectées par L’étoile est replacée dans la file d’attente
ordre S/B décroissant. Si une étoile col- au rang qui lui correspond à son nouveau
lisionne, elle est privée de son meilleur “meilleur S/B ”. L’affectation se poursuit
patron. La colonne grisée représente le en reprenant le processus là où il s’était
meilleur S/B de cette étoile avec les pa- interrompu.
trons restants.
Les résultats des trois méthodes sont comparés table 7.1. La méthode itérative
conserve le même S/B individuel sur toutes les cibles que la méthode 1 a retenu
aussi. Elle permet en plus de distribuer des patrons supplémentaires avec un bon
niveau de S/B . Le nombre d’étoiles perdues se limite à 10% et il s’agit des moins
intéressantes. Un examen plus précis montre que les cibles perdues peuvent être :
(a) des cibles recouvertes par le patron de cibles plus brillantes, (b) des cibles en
contact avec une étoile brillante ou avec la bordure du CCD (masques interdits).
Ces cas ne posent pas vraiment problème. Les premières sont en général très
contaminées, les secondes perdent une part importante de leur flux qui, sommé
dans la fenêtre de leur voisine, ne pourra pas en être distingué.
Pour vérifier cette analyse sur tous les cas nous avons ajouté quelques masques
qualifiés “de sauvetage”, parce qu’ils sont dessinés pour tester les cas spécifiques
précédents sans souci du S/B . Ils ont la forme d’une pixel unique ou d’un
disque plein évidée d’un secteur de 25%. Les étoiles restantes ont alors toutes
trouvé un patron, ce qui confirme que leur précédente élimination était due à la
géométrie du champ, et que la procédure ne laisse pas perdre d’étoile intéressante.
7.3 Résultat
Nous avons comparé les méthodes sur une champ-test qui compte 5 193
cibles candidates. Le résultat se trouve table 7.1. La méthode 1 orientée S/B perd
1 000 cibles mais les cibles restantes conservent leur meilleur niveau de S/B . En
réduisant la taille des fenêtres, la méthode 2 affecte 200 cibles supplémentaires
7.3 Résultat 99
Tab. 7.1 – Comparaison des méthodes. Le S/B de la méthode 1 est la référence utilisée
pour faire la comparaison.
Méthode 1 2 3
Priorité S/B n cibles S/B itérative
fenêtres 4100 4300 4573
ratio S/B -0% -3% -0% (les brillantes)
(référence) 6 -1% la plupart des autres
Tab. 7.2 – Extrait du compte rendu d’exécution du programme d’affectation joué sur
un champ de 7 225 candidates du centre galactique. Il indique le potentiel en étoiles et
en S/B , le nombre de cibles affectées avec différents taux de perte, et la surface totale
couverte par les fenêtres.
Tab. 7.3 – Taux de préservation du S/B en fonction S/B pour la plupart des 5 564
étoiles attribuées d’un champ du centre galactique.
Tab. 7.4 – S/B sur 8.5 min en fonction de la magnitude pour la même attribution que
la figure.7.3.
Fig. 7.2 – Rapport signal à bruit en fonction du taux de contamination pour une gamme
de magnitudes donnée. Bien que le lien soit évident le S/B peut varier du simple au
double pour une contamination donnée.
PBool = S.q
102 Attribution des patrons sur une image complète
Cette règle reste intuitivement valable pour la multiplication entre nombres réels,
dans le cas de priorités continues, dès lors que les distributions sont fortement
piquées autour de 0 et de 1. En effet il est souhaitable que les étoiles de grand
intérêt scientifique et de fort S/B soient attribuées en priorité.
mV 6 14 ⇒ S = 3/3
mV 6 15 ⇒ S = 2/3
mV 6 16 ⇒ S = 1/3
mV > 16 ⇒ S =0
Les résultats sont présentés dans la table 7.6. Pour des raisons techniques,
H3 n’a pas été testée mais les autres cas sont suffisants pour juger.
Les résultats sont très voisins, quoique légèrement moins bons pour H1 et
H2. Les étoiles ayant perdu leur S/B optimal se retrouvent pour la plupart
rétrogradées dans la bande des −10% à −50%. Ceci n’a rien de surprenant, en
effet (pour H1) on les classe suivant la contamination et on les mesure suivant
le S/B . L’effet individuel de H1 sur les étoiles est présenté figure 7.3. Les pics
7.4 Double critère de priorité 103
Tab. 7.6 – Comparatif des différentes hypothèses H0, H1, H2. Nombre de cibles af-
fectées qui perdent respectivement moins de 1%, 10% et 50% de leur S/B nominal
∆ S/B H0 H1 H2 H3
6 1% 5 753 5 723 5 686
6 10% 130 124 137
6 50% 114 140 168
> 50% (≡ perdue) 3 13 9
négatifs et les zéros sont les étoiles ayant perdu du S/B ou ayant cédé leur place.
L’élément important est que l’impact de H 6= H0 reste cantonné aux étoiles
faibles.
Fig. 7.3 – Effet individuel de H1. Les étoiles affectées sous H0 sont classées par S/B
décroissant. Elles sont ensuite réaffectées suivant H1 et superposées en suivant le même
classement.
On constante l’apparition d’un pic positif pour une étoile (désignons la par
’X’) en position 1 400. Ceci peut paraı̂tre surprenant en effet, comment une étoile
peut-elle doubler son S/B simplement quand on en exclut d’autres plus mineures
qu’elle (avec H1) ? L’explication tient au fait que, pour des raisons pratiques
nous n’avons pas éliminé complètement les étoiles, mais leur avons donné une
priorité négligeable. On voit figure 7.4 que sous H0 le masque de X est bloqué par
une étoile ’Y’ qui présente un S/B supérieur malgré une contamination dépassant
10%. Sous H1, l’étoile Y se trouve rejetée en fin de classement et la fenêtre de
’X’ peut s’étendre. On en voit la contrepartie sous forme d’un pic négatif pour
Y visible dans les forts S/B près de l’origine. C’est la conservation d’une priorité
104 Attribution des patrons sur une image complète
minuscule qui fait que peu d’étoiles sont absentes avec H1, sinon Y aurait été
perdue. Le bilan est donc défavorable à H1, ce qui est logique puisque la métrique
qui fixe les priorités d’affectation (contamination) est différente de celle utilisée
pour la mesure de la performance (S/B ).
Fig. 7.4 – Vue locale de la collision entre l’étoile 1 400 marquée d’un ’X’ et une étoile
de fort S/B mais contaminée ’Y’. Sous H0 (à gauche) Y bloque logiquement X, mais
sous H1 (à droite) Y est rejetée en fin d’affectation.
En conclusion une priorité à double critère S et S/B produit peu d’effet. Pour
que celui-ci se fasse sentir il faut : 1) qu’il y ait collision (moins de 20% des cas),
2) que cette collision concerne des étoiles de S/B voisin, ce qui est très rare pour
les étoiles fortes qui sont peu nombreuses. 3) même dans ce cas, si les critères
sont liés le résultat sera souvent le même qu’avec le seul S/B . Notre priorité
mixte PBool = S.q répond donc bien à la question et permettra des changements
ultérieurs dans le choix des priorités scientifiques sans nécessité de retouche.
f1 (2)
s1 = f (1) − f (2)
f2 (2)
où s1 est le signal corrigé. On pourra donc à l’aide de ces informations
atténuer dans une courbe de lumière, la part de contamination imputable
aux étoiles des courbes voisines.
2. Localisation d’une source : Supposons qu’on détecte un candidat transit
dans la fenêtre j. Un problème important est de s’assurer qu’il ne provient
pas de l’éclipse de l’une des étoile de fond qui serait binaire. On utilise
l’information spectrale fournie par le prisme comme information spatiale
de nature à faciliter la discrimination entre un transit sur la cible et une
éclipses d’arrière plan. On dispose des fj (i) de toutes les étoiles i de la
fenêtre. Les fenêtres sont dissociées en 3 canaux r, v, b. Considérons un tran-
sit hr , hv , hb observé dans les trois courbes correspondantes. Les écarts-type
de ces courbes sont σr , σv , σb (hors transit). Plusieurs étoiles de la fenêtre
peuvent être suspectées d’avoir donné naissance à h si elles sont binaires à
éclipse. Pour chaque étoile i on fabrique l’indicateur :
2 2 2
fr (i) fv (i) fb (i)
hr − h̃. hv − h̃. hb − h̃.
fr fv fb
χ2i = 1/3. 2
+ 2
+ 2
σr σv σb
Fig. 7.5 – Inverses du χ2 pour chaque étoile de la fenêtre et pour différents niveau
d’occultation h̃. L’un des point est à l’origine de l’événement observé.
Pour finir, les PSFs ne se limitent pas aux frontières d’un seule fenêtre.
On pourrait aller chercher de l’information dans les fenêtres voisines en ne
considérant plus des couleurs mais des cannaux indifférenciés. Pour l’étoile
i: 2
fj (i)
X hj − h̃. fj
2
χi = 1/n
j
σj2
Où j désigne tout canal ayant une source de photons commune avec ceux
où le transit à été observé. Cette technique n’a pas encore été quantifiée à
l’heure actuelle.
Afin de préciser la magnitude des étoiles de fond dont les éclipses seraient
gênantes, on a simulé figure 7.6 des éclipses de plein fouet dans chacune des
fenêtres d’un champ du centre galactique. Les points sont les plus petits
transits détectables sur la cible, les lignes obliques sont les profondeurs de
transit que mimerait une étoile binaire située prés de la cible. On voit que
les éclipses d’étoiles de fond plus brillantes que mV = 20 seront toujours
7.6 Conclusion et perspectives pour le fenêtrage 107
Ces résultats sont obtenus pour des PSFs théoriques connues avec la précision
nécessaire. L’étape suivante consiste à savoir préserver ces performances avec les
108 Attribution des patrons sur une image complète
PSFs réelles de Corot en vol. Ces PSFs vont différer des PSFs théoriques car elles
découleront de mesures effectuées à partir d’une image prise en vol. Sur une telle
image, on ne peut pas séparer avec précision les cibles de leur contamination. Il
s’ensuit que la précision des PSFs déduites sera très limitée ; on parle de plus de
20% d’erreur à l’endroit du pic de la PSF. Il faudra donc être capable de calculer
des masques optimaux, de savoir les réduire et les affecter en dépit d’un S/B peu
précis.
109
Chapitre 8
Le but recherché est de détecter les plus petits transits possibles dans
12 000 courbes de lumière contenant plusieurs types de bruit tout en évitant au
maximum les fausses détections.
La détection doit être adaptée aux bruits de diverses natures, aléatoire (bruit
de photons), stellaire (activité), environnemental (résidus de lumière diffusée) ou
technique (impacts de protons, jitter ou respiration résiduelle).
En dépit des différents types de bruit, il faut parvenir à estimer avec précision
l’amplitude ∆f /f , la durée et la période des transits,
Quand j’ai débuté mon travail sur la détection, les méthodes utilisées
n’avaient pas encore exploité la multiplicité des courbes de lumière, qui est un
111
112 Énoncé des contraintes.
avantage spécifique de Corot . J’ai montré dans le cadre d’un test en aveugle que
l’on pouvait améliorer les capacités de détection par recoupement des différentes
courbes. La statistique permet de reconnaı̂tre parmi le bruit des variations qui
sont en fait déterministes. J’ai utilisé un algorithme de détection simple dérivant
du “filtrage adapté”, pour tester plusieurs façons de déceler et d’exploiter ces
déterminismes communs. En procédant par pondération des artefacts synchrones,
on fait émerger du continuum 80% d’événements supplémentaires par rapport à
la détection simple.
8.1 Introduction
Depuis l’espace, Corot transmettra les données de 60 000 étoiles mesurées
toutes les 8,5 min dans des conditions identiques et pendant 150 jours. Corot est
dimensionné pour conserver une précision σ = 7.10−4 jusqu’à la magnitude 15.5.
Avant de pouvoir être exploitées par les algorithmes de détection, les courbes
de lumière sont prétraitées par un pipeline de données qui les calibre et les
débarrasse des effets instrumentaux et environnementaux connus tel le jitter,
la lumière diffusée, les impacts de particules ionisantes, etc . . .Les algorithmes
de détection interviennent après cette étape. Pour détecter les planètes les plus
petites, ces algorithmes doivent exploiter au maximum l’information disponible
sur le signal et sur le bruit.
Mais aucune méthode efficace n’est basée sur l’analyse de Fourier. En effet,
les transits sont des événements brefs, leur faible énergie se répand donc
dans une large gamme de fréquences dont aucune n’a tendance à émerger
du bruit. Comme l’explique Bordé (2003) seul ' 7% de l’énergie d’un transit
de durée analogue à celui de HD 209458 b se trouve à la fréquence du fondamental.
entre le signal observé s(t) où t est un temps discret, et un gabarit multi-transit
de référence de même longueur à quatre paramètres x(∆f, d, T, φ), ∆f étant la
profondeur, d la durée, T la période et φ la phase à tester. Il s’agit d’essayer
toutes les valeurs possibles de ∆f, d, T, φ, le jeu le plus probable étant celui qui
maximise ρ. On voit que le nombre des combinaisons est très élevé, mais on peut
le réduire par les considérations suivantes :
TF D−1 (S ∗ .X).
Cette méthode n’est optimale que dans le cas Gaussien, mais un filtrage
préalable des courbes de lumière permet d’atténuer les bruits trop éloignés de
cette hypothèse. Cette méthode est fréquemment nommée “filtre adapté”, duquel
elle n’est en fait qu’un cas particulier (Defaÿ 2001).
114 Énoncé des contraintes.
Dans le cas où chaque point possède son propre écart-type σ(t), le filtre
adapté s’écrit :
X s(t)x(t)
ρ= .
t
σ 2 (t)
Le cas le plus général du filtre adapté est optimal pour les bruits corrélés.
Une littérature abondante s’y rapporte (voir par ex. Kay (1998)). Il exploite les
corrélations internes du bruit et s’écrit :
xt R−1 s
ρ= √
st R−1 s
les xi , resp. si étant les coordonnées de x, resp. s dans cette base. C’est-à-dire
que les entités comparées ne sont plus les points de mesure (qui sont des
quantités interdépendantes), mais leurs combinaisons linéaires (qui elles, sont
indépendantes). Dans notre cas, la difficulté est de choisir une matrice R qui soit
bien représentative du bruit. On peut songer à s’aider d’une classification des
courbes de lumière par types spectraux ou par similitudes du bruit.
De leur côté, Deeg et al. (1998) ont pris en compte la variabilité atmosphé-
rique suivant la quantité d’atmosphère traversée en construisant un profil de
8.2 Les méthodes de détection 115
où σ(t) est l’écart-type des points constitutifs du super-point t. L’utilisation d’un
gabarit rectangulaire permet de calculer L̃ la profondeur optimale du transit,
directement à partir des données ce qui fige l’un des paramètres libres, les autres
étant d, T et φ. L̃ est calculée avec les points internes au transit par :
P
wi xi
L̃ = P
wi
On reconnaı̂t l’expression de leur barycentre. L’algorithme explore l’espace des
paramètres après avoir déterminé le maillage optimal. La ressemblance avec le
gabarit est évaluée par un test de χ2 . Cette méthode à été employée avec succès
dans le cadre de l’expérience OGLE. Tingley (2003b) note une correspondance
de formulation entre le BLS à base de χ2 et le filtre adapté.
Pour leur part, Aigrain & Irwin (2004) utilisent une approche similaire avec
un gabarit en créneau dont ils calculent le χ2 aux courbes repliées. Ils effectuent
un lissage préalable destiné à uniformiser le niveau moyen local de la courbe
avant repliement et utilisent une pondération adéquate des points dont la mesure
ne tombe ni entièrement dans le transit, ni entièrement en dehors.
D’une manière générale, quand les transits deviennent faibles il faut pousser
la sensibilité en modifiant un seuil, pour continuer de les détecter. Mais cette
opération s’accompagne d’une croissance rapide des fausses détections. Les
méthodes évoquées sont d’autant plus efficaces qu’elles opèrent sur des courbes
débruitées. Par exemple les variations à long terme dues à l’activité stellaire
116 Énoncé des contraintes.
peuvent avoir une amplitude supérieure à celle des transits, risquant d’oblitérer
les données dans les courbes repliées.
Voici une liste des bruits inclus dans la simulation et qui n’ont pas été
divulgués durant le test, ainsi que les techniques possibles pour s’en affranchir :
√
– Le bruit de photon d’écart-type F . Il suit une loi quasi-Gaussienne.
√
Moyenner n échantillons réduit l’écart-type d’un facteur n et équivaut à
un temps de pose n fois plus long. Mais cette opération peut déformer le
transit ou y incorporer des points anormaux.
– La lumière diffusée par la Terre. Dans cet exercice, elle varie le long de
l’orbite. On en simule une compensation imparfaite par le pipeline à l’aide
d’un profil temporel d’amplitude '0.5 e− /pixel/seconde pondéré d’un
coefficient résiduel aléatoire, positif ou négatif. Ce résidu peut engen-
drer une amplitude maximale de σ/F ' 1% pour une étoile mV = 14 et
un masque de 80 pixels, c’est-à-dire supérieure à l’ordre de certains transits.
8.3 Test en aveugle 117
Elle peut dans une certaine mesure être modélisée pour en dégager un profil
temporel déterministe comme l’ont fait Lanza et al. (2003) avec succès
pour le Soleil. On peut aussi s’attacher à ses caractéristiques fréquentielles
déterminées par Aigrain et al. (2003), enfin on peut la caractériser de
manière statistique.
– Les impacts de protons. Ils sont très abondants pendant ' 15 min
toutes les 1.7 heures, lors de la traversée de l’anomalie magnétique. Leur
détection par l’électronique de bord est simulée par l’absence des mesures
correspondantes,
Les trous de données qu’ils causent ne sont pas des bruits, mais compliquent
la détection. On peut les interpoler ou utiliser des méthodes de détection
qui les tolèrent. Certains rayons cosmiques de basse énergie échappent à la
détection basée sur un seuil. On peut tout de même déceler l’origine non
lumineuse d’un pic en comparant les trois courbes de lumière d’une fenêtre
colorée.
Pour finir, des transits de 1.6R⊕ à 1.3RJ ont été inclus dans certaines
courbes, ainsi que différents autres phénomènes stellaires, étoiles triples, transits
stellaires, binaires rapprochées. Ni leur nature, ni leur nombre et paramètres ou
ceux des bruits n’étaient connus.
° °
Fig. 8.1 – Courbes de lumière brute n 1 (gauche) et n 34 (droite). Seule celle de droite
contient des transits, qui sont parmi les plus visibles.
inclus n’était pas communiquée. Ceci associé au fait que les équipes travaillaient
séparément à conduit à une grande diversité de techniques de filtrage, décrites
dans Moutou et al. (2005). On trouve principalement :
– Les trous peuvent aussi être comblés par des procédures de lissage des
points anormaux, filtre médian ou moyenne glissante,
– Dans certains cas, les courbes conservent leurs trous et ce sont les
traitements qui s’adaptent.
La lumière diffusée : – Le plus fréquent est le filtre passe bas car la lumière
diffusée se trouve aux fréquences f > forb . Les filtres utilisés peuvent
être une moyenne glissante, ou un lissage médian itératif alternant avec
la suppression des points éloignés de plus de 3σ ce qui supprime du
même coup les points anormaux.
passe-bas, ou bloc par bloc à l’aide d’une droite où d’un polynôme dont
on minimise la distance à la courbe au sens des moindre carrés. Le modèle
réalisé est ensuite soustrait. Pour limiter le risque d’ajuster les transits
en même temps que la variabilité, la taille des blocs (12h-72h) est choisie
supérieure à la durée supposée des transits.
Fig. 8.2 – Haut : courbe brute, les trous ne sont pas visibles à cette échelle. Centre :
courbe filtrée passe-bas (fc ∼ 1.5h). Bas la variabilité modélisée est soustraite.
Mais d’un autre côté un échantillonnage régulier et sans trous permet l’accès
à des méthodes éventuellement plus efficaces. Le gain pour la détection peut se
révéler supérieur au biais introduit. Il n’y a pas de règle universelle pour choisir,
cela dépend de la taille des trous, du bruit et de la redondance des données.
Mais si on choisit d’interpoler, la démarche logique est de confirmer après coup
la robustesse des détections en faisant varier les points interpolés.
La méthode proposée
La méthode que nous proposons montre que l’on peut améliorer la détection
par une caractérisation collective des courbes de lumière d’un même champ. Elle
tire parti du fait que les courbes de lumière de Corot sont nombreuses, acquises
simultanément et dans des conditions identiques.
123
124 La méthode proposée
Cette chronologie contraste avec celles des autres méthodes du test en aveugle
parce que la détection y précède tout filtrage pour rehausser préalablement le
contraste des transits recherchés.
9.1 La détection
9.1.1 Définition du débruitage et de la détection
Le filtrage et la détection sont en fait des notions proches. Par exemple la
technique connue sous le nom de “filtre adapté” est en fait une méthode de
détection. Afin d’éviter les confusions voici les définitions préalables que nous
emploierons par la suite :
– L’énergie des transits est concentrée en temps, ce qui lui donne plus de
chances de se démarquer du bruit local. Tout filtrage, temporel ou fréquen-
tiel, implique le mélange d’un point avec ses voisins, diluant le transit avec
les échantillons environnants. Pour le vérifier, nous avons appliqué la dé-
tection sur une courbe, avant et après filtrage de la lumière diffusée. Le
filtrage utilise une moyenne glissante à la période orbitale. Ce filtrage est
très efficace contre la lumière diffusée tout en ayant des effets minimes sur
les composantes plus lentes. Nous avons utilisé pour cette détection aussi
bien un gabarit intact que le filtré de ce gabarit par la même transformation
que la courbe. Le résultat pour le gabarit intact est présenté figure 9.1. Les
pics de détection sont plus importants dans le cas de la courbe filtrée, mais
proportionnellement entourés de plus haut pics de bruit. Au final le S/B de
détection, défini par :
ρ(t)
S/B =
σ
où ρ(t) est la hauteur des pics de détection et σ l’écart-type de la courbe
de détection, est dégradé par le filtrage. Seule la détection appliquée sur
la courbe brute permet de distinguer qu’en réalité deux transits distincts
alternés sont présents, signe d’une étoile de fond binaire.
– A mesure qu’on veut le rendre plus efficace, les composantes touchées par
le débruitage s’approchent de celles du transit et le dégradent de plus en
plus. C’est d’autant plus vrai que certains bruits étant peu connus, fixer
une limite comporte une part d’arbitraire.
– Une autre raison qui nous incite à ne pas commencer par le débruitage
est qu’il est inutile d’éliminer des courbes initiales les composantes qui le
seront de toute façon par la détection.
– La dernière raison est que le détecteur choisi est insensible aux données
manquantes. Leur seul effet est d’augmenter légèrement le bruit de détec-
tion aux dates des trous.
126 La méthode proposée
1) 2)
Fig. 9.1 – 1) Détection de transit sur une courbe de lumière brute et 2) après filtrage
ciblé de la lumière diffusée. Les pics de détection sont plus hauts après filtrage, mais le
S/B de détection a chuté.
x.s(t) − x.s(t)
ρ(t) = (9.1)
σx σs (t)
numéro d’échantillon.
– Enfin, elle se prête bien à un calcul au fils de l’eau à mesure de l’arrivée des
données.
128 La méthode proposée
Fig. 9.2 – Transit analytique pour un rayon planétaire r/R? = 0.1. La courbe en trait
plein concerne un disque stellaire uniforme, les autres sont obtenues en incorporant
différents termes de la loi de gradient de la loi d’assombrissement centre-bord. Les
lignes fines à peine discernables des autres montrent l’approximation quand le flux est
constant sous la surface recouverte par la planète.
Il reste encore à déterminer n. Une période de calme où la planète n’est pas
devant l’étoile est indispensable dans le gabarit car elle fait partie intégrante
du phénomène physique étudié. Au sens de la détection, elle permet de calibrer
le bruit local. Nous l’avons vérifié expérimentalement : quand n est réduit à
la seule éclipse, la corrélation du transit est supérieure, mais noyée dans un
bruit de détection important. De nombreuses fluctuations aléatoires de la courbe
ressemblent alors à l’éclipse isolée. Si à l’inverse n est trop grand la corrélation
du transit diminue car le poids de l’éclipse devient faible. D’après la table 9.1,
l’optimum se situe vers d/n ' 70%, d étant la durée totale hors immersion.
Tab. 9.1 – 1) Dissymétrie de la distribution des pics de détection mesurée par son 3ime
moment (skewness), en fonction de la longueur hors transit d du gabarit. La mesure
porte sur une courbe qui contient des transits durant entre 3 h et 14 h. Un 3ime moment
important traduit l’émergence de pics de détection. A son maximum, le pic de détection
culmine à 7σ au-dessus du continuum (cas favorable).
Fig. 9.4 – Détections d’événements par simple corrélation d’une courbes de lumière
avec un gabarit. L’abscisse des courbes est le numéro de point durant toute la période
d’observation, qui va de 0 à 25 055. En ordonnée de chaque courbe, la valeur du coef-
ficient de corrélation avec le gabarit.
9.2 Le débruitage 131
9.2 Le débruitage
9.2.1 Prépondérance des bruits systématiques
Les méthodes de détection de transit décrites antérieurement au test en
aveugle faisaient état d’un fonctionnement courbe après courbe. Or dans les
courbes de lumière du test en aveugle, le bruit est nettement dominé par des
motifs collectifs aux courbes (voir Fig. 9.5). C’est donc la première des sources
de bruit à traiter pour ouvrir l’accès aux informations plus fines dissimulées dans
le même bruit. Nous allons donc chercher la meilleure manière d’identifier et
d’exploiter les informations collectives.
Fig. 9.5 – Composantes systématiques. Deux courbes de lumières typiques sont repré-
°
sentées. Bien qu’à un degré moindre, on retrouve dans celle du bas (courbe n 5) des
°
structures présentes dans celle du haut (courbe n 1).
.
Ces ressemblances sont visibles, mais suggèrent qu’il peut en exister d’autres,
trop faibles pour être flagrantes mais exerçant tout de même une influence sur la
détection. Nous allons les identifier toutes au moyen de statistiques portant sur
la collection complète de courbes.
Fig. 9.6 – 3 courbes de détection présentant des motifs communs. On voit distinctement
la persistance d’une tendance. Comme l’atteste le pic central cette tendance peut être
positive, négative, ou à peine décelable.
Où ρi est la ime courbe de détection, si ses transits décorrélés entre les courbes, δ
le motif sous-jacent pondérée affecté d’un poids wi propre à chaque courbe. Enfin
B est le bruit général de moyenne nulle. La moyenne d’ensemble sera alors égale
à :
hρi = 0 + hwi δ + 0
et donc proportionnelle à δ. Mais cette technique ne fonctionne pas avec les
courbes du test aveugle, ce qui fait penser que w est de moyenne faible, voire
nulle. Cette supposition s’est révélée exacte (après le test) car w simule un résidu
de correction imparfaite de la lumière diffusée.
Il faut donc une autre méthode pour identifier δ. On a recours à une Analyse
134 La méthode proposée
Fig. 9.7 – Composante systématique identifiée par PCA sur 200 courbes de détection.
Le vecteur à été normé. On distingue des stries à la période T = 1.7 h correspondant à
la lumière diffusée. La méthode à donc “appris” la lumière diffusée.
Lors du test aveugle, nous avons commencé par identifier δ à l’aide d’une
technique équivalente1 . Dans cette technique, on part de l’une des courbes choisie
très typée et on la considère comme l’ébauche δ0 de la composante commune.
Cette ébauche est inévitablement biaisée. On la raffine en moyennant toutes
les autres courbes préalablement normées positivement ou négativement pour
égaliser leur composante suivant δ0 . Les biais sont non corrélés et s’annulent
dans la moyenne, laissant l’accès à δ.
– Le poids w ainsi obtenu est une constante pour toute la courbe, alors que
la vraie pondération devrait être de la forme w(t). En effet, ρ(t) dépend du
bruit local et donc le même événement situé à deux instants dont les bruits
ambiants sont différents peut produire deux pics différents.
– On n’a pas encore exploité l’information de dispersion des courbes de
détection autour de la composante commune. On l’utilise donc maintenant
pour indiquer le niveau de confiance d’un écart donné.
ρi (t) − wi .δ(t)
Li (t) =
σ(t)
1) 2)
Fig. 9.8 – Filtrage des modes communs. 1) courbe de corrélation contenant des pics
peu visibles. 2) les pics sont traduits en indice de confiance et les transits émergent
clairement. L’excès de bruit des 50 premiers jours à disparu.
Mais cet algorithme n’est pas adapté à notre recherche d’effets systématiques.
En effet, supposons deux courbes ρ1 et ρ2 = −kρ1 , où k est un coefficient quel-
conque. Leur distance peut être importante bien qu’elles soient identiques pour
les systématiques. On pourrait songer à utiliser comme métrique le coefficient de
corrélation lui-même entre ρ1 et ρ2 (cf. Eq. 9.1) :
D = corr2 (ρ1 , ρ2 )
qui est insensible a k. Mais dans ce cas, c’est le déplacement des graines (cf. Fig.
6.8) au barycentre du groupe qui pose problème car il ne minimise plus cette
distance.
Fig. 9.9 – Classement par famille. On choisit un premier “père”. Puis ses fils sont
les courbes corrélées au-delà de |ρ| > 0.7. On sélectionne alors le deuxième père parmi
les courbes orphelines et ainsi de suite. On obtient un ensemble de familles dont les
membres présentent des ressemblances au sens d’une composante homothétique.
Afin de discriminer les transits se produisant sur l’étoile cible de l’effet des
binaires à éclipses d’arrière plan, on compare 3 moyennes : celles des événements
d’indice pair, impair, et total. Les éclipses dont la dissymétrie est suffisamment
marquée auront des moyennes paires et impaires distinctes, réparties symétri-
quement autour de la moyenne générale.
9.3 Résultats
Par rapport aux résultats obtenus après la seule phase de détection (12
événements), le processus de débruitage collectif conduit à 10 événements
supplémentaires (+80%). L’amélioration est donc tangible pour le détecteur par
corrélation.
Les transits vrais détectés à l’occasion du test sont les mêmes quelle que
soit la méthode utilisée. Ceci donne une idée de la sensibilité de détection de
Corot . A l’inverse, les fausses détections dues au bruit sont différentes entre
les méthodes, donc la comparaison semble être un critère discriminatoire. On
note aussi que la variabilité stellaire ne semble pas gênante pour la détection si
elle reste inférieure à 0.5%. La détectivité de Corot devrait rendre possible la
9.3 Résultats 139
1) 2)
3) 4)
Fig. 9.10 – Discrimination des événements. Les points sont ceux des événement dé-
tectés, les courbes sont les moyennes des événements d’indice pair, impair et la moyenne
générale. 1) Courbe avec transits planétaire. La forme du transit apparaı̂t distinctement,
les trois moyennes sont proches. 2) Une étoile de fond binaire à éclipses 3) Une étoile
double en orbite serrée. Il s’agit d’un objet double en rotation, et non plus d’éclipses,
4) Une planète n’ayant transité que deux fois.
Tab. 9.2 – Résultats comparatifs. Notre méthode (équipe 1) se situe dans la moyenne.
Elle évite les fausses détections grâce à une phase d’analyse visuelle semi-manuelle. Les
détecteurs arrivant en tête utilisent le repliement.
Equipe 1 2 3 4 5 Parmi
Transits 12 11 15 12 14 20
Autres événements 10 6 10 12 12 16
Fausses détections 0 1 0 3 5
Il est possible que l’apport de notre approche soit moindre avec les vraies
données de Corot qu’avec les données simulées du test en aveugle. En effet, les
bruits expérimentaux seront plus efficacement traités par l’EXOPIPE à l’aide
de modèles spécifiques, et peut-être évolutifs. Ce faisant, il accomplira en amont
une partie du travail de notre méthode car ces bruits contiennent une grande
part des déterminismes cachés. Mais elle restera utile pour traquer les bruits
résiduels dus à l’imperfection des modèles.
En revanche notre méthode peut faire face à des situations imprévues, comme
on l’a vu dans l’exemple du pic central de fausse détection (cf. Fig. 9.6). Cet
artefact d’envergure majeure situé en milieu d’observation est causé par la
conjonction entre la SAA et le pic de lumière diurne. Il gêne la majorité des
équipes en lice, qui n’ont d’autre recours que d’ignorer cette fausse détection à
l’aide d’un traitement ad hoc, disqualifiant ainsi les données correspondantes.
Au contraire avec notre méthode, le pic s’évanouit de lui-même sans faire l’objet
d’aucun traitement particulier, permettant à l’information occultée de revenir
d’elle-même au premier plan.
Le pic est commun à la plupart des méthodes car elles réagissent toutes
aux mêmes facteurs. Elles sont certainement aussi gênées par les autres effets
systématiques moins visibles que nous avons mis à jour. Quelle que soit la
méthode, la prospection et la suppression de ces déterminismes qui sinon
restent considérés comme du bruit de détection ferait certainement progresser la
détectivité de Corot .
formelle. Une fois en possession des pondérations ci de toutes les courbes, on peut
raffiner rétroactivement le modèle de perturbation a(t) en a0 (t) car son effet n’est
pas forcément linéaire, notamment à cause des changements météorologiques.
On obtient :
2
P
0 i si (t)ci /σi (t)
a (t) = P 2
i ci /σi (t)
9.4 Perspectives
Du côté détection, on peut combiner une approche collective non plus avec
notre détecteur basique, mais avec les détecteurs fonctionnant par repliement des
courbes de lumière qui donnent actuellement les meilleurs résultats. On pourrait
de plus exploiter l’information de la symétrie intrinsèque des transits à l’aide
d’un auto-repliement supplémentaire par rapport à leur centre.
ABSTRACT
The search for planetary transits in star light-curves can be improved in an non standard way applying ap-
propriate filtering of the systematic effects just after the detection step. The procedure has been tested using
a set of light curves simulated in the context of the CoRoT space mission. The level of the continuum in the
detection curves is significantly lowered when compared to other standard approaches, a property we use to
reduce false alarm. Ambiguities may originate in unexpected effects that combine instrumental and environ-
mental factors. In a large set of synchronous light curves collective behaviours permit to identify systematic
effects against which the detected events are compared. We estimate a significance of our detections and show
that with our procedure the number of true detections is increased by more than 80% (22 events detected over
the 36 injected ones). In spite of its simplicity, our method scores quite well (average results) when compared
to the other methods used for the CoRoT ”blind test” exercice by Moutou et al.1
Keywords: corot, transit detection, survey, pattern analysis , stellar photometry
1. INTRODUCTION
1.1. Corot
High precision stellar photometry permits to detect extra-solar planets by the transit method. Indeed, the tran-
sit of a planet in front of the disk of its parent star results in a photometric signal (a weak, short and periodic
decrease of the received photon flux F) that can be detected in stellar light-curves. The relative amplitude of the
signal ranges from 10−2 for giant planets like Jupiter to 10−4 for a terrestrial planet; its periodicity P and dura-
tion ∆t are related to the orbital motion of the planets (P ≃ weeks to months or years, and ∆t ≃ 1−10hrs). The
CoRoT small satellite project is a space mission which is half devoted to search for telluric extra-solar planets
(the other half is devoted to stellar seismology). A description2 can be found at link [Link]
It will permits the detection of photon flux variations about 7.10−4 in a one our integration time, compatible
with planetary transits on stars whose magnitude ranges from 12 to 15.5 . CoRoT should be able to detect
10-40 terrestrial planets and several of ”hot Jupiters” dependent on the a priori hypotheses on the existence of
the planetary systems. Space missions such as CoRoT will provide very large number of light-curves, which
will require optimized and automated detection algorithms for the processing of the data. Various detection
algorithms have been developed so far, but an important question is also to get free at best from instrumental
noises and systematics. This is the point we want to address in the present paper, using the collective infor-
mation from the large number of available light-curves in a field of view. A new approach of the problem in
which detection precedes the filtering procedure.
• The photon noise. It is proportional to the square root of the number n of photons received from the
target star. Of course the larger n is, the better s/n is. However, due to PSF overlapping in crowded
field, photons of the target are mixed with non-informative photons of the background stars so that s/n
is decreased.
1
• The scattered light. Rejection of light reflected from the Earth by a high performance baffle allows to
reduce the stray-light by a factor of 10−13 . The residual disturbance is strongly modulated at the orbital
period of the satellite. The mean induced variations can be corrected but not its associated photon noise.
In the simulated data used in our tests the mean level correction was imperfectly modeled.
• The intrinsic variability of stars. Up to now, only the variability of the Sun is well known, mainly through
the observations of a complete activity cycle with the SoHO satellite. On the other hand the variability of
stars others than the Sun remains poorly known (it will be explored with CoRoT). It has been mimiced in
our simulated data using the Virgo-SoHO data with appropriate scaling and extrapolations as described
by Moutou et al.1
• Jitter and breathing. Jitter noise is the residue of fast pointing corrections which causes random varia-
tions of the signal (with CoRoT a typical 0.1 pixel amplitude is expected). Breathing is due to the thermo-
elastic deformations of the telescope structure at the orbital period (much longer than jitter period) and
can be approximated by a simple defocus. The residuals after correction of these perturbations are not
simulated in the present set of our test light curves.
• The readout noise of the CCD. It directly contribute to the total variance, like dark current. The non
uniformity of pixel or sub-pixel response acts in combination with jitter.
• Cosmic rays. The glitches (local saturations) they form on the CCD, may imply a consequent loss of
information for the target stars. Saturated exposures are rejected on-board and produce gaps in the data
localized at SAA crossing.
The performances of these various methods were compared on simulated C O R O T light curves by Moutou
et al.1 They require a preliminary denoising step to avoid spurious detections due to straylight or star vari-
ability. The main tools used at this stage were: simple thresholding, median filter, non linear filter based on
a structuring element, polynomial local fitting for removal of the stellar variability, subtraction of long term
variations or fitting with a family of sinusoids. On the other hand, in the context of the Kepler mission, Jenk-
ins7 removes stellar variability using wavelets. In each case, gaps in the data were processed differently, being
interpolated or not.
Two of the 1000 light curves of the blind exercise are plotted in Fig. 1. Only the right curve (no 34) contains
transits. But they are concealed as a set of spikes embedded in noise. Nevertheless they have been found by
all the different concurrent methods (see Moutou et al.1 ).
2
Figure 1. Raw light curve number 1 (left) and 34(right). Only lc34 contains transits. See main text for details.
First we will spend a while defining the two steps, namely denoising and detection.
De-noising consists in applying algorithms for reducing the noise level, in time or in frequency space. The
result of the denoising step is a new light-curve lc′ , which is smoothed with respect to the initial lc. Some
noise components are well defined like Poisson noise but others like stellar variability remain hypothet-
ical but can be checked afterwards. Therefore filtering procedures can never be perfectly adapted.
Detecting consists in searching for periodic transit like signals in the light-curves. The detection algorithms
converts lc’ s into dc’ s. Each point of a dc indicates the chance that the lc contains a transit at correspond-
ing time. Our detector is correlation between the light curve and a reference transit.
The most accurate information must be used first, that is our strategy. Because transits shapes are better
known than noise effects, detection must arrive first. Mandel & Agol8 had elaborated a precise analytic ex-
pression. The main parameters are depht and duration. Also the luminosity gradient from center to limb of
the star surface is considered. One example of compliance with real stars is shown Fig.2.
As said before, the lc noises are known with less precision, in particular the star activity whose models are
influenced by the Sun. An initial filtering of light curves will affect all possible included transits, resulting in
a degradation for later detections. At the opposite, a leading detection will be performed using a collection of
transits. The closest set to the true transit corresponds to the highest signal to noise ratio in detection. Our trial
3
show that 2 references of transit are sufficient to cover the full duration range. One of 35 pixels (5 hours) and
one of 70 pixels(10 hours). The robustness of our correlation based detection criteria avoids any pre-process
prior to detection.
Figure 2. A planet occulting star hd2 09458 observed by the Hubble Space Telescope. Experimental points are perfectly
sticking to the model over plotted.
Common methods for light-curve de-noising are based on time averaging, frequency filtering, interpola-
tion/removal of data or morphological non linear filtering. These methods focus on reducing noise levels but
must also avoid to perturb the transit signals. Perturbations are very weak when the noise frequencies are far
from the frequencies associated to the transits. However, as the goal is to reduce at best the noise contributions,
a natural tendency is to get closer to the noise/transit limit. For instance, in the case of CoRoT we are inter-
ested in removing harmonics at the orbital period of the satellite (100 minutes) which modulate the stray-ligth
and the PSF variations. Although these periods are quite far from standard transit durations (several hours),
pollutions of the transit signals are still possible: (i) via high frequencies, if working in Fourier space; (ii) via
small changes in the relative flux values due to the correction of the stray-light modulations.
The inconvenience of a pre-processing of the data (prior to detection) can be illustrated in the case of CoRoT.
The stray-light from the Earth is an important source of noise modulated by the orbital motion of the satellite,
but can be removed after simple orbital averaging. In the case of a strong transit, detection can be different
following the light-curves are corrected or not from the stray-light variations. The results we get in the case
of CoRoT are plotted as correlation curves in Fig. 3. The left dc is the result of detection applied to the raw lc
number 30. Right dc corresponds to the same lc, but smoothed at orbital period. Detection seems less effective
if the stray-light modulations are removed from the light-curves than if they are not. In the raw case, the de-
tection accuracy is sufficient to notice the 2 different eclipses of a background binary star. In the second case,
the smoothed lc seems nicer at naked eye, but the dc reveals a loss in signal to noise despite higher correlation
pics. This is likely due to the fact that in preprocessed light-curves the signal is ”eroded” and patterns fitting
to the transits reference become more numerous.
2.1. Detection
Our method is a simple statistical correlation between the data and a reference signal. We use the appropriate
correlation coefficient:
4
Figure 3. Detection of transit in a light curve without any pre-processing (left) and after removing the stray-light modula-
tions (right). Detection pics are higher for pre-processed light-curves but S/N is higher for unprocessed light-curves.
xy − x.y
ρ = r
x2 − x2 y 2 − y 2
where x is the measured series, y the model and x, y their mean values. In our problem, x is any segment
of the light curve and y a reference transit of same width. In the (x, y) plane we get a dot cloud which is flat
when ρ is large, what means that lc and the reference are in good accordance at the time of x. ρ is insensitive
to scales and offsets which just inflates or tilts the dots cloud, a useful property which avoids normalization
between the different light-curves. The number of the unknown parameters is reduced to three: period, phase
and duration.
Another advantage of the above correlation is that it can manage data gaps without interpolating missing
points. This avoids artifacts and limits possible false alarms. The values of ρ range in [−1, 1], whatever the flux
or the amplitude of lc. This will help for further linear processing. It also copes with problem of border points
exclusion (t < l/2 and t > l/2) in the time extent of the transit of reference. Light-curves with data gaps will
have lower ρ values.
Detection curves dc are constructed by plotting, for each light-curve lc, the point
dc(t) = ρ(lc [t − l/2, t + l/2] , g) as a function of time; g denotes the reference transit (template) of length l + 1.
This deals with the phase of the event, reducing the number of remaining free parameters at two: period and
duration. As transit model we use the quadratic expression of Mandel & Agol8 with recommended coeffi-
cients, (γ1 and γ2 ) equal to 0.5.
In fact, a transit of reference has an additional free parameter that cannot be assumed to be zero: the total
time extent of the transit model l̄ which include the transit duration l plus two out of eclipse durations, just
before and just after the eclipse itself. To assess the more appropriate ¯l we led several tries which are summa-
rized in table 1. Paradoxically, we find that a good transit model must contain out of eclipse durations up to
four time longer than the transit duration itself. This is because a full flux just before and just after the transit
itself are an integral part of the planetary occultation phenomenon. Such a model brings more complete in-
formation on the transit events than the standard single dip model. Zooming Fig. 3, we found, indeed, that
5
negative pics with smaller amplitude are bordering detection pics; this signature corresponds to the associated
anti-correlations between the transit model and the transit event when in temporal quadrature.
Table 1. Performance of detection as a function of the reference transit model (duration of the ”prelude” and ”coda” of the
transit). We measure the skewness, with highest values for a noise histogram with a secondary bump. Both 35 pixel (5h)
and 70 pixel (10h) eclipses peak around 70% of required non-transit time. We kept this value. The detection signal to noise
ratio reaches 8.1 (Resp. 6.5) in mentioned favorable case.
l 95 90 80 60 40 20
tr = 35 9 20 18 15 16 ≃0
tr = 70 ≃0 2 10 8 7 3
Figure 4. Systematics and trends in standard deviation. 3 representative detection curves are represented. Their similar
aspect can have 4 possible sources 1) The dominating visible artifacts. They are deterministic and even sometimes known,
for example the deep spike at curves center is due to local synchronism between SAA cancellation and daytime higher
level. This pic is either positive or negative revealing an algebraic weight. 2) The common behavior of error bars, as
marked at curves beginning. 3) Suspected tiny pattern lying under noise level, like possibly in curves second half. 4) real
random noise.
To cancel uncorrelated noises and conserve the searched constant, one would naturally average dc’ s all
together. But it doesn’t work. We suspected that, despite a constant looking at macro-scale, the added noise
is actually homothetic with null average when looking closer. After the test, this was confirmed as due to
simulating unperfected corrections. We use the next model to address all possible common mode variations:
dci = si + ki .δ + n
6
dci is the ith detection curve. All elements are unknown but have different properties: s is the searched de-
tection signal made of pics, δ the systematic, ki its individual weight and n the centered random noise. These
properties are sufficient to derive the missing information with sufficient accuracy. Our model effectively ex-
plains that hdci = 0.
A sound tool to derive at the same time an unknown pattern and all its weights is the principal component
−
→
analysis (PCA), described by Press et al.9 In our case, we search for a constant unitary vector δ , present in
−
→
all dc, which accounts for most part of the variations, simply by appropriate weights. In other words the
−
→ −
→
projections of dc’ s over δ show a maximal variance. We can note this:
−
→ −
→− → −
→ −
→
δ / max E(dc. δ )2 = max δ t .G. δ (1)
−
→− →
with G = E([Link] ) the covariance matrix of detection curves. Writing this equation in the eigen base it turns
−
→
that we search {xi } the coordinates of δ in eigen base such that :
λi x2i
P
{x1 , . . . xi } maximizes
and (2)
−→
k δ k2 = 1
the λi are the eigen values. The eigen base is sorted by decreasing order of λi . The solution is x1 = 1, x2 , · · · =
−
→
0. Therefore, δ appears to be the first eigen vector of G. Weights ki are deduced by scalar products ki =
−→ − →
dci . δ . In practice, all dc’ s are as a preventive centered and normed to avoir round-off instability in matrix
diagonalisation. The result is shown in Fig.5. The found pattern looks clearly compliant with the detection
curves of Fig.4.
Figure 5. This curve results from the PCA between 200 detection curves (see the main text). The vector has been normed.
The central spike is due to SAA and daytime synchronism. Its depth is of same order than the amplitude at
the begin of the run. So we can expect to remove a significant part of initial continuum in dc’ s. The right part
7
of the pattern is not negligible, so we can again expect some improvement in dc’ s end continuum, despite it
seems only made of random continuum.
−
→
We can now remove ki δ from the detection signal to recover only the signal pics. But doing a simple sub-
traction of ki .δ from dci is worthless because 1) two pics of same dc can nevertheless show different distances
−
→
to ki δ . This results from their different weighting due to their two different level of noise in original lc series
at their 2 different epochs. And 2) we still ignore what confidence can be granted to a particular deviation
from one pixel dci (t) to all pixels dcj6=i (t). To derive a confidence level, we first need the instantly spreading of
curves around δ. At time t:
We then convert pics into their significance, that’s to say the probability that a pic is not due to chance in
the Gaussian model:
dc(t) − k.δ(t)
L(t) =
σ(t)
Figure 6 shows an example of the regulating effect produced on noise continuum and shows how pics
can emerge from noise. In the blind test we also used an equivalent technique10 with more details at link
[Link] We first located the common pattern by working on short sub-series of lc’
s. We start by a first guess δ, then refine it by cancellation of uncorrelated biases. Then we move to PCA.
Figure 6. PCA effect. Left a raw detection curve. Abscissa are the days, ordinates is the correlation. Right the same one
converted into confidence level of pics. This example clearly shows a regulation and noise lowering effect, allowing events
to rise out from continuum.
Actually the efficiency is different for each curves, suggesting distinct embedded instrumental noise scheme
for sake of comparison. But distinct patterns are no more systematics and will not be present in real C O R O T data.
So we replayed the de-noising after a basic classification. This classification choses an arbitrary ’father’, then
his sons are the most correlated lc. We iterate with next father and so on. This improved the result, but the
8
learning effect unwillingly removed part of star activity at the same time. This comes from scarcity of star
activity measurements which obliged to put close patterns in several curves.
This way we identify 12 more periodical events. At the end, all dc’ s are sorted out by order of interest
and the most interesting examined one by one. We control the strict periodicity of transit candidates, possibly
guided by the Fourier transform, and fold lc accordingly to distinguish from non-transit events. Main confu-
sion sources are grazing background binaries which behave like a monolithic rotating object, or background
eclipsing binaries which alternate 2 different true transits.
2.3. Results
We detect 12 events after the detection step. The proposed de-noising rises this number up to 22 overall events.
The repartition is 12 transits found among 22 and 10 other events over 16. The physical origin of 5 of the other
events was wrong, but this identification was not part of our study. The result for all teams is resumed in table.
2 and detailed by Moutou et al.1 The detected and not detected transits are common to all method, hence
giving an idea of detection sensibility.
Table 2. Comparative results. Our method rank on the average. A given false positive is never detected twice, which gives
advantage to the complementarity of the methods.
Team 1 2 3 4 5 Total
Tansits 12 11 15 12 14 20
Other events 10 6 10 12 12 16
False positives 0 1 0 3 5
Our result ranks on the average. This is interesting, in term of improvement regarding the simplicity of
the detection criteria. The interrest of such a collective approach has been confirmed by Tamuz et al.11 which
present another technique for the OGLE ground based survey (they correct linear systematic perturbations in
light curves like atmosphere transparence. Their technique gives better results that the PCA, thanks to the use
of measurements uncertainties).
Three improvements √ are under study 1) The early folding of curves should improve the detection signal to
noise by a factor up to n for an n-times folding. This is challenging leading roughly to a 3000 times computa-
tion overhead (today 1 sec/curve). Nevertheless, avoiding some redundancies in computation could reduce it
to 300. For instance we could keep intermediate results in sliding correlations, compute all harmonics at same
time, or even accumulate the daily data as they arrive slowly. 2) The extension of PCA to several independent
cumulated patterns. 3) The use of a more specialized detector.
9
REFERENCES
1. C. Moutou, F. Pont, P. Barge, S. Aigrain, M. Auvergne, D. Blouin, R. Cautain, A. Erikson, V. Guis, P. Guter-
man, M. Irwin, A. F. Lanza, D. Queloz, H. Rauer, H. Voss, and S. Zucker, “Comparative blind test of
five planetary transit detection algorithms on realistic synthetic light curves.” accepted in Astronomy and
Astrophysics, 2005.
2. “Corot: Cnes web site.” [Link]
3. C. Defaÿ, M. Deleuil, and P. Barge, “A bayesian method for the detection of planetary transits,” Astronomy
and Astrophysics 365, pp. 330–340, Jan. 2001.
4. J. M. Jenkins, L. R. Doyle, and D. K. Cullers, “A matched filter method for ground-based sub-noise detec-
tion of terrestrial extrasolar planets in eclipsing binaries: Application to cm draconis,” Icarus 119, pp. 244–
260, Feb. 1996.
5. S. Aigrain and M. Irwin, “Practical planet prospecting,” Monthly Notices of the Royal Astronomical Society
350, pp. 331–345, May 2004.
6. G. Kovács, S. Zucker, and T. Mazeh, “A box-fitting algorithm in the search for periodic transits,” Astron-
omy and Astrophysics 391, pp. 369–377, Aug. 2002.
7. J. M. Jenkins, “The impact of solar-like variability on the detectability of transiting terrestrial planets,” The
Astrophysical Journal 575, pp. 493–505, Aug. 2002.
8. K. Mandel and E. Agol, “Analytic light curves for planetary transit searches,” The Astrophysical Journal
580, pp. L171–L175, Dec. 2002.
9. W. Press, S. Teukolsky, W. Vetterling, and B. Flannery, Numerical recipes in C - The art of scientific computation,
ISBN 0-521-43108-5, Cambridge University Press, 2nd ed., 1992.
10. “Corot week 6.” [Link]
11. O. Tamuz, T. Mazeh, and S. Zucker, “Correcting systematic effects in a large set of photometric light
curves,” Monthly Notices of the Royal Astronomical Society 356, pp. 1466–1470, Feb. 2005.
12. B. Tingley, “A rigorous comparison of different planet detection algorithms,” Astronomy and Astrophysics
403, pp. 329–337, May 2003.
13. B. Tingley, “Improvements to existing transit detection algorithms and their comparison,” Astronomy and
Astrophysics 408, pp. L5–L7, Sept. 2003.
10
Chapitre 10
Conclusion
A chaque étoile cible est associée une fenêtre photométrique dont la forme est
choisie parmi les patrons. Malgré la perte de spécialisation par rapport au cas
143
144 Conclusion
idéal où la photométrie de chaque étoile serait réalisée avec un fenêtre dessinée
sur mesure, le S/B ne subit pas de dégradation notable.
Enfin, partant de données d’observation d’un champ d’étoiles réel, nous avons
mis au point une procédure de distribution de ces patrons à toutes les cibles
potentielles. Cette procédure utilise une méthode itérative de “repêchage” qui
permet de récupérer jusqu’à 50% des cibles qui avec d’autres méthodes étaient
considérées perdues pour la mesure à cause des “collisions” entre fenêtres.
L’objectif fixé pour le fenêtrage du CCD (6 000 cibles avec 250 patrons)
est atteint puisque seules 10% des étoiles perdent plus de la moitié de leur S/B
idéal. De surcroı̂t ces étoiles s’avèrent les moins “intéressantes” pour les objectifs
de Corot , grâce à un mécanisme de gestion des priorités combinant le critère
de S/B et la priorité scientifique des cibles. On constate que > 80% des étoiles
conservent leur S/B idéal.
1. Les étoiles faibles, dont les PSF sont les moins bien déterminées à partir
de l’image, sont en revanche les plus tolérantes envers l’erreur sur le patron
affecté.
2. Certaines composante du S/B seront néanmoins connues avec une meilleure
précision que les PSFs. Il s’agit du bruit photonique, de “jitter” et de “res-
piration” qui se calculent à partir du flux total accessible par l’image. L’im-
précision sur le S/B calculé devrait s’en trouver amoindrie.
La méthode que nous avons développée pour traiter les courbes de lumière
comprend trois étapes :
1. Une détection à l’aide d’une corrélation glissante entre une section de courbe
et un transit de référence nommé “gabarit”. Ce détecteur est insensible aux
facteurs d’échelle, tient compte du bruit local et tolère les données man-
quantes sans utiliser d’interpolation. Des essais de robustesse ont montré
que dans la pratique deux gabarits étaient suffisants.
2. Un débruitage qui identifie les bruits systématiques ayant survécu à la dé-
tection et utilise une analyse en composantes principales et un classement
146 Conclusion
des bruits par familles. Seuls sont conservés les pics de détection qui se
démarquent significativement de la tendance commune.
3. La périodicité des événements détectés est contrôlée, et ceux-ci sont
caractérisés en repliant les courbes brutes après recentrages individuels.
L’examen séparé des occurrences paires et impaires aide à distinguer les
éclipses dissymétriques des étoiles de fond binaires.
Les transits détectés s’inscrivent dans la moyenne des autres méthodes ce qui,
compte tenu de la performance modeste du détecteur confirme l’intérêt d’une
méthode de débruitage collectif.
Tab. A.1 – Etoiles affectées et S/B total en fonction des patrons. Les patrons ont été
obtenus avec diverses valeurs de jitter et de breathing. Les colonnes sont 1) le nom de
la collection de patrons, 2) et 3) les conditions de jitter et de respiration qui prévalaient
lors de la réduction, 4) le nombre d’étoiles affectées qui gardent S/B > 100 (sur 8.5
min), 5) le nombre d’étoiles affectées total, 6) le S/B total pour les étoiles de la première
catégorie, 7) le S/B total des étoiles affectées et 8) le S/B potentiel si toutes les étoiles
étaient affectées sans perte.
1 2 3 4 5 6 7 8
nom jitter respiration n n S/B S/B S/B
100 total 100 total optimal
((×10 ) (×104 ) (×104 )
4
149
150 Performances des patrons
Annexe B
Le test en aveugle
151
152 Le test en aveugle
1
LAM, Traverse du Siphon, BP8, Les Trois Lucs, 13376 Marseille cedex 12, France
2
Institute of Astronomy (IoA), University of Cambridge, Madingley Road, Cambridge CB3 0HA, United Kingdom
3
OPM, Place J. Janssen, 92195 Meudon cedex, France
4
INAF-Osservatorio Astrofisico di Catania, Via S. Sofia, 78, 95123 Catania, Italy
5
Observatoire de Genève, 51 Chemin des Maillettes, 1290 Sauverny, Switzerland
6
DLR Institute of Planetary Research, Rutherfordstr. 2, D-12489 Berlin, Germany
7
Gemplus Card International, La Ciotat, France
8
Present adress: Faculty of Physics, Weizman Institute of Science, Rehovot 76100, Israel
Abstract. Photometric surveys for exoplanet transits are very promising sources of new discoveries for future
years. Consequently, many algorithms are being developed to detect transit signals in stellar light curves. This
paper discusses the comparison of such algorithms for the next generation of transit detection surveys: dedicated
space missions like CoRoT, Kepler and Eddington. The comparison of five independent analyses of a thousand
synthetic light curves is presented here. The light curves were produced with an end-to-end instrument simulator
and include stellar micro-variability and a varied sample of stellar and planetary transits diluted among a much
larger sample of light curves. The results show that different algorithms perform quite differently, with varying
degree of success in detecting real transits and avoiding false positives. We also find that the detection algorithm
alone does not make all the difference, the way the light curves are filtered and detrended beforehand also has
a strong impact on the detection limit and on the false alarm rate. The microvariability of sun-like stars is a
limiting factor only in extreme cases, when the fluctuation amplitudes are large and the star is faint. In the
majority of cases it does not prevent the detection of planetary transits. The most sensitive analysis is performed
with periodic box-shaped detection filters. False positives are method-dependent, which should allow to reduce
their detection rate in real surveys. Background eclipsing binaries are wrongly identified as planetary transits in
most cases, a result which confirms that contamination by background stars is the main limiting factor. With
parameters simulating the CoRoT mission, our detection test indicates that the smallest detectable planet radius
is of the order of 2 Earth radii for a 10-day orbital period planet around a K0 dwarf.
Key words. Planetary systems - Methods: data analysis - Techniques: photometric - Stars: activity
ison of these methods was proposed (Tingley 2003) which sis of our synthetic light curve construction. Let us recall
concluded that “no detector is clearly superior for all tran- that the CoRoT onboard software will perform photome-
sit signal energies”, but an optimized BLS algorithm still try on a pre-determined list of stars (12,000 per pointing)
performs slightly better for shallower transits. Here, we every 8 minutes during 150 days, by summing all the signal
adopt a more empirical approach to make the compar- within pre-defined aperture covering between 100 and 60
ison: we use as a testbench synthetic light curves with pixels depending on the magnitude. Environmental per-
detailed simulations of the instrumental noise and astro- turbations such as light scattered by the Earth, radiation
physical sources of variability, to blindly test five different flux, Attitude Control System jitter and temperature vari-
transit detection techniques. The five different detection ations are computed by specialised models. The outputs
teams have no prior knowledge on their content. are light curves at the focal plane level, proton fluxes with
This comparison of detection algorithms is likely rel- a 10 mm CCD shielding, satellite angular depointing and
evant for all transit-search programmes, from the ground temperature curves for the most sensitive sub-systems.
and from space, although it has been focussed here on Monochromatic PSFs are then provided using an optical
CoRoT, the first space mission largely dedicated to tran- model of the telescope, and used to compute white PSFs,
sit searches, to be launched in 2006. The CoRoT char- taking into account the optical transmission, CCD quan-
acteristics are given in Boisnard & Auvergne (2004) and tum efficiency and target flux for main sequence stars in
its planet detection capability is estimated in Bordé et al. the effective temperature range 3500 to 9000 K. The ap-
(2003). This ability is empirically addressed in this paper. propriate photometric aperture is computed, depending
The goals of this blind detection simulation are the on the star position, magnitude and colour (Llebaria et al.
following: 2003).
We build 25 basic light curves based on stars scanning
– To independently apply several light curve analysis
5 magnitudes, from 12 to 16, and 5 temperatures, from
methods on the same simulated light curves, remov-
4500K to 6750K, all located at the same CCD position.
ing the possible “subjective” elements (possible biases
They contain the following realistic noise contributions:
when the same person simulates the transit and detects
(i) Photon noise (Poisson statistics).
it)
(ii) Flat-field noise, with a 1% non-uniformity.
– To compare their ability to detect faint transits, avoid-
(iii) Read-out noise of 10 electrons/pixel/read-out.
ing false positives (false positives beeing hereafter de-
(iv) No jitter amplitude; it is negligible in the CoRoT
fined as the noise features from instrumental or stel-
broad bandpass.
lar micro-variability origin, accidentally picked up as a
(v) Zodiacal light, the unique source of sky background in
transit signature).
space, a uniform offset of 12 electrons/pixel/second over
– To estimate the impact of star micro-variability for
the CCD remaining constant along the orbit. It is cor-
transit searches.
rected by subtraction and the resulting additional photon
– To test the ability to distinguish between a planetary
noise is kept.
transit and an eclipsing binary from the light curve
(vi) Proton impacts. The exposures corresponding to the
alone.
crossing of the South-Atlantic (SAA) anomaly are not us-
Applied to CoRoT, this exercise will help deriving an es- able and the final data thus contain a large number of
timate of the detection limits of this instrument and its quasi-periodic gaps (typical duration of 30 min each inter-
limiting factors, as well as defining the strategy for light val of 1.7 hours) that should be handled by the detection
curve analysis and required follow-up. algorithms (Figure 1).
Section 2 presents the light curve building procedure; (vii) Earth scattered light, which is is not uniform over the
Section 3 then describes the five light curve analysis meth- CCD, and varies along the orbit, almost following the or-
ods and Section 4 discusses the results and draws conclu- bital period. We insert a scattered light contribution with
sions. a realistic maximum value of 1 electron/pixel/second. As
it will be corrected in the processed CoRoT light curves
to a certain level, we subsequently remove the scattered
2. Generating simulated light curves
light contribution to first order, leaving a random < 50%
The synthetic light curves were built by combining sev- residual. The correction applied may lead to a positive or a
eral components: the instrumental model, stellar micro- negative residual signal, corresponding respectively to an
variability, and in some cases a planetary transit, eclipsing overestimation or underestimation of the actual scattered
binary or variable star signal. light level (Figure 1). This allows (i) to test the robustness
of the detection algorithms, especially against a negative
(i.e. when it is over-corrected), quasi-periodic signal, and
2.1. Instrumental model
(ii) to create 999 light curves with varying scattered-light
An instrument model (Auvergne et al. 2003) has been noise amplitudes, produced from a parent set of 25 instru-
designed for CoRoT in order to evaluate the instrument mental curves. Note that scattered light is the dominant
detection capabilities and test the onboard and ground- systematic signal in the CoRoT instrumental noise and the
based software. We use the output of this model as the ba- only instrumental systematics included in the simulation;
Moutou et al.: Blind test detection of planet transits 3
2.2.2. Light curves from SIMLC the method described in Section 2.2.1. This is thought to
be due to the more coherent nature of micro-variability in
SIMLC is a tool to simulate stellar micro-variability for active stars, which SIMLC currently cannot reproduce.
stars with spectral types F5 to K5 and ages later than
625 Myr. It works by computing an artificial power spec-
trum, starting from a fit to solar data and scaling it us- 2.3. Transits
ing empirical scaling laws. The power spectrum is then
sampled as appropriate given the time sampling and light Twenty planet transits were simulated. For a thousand
curve duration required, coupled with a random phase ar- light curves, this represents about an order of magnitude
ray, and reverse Fourier-transformed to the time domain. more transit events than expected in real samples (Bordé
More details can be found in Aigrain et al. (2004), and et al. 2003). It is important that light curves without
only a brief summary is given here. transit vastly outnumber those with transits in the sim-
Following Andersen et al. (1994), the power spectrum ulation, so that the detection thresholds have to be set
of the Sun’s total irradiance variations up to ∼ 600 µHz realistically high. The characteristics of the inserted tran-
(as observed with the PMO6 radiometer, which is part sits are not chosen with the goal of reproducing planet
of the VIRGO experiment on SOHO), is modelled as a statistics, because those are mostly unknown in the range
sum of three broken power laws, each characterised by an where CoRoT will discover planets; the idea is rather to
amplitude, characteristic timescale and slope. There are test limitations and to explore the borders of detectability.
3 components, with timescales of 10 days, 4 days and 10 The objectives are then (1) to sample a variety of system
min. The powerlaw slopes are 3.8, 1.8 and 2.0. All these cases and (2) to investigate the detection limit by includ-
values are those measured for the Sun. Note that because ing a large number of small planets in light curves with a
of the slope of the first powerlaw is quite steep it falls of varying noise level. The characteristics of the transits are
quickly for timescales larger than 10 days, while the sec- summarized in Table 1. The planet size spans the range
ond powerlaw, which is quite shallow, is still the dominant from 1.6 Earth radius (RE ) to 1.3 Jupiter radius (RJ ).
component at 100 µHz (timescales of a few hours, typical One system with two planets is inserted. The period do-
of transits). The amplitude of the lowest frequency, or ‘ac- main is 4 to 90 days. The target stars with the planetary
tive regions’, component is correlated with simultaneous transits are chosen at ”directed random”, with the aim
measurements of the Caii K-line index indicator of chro- of exploring the regions near the limit of detectability.
mospheric activity. Higher frequency components, which For instance, the largest planets are inserted in the light
have much smaller amplitude, are thought to be related, curve of faint and/or active stars. The largest planets are
respectively, to super- or meso- granulation and to a su- also the ones with the lower number of transits (the hot
perposition of granulation, oscillations and photon noise. Jupiter configurations, beeing easy cases for space transit
searches, are not emphasized here).
Empirically derived scaling laws can be used to scale
The transit light curves are simulated with the aid of the
the amplitude and timescale of each power law to what
Universal Transit Modeler (Deeg 1999). Limb darkening of
might be expected for other stars. Currently this can be
stars are estimated from recent calculations from ATLAS9
done only for the dominant low-frequency component, us-
models and the CoRoT bandpasses (Barban, priv. comm.,
ing chromospheric activity as a proxy. Observational con-
see method in Barban et al. (2003)), taking into account
straints are currently insufficient to derive scaling laws
a linear limb-darkening law and a classical mixing-length
for the other components, including the second compo-
theory.
nent which corresponds to the timescales characteristic
of planetary transits, and those are thus left as they are
measured in the Sun. Upcoming data, in particular from 2.4. Eclipsing binaries and large-amplitude variable
the MOST (Micro-variability and Oscillations of STars) stars
satellite (Walker et al. 2003), are expected to provide con-
straints on this component in the near future. Simulations (Brown 2003) and the results of the OGLE
A set of 45 light curves lasting 150 days, with 8 min planetary transit follow-up (Bouchy et al. 2004b, Pont et
sampling, were generated for the present exercise. They al. 2004b) indicate that for a given transit signal depth,
correspond to a grid of stars of spectral type F5, F8, G0, the contamination by grazing and background eclipsing
G2, G5, G8, K0, K2 & K5, and ages 0.625, 1, 2, 3 and binaries (EB) will be at least as numerous as the planet
4.5 Gyr. The amplitude of the dominant, ‘active regions’ transits themselves, or could even largely outweigh the
component of the variations scales with convection zone true planet events. To simulate this contamination, we in-
thickness (which is larger in later spectral types) and the serted ten low-depth stellar eclipse signals among the light
inverse of the rotation period (which is larger in older curves. There are grazing binaries (6 events), background
stars), while the characteristic timescale scales roughly binaries (4 events) and one hierarchical triple stellar sys-
with the rotation period. As a result, at 0.625 Gyr the tem. Finally, we inserted five background variable stars: a
most variable stars are F-stars, while at 4.5 Gyr they are low-amplitude delta Scuti, a classical Cepheid, a β Cephei,
K-stars. The amplitude of micro-variability ranges from the semi-regular variable Z UMa and the irregular Z Cam.
0.01 to 0.1%, a level much lower than those obtained with The background variables and background eclipsing bina-
Moutou et al.: Blind test detection of planet transits 5
ries refer to fainter objects included in the same aperture, 2.2), and due to the injection of a fainter stellar light curve
3 to 7 magnitudes fainter than the main target. In the (section 2.5). The micro-variability light curve was also se-
case of grazing eclipses, the binary star is the main target lected to match the color temperature (or spectral type)
itself, i.e. in the magnitude range 12–16 for CoRoT. of the instrumental light curve. In total, 964 light curves
The characteristics of these light curves are summarized do not have any transit or EB/variable star signal.
in Table [Link], the characteristics of the systems are The temporal sampling of the final light curve is 8 min-
chosen to cover most possible combinations rather than utes, with a duration of 150 days, as for CoRoT long ob-
to reproduce the expected characteristics of real samples. serving runs. A complete light curve contains 25056 data
Our eclipsing binary transits include curves with anti- points.
transit signals, with sine and double-sine modulations out- The package of 999 light curves (identified with ID 1 to
side the transits due to the ellipsoidal deformation of the 999 in the following) were supplied to the detection teams
primary under the gravitational influence of the secondary, with no information on their content nor on the way they
V-shaped eclipses (grazing) and U-shaped eclipses (central were calculated; neither the number of hidden planets nor
eclipse in a background contaminant system). For graz- the nature of injected noise sources were known by the de-
ing eclipsing binaries, the algorithms of Mandel & Agol tecting teams. In the real case with CoRoT light curves,
(2002) and Wichmann (1998) are used. The Universal some data will be known beforehand, such as the star
Transit Modeler (Deeg 1999) is used for background eclips- magnitude, spectral type, luminosity class, contamination
ing binaries and the triple star. The variable star light by neighbours, and pipeline processing parameters. This
curves are taken from the literature and from the archives knowledge is not fundamental for transit detection but will
of the AAVSO (American Association of Variable Star obviously help in the identification of the detected events.
Observers).
ing single detections are listed for further inspections. Including also the average level, the model is parame-
Thereafter the epochs of the potential events found are au- terized by 411 parameters, estimated by a least-square
tomatically searched for periodicity: time differences be- fit. Naı̈vely, that would involve solving a system of 411
tween all detected events with approximately the same linear equations (known as the normal equations) with
detection level are estimated and retained when a sin- the same number of unknowns. This may be prohibitively
gle time difference or multiples of it have occured sev- time-consuming. Therefore, we consider only the times tn
eral times within a given error margin. For possible cases for which a valid measurement existed for all light curves,
a detailed investigation of the potential transit events is i.e., times which are guaranteed to lie outside the SAA.
performed where the depths and duration of the events This amounts to about two thirds of the original sampling
are determined. The corresponding light curves are man- times. Using only those points, which are common to all
ually inspected for secondary eclipses and gravitationally light curves, allows us to calculate SVD (Singular Value
induced modulations caused by high-mass secondaries. Decomposition) pseudoinverse of the normal equation ma-
Finally all light curves with detected events are classi- trix (Press et al. 1993) and then use the same matrix to
fied as either possible transit-like or other events. solve for the 411 coefficients in each light curve separately.
As it turns out, the price we pay by using only part of the
points is negligible, because of the very good time cover-
Discussion: The algorithm is based on a search routine for
age. After the fit, the derived coefficients are used to model
single transit events developed for the ground-based tran-
and remove the scattered light and stellar variability from
sit search BEST (Rauer et al. 2004). The adapted version
the complete set of points of the light curve.
can detect both single and periodic transit-like events. It
was also adapted to be able to detrend the microvariability
that is not an issue for ground-based wide angle searches. Detecting the transits: We apply the Box-fitting Least-
In general, to discriminate between real and false transit Squares (BLS) algorithm, presented in Kovács et al.
8 Moutou et al.: Blind test detection of planet transits
4
x 10
−5
3.4. Team 4: Matched filter with image-processing
detrending
3
Adjusted SR
tions. Examining the non-detections reveals that the cor- threshold, which is automatically optimized from an esti-
rect peak appears in the SR for two of them – ID num- mate of the noise in the input signal. The threshold thus
bers 317 and 575. In order to detect light curve 575 we strongly depends on the quality of the detrending process.
would have to lower the detection threshold to 5.6, which
would have resulted in 86 false detections! The score of Prospects for further improvement: The method devel-
light curve 317 was 3.9, which would mean an unrealistic oped in the present exercise can certainly be improved for
lowering of the threshold. Most of the non-detected (ID higher noise level.A new filter based on image processing
numbers 317, 326, 575, 618 and 681) transits corresponded is presently being tested to improve the detection capac-
to planets of the smallest radii – less than 0.023 R . Light ity. It is developed on the same ground as the detrending
curve 715 was affected by the presence of two different pe- tool presented in section 3.4.
riods and escaped detection. Visual inspection of some of Another issue is the actual robustness of the algorithms
the non-detected transits also suggests that maybe some to periodicity changes, due for example to binarity, sec-
additional variability still exists after removal of the har- ondary planets or residual instrumental drift. This ques-
monics, but this effect was not quantified yet. tion has not been addressed in the present exercise since
Prospects for further improvements: The detrending transit signals were assumed strictly periodic.
process may benefit significantly from new procedures
recently developed for systematic-effect removal (Tamuz 4.3.5. Team 5
et al. 2005; Kovács et al. 2005). This procedure may re-
move a significant part of the stellar variability, but also Non detections; false detections: Three noteworthy points
some systematic effects that were not modelled in this ex- emerge from Fig. 6. First, the tail of small dots with high
ercise. SS and SM SS (ie no clear evidence of a periodic signal)
The detection stage may benefit from the correction represents light curves with residual non-periodic varia-
proposed by Tingley (2003) to the BLS algorithm. In tions. In some cases, these were on too short a timescale to
principle, the corrected BLS should be somewhat more be fully filtered. However, some of the stellar light curves
powerful in distinguishing between a transit signal and built with the method of Section 2.2.1 contained transit-
random noise, thus improving the detection ability. like features, which are probably artefacts. Second, all the
Another improvement in the application of the BLS false alarms that escaped removal at the light curve exam-
may be related to a better sampling of the frequency ination stage were low-confidence events. Had the higher
space, fine tuning of the algorithm parameters (maximum threshold of SM ≥ 1.0+1.4SS been used, there would have
transit width, bin width, etc.), or better adjustment of been no false alarms. This is the result of a conscious de-
the SR function. Finally, one could also make a 2-D search cision to include low-confidence detections,in order to pin-
that looks at both the ”SDE” and ”DDE” parameters of point the detectability limit. Third, there were 11 missed
Kovács et al. (2002) and check whether this allows some detections for the 3.3 hr trial duration. Of those, 3 were
gain in the detection capability. detected at other trial durations and one was a planet
orbiting a binary causing non-periodic events, which we
didn’t tailor our search for. By lowering the threshold, we
could have detected ID 575 and ID 317 at the cost of 1
4.3.4. Team 4 and 17 additional false alarms respectively. Of the others,
3 produced SM ’s close to our algorithm’s white-noise limit
Non-Detections: A posteriori analyses show that the algo- of ∼ 6 (Aigrain & Irwin 2004) and are thus probably be-
rithm cannot detect a planet with radius less than 0.02R yond the detectability limit of CoRoT. The other 3 were
or when the noise (likely stellar noise) is so strong that the highly variable light curves.
denoising algorithm starts modifying the transit itself. Prospects for further improvements: Future improve-
False detections: Among the detected signals, three of ments will include refinement of the detrending stages, of
them turn out to be false detection (IDs 701, 703, 983). the choice of threshold through Monte Carlo simulations,
The case of ID 983 corresponds to a discontinuity of the and of the post-detection transit characterisation.
light curve produced by the stellar variability simulation
(sect. 2.2.1). In the other cases (IDs 701, 703), transit
5. Conclusion and prospects
features were erroneously identified with the peak sorting
method due to a random and unlucky location of the The present paper reports on the first “real size” blind
peaks in the convolution curve M . This kind of false study of a large set of synthetic stellar light curves, by
detection should however not be specific to our algo- five independent expert teams, to detect planetary tran-
[Link] best results are obtained when the matched sits. Different transit detection methods were tested, rang-
filter is associated with a peak selection by Fourier corre- ing from ad-hoc procedures built from scratch to seasoned
lation. No false alarm is found in this case, while selection algorithms used in existing ground-based surveys (OGLE
by peak sorting can lead to a number of false alarms due and BEST) and for future space missions (CoRoT and
to ambiguities with noise artefacts. Finally, the number Kepler). Together, they offer a global view of most possible
of false positives does not change with the detection approaches to light curve detrending and transit detection
Moutou et al.: Blind test detection of planet transits 13
algorithms. The results show that specialised algorithms be very nearly periodic and the algorithms for periodic
can detect transit signals down to the noise limit. It turns signals will probably be able to detect them.
out that rather simple procedures can identify most de- Among the algorithms studied here, at least two have
tectable transit signals, but that the additional effort put reached “maturity” for monochromatic light curves with-
into refined detection algorithms is really worthwhile to out a priori information. Continuation of this study could
recover the shallower detectable transits – potentially the consider the inclusion of more information: e.g. chromatic
most interesting ones. light curves (CoRoT), colour or spectroscopic information
The results also show that false detections may not about the target star. It could also include other instru-
be a major difficulty when various detection methods are mental contents (Kepler, Eddington) and a refinement of
applied, since no false event was ever detected twice inde- stellar micro-variability in the frequency-amplitude pa-
pendently in the simulation. Also, one method (harmonic- rameter zone where it may mimic transit features.
fitting filtering plus BLS detection) does not suffer from The 999 light curves produced and a table with used
any false detections on the synthetic sample. We note that parameters are made available to the community by re-
stellar micro-variability limits the transit detection only quest to the authors for testing and improving other de-
when its standard deviation is larger than 0.5 % and its tection algorithms.
main frequency is around 0.1 day−1 . In most cases, stel- Another by-product of our blind comparison of detect-
lar micro-variability such as simulated here (section 2.2) ing transits in light curves simulated as CoRoT data, is a
is not the main limitation, mostly because the fluctua- refined estimate of the detection limitation of this instru-
tion frequencies are not in the domain of the transit du- ment to come: a 3-day 1.1RE planet around an M0 dwarf
ration, and the amplitude is usually low. This result com- star would probably be detected. CoRoT would also de-
pares well with the conclusions of Jenkins (2003) and are tect the transits of a planet like µ Arae d, the 14.5-Earth
important in the context of space transit detection mis- mass planet with 9.55-day period recently discovered in
sions. Of course, this is true only as far as activity models radial-velocity surveys (Santos et al. 2004), if it is larger
based on the solar case correctly describe other stars. In than 2.7 RE , i.e. with a density up to that of terrestrial
the next few years, space astero-seismology missions may planets.
provide better constraints on stellar micro-variability on
Acknowledgements. We are grateful to the CoRoT PI Annie
timescales of a few hours. Baglin and to the whole CoRoT/Exoplanet Working Group
The present study shows that the detrending method for their support and fruitful discussions on this exercise. S.Z.
is almost as important for the detection of faint tran- wishes to acknowledge support by the European RTN “The
sits as the detection algorithm itself. Precise detrend- Origin of Planetary Systems” (PLANETS, contract number
ing process can cancel off almost all the variability and HPRN-CT-2002-00308) in the form of a fellowship. Finally, we
reflected light contamination. On the other hand, arte- express our acknowledgements to the anonymous referee for
facts of the detrending can cause spurious transit detec- his/her detailed reading and many interesting suggestions.
tions. The relative importance of detrending and detection
could be quantified by coupling the detrending and de- References
tection phases between the five algorithms. This was not
attempted in the present study. Aigrain, S. & Favata, F. 2002, A&A, 395, 625
Aigrain, S., Favata, F., & Gilmore, G. 2004, A&A, 414,
The processing of real data will suffer more systematic 1139
effects than those introduced in this exercise. In space, Aigrain, S. & Irwin, M. 2004, MNRAS, 350, 331
these are due to temperature cycles, pointing jitter or scat- Allen, C. 2000, ”Astrophysical Quantities”, A.N. Cox edi-
tered light gradients along the detector. In ground-based tions
transit surveys, systematics are mainly due to fluctuations Andersen, B. N., Leifsen, T., & Toutain, T. 1994, Sol.
in the Earth atmosphere. Future work will include a com- Phys., 152, 247
parative study of the gain brought by the correction of Andreasen, J. 1988, A&A, 196, 159
systematics using comparison stars, such as recently pro- Auvergne, M., Boisnard, L., & Buey, J.-T. 2003, SPIE,
posed by Tamuz et al. (2005) and Kovács et al. (2005). 4853, 170
The characterisation of transits (shape, radius ratio, Baglin, A. 2003, Adv. Sp. Res., 31, 345
orbital inclination, etc) requires an entirely different set Barban, C., Goupil, M. J., & Van’t Veer-Menneret, C.
of analysis tools and no particular insight was obtained 2003, A&A, 405, 1095
about it from the detection simulation – apart from con- Boisnard, L. & Auvergne, M. 2004, in 55 th IAF Congress,
firming that eclipsing binaries can easily be confused with October 4-7 2004 Vancouver, IAC-04-Q.1.01
planetary transits. Bordé, P., Rouan, D., & Léger, A. 2003, A&A, 405, 1137
Some of the algorithms used here focus on the detec- Borucki, W., Koch, D., Boss, A., et al. 2004, in Second
tion of individual transits as well as strictly periodic sig- Eddington Workshop: Stellar structure and habitable
nals. Detection of not strictly periodic transit signal is planet finding. Edited by F. Favata, S. Aigrain and A.
an issue that was not considered here. In most realistic Wilson. ESA SP-538, p. 177
cases (two planets, circumbinary planet), the transits will Bouchy, F., Pont, F., & Santos, N. 2004, A&A, 421, L13
14 Moutou et al.: Blind test detection of planet transits
Table 1. The characteristics of the transits that were inserted in the light curves: the star radius R (in solar radius units),
the stellar limb darkening coefficient (LD), the planet radius r, the orbital period in days, the system inclination in degrees,
the semi-major axis a, the star magnitude, the final standard deviation of the light curve in percents, and some comments.
The detection flag shows a series of + and − signs, corresponding to each team, respectively from 1 to 5; + means a positive
detection (for team 1 in position 1, etc...), − means that the event is missed.
Table 2. Table of contaminating events which were introduced in the light curves: magnitude, event type (”BEB” stands for
background eclipsing binaries, ”GrB” stands for grazing binaries), period and relative flux (contribution of the background star
to the total flux), standard deviation of the final light curve. Detection flag: detection and correct identification (+), wrong
identification (i), no detection (−), for each team from 1 to 5. References: UTM (Deeg, 1999, UTM), Nightfall (Wichmann,
1998, W98), (Mandel & Agol, 2002, MA), AAVSO (American Association of Variable Star Observers), Andreasen (1988) (A88).
Table 3. Minimum planet radius for F0V, G0V, K0V and M0V stars, in unit of Earth radius, corresponding to the empirical
detection curve estimated by the blind test, which possibly overestimates the minimal radius of the detected planets at the
longest periods. The star radii are from Allen (2000), i.e. 1.5, 1.1, 0.85 and 0.6 solar radius, respectively.
Aigrain, S., Gilmore, G., Favata, F., & Carpano, S., The Frequency Content of
the VIRGO/SoHO Light Curves : Implications for Planetary Transit Detection
from Space. 2003, in ASP Conf. Ser. 294 : Scientific Frontiers in Research on
Extrasolar Planets, 441–444
Aigrain, S. & Irwin, M., Practical planet prospecting. 2004, Monthly Notices of
the Royal Astronomical Society, 350, 331
Baglin, A., Auvergne, M., Catala, C., Michel, E., & COROT Team, Asteroseis-
mology with the space mission CoRoT : photometric performances targets and
mission profile. 2001, in ESA SP-464 : SOHO 10/GONG 2000 Workshop :
Helio- and Asteroseismology at the Dawn of the Millennium, 395–398
Barge, P. & Sommeria, J., Did planet formation begin inside persistent gaseous
vortices ? 1995, A&A, 295, L1
Bordé, P., Rouan, D., & Léger, A., Exo-planet detection with the CoRoT space
mission. I. A multi-transit detection criterion. 2001, Academie des Sciences
Paris Comptes Rendus Serie Physique Astrophysique, 7, 1049
Bordé, P., Rouan, D., & Léger, A., Exoplanet detection capability of the CoRoT
space mission. 2003, A &A, 405, 1137
Chauvin, G., Lagrange, A.-M., Dumas, C., et al., A giant planet candidate near a
young brown dwarf. Direct VLT/NACO observations using IR wavefront sen-
sing. 2004, A&A, 425, L29
153
154 BIBLIOGRAPHIE
Claret, A., Non-linear limb-darkening law for LTE models (Claret, 2000). 2000,
VizieR Online Data Catalog, 336, 31081
Debray, B., Photométrie Stellaire dans les Champs Encombrés Pour l’Etude des
Galaxies Proches. 1982, PhD thesis, Universite de droit d’économie et des
sciences d’Aix Marseille
Defaÿ, C., Traitement du Signal pour la Détection des Transits planétaires : Ap-
plication à la Mission Spatiale CoRoT. 2001, PhD thesis, Laboratoire d’Astro-
physique Spatiale
Defaÿ, C., Deleuil, M., & Barge, P., A Bayesian method for the detection of
planetary transits. 2001, Astronomy and Astrophysics, 365, 330
Deleuil, M. & et al., Detection of Earth-Sized Planets with the CoRoT Space
Mission. 1997, in ASP Conf. Ser. 119 : Planets Beyond the Solar System and
the Next Generation of Space Missions, 259–+
Duren, R. M., Dragon, K., Gunter, S. Z., et al., Systems engineering for the Kepler
Mission : a search for terrestrial planets. 2004, in Optimizing Scientific Return
for Astronomy through Information Technologies. Edited by Quinn, Peter J. ;
Bridger, Alan. Proceedings of the SPIE, Volume 5497, pp. 16-27 (2004)., 16–27
Epstein, G., Adda, M., Auvergne, M., et al., CoRoT instrument : Constraints
and solutions. 2000, in The Third MONS Workshop : Science Preparation and
Target Selection, 157–+
Gregory, P. C. & Loredo, T. J., A new method for the detection of a periodic
signal of unknown shape and period. 1992, ApJ, 398, 146
Guterman, P., Barge, P., Llebaria, A., & Quentin, C., Improving transit detection
with collective light curves information. 2005, in Techniques and Instrumenta-
tion for Detection of Exoplanets II. Edited by Coulter, Daniel R. Proceedings
of the SPIE, Volume 5905, pp. 155-166 (2005).
Harvey, J. W., Duvall, T. L., Jefferies, S. M., & Pomerantz, M. A., Chromospheric
Oscillations and the Background Spectrum. 1993, in ASP Conf. Ser. 42 : GONG
1992. Seismic Investigation of the Sun and Stars, 111–+
BIBLIOGRAPHIE 155
Henry, G. W., Marcy, G., Butler, R. P., & Vogt, S. S., HD 209458. 1999,
IAU Circ., 7307, 1
Jain, A. & Dubes, R. 1988, Algorithms for Clustering Data (Englewood Cli s,
NJ : Prentice Hall)
Jenkins, J. M., Doyle, L. R., & Cullers, D. K., A Matched Filter Method for
Ground-Based Sub-Noise Detection of Terrestrial Extrasolar Planets in Eclip-
sing Binaries : Application to CM Draconis. 1996, Icarus, 119, 244
Kocher, P., Jaffe, J., & Jun, B., Differential Power Analysis. 1999, Lecture Notes
in Computer Science, 1666, 388
Konacki, M., An extrasolar giant planet in a close triple-star system. 2005, Nature,
436, 230
Kovács, G., Zucker, S., & Mazeh, T., A box-fitting algorithm in the search for
periodic transits. 2002, Astronomy and Astrophysics, 391, 369
Lanza, A. F., Rodonò, M., Pagano, I., Barge, P., & Llebaria, A., Modelling the
rotational modulation of the Sun as a star. 2003, A&A, 403, 1135
Lecavelier des Etangs, A., Vidal-Madjar, A., McConnell, J. C., & Hébrard, G.,
Atmospheric escape from hot Jupiters. 2004, A&A, 418, L1
Llebaria, A., Auvergne, M., & Perruchot, S., Design of polychromatic PSFs for the
CoRoT experiment. 2004, in Optical Design and Engineering. Edited by Ma-
zuray, Laurent ; Rogers, Philip J. ; Wartmann, Rolf. Proceedings of the SPIE,
Volume 5249, pp. 175-181 (2004)., 175–181
Llebaria, A., Guterman, P., & Ollivier, M., Photometric masking methods and
predicted performances for the CoRoT exoplanetary mission. 2003, in Tech-
niques and Instrumentation for Detection of Exoplanets. Edited by Coulter,
Daniel R. Proceedings of the SPIE, Volume 5170, pp. 155-166 (2003)., 155–166
Llebaria, A., Vuillemin, A., Guterman, P., & Barge, P., Designing photometric
patterns for exoplanet transit search on board CoRoT. 2002, in Highly Innova-
tive Space Telescope Concepts Edited by Howard A. MacEwen. Proceedings of
the SPIE, Volume 4849, pp. 112-123 2002., 112–123
156 BIBLIOGRAPHIE
Mandel, K. & Agol, E., Analytic Light Curves for Planetary Transit Searches.
2002, The Astrophysical Journal, 580, L171
Marcy, G. W. & Butler, R. P., First three planets. 1996, in Proc. SPIE Vol. 2704,
p. 46-49, The Search for Extraterrestrial Intelligence (SETI) in the Optical
Spectrum II, Stuart A. Kingsley ; Guillermo A. Lemarchand ; Eds., 46–49
Moutou, C., Pont, F., Barge, P., et al., Comparative blind test of five planetary
transit detection algorithms on realistic synthetic light curves. 2005, A&A, 437,
355
Neuhäuser, R., Guenther, E. W., Wuchterl, G., et al., Evidence for a co-moving
sub-stellar companion of GQ Lup. 2005, A&A, 435, L13
Pepe, F., Mayor, M., Rupprecht, G., et al., HARPS : ESO’s coming planet sear-
cher. Chasing exoplanets with the La Silla 3.6-m telescope. 2002, The Messen-
ger, 110, 9
Pickles, A. J., A Stellar Spectral Flux Library : 1150 - 25000 A (Pickles 1998).
1998, VizieR Online Data Catalog, 611, 863
Press, H., Teukolsky, A., Vetterling, T., & Flannery, P. 1997, Numerical Recipes
in C, The Art of Scientific Programming (Cambridge University Press)
Robin, A. & Creze, M., Stellar populations in the Milky Way - Comparisons of a
synthetic model with star counts in nine fields. 1986, A&AS, 64, 53
Rouan, D., Baglin, A., Barge, P., et al., Searching for exosolar planets with the
CoRoT space mission. 1999, Physics and Chemistry of the Earth C, 24, 567
Rouan, D., Baglin, A., Copet, E., et al., The Exosolar Planets Program of the
CoRoT satellite. 2000, Earth Moon and Planets, 81, 79
Schneider, J., The study of extrasolar planets : methods of detection, first disco-
veries and future perspectives. 1999, Academie des Sciences Comptes Rendus
Serie Mecanique Physique Chimie Sciences de la Terre et de l Univers, 327, 621
Steller, M., Heihsler, J., Ottacher, H., & Weiss, W. 2002, From stars to habitable
planets, the austrian contribution to the CoRoT mission
Tamuz, O., Mazeh, T., & Zucker, S., Correcting systematic effects in a large set
of photometric light curves. 2005, Monthly Notices of the Royal Astronomical
Society, 356, 1466
Tingley, B., Improvements to existing transit detection algorithms and their com-
parison. 2003a, Astronomy and Astrophysics, 408, L5
Torres, G., Konacki, M., Sasselov, D. D., & Jha, S., The transiting planet OGLE-
TR-56b. 2003, American Astronomical Society Meeting Abstracts, 203,
Udalski, A., Szymanski, M., Kaluzny, J., et al., The optical gravitational lensing
experiment. Discovery of the first candidate microlensing event in the direction
of the Galactic Bulge. 1993, Acta Astronomica, 43, 289
Udalski, A., Szymanski, M., Kaluzny, J., Kubiak, M., & Mateo, M., The Optical
Gravitational Lensing Experiment. 1992, Acta Astronomica, 42, 253
Vidal-Madjar, A., Désert, J.-M., Lecavelier des Etangs, A., et al., Detection of
Oxygen and Carbon in the Hydrodynamically Escaping Atmosphere of the Ex-
trasolar Planet HD 209458b. 2004, ApJL, 604, L69
Wolszczan, A., Confirmation of Earth Mass Planets Orbiting the Millisecond Pul-
sar PSR :B1257+12. 1994, Science, 264, 538
158 BIBLIOGRAPHIE
Résumé
Pour la détection, j’ai développé une méthode qui rehausse le contraste des
transits en éliminant les composantes des effets collectifs et de certains artefacts.
Après détection temporelle les systématiques sont identifiées, même celles d’ori-
gine et de poids inconnus. On fait émerger de nouvelles détections en jaugeant la
dispersion autour de ces composantes.
Abstract