0% ont trouvé ce document utile (0 vote)
51 vues257 pages

Balsollier 3

La thèse de Lisa Balsollier présente une étude sur la simulation, l'estimation paramétrique et la classification des trajectoires d'un processus birth-death-move avec mutations. Elle explore les dynamiques moléculaires à travers un modèle génératif et propose des applications à des données réelles, tout en analysant les propriétés de vraisemblance et les phénomènes de colocation. Les résultats de cette recherche contribuent à une meilleure compréhension des dynamiques biomoléculaires et des méthodes de classification des trajectoires.

Transféré par

d21308804
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
51 vues257 pages

Balsollier 3

La thèse de Lisa Balsollier présente une étude sur la simulation, l'estimation paramétrique et la classification des trajectoires d'un processus birth-death-move avec mutations. Elle explore les dynamiques moléculaires à travers un modèle génératif et propose des applications à des données réelles, tout en analysant les propriétés de vraisemblance et les phénomènes de colocation. Les résultats de cette recherche contribuent à une meilleure compréhension des dynamiques biomoléculaires et des méthodes de classification des trajectoires.

Transféré par

d21308804
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Simulation, estimation paramétrique et classification des

trajectoires d’un processus birth-death-move avec


mutations
Lisa Balsollier

To cite this version:


Lisa Balsollier. Simulation, estimation paramétrique et classification des trajectoires d’un processus
birth-death-move avec mutations. Mathématiques générales [math.GM]. Nantes Université, 2024.
Français. �NNT : 2024NANU4067�. �tel-05017947�

HAL Id: tel-05017947


https://theses.hal.science/tel-05017947v1
Submitted on 2 Apr 2025

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
T HÈSE DE DOCTORAT DE

NANTES UNIVERSITÉ

É COLE D OCTORALE N O 641


Mathématiques et Sciences et Technologies
de l’Information et de la Communication

Spécialité : Mathématiques et leurs interactions

Par
Lisa BALSOLLIER
Simulation, estimation paramétrique et classification des
trajectoires d’un processus birth-death-move avec mutations.

Thèse présentée et soutenue au Centre INRIA de l’Université de Rennes, le 21 octobre 2024


Unité de recherche : Laboratoire de Mathématiques Jean Leray

Rapporteurs avant soutenance :

Édith GABRIEL Directrice de Recherche, INRAE


Thibault LAGACHE Chargé de Recherche, Institut Pasteur, Paris

Composition du Jury :

Examinateurs : Marie-Pierre ÉTIENNE Professeure associée, ENSAI, Rennes


Ronan LE GUÉVEL Maître de conférence, Université de Rennes
Dir. de thèse : Frédéric LAVANCIER Professeur, ENSAI, Rennes
Co-dir. de thèse : Charles KERVRANN Directeur de Recherche,
Centre INRIA de l’Université de Rennes
Jean SALAMERO Directeur de Recherche,
Institut de Génétique Humaine, Montpellier
R EMERCIEMENTS

L’accomplissement de cette thèse a été une étape importante de mon cursus


universitaire et son achèvement marque la fin de mon parcours scolaire. À cette
occasion, je formule avec sincérité ma gratitude envers tous ceux qui m’ont accom-
pagnée tout au long de ce chemin.

Je tiens, tout d’abord, à témoigner ma profonde reconnaissance envers mes di-


recteurs de thèse, Frédéric Lavancier et Charles Kervrann pour m’avoir accueillie
pour mon stage de Master, puis pour avoir accepté de m’encadrer pour cette thèse.
Je les remercie pour leurs conseils, leur patience et nos échanges constructifs qui
m’ont permis de surmonter les difficultés et de mener à bien mon travail.
Je voudrais également remercier Jean Salamero qui a suivi l’avancée de mes travaux
avec son regard de biologiste, me permettant de découvrir un autre domaine de la
recherche.

Je remercie Édith Gabriel et Thibault Lagache de m’avoir fait l’honneur de rap-


porter mon mémoire de thèse et également Marie-Pierre Étienne et Ronan Le Guével
d’avoir accepté de faire partie de mon jury de thèse. Je souhaite aussi mentionner
mon comité de suivi de thèse avec Lüdger Johannes, aux côtés de Ronan Le Guével,
dont les encouragements et les conseils m’ont été d’une grande aide.

J’aimerais exprimer toute ma gratitude envers les équipes administratives de


l’Université de Nantes, de Rennes et du Centre INRIA, et plus particulièrement Béa-
trice Havet, Marie-Aude Verger et Caroline Tanguy pour leur assistance précieuse
tout au long de mon parcours doctoral. Leur professionnalisme et leur disponibilité
ont allégé mes démarches et facilité ainsi mon travail.

Je remercie mes camarades doctorants (ou ex-doctorants) qui ont partagé avec
moi cette période intense de recherche, notamment Sébastien et Yasmine qui ont été
de formidables collègues de bureau.

J’ai aussi une pensée très affectueuse pour Fabrice, Emeline et Laura, qui ont
toujours veillé sur moi, comme des aînés, durant ces 7 dernières années. Leur soutien

3
et leurs conseils avisés ont été une véritable source de motivation. Merci infiniment !

Pendant ces trois années, j’ai eu le privilège d’intervenir dans la préparation à


l’agrégation interne de mathématiques de l’Université de Rennes 1 et je remercie
chaleureusement David Bourqui, Bernard Delyon et Stéphane Le Borgne de m’avoir
fait confiance pour accomplir cette mission. J’ai pris un réel plaisir à partager mes
connaissances avec ces étudiantes et étudiants « de luxe » dans une ambiance stu-
dieuse et stimulante.
Parallèlement, mes interventions en licence de biologie et d’informatique ont été une
expérience bénéfique et enrichissante pour moi.

Je voudrais aussi exprimer ma reconnaissance envers tous les professeurs de ma-


thématiques qui ont marqué ma scolarité. Grâce à eux les mathématiques sont deve-
nues pour moi, bien plus qu’une matière parmi d’autres. Du collège avec Mesdames
Crumière et Buratti, à mes années de prépas avec Messieurs Zannad et Arsac, en pas-
sant par mes années de lycée avec Monsieur Vidal et Mesdames Tissier et Pommier,
j’ai rencontré des enseignants remarquables, exigeants et investis. Leur dévouement
et la qualité de leur enseignement resteront des sources d’inspiration pour moi. Merci
du fond du cœur d’avoir nourri et cultivé ma passion des mathématiques.
Même si son tour viendra plus loin dans ces remerciements, je ne peux pas terminer
ce paragraphe sur mes profs de maths sans parler de celle qui a été la meilleure
professeure : merci mille fois, Maman, pour tout le temps que tu as passé à rédiger
des textes simplifiés sur des notions compliquées afin de rendre plus intuitifs des
concepts abstraits, ton aide me faisait gagner un temps tellement précieux dans les
années difficiles qu’ont été la prépa et l’agreg.

Mon parcours aurait été sans doute plus monotone sans la complicité de mes
amis de toujours : les Bestous et plus particulièrement Lucile, Luna, Mathilde et
Carla. Malgré notre éloignement quotidien, vous restez des piliers de ma vie. Lucile,
merci pour les heures que tu as passées à m’écouter et tous les mots justes que tu as
su trouver pour me remonter le moral. Merci pour tout ce que l’on a vécu et pour
tout ce que l’on va encore vivre ensemble.

Je pense aussi aux amis que j’ai rencontrés lors de mon arrivée à Rennes, il y a 7
ans maintenant. Tout d’abord, merci à ma quasi-coloc Angèle pour notre entre-aide,
notre complicité et nos rires, aussi bien à l’école que dans notre vie quotidienne.

4
Je me souviens aussi de notre fameux trio avec Brieuc.
Merci aussi à l’ABP (la vraie !) avec Kim, Mahé, Kaber et Adèle, ainsi qu’à Arthur,
Olivier, Aymeric, Julien, Caj. Votre amitié est irremplaçable pour moi. Vous êtes
une équipe formidable, et je suis vraiment heureuse d’avoir partagé avec vous tant
de bons moments, qui resteront au fond de mon cœur pour toujours. Bien sûr, « on
s’arrête pas là, jusqu’à où est-ce qu’on ira ? »

Cette thèse n’aurait jamais pu aboutir sans les nombreuses séances au club d’avi-
ron qui, dans un premier temps, me permettaient de me vider la tête. J’y retrouvais
avec plaisir la bonne humeur de Guillaume, Pauline, Régis, Romain et Benoît. Main-
tenant, même si la page se tourne, ce sport restera une véritable source d’équilibre
pour moi.

Je mesure combien je suis chanceuse d’avoir une famille si aimante, toujours


présente pour m’accompagner et toujours prête pour m’aider dans n’importe quelle
circonstance.
Merci Enzo pour ton optimisme et tes encouragements qui m’ont souvent permis
de voir les choses sous un autre angle. Nos différences unies par un amour fraternel
sont une force commune.
Merci Papa et Maman pour votre présence et votre dévouement inestimable.
Merci Papa pour ton pragmatisme, ta gentillesse et ta sérénité en toute circonstance.
Merci Maman pour ton écoute, ta dévotion désintéressée, ta détermination hors du
commun pour résoudre n’importe quel problème, qu’il soit mathématique ou exis-
tentiel.
Merci ma Mémé chérie, toujours là pour moi sans faillir, tu vois toujours le bon côté
des choses et tu m’encourages comme personne, chaque matin. Tu as toujours cru
en moi bien plus que moi-même et je vais enfin pouvoir te dire « j’ai fini l’école ! ».
Je pense aussi à Pépé et Mémé Maurise qui auraient été si heureux. . .

Enfin et surtout, un immense merci à toi, Émilien. Je n’aurais jamais pu imaginer


un soutien plus précieux, un confident plus bienveillant, un complice plus fidèle, un
coéquipier plus volontaire, un allié plus discret, pour franchir les étapes de ce long
chemin que nous parcourons ensemble. Derrière chacune de mes réussites, il y a une
part de toi.

5
S OMMAIRE

Introduction 11
1 Mise en contexte et objectifs de la thèse . . . . . . . . . . . . . . . . 11
1.1 Modéliser une dynamique moléculaire . . . . . . . . . . . . . . 11
1.2 Le processus birth-death-move avec mutations . . . . . . . . . 13
1.3 État de l’art et contributions de la thèse . . . . . . . . . . . . 16
2 Organisation de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . 18

I A generative model to simulate the spatio-temporal dy-


namics of biomolecules in cells. 25

1 Presentation of the birth-death-move process with mutations 27


1.1 Heuristic and notations . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.2 Algorithmic construction . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.3 Exemplified specifications of the model . . . . . . . . . . . . . . . . . 31
1.3.1 The inter-jumps motion . . . . . . . . . . . . . . . . . . . . . 31
1.3.2 The intensity functions . . . . . . . . . . . . . . . . . . . . . . 33
1.3.3 The transition probability functions . . . . . . . . . . . . . . . 35
1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

2 Application to the study of the dynamics of real data 39


2.1 Application to the joint dynamics of Langerin and Rab-11 proteins . 39
2.1.1 Description of the dataset . . . . . . . . . . . . . . . . . . . . 39
2.1.2 Simulation of synthetic sequences . . . . . . . . . . . . . . . . 44
2.2 Conclusion and perspectives . . . . . . . . . . . . . . . . . . . . . . . 47

Appendix of Part I 53

A Simulation algorithm 53

7
SOMMAIRE

II Parametric estimation and LAN property of a BDMM


process. 57

3 Likelihood and LAN property of a BDMM process. 59


3.1 Definition of the BDMM process . . . . . . . . . . . . . . . . . . . . . 59
3.1.1 State space . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.1.2 Dynamics of a BDMM process . . . . . . . . . . . . . . . . . . 60
3.1.3 Elements of the model and examples . . . . . . . . . . . . . . 63
3.2 LAN property . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.2.1 Likelihood of the BDMM process . . . . . . . . . . . . . . . . 69
3.2.2 LAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.2.3 Examples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

4 Analysis of the colocation phenomenon on simulated and real data. 77


4.1 Simulation study . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.2 Data analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

Appendix of Part II 85

B Remark about the diffusion coefficient in case of continuous time


observations 85

C Proof of the likelihood expression of a BDMM process 87

D Proof of the LAN property of a BDMM process 93

E Ergodicity of the BDMM process 107

III Analyse du mouvement des trajectoires et détection


des instants de changement de régime. 111

5 Classification des trajectoires 113


5.1 État de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.2 Résolution du problème . . . . . . . . . . . . . . . . . . . . . . . . . 116

8
SOMMAIRE

5.2.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116


5.2.2 Algorithme EM pour estimer les paramètres qui maximisent
la vraisemblance de la séquence observée . . . . . . . . . . . . 119
5.2.3 Algorithme de Viterbi pour estimer les états cachés ayant pro-
duit la séquence observée . . . . . . . . . . . . . . . . . . . . . 126
5.3 Étude théorique d’un exemple dans le cas de trois mouvements . . . . 130
5.3.1 Présentation de l’exemple . . . . . . . . . . . . . . . . . . . . 130
5.3.2 Un argument du maximum de la fonction Q explicite dans cet
exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
5.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

6 Applications sur des données simulées et réelles 143


6.1 Résultats sur des données simulées . . . . . . . . . . . . . . . . . . . 143
6.1.1 Cas où seuls les paramètres de la matrice de transition a sont
inconnus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
6.1.2 Cas où les paramètres de chaque trajectoire sont inconnus et
distincts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
6.1.3 Cas où les paramètres σi,1 , ρi , σi,2 , λi , σi,3 sont identiques pour
toutes les trajectoires . . . . . . . . . . . . . . . . . . . . . . . 152
6.1.4 Bilan de l’étude par simulation . . . . . . . . . . . . . . . . . 157
6.2 Résultats sur des données réelles . . . . . . . . . . . . . . . . . . . . . 159
6.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

Annexes de la partie III 164

F Forme de la fonction Q dans le cas de trajectoires indépendantes 165

G Preuves du calcul de l’argument du maximum de Q 199

H Comparaison avec la méthode de [MBP+ 15] 233

Conclusion 241

Bibliographie 247

9
I NTRODUCTION

1 Mise en contexte et objectifs de la thèse

1.1 Modéliser une dynamique moléculaire

Le déplacement des particules qui interagissent dans les cellules ainsi que leur
organisation dans le temps et dans l’espace est un sujet de questionnement majeur
et permanent en biologie cellulaire. La compréhension de ces mouvements est un
objectif à long terme de la recherche scientifique qui mobilise des physiciens, des
biologistes, des informaticiens et des mathématiciens.
Pour expliquer ces phénomènes, des méthodes d’analyse d’images ont été déve-
loppées afin de traiter des vidéos acquises en microscopie de fluorescence [SFS+ 97,
GCK+ 18, AABA10, BKB09, Bou23, LCB+ 20]. Ces études demandent dans un pre-
mier temps un suivi précis (tracking) des particules considérées puis dans un deuxième
temps une méthode fiable pour interpréter le mouvement des particules (e.g. pro-
téines) en question. Dans cette thèse, nous ne nous intéresserons pas aux méthodes
utilisées pour effectuer la tâche d’estimation des trajectoires, qui sont déjà très
nombreuses [KSA+ 15, CSDC+ 14, RDJ+ 17, GFSM20, VVP14, VHHK16, SPB+ 19,
LCB+ 20, BAD+ 21, Bou23], mais nous nous consacrerons à l’analyse de la dyna-
mique des particules (apparition, mouvement, disparition) à partir des trajectoires
estimées.
Afin d’exemplifier le type de dynamique qui nous intéresse, la figure 1 illustre
(à gauche) une cellule vivante extraite d’une séquence vidéo, acquise en microscopie
TIRF (total internal reflection fluorescence) par l’équipe de Jean Salamero de l’Ins-
titut Curie (UMR 144 CNRS). Les petites taches (ou spots) visibles témoignent de
la présence de protéines de type Langerin, à proximité de la membrane plasmique
de la cellule. À droite de la figure 1, nous affichons les trajectoires extraites de cette
séquence après traitement informatique (segmentation, filtrage stochastique).

11
Introduction

Figure 1 – Dynamique des protéines de type Langerin près de la membrane d’une


cellule lors du phénomène d’exocytose. À gauche : une image de la séquence vidéo
brute obtenue par microscopie TIRF. À droite : superposition de toutes les trajec-
toires obtenues après traitement de l’ensemble de la vidéo brute (comportant 1200
images).

Les modèles mathématiques et biophysiques sont indispensables pour simuler


et analyser le comportement des molécules dans les cellules. Les données simu-
lées permettent non seulement d’évaluer les performances des algorithmes d’analyse
d’images, mais aussi d’entraîner des modèles complexes comme les réseaux neuro-
naux profonds. Dans ce contexte, les modèles stochastiques basés sur des particules
sont largement utilisés pour le suivi des molécules [CSDC+ 14, RDJ+ 17, GFSM20,
VVP14] et servent aussi à créer des simulateurs de microscopie de localisation de
molécules uniques (SMLM) [VHHK16, SPB+ 19, LCB+ 20, BAD+ 21, Bou23].
Au-delà des logiciels usuels tels que Virtual Cell [SFS+ 97], MCell [GCK+ 18]
et Smoldyn [AABA10], spécialisés dans la caractérisation des dynamiques réaction-
diffusion, de nombreux modèles stochastiques ont été mis en place afin de représenter
le comportement des particules dans la cellule, en incluant des mouvements brow-
niens, confinés, anormaux ou dirigés avec des vitesses variables [BKB09, Bou23,
BN13, HH17, BKV18, PZB+ 18, BVK19, LCB+ 20, ASP+ 19, MGVGM+ 21], pour
analyser le comportement des molécules dans le cytoplasme ou lorsqu’elles sont pro-
pulsées le long d’un réseau de cytosquelette [BKB09, LDH09, Ker22]
Cependant, toutes ces dynamiques ne prennent pas en compte des changements
de régime au cours du déplacement des particules, bien que ce comportement soit
manifestement observé dans des applications réelles [BKV18]. De plus, ces modèles

12
1. Mise en contexte et objectifs de la thèse

supposent généralement que les particules sont indépendantes et considèrent un


taux de naissance constant. Ils ne tiennent pas non plus compte de l’influence des
particules voisines sur le moment et le lieu d’apparition de nouvelles particules, en
excluant toute interaction avec les particules existantes. Les mêmes limites sont pré-
sentes si on s’intéresse à la dynamique de disparition des particules. Il existe donc
encore des opportunités pour améliorer les modèles existants afin de prendre en
considération ces spécificités de déplacements des molécules.

1.2 Le processus birth-death-move avec mutations


Dans cette thèse, nous proposons de tirer parti d’une adaptation d’un modèle sto-
chastique, appelé processus “birth-death-move” (BDM), qui est suffisamment flexible
pour inclure toutes les fonctionnalités mentionnées précédemment dans un cadre
unifié et théoriquement bien fondé.
Les processus BDM [LLG21] ont été introduits pour enrichir la notion déjà for-
malisée par Preston depuis 1975 [Pre75] des processus de naissance-mort spatiaux
(dits spatial birth-death processes). Ces derniers ont eux-mêmes permis d’élargir la
notion de processus de naissance-mort simple, qui ne considérait que le cas où les
paramètres du système dépendent seulement de la taille de la population d’individus
ou de particules. La vision de Preston permet de considérer des cas beaucoup plus
complets, dans lesquels les apparitions et disparitions des individus (particules dans
notre cas) dépendent de la position des autres individus. On peut ainsi traiter des
modèles beaucoup plus généraux où, par exemple, les individus ont tendance à ap-
paraître à proximité d’individus déjà vivants (phénomènes de propagation), ou bien
à disparaître s’ils sont trop nombreux dans un même site (phénomènes de concur-
rence des ressources). Néanmoins, une limite du modèle de Preston est qu’il suppose
que la localisation spatiale de chaque individu reste fixe, de sa naissance jusqu’à
sa mort. C’est pour palier cette limite et ainsi pouvoir considérer un déplacement
des particules pendant leur durée de vie que les processus birth-death-move ont été
introduits [LLG21].

Conformément à l’objectif de cette thèse, nous étudierons les processus birth-


death-move afin de modéliser la dynamique spatio-temporelle d’un système de par-
ticules en mouvement au cours du temps, tandis que de nouvelles particules peuvent

13
Introduction

apparaître dans la cellule et que certaines particules existantes peuvent disparaître.


Dans ce modèle, les trajectoires peuvent être générées par n’importe quel modèle
de diffusion de Markov continu, ce qui inclut la plupart des modèles de trajectoires
individuelles précédemment considérés dans la littérature. De plus, ce modèle per-
met d’introduire des interactions entre les particules, de sorte que des situations de
colocalisation (i.e. présence simultanée de plusieurs types de molécules en interac-
tion au même endroit) peuvent ainsi être générées. L’intensité des naissances, qui
régit le temps d’attente avant l’apparition de la prochaine particule, peut dépendre
de la configuration actuelle des particules, de même que l’intensité des morts. Par
conséquent, nous pouvons imposer que plus il y a de molécules dans la cellule, plus
l’intensité de mort est élevée, ce qui induit des disparitions rapides. Certains ef-
fets spatiaux peuvent également être pris en compte afin de créer des régimes de
mouvement distincts dans certaines régions de la cellule ou d’encourager certaines
régions spatiales à concentrer davantage d’apparitions de particules, par exemple à
proximité de certaines particules existantes.
Dans cette thèse, nous nous intéresserons aux applications du processus BDM en
biologie cellulaire, mais ce type de dynamique est également observé dans d’autres
domaines, notamment en épidémiologie [MH17] et en écologie [RS01, PG19]. Les
processus BDM ont été introduits dans [LLG21] et analysés plus en détail dans
[LLGM22], avec un accent particulier sur l’étude de leurs propriétés ergodiques. Pour
être complet, plusieurs processus existants présentent des dynamiques pouvant être
décrites comme des processus BDM : les systèmes de particules markoviens à sauts
étudiés dans [Löc02b, Löc02a], les processus de branchement [AN12] et les modèles
de population à structure spatiale [BM15].

Une première contribution de cette thèse a été d’ajouter au modèle existant la


possibilité de marquer chaque particule avec une étiquette, permettant ainsi de dis-
tinguer, par exemple, différents types de protéines, ou différents types de régimes de
mouvement suivis. Cette marque peut changer au fil du temps ; une particule peut,
par exemple, transiter d’un régime brownien vers un mouvement dirigé. Ces chan-
gements de marque seront appelés, selon le contexte, mutations ou transformations
(sans être une véritable mutation biologique). Ce modèle BDM marqué sera appelé
processus birth-death-move avec mutations : BDMM.
La figure 2 présente les mêmes données que celles de la figure 1 avec l’ajout d’une

14
1. Mise en contexte et objectifs de la thèse

Figure 2 – Trajectoires obtenues après traitement de l’ensemble de la vidéo consi-


dérée dans la figure 1. Les couleurs indiquent la marque de chaque particule, à savoir
le régime de mouvement suivi (bleu pour un mouvement brownien, rouge pour un
mouvement super-diffusif et vert pour un mouvement confiné).

marque pour chaque particule, correspondant au type de mouvement. Cette marque


est mise en évidence avec une couleur : bleu pour un mouvement brownien, rouge
pour un mouvement super-diffusif et vert pour un mouvement confiné. Certaines
particules peuvent changer de couleur, c’est-à-dire changer de type de mouvement
au cours de leur durée de vie.
Dans cette figure, l’estimation des marques et des changements de marque a été
effectuée par la méthode présentée dans [BVK19] et nous reviendrons sur cette pro-
blématique dans la dernière partie du manuscrit.

La dynamique d’un processus BDMM est expliquée rigoureusement dans le ma-


nuscrit. L’idée générale est la suivante. On note Λ ⊂ Rd l’espace de vie des particules
considérées et M l’ensemble fini des marques possibles. Un processus BDMM (Xt )t≥0
est un processus de Markov dont l’espace des états est défini ainsi :

+∞
E = {configurations de points de Λ × M} =
G
Ep
p=0

où Ep = {configurations de p points de Λ × M}. Au cours du temps, les particules


se déplacent selon des mouvements continus entre deux “sauts”. Les “sauts” ont lieu
à des instants aléatoires et correspondent à :
• une naissance : une nouvelle particule apparaît et le processus passe de l’espace

15
Introduction

Ep à l’espace Ep+1 ,
• une mort : une particule existante disparaît et le processus passe de l’espace
Ep à l’espace Ep−1 ,
• une mutation : la marque d’une particule existante change et le processus
continue d’évoluer dans Ep .
Ainsi, pour entièrement décrire la dynamique d’un processus BDMM, trois in-
grédients sont nécessaires :
— un processus de Markov multivarié, homogène et continu qui dirige le mou-
vement de toutes les particules entre deux instants de naissance, mort ou
mutation ;
— trois fonctions, appelées intensités de naissance, de mort et de mutation, qui
contrôlent les temps d’attente avant la prochaine naissance, la prochaine mort,
la prochaine mutation ;
— trois noyaux de probabilité qui caractérisent, lorsqu’un saut a lieu, la loi de
naissance de la particule qui apparaît, la loi de mort de la particule qui dispa-
raît, et la loi de mutation de la particule qui change de marque.
Chacune de ces caractéristiques peut prendre une forme paramétrique, que l’on
pourra chercher à estimer lors d’études statistiques.

1.3 État de l’art et contributions de la thèse


La première partie de ce manuscrit explique dans un premier temps, comment
spécifier tous les ingrédients essentiels à la définition d’un modèle BDMM en donnant
de nombreux exemples pertinents pour les applications en biologie cellulaire. Dans
un deuxième temps, nous proposons un générateur du traffic de particules basé sur
le processus BDMM.
L’outil de simulation est très flexible et permet de modéliser un système de
particules en mouvement, éventuellement en interaction, chacune pouvant passer
d’un régime de diffusion (par exemple, brownien) à un autre (par exemple, un
mouvement dirigé), mais aussi de prendre en compte de manière précise l’appa-
rition au cours du temps de nouvelles trajectoires et leurs disparitions, ces évé-
nements pouvant dépendre des régions dans la cellule mais aussi de la configura-
tion spatiale courante de toutes les particules existantes. Notre simulateur permet

16
1. Mise en contexte et objectifs de la thèse

de générer des dynamiques plus réalistes que les procédures de simulation stan-
dards [SFS+ 97, GCK+ 18, AABA10, BKB09, Bou23, LCB+ 20], en tenant compte
par exemple des situations de colocalisation souvent observées entre les protéines.

La deuxième partie du manuscrit est consacrée à l’inférence d’un processus


BDMM. Dans des travaux antérieurs, Frédéric Lavancier et Ronan Le Guével ont dé-
crit dans [LLG21] comment obtenir un estimateur non-paramétrique des fonctions
d’intensité de naissance et d’intensité de mort (qui permettent de gérer le temps
d’attente avant la prochaine naissance ou la prochaine mort). Dans le même état
d’esprit, ils ont aussi, avec Emilien Manent dans [Man23], obtenu un estimateur non
paramétrique des noyaux de naissance et de mort d’un processus birth-death-move.
Dans cette thèse, nous nous sommes concentrés sur l’aspect paramétrique de
l’inférence du processus. Lorsqu’il n’y a ni déplacement ni mutation (i.e. lorsque
le processus se résume à un processus spatial de naissance et de mort [Pre75]),
l’estimation paramétrique par maximum de vraisemblance lorsque l’espace de vie
des individus Λ est de dimension 1 a été examinée dans [MS94], avec une application
à l’analyse du déplacement des dunes. La même méthode d’estimation a été reprise
dans [Sad19] pour gérer des cas particuliers d’un processus spatial de naissance et de
mort en dimension 2, en vue de modéliser les ouvertures et fermetures de magasins
à Tokyo. Dans ces références avec des applications très différentes, aucune étude
statistique théorique n’est fournie et, par définition, les particules ne se déplacent
pas. Dans [Löc02a], la propriété de normalité asymptotique locale (LAN) du modèle
markovien décrivant des systèmes de particules à sauts a été établie, et ceci dans un
cadre très général.
La seconde contribution de cette thèse est d’avoir spécifié l’expression de la
vraisemblance et démontré la propriété de normalité asymptotique locale (LAN)
d’un processus BDMM sous certaines hypothèses, dont nous remarquerons qu’elles
sont satisfaites pour les spécifications paramétriques standards du modèle. Cette
propriété permettra d’obtenir, pour des approches paramétriques, des estimateurs
asymptotiquement optimaux et de connaître de manière explicite leur loi asympto-
tique.

Les études statistiques, paramétriques ou non, nous permettent d’estimer chaque


caractéristique du système sauf les instants de saut. Quant aux sauts qui corres-

17
Introduction

pondent à des événements de naissance et de mort, il sont facilement identifiables


en analysant le cardinal de la population. En revanche, l’estimation des instants de
mutation demande une étude plus appronfondie. La dernière partie de ce manuscrit
se concentre sur cette étude, dans le cas particulier où l’ensemble M des marques
regroupe les différents régimes de déplacement dans lesquels peut se trouver chaque
particule. Déterminer les instants de mutation revient donc, dans ce cas, à retrou-
ver les instants où chaque particule change de régime de mouvement. L’objectif de
cette dernière partie est donc d’estimer, à partir des trajectoires observées, le type
de mouvement suivi par chaque particule et les différents paramètres sous-jacents,
mais aussi de déterminer les instants de transition entre deux types de mouvement.
En général, la plupart des méthodes recourent au déplacement quadratique
moyen (MSD : Mean Square Displacement) [GLGW13, QSE91] pour estimer le mou-
vement de diffusion (et ses paramètres) associé à une trajectoire complète. Des mé-
thodes ont été élaborées pour détecter les instants de transition entre deux types de
mouvement sur une même trajectoire ; certaines se basent sur des tests statistiques
réalisés sur des fenêtres glissantes le long de la trajectoire [BVK19], d’autres sur la
notion de chaîne de Markov à états cachés [MBP+ 15], et les plus récentes sur des
techniques de “Deep Learning” [MGVGM+ 21, ASP+ 19].
La méthode que nous avons adoptée dans ce manuscrit repose sur des modèles de
Markov à états cachés et un algorithme EM (Expectation-Maximization). Contrai-
rement aux méthodes précédentes, notre approche permet à la fois de détecter les
changements de type de mouvement mais aussi de déterminer les paramètres qui ca-
ractérisent ces mouvements, le tout en considérant un grand nombre de trajectoires.
Pour finir, nous avons adapté notre approche pour gérer le cas où les particules
suivent trois types de mouvement : un mouvement brownien, un mouvement brow-
nien dirigé (super-diffusion) et un mouvement donné par un processus d’Ornstein-
Uhlenbeck (sous-diffusion).

2 Organisation de la thèse
Cette thèse est organisée en trois parties, chacune étant subdivisée en deux cha-
pitres avec l’ajout d’annexes qui s’y rapportent. Dans la partie I, nous présentons
le modèle BDMM et un algorithme permettant de simuler des trajectoires de par-
ticules dans des cellules. Dans la partie II, nous étudions la propriété de normalité

18
2. Organisation de la thèse

asymptotique locale (LAN) du processus BDMM, avant de l’appliquer à l’estima-


tion de certains paramètres du modèle. Enfin, dans la partie III, nous utilisons les
modèles de Markov à états cachés et un algorithme EM pour estimer le mouvement
suivi par un ensemble de particules. Le contenu de la thèse est présenté de manière
synthétique ci-dessous.

Partie I : Un modèle génératif pour simuler la dynamique spatio-temporelle


des biomolécules dans les cellules.

Cette partie correspond à l’article [BLSK23], publié dans le journal “Biological


Imaging” en 2023. Pour cette raison, cette partie est rédigée en anglais.

Chapitre 1 : Présentation du processus birth-death-move avec muta-


tions
Dans ce chapitre, nous étudions le processus birth-death-move avec changements
de régimes (abrégé en BDMM) afin de générer des dynamiques conjointes de molé-
cules dans les cellules.
Dans la première section, nous donnons la définition précise du processus sto-
chastique BDMM, et nous énumérons, en nous appuyant sur de nombreux exemples,
tous les ingrédients nécessaires pour décrire précisément le modèle. Une construction
itérative est présentée, clarifiant le déroulement de la dynamique spatio-temporelle
du processus. Un algorithme de simulation est détaillé en Annexe A et est disponible
dans le répertoire Github https://github.com/balsollier-lisa/BDM-generator
-for-bioimaging. Dans un deuxième temps, nous fournissons de nombreux exemples,
que nous pensons être appropriés pour modéliser des dynamiques réelles de molé-
cules.

Chapitre 2 : Application à l’étude de la dynamique de données réelles


En nous basant sur des ensembles de données réelles de microscopie de fluores-
cence, nous calibrons notre modèle pour mimer les dynamiques conjointes de deux
types de protéines, Langerin et Rab-11, en interaction au niveau de la membrane
plasmique. Notre approche nécessite une étude empirique préalable afin de choisir
et de calibrer judicieusement les différents paramètres du modèle BDMM. Les pro-
téines de type Langerin issues de ces données réelles sont celles représentées à droite

19
Introduction

Figure 3 – Deux séquences simulées de trajectoires imitant la dynamique des pro-


téines présentées dans la figure 1. Les couleurs indiquent la marque de chaque parti-
cule, qui est ici le régime de mouvement suivi (bleu pour un mouvement brownien,
rouge pour un mouvement super-diffusif et vert pour un mouvement confiné).

de la figure 1. Après post-traitement, la séquence met en évidence une série de tra-


jectoires, chacune suivant des types de mouvement distincts. Elles sont distribuées
spatialement dans la cellule de manière spécifique, et se produisent à des intervalles
variables tout au long de la séquence. De plus, l’apparition de nouvelles particules
Langerin dépend de la position des protéines de type Rab-11 présentes. Cette des-
cription correspond bien à la dynamique d’un processus BDMM. Les trajectoires
observées pour la protéine Langerin sont illustrées sur la figure 2, qui ajoute, par
rapport à la figure 1, une marque pour chaque particule qui est ici son type de
mouvement.
Par la suite, nous calculons, à partir de ce jeu de données réelles, un ensemble
de descripteurs destinés à calibrer les paramètres du processus BDMM en vue de
produire des simulations imitant la dynamique réelle. Ces descripteurs nous permet-
tront aussi d’établir des caractéristiques de référence pour évaluer la pertinence des
séquences simulées obtenues. Enfin, nous simulons plusieurs séquences et démon-
trons qu’elles possèdent des caractéristiques comparables à celles observées dans les
séquences réelles. Deux simulations typiques de trajectoires mimant la dynamique
réelle sont présentées sur la figure 3. Nous comparerons ces deux simulations aux
données réelles de la figure 2.

20
2. Organisation de la thèse

Partie II : Estimation paramétrique et propriété LAN d’un processus


BDMM.

Cette partie correspond à l’article [BL24], soumis pour publication en 2024. Pour
cette raison, comme pour la partie précédente, elle est rédigée en anglais.

Chapitre 3 : Vraisemblance et propriété LAN d’un processus BDMM.


Dans ce chapitre, nous abordons l’inférence paramétrique des processus birth-
death-move avec mutations. Après avoir défini de manière plus formelle que dans
le chapitre 1 le processus BDMM, sa dynamique et ses différents ingrédients, nous
nous intéressons à l’inférence paramétrique de ces caractéristiques étant donnée une
seule réalisation du processus, sur un intervalle de temps fini. Dans une deuxième
section, nous exprimons la vraisemblance d’un processus BDMM, ainsi que des ga-
ranties théoriques en prouvant la normalité asymptotique locale (LAN) du modèle.
En notant Lt (ϑ) la vraisemblance du processus observé sur l’intervalle [0, t] et pa-
ramétré par ϑ ∈ R` , cette propriété LAN exprime que sous certaines conditions de
régularité, on a pour tout ϑ ∈ R` , t > 0, h ∈ R` et N ∈ N∗ :

LtN (ϑ + √h ) 1
log N
= hT M N,ϑ (t) − hT hM N,ϑ i(t)h + RemN,ϑ,h (t),
LtN (ϑ) 2

où RemN,ϑ,h (t) converge vers 0 en Pϑx0 -probabilité lorsque N tend vers +∞, M N,ϑ est
une martingale qui sera précisée dans le chapitre et Pϑx0 est la loi du processus sachant
que sa position initiale est x0 ∈ E, ie. X0 = x0 . Cette propriété implique l’optimalité
et la normalité asymptotique de l’estimateur du maximum de vraisemblance, avec
une matrice de covariance asymptotique explicite et estimable.

Chapitre 4 : Analyse du phénomène de colocalisation sur des données


simulées puis sur des données réelles.
Dans ce chapitre, une étude par simulation est réalisée, montrant les perfor-
mances de l’estimateur du maximum de vraisemblance de certains paramètres du
modèle, ainsi que l’estimation de la région de confiance associée. Le cadre est proche
de celui de l’ensemble de données réelles analysé par la suite, afin de fournir cer-
taines garanties sur la fiabilité des conclusions qui s’y rapportent. Ce jeu de données
est le même que celui présenté au chapitre 2, à savoir une séquence vidéo montrant
des protéines Langerin et des protéines Rab-11 en interaction dans une cellule vi-

21
Introduction

vante donnée. Comme détaillé dans le chapitre 2, leurs dynamiques sont cohérentes
avec la réalisation du processus BDMM. En nous appuyant sur ce modèle et l’esti-
mation de ses paramètres, nous quantifions le degré de colocalisation des protéines
Langerin avec les protéines Rab-11. L’ensemble des codes Python utilisés pour ob-
tenir les simulations et les résultats associés, ainsi que ceux associés aux données
réelles sont téléchargeables à partir du le répertoire Github https://github.com/
balsollier-lisa/Parametric-estimation-of-the-BDMM-process.

Partie III : Analyse du mouvement des trajectoires et détection des


instants de changement de régime.

Cette partie est rédigée en français. Elle correspond à un travail réalisé durant
la fin de ma thèse.

Pour mener à bien l’estimation paramétrique présentée dans la partie précédente,


il est nécessaire de connaître les instants de saut du processus. Les temps de saut
qui sont des instants de naissance (resp. de mort) sont faciles à identifier car il
suffit d’observer à quels moments le nombre d’individus présents a augmenté (resp.
diminué) de une unité. En revanche, les instants de mutation du processus sont
beaucoup plus difficiles à détecter. Dans toute cette partie, nous nous plaçons dans le
cas où la marque désigne le type de diffusion suivi par la particule. Nous supposons
de plus, que lorsqu’une particule se déplace entre deux sauts, ce mouvement se
fait indépendamment des autres particules, et que lors d’une mutation (qui est un
changement de type de diffusion ici), celle-ci a lieu indépendamment des positions
et des marques des autres particules. Le but de ce chapitre est d’estimer les instants
de mutation dans ce cas particulier mais aussi de déterminer les caractéristiques du
régime suivi par chaque particule entre ces instants.

Chapitre 5 : Modèles de Markov à états cachés et algorithme EM pour


classifier des trajectoires
On suppose dans ce chapitre qu’un ensemble de trajectoires a été observé à des
instants discrets. Le but est de classifier les différents morceaux de chacune des

22
2. Organisation de la thèse

trajectoires en fonction du régime de mouvement sous-jacent, et de déterminer les


paramètres des régimes de mouvement (coefficients de diffusion, drift, ...).
Pour chaque trajectoire, comportant n points d’un sous-ensemble Λ ⊂ Rd , notée :

Z = (z0 , z1 , . . . , zn ) ∈ Λn+1 ,

on associe n états cachés, qu’il s’agit d’estimer :

M = (m1 , . . . , mn ) ∈ Mn ,

où mi représente le type de mouvement suivi par la particule entre le point zi−1 et


zi (e.g. brownien, confiné, super-diffusif). Ceci se traduit schématiquement par le
graphe suivant :

États cachés : m1 m2 m3 ··· mn

Observations : z0 z1 z2 z3 ··· zn

Ce formalisme correspond à un modèle de Markov à états cachés. Nous recourons


par la suite à un algorithme EM (Expectation-Maximization) pour estimer les pa-
ramètres optimaux de chacun des types de mouvement puis l’algorithme de Viterbi
pour en déduire les états cachés. Dans le cas particulier où l’ensemble M des différents
types de mouvement possibles est M = {brownien, processus d’Ornstein-Ulhenbeck,
brownien dirigé}, nous montrons que les maxima nécessaires pour mettre en oeuvre
l’algorithme EM sont explicites, ce qui rend d’autant plus efficace l’utilisation de cet
algorithme.

Chapitre 6 : Applications sur des données simulées puis sur des don-
nées réelles.
Tout d’abord, nous nous intéressons à des données simulées, générées à l’aide de
l’algorithme de simulation du modèle BDMM présenté dans la partie I, dont nous ca-
librons les caractéristiques pour mimer au mieux la dynamique des particules réelles
que nous étudions dans la deuxième partie de ce chapitre. Cette dynamique pré-
sente les trois types de mouvement suivants : brownien, brownien dirigé et solution

23
Introduction

Figure 4 – Trajectoires de la figure 1 coloriées grâce aux résultats fournis par les
algorithmes EM et Viterbi, développés dans la partie III. Les couleurs indiquent la
marque de chaque particule, qui est ici le régime de mouvement suivi (bleu pour un
mouvement brownien, rouge pour un mouvement brownien dirigé et vert pour un
mouvement qui suit la solution d’un processus d’Ornstein-Ulhenbeck).

d’un processus d’Ornstein-Uhlenbeck. Nous présentons les résultats produits par


l’algorithme EM, pour l’estimation des paramètres théoriques caractérisant ces trois
mouvements dans divers scénarios. Par exemple, si toutes les trajectoires sont régies
par les mêmes paramètres, l’estimation est de très bonne qualité. C’est également
le cas si les paramètres propres à chaque trajectoire ne sont plus considérés comme
des inconnues. En revanche, si les paramètres de chacun des trois mouvements sont
propres à chaque trajectoire, ce qui revient au cas où on n’étudie qu’une seule tra-
jectoire, les conclusions sont en deça des résultats espérés et d’autres méthodes plus
dédiées sont plus efficaces [MBP+ 15].

Les résultats obtenus sur nos simulations s’avèrent précieux pour réaliser une
étude similaire sur le jeu de données réelles déjà étudié dans les chapitres 2 et 4. Si
on suppose que les paramètres de chacun des trois types de mouvement possibles
sont communs à toutes les trajectoires, l’algorithme EM converge bien et permet
d’estimer les états cachés (i.e. des types de mouvement suivis) grâce à l’algorithme
de Viterbi. La figure 4 illustre le résultat d’estimation obtenu et procure ainsi une
détection alternative à celle proposée par la méthode de [BVK19], présentée sur la
figure 2.

24
Part I

A generative model to simulate


the spatio-temporal dynamics of
biomolecules in cells.

25
Chapter 1

P RESENTATION OF THE
BIRTH - DEATH - MOVE PROCESS WITH
MUTATIONS

This chapter constitutes the first part of the article [BLSK23].

In this chapter, we give the precise definition of our stochastic process, and
we in particular list all ingredients needed to fully specify the model. An iterative
construction is presented in Section 1.2, clarifying how the dynamics proceeds, and
an effective simulation algorithm is formally detailed in the appendix A. In Sec-
tion 1.3, we provide numerous examples for the specifications of the model, that we
think are relevant for many real biomolecules dynamics.

1.1 Heuristic and notations


In order to mimic the dynamics of biomolecules, we consider a multitype birth-
death-move process with mutations, denoted by (Xt )t≥0 .This process is a generali-
sation of birth-death-move processes, as introduced in [LLG21]. In the following, to
avoid misunderstanding we rather use the term “transformation” instead of “muta-
tion”. This section describes the spatio-temporal dynamics of (Xt )t≥0 and introduces
some notation.
At each time t, Xt is a collection of particles located in a bounded set Λ of
R . Each particle is assigned a mark that represents a certain feature. We denote
d

by M the collection of possible marks. Through time, the particles move (possibly
depending on their associated mark and in interaction with each other) and three
sudden changes may occur, that we call “jumps” :
1. a “birth” : a new particle, assigned with a mark, may appear ;

27
Part I, Chapter 1 – Presentation of the birth-death-move process with mutations

2. a “death” : an existing particle may disappear ;


3. a “transformation” : the mark of an existing particle may change.

Example : In our biological application treated in Section 2.1 of Chapter 2, Λ


represents a cell in dimension d = 2 or d = 3. We observe inside this cell two
types of particles, associated to Langerin and Rab-11 proteins, and each of them
moves according to three different possible regimes : Brownian, directed or confined
motion. For this example, each particle is therefore marked out of 6 possibilities,
whether it is associated to Langerin (L) or Rab-11 (R), and depending on its motion
regime (1 to 3), so that M = {(L, 1), (L, 2), (L, 3), (R, 1), (R, 2), (R, 3)}. Through
time, each particle moves independently of the others according to its motion regime
and eventually a new particle may appear, an existing one may disappear, and the
motion regime of some particles may change.
We denote by n(Xt ) the number of particles at time t. Each particle xi ∈ Xt , for
i = 1, . . . , n(Xt ), is decomposed as xi = (zi , mi ) where zi ∈ Λ stands for its position
while mi ∈ M denotes its mark. Accordingly we have Xt ∈ (Λ × M)n(Xt ) . (Strictly
speaking the ordering of particles in Xt does not matter, because any permutation
of particles leads to the same collection of particles. We choose in this paper to
bypass this nuance and use the same notation as if Xt was a vector a particles, even
it is actually a set of particles.) Since the number of particles changes over time, the
stochastic process (Xt )t≥0 takes its values in the space

E= (Λ × M)n .
[

n∈N

To stress the fact that Xt is not a simple value but encodes the positions and marks
of a system of particles, we will say that this system at time t is in configuration Xt .
To fully specify the dynamics of (Xt )t≥0 , we need the following ingredients :
1. A system of equations (M ove) that rules the way each particle of Xt moves
continuously between two jumps. We will typically consider a system of sto-
chastic differential equations acting on the position of each particle, possibly
depending on their associated mark and in interaction with the other particles ;
2. Three continuous bounded functions β, δ and τ from E to [0, ∞), called birth,
death and transformation intensity functions respectively, that govern the wai-
ting times before a new birth, a new death and a new transformation. At each

28
1.2. Algorithmic construction

time t, we may interpret β(Xt )dt as the probability that a birth occurs in the
interval [t, t + dt], given that the system of particles is in the configuration Xt ,
and similarly for δ and τ .
3. Three transition probability functions that indicate how each jump occurs :
— pβ ((z, m)|x) : probability density function that the birth occurs at the
position z with the mark m, given that there is a birth and that the
system of particles is in configuration x at the birth time ;
— pδ (xi |x), for xi ∈ x : probability that the death concerns the particle xi
in x, given that there is a death and that the system of particles is in
configuration x at the death time ;
— pτ ((zi , mi ), m|x), for (zi , mi ) ∈ x : probability that the particle xi =
(zi , mi ) in x changes its mark and that this transformation leads to the
new mark m 6= mi , given that there is a transformation and that the
system of particles is in configuration x at the transformation time.
We provide in Section 1.3 some examples for the choice of these characteristics.
Finally, we will denote by T1 , T2 , . . . the jump times of the process and we agree
that T0 = 0.

1.2 Algorithmic construction


Assume we are given the characteristics of the process (Xt )t≥0 as introduced in
the previous section, that are the system of equations (M ove), the intensity functions
β, δ, τ , and the transition probability functions pβ , pδ , pτ . Then, starting from an
initial configuration X0 at time T0 = 0, we construct iteratively the process in the
time interval [0, T ] as follows. Here we set α = β + δ + τ to be the total intensity of
jumps.
1. Generate n(X0 ) continuous trajectories as solutions of (M ove) in the interval
[0, T − T0 ], given the initial conditions X0 . Denote (Yt )t∈[0,T −T0 ] these trajec-
tories.
2. By flipping a coin, test whether the jump time T1 occurs after T (this is with
probability p) or before T (this is with probability 1 − p), where
Z T −T0 !
p = exp − α(Yu )du .
0

29
Part I, Chapter 1 – Presentation of the birth-death-move process with mutations

— If T1 > T , then Xt = Yt−T0 for all t ∈ [T0 , T ], which completes the


simulation.
— Otherwise, we continue by generating T1 in [T0 , T ] and the associated
jump as in the following.
3. Generate T1 − T0 , given that T1 < T , according to the probability distribution

1 Z t
  
P(T1 − T0 < t|T1 < T ) = 1 − exp − α(Yu )du , 0 < t < T − T0 .
1−p 0

The process until the time T1 is then given by the generated trajectories, i.e.

(Xt )T0 ≤t<T1 = (Yt−T0 )T0 ≤t<T1 .

4. Draw which kind of jump occurs at T1 (we denote by XT1− the configuration
of the process just before the jump, which is YT1 −T0 by continuity of (Yt )) :
— this is a birth with probability β(XT − )/α(XT − ) ;
1 1

— this is a death with probability δ(XT − )/α(XT − ) ;


1 1

— this is a transformation with probability τ (XT − )/α(XT − ).


1 1

5. Generate the jump at t = T1 to get XT1 as follows :


— if this is a birth, generate the new particle x = (z, m) according to the pro-
bability density function pβ ((z, m)|XT − ). Then set XT1 = XT − ∪ (z, m) ;
1 1

— if this is a death, draw which particle xi ∈ XT1− to delete according to the


probability pδ (xi |XT − ), for i = 1, . . . , n(XT − ). Then set XT1 = XT − \ xi ;
1 1 1

— if this is a transformation, draw which particle xi = (zi , mi ) ∈ XT1− is


transformed and generate its transformation according to pτ ((zi , mi ), m|XT − ),
1
for i = 1, . . . , n(XT − ). Then set XT1 = (XT − \ (zi , mi )) ∪ (zi , m).
1 1

6. Back to step 1 with T0 ← T1 and X0 ← XT1 in order to generate the new


trajectories starting from XT1 and the next jump time T2 , and so on.
In the first step of the above construction, the trajectories are generated up to
the final time T . It is however very likely that the next jump occurs much before T
so that it would be sufficient and computationally more efficient to generate these
trajectories on a shorter time interval. We provide in Appendix A a formal algorithm
of simulation of Xt for t ∈ [0, T ], following the above construction and including the

30
1.3. Exemplified specifications of the model

latter idea. This algorithm has been implemented in Python and is available in our
GitHub repository.
From a theoretical side, note that the specific exponential form of the probabi-
lity distribution of the inter-jump waiting time in step 3 is necessary to imply the
interpretation of β, δ and τ explained in the previous section. This exponential form
also implies that (Xt )t≥0 is a Markov process, meaning that its future dynamics only
depends on its present configuration. We refer to [LLG21] for more details about
these theoretical aspects.

1.3 Exemplified specifications of the model

1.3.1 The inter-jumps motion


Recall that during an inter-jump period, the process (Xt ) has a constant cardi-
nality n = n(Xt ) and the marks of all its particles remain constant. We denote by
(Yt ) a system of n such particles (zi,t , mi ), for i = 1, . . . , n, where zi,t ∈ Λ represents
the position of the i-th particle at time t and mi ∈ M is its constant mark, that is

Yt = ((z1,t , m1 ), · · · , (zn,t , mn )).

In agreement with the construction of the previous section, the inter-jump trajectory
of each particle of (Xt ) will coincide with the n trajectories of (Yt ) during this period.
As a general example, we assume that (Yt ) follows the following system of sto-
chastic differential equation, starting at t = 0 at the configuration y0 ∈ (Λ × M)n ,

 dzi,t = vi (t, Yt )dt + σi (t, Yt )dBi,t , t ≥ 0, i = 1, . . . , n,
(M ove) :
 Y =y ,
0 0

where the drift functions vi take their values in Rd , the diffusion σi are non-negative
functions, and (Bi,t ), i = 1, . . . , n, are n independent standard Brownian motions in
Rd . Here, y0 , vi and σi are free parameters to be chosen.
Some conditions on the drift and diffusion functions are necessary to ensure the
existence and unicity of the solution of (M ove). This holds for instance if these func-
tions are Lipschitz [Øks13], a condition met for the following examples. In addition,
since each particle is supposed to evolve in the bounded set Λ of Rd , we need in

31
Part I, Chapter 1 – Presentation of the birth-death-move process with mutations

practice to force the trajectories of (M ove) to stay in Λ. This may be achieved by


reflecting the trajectories at the boundary of Λ.
In its general form, (M ove) allows the motion of each particle to depend on its
mark, but also on the position and mark of the other particles (that are part of Yt ).
We detail several examples below, that may be realistic for biological applications.

Example 1 (Brownian motions). If vi (t, Yt ) = 0 and σi (t, Yt ) = σ (for σ > 0)


is constant, then each particle follows a Brownian motion with the same diffusion
coefficient σ, independently of the other particles.

Example 2 (spatially varying diffusion coefficients). If vi (t, Yt ) = 0 and


σi (t, Yt ) = σmi (zi,t ), where σmi is a positive fonction defined on Λ, then each particle
follows an independent diffusive motion, where the diffusive coefficient depends on
the associated mark and may vary in space. For instance, assume that Λ = Λ1 ∪ Λ2
with Λ1 ∩ Λ2 = ∅ and that for m ∈ M,

σ1,m

if z ∈ Λ1 ,
σm (z) =
σ2,m if z ∈ Λ2 ,

where σ1,m > 0, σ2,m > 0. Then each particle with mark m follows locally in Λ1 a
Brownian motion with diffusion coefficient σ1,m and locally in Λ2 a Brownian motion
with diffusion coefficient σ2,m . Note that as such, σm is not Lipschitz and it needs to
be smooth so as to fit the theoretical setting. This may be achieved by taking the
convolution of σm by a bump function.

Example 3 (directed and confined motions). If vi (t, Yt ) = vmi (zi,t ) and


σi (t, Yt ) = σmi , where vmi is defined on Λ and σmi > 0, then each particle evolves
independently of each other with a drift and a diffusion coefficient that depend on
its mark. This example includes the directed motion considered in [BKV18] when
vmi (z) = vmi is a constant drift. It also includes the Ornstein-Uhlenbeck dynamics,
also considered in [BKV18], when vmi (zi,t ) = −λmi (zi,t − zi,0 ), where λmi > 0 can
be interpreted as a force of attraction towards the initial position zi,0 , leading to a
confined trajectory.

Example 4 (interacting particles). In this example, we show how we can include


interactions between the particles through a Langevin dynamics. To do so, we intro-
duce, for m, m0 ∈ M, pairwise interaction functions Φm,m0 , as considered in statistical

32
1.3. Exemplified specifications of the model

physics : For r > 0, Φm,m0 (r) represents the pairwise interaction between a particle
with mark m and a particle with mark m0 at a distance r apart. If Φm,m0 (r) = 0,
there is no interaction, if Φm,m0 (r) > 0 there is inhibition between the two particles
at distance r, and if Φm,m0 (r) < 0 there is attraction. Examples of inhibitive inter-
action functions can be found in [LLGM22]. The (overdamped) Langevin dynamics
associated to these interactions reads as (M ove) with σi (t, Yt ) = σmi , σmi > 0, and

vi (t, Yt ) = − ∇Φmi ,mj (kzi,t − zj,t k),


X

j6=i

where ∇ denotes the Gradient operator. Accordingly, each particle moves in a di-
rection that tend to decrease the value of the pairwise interaction function with the
other particles.

Example 5 (colocalized particles). Assume that some particles, say with mark
m, are thought to be colocalized with particles having the mark m̃. This means that
we expect the former to be localised nearby the latter and to follow approximately
the same motion. Specifically, to let the particle i with mark m be colocalized with
the particle j with mark m̃, we may simply define zi,t = zj,t +σi Bi,t , t > 0, where Bi,t
is a standard Brownian motion in Rd representing the deviation of the trajectory i
around the trajectory j, and σi > 0 quantifies the strength of this deviation. Here
zj,t may be defined as in the previous examples, for instance as the typical trajectory
of a particle with mark m̃.

1.3.2 The intensity functions


Recall that the intensity functions β, δ and τ rule the waiting times until the next
birth, death and transformation, respectively. Heuristically, the probability that a
birth occurs in the time interval [t, t+dt] given that the particles are in configuration
Xt is β(Xt )dt, and similarly for δ and τ . As a consequence these probabilities may
evolve over time according to the configuration of particles, making for instance a
death more likely to happen when there are many particles or a high concentration
of them in some region, due to competition. We provide some natural examples
below. For each example, any of β, δ or τ can be set similarly, even if we focus only
on one of them.

Example 6 (constant intensities). The simplest situation is when the intensity

33
Part I, Chapter 1 – Presentation of the birth-death-move process with mutations

functions are constant, for instance β(Xt ) = β with β > 0. Then births appear at
a constant rate and we can expect that in average β × (s − t) new particles appear
during the interval [s, t].

Example 7 (intensities depending on the cardinality). If δ(Xt ) = δn(Xt ),


with δ > 0, then the more particles there are, the more deaths we observe. This is a
natural situation when each particle is thought to have a constant death rate δ, so
that the total death intensity for the system of particles at time t is just the sum of
them, that is δn(Xt ).

Example 8 (spatially varying intensities). Assume that the mark of a particle


(say its motion regime) has more chance to change in some region of Λ than another,
then the transformation intensity τ may reflect this dependency. Let for instance
Λ = Λ1 ∪ Λ2 with Λ1 ∩ Λ2 = ∅ and define τ (Xt ) = τ1 n1 (Xt ) + τ2 n2 (Xt ) where
τ1 < τ2 and n1 (Xt ) (resp. n2 (Xt )) denotes the number of particles in Λ1 (resp. in
Λ2 ). Then for a given cardinality n(Xt ), the more proportion of particles in Λ2 , the
more transformations happen. Note that in order to be rigorous, we should consider a
continuous version of τ , which can be achieved by convolution with a bump function.

Example 9 (transformation due to colocalization). Assume that some m-


particles (that are the particles with mark m) can be colocalized with some m̃-
particles. Assume in addition that the particles are assigned a second mark that
encodes their motion regime (e.g. diffuse, confined or directed). Eventually, during
the dynamics of particles, a non-colocalized m-particle may become colocalized with
a m̃-particle, meaning that it becomes D-close to a m̃-particle, where D is some pres-
cribed colocalization distance. If so, we may expect that the motion regime of the
m-particle becomes similar as the m̃-particle, so that a transformation must occur.
Let nD,m,m̃ (Xt ) be the number of D-close pairs of particles with marks m and m̃,
whose motion regimes are different. Then we may define τ (Xt ) = τ nD,m,m̃ (Xt ), for
some τ > 0, so that a transformation (of motion regime here) is very likely to occur
when the aforementioned situation happen. Note that if τ is large, such transfor-
mation will quickly happen as soon as nD,m,m̃ (Xt ) = 1, and so nD,m,m̃ (Xt ) > 1 will
be unlikely to be observed. Here again a smooth version of τ can be introduced by
convolution to ensure its continuity.

34
1.3. Exemplified specifications of the model

1.3.3 The transition probability functions


We detail examples for the three possible transitions, in order below : births,
deaths and transformations.
For the births, remember that pβ ((z, m)|x) denotes the probability density func-
tion (pdf) that a particle appears at the position z with the mark m, given that the
system of particles are in configuration x. To set this probability, two approaches
are possible :
1. First drawing the mark m of the new particle with respect to some proba-
bility pβ (m|x), then the position of the new particle given its mark accor-
ding to some pdf pβ (z|x, m). This leads to the decomposition pβ ((z, m)|x) =
pβ (m|x)pβ (z|x, m).
2. First generating the position of the new particle with respect to some pdf
pβ (z|x), then its mark m given the position with probability pβ (m|x, z). This
leads to the decomposition pβ ((z, m)|x) = pβ (z|x)pβ (m|x, z).

Example 10 (uniform births). This is the simple example where the births do
not depend on the environment, are uniform in space and the marks are drawn
with respect to some prescribed probabilities pm , where m∈M pm = 1. The two
P

above approaches then coincide with pβ (m|x) = pβ (m|x, z) = pm and pβ (z|x, m) =


pβ (z|x) = 1/|Λ| for z ∈ Λ.

Example 11 (colocalized births). We adopt here the first approach above. We


first draw the marks independently of the environment by setting pβ (m|x) = pm
with m∈M pm = 1, as in the previous example. Second, in order to generate the
P

position of a new m-particle, thought to be colocalized with the m̃-particles, we


may use a mixture of isotropic normal distribution, centered at each m̃-particle,
with deviation σ > 0. Denoting by ñ(x) the number of m̃-particles in x and z̃i their
positions (i = 1, . . . , ñ(x)), this means that

1 ñ(x) 1
!
kz − z̃i k
p (z|x, m) =
β
exp (1.1)
X
√ − .
ñ(x) i=1 (σ 2π)d 2σ 2

Note that to be rigorous pβ (z|x, m) should be restricted to Λ with a proper nor-


malisation, otherwise some particles might be generated outside Λ. We omit these
details.

35
Part I, Chapter 1 – Presentation of the birth-death-move process with mutations

Example 12 (spatially dependent new marks). We may adopt the second


approach by first generating a uniform position for the new particle, i.e. pβ (z|x) =
1/|Λ| for z ∈ Λ, and second by drawing the mark according to the generated position.
Let for instance Λ = Λ1 ∪ Λ2 with Λ1 ∩ Λ2 = ∅ and set

p1,m

if z ∈ Λ1 ,
pβ (m|x, z) =
p2,m if z ∈ Λ2 ,

where m∈M p1,m = m∈M p2,m = 1. Then depending on the position, the distribu-
P P

tion of the marks may be different.

We now focus on the death transition, namely the probability pδ (xi |x), for xi ∈ x,
that the particle xi in x disappears when there is a death.
Example 13 (uniform deaths). The simplest example is when a death occurs
uniformly over the existing particles, that is pδ (xi |x) = 1/n(x) for i = 1, . . . , n(x).
Example 14 (deaths due to competition). We may imagine that, due to compe-
tition, a particle is more likely to disappear if there are too many neighbours around
it. Let nD (xi ) be the number of neighbouring particles around xi within distance
D > 0. To take into account the competition at distance D > 0, we may define
Pn(x)
pδ (xi |x) = nD (xi )/ j=1 nD (xj ). Similarly, if relevant, we may count the number of
neighbours of a certain mark only.

Finally, we focus on pτ ((zi , mi ), m|x), for (zi , mi ) ∈ x, which is the probability


that the particle xi = (zi , mi ) in x changes its mark from mi to m 6= mi , when a
transformation happens. Similarly as for the birth transition probability, it is natural
to decompose this probability as

pτ ((zi , mi ), m|x) = pτ ((zi , mi )|x)pτ (m|x, (zi , mi )),

where pτ ((zi , mi )|x) represents the probability to choose the particle (zi , mi ) in the
configuration x, in order to change its mark, and pτ (m|x, (zi , mi )) is the probability
to choose the new mark m given that the transformed particle is located at zi with
mark mi .
Example 15 (transformations independent on the environment). A typical
situation is when the particle to transform is drawn uniformly over the existing

36
1.3. Exemplified specifications of the model

particles, that is pτ ((zi , mi )|x) = 1/n(x), and the transformation is carried out
independently on the environment, according to a transition matrix with entries
pm,m0 ≥ 0, m, m0 ∈ M, representing the probability to be transformed from mark m
to mark m0 . Here, for all m ∈ M, we assume pm,m = 0 in order to ensure a genuine
transformation, and of course m0 ∈M pm,m0 = 1. With this formalism, we thus have
P

pτ (m|x, (zi , mi )) = pmi ,m .


Example 16 (spatially dependent transformations). To make the previous
example spatially dependent, introduce pm (z), a pdf in Λ representing the locations
in Λ where a particle with mark m is more or less likely to be transformed. Then
we may set
ni (x) pmi (zi )
pτ ((zi , mi )|x) = Pni (x) ,
n(x) j=1 pmi (zj(mi ) )
(m )
where ni (x) denotes the number of particles with marks mi in x and zj i for
j = 1, . . . , ni (x), their positions. In this expression ni (x)/n(x) is a weight accounting
for the prevalence of mark mi in x and the sum in the denominator is a normalisation
so that the probabilities sum to 1. Note that if pm (z) is the uniform pdf on Λ, then
we recover the uniform distribution pτ ((zi , mi )|x) = 1/n(x). Furthermore, once the
particle is chosen as above, we may apply a spatially dependent transformation as
follows. Let Λ = Λ1 ∪ Λ2 with Λ1 ∩ Λ2 = ∅ and let two different transition matrices
(1) (2)
with respective entries pm,m0 and pm,m0 , for m, m0 ∈ M. Then we may set

p(1)

mi ,m if zi ∈ Λ1 ,
pτ (m|x, (zi , mi )) =
p(2) if zi ∈ Λ2 .

mi ,m

Accordingly, the transformation does not follow the same distribution, whether the
chosen particle to be transformed is located in Λ1 or Λ2 .
Example 17 (transformation due to colocalization). Assume that we are in the
same situation as in Example 9 where m-particles can be colocalized to m̃-particles.
We assume like in this example that a transformation occurs if nD,m,m̃ (Xt ) ≥ 1,
where nD,m,m̃ (Xt ) denotes the number of D-close pairs of particles with marks m and
m̃, whose motion regimes are different. Then, when a transformation happens, we
may choose the m-particle to be transformed uniformly over those m-particles that
are D-close to a m̃-particle with a different motion regime. Then the transformation
makes the motion regime of the selected m-particle similar as the motion regime of

37
Part I, Chapter 1 – Presentation of the birth-death-move process with mutations

its closest m̃-particle.

1.4 Conclusion
In this chapter, we have presented the dynamics of the BDMM process, as well as
an algorithm for simulation. This process is fully described by 3 main ingredients : 1)
a stochastic equation that governs the motion of particles, 2) jump intensities that
inform about the probability of a new particle appearing or a particle disappearing
or changing regime, 3) transition kernels that control where new particles appear,
select a particle to disappear or change regime to a new state. We then presented a
number of examples to explain how these three ingredients can be set, depending on
the target dynamics. In the next chapter, we present a methodological approach for
calibrating the parameters involved in these three ingredients to faithfully represent
the dynamics of Langerin and Rab-11 proteins at the surface of a cell.

38
Chapter 2

A PPLICATION TO THE STUDY OF THE


DYNAMICS OF REAL DATA

This chapter constitutes the second part of the article [BLSK23]. Supplementary
materials, including the Python code for simulation, the raw data and some further
simulated sequences, are available in our online GitHub repository at https://
github.com/balsollier-lisa/BDM-generator-for-bioimaging.
In this chapter, we demonstrate the potential of our model presented in the
previous chapter for processing real data. In Section 2.1.1, we start by the inspection
of a real dataset in order to judiciously calibrate the different parameters of the
BDMM model to be in agreement with this example. In Section 2.1.2, we generate
several simulated sequences and show that they exhibit comparable features as those
observed in the real sequence.

2.1 Application to the joint dynamics of Langerin


and Rab-11 proteins
2.1.1 Description of the dataset
The dataset we consider comes from the observation by a 3D multi-angle TIRF
(total internal reflection fluorescence) microscopy technique of the intracellular traffi-
cking of YFP Langerin and m-Cherry Rab-11 proteins in a RPE1 living cell [BGM+ 14],
specifically projected along the z-axis onto the 2D plane close to the plasma mem-
brane. This provides a 2D image sequence of 1199 frames, each lasting 140 ms and
showing the simultaneous locations of the two types of proteins. The two images
at the top of Figure 2.1 depict the first frame of the raw sequence for the Lange-
rin fluorescent channel and the Rab-11 fluorescent channel, respectively, recorded
simultaneously using a dual-view optical device. Note that the cell adheres on a

39
Part I, Chapter 2 – Application to the study of the dynamics of real data

fibronectin micropattern, which constrains intracellular constituents such as cytos-


keleton elements and gives a reproducible shape, explaining the “umbrella” shape of
the cell. These raw sequences are post-processed following [PKB+ 08, PBB+ 14], then
each bright spot is represented by a single point, and we apply the U-track algorithm
[JLM+ 08] to estimate particle trajectories. The bottom images of Figure 2.1 show
the resulting trajectories for the Langerin channel and the Rab-11 channel, respec-
tively. These trajectories have been further analysed by the method developed in
[BKV18] to classify them into three diffusion regimes : Brownian, directed and confi-
ned, which corresponds to the blue, red and green colors, respectively, in Figure 2.1.
To be more specific in the analysis of all trajectories, we fit three parametric models
to each of them, following [BKV18], depending on their regime :
1. For a Brownian regime (in blue) : a Brownian motion,
2. for a directed motion regime (in red) : a Brownian motion with constant drift,
3. for a confined motion regime (in green) : an Ornstein-Uhlenbeck process.
Each trajectory has its individual parameters, estimated by maximum likelihood
[LS13]. Furthermore, some trajectories may change from one regime to another,
which corresponds to a “transformation” in the BDMM model that will be specified
in the next section.
Figure 2.2 summarises different features of the obtained trajectories for the Lan-
gerin sequence (the same characteristics have been analysed for the Rab-11 sequence,
but are not detailed here). The histograms at the bottom display the duration of all
trajectories (in frames), according to their regime. We can observe that the (blue)
Brownian and (red) directed trajectories have quite a short lifetime in average, in
comparison with the confined trajectories (in green). The top-right boxplots re-
present the distribution of the number of particles per frame, according to their
regime : there is a majority of Brownian motions, followed by confined motions
and a minority of directed motions. Finally, the top-left circular histogram aims
at depicting the orientation of the drift vectors for the directed (red) trajectories.
Specifically, for this plot, we have recorded the deviation of the drift angle (in de-
grees) with respect to the direction towards the center of the cell. For instance this
deviation is 0◦ if the drift goes towards the center, and 180◦ if it goes in the opposite
direction. It appears from this plot that most deviation angles are around 0◦ or
180◦ , meaning that the red trajectories mainly move in a radial direction going to
(or starting from) the center of the cell.

40
2.1. Application to the joint dynamics of Langerin and Rab-11 proteins

A B

C D

Figure 2.1 – A : first frame of the raw sequence showing in bright spots the
location of Langerin proteins ; B : same as A for the Rab-11 proteins ; C : Set of
all trajectories detected and tracked over the sequence of Langerin proteins colored
by their estimated motion regime (Brownian in blue, directed motion in red and
confined motion in green) ; D : same as C for the Rab-11 proteins

41
Part I, Chapter 2 – Application to the study of the dynamics of real data

Figure 2.2 – Descriptors of the Langerin trajectories of the real-data sequence.


Top-left : circular histogram of the deviation angle (from the direction towards the
center of the cell) of the drifts of the directed trajectories. Top-right : boxplots of
the number of trajectories per frame, according to their regime (blue : Brownian,
red : directed motion, green : confined motion). Bottom : histograms of the lifetime
(in frames) of each trajectory according to its regime (same color label)

The above descriptors will be helpful to calibrate the parameters of the BDM
model in the next section and they will also serve as benchmarks to evaluate the
quality of our simulations. However it is important to keep in mind that they come
with some approximations and errors induced by imperfect tracking algorithms. In
particular, no trajectory can last less than 10 frames in the data, which is a minimal
length of detection for our tracking method. It is also clear in the bottom plots of
Figure 2.1, that some directed trajectories appear wrongly in blue, which can be
explained by the multiple testing procedure of [BKV18] that aims at minimizing
the number of false positives (that are bad green or bad red trajectories) to the
detriment of possibly too many false negatives (that are wrong blue trajectories).

42
2.1. Application to the joint dynamics of Langerin and Rab-11 proteins

Table 2.1 – Total number of births and deaths of trajectories observed in the
realdataset sequence, according to the type of proteins and the motion regime.

Brownian Directed Confined Total


Langerin 603 78 66 747
Births 1248
Rab-11 393 24 84 501
Langerin 602 77 89 768
Deaths 1282
Rab-11 395 26 93 514

Table 2.2 – Total number of regime transformations observed in the realdataset


sequence of Langerin trajectories.

From \ To Brownian Directed Confined


Brownian 0 0 9
Directed 0 0 1
Confined 5 0 0

Concerning the births and deaths of trajectories, we summarize in Table 2.1 their
total numbers observed in the real-dataset, according to the type of proteins and
motion regime. The number of regime transformations is in turn given in Table 2.2 for
the Langerin proteins. For the Rab-11 proteins, only one switching from a Brownian
motion to a confined motion was observed during the sequence.
To address in detail these jumps dynamics, we leverage the study carried out
for the same dataset in [LLG21], where it has been concluded that for each type
of proteins and motion regimes, the birth intensity is constant, like in Example 6
of Chapter 1, while the death intensity is proportional to the number of existing
particles, like in Example 7. Given the small number of observed motion regime
transformations, its intensity can also be considered as constant. Concerning the
transition probability functions, the deaths occur uniformly over all existing par-
ticles, like in Example 13. As to the birth transition, there is no reason to choose
another density than the uniform distribution over the cell for the Rab-11 proteins
(Example 10). But due to colocalization (as observed for this dataset in [LPZK20]),
the birth density for the Langerin positive structures can be approximated by a

43
Part I, Chapter 2 – Application to the study of the dynamics of real data

mixture between a uniform distribution, for 93% of the Langerin births, and a co-
localized density around the existing Rab-11 vesicles, like in Example 11, for 7% of
the Langerin births. These proportions, along with the other parameters, have been
estimated by maximum likelihood, as presented in Chapter 4. Note however that
at this step, the goal is to provide a guideline to set the parameters of the BDM
model in order to generate realistic realisations, as carried out in the next section.
For this reason, any alternative estimation method or biological expertises to set the
parameters could be appropriate.

2.1.2 Simulation of synthetic sequences


2.1.2.1 Model parameters setting

Based on the data analysis of the previous section, we are now in position to
specify all characteristics of the BDMM process presented in Chapter 1, so as to
mimic the joint dynamics of Langerin/Rab-11 proteins within a cell. To make the
connection with the theoretical notation, the region of interest Λ represents the
cell in dimension d = 2. Each particle in Λ will be marked by a label from the
set M = {(L, 1), (L, 2), (L, 3), (R, 1), (R, 2), (R, 3)}, where L stands for the Langerin
proteins, R for the Rab-11 proteins, and the number 1, 2 or 3 indicates the motion
regime of the particle : Brownian, directed or confined, respectively.
Concerning the motion of each trajectory, it follows the regime indicated by
its mark and is in agreement with the observed trajectories from the real-dataset
detailed in the previous chapter, see also Examples 1 and 3 :
— For a Brownian motion, we draw the diffusion coefficient according to the
empirical distribution of the diffusion coefficients estimated from the Brownian
motions of the real-dataset, for the same type of proteins (L or R) ;
— For a directed motion, we generate a Brownian motion with constant drift,
with the same strategy for the choice of the diffusion coefficient, and where the
drift vector is chosen as follows : it is by default oriented towards the center
of the cell, this orientation being subjected to a deviation drawn from the
empirical distribution depicted in the top-left circular histogram of Figure 2.2.
In addition, its norm is drawn from the empirical distribution of the drift
norms observed from the real-dataset. Here again, each set of parameters is
distinct for the Langerin and Rab-11 proteins ;

44
2.1. Application to the joint dynamics of Langerin and Rab-11 proteins

— For a confined motion, we generate an Ornstein-Uhlenbeck process with diffu-


sion coefficient 0.4 for all particles (which is the average from the real-dataset),
and parameter λ = 5.96 for the Langerin proteins, and λ = 7.41 for the Rab-11
proteins.
In these values, the unit is pixels, and one pixel is 160 × 160 nm2 in our images.
Concerning the intensity functions, we set the birth intensity and the transfor-
mation intensity to constant values, as concluded from the real-data analysis. In
agreement with Table 2.1, the total birth intensity can be estimated by β(x) =
1248/167.86 = 7.43, whatever the configuration x of particles is, because 1248 is the
total number of observed births and 167.86 is the total time length of the sequence
(in seconds). Similarly we set τ (x) = 16/167.86 = 0.095 since 16 transformations
have been observed in the real sequence. For the death intensity, for each mark
m ∈ M, we let it proportional to the number of particles, that is δm nm (x), where
nm (x) is the number of particles with mark m in the configuration x and δm has
been estimated from the real-dataset as follows : δm = 0.17 if m = (L, 1), δm = 0.14
if m = (L, 2), δm = 0.07 if m = (L, 3), δm = 0.21 if m = (R, 1), δm = 0.25 if
m = (R, 2), and δm = 0.08 if m = (R, 3). The total death intensity for the configu-
ration x of particles is then δ(x) = m∈M δm nm (x).
P

Finally we set the transition probability functions as follows. For the death tran-
sition, the probability to kill the particle xi = (zi , mi ) in the configuration x is set
to
δmi
pδ ((zi , mi )|x) = ,
δ(x)
which means that we first draw the mark m with probability δm nm (x)/δ(x) and then
the particle uniformly among all existing particles with mark m. For the transfor-
mation transition, we first select the type of proteins to transform with probability
15/16 for Langerin and 1/16 for Rab-11, in line with the transformations rates ob-
served in the real-sequence, second we choose a particle uniformly among all existing
particles of this type, and third, as in Example 15 of Chapter 1, we apply a regime
transformation with respect to the following transition matrix (from the regime in
rows to the regime in columns) :
1 2 3
 
1  0 1/4 3/4 
2 1/2 0 1/2 .
 
 
3 1 0 0

45
Part I, Chapter 2 – Application to the study of the dynamics of real data

This matrix is in agreement with Table 2.2 concerning the Langerin proteins, where
we have added some possible transitions from regime 1 to 2, and from regime 2 to
1, that appear to us likely to occur, even if they were not observed in the (quite
rare) transformations in the real-sequence. The same transition matrix has been set
for the Rab-11 proteins, since there is not enough observed transformations in the
real-sequence (only one) to design a finer choice.
It remains to set the birth transition probability. First, we select which type
of protein to create : following Table 2.1, it is a Langerin protein with probability
747/1248 and a Rab-11 protein with probability 501/1248. If the selected type is
Rab-11, then it is generated uniformly in the cell with regime 1 with probability
0.784, 2 with probability 0.048 and 3 with probability 0.168, which corresponds to
the relative proportion of births of each regime over all births for the real Rab-11
sequence. If the selected type is Langerin, then we flip a coin for colocalization with
probability p = 0.07. If there is no colocalization, then the new Langerin protein
is generated uniformly in the cell with regime 1 with probability 0.807, 2 with
probability 0.104 and 3 with probability 0.088 (the observed relative proportions of
births). If there is colocalization, then the new Langerin protein is generated around
an existing Rab-11 protein according to the density (1.1) (page 35) in Example 11
of Chapter 1, where σ = 1.1. In this case, the regime of the new Langerin protein
and its drift vector for a directed motion are similar as the those of its colocalized
Rab-11 protein.

2.1.2.2 Analysis of resulting simulations

We have generated 100 sequences following the model of the previous section,
during the same time length as the real-sequence of Section 2.1.1, that is 167.86
seconds for 1199 frames. Some descriptors concerning the generated Langerin tra-
jectories coming from two simulated sequences are depicted in Figures 2.3 and 2.4,
that are to be compared with the similar outputs of the real-data in Figures 2.1 and
2.2. The results for other simulated sequences can be seen in our GitHub repository.
We have also summarized the mean number of births and deaths over the 100 si-
mulated sequences in Table 2.3, to be compared with Table 2.1. Both graphical and
quantitative results demonstrate that our model is able to create a joint dynamics
with comparable features as those observed in the real-data sequence.

46
2.2. Conclusion and perspectives

Figure 2.3 – Descriptors of the Langerin trajectories of a first simulated sequence.


Top-left : set of trajectories, coloured according to their motion regime (blue : Brow-
nian, red : directed, green : confined). Top-right : boxplots of the number of trajecto-
ries per frame, according to their regime (same color label). Bottom : histograms of
the lifetime (in frames) of each trajectory according to its regime (same color label)

2.2 Conclusion and perspectives

We have leveraged an original stochastic model, namely a multitype birth-death-


move process with transformations, in order to simulate biomolecules dynamics wi-
thin a cell. This stochastic process not only models the individual trajectory of par-
ticles with any Markovian dynamics, but it is also able to generate the appearance
(i.e., birth), disappearance (i.e., death) and regime switching (i.e., transformation)
of each trajectory over time. Importantly, interactions between particles can be in-
cluded, accounting for the possible colocalization phenomenon. The model is very
flexible and is specified thanks to three sets of parameters : 1) a system describing
the set of trajectories (typically a system of stochastic differential equations) ; 2) the
intensity functions, ruling the waiting time before a new appearance, a disappea-
rance or a switching ; 3) the transition probability functions, driving where a new

47
Part I, Chapter 2 – Application to the study of the dynamics of real data

Figure 2.4 – Descriptors of the Langerin trajectories of a second simulated se-


quence, as in Figure 2.3

particle appears when there is a birth, which particle disappears when there is a
death, and which particle switches its regime (and how) when there is a transfor-
mation. Numerous examples of these model specifications have been detailed. As
an illustration, we demonstrated the relevance of this approach by generating the
joint dynamics of Langerin/Rab-11 proteins within a cell, based on a preliminary
data-based analysis in order to finely calibrate the model.
Since the model is very flexible, an important step is the choice of model charac-
teristics and parameters. The calibration carried out for our illustration is specific
to the application at hand, and of course another calibration must be carried out for
another application. In our case, we used one observed sequence of Langerin/Rab-11
proteins. In order to improve the choice of parameters, a deeper empirical study ba-
sed from several image sequences might help calibrating robustly the model. Once
the parameters are fitted, the simulation of a sequence is quite fast : about one
minute on a regular laptop for the generation of 2000 frames containing each about
70 trajectories in interaction. In general terms, the bottleneck is the simulation of

48
2.2. Conclusion and perspectives

Table 2.3 – Mean total number of births and deaths of trajectories per sequence,
over 100 simulated sequences.

Brownian Directed Confined Total


Langerin 581 85 76 742
Birth 1239
Rab-11 391 22 83 496
Langerin 584 86 77 747
Death 1248
Rab-11 397 23 80 500

all trajectories between two jumps : if each particle moves independently of the
others, this scales linearly with the number of particles and parallelization is easy
to set up. When complicated interactions are introduced between particles, then the
simulation of all trajectories scales badly with the number of particles. As a restric-
tion, due to the Markovian framework ensuring the theoretical well-posedness of the
model, anomalous trajectories [ASP+ 19, MGVGM+ 21, KWFA18] are not allowed
in theory, though the algorithmic construction in Section 1.2 of Chapter1 does not
rule out their introduction. However a rigorous understanding of the model in this
setting remains challenging and constitutes an exciting perspective. In an effort to
generate even more realistic image sequences, we may consider to blur the system
of generated particles using the point spread function, and to add some noise and
background, as carried out for instance in [LCB+ 20]. In relation, additional features
could be computed from both the real-image sequence and the synthetic ones in
order to strengthen the quality assessment of the generator.

49
Appendix of Part I

51
Annexe A

S IMULATION ALGORITHM

We provide in this appendix a formal algorithm to simulate a birth-death-move


process with mutations (or transformations), following the construction of Sec-
tion 1.2 of Chapter 1. Its implementation is available in our GitHub repository at
https://github.com/balsollier-lisa/BDM-generator-for-bioimaging and in
the second section of this appendix. It is a refinement of the algorithm introduced
in [LLG21] for a birth-death-move process (without transformations). The idea is
to generate the inter-jump move on a small time length ∆, then to test whether
a jump has occurred during this period (this is with probability p in the following
Algorithm 1). If so, we generate the jump time and the jump. If not, we continue
the simulation of the inter-jump move on a further time length ∆, test whether a
jump has occurred, and so on. The algorithm is valid whatever ∆ > 0 is, but an
efficient choice is to set a small value for ∆. A default recommandation is to set ∆ as
the discretisation step used to simulate the trajectories in the Algo.M ove algorithm
(which is an input of our algorithm, see below).
We let as in Chapter 1 α = β + δ + τ and T0 = 0. We denote in Algorithm 2
XT − the configuration just before the jump time Tj . In order to run Algorithms 1
j
and 2, we need the following inputs :

— T > 0 : final time of simulation ;


— X0 ∈ E : initial configuration of particles ;
— ∆ > 0 : small time length for piecewise simulation ;
— β, δ, τ : intensity functions of births, deaths and transformations ;
— pβ , pδ , pτ : transition probability for a birth, a death and a transformation ;
— Algo.M ove(y0 , ∆) : algorithm that returns, for y0 ∈ E and ∆ > 0, n(y0 )
(discretised) trajectories on [0, ∆] following the system of SDEs (M ove) with
initial configuration y0 .

53
Part I, Appendix A – Simulation algorithm

Algorithm 1: Simulation on the time interval [0, T ]


set t = 0 and j = 0 ;
while t < T do
set k = 1 ;
while k 6= 0 do
set ∆j = min(∆, T − Tj − (k − 1)∆) ;
generate (Ys )0≤s≤∆j by Algo.M ove(XTj +(k−1)∆ , ∆j ) ;

 R 
set p = exp − 0 j α(Yu )du ;
generate U ∼ U ([0, 1]);
if U ≤ p then
set Xs = Ys−Tj −(k−1)∆ for
s ∈ [Tj + (k − 1)∆, Tj + (k − 1)∆ + ∆j ] ;
if ∆j = T − Tj − (k − 1)∆ then
k=0;
t←T ;
else
k ←k+1 ;
end
else
generate the waiting time τ according to the distribution

P (τ < s|(k − 1)∆ < τ < (k − 1)∆ + ∆j )


 R s−(k−1)∆ 
1 − exp − 0 α(Yu )du
= , ∀s ∈ [(k−1)∆, (k−1)∆+∆j ] ;
(1 − p)

set Tj+1 = Tj + τ and Xs = Ys−Tj −(k−1)∆ for


s ∈ [Tj + (k − 1)∆, Tj+1 [ ;
generate XTj+1 by Algorithm 2 given XT − = YTj+1 −Tj −(k−1)∆ ;
j+1

k=0;
t ← Tj+1 ;
j ←j+1 ;
end
end
end

54
Algorithm 2: Simulation of the jump at t = Tj+1 given XT −
j+1

generate U ∼ U ([0, 1]) ;


if U ≤ β(XT − )/α(XT − ) then
j+1 j+1

generate a new particle (z, m) according to pβ ((z, m)|XT − );


j+1

set XTj+1 = XT − ∪ (z, m);


j+1

else
if U ≤ (β + δ)(XT − )/α(XT − ) then
j+1 j+1

sample xi ∈ XT − according to pδ (xi |XT − );


j+1 j+1

set XTj+1 = XT − \ (z, m);


j+1

else
sample xi = (zi , mi ) ∈ XT − and m ∈ M according to
j+1

p ((zi , mi ), m|XT − );
τ
j+1

set XTj+1 = (XT − \ (zi , mi )) ∪ (zi , m);


j+1

end
end

55
Part II

Parametric estimation and LAN


property of a BDMM process.

57
Chapter 3

L IKELIHOOD AND LAN PROPERTY OF


A BDMM PROCESS .

This chapter constitutes the first part of the submitted article [BL24]. We start
by presenting in a formal way the definition of the BDMM process. For this rea-
son, some considerations may be redundant with Chapter 1, although the setting is
slightly different. The main results are stated in Section 3.2 : we derive the likelihood
expression of the model and we prove its LAN property under mild assumptions,
that we prove to be satisfied for the examples presented in Section 3.1.3, under mild
hypotheses. Appendices C and D contain the proofs and technical lemmas.

3.1 Definition of the BDMM process

3.1.1 State space


We denote by (Xt )t≥0 the BDMM process. At each time t ≥ 0, Xt describes the
configuration of a set of marked particles. Each particle x ∈ Xt reads x = (z, m)
where z ∈ Λ ⊂ Rp+q encodes the spatial location of the particle in Rp , p ≥ 1, along
with its possible continuous mark in Rq , q ≥ 0, and where m ∈ M is a discrete mark
(or label), M being the finite set of possible labels. In the following, we set d = p + q,
so that Λ ⊂ Rd .
At each time t, Xt represents the set of all alive particles, where the ordering
does not matter and the cardinality may change over time. For this reason, for any
n ≥ 1, we introduce the natural projection

Πn : (x1 , . . . , xn ) ∈ (Λ × M)n 7→ {x1 , . . . , xn } (3.1)

that identifies two elements (x1 , . . . , xn ) and (y1 , . . . , yn ) of (Λ × M)n if there exists

59
Part II, Chapter 3 – Likelihood and LAN property of a BDMM process.

a permutation π of {1, . . . , n} such that xi = yπ(i) for any 1 ≤ i ≤ n.


We set for any n ≥ 1, En = Πn ((Λ × M)n ). The state space of Xt for t ≥ 0 is
then
E=
G
En ,
n≥0

where E0 = {Ø} consists of the empty configuration.


The cardinality of a configuration x ∈ E will be denoted by n(x), so that x ∈
En(x) , and we write

x = {x1 , . . . , xn(x) } = {(z1 , m1 ), . . . , (zn(x) , mn(x) )},

where zi ∈ Λ and mi ∈ M. In the following we will sometimes assimilate (Λ × M)n


with Λn × Mn for convenience, so that we may also write x = {(z, m)} where z =
(z1 , . . . , zn(x) ) and m = (m1 , . . . , mn(x) ). Similarly, we will write the configuration at
time t of the BDMM process in either way

Xt = {x1,t , . . . , xn,t } = {(z1,t , m1,t ) . . . , (zn,t , mn,t )} or Xt = {(Zt , mt )},

where n = n(Xt ). Moreover, for x ∈ En and (z, m) ∈ Λ × M, we write x ∪ (z, m)


for {x1 , . . . , xn , (z, m)} ∈ En+1 , and for n ≥ 1 and 1 ≤ i ≤ n, we write x\xi for
{x1 , . . . , xi−1 , xi+1 , . . . , xn } ∈ En−1 .
We equip E with the Borel σ-algebra E and we endow E with the distance d1
defined for x and y in E such that n(x) ≤ n(y) by
 
n(x)
1 
d1 (x, y) = min (kxi − yπ(i) k ∧ 1) + (n(y) − n(x)) ,
X
n(y) π∈Sn(y) i=1

with d1 (x, Ø) = 1 and where Sn denotes the set of permutations of {1, . . . , n}. This
distance makes in particular the function x 7→ n(x) continuous on E, and further
implies some nice topological properties for (E, d1 ), see [SX08] and [LLGM22] for
details.

3.1.2 Dynamics of a BDMM process


The dynamics of a BDMM process alternates continuous motions and jumps.
Inter-jumps motions concern the location and/or the continuous mark of all alive

60
3.1. Definition of the BDMM process

particles, that move in Λ. Jumps are of three types : either a birth (when a new
particle appears), or a death (when an existing particle disappears), or a mutation
(when an existing particle changes its label). Accordingly, the dynamics is based on
the three following elements :

1. A continuous homogeneous Markov process (Yt )t≥0 on E that drives the mo-
tion of all particles of (Xt )t≥0 between two jumps. This process will not affect
the label of the particles, neither their cardinality. Given an initial condition
Y0 = x, (Yt )t≥0 will be defined as the solution of a stochastic differential
equation, as described and exemplified in Section 3.1.3.3.
2. Three continuous non-negative functions β, δ and τ on E, that refers respec-
tively to the birth, death and mutation intensities. These functions govern
the waiting times between the jumps of (Xt )t≥0 . Heuristically, the probability
that a birth occurs in the interval [t, t + dt] given that the particles are in the
configuration Xt à time t is β(Xt )dt, and similarly for δ and τ . We will denote
α = β + δ + τ the total jump intensity of the process, that we assume to be
bounded.
3. Three transition kernels Kβ , Kδ , and Kτ from E × E to [0, 1], that specify
how a jump occurs when it happens. For example, given that a birth occurs
in a configuration x, Kβ (x, A) is the probability that the new configuration
x ∪ (z, m) belongs to A ∈ E, where (z, m) denotes the new particle, and
similarly for Kδ and Kτ .

Details and examples about these three basic characteristics of the process are pro-
vided in the next section.
Let us specifically describe the algorithmic definition of the process. This ite-
rative construction follows [LLG21] and [LLGM22], and may serve as a simulation
(i)
procedure, see [LLG21] for details. Let (Yt )t≥0 , i ≥ 0, be a sequence of processes
on E, identically distributed as (Yt )t≥0 . Starting from the initial configuration X0
at time T0 = 0, we iteratively build the process as follows.
(0)
i) Given X0 , generate the n(X0 ) continuous trajectories of (Yt )t≥0 .
(0)
ii) Given X0 and (Yt )t≥0 , generate the first inter-jump time T1 − T0 according
to the cumulative distribution function
 Z t 
F1 (t) = 1 − exp − α(Yu0 )du , t > 0. (3.2)
0

61
Part II, Chapter 3 – Likelihood and LAN property of a BDMM process.

The process until time T1 is given by the generated trajectories, i.e.

(Xt )T0 ≤t<T1 = (Yt−T


0
)
0 T0 ≤t<T1
.

iii) Given T1 and XT − = YT0 1 −T0 , generate the first jump :


1

— it is a birth with probability β(XT − )/α(XT − ), in which case


1 1

XT1 ∼ Kβ (XT1− , .);

— it is a death with probability δ(XT − )/α(XT − ), in which case


1 1

XT1 ∼ Kδ (XT1− , .);

— it is a mutation with probability τ (XT − )/α(XT − ), in which case


1 1

XT1 ∼ Kτ (XT1− , .).

iv) Return to step i) with T0 ← T1 and X0 ← XT1 to generate the new trajectories
(1)
(Yt )t≥0 starting from XT1 , the next jumping time T2 , and so on.

The sequence of jumping times of the BDMM process (Xt )t≥0 is (Tn )n≥1 . For
t > 0, we denote by Nt the number of jumps on [0, t], i.e.

Nt =
X
1Ti ≤t .
i≥1

Similarly, we denote by Ntβ , Ntδ and Ntτ the number of births, deaths and mutations,
respectively, before t. By our assumption that the total jump intensity α is bounded,
we have that Nt < ∞ for any t ≥ 0, i.e. there is no explosion of the process.
The BDMM process, as defined by the above iterative construction, is a parti-
cular case of a jump-move process, as studied in [LLGM22]. We deduce that it is a
homogeneous Markov process with respect to its natural filtration (Ft )t≥0 . We refer
to the latter reference for the expression of the infinitesimal generator of the process
and further probabilistic properties. In the following, we will denote by Px and Ex
all probabilities and expectations given that X0 = x.

62
3.1. Definition of the BDMM process

3.1.3 Elements of the model and examples

In this section, we describe more precisely each characteristics of the process, that
are the intensity functions, the transition kernels, and the move process (Yt )t≥0 . We
also provide various examples.

3.1.3.1 Intensity functions

The birth, death and mutation intensity functions are such that, given Xt = x, a
birth (resp. a death and a mutation) occurs in (t, t+h] with probability β(x)h+o(h)
(resp. δ(x)h + o(h) and τ (x)h + o(h)) as h → 0. These intensities can also be
seen in the following way : β(Xt− ) (resp. δ(Xt− ) and τ (Xt− )) is the intensity of
the associated counting process Ntβ (resp. Ntδ and Ntτ ). These interpretations are
consequences of the specific form (3.2) of the waiting time before the next jump, see
[LLG21] for details.

To set some examples, let us denote by γ any of β, δ or τ . The most simple


situation is when the intensity function is a constant rate, that is γ(x) = γ for any
x ∈ E, where γ > 0. Then there is in average γ∆ new events that occur in any
time interval of size ∆, whatever the configuration of Xt is. Another typical setting
is when the intensity is proportional to the cardinality, that is γ(x) = γn(x) for
x ∈ E and γ > 0. This reflects the situation where each particle has its own rate
γ > 0 and the particles do not interact, so that the total rate over all particles is
γn(x). These two examples are observed in the biological applications studied in
[LLG21] and [BLSK23]. More complicated examples of intensity functions are also
considered in [LLG21], where γ(x) depends on the underlying Voronoï tessellation
induced by x.

3.1.3.2 Transition kernels

Denoting γ for any of β, δ or τ , we assume that for any x the transition kernel
Kγ (x, .) admits a density kγ (x, y), y ∈ E, with respect to a measure νγ (x, .), that
is for all x ∈ E and y ∈ E,

Kγ (x, dy) = kγ (x, y)νγ (x, dy).

63
Part II, Chapter 3 – Likelihood and LAN property of a BDMM process.

We now specify kγ and νγ in each case, whether the transition concerns a birth, a
death or a mutation.

For a birth transition, we assume that for any F ∈ E, νβ (x, F ) = 0 except if


there exist A ⊂ Λ and I ⊂ M such that

F = x ∪ (A × I) := {y ∈ E, ∃ (z, m) ∈ A × I, y = x ∪ (z, m)} .

In this case we set νβ (x, x ∪ (A × I)) = |A| × |I| to be the Lebesgue measure on
Λ × M. This choice of νβ ensures that the birth transition produces the addition of
exactly one particle to the configuration x, as expected for a birth. For the density
kβ (x, y), we assume that

 pm kβm (x, z) if ∃(z, m) ∈ Λ × M, y = x ∪ (z, m),
kβ (x, y) = (3.3)
 0 otherwise,

where pm ∈ [0, 1] is the probability that the new particle has the label m ∈ M, with
m∈M pm = 1, and kβ (x, .) is the density for the location of the new particle in Λ
P m

given that its label is m.


A simple example of birth transition is the uniform law for the label and the
location, which corresponds to pm = 1/|M| for all m ∈ M and kβm (x, z) = 1/|Λ|, for
all z ∈ Λ and m ∈ M. More sophisticated examples are provided below.

Example 1 (Birth kernel as a mixture of normal laws). In this example, a


new particle is more likely to appear close to existing particles. The birth density is
a mixture of isotropic normal distributions, centred at each existing particle, with
deviation σ > 0. Specifically, for any configuration x = {(z1 , m1 ), . . . , (zn(x) , mn(x) )}
and any m ∈ M,

1 n(x) 1
!
kz − zi k2
kβm (x, z) = exp −
X
,
n(x) i=1 v(zi , z) 2σ 2
!
Z
kz − zi k2
where v(zi , z) = exp − dz. We may easily extend this example by re-
Λ 2σ 2
quiring that a particle with label m can only appear close to particles with labels m0 .

Example 2 (Birth kernel driven by a potential). In this example the birth

64
3.1. Definition of the BDMM process

kernel is given through a function V : E → R by :

1
kβm (x, z) = e−(V (x∪(z,m))−V (x))
am (x)
Z
where a (x) =
m
e−(V (x∪(z,m))−V (x)) dz. Given a configuration x, a new particle is
Λ
more likely to appear in the vicinity of points z ∈ Λ that make V (x ∪ (z, m)) − V (x)
minimal. Following the statistical physics terminology, the function V can then be
seen as a potential that the system tends to minimizing at each birth. A typical
instance, for x = {(z1 , m1 ), . . . , (zn(x) , mn(x) )}, is V (x) = i6=j Φmi ,mj (zi − zj ) for
P

some pair potential functions Φm,m0 , m, m0 ∈ M, see [LLGM22] for some examples.

Concerning the mutation transition kernel, we set for any x = {x1 , . . . , xn(x) },
where xi = (zi , mi ), and any F ∈ E,

n(x)
ντ (x, F ) =
X X
1(x\(zi ,mi ))∪(zi ,m)∈F ,
i=1 m∈M

so that a transition only concerns a change of label of an existing particle. For the
density kτ , we assume that

 s(xi , x)qm (xi , x) if ∃xi ∈ x, ∃m ∈ M, y = (x\(zi , mi )) ∪ (zi , m),
kτ (x, y) =
 0 otherwise.

In this expression, s(xi , x) ∈ [0, 1] is the probability that the particle xi in x


changes his label and qm (xi , x) is the probability that, given that the particle xi ∈ x
Pn(x)
mutates, its label changes from mi to m. We thus have i=1 s(xi , x) = 1 and
m∈M qm (xi , x) = 1 with qmi (xi , x) = 0. An example is provided below.
P

Example 3 (Mutation kernel given by a transition matrix). A natural


example is when the particle to modify is uniformly chosen among all particles, and
then the change of label is done according to a transition matrix with coefficients
(pm,m0 )m,m0 ∈M . This corresponds to the choices

1
s(xi , x) = and qm (xi , x) = pmi ,m ,
n(x)

where pm,m = 0 and for all m ∈ M, pm,m0 = 1.


P
m0 ∈M

65
Part II, Chapter 3 – Likelihood and LAN property of a BDMM process.

Finally, for the death transition kernel, we set for any x = {x1 , . . . , xn(x) } and
Pn(x)
any F ∈ E, νδ (x, F ) = i=1 1x\xi ∈F , so that this transition only concerns the death
of an existing particle. For the density,

 ω(xi , x) if y = x\xi ,
kδ (x, y) = 
0 otherwise,

where ω(xi , x) ∈ [0, 1] is the probability that the particle xi in x dies, with
Pn(x)
i=1 ω(xi , x) = 1. A simple example is the uniform death where ω(xi , x) = 1/n(x)
for any i.

3.1.3.3 The inter-jumps motion

Remember that between two jumps, the BDMM process (Xt )t≥0 has a constant
cardinality n = n(Xt ) and constant labels in M. To specify the inter-jumps motion
|n
of (Xt )t≥0 , it is then enough to define the dynamics of a process (Yt )t≥0 on each
subspace En where
|n
Yt = {(z1,t , m1 ), · · · , (zn,t , mn )}.

Accordingly, the position and the continuous mark of each particle may move, that is
zi,t ∈ Λ may move, but the label mi will remain constant. To define such dynamics,
we first need to come back to a standard system of n ordered (labelled) particles in
(Λ × M)n , that is
|n
Ỹt = ((z1,t , m1 ), · · · , (zn,t , mn )).

The full definition of the move process (Yt )t≥0 on E then follows the three steps :
|n
1. Define the dynamics of Ỹt on (Λ × M)n thanks to a system of stochastic
differential equations, as (M |n ) specified below, where the motion acts only in
Λn .
2. Provided this system yields a solution whose distribution satisfies the permu-
|n |n
tation equivariance property (see below), deduce Yt = Πn (Ỹt ) on En , where
Πn is given by (3.1).
|n
3. Then define (Yt )t≥0 on E by Yt = Yt 1{Y0 ∈En } .
P
n≥0

This construction and the following facts are detailed in [LLGM22]. The equivariance
property means that for any permutation π of {1, . . . , n}, the law of
|n |n
Ỹt = ((z1,t , m1 ), · · · , (zn,t , mn )) given Ỹ0 = ((zπ(1) , mπ(1) ), · · · , (zπ(n) , mπ(n) )) is the

66
3.1. Definition of the BDMM process

same as the distribution of ((zπ(1),t , mπ(1) ), · · · , (zπ(n),t , mπ(n) )) given


|n
Ỹ0 = ((z1 , m1 ), · · · , (zn , mn )). This property says that if we rearrange the ordering
of the coordinates of the initial state, the ordering of the solution is rearranged in the
|n |n
same way, so that it makes sense to deduce Yt from Ỹt . Under this assumption,
the Markov process Y is well-defined on E and its transition kernel QY t , defined for
any bounded and measurable function f on E by Qt f (x) = E[f (Yt )|Y0 = x], reads
Y

|n
t f (x) =
QY QỸ (f ◦ Πn )((x1 , . . . , xn ))1En (x),
X
t
n≥0

|n
where QỸ
t denotes the transition kernel of Ỹ|n in (Λ × M)n . Moreover, Y is conti-
nuous in (E, d1 ) whenever for any n, Ỹ|n is continuous in (Λ × M)n for the usual
Euclidean distance.
As a consequence of this construction, the definition of (Yt )t≥0 boils down to
the first step above, that is the specification of the system of SDE (M |n ), provided
|n
the latter is permutation equivariant. We assume in this paper that Ỹt = (Zt , m),
starting at t = 0 from (z, m) where z = (z1 , . . . , zn ), is the solution of

 dzi,t = vi,n (Zt , m)dt + σi,n (Zt , m)dBi,t , t ≥ 0, i = 1, . . . , n,
M |n (z, m) :  z = z , i = 1, . . . , n.
i,0 i

Here the drift functions v1,n , . . . , vn,n take their values in Rd , the diffusion coef-
ficients σ1,n , . . . , σn,n are (d, d) invertible matrices and (B1,t )t≥0 , . . . , (Bn,t )t≥0 are
independent standard Brownian motions on Rd . We assume that the functions vi,n
and σi,n are globally Lipschitzian, so that a strong solution exists. If Λ 6= Rd , we
further assume that edge conditions (reflective or periodic) are added to ensure that
the solution stays in (Λ × M)n , see for instance [FG07].
The permutation equivariance property is ensured if for any i = 1, . . . , n and any
π ∈ Sn ,

vi,n ((zπ(1) , mπ(1) ), · · ·

, (zπ(n) , mπ(n) )) = vπ(i),n ((z1 , m1 ), · · · , (zn , mn )),
σi,n ((zπ(1) , mπ(1) ), · · ·

, (zπ(n) , mπ(n) )) = σπ(i),n ((z1 , m1 ), · · · , (zn , mn )).

This is for instance the case if vi,n (Z, m) = v(zi , mi ) and σi,n (Z, m) = σ(zi , mi ) for
some functions v and σ, a situation where there is no interaction between the par-
ticles, as considered in the microbiological applications in [BVK19] and [BLSK23].

67
Part II, Chapter 3 – Likelihood and LAN property of a BDMM process.

An example that includes interactions through a potential function is provided in


the following example.

Example 4 (Langevin diffusion). In this example the motion of each particle


depends on an interaction force with the other particles, driven by a pair potential
functions Φm,m0 , m, m0 ∈ M, as in Example 2. Specifically, in this model σi (Z, m) =
σmi and
vi,n (Z, m) = − Φmi ,mj (zi − zj ).
X

j6=i

For existence, each pair potential Φm,m0 must be smooth enough. We refer to [FG07]
and [LLGM22] for details and examples.

|n
For later purposes, let us specify the likelihood of Yt constructed as above. Let
us first rewrite (M |n ) so that it takes the form of a standard stochastic differential
equation. Denote by σ̄n the block diagonal matrix of size (nd, nd) formed by the σi,n
matrices, and by v̄n the vector of size nd formed by the concatenation of the vi,n
vectors. Then, by denoting Bt the vector formed by the concatenation of the vectors
Bi,t , we have

 dZt = v̄n (Zt , m)dt + σ̄n (Zt , m)dBt , t ≥ 0,
M |n (z, m) :  Z = z.
(3.4)
0

It is well known, cf [LS13, Kut04], that the Radon-Nikodym density of the solution
Z t
(Zt )t≥0 of M |n (z, m) with respect to the reference process Ut = z+ σ̄n (Us , m)dBs ,
0
on the interval [0, t] reads

Z t
L(Z[0,t] , m) = exp v̄n (Zs , m)T a−1
n (Zs , m)dZs
0

1Z t
!
− v̄n (Zs , m)T a−1
n (Zs , m)v̄n (Zs , m)ds , (3.5)
2 0

where an (z, m) = σ̄n (z, m)σ̄nT (z, m). This gives us the density on [0, t[ of the pro-
|n
cess Ỹt = (Zt , m) with respect to the reference process (Ut , m)t≥0 that belongs to
|n
(Λ × M)n . Finally, by our construction above, if (Zt , m) is such that Yt = Πn ((Zt , m)),
|n
then the density of Yt with respect to Πn ((Ut , m)) on [0, t] takes the same form
|n
and does not depend on the ordering chosen to define Zt , z and m from Yt , thanks
to the permutation equivariance property.

68
3.2. LAN property

3.2 LAN property

3.2.1 Likelihood of the BDMM process


As described in the previous section, the BDMM process (Xt )t≥0 depends on the
intensity functions β, δ, τ , assumed to be continuous on E, on kernel densities for
the births, the deaths and the mutations, denoted by kβ (x, y), kδ (x, y) and kτ (x, y),
as detailed in Section 3.1.3.2, and on a continuous Markov diffusion model on E that
drives the inter-jump motion, see Section 3.1.3.3.
(i)
Remember that between two jumps Ti and Ti+1 , Xt = Yt−Ti where Y(i) has the
(i) (i)
same law as Y. Write Yt = {(Zt , m(i) )} where m(i) does not depend on t, as
required for the labels of the continuous Markov process that drives the inter-jumps
motion. As assumed in Section 3.1.3.3, Z(i) is the solution of M |n (z(i) , m(i) ) given
by (3.4), where (z(i) , m(i) ) are such that XTi = {(z(i) , m(i) )} and n = n(XTi ). The
likelihood of the inter-jump motion between Ti and Ti+1 , given Ti , Ti+1 and XTi , is
(i)
thus L(Z[0,Ti+1 −Tj ] , m(i) ) given by (3.5). For simplicity we will simply write the latter
(i)
L(X[Ti ,Ti+1 [ ) in the following, since Xt = {(Zt−Ti , m(i) )} for all t ∈ [Ti , Ti+1 [.
Assume that all features of the BDMM process depend on a parameter ϑ ∈
Θ ⊂ R` for a given ` > 0. To emphasize this dependence, we introduce the argu-
ment ϑ into the notation of each of them. For example we will write β(ϑ, x) instead
of β(x), kβ (ϑ, x, y) instead of kβ (x, y), L(ϑ, X[Ti ,Ti+1 [ ) instead of L(X[Ti ,Ti+1 [ ), and
so on. Note however that in (3.5), ϑ only appears in the drift coefficient v̄n , i.e.
v̄n (Xs ) = v̄n (ϑ, Xs ), but not in the diffusion coefficient σ̄n which is part of the refe-
rence process. This is indeed a common fact that for continuous time observations,
the diffusion coefficient can be considered to be known [Kut04], see also Appendix B.
Let us denote the set of birth times up to time t by

Bt = {i ∈ N∗ , Ti ≤ t and Ti is a birth time} ,

and similarly Dt and Tt for the set of death times and mutation times up to time t.
The following theorem provides the likelihood of the BDMM process. When
there is no move and no mutation, we recover the formula given in [MS94] for their
applications to the dynamics of dunes. It also has a consistent expression with the
likelihood of a system of particles with killing and jumps, as derived in [Löc02b].
The justifications, detailed in Appendix C, are however different and simpler, as

69
Part II, Chapter 3 – Likelihood and LAN property of a BDMM process.

they only rely on successive backward applications of conditional expectations.

Theorem 1. Let (Xt )t≥0 be a BDMM parameterized by ϑ ∈ Θ, according to the


above conditions, and observed in continuous time on [0, t], for t > 0. Then, the
likelihood Lt (ϑ) is expressed as follows :

Lt (ϑ) = LBt (ϑ)LD


t (ϑ)Lt (ϑ)Lt
T move
(ϑ),

with
 Z t  Y
LBt (ϑ) = exp − β(ϑ, Xs )ds kβ (ϑ, XTi− , XTi )β(ϑ, XTi− ),
0 i∈Bt
 Z t  Y
t (ϑ)
LD = exp − δ(ϑ, Xs )ds kδ (ϑ, XTi− , XTi )δ(ϑ, XTi− ),
0 i∈Dt
 Z t Y
LTt (ϑ) = exp − τ (ϑ, Xs )ds kτ (ϑ, XTi− , XTi )τ (ϑ, XTi− ),
0 i∈Tt
t −1
NY
Lmove
t (ϑ) = L(ϑ, X[TNt ,t] ) L(ϑ, X[Ti ,Ti+1 [ ).
i=0

Note that due to the Markov nature of the process, the likelihood is a simple
product. As a consequence, inference on a specific aspect of the process can be
done independently on the other characteristics, provided the parameter is different
in each characteristic. As an illustration, we will infer the birth kernel kβ in our
application in Chapter 4, without needing to specify or estimate the other terms.

3.2.2 LAN
Recall that all the features of the BDMM process depend on a parameter ϑ ∈ Θ ⊂ R` .
In the following, for a multivariate function f , we denote by ∇i f the gradient (or
Jacobian matrix if f is multivariate) with respect to the i-th variable. We will also
denote by B(ϑ, ρ) the ball centred at ϑ with radius ρ > 0.
We list below the assumptions we make to obtain the local asymptotic normality
of our model. They are of two kinds : the first one (H) ensures that the process is
non-explosive and geometric ergodic. Conditions implying this hypothesis concern
the intensity functions : it basically holds if the total intensity function α is bounded
and the death intensity function δ sufficiently compensates for the birth intensity
β. Precise conditions are given in Appendix E, following [LLGM22]. The other as-

70
3.2. LAN property

sumptions are regularity hypotheses on the way each feature of the BDMM process
is parametrised. Although quite technical at first sight, we show in Section 3.2.3
that they are satisfied in many situations, including the examples of Section 3.1.3.

(H) The process is non-explosive, i.e. Nt < ∞ for any t ≥ 0, and there exists a
measure µϑ∞ on E, rϑ > 0 and cϑ : E → R∗+ such that for any t > 0, any
x0 ∈ E and any measurable and bounded function g on E,

1 ϑ cϑ (x0 )kgk∞
Z t  Z
E g(Xs )ds − g(y)µϑ∞ (dy) ≤ .
t x0 0 E rϑ t

Concerning the intensity function γ (whether γ is β, δ or τ ), we assume that it is


differentiable with respect to ϑ and the two following hypotheses.
k∇1 γ(ϑ, x)k2
A(γ) For all ϑ ∈ Θ, x 7→ 1γ(ϑ,x)>0 is bounded.
γ(ϑ, x)
B(γ) For all ϑ ∈ Θ, ∃ ρ(ϑ) > 0 such that x 7→ fϑγ (x, ρ(ϑ))γ(ϑ, x) is bounded, where

  1γ(ϑ,x)>0
fϑγ (x, ρ) = sup k∇1 γ(u, x) − ∇1 γ(ϑ, x)k2 . (3.6)
u∈B(ϑ,ρ) (γ(ϑ, x))2

Similarly, we assume that the transition kernel kγ is differentiable with respect to ϑ


and the two following hypotheses.
Z
k∇1 kγ (ϑ, x, y)k2
A(kγ , γ) For all ϑ ∈ Θ, x 7→ γ(ϑ, x) 1kγ (ϑ,x,y)>0 νγ (x, dy) is
E kγ (ϑ, x, y)
bounded.
k
B(kγ , γ) For all ϑ ∈ Θ, ∃ ρ(ϑ) > 0 such that x 7→ fϑ γ (x, ρ(ϑ))γ(ϑ, x) is bounded,
where

k
Z   1kγ (ϑ,x,y)>0
fϑ γ (x, ρ) = sup k∇1 kγ (u, x, y) − ∇1 kγ (ϑ, x, y)k2 νγ (x, dy).
E u∈B(ϑ,ρ) kγ (ϑ, x, y)
(3.7)

Finally, concerning the inter-jump motion given as a solution of (3.4), we assume


that its drift function v̄n is differentiable with respect to ϑ and :
Amove For all n ≥ 1, ∀ϑ ∈ Θ, x 7→ kσ̄n (x)−1 ∇1 v̄n (ϑ, x)k is bounded.

71
Part II, Chapter 3 – Likelihood and LAN property of a BDMM process.

Bmove For all n ≥ 1, ∀ϑ ∈ Θ, ∃ ρ(ϑ) > 0 such that x 7→ kσ̄n (x)−1 k2 fϑmove (x, ρ(ϑ))
is bounded, where

fϑmove (x, ρ) = sup k∇1 v̄n (u, x) − ∇1 v̄n (ϑ, x)k2 . (3.8)
u∈B(ϑ,ρ)

In order to state the LAN property, we introduce, for any ϑ ∈ Θ and N ∈ N∗ , the
following FtN -martingales, along with their associated angle brackets. The fact that
they are truly martingales and the expression of their brackets are justified in the
proof of the following theorem deferred to Appendix D. We recall that an = σ̄n σ̄nT .

1 Z tN ∇1 γ(ϑ, Xs− )
MγN,ϑ (t) = √ dMsγ , (3.9)
N 0 γ(ϑ, Xs− )
1 Z tN
∇1 kγ (ϑ, Xs− , Xs ) γ
MkN,ϑ (t) = √ dNs
γ
N 0 kγ (ϑ, Xs− , Xs )
Z tN Z !
− ∇1 kγ (ϑ, Xs , y)νγ (Xs , dy)γ(ϑ, Xs )ds , (3.10)
0 E
1 X Z tN (i)
MLN,ϑ (t) = √ n (Xs− )dMs−Ti ,
1[Ti ;Ti+1 [ (s)(∇1 v̄n (ϑ, Xs− ))T a−1 (3.11)
N i≥0 0
Z t  
(i)
where Mtγ = Ntγ γ(ϑ, Xs )ds and Ms(i) = Zs(i) − Z0 − v̄n (ϑ, Zu(i) )du 1s≥Ti
Rs
− 0
0
(i)
if we agree that Xt = {(Zt−Ti , m(i) )} when t ∈ [Ti , Ti+1 [. Their associated angle
brackets are given by

1 Z tN (∇1 γ)(∇1 γ)T


=
hMγN,ϑ i(t) 1γ>0 (ϑ, Xs )ds, (3.12)
N 0 γ
1 Z tN Z ∇1 kγ (∇1 kγ )T
hMkγ i(t) =
N,ϑ
1kγ >0 (ϑ, Xs , y)νγ (Xs , dy)γ(ϑ, Xs )ds, (3.13)
N 0 E kγ
1 Z tN
hML i(t) =
N,ϑ
(∇1 v̄n (ϑ, Xs ))T a−1
n (Xs )∇1 v̄n (ϑ, Xs )ds. (3.14)
N 0

Finally denoting S = {L, β, δ, τ, kβ , kδ , kτ }, we introduce

M N,ϑ (t) = MiN,ϑ (t), (3.15)


X

i∈S

the angle brackets of which reads

hM N,ϑ i(t) = hMiN,ϑ i(t). (3.16)


X

i∈S

72
3.2. LAN property

Theorem 2. Under the same conditions as in Theorem 1, suppose that (H), A(γ),
B(γ), A(kγ , γ), B(kγ , γ), Amove and Bmove are satisfied (whether γ is β, δ or
τ ). Then for all ϑ ∈ R` , t > 0, h ∈ R` and N ∈ N∗ , we have the following
decomposition :

LtN (ϑ + √h ) 1
log N
= hT M N,ϑ (t) − hT hM N,ϑ i(t)h + RemN,ϑ,h (t), (3.17)
LtN (ϑ) 2

where RemN,ϑ,h (t) → 0 in Pϑx0 -probability when N → +∞, for any x0 ∈ E, and
where M N,ϑ and hM N,ϑ i are given by (3.15) and (3.16). Moreover, for all t > 0 and
ϑ ∈ Θ,
 
M N,ϑ (t), hM N,ϑ i(t) −−−−→ (N (0, tJ(ϑ)), tJ(ϑ)) , (3.18)
N →+∞

where the joint convergence takes place in distribution and where the matrix J(ϑ),
of size (`, `), has for expression :

1
J(ϑ) = lim hM N,ϑ i(t) (3.19)
N →+∞
Z t
= (∇1 v̄n (ϑ, x))T a−1
n (x)∇1 v̄n (ϑ, x)µ∞ (dx)
ϑ
E
Z
(∇1 γ)(∇1 γ)T
+ (ϑ, x)µϑ∞ (dx)
X
1γ>0
γ∈{β,δ,τ }
E γ
Z Z
∇1 kγ (∇1 kγ )T
+ (ϑ, x, y)νγ (x, dy)γ(ϑ, x)µϑ∞ (dx).
X
1kγ >0
γ∈{β,δ,τ }
E E kγ

Under additional regularity assumptions on the model, as detailed for instance


in [Ibr13], the LAN property implies that the maximum likelihood estimator is
asymptotically efficient and asymptotically Gaussian with covariance J(ϑ)−1 . The
following corollary summarise this consequence, the proof of which may be found in
[Ibr13].

Corollary 1. In addition to the setting of Theorem 2, assume that the regularity


conditions N2-N4 of [Ibr13, Chapter III] are satisfied. Then the maximum likelihood
estimator ϑ̂N , defined by LN (ϑ̂N ) = supϑ LN (ϑ), where LN is given in Theorem 1,
is asymptotically efficient and satisfies

N (ϑ̂N − ϑ) −−−−→ N (0, J(ϑ)−1 ),
N →+∞

73
Part II, Chapter 3 – Likelihood and LAN property of a BDMM process.

where the convergence is in distribution and J(ϑ) is given by (3.19).

Note that in Theorem 2, the length of the observed trajectory is N t, and the
asymptotic regime stands for N large and any t > 0. We set in the above corollary
t = 1 for simplicity and considered a trajectory of size N .
In practice, the asymptotic covariance matrix J(ϑ)−1 is estimated by JN (ϑ̂N )−1 ,
where ϑ̂N is the maximum likelihood estimator and JN is the empirical version of J
given by (3.19), viz.
JN (ϑ) = hM N,ϑ i(1),

where hM N,ϑ i is given by (3.16) and involves the terms (3.12), (3.13) and (3.14). All
these quantities are computable from a single trajectory over [0, N ], as implemented
in Section 2.1.2.

3.2.3 Examples
We show in this section that the regularity conditions A(γ), B(γ), A(kγ , γ),
B(kγ , γ), Amove and Bmove are satisfied under mild assumptions for the examples
considered in Section 3.1.3.
For the intensity functions, whether γ(x) = γ is constant or γ(x) = γn(x), for
γ > 0, and the parameter of interest is ϑ = γ, we have fϑγ = 0 in (3.6), so that
B(γ) is obviously satisfied. For A(γ), it clearly holds in the first case, while it is
true in the second case if we assume that there is a maximal number of particles, i.e.
supx n(x) < n∗ for some n∗ > 0. Note that the latter restriction is purely theoretical,
but it is not a limitation in practice. It is also an assumption made in [LLG21] and
it amounts to the specific setting of condition (E.2) presented in appendix, that
implies geometric ergodicity of the process, i.e. (H).
Concerning the transition kernels, the parameters of interest are typically invol-
ved in the birth kernel and/or the mutation kernel. For the birth kernel, remember
that it reads as in (3.3), i.e. kβ (x, y) = pm kβm (x, z) and let us examine Examples 1
and 2 for kβm .
Example 1 (continued). In this example kβm is a mixture of Gaussian distributions
with deviation σ > 0, so that the parameters of interest for the birth kernel are in
this case pm , m ∈ M, and σ. It is not difficult to check that if Λ is a bounded set,
then all partial derivatives of kβ (x, y) with respect to each parameter are uniformly

74
3.2. LAN property

bounded in x and y. On the other hand kβ (x, y) itself is lower bounded in x and y
under the same setting. Consequently, A(kγ , γ) holds true whenever Λ is a bounded
set and the birth intensity β(x) is bounded in x. The latter is in particular true if
β satisfies the setting discussed in the previous paragraph. For B(kγ , γ), note that
a rough control consists in upper-bounding the squared norm of the difference in
(3.7) by twice the sum of each squared norm. Then the same bounds as previously
can be used to check B(kγ , γ) in the same setting.
Example 2 (continued). Assume that
0
e−ϑm Sm (x,z)
kβm (x, z) = ,
am (x)
Z
0
where ϑm = (ϑm,m0 )m0 ∈M , am (x) = e−ϑm Sm (x,z) dz and Sm is the vector
Λ

 
 
Sm (x, z) =  Φm,m0 (z − zi )
X
.
 
 
xi =(zi ,mi )∈x
mi =m0 m0 ∈M

This corresponds to a potential of the form V (x) = i6=j ϑmi ,mj Φmi ,mj (zi − zj ) in
P

Example 2. The parameters of interest here are all the ϑm,m0 , m, m0 ∈ M. Assume
that for all m, m0 ∈ M, Φm,m0 is bounded by L. Then if we denote by nm0 (x) the
number of particles in x having label m0 , we have

kSm (x, z)k2 ≤ L2 n2m0 (x) ≤ L2 n(x) nm0 (x) = L2 n2 (x).


X X

m0 ∈M m0 ∈M

Assume in addition that there is a maximal number of particles n∗ and that Λ is


a bounded set, then using the previous upper-bound, we may prove by elementary
inequalities that both A(kγ , γ) and B(kγ , γ) are satisfied.
Concerning the mutation kernel, let us inspect Example 3.
Example 3 (continued). Remember that for this example we have

1
kτ (ϑ, x, y) = pm ,m
n(x) i

if there exists xi ∈ x and m ∈ M such that y = (x\(zi , mi )) ∪ (zi , m). The para-
meter of interest ϑ in this example correspond to the non-null entries pm,m0 of the

75
Part II, Chapter 3 – Likelihood and LAN property of a BDMM process.

transition matrix. Denote by p∗ the minimal value of these non-null entries. We have
k∇1 kτ (ϑ, x, y)k2 = 1/n(x)2 , so that
Z
k∇1 kτ (ϑ, x, y)k2
1kτ (ϑ,x,y)>0 ντ (x, dy)
E kτ (ϑ, x, y)
Z
k∇1 kτ (ϑ, x, y)k2
= kτ (ϑ, x, y)1kτ (ϑ,x,y)>0 ντ (x, dy)
E kτ (ϑ, x, y)2
1 Z 1
≤ 2 kτ (ϑ, x, y)ντ (x, dy) = 2 .
p∗ E p∗

Consequently A(kγ , γ) (where γ = τ ) is satisfied in this setting whenever τ (x) is


bounded in x, which holds true in the setting discussed in the first paragraph of this
section. On the other hand, since ∇1 kτ (ϑ, x, y) does not depend on ϑ, fϑkτ (x, ρ) = 0
in (3.7), so that B(kγ , γ) trivially holds.
Concerning the inter-jump motion and assumptions Amove and Bmove , we consi-
der as an example the Langevin diffusion introduced in Example 4.
Example 4 (continued). Assume the same kind of parametrisation of the poten-
tial as in Example 2 above, that is vi,n (Z, m) = − j6=i ϑmi ,mj Φmi ,mj (zi −zj ) in (3.4),
P

where the parameters of interest are again all the ϑm,m0 , m, m0 ∈ M. Remember that
σi (Z, m) = σmi is known. Since the drift function is linear in the parameters, it is
easily seen that Amove is satisfied if Φm,m0 is bounded for any m, m0 ∈ M and there
is a maximal number of particles n∗ . As to Bmove , we clearly have fϑmove (x, ρ) = 0
in (3.8), so that this condition holds trivially true.

3.3 Conclusion
In this chapter, we have shown, after giving its likelihood expression, that the
BDMM process possesses, under certain regularity assumptions on the various in-
gredients that characterize the process, the property of local asymptotic normality
(LAN). This property is useful to prove the asymptotic normality of the maximum
likelihood estimator and to derive an explicit formula for its covariance matrix. Fi-
nally, we have shown that these assumptions are satisfied on a large number of
examples, in particular those we will need in the next chapter, which concerns the
study of real data.

76
Chapter 4

A NALYSIS OF THE COLOCATION


PHENOMENON ON SIMULATED AND
REAL DATA .

This chapter constitutes the second part of the submitted article [BL24]. Supple-
mentary materials, including the Python code for simulation, the raw data and typi-
cal simulated sequences, are available in our online GitHub repository at https://
github.com/balsollier-lisa/Parametric-estimation-of-the-BDMM-process.
First, a simulation study is carried out, demonstrating the performances of the
maximum likelihood estimator of several model parameters, including the estima-
tion of confidence regions. The setting is close to that of the dataset analysed subse-
quently, in order to provide certain guarantees related the reliability of conclusions.
This dataset is a video sequence depicting Langerin proteins and Rab-11 proteins
in a living cell, acquired by fluorescence microscopy [BGM+ 14]. As detailed in Sec-
tion 4.2, particle dynamics are consistent with the realization of BDMM process.
Leveraging on this model and its estimation, we quantify the colocalization level
between Langerin and Rab-11 proteins.

4.1 Simulation study


In this section, we simulate several trajectories of the BDMM process, for cha-
racteristics explained below, and we evaluate the quality of estimation of two target
parameters involved in the birth kernel. The chosen characteristics are motivated
by the application that we will conduct in the next section, and are the same as
those chosen in Section 2.1.2.1 of Chapter 2. We recall them below without precisely
detailing each value.
In our context, the particles do not possess continuous marks, but can be of 6

77
Part II, Chapter 4 – Analysis of the colocation phenomenon on simulated and real data.

Figure 4.1 – Example of the density (4.1) for the birth of a new Langerin particle,
given Rab-11 particles already present in the same area (shown as red dots).

different types, which correspond on one hand to two distinct particle types (playing
the role of Rab-11 type proteins and Langerin type proteins in the subsequent ap-
plication), and on the other hand to three possible motion regimes : Brownian,
sub-diffusive (according to an Ornstein-Uhlenbeck process), or super-diffusive (ac-
cording to a Brownian motion with linear drift). Thus, the space M contains six
different labels, but mutations are exclusively possible between motion regimes and
not between particles type (see below).
We assume that the movement of each particle is independent of the others and
corresponds to one of the three aforementioned regimes. Birth rates are constant and
differ only according to the Langerin or Rab-11 type. Death rates (also distinct for
Langerin and Rab-11) are proportional to the number of particles present in the cell.
Mutations correspond to a transition between two different motion type ; mutation
intensity is also assumed to be constant. Regarding transitions, we assume that the
death kernel is uniform : each particle has the same probability of disappearing
when a death event occurs. For mutations, we follow the setting of Example 3 of
Chapter 3, i.e., these occur for any particle uniformly, according to a fixed transition
matrix. Finally, we assume that births generate an equiprobable Langerin or Rab-11
particle, with a diffusion regime respecting predetermined proportions. The Rab-11
type particles are then generated uniformly in Λ. For the Langerin type particles, we
assume that given the pre-jump configuration x ∈ E, they are generated according

78
4.1. Simulation study

Figure 4.2 – Estimation results for ϑ = (p, exp σ) = (0.2, 1.34) by MLE, based
on 500 simulations of the BDMM process specified in Section 4.1. In red : 95%
Gaussian confidence ellipsoid, based on the bivariate Gaussian distribution centred
at the mean of all estimations, and with covariance matrix the mean of all estimates
of the asymptotic covariance matrix J −1 (ϑ).

to the density kβL (x, .) defined for all z ∈ Λ by

p nX R (x)
1 −kz − ziR k2 (1 − p)
!
kβL (x, z) = exp + 1Λ (z), (4.1)
nR (x) i=1 2πσ 2 2σ 2 |Λ|

where nR (x) denotes the number of existing Rab-11 particles and ziR their spatial
coordinates. This density is parametrized by p ∈ [0, 1] and σ > 0. It is a convex
combination between a mixture of normal distributions centered around the existing
Rab-11 particles, with variance σ 2 , like in Example 1 of Chapter 3, and a uniform
distribution over Λ. The closer the parameter p is to 1, the more likely Langerin and
Rab-11 particles will tend to be colocalized, and the smaller the standard deviation
σ is, the stronger the proximity between the two types of particles will be. An
illustration of this density is shown in Figure 4.1, for a given configuration of Rab-
11 particles represented by red dots.
In line with the application of the next section, we are not interested in the esti-
mation of all features of the process, but only of the parameter ϑ = (p, exp σ) from

79
Part II, Chapter 4 – Analysis of the colocation phenomenon on simulated and real data.

Figure 4.3 – Left : a frame from the raw video sequence analysed in Section 4.2,
showing Langerin proteins. Right : superposition of all trajectories of Langerin pro-
teins obtained after post-processing (i.e. segmentation and tracking) of the whole
raw video. The colors indicate the estimated motion regime (Brownian in blue, di-
rected motion in red and confined motion in green).

the continuous time observation of a single trajectory of the process. We performed


500 simulations of trajectories for p = 0.2 and exp σ = 1.34, on a time interval
similar to the data studied in Section 4.2. Figure 4.2 plots the set of all 500 maxi-
mum likelihood estimates of ϑ obtained for the 500 simulations, obtained from the
likelihood established in Theorem 1 of Chapter 3. In red, the mean of the 95% confi-
dence ellipsoid is plotted. This is the Gaussian confidence ellipsoid obtained from
the bivariate Gaussian distribution centred at the mean of the estimates, and with
covariance the mean of the 500 covariance matrices JN−1 (ϑ̂N ), obtained as explained
at the end of Section 3.2.2 of Chapter 3. One can observe that most of the estimates
provide a consistent value of the parameter. Also, the mean estimated confidence
ellipsoid encodes the estimation uncertainty fairly well.

4.2 Data analysis


The dataset we consider (which are the same as in Chapter 2) coorespond to the
acquisition of videos with TIRF (Total Internal Reflection Fluorescence) microscopy,
depicting two types of proteins observed simultaneously near the membrane of a
living cell [BGM+ 14] : Langerin proteins and Rab-11 proteins. One frame of the video
of the Langerin proteins only is shown in Figure 4.3 (left). After post-processing

80
4.2. Data analysis

Figure 4.4 – Likelihood of the BDMM model for the considered dataset, as a
function of the parameters p and exp σ. The estimated 95% confidence ellipsoid,
centered at the maximum likelihood, is overlaid in black.

following [PBB+ 14], the proteins of interest are detected and represented by a point
and tracked by the U-track algorithm [JLM+ 08] along the video sequence to provide
trajectories, see Figure 4.3 (right). These trajectories have been further analysed
by the method developed in [BKV18] to classify them into three diffusion regimes
(these are the colors visible on the Figure 4.3). The full dynamics is in line with a
BDMM process ; in addition to their displacement, some proteins disappear in the
course of time, others appear, and finally some change their diffusion regime, which
corresponds in our model to a mutation.
An open biological question is to determine if the Langerin proteins appear close
to existing Rab-11 proteins. This colocalization may indicate a strong interaction
between these two types of proteins. To address this issue, we estimated by maximum
likelihood the birth kernel of the Langerin proteins, assuming that it is of the form
(4.1), as in our simulation study. We obtained the estimate (p,
b exp
[σ) = (0.07, 3.004).
The unit of σ is the pixel, the image being of size 250 × 283, each pixel representing
an area of 80 × 80 nm2 . Figure 4.4 shows the likelihood value for our dataset, with
respect to p and log σ, along with the empirical 95% confidence ellipsoid around
the maximum, obtained from the estimation of the matrix J −1 (ϑ) explained at
the end of Section 3.2.2 in Chapter 3. This estimate suggests that about 7% of

81
Part II, Chapter 4 – Analysis of the colocation phenomenon on simulated and real data.

Langerin proteins are colocalized with Rab-11 ones in this example. This proportion
is significantly positive in view of the confidence ellipsoid, and each colocalized
Langerin protein appears (with high probability) within 3σb × 80 = 264 nm of a
Rab-11 protein, where σb = ln(exp
[σ).

4.3 Conclusion
In this chapter, we aimed at estimating two parameters of the model : a parameter
corresponding to the probability that a new protein will be colocalized with an
already existing particle (in the sense that it is born very close to it), and a second
parameter characterizing the degree of proximity if the colocation is positive. We
first estimated these two parameters on 500 sets of simulations of the same BDMM
process, generated using the algorithm described in Part I. We have estimated the
95% confidence ellipse, which was significant and proved the power of the estimator.
We then estimated the same two parameters on the real data set already studied
in previous chapters. The estimation allowed us to calculate the probability of a
Langerin particle being colocalized with a Rab-11 particle at around 7%, with a
confidence ellipse that does not contain 0. This confirms colocalization between
these two particles, even if it is not very frequent.

82
Appendix of Part II

83
Annexe B

R EMARK ABOUT THE DIFFUSION


COEFFICIENT IN CASE OF
CONTINUOUS TIME OBSERVATIONS

If the process (Zt )t≥0 satisfies a stochastic differential equation of the form

 dZt = v̄n ((Zt , m))dt + σ̄n ((Zt , m))dBt , t ≥ 0,
M |n (z, m) :  Z0 = z

its bracket hZ, Zit satisfies :


Z t Z t
dhZ, Zis = σ̄n2 (s, (Zs , m))ds.
0 0

(p)
On the other hand, for 0 < t1 < · · · < t(p)
p = t a partition of [0, t] with mesh
converging to 0, then by approximation of the Riemann integral, we have :

p−1
hZ, Zit = lim (Zt(p) − Zt(p) )2
X
p→+∞ k+1 k
k=1

which is completely known when the process (Zt )0≤t≤T is observed in continuous
time.
Therefore the quantity
Z t p
σ̄n2 (s, (Zs , m))ds = lim (Zt(p) − Zt(p) )2
X
0 p→+∞ k+1 k
k=1

Z t 0
can be computed, so its derivative σ̄n2 (s, (Zs , m))ds
= σ̄n2 (t, (Zt , m)) is entirely
0
known and ϑ can be deduced. In conclusion it makes no sense to try to estimate ϑ
if the process (Zt )0≤t≤T is observed in continuous time.

85
Annexe C

P ROOF OF THE LIKELIHOOD


EXPRESSION OF A BDMM PROCESS
(T HEOREM 1 OF C HAPTER 3)

To simplify notation in the proof, we drop the dependence in ϑ of all terms.


To get the likelihood, we view (Xt )t≥0 as a jump-move process, a more general
Markov process than the BDMM process. A jump-move process alternates motions
and jumps in E, see [LLGM22]. It is defined through an intensity function α, a jump
kernel K(x, .) and a continuous Markov process Y on E that drives the motion of
the process. For a BDMM, we have α(x) = β(x) + δ(x) + τ (x) and

β(x) δ(x) τ (x)


K(x, .) = Kβ (x, .) + Kδ (x, .) + Kτ (x, .). (C.1)
α(x) α(x) α(x)

By our assumptions
K(x, dy) = k(x, y)ν(x, dy), (C.2)

where for any F ∈ E,







νβ (x, F ) if there exist A ⊂ Λ and I ⊂ M such that F = x ∪ (A × I)
ν(x, F ) = νδ (x, F ) if x \ xi ∈ F for some i

ντ (x, F ) if there exist m ∈ M and i such that (x\(zi , mi )) ∪ (zi , m) ∈ F.


87
Part II, Appendix C – Proof of the likelihood expression of a BDMM process

In turn,

β(x)
kβ (x, y) if there exists (z, m) such that y = x ∪ (z, m)



α(x)







δ(x)


k(x, y) = kδ (x, y) if y = x \ xi for some i


 α(x)

τ (x)



kτ (x, y) if there exists m ∈ M and i such that y = (x\(zi , mi )) ∪ (zi , m).





α(x)

Note that a jump-move process observed continuously on [0, t] has by definition


a cadlag trajectory on E and can equivalently be described by the vector X defined
by :

X= (X0 , X]0,T1 [ , T1 , XT1 , X]T1 ,T2 [ , . . . , Tn − Tn−1 , XTn , X]Tn ,t[ )1{Nt =n} . (C.3)
X

n∈N

We set for any i ≥ 1, Si = Ti − Ti−1 , Vi = XTi , and we recall that (Xt )Ti ≤t<Ti+1 =
(i)
(Yt )0≤t≤Si+1 , where Y(i) is a continuous Markov process on E, identically distribu-
ted as Y. With these notations X is equivalent to X̃ with :

(0) (1) (n)


X̃ = (V0 , Y[0,S1 ] , S1 , V1 , Y[0,S2 ] , . . . , Sn , Vn , Y[0,t−Pn )1{Nt =n} . (C.4)
X
j=1
Sj ]
n∈N

(i)
Note that with this formalism, Y0 = Vi for all i, and X̃ takes values in the space
n≥0 Wn where
S

n
Wn = (E × C[Si ] × R+ ) × E × C[t−Pn
O
i=0
Si ] ,
i=0

and where C[s] denotes the space of continuous functions from [0, s] to E.

As detailed in Section 3.1.3.3, the continuous Markov process Ys|n = Πn ((Zs , m))
defined on En and observed on [0, t], given that Z0 = z, admits the density L(Z[0,t] , m)
with respect to the reference process Πn ((Ut , m)) where Ut = z + 0t σ̄n (Us , m)dBs .
R

Let us denote by P[t]


z
the distribution of this reference process observed on [0, t]. For
|n
any measurable and bounded function h defined on En , we thus have E(h(Y[0,t] )) =
|n
Y
C[t] h(y)L(y[t] )dP[t] (y), where L(y[t] ) is a short notation for L(z[0,t] , m) and where
R 0

|n
yt = (zt , m) for any t ≥ 0. Similarly, for (Yt )t≥0 on E defined by Yt = Yt 1{Y0 ∈En } ,
P
n≥0

88
we will write without ambiguity
Z
E(h(Y[0,t] )) = h(y)L(y[t] )dP[t]
Y0
(y),
C[t]

where the cardinality n defining P[t]


Y0
is implicitly given by n = n(Y0 ).

Let h be a measurable and bounded function. For n ∈ N, we use the conditional


law of Sn+1 given (Xt )t≤Tn , Tn and Y(n) , see (3.2), to compute :

E[h(X̃)1{Nt =n} ]
 

= E h(X̃)1n Pn o 1nP
n
o
Sn+1 >t− j=1
Sj j=1
Sj ≤t
  

= E E h(X̃)1n Pn o 1nP
n
o (Xt )t≤Tn , Tn , Y (n) 
Sn+1 >t− j=1
Sj j=1
Sj ≤t
 !
Z t−Pn Sj
j=1
= E h(X̃)1nPn o exp − α(Yu(n) )du 
S ≤t
j=1 j 0
  
Z t−Pn Sj !
j=1
= E E h(X̃)1nPn o exp − α(Yu(n) )du (Xt )t≤Tn , Tn  .
S ≤t
j=1 j 0

(n)
Since given S1 , . . . , Sn and Y0 = Vn , the Markov process Y(n) observed on the time
interval [0, t− nj=1 Sj ] admits the density L(y[t−Pn Sj ] ) with respect to P[t−
VnP
,
P
n
j=1 S ]
j=1 j
we have

E[h(X̃)1{Nt =n} ]

Z
(0) (n)
= E h(V0 , Y[0,S1 ] , . . . , Sn , Vn , y[t−Pn Sj ]
)1nPn o
C[t−Pn i=1 S ≤t
j=1 j
Sj ]
i=1
Z t−Pn Sj !   #
j=1 (n)
× exp − α(yu(n) )du L y[t−Pn Sj ] VnP
dP[t− n
S j ]
(y(n) ) .
0 i=1 i=1

Now, if we condition on (Xt )t≤Tn−1 , Tn and Y(n−1) we know that the post-jump
(n−1)
location Vn admits the density k(XTn− , v) = k(YSn , v) with respect to the measure

89
Part II, Appendix C – Proof of the likelihood expression of a BDMM process

(n−1)
ν(XTn− , .) = ν(YSn , .) on E. Hence

E[h(X̃)1{Nt =n} ]
"Z Z
(0) (n)
=E h(V0 , Y[0,S1 [ , . . . , Sn , vn , y[t−Pn Sj ]
)1nPn o
E C[t−
Pn i=1 j=1
Sj ≤t
Sj ]
i=1
Z t−Pn Sj !  
j=1 (n)
× exp − α(yu(n) )du L y[t−Pn Sj ]
vn P
dP[t− n
Sj ]
(y(n) )
0 i=1 i=1
#
(n−1) (n−1)
× k(YSn , vn )ν(YSn , dvn ) .

Conditioning on (Xt )t≤Tn−1 , Tn−1 and Y(n−1) , we use again the law of Sn given by
(3.2) to get

E[h(X̃)1{Nt =n} ]

Z Z Z
(0) (n)
=E  h(V0 , Y[0,S1 [ , . . . , sn , vn , y[t−Pn−1 S )1nPn−1 o
j −sn ]

R+ E C Pn−1 i=1 j=1
Sj +sn ≤t
[t− Sj −sn ]
i=1
Z t−Pn−1 Sj +sn !  
j=1 (n)
× exp − α(yu(n) )du L y[t−Pn−1 S −s ] vn P
dP[t− n−1 (y(n) )
0 i=1 j n S i=1 j −sn ]
 Z sn  
× k(Ys(n−1)
n
, vn )ν(Ys(n−1)
n
, dvn )α(Ys(n−1)
n
) exp − α(Yu(n−1) )du dsn .
0

We can continue successively this process, using the (conditional) density of each
move process Y(i) on [0, Si ], of each post-jump location Vi , and of each inter-jump
time Si , and we obtain

E[h(X̃)1{Nt =n} ]
Z
(0) (n)
= h(v0 , y[s1 ] , . . . , sn , vn , y[t−Pn s ]
)1nPn o
Wn i=1 j s ≤t
j=1 j
Z t−Pn sj !
j=1 (n)
× exp − α(yu(n) )du × L(y[t−Pn s ]
)dP[t−
vn P
n
s ]
(y(n) )
0 i=1 j i=1 j
 Z sn 
× k(ys(n−1)
n
, vn )ν(ys(n−1)
n
, dvn )α(ys(n−1)
n
) exp − α(yu(n−1) )du dsn
0
n−1
Yh (i)
× L(y[si+1 ] )dP[svi+1
i
] (y )k(ysi
(i) (i−1)
, vi )ν(ys(i−1)
i
, dvi )α(ys(i−1)
i
)
i=1
 Z si  
(0)
× exp − α(yu(i−1) )du dsi L(y[s1 ] )dP[sv10] (y(0) )p(dv0 ),
0

90
where p denotes the distribution of the initial state on E. If we come back to the
initial expression (C.3) of X from that of X̃, using the shortcut L(x[ti ,ti+1 [ ) for
(i) (i) (i)
L(y[si+1 ] ) = L(z[0,ti+1 −ti ] , m(i) ) in view of xt = {(zt−Ti , m(i) )} for all t ∈ [ti , ti+1 [, we
obtain
Z
E[h(X)1{Nt =n} ] = h(x0 , x[0,t1 [ , . . . , tn − tn−1 , xtn , x[tn ,t] )1t1 ≤···≤tn ≤t
Wn
 Z t  n  
× exp − α(xu )du L(x[tn ,t] ) L(x[ti−1 ,ti [ )k(xt− , xti )α(xt− ) η (n) (dx),
Y
0 i i
i=1

where η (n) is the measure given for x = (x0 , x[0,t1 [ , . . . , tn − tn−1 , xtn , x[tn ,t] ) by

x
η (n) (dx) = 1t1 ≤···≤tn ≤t dP[tntn,t] (x)ν(xt−n , dxtn )dtn
n−1
Y xt

× dP[ti ,ti i+1 [ (x)ν(xt− , xti )dti dP[0,t
x0
1[
(x)p(dx0 ).
i
i=1

(i)
Here, just as we have used the natural notation L(x[ti ,ti+1 [ ) for L(y[si+1 ] ), we use
xT xTi
dP[ti ,tii+1 [ (x) for dP[si+1 ] (y ).
(i)

Since for any h, E(h(X)) = n≥0 E(h(X)1{Nt =n} ), we have proven that the
P

likelihood of X given by (C.3), with respect to the underlying measure η(.) =


η (n) (. ∩ Wn ) is given by
X

n∈N

 Z t  Nt  
L(X) = exp − α(Xu )du L(X[tNt ,t] ) L(X[Ti−1 ,Ti [ )k(XT − , XTi )α(XT − ) .
Y
0 i i
i=1

If we replace α and k by their specific expression in (C.2), we obtain the result


in the case of a BDMM process. Given that there is a one to one correspondance
between the representation (C.3) and the trajectory (Xs )0≤s≤t , we can view the
above likelihood as the likelihood of (Xs )0≤s≤t , where η translates to a measure on
the space of cadlag function from [0, t] to E.

91
Annexe D

P ROOF OF THE LAN PROPERTY OF A


BDMM PROCESS (T HEOREM 2 OF
C HAPTER 3)


Let us fix N ≥ 1 and h ∈ R` . We let ϑN = ϑ + h/ N and we denote

Lt (ϑ + √h )
Λ ϑN /ϑ
(t) = log N
.
Lt (ϑ)

By Theorem 1 the log-likelihood ratio process is given by :

ϑ /ϑ ϑ /ϑ ϑ /ϑ
ΛϑN /ϑ (t) = ΛLN (t) + ΛβN (t) + Λδ N (t) + ΛτϑN /ϑ (t)
ϑ /ϑ ϑ /ϑ ϑ /ϑ
+ ΛkβN (t) + ΛkδN (t) + ΛkτN (t), (D.1)

where

γ(ϑN , Xs− )
Z t !
Z t
ΛγϑN /ϑ (t)
= log dNs − (γ(ϑN , Xs ) − γ(ϑ, Xs ))ds,
γ
(D.2)
0 γ(ϑ, Xs− ) 0

kγ (ϑN , Xs− , Xs ) ,
Z t !
ϑ /ϑ
ΛkγN (t) = log dNsγ , (D.3)
0 kγ (ϑ, Xs− , Xs )
ϑ /ϑ L(ϑN , X[TNt ,t] ) NXt −1
L(ϑN , X[Ti ,Ti+1 [ )
ΛLN (t) = log + log . (D.4)
L(ϑ, X[TNt ,t] ) i=0 L(ϑ, X[Ti ,Ti+1 [ )

The proof of Theorem 2 follows a standard scheme as in [Lus92] and [Löc02a].


The main step consists in proving the LAN decomposition for each of the three
terms (D.2), (D.3) and (D.4) above, which is the statement of the three following
lemmas. Then (3.17) is deduced by combining these decompositions, as carried out
next.

93
Part II, Appendix D – Proof of the LAN property of a BDMM process

Lemma 1. Under the same assumptions as in Theorem 2, we have for any t > 0,
h ∈ R` and ϑ ∈ Θ,

1
Λϑγ N /ϑ (tN ) = hT MγN,ϑ (t) − hT hMγN,ϑ i(t)h + RemγN,ϑ,h (t), (D.5)
2

where RemγN,ϑ,h (t) tends to 0 in Pϑx0 -probability when N → +∞, and (MγN,ϑ (t))t>0
is a martingale with respect to FtN given by (3.9).

Lemma 2. Under the same assumptions as in Theorem 2, we have for any t > 0,
h ∈ R` and ϑ ∈ Θ,

ϑ /ϑ 1 kγ
ΛkγN (tN ) = hT MkN,ϑ (t) − hT hMkN,ϑ i(t)h + RemN,ϑ,h (t), (D.6)
γ
2 γ

k
γ
where RemN,ϑ,h (t) tends to 0 in Pϑx0 -probability when N → +∞, and (MkN,ϑ
γ
(t))t>0
is a martingale with respect to FtN given by (3.10).

Lemma 3. Under the same assumptions as in Theorem 2, we have for any t > 0,
h ∈ R` and ϑ ∈ Θ,

ϑ /ϑ 1
ΛLN (tN ) = hT MLN,ϑ (t) − hT hMLN,ϑ i(t)h + RemLN,ϑ,h (t), (D.7)
2

where RemLN,ϑ,h (t) tends to 0 in Pϑx0 -probability when N → +∞, and (MLN,ϑ (t))t>0
is a martingale with respect to FtN given by (3.11).

The proofs of these three lemmas are postponed to the end of this section. Let
us deduce (3.17). From their statements and (D.1), we have

1 X N,ϑ
ΛϑN /ϑ (tN ) = hT M N,ϑ (t) − hT hM i(t)h + RemN,ϑ,h (t),
2 i∈S i

where S = {L, β, δ, τ, kβ , kδ , kτ }, M N,ϑ (t) = i∈S MiN,ϑ and RemN,ϑ,h (t) = i∈S RemiN,ϑ,h (t).
P P

By Lemmas 1, 2 and 3, we know that RemN,ϑ,h (t) tends to 0 in Pϑx0 -probability. To


show the decomposition (3.17), it remains to prove that

hM N,ϑ i(t) = hMiN,ϑ i(t),


X

i∈S

94
which, given the definition of M N,ϑ (t), boils down to proving that

∀i, j ∈ S, i 6= j, hMiN,ϑ , MjN,ϑ i(t) = 0. (D.8)

First, for i = L, since MLN,ϑ (t) is a continuous martingale with finite variations,
we have that hMLN,ϑ , MjN,ϑ i(t) = 0 for any j 6= L, see [Kle12]. Second, for all i, j ∈
S \ {L}, i 6= j, we have

[MiN,ϑ , MjN,ϑ ](t) = ∆MiN,ϑ (s)∆MjN,ϑ (s),


X

s≤t

where ∆MiN,ϑ (s) = MiN,ϑ (s) − MiN,ϑ (s− ). For γ 6= γ 0 , MγN,ϑ (t) and MγN,ϑ 0 (t) do not
have any jump in common, and similarly for Mγ (t) and Mkγ 0 (t), since a birth, a
N,ϑ N,ϑ

death or a mutation cannot occur at the same moment almost surely. Consequently
[MγN,ϑ , MγN,ϑ
0 ](t) = [MγN,ϑ , MkN,ϑ
0
γ
](t) = 0 for any γ 6= γ 0 . This implies (D.8) for i = γ
and j ∈ {γ 0 , kγ0 }, γ 6= γ 0 . To complete the proof of (D.8), it remains to show that
hMγN,ϑ , MkN,ϑ
γ
i(t) = 0. We have that

1 Z tN ∇1 γ(ϑ, Xs− ) (∇1 kγ (ϑ, Xs− , Xs ))T


[MγN,ϑ , MkN,ϑ ](t) = dNsγ ,
γ
N 0 γ(ϑ, Xs )
− kγ (ϑ, Xs , Xs )

so that by Lemma 4, the associated angle bracket (corresponding to the compensator


of the square bracket, see [Kle12]) is given by

1 Z tN Z
hMγN,ϑ , MkN,ϑ
γ
i(t) = ∇1 γ(ϑ, Xs ) (∇1 kγ (ϑ, Xs , y))T νγ (Xs , dy)ds.
N 0 E

Remember that for any ϑ ∈ Θ and any x ∈ E, E kγ (ϑ, x, y)ν(x, dy) = 1. This im-
R

plies E ∇1 kγ (ϑ, x, y)νγ (x, dy) = 0 if interchange of integration and differentation is


R

valid. In particular, it can be showed that the latter holds under Condition B(kγ , γ).
Consequently, hMγN,ϑ , MkN,ϑγ
i(t) = 0 and (D.8) is proven, which completes the proof
of (3.17).

The last statement of Theorem 2, that is the convergence (3.18), is a direct


consequence of Theorems 4.12 and 4.22 of [HL00], thanks to our hypothesis (H)
that implies that Ø is a recurrent atom for (Xt )t>0 .

95
Part II, Appendix D – Proof of the LAN property of a BDMM process

D.1 Proof of Lemma 1


Let us prove that RemγN,ϑ,h (t) converges to 0 in Pϑx0 -probability, where

1
RemγN,ϑ,h (t) = Λϑγ N /ϑ (tN ) − hT MγN,ϑ (t) + hT hMγN,ϑ i(t)h,
2

and MγN,ϑ (t) is given by (3.9). From (D.2), we get

Z tN "
γ(ϑN , Xs− ) γ(ϑN , Xs− )
! #
ΛγϑN /ϑ (tN ) = log − + 1 dNsγ
0 γ(ϑ, Xs− ) γ(ϑ, Xs− )
Z tN "
γ(ϑN , Xs− )
#
+ − 1 dMsγ ,
0 γ(ϑ, Xs− )
Z t
where Mtγ = Ntγ − γ(ϑ, Xs )ds is a Ft -martingale. We have in particular [M γ ]t = Nt
0
and hM γ it = γ(ϑ, Xs )ds, see for instance [Kle12]. We deduce that
Rt
0

1 Z tN (∇1 γ)(∇1 γ)T


[MγN,ϑ ](t) = 2
(ϑ, Xs− )d[M γ ]s
N 0 γ
1 Z tN
(∇1 γ)(∇1 γ)T
= (ϑ, Xs− )dNsγ .
N 0 γ2

Note that γ(ϑ, XT − ) > 0 for all γ-jump time Ti , so that the previous formula remains
i
true with the addition of 1γ(ϑ,Xs− )>0 in the integrand. So we get

1 Z tN (∇1 γ)(∇1 γ)T


hMγN,ϑ i(t) = 1γ>0 (ϑ, Xs )ds,
N 0 γ

as claimed in (3.12), which well satisfies the property that [MγN,ϑ ](t) − hMγN,ϑ i(t) is
a martingale. Using these representations, we may write

RemγN,ϑ,h (t)
1   1
= Λϑγ N /ϑ (tN ) − hT MγN,ϑ (t) + hT hMγN,ϑ i(t) − [MγN,ϑ ](t) h + hT [MγN,ϑ ](t)h
2 2
= St + At + Rt ,
N N N

where
γ(ϑN , Xs− ) hT ∇1 γ(ϑ, Xs− )
Z tN !
StN = −1− √ dMsγ ,
0 γ(ϑ, Xs− ) N γ(ϑ, Xs− )

96
D.1. Proof of Lemma 1

1 Z tN (hT ∇1 γ)2 1 Z tN (hT ∇1 γ)2


t =
AN 1γ>0 (ϑ, Xs )ds − (ϑ, Xs− )dNsγ ,
2N 0 γ 2N 0 γ2
γ(ϑN , Xs− ) γ(ϑN , Xs− ) 1 (hT ∇1 γ)2
Z tN ! !
Rt =
N
log − +1+ (ϑ, Xs− ) dNsγ .
0 γ(ϑ, X s − ) γ(ϑ, X s − ) 2N γ 2

To complete the proof, we show below that each of these three terms tends to 0 in
Pϑx0 -probability.

First step : Convergence of StN to 0 in probability.


By the Markov inequality, we have for any a > 0,
  1 ϑ  N 2 1 ϑ  N 
Pϑx0 |StN | > a ≤ E (S ) = E hS it ,
a2 x 0 t
a2 x 0

where the last equality comes from the fact that (StN )2 − hS N it is by definition a
 
centred martingale (see [Kle12]). We prove in the following that Eϑx0 hS N it tends
to 0. We have
!2
Z tN
γ(ϑN , Xs− ) hT ∇1 γ(ϑ, Xs− )
[S ]t =
N
−1− √ dNsγ
0 γ(ϑ, Xs− ) N γ(ϑ, Xs− )
!2
Z tN
γ(ϑN , Xs− ) hT ∇1 γ(ϑ, Xs− )
= −1− √ 1γ(ϑ,Xs− )>0 dNsγ ,
0 γ(ϑ, Xs− ) N γ(ϑ, Xs− )

so that
!2
Z tN
γ(ϑN , Xs ) hT ∇1 γ(ϑ, Xs )
hS it =
N
−1− √ 1γ(ϑ,Xs )>0 γ(ϑ, Xs )ds. (D.9)
0 γ(ϑ, Xs ) N γ(ϑ, Xs )

Note that for any ϑ, ϑ0 ∈ Θ and any x,


Z 1
T
γ(ϑ , x) − γ(ϑ, x) =
0
(∇1 γ(ϑ + t(ϑ0 − ϑ), x)) (ϑ0 − ϑ)dt.
0

Thus we have for all x ∈ E and ϑ, ϑ0 ∈ Θ such that γ(ϑ, x) > 0 :


!2
γ(ϑ0 , x) (∇1 γ(ϑ, x))T (ϑ0 − ϑ)
− 1−
γ(ϑ, x) γ(ϑ, x)
!2
Z 1
(∇1 γ(ϑ + t(ϑ0 − ϑ), x) − ∇1 γ(ϑ, x))T (ϑ0 − ϑ)
= dt
0 γ(ϑ, x)
2
≤ kϑ0 − ϑk fϑγ (x, kϑ0 − ϑk), (D.10)

97
Part II, Appendix D – Proof of the LAN property of a BDMM process

where fϑγ (x, ρ) is given by (3.6). Applying this inequality in (D.9) with ϑ0 = ϑN =

ϑ + h/ N , we obtain
!
khk2 Z tN γ khk
N
hS it ≤ f ϑ Xs , √ γ(ϑ, Xs )ds. (D.11)
N 0 N

Since fϑγ (x, .) is increasing, we have by condition B(γ) that for any ϑ ∈ Θ and N
large enough, !
khk
sup fϑ x, √
γ
γ(ϑ, x) < d(ϑ), (D.12)
x∈E N
for some d(ϑ) > 0. We can thus apply the ergodic assumption (H) to the right-hand
side of (D.11) to get

khk2 cϑ (x0 )d(ϑ)


!
  Z
khk
Eϑx0 N
hS it ≤ + khk t
2
fϑγ x, √ γ(ϑ, x) µϑ∞ (dx).
rϑ N E N

In view of (D.12), and since for any x ∈ E, fϑγ (x, khk/ N ) → 0 when N → 0, we
can conclude by the dominated convergence theorem.

t to 0 in probability.
Second step : Convergence of AN
Let  > 0. We have 2At = A1 − A2 − A3 where
N

1 Z tN (hT ∇1 γ)2
A1 = 1γ>0 (ϑ, Xs )1n hT ∇ 1 γ √ o ds,
N 0 γ γ
(ϑ,Xs ) > N

1 Z tN (hT ∇1 γ)2
A2 = (ϑ, Xs− )1n hT ∇1 γ
γ
√ o dNs , (D.13)
N 0 γ2 γ
(ϑ,Xs− ) > N

1 Z tN (hT ∇1 γ)2
A3 = 1γ>0 (ϑ, Xs− )1n hT ∇ 1 γ
γ
√ o dMs .
N 0 γ2 γ
(ϑ,Xs− ) ≤ N

Note that Eϑx0 (|A1 |) = Eϑx0 (A1 ) = Eϑx0 (A2 ) = Eϑx0 (|A2 |). We prove below that for
any  > 0, Eϑx0 (|A1 |) → 0 as N → ∞ and then we deal with the convergence in
probability of A3 .
By condition A(γ), we know that given ϑ ∈ Θ, the integrand in A1 is uniformly
bounded in Xs by some d(ϑ) > 0. We can then apply (H) to get

cϑ (x0 )d(ϑ) Z
(hT ∇1 γ)2
Eϑx0 (|A1 |) ≤ +t 1γ>0 (ϑ, x)1n hT ∇ 1 γ √ o µϑ∞ (dx).
rϑ N E γ γ
(ϑ,x) > N

98
D.1. Proof of Lemma 1

This integrand is bounded thanks to condition A(γ) and converges to 0 as N → ∞


for any given x and ϑ. We thus conclude by the dominated convergence theorem
that Eϑx0 (|A1 |) → 0 as N → 0.
Concerning A3 , since it is a centred martingale, we have for any a > 0,

1 ϑ 1
Pϑx0 (|A3 | > a) ≤ 2
Ex0 (|A3 |2 ) = 2 Eϑx0 (hA3 i)
a a

where

1 Z tN (hT ∇1 γ)4
hA3 i = 1 γ>0 (ϑ, Xs )1n hT ∇ 1 γ √ o ds
N2 0 γ3 γ
(ϑ,Xs ) ≤ N

2 Z tN (hT ∇1 γ)2
≤ 1γ>0 (ϑ, Xs )ds.
N 0 γ

We can again apply (H) to the latest integral, thanks to condition A(γ), and we
obtain
Eϑx0 (hA3 i) ≤ 2 C(x0 , ϑ, h)

where C(x0 , ϑ, h) > 0. So for any a > 0 and any η > 0, we can choose  so that
Pϑx0 (|A3 | > a) ≤ η. For these choices, we can further choose N large enough so
that Pϑx0 (|A1 | > a) ≤ η and Pϑx0 (|A2 | > a) ≤ η, because for any  > 0, Eϑx0 (|A1 |) =
Eϑx0 (|A2 |) → 0 as N → ∞. This entails the convergence of AN t to 0 in Px0 -probability.
ϑ

Third step : Convergence of RtN to 0 in probability.


Denoting by ϕ : x > −1 7→ log(1 + x) − x + x2 /2, we have RtN = R1 − R2 /2 with

γ(ϑN , Xs− )
Z tN !
R1 = ϕ − 1 dNsγ ,
0 γ(ϑ, Xs− )
" #2 #2 
γ(ϑN , Xs− ) hT ∇1 γ(ϑ, Xs− ) 
Z tN "
R2 = −1 − √ dNsγ . (D.14)
γ(ϑ, Xs− ) )

0 N γ(ϑ, X s −

We start by proving that R2 tends to 0 in probability. Write R2 = (f 2 − g 2 )dNsγ


R

with obvious notations. We have by the Cauchy-Schwartz inequality and the fact
that (f + g)2 = (f − g + 2g)2 ≤ 2(f − g)2 + 8g 2 ,
Z Z
R22 ≤ (f − g) 2
dNsγ (f + g)2 dNsγ
Z  Z Z 
≤ (f − g)2 dNsγ 8 (f − g)2 dNsγ + 8 g 2 dNsγ .

99
Part II, Appendix D – Proof of the LAN property of a BDMM process

To prove the convergence of R2 , it is then sufficient to show that (f − g)2 dNsγ =


R

oPϑx (1) and g 2 dNsγ = OPϑx (1). We have


R
0 0

Z
Eϑx0 (f − g)2 dNsγ
!2
Z tN
γ(ϑN , Xs− ) hT ∇1 γ(ϑ, Xs− )
= Eϑx0 −1− √ dNsγ (D.15)
0 γ(ϑ, Xs− ) N γ(ϑ, Xs− )
!2
Z tN
γ(ϑN , Xs ) hT ∇1 γ(ϑ, Xs )
= Eϑx0 −1− √ 1γ(ϑ,Xs )>0 γ(ϑ, Xs )ds,
0 γ(ϑ, Xs ) N γ(ϑ, Xs )

which is exactly Eϑx0 (hS N it ), see (D.9). We have already proven that this term tends
to 0, so (f − g)2 dNsγ = oPϑx (1). Now, for any η > 0, by the Markov’s inequality, we
R
0
can choose M > 0 such that

1 ϑ 1 Z tN (hT ∇1 γ(ϑ, Xs ))2


!
t
Z 
Pϑx0 g 2
dNsγ >M ≤ E ds ≤ C(ϑ, h) < η,
M x0 N 0 γ(ϑ, Xs ) M

where C(ϑ, h) is a positive upper-bound deduced from condition A(γ). This proves
that g 2 dNsγ = OPϑx (1) and completes the proof that R2 tends to 0 in probability.
R
0

It remains to address the convergence of R1 . For any  > 0, we have R1 = R11 + R12
with
γ(ϑN , Xs− )
Z tN !
R11 = ϕ − 1 1n γ(ϑN ,Xs− ) o dN γ , (D.16)
0 γ(ϑ, Xs− ) γ(ϑ,X − )
s
−1 > s

γ(ϑN , Xs− )
Z tN !
R12 = ϕ − 1 1n γ(ϑN ,X − )
o dN γ . (D.17)
0 γ(ϑ, Xs− ) s
γ(ϑ,X − )
s
−1 ≤ s

For R11 , note that for any a > 0,


 
Z tN
Pϑx0 (R11 > a) ≤ Pϑ 
x0 1n γ(ϑN ,X − )
s
o dN γ
s > b , (D.18)
0 γ(ϑ,X − )
−1 >
s

for any b < 1. This is because when b < 1,


 
Z tN
 1n γ(ϑN ,X − )
o dN γ ≤ b
s −1 > s
0 γ(ϑ,X − )
s
 

=⇒ 
for all γ-jump time Ti ≤ tN , 1 = 0
 
 γ(ϑN ,X − ) 
T 
i −1 >
γ(ϑ,X − )
T
i

100
D.1. Proof of Lemma 1

which implies that R11 = 0 ≤ a. Moreover

1n γ(ϑN ,x)
o ≤ 1n γ(ϑN ,x) hT ∇1 γ(ϑ,x)
o + 1n hT ∇1 γ(ϑ,x)
o.
γ(ϑ,x)
−1 > γ(ϑ,x)
−1− √ > 2 √ > 2
N γ(ϑ,x) N γ(ϑ,x)

Using this and the fact that for any z, 1{|z|>  } ≤ 4−2 z 2 1{|z|>  } , we get
2 2

Z tN
1n γ(ϑN ,X − )
o dN γ
s −1 > s
0 γ(ϑ,X − )
s
!2
Z tN
γ(ϑN , Xs− ) hT ∇1 γ(ϑ, Xs− )
≤ 4 −2
−1− √ dNsγ
0 γ(ϑ, Xs− ) N γ(ϑ, Xs− )
!2
Z tN
hT ∇1 γ(ϑ, Xs− )
+ 4 −2
√ 1n hT ∇1 γ(ϑ,Xs− )
o dN γ .
N γ(ϑ, Xs− ) √ > 2 s
0 N γ(ϑ,Xs− )

The first term is exactly 4−2 (f − g)2 dNsγ , as already studied in (D.15), and the
R

second term is 4−2 A2 (up to /2 instead of ), see (D.13). Both terms tend to 0 in
Pϑx0 -probability whatever the value of  > 0. This proves that the right-hand side
term in (D.18) tends to 0 for any b < 1, which yields the convergence of R11 in
Pϑx0 -probability to 0.

For R12 given by (D.17), we choose  < 1


2
and since |ϕ(x)| ≤ 2|x|3 for |x| ≤ 21 ,
we have
3
Z tN
γ(ϑN , Xs− )
R12 ≤ 2 − 1 1n γ(ϑN ,X − )
o dN γ
0 γ(ϑ, Xs− ) s
γ(ϑ,X − )
s
−1 ≤ s

!2
Z tN
γ(ϑN , Xs− )
≤ 2 −1 dNsγ .
0 γ(ϑ, Xs− )

This last term is 2(R2 + g 2 dNsγ ) if we use as previously the notation R2 = (f 2 −


R R

g 2 )dNsγ for R2 given by (D.14). We already know that U := 2(R2 + g 2 dNsγ ) is a


R

OPϑx (1) as N → ∞. This means that for any η > 0, there exists M such that for
0
N sufficiently large Pϑx0 (U > M ) < η. This implies that for any a > 0 and η > 0,
we can choose  small enough ( < a/M ) so that Pϑx0 (U > a) < Px0 (U > M ) < η.
So for any a > 0 and η > 0, we can choose  so that Pϑx0 (R12 > a) < η for N large
enough. The same inequality holds true for R11 since we have proven that R11 tends
to 0 in probability for any  > 0. So R1 = R11 + R12 tends to 0 in Pϑx0 -probability,
which concludes the proof.

101
Part II, Appendix D – Proof of the LAN property of a BDMM process

D.2 Proof of Lemma 2


The proof follows the same scheme as the proof of Lemma 1. Consider

kγ ϑ /ϑ 1
RemN,ϑ,h (t) = ΛkγN (tN ) − hT MkN,ϑ (t) + hT hMkN,ϑ i(t)h,
γ
2 γ

where MkN,ϑ
γ
(t) is given by (3.10). The fact that MkN,ϑ
γ
is a FtN -martingale is a
consequence of Lemma 4. We deduce that

1 Z tN ∇1 kγ (∇1 kγ )T
[MkN,ϑ ](t) = (ϑ, Xs− , Xs )dNsγ ,
γ
N 0 kγ2
1 Z tN Z ∇1 kγ (∇1 kγ )T
hMkN,ϑ
γ
i(t) = 1kγ >0 (ϑ, Xs , y)νγ (Xs , dy)γ(ϑ, Xs )ds.
N 0 E kγ

Starting from (D.3) and using the above representations we can decompose
kγ kγ
RemN,ϑ,h (t) as in the proof of Lemma 1, that is RemN,ϑ,h t + Rt ,
(t) = StN + AN N

where

kγ (ϑN , Xs− , Xs ) hT ∇1 kγ (ϑ, Xs− , Xs )


Z tN !
StN = −1− √ dNsγ
0 kγ (ϑ, Xs− , Xs ) N kγ (ϑ, Xs− , Xs )
1 Z tN Z T
+√ h ∇1 kγ (ϑ, Xs , y)νγ (Xs , dy)γ(ϑ, Xs )ds,
N 0 E

 2
1 Z tN Z hT ∇1 kγ
t =
AN 1kγ >0 (ϑ, Xs , y)νγ (Xs , dy)γ(ϑ, Xs )ds
2N 0 E kγ
 2
1 Z tN hT ∇1 kγ
− (ϑ, Xs− , Xs )dNsγ ,
2N 0 kγ2

kγ (ϑN , Xs− , Xs ) kγ (ϑN , Xs− , Xs )


Z tN !
RtN = log − +1
0 kγ (ϑ, Xs− , Xs ) kγ (ϑ, Xs− , Xs )
 2 
T
1 h ∇ 1 kγ
+ (ϑ, Xs− , Xs ) γ
 dNs .
2N kγ2

We show that each of these three terms tends to 0 in Pϑx0 -probability as in the proof
of Lemma 1.

102
D.3. Proof of Lemma 3

First step : We have


!2
Z tN
kγ (ϑN , Xs− , Xs ) hT ∇1 kγ (ϑ, Xs− , Xs )
[StN ] = −1− √ dNsγ
0 kγ (ϑ, Xs− , Xs ) N kγ (ϑ, Xs− , Xs )

so that by Lemma 4 in Section D.4,


!2
Z tN Z
kγ (ϑN , Xs , y) hT ∇1 kγ (ϑ, Xs , y)
hS it =
N
−1− √
0 E kγ (ϑ, Xs , y) N kγ (ϑ, Xs , y)
× kγ (ϑ, Xs , y)νγ (Xs , dy)γ(ϑ, Xs )ds.

Using the same inequalities as in (D.10) we obtain that


!
khk2 Z tN kγ khk
N
hS it ≤ fϑ Xs , √ γ(ϑ, Xs )ds
N 0 N
k
where fϑ γ is given by (3.7). We can then deduce that Eϑx0 (hS N it ) tends to 0 by use of
Conditions B(kγ , γ), (H) and the dominated convergence theorem, as in the proof
of Lemma 1.
Second step : The proof is identical to the second step of the proof of Lemma 1. It
hT ∇1 kγ

t according to whether
consists in splitting the integrals in AN kγ
(ϑ, X s − , Xs ) >  N
or not. The convergence of At is then proved similarly, by use of Conditions A(kγ , γ),
N

(H) and the dominated convergence theorem.


Third step : The proof follows exactly the same lines as the proof of the third step
of Lemma 1 where γ(., .) is replaced by kγ (., ., .) and Condition A(kγ , γ) is used
instead of Condition A(γ).

D.3 Proof of Lemma 3


(i)
Remember that Xt = {(Zt−Ti , m(i) )} for all t ∈ [Ti , Ti+1 [, and that L(ϑ, X[Ti ,Ti+1 [ )
(i)
is a shortcut for L(Z[0,Ti+1 −Ti ] , m(i) ) given by (3.5). Accordingly, we have

Z Ti+1
(i)
log L(ϑ, X[Ti ,Ti+1 [ ) = v̄n (ϑ, Xs )T a−1
n (Xs )dZs−Ti
Ti
1 Z Ti+1
− v̄n (ϑ, Xs )T a−1
n (Xs )v̄n (ϑ, Xs )ds,
2 Ti

103
Part II, Appendix D – Proof of the LAN property of a BDMM process

(i)
where v̄n (ϑ, Xs ) stands for v̄n (ϑ, Zs−Ti , m(i) ), with n = n(Xs ), and similarly for
n (Xs ). Then we have
a−1

L(ϑN , X[Ti ,Ti+1 [ ) Z Ti+1 (i)


log = (v̄n (ϑN , Xs ) − v̄n (ϑ, Xs ))T a−1
n (Xs )(dZs−Ti − v̄n (ϑ, Xs )ds)
L(ϑ, X[Ti ,Ti+1 [ ) Ti

1 Z Ti+1
− (v̄n (ϑN , Xs ) − v̄n (ϑ, Xs ))T a−1
n (Xs )(v̄n (ϑN , Xs ) − v̄n (ϑ, Xs )ds.
2 Ti

Consequently, we may rewrite (D.4) as

ϑ /ϑ XZ t (i)
ΛLN (t) = 1[Ti ;Ti+1 [ (s)(v̄n (ϑN , Xs ) − v̄n (ϑ, Xs ))T a−1
n (Xs )dMs−Ti
i≥0 0
1Z t
− (v̄n (ϑN , Xs ) − v̄n (ϑ, Xs ))T a−1
n (Xs )(v̄n (ϑN , Xs ) − v̄n (ϑ, Xs ))ds. (D.19)
2 0

where Ms(i) = 0 if s < 0 and


Z s
(i)
Ms(i) = Z(i)
s − Z0 − v̄n (ϑ, Z(i)
u )du, s ≥ 0. (D.20)
0

We know that Z(i) is the solution of M |n (z(i) , m(i) ) given by (3.4), where (z(i) , m(i) )
are such that XTi = {(z(i) , m(i) )} and n = n(XTi ). This implies that (Ms(i) ) is a
martingale with respect to FtZ , the natural filtration associated to Z(i) . Note that
(i)

(Ms(i) ) is independent from Ti and that Ft is generated by :


n o
(N ) (i)
t
TNt , XTNt , Z[0,t−TNs ]
, (Ti , XTi , Z[0,Ti+1 −Ti ] )i=1,...,Nt −1 .

This implies that for Ti ≤ t < Ti+1 , if s ∈ [Ti , t],

(i) (i) (i) (i)


E(Mt−Ti |Fs ) = E(Mt−Ti |Ti , Fs−T
Z
i
) = Ms−Ti ,

(i)
while if s < Ti , E(Mt−Ti |Fs ) = 0.
Using these properties, we can easily Zverified that MLN,ϑ given by (3.11) is a
s
FtN -martingale. Similarly, since hM (i) is = an (Z(i)
u )du, we have
0

1 X Z tN
hMLN,ϑ i(t) = 1[Ti ;Ti+1 [ (s)(∇1 v̄n (ϑ, Xs ))T a−1
n (Xs )an (Xs )an (Xs )∇1 v̄n (ϑ, Xs )ds
−1
N i≥0 0
1 Z tN
= (∇1 v̄n (ϑ, Xs ))T a−1
n (Xs )∇1 v̄n (ϑ, Xs )ds.
N 0

104
D.3. Proof of Lemma 3

From this representation, (3.11) and (D.19), we have

ϑ /ϑ 1 1
RemLN,ϑ,h (t) = ΛLN (tN ) − hT MLN,ϑ (t) + hT hMLN,ϑ i(t)h = StN − RtN ,
2 2

where

X Z tN
StN = 1[Ti ;Ti+1 [ (s) v̄n (ϑN , Xs ) − v̄n (ϑ, Xs )
i≥0 0
!T
h (i)
− ∇1 v̄n (ϑ, Xs ) √ n (Xs )dMs−Ti ,
a−1
N

and
Z tN
RtN = (v̄n (ϑN , Xs ) − v̄n (ϑ, Xs ))T a−1
n (Xs )(v̄n (ϑN , Xs ) − v̄n (ϑ, Xs ))
0

1
!
− hT (∇1 v̄n (ϑ, Xs ))T a−1
n (Xs )∇1 v̄n (ϑ, Xs )h ds.
N

Let us prove that both StN and RtN tend to 0 in Pϑx0 -probability. For StN , using
the Markov inequality and the fact that Eϑx0 ((StN )2 ) = Eϑx0 (hStN i), this boils down
to proving that Eϑx0 (hStN i) tends to 0. We have, since an = σ̄n σ̄nT ,

Z tN !T
h
hStN i = v̄n (ϑN , Xs ) − v̄n (ϑ, Xs ) − ∇1 v̄n (ϑ, Xs ) √ n (Xs )
a−1
0 N
!
h
× v̄n (ϑN , Xs ) − v̄n (ϑ, Xs ) − ∇1 v̄n (ϑ, Xs ) √ ds
N
Z tN ! 2
h
= σ̄n (Xs )−1 v̄n (ϑN , Xs ) − v̄n (ϑ, Xs ) − ∇1 v̄n (ϑ, Xs ) √ ds.
0 N

Using the same argument as for (D.10), we get


!
khk2 Z tN 2 khk
hStN i ≤ σ̄n (Xs )−1 fϑmove Xs , √ ds.
N 0 N

where fϑmove is given by (3.8). We then deduce that Eϑx0 (hS N it ) tends to 0 thanks
to the dominated convergence theorem, using Conditions Bmove and (H) as in the
first step of the proof of Lemma 1.

105
Part II, Appendix D – Proof of the LAN property of a BDMM process

Concerning RtN , note that


Z tN
2 1 2
RtN = σ̄n (Xs )−1 (v̄n (ϑN , Xs ) − v̄n (ϑ, Xs )) − σ̄n (Xs )−1 ∇1 v̄n (ϑ, Xs )h ds,
0 N
Z
that reads (kf k2 −kgk2 )ds with obvious notation, so that using the same argument
as
Z in the third step of theZproof of Lemma 1 (term R2 ), it suffices to show that
kf − gk2 ds = o(1) and kgk2 ds = O(1) in Pϑx0 -probability. But the former is
exactly hStN i studied above, that has been proven to converge to 0 in probability.
And the expectation of the latter is bounded by use of Condition Amove , proving
that it is O(1) in Pϑx0 -probability. This concludes the proof.

D.4 A useful martingale


The following result is useful in the proof of Theorem 2 in Section D. It is proven
in Lemma 54 of [Man23], the BDMM being a particular case of a jump-move process
(see the proof of Theorem 1 in Section C). It is also stated under a slightly different
setting in Proposition 3.3 (b) of [Löc02b].

Lemma 4. Let (Xt )t≥0 be a BDMM process on E, let g be a measurable bounded


function defined on E × E and introduce for any t > 0
Z t Z t Z
Mt∗ = g(Xs− , Xs )dNsγ − γ(Xs ) g(Xs , y)kγ (Xs , y)νγ (Xs , dy)ds.
0 0 E

If Ntγ < ∞ for any t ≥ 0, then (Mt∗ )t≥0 is a Ft -martingale.

106
Annexe E

E RGODICITY OF THE BDMM PROCESS

The following proposition provides some conditions ensuring the hypothesis (H),
namely non-explosion and geometric ergodicity of the BDMM process. It is based
on the study conducted in [LLGM22] for birth-death-move processes (without mu-
tations). The arguments in presence of mutations are similar and sketched below.
The conditions include the technical assumption that the process is Feller. This pro-
perty is discussed in [LLGM22] and proved for several examples of transition kernels
that include all examples of this paper, provided the underlying spatial state Λ is
compact. The other conditions deal with the intensity functions of the jumps. First,
the total intensity function α is assumed to be bounded, to avoid explosion of the
process. Second, the death intensity function δ must compensate in a proper way
the birth intensity function β. Notably, the ergodic properties do not depend on
the inter-jump move process, neither on the mutation dynamics. We introduce the
following notation :

βn = sup β(x), δn = inf δ(x) and αn = βn + δn . (E.1)


x∈En x∈En

In fact the conditions of geometric ergodicity below are exactly the same as the
conditions of ergodicity for a simple birth-death process (ηt )t≥0 on N with birth rate
(βn ) and death rate (δn ), as established in [KM57]. This is because to address the
ergodic properties of a BDMM (Xt )t≥0 , we construct a coupling between (Xt )t≥0
and (ηt )t≥0 , in such a way that ηt = 0 implies Xt = Ø. Consequently Ø becomes
a positive recurrent state for (Xt )t≥0 whenever 0 is a positive recurrent state for
(ηt )t≥0 , which implies the geometric ergodicity of (Xt )t≥0 .

Let (Xt )t≥0 be a Feller BDMM process with a bounded intensity function α.

107
Part II, Appendix E – Ergodicity of the BDMM process

Suppose that δn > 0 for all n ≥ 1 and one of the following condition holds :

(i) there exists n0 ≥ 1 such that βn = 0 for any n ≥ n0 , (E.2)


∞ ∞
β1 . . . βn−1 δ1 . . . δn
(ii) βn > 0 for all n ≥ 1, < ∞ and = ∞, (E.3)
X X

n=2 δ1 . . . δn n=1 β1 . . . βn

where βn and δn are defined by (E.1). Assume moreover that


s

β1 . . . βn−1
and ∃N ≥ 0, s.t. ∀ n ≥ N, βn ≤ δn+1 .
X
<∞
n=2 δ1 . . . δn

Then (H) is satisfied.


As mentioned above, following [Pre75] and [LLGM22], the proof of this result is
based on a coupling between (Xt )t≥0 and (ηt )t≥0 , where the latter is a simple birth-
death process with birth and death rates given by (E.1). We detail below how we
construct the coupled process Čt = (Xt , ηt ). This is a straightforward generalisation
of the construction in [LLGM22], where we account for the presence of mutations.
Specifically, Č is a jump move process on E × N with intensity function α̌ and
transition kernel Ǩ defined as follows. The intensity function α̌ : E × N → R+ is
given by 
 α(x) + α if x ∈ Em , m 6= n,
n
α̌(x, n) =
 β + δ(x) + τ (x) if x ∈ En .
n

Letting K be the kernel given by (C.1), the transition kernel Ǩ takes the form, for
any A ⊂ E :

1. If x ∈ Em , m 6= n :

α(x)
Ǩ((x, n); A × {n}) = K(x, A);
α̌(x, n)

βn
Ǩ((x, n); {x} × {n + 1}) = ;
α̌(x, n)
δn
Ǩ((x, n); {x} × {n − 1}) = .
α̌(x, n)

2. If x ∈ En :
β(x)
Ǩ((x, n); A × {n + 1}) = Kβ (x, A);
α̌(x, n)

108
βn − β(x)
Ǩ((x, n); {x} × {n + 1}) = ;
α̌(x, n)
δn
Ǩ((x, n); A × {n − 1}) = Kδ (x, A);
α̌(x, n)
δ(x) − δn τ (x)
Ǩ((x, n); A × {n}) = Kδ (x, A) + Kτ (x, A).
α̌(x, n) α̌(x, n)

The inter-jump move process of Č is in turn a simple independent coupling between


the move Y of X and a constant move on N (i.e. yt = y0 for all t ≥ 0).
The fact that the above construction is a proper coupling, in the sense that
X and η do constitute the marginal distributions of Č, can be proven exactly as in
[LLGM22] for the case without mutations. On the other hand, the key point is that if
at some point, Čt = (Xt , ηt ) is such that n(Xt ) ≤ ηt , then by the above construction,
n(Xs ) ≤ ηs for all s ≥ t, almost surely. By this property, ηt = 0 implies Xt = Ø
and the geometric ergodic conditions for η stated in the proposition, coming from
[KM57], are sufficient for the geometric ergodicity of X. The rigorous proof of these
claims can be found in [LLGM22].

109
Partie III

Analyse du mouvement des


trajectoires et détection des
instants de changement de régime.

111
Chapitre 5

M ODÈLES M ARKOV À ÉTATS


DE
CACHÉS ET ALGORITHME EM POUR
CLASSER DES TRAJECTOIRES

Afin de complètement caractériser les estimateurs paramétriques des différents


éléments du processus BDMM, il faut être capable de déterminer les instants de
saut qui sont des changements de marque. En effet, les instants de saut associés à
des naissances ou des morts sont faciles à identifier lorsque l’on observe des par-
ticules dans un domaine donné : il suffit de porter son attention sur les points de
temps où le nombre de particules change. En revanche, les instants de changement
de marque sont plus difficiles à estimer. Nous allons nous placer dans le cas où la
marque associée à une particule désigne son type de mouvement. Notre but est alors
de déterminer quel mouvement est suivi par chacune des particules et à quels mo-
ments certaines particules changent de type de mouvement. Dans ce chapitre, nous
nous plaçons dans une situation où le mouvement observé sur une trajectoire donnée
dépend uniquement de la marque de la particule, indépendamment des autres trajec-
toires. De plus, nous considérons aussi que lorsqu’une particule change de marque,
ce changement se fait indépendamment des positions et des marques des autres par-
ticules. Nous allons, sous ces hypothèses, donner une méthode permettant d’estimer
le mouvement suivi par chaque particule ainsi que les instants de changement de
mouvement.

Dans la littérature, beaucoup de méthodes cherchent à classer les mouvements


de trajectoires supposées toutes indépendantes. Ce chapitre commence par un ra-
pide état de l’art sur le sujet, puis se poursuit par la présentation de notre mé-
thode de classification, basée sur des modèles de Markov à états cachés et un algo-
rithme EM pour l’estimation des paramètres. Enfin, nous traitons le cas particulier
où l’ensemble de modèles de mouvement possibles est M = {brownien, processus
d’Ornstein-Ulhenbeck, brownien dirigé}.

113
Partie III, Chapitre 5 – Classification des trajectoires

5.1 État de l’art

Actuellement, beaucoup de méthodes utilisent le déplacement quadratique moyen


(MSD : Mean Square Displacement) [GLGW13, QSE91] pour classer les mouve-
ments de diffusion. Le MSD d’une particule au temps t est défini par M SD(t) =
n−1 n−1i=0 kztk+1 − ztk k où zt0 , . . . , ztn sont les positions successives de la particule
P 2

considérée aux temps 0 = t0 < · · · < tn = t. Le calcul du MSD d’une particule


permet de classer son mouvement en trois catégories : mouvement brownien lorsque
le MSD est proportionnel à t, mouvement sous-diffusif lorsque le MSD est propor-
tionnel à tα avec 0 < α < 1 et super-diffusif lorsque α > 1. Le but de ces méthodes
est d’estimer le coefficient α afin d’en déduire le type de mouvement sous-jacent
[BKV18]. La précision du résultat est fortement dépendante du nombre de points
acquis au cours de l’observation, ce qui engendre une mauvaise analyse des trajec-
toires courtes. Aussi, l’étude du MSD se faisant sur les trajectoires complètes, la
plupart de ces méthodes ne permettent pas de détecter le passage d’un type de
mouvement à un autre au cours du déplacement d’une particule.

Afin de détecter les moments de changement de type de mouvement au sein d’une


même trajectoire, des nouvelles méthodes ont été mises en place. Tout d’abord,
[BVK19] présente une extension de la procédure de test non-paramétrique décrite
dans [BKV18], pour détecter les instants où une particule change de mode de diffu-
sion (diffusion brownienne, sous-diffusion, super-diffusion). Une statistique de test
est calculée sur des fenêtres glissantes le long de la trajectoire. Malheureusement,
les résultats de cette méthode sont fortement dépendants du choix de la taille de la
fenêtre glissante.
Par ailleurs, la plupart des méthodes existantes se basent sur des représenta-
tions des états par une chaîne de Markov à états cachés pour détecter des change-
ments de mouvement sur une trajectoire. Ces méthodes n’envisagent que des mouve-
ments browniens et des mouvement browniens dirigés. Dans [CAV+ 10], les auteurs
se servent du MSD, ou plus précisément du CSD (Cumulative Square Displacement)
pour trouver les paramètres optimaux de deux types de mouvement possibles (un
mouvement brownien et un mouvement diffusif) avant de retrouver le type de mouve-
ment sur chaque morceau de trajectoire grâce aux modèles de Markov à états cachés.
Dans [PLUE13], les auteurs classent des trajectoires selon plusieurs mouvements

114
5.1. État de l’art

browniens associés à des coefficients de diffusion différents. Il déterminent d’abord


avec une approche bayésienne variationnelle le nombre de mouvements browniens
adéquats pour décrire les données observées, puis les paramètres optimaux, avant
d’utiliser les modèles de Markov à états cachés pour classer les trajectoires. Enfin,
[MBP+ 15] présente une approche plus élaborée, pour laquelle les trajectoires ob-
servées sont supposées provenir d’un mélange de K mouvements browniens et KV
mouvements browniens dirigés. Les auteurs utilisent une méthode bayésienne pour
déterminer ces nombres K et KV optimaux pour les trajectoires observées. Ensuite,
ils utilisent une méthode d’échantillonnage MCMC (Markov chain Monte Carlo)
pour déterminer la valeur du maximum de vraisemblance, qui leur permettra, grâce
aux modèles de Markov à états cachés, d’estimer le type de mouvement pour chaque
point de la trajectoire.
D’autres méthodes basées sur l’apprentissage profond (Deep Learning) [ASP+ 19,
MGVGM+ 21] produisent des résultats bien meilleurs : l’idée est d’entraîner un ré-
seau neuronal avec des trajectoires simulées comportant des sauts de mouvement.
Une fois le réseau entraîné, on l’applique sur des données afin de découper chaque
trajectoire en segments qui présentent le même type de mouvement. Ensuite, chaque
segment est analysé par différentes méthodes pour en déduire ses paramètres carac-
téristiques. Le gros inconvénient de ces méthodes d’apprentissage automatique est
qu’elles fonctionnent comme une boîte noire et on peut donc préférer des estimateurs
basés sur des statistiques explicites afin d’en tirer profit pour en déduire d’autres
informations sur la diffusion étudiée.

La méthode que nous avons développée dans ce manuscrit utilise les modèles
de Markov à états cachés pour estimer le type de mouvement pour chaque point de
chaque trajectoire, une fois les paramètres qui caractérisent ces mouvements détermi-
nés. Nous utilisons un algorithme EM (Expectation-Maximization) pour déterminer
les paramètres du modèle. Notre approche permet de gérer un grand nombre de
trajectoires. L’annexe H présente une comparaison entre les résultats obtenus par
notre méthode et ceux obtenus par la méthode présentée dans [MBP+ 15], qui classe
les segments d’une trajectoire suivant deux types de mouvement (brownien dirigé ou
brownien). Cette dernière inclut la possibilité qu’une même trajectoire puisse suivre
plusieurs types de mouvements browniens et plusieurs types de mouvements dirigés,
avec des coefficients de diffusion et des drifts différents. L’intérêt de cette méthode

115
Partie III, Chapitre 5 – Classification des trajectoires

est de ne pas supposer connu le nombre de types de mouvement et de renvoyer


le nombre le plus probable en plus des caractéristiques des mouvements correspon-
dants. Cette méthode présente l’inconvénient majeur de ne plus fonctionner dès qu’il
y a plus de deux trajectoires à analyser. De plus, pour l’analyse d’une seule trajec-
toire, le temps de calcul nécessaire pour analyser une trajectoire est relativement
long, ce qui rendrait difficile son adaptation pour étudier d’un grand nombre de
trajectoires.

5.2 Résolution du problème


Dans ce chapitre, on suppose avoir relevé les positions du processus BDMM à
intervalles de temps discrets, notés t0 , . . . , tn , chacun espacé de ∆ = |tk+1 − tk |. On
suppose que l’on sait suivre chaque trajectoire, c’est-à-dire que le jeu de données a pu
être traité par un outil de tracking qui a permis de suivre chaque particule et ainsi de
connaître les trajectoires du système. On connaît donc le nombre s de trajectoires
présentes entre les deux temps d’étude t0 et tn . Les trajectoires sont par la suite
ordonnées, de la première apparue, à la dernière, par exemple. Normalement il n’y a
qu’une seule trajectoire qui apparaît à chaque instant tk si le pas de discrétisation est
petit, mais s’il y a deux apparitions au même point de temps (ce qui est possible en
temps discret), on choisit de les ordonner selon leurs longueurs. Après l’observation
complète du processus, on est in fine capable d’attribuer à chaque trajectoire un
numéro.

5.2.1 Notations
Dans toute la suite, la notation p(.) correspond à la densité de probabilité (dans
le cas conditionné ou non), que cette dernière soit au sens d’une probabilité de masse
(cas discret) ou de la densité d’une loi continue.

Pour chaque trajectoire i ∈ J1, sK on peut alors définir :

— ib ∈ J0, nK tel que la trajectoire i est apparue au temps tib

— id ∈ J0, nK tel que la trajectoire i a disparue au temps tid +1 , ie. tid est son
dernier instant de vie.

116
5.2. Résolution du problème

— ni := id − ib + 1 désigne le nombre d’instants de vie de la trajectoire. Sa durée


de vie est donc ∆ × ni .
On note ensuite :
Zi := (ztib ,i , . . . , ztid ,i ) ∈ Λni

les coordonnées de la trajectoire i.

On suppose que les particules peuvent suivre M types de mouvements différents,


notés 1, . . . , M et qu’elles peuvent transiter d’un type de mouvement à un autre au
cours de leur vie. L’ensemble des marques M vaut donc {1, . . . , M }. On notera pour
k ∈ Jib , id K, mtk ,i le type de mouvement que possède la particule i entre les temps
tk−1 et tk . (Ainsi, mt0 sera défini mais n’aura aucune influence.)

On notera aussi :
Mi = (mtib ,i , . . . , mtid ,i ) ∈ Mni

les états cachés de la trajectoire i.

On suppose ici que les mouvements des trajectoires et leurs changements de


régimes sont indépendants, au sens de la définition 1 de l’annexe F. Intuitivement,
cette définition implique que :
— le mouvement observé sur une trajectoire donnée dépend uniquement de la
marque de la particule, indépendamment des autres trajectoires,
— lorsqu’une particule change de régime de mouvement, ce changement se fait
indépendamment des autres particules.
Ainsi, pour chaque trajectoire Zi on a le schéma suivant :

États cachés : mtib ,i mtib +1 ,i mtib +2 ,i mtib +3 ,i ··· mtid ,i

Observations : ztib ,i ztib +1 ,i ztib +2 ,i ztib +3 ,i ··· ztid ,i

Figure 5.1 – Schéma des dépendances entre les observations et les états cachés
(i.e. les types de mouvement) pour une trajectoire i.

117
Partie III, Chapitre 5 – Classification des trajectoires

Notons que des dépendances supplémentaires apparaissent dans le schéma de la


figure 5.1 par rapport au cas standard des chaînes de Markov à états cachés.

Le système est entièrement décrit par les trois quantités suivantes :


• La loi de probabilité des changements d’états de chaque trajectoire est notée
a = {ak,` (z)}. Pour tout i ∈ J1, sK, pour tout k ∈ Jib + 1, id K , pour tout
(z, u, v) ∈ Λ × M × M on a :
 
au,v (z) = P mtk ,i = v|ztk−1 ,i = z, mtk−1 ,i = u . (5.1)

Nous faisons remarquer que cette loi ne dépend pas du temps tk ni de la


trajectoire i.
• Pour tout i ∈ J1, sK, pour tout k ∈ Jib + 1, id K , pour tout (y, v) ∈ Λ × M, la
densité de ztk ,i sachant ztk−1 ,i = y et mtk ,i = v est donnée par la fonction

z 7→ bi (z|y, v). (5.2)

• La loi initiale des couples (ztib ,i , mtib ,i ) pour tout i ∈ J1, sK est notée π :
Z
∀A ⊂ Λ, P(ztib ,i ∈ A, mtib ,i = k) = π(z, k)dz.
A

Le but de cette étude est à la fois d’estimer les états cachés (mtj ,i )j∈{ib ,...id } pour
tout i ∈ J1, sK (et donc en déduire les instants de changement d’état), mais aussi
de déterminer les caractéristiques des différents mouvements suivis (coefficient de
diffusion, drift, etc). Pour cela, nous allons introduire dans le modèle un paramètre
ϑ ∈ Rk que l’on va chercher à estimer au sens du maximum de vraisemblance, grâce
à un algorithme EM. Ce paramètre intervient dans la matrice a (car on cherche à
déterminer la loi des changements de mouvement) mais aussi dans les densités bi (qui
caractérisent les mouvements suivis par les particules). En revanche, ce paramètre
n’interviendra dans aucune autre caractéristique du processus BDMM. On rajoute
une variable à ces quantités pour exprimer leur dépendance en ϑ : on écrit donc
bi (z|y, v; ϑ) au lieu de bi (z|y, v) et au,v (z; ϑ) au lieu de au,v (z). De la même manière,
on note p(.; ϑ) au lieu de p(.).

Dans la partie 5.2.2, nous utilisons l’algorithme EM pour déterminer le para-


mètre qui maximise la vraisemblance. Dans la partie 5.2.3, nous détaillons comment

118
5.2. Résolution du problème

l’algorithme de Viterbi permet d’estimer les états cachés du problème, une fois que
le paramètre ϑ optimal a été déterminé.

5.2.2 Algorithme EM pour estimer les paramètres qui maxi-


misent la vraisemblance de la séquence observée

Il s’agit à présent de proposer une méthode permettant d’estimer les paramètres


du modèle qui décrivent au mieux une séquence donnée d’observations. Formelle-
ment, le but est d’identifier le ϑ qui maximise la probabilité p(Z; ϑ) avec :

Z = (Z1 , . . . , Zs ).

Pour cela, on introduit la quantité :


 
Q(ϑ̃, ϑ, Z) := Eϑ ln(p(Z, M; ϑ̃))|Z ,

avec :
M = (M1 , . . . , Ms ).

Proposition 1. Si Q(ϑ̃, ϑ, Z) ≥ Q(ϑ, ϑ, Z) alors p(Z, ϑ̃) ≥ p(Z; ϑ).

Démonstration. On a :
 
Q(ϑ̃, ϑ, Z) = Eϑ ln(p(Z, M; ϑ̃))|Z
  
= p(m|Z; ϑ) ln p Z, m; ϑ̃ (5.3)
X
.
Ns
m∈ i=1
Mni

De plus,
 X 
!
p(Z, m; ϑ̃)
p(Z; ϑ̃)  m∈ si=1 Mni
 N 
ln = ln 


p(Z; ϑ) 
 p(Z; ϑ) 

 
1 p(Z, m; ϑ̃) 
= ln 
X
p(Z, m; ϑ) .
p(Z; ϑ) m∈Ns p(Z, m; ϑ)

i=1
Mni

119
Partie III, Chapitre 5 – Classification des trajectoires

En raison de la concavité de la fonction logarithme, et que

1
p(Z, m; ϑ) = 1,
X
p(Z; ϑ) m∈Ns Mni
i=1

on a :

1
! !
p(Z; ϑ̃) p(Z, m; ϑ̃)
ln p(Z, m; ϑ) ln
X

p(Z; ϑ) p(Z; ϑ) m∈Ns Mni
p(Z, m; ϑ)
i=1
!
p(Z, m; ϑ) p(Z, m; ϑ̃)
= ln
X

m∈
Ns
M ni
p(Z; ϑ) p(Z, m; ϑ)
i=1
!
p(Z, m; ϑ̃)
= p(m|Z; ϑ) ln
X

m∈
Ns
M ni
p(Z, m; ϑ)
i=1

= Q(ϑ̃, ϑ, Z) − Q(ϑ, ϑ, Z).

On peut donc se servir de la fonction Q pour approcher le maximum de vraisem-


blance, selon le principe adopté dans l’algorithme EM.

5.2.2.1 Algorithme EM

L’algorithme EM est un algorithme itératif qui alterne entre deux étapes : une
étape dite “E” (Expectation) qui consiste à calculer l’espérance conditionnelle de
la log-vraisemblance des données observées et des états cachés sachant les données
observées et les paramètres inconnus estimés à l’étape précédente ; une étape dite
“M” (Maximization) qui consiste à mettre à jour les paramètres en maximisant
l’espérance conditionnelle. Ainsi, à partir de la valeur initiale ϑ[0] , l’itération k est
définie comme suit :

— Étape E : calcul de l’espérance de la log-vraisemblance des données observées


et des états cachés sachant les données observées et les paramètres inconnus
actuels ϑ[k] :

Q(ϑ̃, ϑ[k] , Z).

120
5.2. Résolution du problème

— Étape M : mise à jour des paramètres en maximisant Q(ϑ̃, ϑ[k] , Z) sur ϑ̃ :

ϑ[k+1] = arg max Q(ϑ̃, ϑ[k] , Z).


ϑ̃

L’algorithme s’arrête lorsque, pour une itération [s], on a :

|Q(ϑ[k] , ϑ[k−1] , Z) − Q(ϑ[k−1] , ϑ[k−1] , Z)| < η,

pour un seuil fixé de tolérance η.

L’algorithme EM est monotone croissant (c’est-à-dire qu’il augmente la log-


vraisemblance des données observées à chaque itération) et converge donc vers un
maximum local de la fonction objective. En outre, cet algorithme est déterministe,
ce qui signifie que le point de convergence ne dépend que du point de départ ϑ[0] .
Par conséquent, cet algorithme doit être exécuté avec différents points de départ
(généralement échantillonnés de manière aléatoire) pour espérer atteindre le maxi-
mum global de vraisemblance.

Afin de mettre en place cet algorithme EM, il faut donc calculer l’argument du
maximum de Q(ϑ̃, ϑ, Z). Pour cela, nous introduisons de nouvelles variables inter-
médiaires.

5.2.2.2 Algorithme Forward-Backward pour calculer Q

Dans toute la suite, on note pour tout i ∈ J1, sK et pour tout j, k ∈ Jib , id K avec
j ≤ k, Zitj :tk = (ztj ,i , . . . , ztk ,i ).

Pour chaque trajectoire i, nous introduisons quatre nouvelles variables : αi , β i ,


γ i , ξ i puis nous donnons une formule de récurrence pour le calcul de chacune d’entre
elles. Ces quatre variables nous seront nécessaires pour déterminer la valeur de la
fonction Q, via l’expression donnée dans la proposition 6.

Pour tout i ∈ J1, sK et pour tout k ∈ Jib , id K, on introduit la variable “forward”,

121
Partie III, Chapitre 5 – Classification des trajectoires

qui est la loi jointe de Ziti :tk et mtk ,i :


b

αki (j; ϑ) = p(Ziti :tk , mtk ,i = j; ϑ).


b

Le coefficient αti (j; ϑ) correspond à la probabilité que les (k − ib ) premières obser-


vations de la trajectoire i, Ziti :tk , aient lieu et que le (k − ib )-ième état caché soit le
b
type de mouvement j.

Proposition 2 (Algorithme “forward” de Baum). La suite des (αki (j; ϑ))k∈Jib ,id K
s’obtient récursivement de la façon suivante :

αiib (j; ϑ) = π(ztib ,i , j),


M
!
et ∀k ∈ Jib + 1, id K, αki (j; ϑ) = i
(`; ϑ)a`,j (ztk−1 ,i ; ϑ) bi (ztk ,i |ztk−1 ,i , j; ϑ).
X
αk−1
`=1

Démonstration. Soit j ∈ J1, M K. On a :

αiib (j; ϑ) = p(Ziti :tib , mtib ,i = j; ϑ) = p(ztib ,i , mtib ,i = j; ϑ) = π(ztib ,i , j).


b

Soit k > ib ,
αki (j; ϑ) = p(Ziti :tk , mtk ,i = j; ϑ)
b
M
= p(Ziti = j, mtk−1 ,i = `; ϑ)
X
b
:tk , mtk ,i
`=1
M
= p(ztk ,i , Ziti = j, mtk−1 ,i = `; ϑ)
X
b
:tk−1 , mtk ,i
`=1

donc :
M
αki (j; ϑ) = p(ztk ,i , mtk ,i = j|Ziti = `; ϑ)p(Ziti = `; ϑ)
X
b
:tk−1 , mtk−1 ,i b
:tk−1 , mtk−1 ,i
`=1
M
= p(ztk ,i |mtk ,i = j, Ziti = `; ϑ)
X
b
:tk−1 , mtk−1 ,i
`=1

× p(mtk ,i = j|Ziti :tk−1 , mtk−1 ,i = `; ϑ)αk−1


i
(`; ϑ)
b
M
= bi (ztk ,i |ztk−1 ,i , j; ϑ)a`,j (ztk−1 ,i ; ϑ)αk−1
i
(`; ϑ).
X

`=1

122
5.2. Résolution du problème

Pour tout i ∈ J1, sK et pour tout k ∈ Jib , id K, on introduit la variable “backward”


(rétroactive) pour chaque trajectoire Zi :

βki (j; ϑ) = p(Zitk+1 :ti |mtk ,i = j, ztk ,i ; ϑ),


d

avec la convention : βiid (j; ϑ) = 1 pour tout j ∈ J1, M K.

Le coefficient βki (j; ϑ) correspond à la probabilité d’observer la séquence partielle


ultérieure Zitk+1 :id , sachant que la trajectoire i de paramètre ϑ suit le type de mouve-
ment j à l’instant tk et connaissant le dernier point de la trajectoire antérieure ztk ,i .

Proposition 3 (Algorithme “backward” de Baum). La suite des (βki (j; ϑ))k∈Jib ,id K
s’obtient récursivement de la façon suivante :

M
∀k ∈ Jib , id − 1K, βki (j; ϑ) = i
(`; ϑ)aj,` (ztk ,i ; ϑ)bi (ztk+1 ,i |ztk ,i , `; ϑ).
X
βk+1
`=1

Démonstration. Soit k ∈ Jib , id − 1K, on a :

βki (j; ϑ) = p(Zitk+1 :ti |mtk ,i = j, ztk ,i ; ϑ)


d
M
= p(Zitk+1 :ti , mtk+1 ,i = `|mtk ,i = j, ztk ,i ; ϑ)
X
d
`=1
M
= p(Zitk+1 :ti |mtk+1 ,i = `, mtk ,i = j, ztk ,i ; ϑ)p(mtk+1 ,i = `|mtk ,i = j, ztk ,i ; ϑ)
X
d
`=1
M
= p(Zitk+2 :ti , ztk+1 ,i |mtk+1 ,i = `, mtk ,i = j, ztk ,i ; ϑ)aj,` (ztk ,i ; ϑ)
X
d
`=1
M
= p(Zitk+2 :ti |ztk+1 ,i , mtk+1 ,i = `, mtk ,i = j, ztk ,i ; ϑ)
X
d
`=1

× p(ztk+1 ,i |mtk+1 ,i = `, mtk ,i = j, ztk ,i ; ϑ)aj,` (ztk ,i ; ϑ)


M
= p(Zitk+2 :ti |ztk+1 ,i , mtk+1 ,i = `; ϑ)p(ztk+1 ,i |mtk+1 ,i = `, ztk ,i ; ϑ)aj,` (ztk ,i ; ϑ)
X
d
`=1
M
= i
(`; ϑ)bi (ztk+1 ,i |ztk ,i , `; ϑ)aj,` (ztk ,i ; ϑ).
X
βk+1
`=1

123
Partie III, Chapitre 5 – Classification des trajectoires

On introduit :

γki (j; ϑ) = p(mtk ,i = j|Zi ; ϑ) (5.4)

et

ξki (j, `; ϑ) = p(mtk ,i = j, mtk+1 ,i = `|Zi ; ϑ). (5.5)

Le coefficient ξki (j, `; ϑ) représente la probabilité selon le modèle de paramètres ϑ et


la séquence d’observations Zi de passer du type de mouvement j au moment tk au
type de mouvement ` au moment tk+1 . Le coefficient γki (j; ϑ), quant à lui, correspond
à la probabilité selon le modèle de paramètres ϑ et la séquence d’observations Zi
d’être dans le type de mouvement j à l’instant tk .

Proposition 4 (Algorithme Forward-Backward). Pour k ∈ Jib , id K, on a :

αki (j; ϑ)βki (j; ϑ)


γki (j; ϑ) = M
.
βki (j; ϑ)αki (j; ϑ)
X

j=1

Démonstration.

p(mtk ,i = j, Zi ; ϑ)
γki (j; ϑ) = p(mtk ,i = j|Zi ; ϑ) = .
p(Zi ; ϑ)

Le dénominateur se calcule ainsi :


M
p(Z ; ϑ) =
i
p(Zi , mtk ,i = j; ϑ)
X

j=1
M
= p(Zitk+1 :ti |mtk ,i = j, Ziti :tk ; ϑ)p(mtk ,i = j, Ziti :tk ; ϑ)
X
d b b
j=1
M
= p(Zitk+1 :ti |mtk ,i = j, ztk ,i ; ϑ)αk (j; ϑ)
X
d
j=1
M
= βki (j; ϑ)αki (j; ϑ).
X

j=1

124
5.2. Résolution du problème

Le numérateur vaut :

p(mtk ,i = j, Zi ; ϑ) = p(Zitk+1 :ti |mtk ,i = j, Ziti :tk ; ϑ)p(mtk ,i = j, Ziti :tk ; ϑ)


d b b

= p(Zitk+1 :ti |mtk ,i = j, ztk ,i ; ϑ)αki (j; ϑ)


d

= βki (j; ϑ)αki (j; ϑ).

Proposition 5. Pour k ∈ Jib , id − 1K, on a :

αki (j; ϑ)aj,` (ϑ)bi (ztk+1 ,i , ztk ,i , `; ϑ)βtik+1 (`; ϑ)


ξki (j, `; ϑ) = M
.
βki (j; ϑ)αki (j; ϑ)
X

j=1

Démonstration.

p(mtk ,i = j, mtk+1 ,i = `, Zi ; ϑ)
ξki (j, `; ϑ) = p(mtk ,i = j, mtk+1 ,i = `|Zi ; ϑ) = .
p(Zi ; ϑ)

Le dénominateur a déjà été calculé précédemment (preuve de la proposition 4). Le


numérateur vaut :

p(mtk ,i = j, mtk+1 ,i = `, Zi ; ϑ) = p(Zitk+1 :ti |mtk ,i = j, mtk+1 ,i = `, Ziti :tk ; ϑ)


d b

× p(mtk+1 ,i = `|mtk ,i = j, Ziti :tk ; ϑ)p(mtk ,i = j, Ziti :tk ; ϑ)


b b

donc :

p(mtk ,i = j, mtk+1 ,i = p(Zitk+2 :ti |mtk ,i = j, mtk+1 ,i = `, Ziti :tk+1 ; ϑ)


d b

× p(ztk+1 ,i |mtk ,i = j, mtk+1 ,i = `, Ziti :tk ; ϑ)aj,` (ztk ,i ; ϑ)αk (j; ϑ)


b

= p(Zitk+2 :ti |mtk+1 ,i = `, ztk+1 ,i ; ϑ)


d

× p(ztk+1 ,i |mtk+1 ,i = `, ztk ,i ; ϑ)aj,` (ztk ,i ; ϑ)αk (j; ϑ)


= βk+1 (k; ϑ)bi (ztk+1 ,i |ztk ,i , k; ϑ)aj,` (ztk ,i ; ϑ)αk (j; ϑ).

125
Partie III, Chapitre 5 – Classification des trajectoires

On introduit trois conditions :

(C1) L’intensité de saut α est bornée.

(C2) Le paramètre d’intérêt ϑ n’intervient que dans τ , kτ et L.

(C3) Les mouvements des trajectoires et leurs changements de régime sont indépen-
dants au sens de la définition 1 de l’annexe F .

La proposition suivante permet d’exprimer la quantité Q(ϑ̃, ϑ, Z) comme une


somme trajectoire par trajectoire, en fonction des variables précédemment intro-
duites. Sa preuve constitue le coeur de l’annexe F.

Proposition 6. Si les conditions (C1), (C2) et (C3) sont vérifiées, alors la fonc-
tion Q s’écrit :

Q(ϑ̃, ϑ, Z) = Q̄(ϑ̃, ϑ, Z)(1 + oP (1)) + Ĉ(ϑ, Z, ∆).


∆→0

avec :
s id M
M X
Q̄(ϑ̃, ϑ, Z) = ξki (u, v; ϑ) ln(au,v (ztk−1 ,i ; ϑ̃))
X X X

i=1 k=ib +1 u=1 v=1


s id M   
+ γki (v; ϑ) ln bi ztk ,i |ztk−1 ,i , v; ϑ̃
X X X

i=1 k=ib +1 v=1

où les expressions de γki et ξki sont respectivement données par les propositions 4
et 5.

5.2.3 Algorithme de Viterbi pour estimer les états cachés


ayant produit la séquence observée
Dans cette section, le but est de déterminer la partie cachée du modèle, c’est-à-
dire de déterminer les suites des états cachés (mtk ,i )k∈Jib ,id K pour tout i ∈ J1, sK qui
sont respectivement les plus probables d’avoir engendré les suites des observations
Zi avec le paramètre ϑ optimal déterminé dans la section précédente. Pour cela,
on recourt à une adaptation de l’algorithme de Viterbi, déjà bien connu pour les
modèles de Markov à états cachés standards.

126
5.2. Résolution du problème

L’objectif est de calculer :

arg max p(Miti :tid = m|Zi ; ϑ). (5.6)


b
m∈Mni

On fait remarquer que :

p(Miti :tid = m, Zi ; ϑ)
arg max p(Miti :ti = m|Z ; ϑ) = arg max
i b

m∈Mni b d
m∈Mid −ib +1 p(Zi ; ϑ)
= arg max p(Miti :tid = m, Zi ; ϑ).
b
m∈Mid −ib +1

Ainsi, il est équivalent dans (5.6) de chercher l’argument du maximum de la loi


conditionnelle ou de la loi jointe. Pour répondre à ce problème, nous allons utiliser
un algorithme de programmation dynamique : l’idée générale est de prendre une
décision optimale à chaque étape de la trajectoire pour chaque état possible.

On introduit alors pour tout k ∈ Jib , id K :

δki (j; ϑ) := max


k−i
p(Miti :tk−1 = m, mtk ,i = j, Ziti :tk ; ϑ)
m∈M b b b

avec la convention δiib (j; ϑ) = π(ztib ,i , j).

Le coefficient δki (j; ϑ) représente la probabilité que le (k − ib )-ième état caché soit
le type de mouvement j après avoir observé les (k − ib ) premiers points de la trajec-
toire i et être passé par la suite des (k − ib ) premiers états cachés la plus probable
sachant le paramètre ϑ.

Proposition 7 (Algorithme de programmation dynamique). La suite (δki (j; ϑ))k∈Jib +1,id K


s’obtient récursivement de la façon suivante :
 
∀k ∈ Jib + 1, id K, δki (j; ϑ) = max i
δt−1 (`; ϑ)ai`,j (ϑ) bi (ztk ,i |ztk−1 ,i , j; ϑ).
1≤`≤M

127
Partie III, Chapitre 5 – Classification des trajectoires

Démonstration. Soit k ∈ Jib , id K. On a :

δki (j; ϑ) = max p(Miti :tk−1 = mib :k−1 , mtk ,i = j, Ziti :tk ; ϑ)
mib :k−1 ∈Mk−ib b b

= max k−i p(ztk ,i |Ziti i


:tk−1 , Mtib :tk−1 = mib :k−1 , mtk ,i = j; ϑ)
mib :k−1 ∈M b b

× p(mtk ,i = j|Miti :tk−1 = mib :k−1 , Ziti :tk−1 ; ϑ)


b b

× p(Ziti i
:tk−1 , Mtib :tk−2 = mib :k−2 , mtk−1 ,i = xk−1 ; ϑ)
b

donc :

δki (j; ϑ) = max p(ztk ,i |ztk−1 ,i , mtk ,i = j; ϑ)p(mtk ,i = j|mtk−1 ,i = mk−1 , ztk−1 ,i ; ϑ)
mib :k−1 ∈Mk−ib

× p(Ziti i
:tk−1 , Mtib :tk−2 = mib :k−2 , mtk−1 ,i = mk−1 ; ϑ)
b

= max bi (ztk ,i |ztk−1 ,i , j; ϑ)amk−1 ,j (ztk−1 ,i ; ϑ)


mib :k−1 ∈Mk−ib

× p(Ziti i
:tk−1 , Mtib :tk−2 = mib :k−2 , mtk−1 ,i = mk−1 ; ϑ)
b

= max bi (ztk ,i |ztk−1 ,i , j; ϑ)amk−1 ,j (ztk−1 ,i ; ϑ)


xk−1 ∈M

× max p(Ziti i
:tk−1 , Mtib :tk−2 = mib :k−2 , mtk−1 ,i = mk−1 ; ϑ)
mib :k−2 ∈Mk−ib −1 b

= max bi (ztk ,i |ztk−1 ,i , j; ϑ)amk−1 ,j (ztk−1 ,i ; ϑ)δk−1


i
(mk−1 ; ϑ).
mk−1 ∈M

Nous pouvons obtenir l’estimateur M di = (m [tib ,i , . . . , m


[tid ,i ) qui est la suite la

plus probable des états cachés de la trajectoire i définis comme :

di = arg max p(Mi = m|Zi ; ϑ)


M
m∈Mni

grâce à l’algorithme suivant.

Proposition 8 (Algorithme de Viterbi). L’estimateur des états cachés

di = (m
M [tib ,i , . . . , m
[tid ,i )

128
5.2. Résolution du problème

s’obtient récursivement de la façon suivante :

tid ,i = arg max δid (j; ϑ),


i
m
[
j∈M

et pour tout k = id − 1, . . . , 1,

tk ,i = arg max δk (j; ϑ)aj,m\ (ztk ,i ; ϑ).


i
md tk+1 ,i
j∈M

Démonstration. On remarque que :

max p(Miti :tid = mib :id , Zi ; ϑ)


mib :id ∈Mni b

= max max p(Miti :tid = mib :id −1 , mtid ,i = mid , Zi ; ϑ)


mid ∈M mi
b :id −1
∈Mid −ib −2 b

= max δiid (mid ; ϑ),


mid ∈M

donc le (id − ib − 2)-ième état caché le plus probable est :

tid ,i = arg max δid (j; ϑ).


i
m
[
j∈M

Parmi toutes les suites d’états cachés qui se trouvent dans l’état x0 à un instant k,
celle de plus grande probabilité se trouve à l’instant k − 1 dans l’état caché :

arg max δk−1


i
(x; ϑ)ax,x0 (ztk−1 ,i ; ϑ).
x∈M

Ainsi, de proche en proche, on a :

tid −1 ,i = arg max δid −1 (j; ϑ)aj,m (ztid −1 ,i ; ϑ),


i
m
\ \ti ,i
j∈M d

puis

tid −2 ,i = arg max δid −2 (j; ϑ)aj,m\ (ztid −2 ,i ; ϑ),


i
m
\ ti −1 ,i
j∈M d

et on continue ainsi jusqu’à k = ib . Pour k ∈ Jib , id K, on a :

tk ,i = arg max δk (j; ϑ)aj,m\ (ztk ,i ; ϑ).


i
m
[ tk+1 ,i
j∈M

129
Partie III, Chapitre 5 – Classification des trajectoires

5.3 Étude théorique d’un exemple dans le cas de


trois mouvements

Dans cette section, nous présentons un exemple d’application de la théorie pré-


sentée dans la section précédente. Les caractéristiques sont judicieusement choisies
afin d’approcher la dynamique des données réelles que nous étudierons dans le cha-
pitre 6, et déjà étudiées dans les chapitres 2 et 4.
Dans la sous-section 5.3.1, nous présentons l’exemple et ses caractéristiques, puis
nous en déduisons les expressions des fonctions a et bi correspondantes. La sec-
tion F.4 de l’annexe F montre que cet exemple satisfait les conditions nécessaires
pour appliquer la proposition 6, ce qui nous permettra d’obtenir une expression de
la fonction Q. Dans la sous-section 5.3.2, nous nous servons de cette expression pour
en déduire une expression de l’argument du maximum de la fonction Q, qui est
explicite dans cet exemple.

5.3.1 Présentation de l’exemple

Dans cet exemple, on considère un processus BDMM dont l’espace de vie des
individus Λ est inclu dans R2 , et qui respecte les hypothèses suivantes (en gardant
les notations du chapitre 3) :

— La marque de chaque particule indentifie son régime de mouvement à chaque


instant. Ce régime peut être de trois types différents (qui seront décrits ci-
dessous). On note l’ensemble M des marques ainsi :

M = {1, 2, 3} .

— Chaque particule possède un taux de mutation constant égal à τ :

τ (x) = τ × n(x).

— Le noyau de mutation est celui de l’exemple 3 du chapitre 3, c’est-à-dire que

130
5.3. Étude théorique d’un exemple dans le cas de trois mouvements

pour (x, y) ∈ E 2 , on a :

1


 pm ,m , si ∃xi = (zi , mi ) ∈ x, ∃m ∈ M, y = (x\(zi , mi )) ∪ (zi , m),
kτ (x, y) = n(x) i
0 sinon,

où (pi,j )(i,j)∈{1,2,3}2 est une matrice de transition de la forme suivante :


 

0 pb 1 − pb 
 pr 0 1 − pr  .
 
 
pv 1 − pv 0

Le coefficient pb (resp. pr , pv ) apparaît comme la probabilité de passer de l’état


1 à 2 (resp. 2 à 1, 3 à 1), sachant que la particule qui mute est dans l’état 1
(resp. 2, 3).
— Les particules changent de position chacune selon sa marque et indépendam-
ment des autres.
— L’intensité de mort δ est quelconque mais bornée.
— L’intensité de naissance β est quelconque, bornée et vérifie :

∃ n∗ ∈ N, ∀x ∈ E, n(x) ≥ n∗ =⇒ β(x) = 0.

— Les noyaux de naissance et de mort sont quelconques.


— Le paramètre d’intérêt ϑ n’intervient que dans l’intensité de mutation τ , dans
le noyau de mutation kτ et dans les paramètres des mouvements que suivent
les particules entre les sauts.

À présent, nous définissons les trois types de mouvement, notés 1, 2, 3 ainsi :

— Type 1 : mouvement brownien. Cela signifie que si mtk ,i = 1, la particule i


est, durant le pas de discrétisation [tk−1 , tk ], solution de l’équation :

dXt = σi,1 dBt ,

où Bt est un mouvement brownien standard et où le coefficient de diffusion


σi,1 > 0 est un paramètre inconnu, inclu dans le vecteur d’inconnues ϑ.

131
Partie III, Chapitre 5 – Classification des trajectoires

— Type 2 : mouvement superdiffusif qui est ici un mouvement brownien avec


dérive. Cela signifie que si mtk ,i = 2, la particule i est, durant le pas de discré-
tisation [tk−1 , tk ], solution de l’équation :
 
cos(ηi )
dXt = ρi  dt + σi,2 dBt ,
sin(ηi )

où le coefficient de diffusion σi,2 > 0, la norme du drift ρi > 0 et la direc-


tion du drift ηi ∈ [0, 2π[ sont des paramètres inconnus, inclus dans le vecteur
d’inconnues ϑ.

— Type 3 : mouvement confiné qui est ici solution d’un processus d’Ornstein-
Ulhenbeck. Cela signifie que si mtk ,i = 3, la particule i est, durant le pas de
discrétisation [tk−1 , tk ], solution de l’équation :

dXt = −λi (Xt − µi )dt + σi,3 dBt ,

où le coefficient de diffusion


 σi,3 > 0, la force de rappel λi ≥ 0 et le point
µi (0)
d’équilibre µi =  ∈ Λ ⊂ R2 sont des paramètres inconnus, inclus dans
µi (1)
le vecteur d’inconnues ϑ.

Ainsi, pour une trajectoire i, il y a 8 paramètres réels inconnus (µi intégrant les
deux paramètres µi (0) et µi (1)) :

(σi,1
2 2
, ρi , ηi , σi,2 2
, λi , µi , σi,3 ) ∈ R∗+ × R∗+ × [0, 2π[×R∗+ × R+ × Λ × R∗+ .

Ainsi, le vecteur d’inconnues ϑ est de dimension 4 + 8 × s et peut s’écrire sous la


forme :

(τ, pb , pr , pv , σ1,1
2 2
, ρ1 , η1 , σ1,2 , λ1 , µ1 (0), µ1 (1), σ1,3
2 2
, . . . , σs,1 2
, ρs , ηs , σs,2 , λs , µs (0), µs (1), σs,3
2
).

Nous donnons à présent l’expression de la matrice de transition a et des densités


conditionnelles bi (définies respectivement en (5.1) et (5.2)) dans le cadre précis de
cet exemple.

132
5.3. Étude théorique d’un exemple dans le cas de trois mouvements

Proposition 9. Un équivalent, lorsque ∆ → 0, de la matrice (au,v (ϑ))u,v∈M est :

1 2 3
 
1 e−τ ∆ pb (1 − e−τ ∆ ) (1 − pb )(1 − e−τ ∆ ) 
 
2
 pr (1 − e
−τ ∆
) e−τ ∆ (1 − pr )(1 − e−τ ∆ ) 
.
 
3 pv (1 − e−τ ∆ ) (1 − pv )(1 − e−τ ∆ ) e−τ ∆

Démonstration. On calcule un équivalent de au,v (ϑ) de la manière suivante. Chaque


particule possède un taux de mutation constant égal à τ . Le temps d’attente entre
deux mutations d’une particule suit alors une loi exponentielle E(τ ∆) et le nombre
de mutations entre deux temps d’observation consécutifs suit par conséquent une loi
de Poisson P(τ ∆).

Si u = v, on a par la formule des probabilités totales :

P(mtk ,i = u|mtk−1 ,i = u, ztk−1 ,i = z)


=P(mtk ,i = u|{pas de mutation entre tk−1 et tk }, mtk−1 ,i = u, ztk−1 ,i = z)
× P({pas de mutation entre tk−1 et tk }|mtk−1 ,i = u, ztk−1 ,i = z)
+ P(mtk ,i = u|{une mutation entre tk−1 et tk }, mtk−1 ,i = u, ztk−1 ,i = z)
× P({une mutation entre tk−1 et tk }|mtk−1 ,i = u, ztk−1 ,i = z)
+ P(mtk ,i = u, {+ de 2 mutations entre tk−1 et tk }|mtk−1 ,i = u, ztk−1 ,i = z)
=e−τ ∆ + 0 + o (∆)
∆→0
−τ ∆
∼ e .
∆→0

Si u 6= v, on a, en utilisant la formule des probabilités totales avec le même


système complet d’événements que précédemment :

P(mtk ,i = v|mtk−1 ,i = u, ztk−1 ,i = z) = 0 + ∆τ e−τ ∆ pu,v + o (∆)


∆→0

∼ (1 − e −τ ∆
)pu,v .
∆→0

La proposition suivante nous donne l’expression des fonctions bi pour ce modèle.


On rappelle que bi est la densité de ztk ,i sachant ztk−1 ,i = y et mtk ,i = v, pour tout

133
Partie III, Chapitre 5 – Classification des trajectoires

i ∈ J1, sK, pour tout k ∈ Jib + 1, id K et pour tout (y, v) ∈ Λ × M.

Proposition 10. Dans le modèle présenté ci-dessus, pour tout i ∈ J1, sK la fonction
bi vaut :

∆) ` = 1,

2


 φ(z, y, σi,1 si

    
cos(ηi )



bi (z|y, `; ϑ) = φ z, y + ρi  ∆, σi,2
2
∆ si ` = 2,




sin(η i )

  
φ z, ye−λi ∆ − µi (1 − e−λi ∆ ), σi,3
2
v(λi ) ` = 3,


si

1  
où v(λi ) = 1 − e−2λi ∆ et φ(., µ, σ 2 ) est la densité d’une loi normale N (µ, σ 2 I2 )
2λi
de dimension 2 de moyenne µ ∈ R2 et de matrice de covariance σ 2 I2 , i.e. :

1
!
kz − µk2
φ(z, µ, σ ) = 2
exp − .
2πσ 2 2σ 2

Démonstration. Soit i ∈ J1, sK. On intègre les deux EDS qui dirigent les 2 types de
mouvements (1 et 2) entre le temps tk et le temps tk+1 avec ∆ = tk+1 − tk :
— si ` = 1 : Xtk+1 − Xtk = σi,1 (Btk+1 − Btk )
 
cos(ηi )
— si ` = 2 : Xtk+1 − Xtk = ρi  ∆ + σi,2 (Btk+1 − Btk ).
sin(ηi )
Or, comme (Btk+1 − Btk ) ∼ N (0, ∆I2 ), on obtient que :
— si ` = 1 : Xtk+1 − Xtk ∼ N (0, σi,1
2
∆I2 )
   
cos(ηi )
— si ` = 2 : Xtk+1 − Xtk ∼ N ρi  ∆, σi,2
2
∆I2  ,
sin(ηi )
ce qui nous permet de déduire l’expression de bi dans les cas où ` = 1 ou ` = 2.

Pour le mouvement de type 3, on se sert de la formule explicite de la solution du


processus d’Ornstein-Ulhenbeck :

dXt = −λi (Xt − µi )dt + σi,3 dBt ,

soit encore : Z t
Xt = X0 e −λi t
+ µi (1 − e −λi t
)+ σi,3 eλi (s−t) dBs .
0

134
5.3. Étude théorique d’un exemple dans le cas de trois mouvements

Ainsi, on obtient
Z tk+1
Xtk+1 = Xtk e−λi ∆ + µi (1 − e−λi ∆ ) + σi,3 e−λi tk+1 eλi s dBs
tk

et donc
Z tk+1
Xtk+1 − Xtk e−λi ∆ − µi (1 − e−λi ∆ ) = σi,3 e−λi tk+1 eλi s dBs .
tk

On sait que ce terme de droite suit une loi normale centrée de variance :
2 
Z tk+1
σi,3 
2 −2λi tk+1
σi,3 e e 2λi s
ds = 1 − e−2λi ∆ = σi,3
2
v(λi ).
tk 2λi

Ainsi, on obtient l’expression de bi annoncée dans la proposition.

5.3.2 Un argument du maximum de la fonction Q explicite


dans cet exemple

Dans cette section, nous réécrivons la fonction Q(ϑ̃, ϑ, Z) dans le cas particulier
de l’exemple traité dans cette section, afin de trouver l’argument de son maximum.

On montre dans la section F.4 de l’annexe F, que les conditions (C1), (C2) et
(C3) sont satisfaites, et la proposition 6 nous donne ainsi la forme de la fonction Q.

Par cette proposition 6, et comme a ne dépend pas de z, on a :

s id M X
M
Q(ϑ̃, ϑ, Z) = i
(u, v; ϑ) ln(au,v (ϑ̃))
X X X
ξk−1
i=1 k=ib +1 u=1 v=1
s id M   
+ γki (v; ϑ) ln bi ztk ,i |ztk−1 ,i , v, ϑ̃ + C(ϑ, Z, ∆) + o (1).
X X X
∆→0
i=1 k=ib +1 v=1

Afin de mettre en place l’étape M de l’algorithme EM, on recherche l’argument


du maximum selon la variable ϑ̃ de Q(ϑ̃, ϑ, Z).

135
Partie III, Chapitre 5 – Classification des trajectoires

Il est établi que :

Q(ϑ̃, ϑ, Z) = Q1 (ϑ̃, ϑ, Z) + Q2 (ϑ̃, ϑ, Z) + C(ϑ, Z, ∆) + o (1),


∆→0

où :
s id M X
M
Q1 (ϑ̃, ϑ, Z) = i
(u, v; ϑ) ln(au,v (ϑ̃)),
X X X
ξk−1
i=1 k=ib +1 u=1 v=1
s id M   
Q (ϑ̃, ϑ, Z) =
2
γki (v; ϑ) ln bi ztk ,i |ztk−1 ,i , v, ϑ̃
X X X
.
i=1 k=ib +1 v=1

Afin de calculer arg max Q(ϑ̃, ϑ, Z), nous faisons remarquer que les différents pa-
ϑ̃
ramètres inconnus de ϑ̃ ne sont pas localisés aux mêmes endroits, ainsi la recherche
de l’argument du maximum de Q(., ϑ, Z) selon les variables (τ, pb , pr , pv ), qui n’in-
terviennent dans Q que via a revient à la recherche de l’argument du maximum de
Q1 (., ϑ, Z). De même, la recherche de l’argument du maximum de Q(., ϑ, Z) selon
les variables (σi,1
2 2
, ρi , ηi , σi,2 , λi , µi (0), µi (1), σi,3
2
), qui n’interviennent dans Q que via
b revient à rechercher l’argument du maximum de Q2 (., ϑ, Z).
i

5.3.2.1 Recherche de l’argument du maximum selon les paramètres τ, pb , pr , pv

Proposition 11. L’argument du maximum de Q(., ϑ, Z) selon les variables

(τ, pb , pr , pv ) ∈ R+ × [0, 1] × [0, 1] × [0, 1]

est atteint pour :


 ni X
s X 
i
(m, n; ϑ) 
X
ξk−1
1 

i=1 k=2 m6=n

τ = ln 1 + s ni 3 ,
 
∆   
ξk−1 (m, m; ϑ) 
i
XX X

i=1 k=2 m=1


s X ni
i
(1, 2; ϑ)
X
ξk−1
pb = ni
s X
i=1 k=2
s X ni ,
i
(1, 2; ϑ) + i
(1, 3; ϑ)
X X
ξk−1 ξk−1
i=1 k=2 i=1 k=2

136
5.3. Étude théorique d’un exemple dans le cas de trois mouvements

ni
s X
i
(2, 1; ϑ)
X
ξk−1
pr = ni
s X
i=1 k=2
ni
s X ,
i
(2, 1; ϑ) + i
(2, 3; ϑ)
X X
ξk−1 ξk−1
i=1 k=2 i=1 k=2
ni
s X
i
(3, 1; ϑ)
X
ξk−1
pv = ni
s X
i=1 k=2
ni
s X .
i
(3, 1; ϑ) + i
(3, 2; ϑ)
X X
ξk−1 ξk−1
i=1 k=2 i=1 k=2

Démonstration. La preuve de cette proposition est reportée dans la section G.1 de


l’annexe G.

5.3.2.2 Si les paramètres qui interviennent dans les mouvements sont


propres à chaque trajectoire

Dans cette sous-partie, on suppose que les paramètres σi,1 2


, ρi , ηi ,σi,2
2
, λi , µi (0),
µi (1), σi,3 sont individualisés pour chaque trajectoire, c’est-à-dire que chaque tra-
2

jectoire Zi a 8 paramètres qui lui sont propres et supposés inconnus.


On recherche l’argument du maximum selon les variables (σi,1
2 2
, ρi , ηi , σi,2 , λi , µi (0),
µi (1), σi,3
2
) de :

Q((τ, pb , pr , pv , (σ1,1
2 2
, ρ1 , η1 , σ1,2 ,λ1 , µ1 (0), µ1 (1), σ1,3
2
), . . . ,
(σs,1
2 2
, ρs , ηs , σs,2 , λs , µs (0), µs (1), σs,3
2
)), ϑ, Z).

Proposition 12. L’argument du maximum de Q(., ϑ, Z) selon les variables

(σi,1
2 2
, ρi , ηi , σi,2 2
, λi , µi , σi,3 ) ∈ R∗+ × R∗+ × [0, 2π[×R∗+ × R+ × Λ × R∗+

est atteint pour :

id
γki (1; ϑ)kztk ,i − ztk−1 ,i k2
X

1 k=ib +1
2
σi,1 = ,
2∆ id
γki (1; ϑ)
X

k=ib +1

137
Partie III, Chapitre 5 – Classification des trajectoires

 
id
(ztk ,i (1) − ztk−1 ,i (1))γki (2; ϑ) 
X

 
 k=ib +1
ηi = arctan  i

 ,
d

(zt ,i (0) − zt ,i (0))γ (2; ϑ) 
i
 X 

k k−1 k
k=ib +1

* 
id
cos(ηi )
+
, ztk ,i − ztk−1 ,i γki (2; ϑ)
X

1 k=ib +1 sin(ηi )
ρi = ,
∆ id
γki (2; ϑ)
X

k=ib +1
  2
id
cos(ηi )
γki (2; ϑ) ztk ,i − ztk−1 ,i − ρi  ∆
X

1 k=ib +1 sin(ηi )
2
σi,2 = ,
2∆ id
γk (2; ϑ)
i
X

k=ib +1
id
γki (3; ϑ)(ztk ,i − ztk−1 ,i ai )
X

k=ib +1
µi = id
,
(1 − ai ) γki (3; ϑ)
X

k=ib +1
id
γki (3; ϑ)kztk ,i − ztk−1 ,i ai − µi (1 − ai )k2
X

k=ib +1
2
σi,3 = id
,
2v(λi ) γki (3; ϑ)
X

k=ib +1

1  ab
i si abi > 0
λi = − ln (ai ) où ai = avec
∆  0 si abi ≤ 0
 
id id id id
* +
D E
γki (3; ϑ) γki (3; ϑ) γki (3; ϑ)ztk−1 ,i , γji (3; ϑ)ztj ,i
X X X X
 ztk−1 ,i , ztk ,i −
k=ib +1 k=ib +1 k=ib +1 j=ib +1
abi =   2 .
id id id
2
γki (3; ϑ) γki (3; ϑ) ztk−1 ,i γji (3; ϑ)ztj−1 ,i
X X X
 −
k=ib +1 k=ib +1 j=ib +1

Démonstration. La preuve de cette proposition est reportée dans la section G.2 de


l’annexe G.

138
5.3. Étude théorique d’un exemple dans le cas de trois mouvements

Remarque : Si ai = 0, alors λi = +∞, et le maximum n’est pas atteint ; il s’agit


en fait d’une borne supérieure.

5.3.2.3 Si les paramètres σi,1 , σi,2 , σi,3 , ρi et λi sont communs à toutes les
trajectoires

Dans cette sous-partie, on suppose que certains paramètres des trois mouvements
sont communs à toutes les trajectoires. On va supposer que pour tout i ∈ J1, sK,
2
σi,1 = σb2 , ρi = ρ, σi,2
2
= σr2 , λi = λ, et σi,3
2
= σv2 , c’est-à-dire que tous les morceaux
de trajectoires de type 1 ont le même coefficient de diffusion σb , ceux de type 2 ont
le même coefficient de diffusion σr et le même drift v et ceux de type 3 ont le même
coefficient de diffusion σv et la même force de rappel λ.
Ainsi, le paramètre inconnu ϑ n’est plus de dimension 4 + 8 × s comme précé-
demment mais de dimension 9 + 3p et on l’écrit sous la forme :

(τ, pb , pr , pv , σb2 , ρ, σr2 , λ, σv2 , η1 , µ1 , . . . , ηs , µs ) ∈ R∗+ × R∗+ × R∗+ × R+ × R∗+ × ([0, 2π[×Λ)s .

Comme précédemment, on cherche arg max Q(ϑ̃, ϑ, Z), en cherchant séparément,


ϑ̃
grâce à la forme de Q, l’argument du maximum selon les les variables (τ, pb , pr , pv ) ∈
R4+ , puis celui selon les variables (σb2 , ρ, σr2 , λ, σv2 , η1 , µ1 , . . . , ηs , µs ) ∈ R∗+ ×R∗+ ×R∗+ ×
R+ × R+ ×([0, 2π[×Λ)s .

La recherche de l’argument du maximum selon les variables (τ, pb , pr , pv ) se fait


exactement de la même manière que ce qui a été fait dans la proposition 11. Cher-
chons maintenant celui selon les variables (σb2 , ρ, σr2 , λ, σv2 , η1 , µ1 , . . . , ηs , µs ).

Proposition 13. L’argument du maximum de Q(., ϑ, Z) selon les variables

(σb2 , ρ, σr2 , λ, σv2 , η1 , µ1 , . . . , ηs , µs ) ∈ R∗+ × R∗+ × R∗+ × R+ × R∗+ × ([0, 2π[×Λ)s

est atteint pour les mêmes valeurs que dans la proposition 12 pour ηi et µi . Pour les

139
Partie III, Chapitre 5 – Classification des trajectoires

autres paramètres, elle est atteinte en :

s id
γki (1; ϑ)kztk ,i − ztk−1 ,i k2
X X

1 i=1 k=ib +1
σb2 = ,
2∆ s id
γki (1; ϑ)
X X

i=1 k=ib +1

* 
s id
cos(ηi )
+
, ztk ,i − ztk−1 ,i γki (2; ϑ)
X X

1 i=1 k=ib +1 sin(ηi )
ρ= ,
∆ s id
γki (2; ϑ)
X X

i=1 k=ib +1

  2
s id
cos(ηi )
γki (2; ϑ) ztk ,i − ztk−1 ,i − ρi  ∆
X X

1 i=1 k=ib +1 sin(ηi )


σr =
2
,
2∆ s id
γki (2; ϑ)
X X

i=1 k=ib +1

s id
γki (3; ϑ)kztk ,i − ztk−1 ,i ai − µi (1 − a)k2
X X

i=1 k=ib +1
σv2 = s id
,
2v(λ) γki (3; ϑ)
X X

i=1 k=ib +1


1  a si ab > 0
λ = − ln (a) où a =
b
avec
∆  0 si ab ≤ 0
 
id
γji (3; ϑ)ztj ,i +
X

id
s 
* i
d 
j=i +1
D E
i
(3; γki (3; ϑ)ztk−1 ,i , b i
X  X X 
 γk ϑ) z , z
tk−1 ,i tk ,i − 
d
 
i=1 
k=ib +1 k=ib +1
γji (3; ϑ)
X 

j=ib +1
ab =  2
 .
id
γji (3; ϑ)ztj−1 ,i
X
 
 i
s  X

d
2 j=ib +1

γki (3; ϑ)
X
ztk−1 ,i −
 
id
 
 
i=1 k=ib +1
γji (3; ϑ)
X 
 
j=ib +1

Démonstration. La preuve de cette proposition est reportée dans la section G.3 de

140
5.3. Étude théorique d’un exemple dans le cas de trois mouvements

l’annexe G.

Remarque : Comme dans la proposition précédente, si a = 0, alors λ = +∞, et le


maximum n’est pas atteint ; il s’agit en fait d’une borne supérieure.

Si on suppose de plus que les trois mouvements considérés ont les mêmes coeffi-
cients de diffusion (σb = σr = σv = σ), alors on obtient la proposition suivante.

Proposition 14. Si σb = σr = σv = σ, alors l’argument du maximum de Q(., ϑ, Z)


selon les variables

(σ 2 , ρ, λ, η1 , µ1 , . . . , ηs , µs ) ∈ R∗+ × R∗+ × R+ × ([0, 2π[×Λ)s

est atteint pour les mêmes valeurs que dans la proposition 13 pour ρ, λ, ηi et µi .
Pour σ, il est atteint en :


σ2 = s jd
(γkj (1; ϑ) + γkj (2; ϑ) + γkj (3; ϑ))
X X

j=1 k=jb +1

avec

1 Xs id
nσ = γ i (1; ϑ)kztk ,i − ztk−1 ,i k2
X
2∆ i=1 k=ib +1 k
  2
1 Xs id
cos(ηi )
+ γki (2; ϑ) ztk ,i − ztk−1 ,i − v  ∆
X
2∆ i=1 k=ib +1 sin(ηi )
1 X s id
+ γ i (3; ϑ)kztk ,i − ztk−1 ,i a − µi (1 − a)k2 .
X
2v(λ) i=1 k=ib +1 k

Démonstration. La preuve de cette proposition est reportée dans la section G.4 de


l’annexe G.

141
Partie III, Chapitre 5 – Classification des trajectoires

5.4 Conclusion
Ce chapitre avait pour but d’élaborer une méthode permettant d’estimer les
classes de mouvement pour plusieurs trajectoires dans un domaine donné, en tenant
compte de la possibilité de changer de mouvement lors du déplacement des parti-
cules. La méthode que nous avons choisie se base sur un modèle de Markov à états
cachés et sur l’algorithme EM pour calculer l’estimateur au sens du maximum de
vraisemblance des caractéristiques des mouvements. Dans ce chapitre, nous avons
établi les formules explicites des solutions au sens du maximum de vraisemblance
dans le cas où les trois mouvements envisagés sont respectivement le mouvement
brownien, le mouvement brownien dirigé et le processus d’Ornstein-Uhlenbeck. Dans
le chapitre suivant, nous présentons la validation de notre méthode sur des données
simulées et des données réelles.

142
Chapitre 6

A PPLICATIONS SUR DES DONNÉES


SIMULÉES PUIS SUR DES DONNÉES
RÉELLES

Dans ce chapitre, nous analysons un jeu de trajectoires simulées avec la théorie


présentée dans le chapitre précédent dans le but de déterminer les paramètres incon-
nus qui régissent le mouvement de ces trajectoires. Dans un deuxième temps, nous
nous servirons des résultats obtenus sur les données simulées pour valider notre
méthode sur un jeu de trajectoires issues de données réelles. Les données réelles
considérées seront les mêmes qu’aux chapitres 2 et 4.

6.1 Résultats sur des données simulées


Nous recourons à l’algorithme EM en considérant certains paramètres tantôt
comme connus, tantôt comme inconnus. Nous utilisons chaque fois le même jeu de
trajectoires, présenté ci-dessous.

Le jeu est composé de s = 4000 trajectoires qui proviennent du résultat de la


simulation d’un processus BDMM tel que celui présenté dans la section 5.3.1 du
chapitre 5, et résumé ici :

— La marque de chaque particule identifie son régime de mouvement à chaque


instant, qui peut être de trois types différents (décrits ci-dessous). L’ensemble
M des marques est :
M = {1, 2, 3} .

143
Partie III, Chapitre 6 – Applications sur des données simulées et réelles

— Chaque particule possède un taux de mutation constant égal à τ :

τ (x) = τ × n(x).

— Le noyau de mutation est celui de l’exemple 3 du chapitre 3. Pour (x, y) ∈ E 2 ,


on a
1


 pmi ,m , si ∃xi = (zi , mi ) ∈ x, ∃m ∈ M, y = (x\(zi , mi )) ∪ (zi , m),
kτ (x, y) =  n(x)

0 sinon,
où (pi,j )(i,j)∈{1,2,3}2 est une matrice de transition de la forme
 

0 pb 1 − pb 
 pr 0 1 − pr  .
 
 
pv 1 − pv 0

— Les particules changent de position chacune selon sa marque et indépendam-


ment des autres.
— Le noyau de naissance est une loi uniforme sur le carré Λ := [0, 250] × [0, 250].
À chaque naissance, la couleur est choisie de manière équiprobable entre les
trois couleurs 1, 2, 3, i.e. :

1 1

× 1Λ (z) si ∃(z, m) ∈ Λ × M, y = x ∪ (z, m)


kβ (x, y) = 3 2502
0 sinon.

— Le noyau de mort est uniforme sur l’ensemble des particules présentes.


— Les taux de naissance et de mort sont constants, égaux à 300 et β vérifie :

∃n∗ ∈ N, ∀x ∈ E, n(x) ≥ n∗ =⇒ β(x) = 0.

Les trois types de mouvement 1, 2 ou 3 sont ceux détaillés dans la section 5.3 du
chapitre 5, à savoir pour chaque trajectoire i ∈ J1, sK :
— Type 1 : mouvement brownien de coefficient de diffusion σi,1 .
— Type  2 : mouvement
 brownien de coefficient de diffusion σi,2 avec drift égal
cos(ηi )
à ρi  .
sin(ηi )
— Type 3 : mouvement qui suit un processus d’Ornstein-Ulhenbeck de coefficient
de diffusion σi,3 , de force de rappel λi et de point d’équilibre µi .

144
6.1. Résultats sur des données simulées

Figure 6.1 – A gauche : 4000 trajectoires comportant à elles toutes 1071 chan-
gements de types de mouvement. A droite : Deux trajectoires (zoomées) parmi les
4000 de gauche : la 138-ième (en haut) de longueur 177 points qui suit le type de
mouvement 1 pendant 43 pas de temps puis qui change de type de mouvement pour
suivre le type 3, la 301-ième (en bas) est une trajectoire de longueur 98 points qui
suit le type de mouvement 2 durant toute sa durée de vie.

Pour la simulation, les paramètres sont les suivants : σi,1 = 1.22, ρi = 1.44,
σi,2 = 1.2, λi = 6, σi,3 = 0.8 pour tout i ∈ J1, sK. Quant à l’angle ηi du type de
mouvement 2, il est tiré selon une loi uniforme
 entre 0 et 2π pour chaque trajectoire
µi (0)
i. Pour le point d’équilibre µi =  lié au type 3, on prend la position dans
µi (1)
laquelle se trouve la particule i au moment où elle initie un déplacement dans le
type 3. L’inter-temps ∆ vaut 0.14. On fixe aussi les paramètres avec les valeurs
suivantes : τ = 0.04, pb = 0.25, pv = 0.5, pr = 1.
Avec tous ces paramètres, la proposition 9 nous donne que la matrice {au,v (ϑ)}(u,v)∈M2
vaut, en arrondissant à 10−3 près :
   

e−τ ∆ pb (1 − e−τ ∆ ) (1 − pb )(1 − e−τ ∆ ) 0.994 0.004 0.002
a=
pr (1 − e−τ ∆ ) e−τ ∆ (1 − pr )(1 − e−τ ∆ )

=
0.006 0.994 0 

.
   
pv (1 − e −τ ∆
) (1 − pv )(1 − e −τ ∆
) e −τ ∆
0.003 0.003 0.994

La Figure 6.1 affiche les trajectoires issues du résultat d’une telle simulation avec
en bleu les morceaux de trajectoires qui suivent le type de mouvement 1, en rouge
ceux qui suivent le type 2, et en vert ceux qui suivent le type 3.

145
Partie III, Chapitre 6 – Applications sur des données simulées et réelles

Figure 6.2 – Évolution du maximum de vraisemblance estimé par l’algorithme


EM à chaque itération en fonction du nombre d’itérations. On suppose que seuls les
paramètres τ , pb , pr et pv sont inconnus. L’algorithme est exécuté pour 4 quadruplets
de valeurs initiales différents, choisis selon une loi uniforme sur [0, 1]4 .

6.1.1 Cas où seuls les paramètres de la matrice de transition


a sont inconnus
Dans cette section, on teste l’algorithme EM présenté en section 5.2.2.1 en consi-
dérant que les paramètres σi,1 , ρi , σi,2 , λi , σi,3 , µi et ηi sont connus. Ils ne feront donc
pas partie de la variable inconnue ϑ. Les paramètres inconnus sont les paramètres
de la matrice a, c’est-à-dire τ , pb , pr et pv .

Comme expliqué ci-dessus, pour pouvoir utiliser l’algorithme EM, il faut initia-
liser les valeurs des paramètres recherchés. On sait ici que 0 ≤ pb , pr , pv ≤ 1 car sont
des probabilités et que τ est un réel positif qui a plutôt tendance à être proche de 0
(sinon les changements de type de mouvement auraient lieu extrêmement souvent).
On va donc fournir comme valeur initiale à l’algorithme EM pour ces 4 paramètres, 4
réels tirés selon une loi uniforme sur [0, 1]. De plus, comme l’algorithme EM converge
vers un minimum local, nous allons l’exécuter plusieurs fois, avec plusieurs valeurs
initiales choisies aléatoirement dans [0, 1].

Le graphique de la figure 6.2 reporte pour 4 quadruplets de valeurs initiales dif-


férents le maximum renvoyé par l’algorithme EM à chaque itération, en fonction du
nombre d’itérations de l’algorithme. On arrête l’algorithme au bout de 30 itérations.
On remarque que dans les 4 cas, l’algorithme EM converge vers la même valeur. Le
choix du quadruplet initial n’influence donc pas sur le résultat, ce qui est cohérent

146
6.1. Résultats sur des données simulées

Figure 6.3 – Évolution du maximum de vraisemblance estimé par l’algorithme EM


à chaque itération en fonction du nombre d’itérations pour 100 expériences similaires
à celle utilisée pour la figure 6.2.

avec la non existence de maximas locaux (cf preuve de la proposition 11 du cha-


pitre 5).

Dans un deuxième temps, l’algorithme EM est exécuté sur 100 expériences réali-
sées dans les mêmes conditions. Étant donné que les différents quadruplets initiaux
mènent au même résultat, j’ai choisi pour chaque expérience, un seul quadruplet
initial aléatoire dans [0, 1]4 . La figure 6.3 regroupe le tracé de l’Évolution du maxi-
mum de vraisemblance estimé par l’algorithme EM à chaque itération en fonction
du nombre d’itérations pour les 100 expériences. Cette figure montre la convergence
de l’algorithme EM pour les 100 expériences et nous conforte quant à l’efficacité de
l’algorithme, attesté par la faible variance du résultat.

6.1.2 Cas où les paramètres de chaque trajectoire sont in-


connus et distincts
Dans cette section, on suppose connus les paramètres τ , pb , pr et pv de la matrice
de transition a qui régit les changements de type de mouvement. Estimer les para-
mètres σi,1 , ρi , σi,2 , λi , σi,3 , µi et ηi revient donc à s’intéresser à chaque trajectoire
de manière indépendante. On va donc se concentrer sur une seule trajectoire i par
la suite.

Pour la simulation, on conserve les valeurs précédentes pour les paramètres :

147
Partie III, Chapitre 6 – Applications sur des données simulées et réelles

σi,1 = 1.22, ρi = 1.44, σi,2 = 1.2, λi = 6, σi,3 = 0.8 et τ = 0.04, pb = 0.25, pv = 0.5,
pr = 1. Comme précédemment, pour la simulation, on choisit pour l’angle ηi un
nombre tiré uniformément entre 0 et 2π et pour le point d’équilibre µi , la position
dans laquelle se trouve la particule i au moment où elle initie un déplacement dans
le type de mouvement 3 pour µi .

Pour tester l’algorithme EM, on a besoin de fixer des valeurs initiales pour les
paramètres inconnus. On choisit donc :
— pour σi,1 , σi,2 et σi,3 un nombre tiré selon une loi uniforme sur [0, 3],
— pour ρi un nombre tiré selon une loi uniforme sur [0, 10],
— pour λi un nombre tiré selon une loi uniforme sur [0, 10],
— pour µi un point qui est sur la trajectoire i,
— pour ηi l’angle décrit par le vecteur qui relie le premier et le dernier point de
la trajectoire.
Nous testons l’algorithme EM sur les deux trajectoires particulières présentées
à droite de la Figure 6.1 en prenant pour valeurs initiales de l’algorithme pour le
paramètre µi , soit le premier point, soit le point médian, soit le dernier point de la
trajectoire, et pour les paramètres (σi,1 , ρi , σi,2 , λi , σi,3 ), soit θ1 , soit θ2 , soit θ3 , soit
θ4 avec :

θ1 = (1.86, 7.08, 0.82, 3.75, 1.77),


θ2 = (0.45, 4.54, 1.27, 2.56, 2.88),
θ3 = (1.89, 8.40, 1.33, 4.07, 0.70),
θ4 = (1, 2, 1, 2, 1).

Au total, cela fait donc 3 × 4 = 12 valeurs initiales différentes. Le tableau 6.1 fait
correspondre le numéro de l’exécution avec les valeurs initiales choisies.
Avec ces 12 points de départ, il est difficile d’afficher, comme dans la section
précédente, les graphes de convergence en fonction des itérations de l’algorithme.
En effet, suivant la valeur initiale choisie, les paramètres ne convergent pas vers les
mêmes valeurs, donc ce type de graphe devient très rapidement illisible. On choi-
sira plutôt d’estimer, pour chaque valeur initiale, les états cachés (i.e. les types de
mouvement 1, 2 ou 3) de chaque point de la trajectoire étudiée grâce à l’algorithme

148
6.1. Résultats sur des données simulées

Numéro Valeur initiale


de l’éxé- Valeur initiale pour le pour les
cution de paramètre µi paramètres
l’algo EM (σi,1 , ρi , σi,2 , λi , σi,3 )
1 Premier point de la trajectoire
2 Point médian de la trajectoire θ4
3 Dernier point de la trajectoire
4 θ1
5 Premier point de la trajectoire θ2
6 θ3
7 θ1
8 Point médian de la trajectoire θ2
9 θ3
10 θ1
11 Dernier point de la trajectoire θ2
12 θ3

Table 6.1 – Valeurs initiales des 12 exécutions de l’algorithme EM.

de Viterbi (proposition 8, en prenant pour valeur des paramètres celle obtenue à la


dernière itération de l’algorithme EM) puis d’afficher la trajectoire, coloriée en fonc-
tion de ces états cachés estimés. Nous affichons aussi pour chaque point de départ
la valeur de la vraisemblance calculée en ce point. Les figures 6.4 et 6.5 regroupent
ces différents résultats pour les deux trajectoires de la figure 6.1.

Remarques sur les figures 6.4 et 6.5 : On observe, en comparant les résultats
obtenus avec les valeurs initiales 7, 8, 9, 10, 11 et 12 dans la figure 6.5, que les valeurs
initiales de σi,1 , ρi , σi,2 , λi , σi,3 ont peu de répercussion sur le résultat. En revanche
la valeur initiale donnée au point d’équilibre µi a quant à elle beaucoup d’influence
sur le résultat (exécutions 1, 2, 3).
Au contraire, d’après la figure 6.4, la valeur initiale du point d’équilibre µi n’a
pas beaucoup d’incidence sur les résultats (exécutions 1, 2, 3) alors que les valeurs
initiales de σi,1 , ρi , σi,2 , λi , σi,3 ont quant à elles beaucoup d’influence sur le résultat
(exécutions 4 à 12).
On choisit comme “meilleure” valeur initiale celle qui correspond à la plus haute

149
Partie III, Chapitre 6 – Applications sur des données simulées et réelles

Figure 6.4 – Résultat de l’estimation des états cachés pour la trajectoire 301 de
l’expérience de la figure 6.1, basée sur les paramètres estimés grâce à l’algorithme
EM avec 12 points de départ différents. La valeur au dessus de chaque graphique
est la valeur de la log-vraisemblance obtenue avec les paramètres estimés.
Le point de départ de la trajectoire est noté D.

150
6.1. Résultats sur des données simulées

Figure 6.5 – Résultat de l’estimation des états cachés pour la trajectoire 138 de
l’expérience de la figure 6.1, basée sur les paramètres estimés grâce à l’algorithme
EM avec 12 points de départ différents. La valeur au dessus de chaque graphique
est la valeur de la log-vraisemblance obtenue avec les paramètres estimés.
Le point de départ de la trajectoire est noté D.

151
Partie III, Chapitre 6 – Applications sur des données simulées et réelles

valeur de vraisemblance, c’est-à-dire ici la valeur initiale 3 pour la trajectoire 301 et


au point de départ 2 pour la trajectoire 138.
On ne va pas davantage s’attarder sur cette étude car si les paramètres sont
différents pour chaque trajectoire, alors nous sommes confrontés à un problème
d’identifiabilité des paramètres. En effet, il n’est pas aisé de distinguer une trajectoire
qui suit le type 1 d’une trajectoire qui suit le type 2 avec un drift très faible. De la
même manière, une trajectoire qui suit un mouvement de type 3 avec un coefficient
de diffusion élevé et une faible force de rappel vers le point d’équilibre est similaire
à une trajectoire qui suit le type de mouvement 1 avec un coefficient de diffusion
plus faible.
On constate donc que si les paramètres sont différents pour chaque trajectoire
alors l’algorithme EM a déjà beaucoup de mal à les estimer, même en supposant
connus les autres paramètres. Ainsi, si on espère pouvoir mettre en place un algo-
rithme EM efficace pour estimer tous les paramètres en même temps, on ne peut
pas supposer les paramètres σi,1 , ρi , σi,2 , λi , σi,3 différents pour chaque trajectoire.
Par conséquent, dans la section suivante, nous traitons le cas où les paramètres
σi,1 , ρi , σi,2 , λi , σi,3 sont supposés identiques à toutes les trajectoires Zi , i ∈ J1, sK.

6.1.3 Cas où les paramètres σi,1 , ρi , σi,2 , λi , σi,3 sont identiques


pour toutes les trajectoires
On suppose ici, comme dans la partie 5.3.2.3, que les coefficients de diffusions de
trois types de mouvement, la force de rappel du types 3 et la norme du vecteur drift
du type 2, c’est-à-dire les paramètres σi,1 , ρi , σi,2 , λi , σi,3 sont identiques à toutes
les trajectoires. Pour tout i ∈ J1, sK, on a :





σi,1 = σb ,
ρi = ρ,







σi,2 = σr ,
λi = λ,






σi,3 = σv .


En revanche, les paramètres µi et ηi , qui représentent respectivement le point d‘’équilibre


d’un mouvement de type 3 et l’angle du drift d’un mouvement de type 2, sont propres
à chaque trajectoire.

152
6.1. Résultats sur des données simulées

B
Figure 6.6 – Évolution du maximum de vraisemblance estimé par l’algorithme
EM à chaque itération en fonction du nombre d’itérations. L’affichage de chaque
sous-figure se fait en deux graphiques pour plus de lisibilité : en haut : graphique
des paramètres τ, pb , pr , pv et en bas : graphique des paramètres σb , ρ, σr , λ, σv .
Ici, tous les paramètres sont supposés inconnus. Sous-figure A (haut) : les valeurs
initiales des paramètres sont les vraies valeurs de chaque paramètre. Sous-figure B
(bas) : plusieurs valeurs initiales différentes, choisies aléatoirement, ont été testées.

On utilise à présent la proposition 13 pour mettre en place l’algorithme EM.


Par la suite, nous allons dans un premier temps considérer que tous les paramètres
sont supposés inconnus, puis nous allons restreindre notre étude au cas où tous les
paramètres sont inconnus, sauf les points d’équilibre µi et les angles ηi .

6.1.3.1 Cas où les points d’équilibres µi et les angles ηi sont inconnus

Dans cette section, on suppose inconnus tous les paramètres de l’étude, c’est-à-
dire τ , pb , pr , pv , σb , ρ, σr , λ, σv mais aussi µi et ηi pour tout i ∈ J1, sK. Dans ce cas là,

153
Partie III, Chapitre 6 – Applications sur des données simulées et réelles

Figure 6.7 – Évolution du maximum de vraisemblance estimé par l’algorithme EM


à chaque itération en fonction du nombre d’itérations. Ici, les angles et les points
d’équilibres sont fixés à leur valeur théorique et ne sont donc pas estimés et la valeur
initiale des paramètres estimés est leur valeur théorique. L’affichage est proposé sous
forme de deux graphiques pour plus de lisibilité : en haut : graphique des paramètres
τ, pb , pr , pv et en bas : graphique des paramètres σb , ρ, σr , λ, σv (avec échelle à
droite pour le paramètre λ).

la sous-figure A de la figure 6.6 illustre le fait que même lorsque l’on donne comme
valeurs initiales à l’algorithme EM, les valeurs théoriques des différents paramètres,
celui-ci ne converge pas. Il n’y a donc aucun espoir de faire converger cet algorithme,
quelles que soient les valeurs initiales choisies aléatoirement.
Ce constat est confirmé si on exécute l’algorithme EM en estimant tous les pa-
ramètres (y compris les angles et les points d’équilibres, comme précédemment)
pour plusieurs valeurs initiales aléatoires, comme le montre la sous-figure B de la
figure 6.6.
On observe dans la sous-section suivante, illustrée par la figure 6.7, que l’ago-
rithme converge dans le cas où l’expérience est réalisée en supposant les angles ηi
et les points d’équilibres µi connus. Ainsi, au vu de ces deux résultats (figures 6.6
et 6.7), on peut en conclure que l’algorithme EM est trop sensible à la variation des
points d’équilibre et des angles de chaque trajectoire.

6.1.3.2 Cas où les points d’équilibres µi et les angles ηi sont connus

Dans cette section, on suppose inconnus les paramètres σb , ρ, σr , λ, σv et


τ, pb , pr , pv . En revanche, contrairement à ce qui a été supposé dans le paragraphe
précédent, les paramètres µi et ηi pour tout i ∈ J1, sK sont connus. On exécute ensuite

154
6.1. Résultats sur des données simulées

Figure 6.8 – Évolution du maximum de vraisemblance estimé par l’algorithme EM


à chaque itération en fonction du nombre d’itérations. Ici, les angles et les points
d’équilibres sont fixés égaux à leurs vraies valeurs et ne sont donc pas estimés et
la valeur initiale des paramètres estimés est choisie uniformément dans [0, 1] pour
τ, pb , pr , pv , uniformément dans [0, 3] pour σb , σr , σv , uniformément dans [0, 5] pour
v et uniformément dans [0, 10] pour λ. Quatre valeurs initiales ont été testées ici.
L’affichage est toujours proposé sous forme de deux graphiques.

l’algorithme EM dans les mêmes conditions que dans la section 6.1.3.1, c’est-à-dire
en prenant comme valeurs initiales les valeurs théoriques pour tous les paramètres
mais en supposant cette fois-ci les paramètres µi et ηi pour tout i ∈ J1, sK connus et
égaux à leur valeur théorique. La figure 6.7 illustre la convergence de l’algorithme.
La figure 6.8 met en évidence que l’algorithme EM converge toujours avec plusieurs
valeurs initiales choisies aléatoirement.

6.1.3.3 Détermination des angles ηi et des points d’équilibre µi

Le fait d’étudier des données simulées permet de fixer les valeurs des angles et
des points d’équilibre. Néanmoins, notre objectif est d’évaluer notre méthode sur un
jeu de données réelles. On ne connaît pas les valeurs théoriques de l’angle et du point
d’équilibre de chaque trajectoire. Il faut donc proposer une autre manière d’estimer
ces deux quantités pour chaque trajectoire. Pour l’angle ηi , on choisit l’angle défini
par la direction (par rapport à l’axe horizontal) du vecteur formé par le dernier point
de la trajectoire et son premier point. Pour le point d’équilibre, il faut identifier un
point “au milieu” de la partie verte d’une trajectoire. Pour trouver un tel point pour
une trajectoire de longueur n, une idée est de chercher le cercle dit maximum, qui

155
Partie III, Chapitre 6 – Applications sur des données simulées et réelles

Figure 6.9 – Pour 4 trajectoires données, on représente le point d’équilibre (par


la croix violette) choisi par la méthode du cercle maximum, en violet on retrouve
aussi le cercle maximum associé. Cette figure représente aussi l’angle ηi défini par le
vecteur formé par le premier et le dernier point de la trajectoire.

est un cercle de rayon :

kx + ky IQx IQy
r= où kx = et ky = ,
2 n1/3 n1/3

avec IQx (resp. IQy ) la distance inter-quantile de la liste formée des abscisses (resp.
des ordonnées) des n points de la trajectoire. Pour chaque point x de la trajectoire,
on compte le nombre nx de points de la trajectoire présents dans le cercle de centre
x et de rayon r et on appelle cercle maximum le cercle de centre x pour lequel ce
nombre nx est le plus grand. On choisit ensuite pour point d’équilibre le centre du
cercle maximum.
La figure 6.9 affiche, pour 4 trajectoires données (issues de la figure 6.1), en violet
le cercle maximum et avec une croix violette son centre (donc le point d’équilibre
choisi), ainsi que l’angle ηi entre l’axe des abscisses et le vecteur formé par le premier
et le dernier point de la trajectoire.
En utilisant l’algorithme EM dans les mêmes conditions que celles de la figure 6.8,

156
6.1. Résultats sur des données simulées

Figure 6.10 – Évolution du maximum de vraisemblance estimé par l’algorithme


EM à chaque itération en fonction du nombre d’itérations. Ici, les angles et les points
d’équilibres ne sont pas estimés par l’algorithme EM. Ils sont fixés par la méthode du
cercle maximum pour le point d’équilibre et à l’angle défini par le vecteur formé par
le premier et le dernier point de chaque trajectoire pour l’angle (cf section 6.1.3.3).
La valeur initiale des paramètres estimés est choisie uniformément dans [0, 1] pour
τ, pb , pr , pv , uniformément dans [0, 3] pour σb , σr , σv , uniformément dans [0, 5]
pour v et uniformément dans [0, 10] pour λ. Cinq valeurs initiales ont été testées ici.
L’affichage est toujours proposé sous forme de deux graphiques.

c’est-à-dire en considérant les points d’équilibre et les angles de chaque trajectoire


connus mais cette fois en leur donnant comme valeur respectivement le centre du
cercle maximum et l’angle défini par le vecteur formé du premier et du dernier point
de la trajectoire, on obtient le graphique de la figure 6.10, qui illustre la convergence
de l’algorithme converge toujours très bien.

6.1.4 Bilan de l’étude par simulation


Nous faisons un rapide bilan de l’étude par simulation, en parcourant les diffé-
rents scénarios étudiés.

Bilan 1. Si tous les paramètres du modèle sont considérés comme des incon-
nues pour l’algorithme EM, alors ce dernier ne converge pas correcte-
ment, même en prenant comme valeur initiale la valeur théorique de chaque
paramètre, ou toutes autres valeurs choisies aléatoirement.

Il est donc nécessaire de retirer certains paramètres du vecteur des inconnues de


l’algorithme EM, comme décrit ci-dessous.

157
Partie III, Chapitre 6 – Applications sur des données simulées et réelles

Bilan 2. Si les seuls paramètres inconnus sont ceux de la matrice de transition


a, c’est-à-dire τ , pb , pr et pv et que tous les autres sont fixés avec les valeurs
théoriques, alors l’algorithme converge, quelles que soient les valeurs initiales
choisies aléatoirement.

Bilan 3. Si les seuls paramètres inconnus sont ceux d’une trajectoire i, c’est-
à-dire σi,1 , ρi , σi,2 , λi , σi,3 , ηi et µi alors l’algorithme ne converge pas tou-
jours. Notre méthode n’est donc pas adaptée pour étudier une trajectoire
individuelle. On l’utilisera pour l’étude d’un grand nombre de trajectoires.

Il y a un intérêt à étudier un grand nombre de trajectoires seulement si ces


dernières suivent trois mouvements distincts ayant les mêmes caractéristiques. C’est
pourquoi, nous supposons par la suite que pour tout i ∈ J1, sK, σi,1 = σb , ρi = ρ,
σi,2 = σr , λi = λ, σi,3 = σv .
Sous cette hypothèse, les résultats obtenus permettent de conclure :

Bilan 4. Si tous les paramètres du modèle sont considérés comme des incon-
nues pour l’algorithme EM sauf les angles ηi et les points d’équilibres
µi , alors l’algorithme converge si les angles et les points d’équilibres sont fixés
à leurs valeurs théoriques, quelles que soient les valeurs initiales.

Sur la base des bilans 1 et 4, on déduit que l’algorithme converge si les angles et
les points d’équilibres ne sont pas estimés par l’algorithme. Il faut donc les estimer
au préalable.

Bilan 5. Si tous les paramètres du modèle sont considérés comme des incon-
nues pour l’algorithme EM sauf les angles ηi et les points d’équilibres
µi , qui sont respectivement fixés par la méthode du cercle maximum
pour le point d’équilibre et par l’angle défini par le vecteur formé par
le premier et le dernier point de chaque trajectoire pour l’angle (cf
section 6.1.3.3), alors l’algorithme converge, quelles que soient les valeurs
initiales choisies.

Le bilan 5 conduit à une méthode qu’il est possible de mettre en place pour
estimer tous les paramètres des 3 types de mouvements (σb , ρ, σv , λ, σv ) lorsque
nous ne connaissons pas les angles ηi et les points d’équilibre µi . C’est cette méthode
que nous utiliserons dans la suite pour analyser les données réelles.

158
6.2. Résultats sur des données réelles

Figure 6.11 – Trajectoires des protéines Langerin (à gauche) et Rab-11 (à droite)


classées avec la méthode de [BVK19] avec toujours le même code couleur : bleu pour
les morceaux de trajectoires browniens, rouge pour ceux superdiffusifs et vert pour
ceux sousdiffusifs.

6.2 Résultats sur des données réelles

Dans cette section, nous évaluons la performance de l’algorithme EM sur des


données réelles et nous comparons les résultats avec ceux obtenus par d’autres mé-
thodes déjà existantes.
Les données réelles étudiées dans ce paragraphes sont les données qui ont été
présentées aux chapitres 2 et 4 : il s’agit des protéines Langerin et Rab-11, qui
se déplacent à la surface d’une cellule. Ces données ont été étudiées par Vincent
Briane dans [BVK19]. Sa méthode calcule une statistique de test (basée sur l’excur-
sion maximale par rapport au premier point de temps) sur une fenêtre glissante sur
chaque trajectoire pour détecter les changements de régime. La figure 6.11 affiche
les résultats obtenus par cette méthode sur le jeu de données réelles.

Nous testons l’algorithme EM sur ces données en se plaçant dans les mêmes
conditions que celles de la section 6.1.3.2, c’est-à-dire en supposant tous les para-
mètres inconnus sauf les points d’équilibres et les angles de chaque trajectoire qui
sont estimés en amont grâce à la méthode du cercle maximum et de l’angle formé par
le vecteur reliant le dernier et le premier point de la trajectoire (cf section 6.1.3.3).
On suppose aussi que les trois mouvements possibles (1, 2 et 3) possèdent le même

159
Partie III, Chapitre 6 – Applications sur des données simulées et réelles

Figure 6.12 – Trajectoires des protéines Langerin (à gauche) et Rab-11 (à droite)


classées avec notre méthode avec toujours le même code couleur : bleu pour les
morceaux de trajectoires browniens, rouge pour ceux superdiffusifs et vert pour
ceux sousdiffusifs.

coefficient de diffusion σ, c’est-à-dire que σb = σr = σv = σ (on se rapporte donc à


la proposition 14 pour le calcul de l’argument du maximum de Q). La figure 6.13
illustre l’évolution de la convergence de l’algorithme au cours des itérations. La fi-
gure 6.12 affiche les trajectoires classées grâce à l’algorithme de Viterbi, en se servant
des résultats de l’algorithme EM sur ces données (ceux de la figure 6.13).

Comparaison des résultats des figures 6.11 et 6.12 : Les résultats obtenus
avec la méthode de [BVK19] présentent beaucoup plus de trajectoires de type 1.
Ce phénomène est amplifié par le fait que cette méthode classe automatiquement
en type 1 les trajectoires trop courtes. De plus, les trajectoires de la figure 6.11
présentent très peu de changements de régime : une quinzaine pour les protéines
Langerin (gauche) contre environ 2300 pour les mêmes trajectoires de la figure 6.12.
Une telle différence peut être expliquée par le fait que dans la méthode de [BVK19],
la présence ou non de changement de régime est directement liée à la taille de la
fenêtre glissante choisie par l’utilisateur. De plus, la méthode de [BVK19] traitent
chaque trajectoire individuellement et ne tient pas compte d’effet de population. Vi-
suellement, la figure 6.12 s’appuyant sur notre méthode, présente beaucoup plus de
trajectoires confinées, classées en type 3 que la figure 6.11 et de trajectoires dirigées
classées en type 2.

160
6.3. Conclusion

Pour les protéines Langerin :

Pour les protéines Rab-11 :

Figure 6.13 – Évolution du maximum de vraisemblance estimé par l’algorithme


EM à chaque itération en fonction du nombre d’itérations. Ici, les angles et les
points d’équilibres sont supposés connus et ne sont donc pas estimés. Ils sont fixés
par la méthode du cercle maximum pour le point d’équilibre et à l’angle défini par le
vecteur formé par le premier et le dernier point de chaque trajectoire pour l’angle (cf
section 6.1.3.3). La valeur initiale des paramètres estimés est choisie aléatoirement
dans [0, 1] pour τ, pb , pr , pv , aléatoirement dans [0, 3] pour σ, aléatoirement dans
[0, 5] pour v et aléatoirement dans [0, 10] pour λ. Quatre valeurs initiales ont été
testées ici. L’affichage est toujours proposé sous forme de deux graphiques.

6.3 Conclusion
Dans ce chapitre, nous avons présenté les résultats de notre méthode de classifi-
cation (présentée au chapitre précédent) appliquée sur un jeu de données simulées.

161
Partie III, Chapitre 6 – Applications sur des données simulées et réelles

Les résultats sont très satisfaisants dans le cas où les paramètres sont communs à
toutes les trajectoires (hypothèse d’homogénéité en population). En revanche, l’esti-
mation menée sur une seule trajectoire est moins fiable. Il est recommandé, dans ce
cas, de privilégier d’autres méthodes basées sur des principes différents (comme celle
de [MBP+ 15], présentée en annexe H). Un bilan global des résultats est reporté dans
la section 6.1.4. Pour conclure ce chapitre, nous avons classé les trajectoires issues
du jeu de données réelles commun à tous les chapitres du manuscrit. Les résultats
sont assez satisfaisants d’un point de vue qualitatif, mais plus difficiles à évaluer
d’un point de vue quantitatif sans vérité-terrain.

162
Annexes de la partie III

163
Annexe F

F ORME DE LA FONCTION Q DANS LE


CAS DE TRAJECTOIRES
INDÉPENDANTES

Le but de cette annexe est de prouver le résultat de la proposition 6 du cha-


pitre 5, qui est aussi la proposition 4 de cette annexe.

Ainsi, nous allons démontrer que si les conditions (C1), (C2) et (C3), que nous
rappelons ici, sont satisfaites, alors la fonction Q se calcule comme si les mêmes
trajectoires étaient considérées sous forme de “stacking”.

(C1) L’intensité de saut α est bornée.


(C2) Le paramètre d’intérêt ϑ n’intervient que dans τ , kτ et L.
(C3) Les mouvements des trajectoires et leurs changements de régime sont indépen-
dants au sens de la définition 1 de cette annexe.

F.1 Notations
Dans toute cette annexe, on prendra soin de noter en gras les éléments qui sont
des vecteurs et en lettres normales les éléments qui sont des valeurs réelles. Ainsi,
les coordonnées d’un vecteur z s’écrivent z1 , . . . , zn .

 
Dans l’expression Q(ϑ̃, ϑ, Z) = Eϑ ln(p(Z, M; ϑ̃)|Z , Z désigne toutes les posi-
tions du processus observé entre t0 et tn , que l’on a choisi de regrouper trajectoire
par trajectoire dans le chapitre 5 :

Z = (Z1 , . . . , Zs ),

165
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

où Zi = (ztib ,i , . . . , ztid ,i ) est l’ensemble des positions de la trajectoires i.

Dans cette annexe, nous allons désormais réécrire Z de la façon suivante :

Z = (zt0 , . . . , ztn ),

où les (ti )0≤i≤n sont les temps discrets d’observation du processus et où zti représente
l’ensemble des positions des trajectoires présentes au temps ti . Tous les vecteurs zti
sont de taille s et on trouve à la k-ième coordonnée de zti , notée zti ,k , la position de
la trajectoire numéro k si celle-ci est présente au temps ti et le symbole si celle-ci
n’est pas présente au temps ti . Ainsi zti ,k ∈ Λ := Λ ∪ { }.

De la même manière, l’ensemble des marques M sera modifié en

M := M ∪ { } = J1, M K ∪ { }

et le vecteur M des états cachés sera aussi modifié selon le même point de vue :

M = (mt0 , . . . , mtn ),

où les vecteurs mti seront désormais à valeurs dans (M )s et plus précisément dans :
  
a
 1 

 

 .. 
 
(zti )

M :=  .  , aj ∈ J1, M K ∪ { } et aj = ssi zti ,j = .

   

 a
 

s

Dans la suite, on notera pour tout z ∈ (Λ )s , P(z) = {j ∈ J1, sK, zj 6= }


l’ensemble des numéros des trajectoires présentes dans la configuration z.

On introduit trois nouveaux ensembles : pour A, B ∈ {Λ, M}, on note :

I1A×B = {(y, z) ∈ As × B s , ∀i ∈ J1, sK, yi = ⇔ zi = },


I2A×B = {(y, z) ∈ As × B s , ∃!i0 ∈ J1, sK/{i ∈ J1, sK / yi = et zi 6= } = {i0 }
et ∀i ∈ J1, sK\{i0 }, yi = ⇔ zi = },
I3A×B = {(y, z) ∈ As × B s , ∃!i0 ∈ J1, sK/{i ∈ J1, sK / zi = et yi 6= } = {i0 }
et ∀i ∈ J1, sK\{i0 }, yi = ⇔ zi = }.

166
F.2. Cadre

Si A = B, on notera IjA×A =: IjA pour j ∈ {1, 2, 3}. On note la réunion des trois
ensembles :

I Λ := I1Λ ∪ I2Λ ∪ I3Λ et I M := I1M ∪ I2M ∪ I3M .

Dans I1Λ , on retrouve les vecteurs (y, z) qui comportent les mêmes trajectoires
présentes. Ainsi si aucune naissance, ni aucune mort n’a lieu entre deux configura-
tions y et z, alors (y, z) ∈ I1Λ . Dans I2Λ , on retrouve les vecteurs (y, z) pour lesquels
la configuration z comporte une trajectoire présente de plus que y. Ainsi, si une seule
naissance et aucune mort a lieu entre les configurations y et z, alors (y, z) ∈ I2Λ .
Dans I3Λ , on retrouve les vecteurs (y, z) pour lesquels la configuration y comporte
une trajectoire présente de plus que z. Ainsi, si une seule mort et aucune naissance
a lieu entre les configurations y et z, alors (y, z) ∈ I3Λ .

De plus, si (y, z) ∈ I2Λ , alors par définition, il existe un unique i ∈ J1, sK, que
l’on note i0 tel que yi0 = et zi0 6= , on note alors z(y) le vecteur de coordonnées :

∀i ∈ J1, sK\ {i0 } , (z (y) )i = zi et (z (y) )i0 = .

De la même manière, si (y, z) ∈ I3 , alors par définition, il existe un unique


i ∈ J1, sK, que l’on note i0 tel que zi0 = et yi0 =
6 , on note alors y(z) le vecteur
de coordonnées :

∀i ∈ J1, sK\ {i0 } , (y (z) )i = yi et (y (z) )i0 = .

Ainsi, si (y, z) ∈ I2Λ , on a P(z(y) ) = P(y). De même, si (y, z) ∈ I3Λ , on a


P(y(z) ) = P(z).

F.2 Cadre
Comme le processus BDMM continu (Zt , Mt )t≥0 , duquel sont extraites les tra-
jectoires discrétisées est un processus de Markov homogène [LLG21], les quatre hy-
pothèses suivantes sont vérifiées :

(H1) Pour tout i ∈ {1, . . . n}, mti est indépendante de toutes les autres variables

167
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

conditionnellement à zti−1 et mti−1 , i.e. :


   
p mti |mti−1 , . . . , mt0 , zti−1 , . . . , zt0 = p mti |mti−1 , zti−1 .

(H2) Pour tout i ∈ {1, . . . n}, pour tout m ∈ (M )s , pour tout z ∈ (Λ )s et pour
(z)
tout m̃ ∈ M :
 
P mti = m|mti−1 = m̃, zti−1 = z = P (mt1 = m|mt0 = m̃, zt0 = z) .

(H3) Pour tout i ∈ {1, . . . n}, la position zti est indépendante de toutes les autres
variables conditionnellement à mti et zti−1 , i.e. :
   
p zti |mti , . . . , mt0 , zti−1 , . . . , zt0 = p zti |zti−1 , mti .

(H4) Pour tout i ∈ {1, . . . n}, pour tout z̃ ∈ (Λ )s et pour tout m ∈ (M )s :


 
p zti |zti−1 = z̃, mti = m = p (zt1 |zt0 = z̃, mt1 = m) .

On introduit alors les trois quantités suivantes :

• La loi de probabilité des changements d’états, notée A = {Au,v (z)}. Pour tout
(z)
i ∈ J1, nK, pour tout v ∈ (M )s , pour tout z ∈ (Λ )s et pour tout u ∈ M ,
on a :
 
Au,v (z) = P mti = v|zti−1 = z, mti−1 = u .

• La loi de probabilité des observations, notée B. Pour y ∈ (Λ )s et u ∈ (M )s ,


la densité de zti sachant zti−1 = y et mti = v est donnée par la fonction
z 7→ B(z|y, v).

• La loi initiale du couple (zt0 , mt0 ) notée π : (Λ × M )s → R+ .

Ainsi on a le schéma suivant :

168
F.2. Cadre

États cachés : mt0 mt1 mt2 mt3 ··· mtn

Observations : zt0 zt1 zt2 zt3 ··· ztn

Comme dans le chapitre 5, on notera Au,v (z; ϑ) au lieu de Au,v (z) et B(z|y, v; ϑ)
au lieu de B(z|y, v) pour marquer la présence du paramètre ϑ dans ces fonctions.

Donnons maintenant la définition d’indépendance des mouvements des trajec-


toires et de leurs changements de régimes, notion que l’on supposera être satisfaite
dans le chapitre 5.
Cette définition permet d’exprimer de manière mathématique et rigoureuse les
deux notions très intuitives suivantes :
— l’indépendance des mouvements des trajectoires, qui va traduire le fait que le
mouvement d’une particule dépend uniquement de la marque de la particule,
et est indépendant du mouvement des autres particules alentours,
— l’indépendance des changements de régime, qui va traduire le fait que lors-
qu’une mutation a lieu, alors ce changement de marque se fait indépendam-
ment des positions et des marques des autres particules alentours.

Définition 1. On dit d’un processus BDMM que :


1. ses changements de régime sont indépendants si : pour tout (u, v) ∈ I M , pour
tout z ∈ (Λ )s tel que pour tout j ∈ J1, sK, zj = si uj = , on a :
s
Au,v (z; ϑ̃) ∼ C(z, u, v, ∆) auj ,vj (zj ; ϑ̃),
Y
∆→0 j=1
j∈P(u)∩P(v)

où C(z, u, v, ∆) est une constante qui ne dépend pas de ϑ̃ et où au,v (z; ϑ̃) est
défini dans l’équation (5.1) (section 5.2.1 du chapitre 5) par
 
au,v (z; ϑ̃) = P mti ,j = v zti−1 ,j = z, mti−1 ,j = u, ϑ̃ ,

pour tout j ∈ J1, sK et pour tout i ∈ Jjb + 1, jd K (où jb et jd sont aussi définis
en section 5.2.1).

169
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

2. les mouvements de ses trajectoires sont indépendants si : pour tout (y, z) ∈ I Λ ,


(z)
on a pour tout v ∈ M :

  s
L z|y, v; ϑ̃ = bj (zj |yj , vj ; ϑ̃),
Y

j=1
j∈P(z)∩P(y)

où y → 7 bj (y|z, v; ϑ̃) est défini dans l’équation (5.2) (section 5.2.1 du cha-
pitre 5) comme la vraisemblance de ztk ,j sachant que ztk−1 ,j = z ∈ Λ et
mtk ,j = v ∈ M , pour tout k ∈ Jjb + 1, jd K.

F.3 Calcul de la fonction Q

Dans cette section, nous allons calculer, pour le processus (Zt , Mt )t considéré,
 
la fonction : Q(ϑ̃, ϑ, Z) = Eϑ ln(p(Z, M; ϑ̃)|Z . Pour cela, nous allons d’abord dé-
tailler la forme de cette fonction Q dans le cas où le processus BDMM considéré
est observé à des temps discrets t0 , . . . , tn . Dans un deuxième temps, nous allons
simplifier cette expression générale pour traiter le cas où le paramètre d’intérêt ϑ
n’intervient que dans les parties “move” (fonction L) et mutation (fonctions τ et kτ ).
Pour finir, nous simplifierons encore la forme de Q dans le cas où on ajoute l’hypo-
thèse d’indépendance des mouvements des trajectoires et de leurs changements de
régime.

F.3.1 Forme de Q dans le cas d’un BDMM observé en temps


discret

Calculons maintenant la fonction Q dans le cas où le processus BDMM est ob-


servé à des temps discrets t0 , . . . , tn .

On rappelle que :
   
Q(ϑ̃, ϑ, Z) = Eϑ ln(p(Z, M; ϑ̃)|Z = Eϑ ln(p(Zt0 :tn , Mt0 :tn ; ϑ̃))|Zt0 :tn .

170
F.3. Calcul de la fonction Q

Proposition 1. On a :
n
Q(ϑ̃, ϑ, Z) = P(mtk = v, mtk−1 = u|Z; ϑ) ln(Au,v (ztk−1 ; ϑ̃))
X X X

k=1 (zt
k−1
) (z )
v∈M tk
u∈M
n   
+ P(mtk = v|Z; ϑ) ln B ztk |ztk−1 , v; ϑ̃ + C(ϑ, Z, ∆),
X X

k=1 v∈M(ztk )

où C(ϑ, Z, ∆) ne dépend pas de ϑ̃.

Démonstration. On a :
  
Q(ϑ̃, ϑ, Z) = p(Mt0 :tn = m|Z, ϑ) ln p Z, m; ϑ̃
X
.
Nn (zt )
m∈ M i
i=0

Par une succession d’utilisations de la formule des probabilités composées, pour


(zt )
m = (m0 , . . . , mn ) ∈ ni=0 M i , on a :
N

p(Mt0 :tn = m, Z; ϑ̃)


 
=p Mt0 :tn−1 = m0:n−1 , Zt0 :tn−1 ; ϑ̃
   
× p ztn |Mt0 :tn = m0:n , Zt0 :tn−1 ; ϑ̃ p mtn = mn |Mt0 :tn−1 = m0:n−1 , Zt0 :tn−1 ; ϑ̃
=p(mt0 = m0 , Zt0 :t0 ; ϑ̃)
n    
p ztj |Mt0 :tj = m0:j , Zt0 :tj−1 ; ϑ̃ p mtj = mj |Mt0 :tj−1 = m0:j−1 , Zt0 :tj−1 ; ϑ̃ .
Y
×
j=1

D’une part, p(mt0 = m0 , Zt0 :t0 ; ϑ̃) = p(zt0 , mt0 = m0 ; ϑ̃) = π(zt0 , m0 ), et d’autre
part pour j ∈ J1, nK :
   
p ztj |Mt0 :tj = m0:j , Zt0 :tj−1 ; ϑ̃ p mtj = mj |Mt0 :tj−1 = m0:j−1 , Zt0 :tj−1 ; ϑ̃
   
= p ztj |ztj−1 , mtj = mj ; ϑ̃ p mtj = mj |mtj −1 = mj−1 , ztj−1 ; ϑ̃
 
= B ztj |ztj−1 , mj ; ϑ̃ Amj−1 ,mj (ztj−1 ; ϑ̃),

donc :
  
ln p Mt0 :tn = m, Z; ϑ̃ = ln (π(zt0 , m0 ))
n    
+ ln(Amk−1 ,mk (ztk−1 ; ϑ̃)) + ln B ztk |ztk−1 , mk ; ϑ̃
X
.
k=1

171
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

Ainsi,
n
Q(ϑ̃, ϑ, Z) =C(ϑ, Z, ∆) + P(Mt0 :tn = m|Z; ϑ) ln(Amk−1 ,mk (ztk−1 ; ϑ̃))
X X

Nn (zt ) k=1
m∈ i=0
M i
n   
+ P(Mt0 :tn = m|Z; ϑ) ln B ztk |ztk−1 , mk ; ϑ̃ , (F.1)
X X

Nn (zt ) k=1
m∈ i=0
M i

où :
C(ϑ, Z, ∆) = P(Mt0 :tn = m|Z; ϑ) ln (π(zt0 , m0 )) .
X

Nn (zt )
m∈ i=0
M i

Pour le deuxième terme de la somme (F.1), on a :


n
P(Mt0 :tn = m|Z; ϑ) ln(Amk−1 ,mk (ztk−1 ; ϑ̃))
X X

Nn (zt )
i k=1
m∈ i=0
M
n
= P(mt0 = m0 , . . . , mtn = mn |Z; ϑ) ln(Amk−1 ,mk (ztk−1 ; ϑ̃))
X X X
...
k=1 (zt )
mn ∈M (ztn )
m0 ∈M 0
n
= ln(Amk−1 ,mk (ztk−1 ; ϑ̃))
X X X

k=1 (zt
k−1
) (zt )
mk−1 ∈M mk ∈M k
 

P(mt0 = m0 , . . . , mtn = mn |Z; ϑ)


 X X X X 
×
 ... ... 
(zt ) (zt ) (zt ) (ztn )
m0 ∈M 0 mk−2 ∈M k−2
mk+1 ∈M k+1 mn ∈M
n
= ln(Amk−1 ,mk (ztk−1 ; ϑ̃))P(mtk = mk , mtk−1 = mk−1 |Z; ϑ)
X X X

k=1 (zt
k−1
) (zt )
mk−1 ∈M mk ∈M k

par la formule des probabilités totales appliquée aux variables mt0 , . . . , mtk−2 , mtk+1 , . . . , mtn .

De la même manière, on obtient pour le dernier terme de la somme (F.1) :


n   
P(Mt0 :tn = m|Z; ϑ) ln B ztk |ztk−1 , mk ; ϑ̃
X X

Nn (zt )
i k=1
m∈ i=0
M
n   
= P(mtk = mk |Z; ϑ) ln B ztk |ztk−1 , mk ; ϑ̃
X X
.
k=1 (zt )
k
mk ∈M

Ainsi,

172
F.3. Calcul de la fonction Q

n   
Q(ϑ̃, ϑ, Z) =C(ϑ, Z, ∆) + P(mtk = mk |Z; ϑ) ln B ztk |ztk−1 , mk ; ϑ̃
X X

k=1 (zt )
k
mk ∈M
n
+ ln(Amk−1 ,mk (ztk−1 ; ϑ̃))P(mtk = mk , mtk−1 = mk−1 |Z; ϑ)
X X X

k=1 (zt
k−1
) (zt )
mk−1 ∈M mk ∈M k
n   
=C(ϑ, Z, ∆) + P(mtk = v|Z; ϑ) ln B ztk |ztk−1 , v; ϑ̃
X X

k=1 (zt )
k
v∈M
n
+ ln(Au,v (ztk−1 ; ϑ̃))P(mtk = v, mtk−1 = u|Z; ϑ).
X X X

k=1 (z ) (z )
u∈M tk−1 v∈M tk

Dans la proposition suivante, remarquons que les termes pour lesquels (ztk−1 , ztk ) ∈
/ IΛ
sont négligeables.

Proposition 2. Si la condition (C1) est satisfaite, on a :

Q(ϑ̃, ϑ, Z) = Q̃(ϑ̃, ϑ, Z)(1 + oP (1)) + C(ϑ, Z, ∆),


∆→0

avec :
n   
Q̃(ϑ̃, ϑ, Z) = P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) ln B ztk |ztk−1 , v; ϑ̃
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk
n
+ P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) ln(Au,v (ztk−1 ; ϑ̃)).
X X X

k=1 (zt ) (z )
(zt ,z )∈I Λ u∈M k−1 v∈M tk
k−1 tk

Démonstration. Par la proposition 1, on a :


n
Q(ϑ̃, ϑ, Z) = P(mtk = v, mtk−1 = u|Z; ϑ) ln(Au,v (ztk−1 ; ϑ̃))
X X X

k=1 (z ) (zt )
(zt ,z )∈I Λ u∈M tk−1 v∈M k
k−1 tk
n   
+ P(mtk = v|Z; ϑ) ln B ztk |ztk−1 , v; ϑ̃ + C(ϑ, Z, ∆) + R(∆, Z, ϑ),
X X

k=1 (z )
(zt ,z )∈I Λ v∈M tk
k−1 tk

où :

173
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

n
R(∆, Z, ϑ) = P(mtk = v, mtk−1 = u|Z; ϑ) ln(Au,v (ztk−1 ; ϑ̃))
X X X

k=1 (z ) (z )
(zt / Λ
,z )∈I u∈M tk−1 v∈M tk
k−1 tk
n   
+ P(mtk = v|Z; ϑ) ln B ztk |ztk−1 , v; ϑ̃
X X
.
k=1 (z )
(zt / Λ
,z )∈I v∈M tk
k−1 tk

Montrons que R(∆, Z, ϑ) est négligeable devant Q(ϑ̃, ϑ, Z).


! !
|R(∆, Z, ϑ)| |R(∆, Z, ϑ)|
P > ≤P >0
|Q(ϑ̃, ϑ, Z)| |Q(ϑ̃, ϑ, Z)|
≤ P (|R(∆, Z, ϑ)| > 0)
n n
!
o
(ztk−1 , ztk ) ∈ Λ
[
≤P /I
k=1
n
!
{plus de 2 sauts entre tk et tk+1 }
[
≤P
k=1
n
P ({plus de 2 sauts entre tk et tk+1 }) .
X

k=1

Si on note N∆ le nombre de sauts qu’il y a eu sur l’intervalle [0, ∆] et α∗ tel que


pour tout x, α(x) ≤ α∗ . Les autres notations sont les mêmes que dans le chapitre 3.
On a :
n
P({plus de 2 sauts entre tk et tk+1 })
X

k=1
n  
= E PXtk (N∆ ≥ 2)
X

k=1
n   
=
X
E EXtk 1{N∆ ≥2}
k=1
n   
=
X
E EXtk 1{T1 <∆} 1{T2 <∆−T1 }
k=1
n    
= E EXtk EXtk 1{T1 <∆} 1{T2 −T1 <∆−T1 } |T1 , XT1 , Y(1)
X

k=1
n Z ∆−T1 Rs !!
(1)
= α(Ys(1) )e− α(Yu )du
X
E EXtk 1{T1 <∆} 0 ds
k=1 0
n   
E EXtk 1{T1 <∆} ∆α∗
X
≤ ,
k=1

174
F.3. Calcul de la fonction Q

et :
    
EXtk 1{T1 <∆} = EXtk E 1{T1 <∆} |Y(0)
Z ∆ Rs !
(0)
= EXtk α(Ys(0) )e− 0
α(Yu )du
ds
0

≤ EXtk (∆α∗ )
≤ ∆α∗ ,

donc :
n
P ({plus de 2 sauts entre tk et tk+1 }) ≤ n∆2 (α∗ )2 .
X

k=1

Or l’intervalle [0, t] est découpé en n intervalles de taille ∆ donc ∆ × n = t donc :


n
t
P ({plus de 2 sauts entre tk et tk+1 }) ≤ ∆2 (α∗ )2 −−−→ 0.
X

k=1 ∆ ∆→0

F.3.2 Forme de Q dans le cas où ϑ n’intervient que dans le


move et la mutation

Dans cette section, nous allons simplifier l’expression de Q donnée dans la pro-
position 2 dans le cas où le paramètre d’intérêt ϑ n’intervient pas dans d’autres
fonctions caractéristiques du processus que l’intensité de mutation τ , le noyau de
mutation kτ et la vraisemblance du move L.

Proposition 3. Si les conditions (C1) et (C2) sont satisfaites, alors :

˜ (ϑ̃, ϑ, Z)(1 + o (1)) + C̃(ϑ, Z, ∆),


Q(ϑ̃, ϑ, Z) = Q̃ P
∆→0

où C(ϑ, Z, ∆) ne dépend pas de ϑ̃ et où :

175
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

n
˜ (ϑ̃, ϑ, Z) =

X X X
P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) ln(Au,v (ztk−1 ; ϑ̃))
k=1 (zt ) (zt )
k−1 v∈M k
(zt ,z )∈I Λ u∈M
k−1 tk
n   
+ P(mtk = v|Zt0 :tn , ϑ) ln L ztk |ztk−1 , v; ϑ̃
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 1
n   
(zt )
+ P(mtk = v|Zt0 :tn , ϑ) ln L ztk k−1 |ztk−1 , v(ztk−1 ) ; ϑ̃
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 2
n   
(ztk )
+ P(mtk = v|Zt0 :tn , ϑ) ln L
X X
ztk |ztk−1 , v; ϑ̃ .
k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 3

Démonstration. On va simplifier le premier terme de la fonction Q̃ de la proposi-


tion 2, à savoir :
n   
P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) ln B ztk |ztk−1 , v; ϑ̃
X X
.
k=1 (zt )
(zt ,z )∈I Λ v∈M k
k−1 tk

Comme dans cette somme (ztk−1 , ztk ) ∈ I Λ , on va chercher à calculer B(z|y, v; ϑ̃)
(z)
pour (y, z) ∈ I et v ∈ M . Comme I Λ = I1Λ ∪ I2Λ ∪ I3Λ , par la formule des
probabilités totales, on a :

B(z|y, v; ϑ̃) = P(ztk = z|ztk−1 = y, mtk = v; ϑ̃)


=P(ztk = z|ztk−1 = y, mtk = v, (y, z) ∈ I1Λ ; ϑ̃)P((y, z) ∈ I1Λ |ztk−1 = y, mtk = v; ϑ̃)
+ P(ztk = z|ztk−1 = y, mtk = v, (y, z) ∈ I2Λ ; ϑ̃)P((y, z) ∈ I2Λ |ztk−1 = y, mtk = v; ϑ̃)
+ P(ztk = z|ztk−1 = y, mtk = v, (y, z) ∈ I3Λ ; ϑ̃)P((y, z) ∈ I3Λ |ztk−1 = y, mtk = v; ϑ̃).

(z)
Comme v ∈ M , on a pour j ∈ {1, 2, 3} :

P((y, z) ∈ IjΛ |ztk−1 = y, mtk = v; ϑ̃) = 1(y,v)∈I Λ×M ,


j

donc ce terme ne dépend pas de ϑ̃.


De plus, dans le terme :

P(ztk = z|ztk−1 = y, mtk = v, (y, z) ∈ I2Λ ; ϑ̃),


(resp. P(ztk = z|ztk−1 = y, mtk = v, (y, z) ∈ I3Λ ; ϑ̃), )

176
F.3. Calcul de la fonction Q

la marque mtk = v fait partie du conditionnement donc le calcul de cette probabilité


ne fait intervenir qu’une partie du noyau de naissance (resp. du noyau de mort)
(dans lequel ϑ̃ n’intervient pas) et la vraisemblance L du mouvement pour toutes
les particules présentes à la fois dans la configuration y et dans la configuration z,
donc il existe une constante C̃2 (z, y, v) (resp. C̃3 (z, y, v)) qui ne dépend pas de ϑ̃
telle que :

P(ztk = z|ztk−1 = y, mtk = v, (y, z) ∈ I2Λ ; ϑ̃) = C̃2 (z, y, v)L(z(y) |y, v(y) ; ϑ̃).
(resp. P(ztk = z|ztk−1 = y, mtk = v, (y, z) ∈ I3Λ ; ϑ̃) = C̃3 (z, y, v)L(z|y(z) , v; ϑ̃).)

De même, comme la nouvelle marque mtk est déjà donnée dans le conditionnement,
on a : P(ztk = z|ztk−1 = y, mtk = v, (y, z) ∈ I1Λ ; ϑ̃) = L(z|y, v; ϑ̃).

Finalement, en notant C1 (z, y, v), C2 (z, y, v), C3 (z, y, v) des constantes qui ne
dépendent pas de ϑ̃, on a pour tout (y, z) ∈ I Λ :

C1 (z, y, v)L(z|y, v; ϑ̃)




si (y, z) ∈ I1Λ ,
B(z|y, v; ϑ̃) =  C2 (z, y, v)L(z(y) |y, v(y) ; ϑ̃) si (y, z) ∈ I2Λ ,
 C (z, y, v)L(z|y(z) , v; ϑ̃) si (y, z) ∈ I3Λ .


3

Ainsi :
n   
P(mtk = v|Zt0 :tn , ϑ) ln B ztk |ztk−1 , v; ϑ̃
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk
n   
= p(mtk = v|Zt0 :tn , ϑ) ln C1 (ztk , ztk−1 , v)L ztk |ztk−1 , v; ϑ̃
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 1
n   
(zt )
+ p(mtk = v|Zt0 :tn , ϑ) ln C2 (ztk , ztk−1 , v)L ztk k−1 |ztk−1 , v(u) ; ϑ̃
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 2
n   
(zt )
+ p(mtk = v|Zt0 :tn , ϑ) ln C3 (ztk , ztk−1 , v)L ztk |ztk−1
X X
k
, v; ϑ̃ .
k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 3

177
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

En développant, on obtient :
n
= C̃˜ (Z, ϑ, ∆)
  
p(mtk = v|Zt0 :tn , ϑ) ln B ztk |ztk−1 , v; ϑ̃
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk
n   
+ p(mtk = v|Zt0 :tn , ϑ) ln L ztk |ztk−1 , v; ϑ̃
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 1
n   
(zt )
+ p(mtk = v|Zt0 :tn , ϑ) ln L ztk k−1 |ztk−1 , v(ztk−1 ) ; ϑ̃
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 2
n   
(ztk )
+ p(mtk = v|Zt0 :tn , ϑ) ln L (F.2)
X X
ztk |ztk−1 , v; ϑ̃ ,
k=1 (zt )
(zt ,z )∈I Λ v∈M k
k−1 tk 3

où C̃˜ (Z, ϑ, ∆) est une constante en ϑ̃ qui vaut :


n
C̃˜ (Z, ϑ, ∆) =
 
p(mtk = v|Zt0 :tn , ϑ) ln C1 (ztk , ztk−1 , v)
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 1
n  
+ p(mtk = v|Zt0 :tn , ϑ) ln C2 (ztk , ztk−1 , v)
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 2
n  
+ p(mtk = v|Zt0 :tn , ϑ) ln C3 (ztk , ztk−1 , v) .
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 3

On a donc :
˜ (ϑ̃, ϑ, Z).
Q̃(ϑ̃, ϑ, Z) = C̃˜ (ϑ, Z, ∆) + Q̃

Par la proposition 2, on a donc :

Q(ϑ̃, ϑ, Z) = C(ϑ, Z, ∆) + C̃˜ (ϑ, Z, ∆) + Q̃


˜ (ϑ̃, ϑ, Z) + R(∆, Z, ϑ),

où R(∆, Z, ϑ) est négligeable devant Q̃(ϑ̃, ϑ, Z).


Par le même raisonnement que celui de la preuve de la proposition 2, on peut montrer
˜ (ϑ̃, ϑ, Z), donc :
que R(∆, Z, ϑ) est négligeable devant Q̃

˜ (ϑ̃, ϑ, Z) + R(∆, Z, ϑ),


Q(ϑ̃, ϑ, Z) = C̃(ϑ, Z, ∆) + Q̃

où C̃(ϑ, Z, ∆) = C(ϑ, Z, ∆) + C̃˜ (ϑ, Z, ∆).

178
F.3. Calcul de la fonction Q

F.3.3 Forme de Q dans le cas où les mouvements et les chan-


gements de régime sont indépendants
Dans cette section, nous allons simplifier l’expression de Q donnée dans la pro-
position 3 dans le cas où les mouvements des trajectoires et leurs changements de
régime sont indépendants au sens de la définition 1 page 169.

Proposition 4. Si les conditions (C1), (C2) et (C3) sont satisfaites, alors la


fonction Q s’écrit :

Q(ϑ̃, ϑ, Z) = Q̂(ϑ̃, ϑ, Z)(1 + oP (1)) + Ĉ(ϑ, Z, ∆),


∆→0

avec :
n   
Q̂(ϑ̃, ϑ, Z) = P(mtk ,j = v|Zt0 :tn , ϑ) ln bj ztk ,j |ztk−1 ,j , v; ϑ̃
X X X

k=1 j∈P(ztk )∩P(ztk−1 ) v∈M


(zt ,z )∈I Λ
k−1 tk
n
+ P(mtk−1 ,j = u, mtk ,j = v|Zt0 :tn , ϑ) ln(au,v (ztk−1 ,j ; ϑ̃)),
X X X X

k=1 j∈P(ztk )∩P(ztk−1 ) u∈M v∈M


(zt ,z )∈I Λ
k−1 tk

où Ĉ(ϑ, Z, ∆) est une constante en ϑ̃.

De plus, on a aussi :

Q(ϑ̃, ϑ, Z) = Q̄(ϑ̃, ϑ, Z)(1 + oP (1)) + Ĉ(ϑ, Z, ∆),


∆→0

avec :
s jd M
M X
Q̄(ϑ̃, ϑ, Z) = P(mtk−1 ,j = u, mtk ,j = v|Zt0 :tn , ϑ) ln(au,v (ztk−1 ,j ; ϑ̃))
X X X

j=1 k=jb +1 u=1 v=1


s jd M   
+ P(mtk ,j = v|Zt0 :tn , ϑ) ln bj ztk ,j |ztk−1 ,j , v; ϑ̃
X X X
,
j=1 k=jb +1 v=1

où pour chaque trajectoire j on définit :


— jb = min{i, j ∈ P(zti )} l’instant de naissance de la trajectoire j
— jd = max{i, j ∈ P(zti )} l’instant de mort de la trajectoire j.
(ztk−1 ) (ztk )
Démonstration. On fixe k ∈ J1, nK. Si (u, v) ∈ M ×M avec (ztk−1 , ztk ) ∈ I Λ

179
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

alors (u, v) ∈ I M . Comme les changements de régime sont indépendants, par la


définition 1, on a pour tout (u, v) ∈ I M , pour tout z ∈ (Λ )s tel que (z, u) ∈ I1Λ×M :
s
Au,v (z; ϑ̃) ∼ C(z, u, v, ∆) auj ,vj (zj ; ϑ̃).
Y
∆→0 j=1
j∈P(u)∩P(v)

(ztk−1 ) (ztk )
Donc pour tout k ∈ J1, nK tel que (ztk−1 , ztk ) ∈ I Λ , comme (u, v) ∈ M ×M ,
on a :  
s
Au,v (ztk−1 ; ϑ̃) = 
C(ztk−1 , u, v, ∆) auj ,vj (ztk−1 ,j ; ϑ̃)
 (1 + o (1)),
 Y 
j=1
∆→0
j∈P(zt )∩P(zt )
k−1 k

donc :
  s  
ln(Au,v (ztk−1 ; ϑ̃)) = ln C(ztk−1 , u, v, ∆) + ln auj ,vj (ztk−1 ,j ; ϑ̃) + o (1).
X

j=1
∆→0
j∈P(zt )∩P(zt )
k−1 k

Ainsi

P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) ln(Au,v (ztk−1 ; ϑ̃))


X X

(zt ) (zt )
k−1 v∈M k
u∈M

= P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ)


X X

(zt ) (zt )
k−1 v∈M k
u∈M
 
  s  
ln C(ztk−1 , u, v, ∆) + ln auj ,vj (ztk−1 ,j ; ϑ̃) 
 X
× 
j=1
j∈P(zt )∩P(zt )
k−1 k

+ P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) × o (1).


X X

(zt ) (zt )
∆→0
k−1 v∈M k
u∈M

Donc :
n
P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) ln(Au,v (ztk−1 ; ϑ̃))
X X X

k=1 (zt ) (zt )


k−1 v∈M k
(zt ,z )∈I Λ u∈M
k−1 tk
n
= C̃(ϑ, Z, ∆) + P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) × o (1)
X X X

k=1 (zt ) (zt )


∆→0
(zt ,z )∈I Λ
k−1 tk
u∈M k−1 v∈M k
v6=u
n s  
+ P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) ln auj ,vj (ztk−1 ,j ; ϑ̃) ,
X X X X

k=1 (zt ) (zt ) j=1


k−1 v∈M k
(zt ,z )∈I Λ u∈M j∈P(zt )∩P(zt )
k−1 tk k−1 k

180
F.3. Calcul de la fonction Q

avec :
n
C̃(ϑ, Z, ∆) = P(mtk−1 = u,mtk = v|Zt0 :tn , ϑ)
X X X

k=1 (zt ) (zt )


k−1 v∈M k
(zt ,z )∈I Λ u∈M
k−1 tk
 
× ln C(ztk−1 , u, v, ∆) .

Occupons nous d’abord du dernier terme de l’égalité précédente.

•Traitons d’abord le cas où (ztk−1 , ztk ) ∈ I1Λ :

Si on note i1 , . . . , i#P(ztk−1 ) les indices des coordonnées non égales à dans le vec-
teur ztk−1 (qui sont les mêmes que dans ztk car (ztk−1 , ztk ) ∈ I1Λ ), alors on peut rem-
placer les sommes par les sommes
X X X X X X
...
(zt
k−1
) (zt )
k ui1 ∈M vi1 ∈M ui#P(z ∈M vi#P(z ∈M
u∈M v∈M tk ) tk )

s #P(ztk )
et la somme par .
X X

j=1 j=1
j∈P(zt )∩P(zt )
k−1 k

On peut aussi remplacer


 
s
P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) = P  (mtk−1 ,j = uj , mtk ,j = vj )|Zt0 :tn , ϑ
\

j=1

par 
#P(ztk )

(mtk−1 ,ij = uij , mtk ,ij = vij )|Zt0 :tn ; ϑ


\
P
j=1

car si on connaît Zt0 :tn , et que (ztk−1 , ztk ) ∈ I1Λ , alors on sait que mtk−1 ,ij = mtk ,ij =
pour tout j ∈/ P(ztk−1 ) = P(ztk ).
Ainsi :
s  
P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) ln auj ,vj (ztk−1 ,j ; ϑ̃)
X X X

(zt ) (zt ) j=1


k−1 v∈M k
u∈M j∈P(zt
k−1
)∩P(zt )
k
 
#P(ztk )
= (mtk−1 ,ij = uij , mtk ,ij = vij )|Zt0 :tn , ϑ
X X X X \
... P
ui1 ∈M vi1 ∈M ui#P(z ∈M vi#P(z ∈M j=1
tk ) tk )

#P(ztk )  
ln auij ,vij (ztk−1 ,ij ; ϑ̃) .
X
×
j=1

181
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

Faisons le calcul pour le facteur dans lequel j = 1, cela sera exactement pareil pour
les autres valeurs de j ∈ J2, #P(ztk )K.
 
#P(ztk )
(mtk−1 ,ij = uj , mtk ,ij = vij )|Zt0 :tn , ϑ
X X X X \
... P
ui1 ∈M vi1 ∈M ui#P(z ∈M vi#P(z ∈M j=1
tk ) tk )
 
× ln aui1 ,vi1 (ztk−1 ,i1 ; ϑ̃)
 
= ln aui1 ,vi1 (ztk−1 ,i1 ; ϑ̃)
X X

ui1 ∈M vi1 ∈M
 
#P(ztk )
(mtk−1 ,ij = uij , mtk ,ij = vij )|Zt0 :tn , ϑ
X X X X \
× ... P
ui2 ∈M vi2 ∈M ui#P(z ∈M vi#P(z ∈M j=1
tk ) tk )
   
= ln aui1 ,vi1 (ztk−1 ,i1 ; ϑ̃) × P mtk−1 ,i1 = ui1 , mtk ,i1 = vi1 |Zt0 :tn , ϑ
X X

ui1 ∈M vi1 ∈M

par la formule des probabilités totales appliquée aux variables aléatoires :

(mtk−1 ,i2 , mtk ,i2 , . . . , mtk−1 ,i#P(zt ) , mtk ,i#P(zt ) ).


k k

Ainsi :
s  
P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) ln auj ,vj (ztk−1 ,j ; ϑ̃)
X X X

(zt ) (zt ) j=1


k−1 v∈M k
u∈M j∈P(zt
k−1
)∩P(zt )
k

#P(ztk )    
= P mtk−1 ,ij = uij , mtk ,ij = vij |Zt0 :tn , ϑ ln auij ,vij (ztk−1 ,ij ; ϑ̃) ,
X X X

j=1 uij ∈M vij ∈M

donc :
s  
P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) ln auj ,vj (ztk−1 ,j ; ϑ̃)
X X X

(zt ) (zt ) j=1


k−1 v∈M k
u∈M j∈P(zt
k−1
)∩P(zt )
k
   
= P mtk−1 ,j = u, mtk ,j = v|Zt0 :tn , ϑ ln au,v (ztk−1 ,j ; ϑ̃) .
X X X

j∈P(ztk−1 )∩P(ztk ) u∈M v∈M

(F.3)

•Si (ztk−1 , ztk ) ∈ I2Λ , on a P(ztk−1 ) ⊂ P(ztk ), et on procède exactement de la


même manière en considérant les indices i1 , . . . i#P(ztk−1 ) des coordonnées non égales
à dans ztk−1 et i0 la coordonnée non égale à dans ztk mais égale à dans ztk−1 .

182
F.3. Calcul de la fonction Q

Cela nous donne donc :


s  
P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) ln auj ,vj (ztk−1 ,j ; ϑ̃)
X X X

(zt ) (zt ) j=1


k−1 v∈M k
u∈M j∈P(zt
k−1
)∩P(zt )
k

#P(ztk−1 )

= (mtk−1 ,ij = uij , mtk ,ij = vij ) ∩ . . .


X X X X X \
...

P
ui1 ∈M vi1 ∈M ui#P(z )
∈M vi#P(z )
∈M vi0 ∈M j=1
tk−1 tk−1

#P(ztk−1 ) #P(ztk−1 )

· · · ∩ (mtk ,i0 = vi0 )|Zt0 :tn , ϑ ln auij ,vij (ztk−1 ,ij ; ϑ̃).
\ X

j=1 j=1

Pour j = 1, on a :
 
#P(ztk−1 )

(mtk−1 ,ij = uij , mtk ,ij = vij )|Zt0 :tn , ϑ


X X X X X \
... P
 
ui1 ∈M vi1 ∈M ui#P(z ∈M vi#P(z ∈M vi0 ∈M j=1
tk−1 ) tk−1 )
 
× ln aui1 ,vi1 (ztk−1 ,i1 ; ϑ̃)
 
= ln aui1 ,vi1 (ztk−1 ,i1 ; ϑ̃)
X X

ui1 ∈M vi1 ∈M
 
#P(ztk−1 )

(mtk−1 ,ij = uij , mtk ,ij = vij )|Zt0 :tn , ϑ


X X X X X \
× ...
 
P
ui2 ∈M vi2 ∈M ui#P(z ∈M vi#P(z ∈M vi0 ∈M j=1
tk−1 ) tk−1 )
   
= ln aui1 ,vi1 (ztk−1 ,i1 ; ϑ̃) × P mtk−1 ,i1 = uj , mtk ,i1 = vi1 |Zt0 :tn , ϑ
X X

ui1 ∈M vi1 ∈M

par la formule des probabilités totales appliquée aux variables aléatoires :

(mtk−1 ,i2 , mtk ,i2 , . . . , mtk−1 ,i#P(zt )


, mtk ,i#P(zt )
, mtk ,i0 ).
k−1 k−1

En faisant la même chose pour les autres valeurs de j ∈ J2, #P(ztk )K, on retrouve
(F.3).

•Si (ztk−1 , ztk ) ∈ I3Λ , on a P(ztk ) ⊂ P(ztk−1 ), et on réitère le même procédé en


considérant les indices i1 , . . . i#P(ztk ) des coordonnées non égales à dans ztk et i0
la coordonnée non égale à dans ztk−1 mais égale à dans ztk .

Exactement avec les mêmes techniques, mais en utilisant la définition d’indépen-

183
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

dance des mouvements qui nous dit que :

  s
L z|y, v; ϑ̃ = bj (zj |yj , vj ; ϑ̃),
Y

j=1
j∈P(z)∩P(y)

on obtient que :

• si (ztk−1 , ztk ) ∈ I1Λ ,


  
P(mtk = v|Zt0 :tn , ϑ) ln L ztk |ztk−1 , v; ϑ̃
X

(zt )
v∈M k
 
= P (mtk ,j = v|Zt0 :tn , ϑ) ln bj (ztk ,j |ztk−1 ,j , v; ϑ̃) ,
X X

j∈P(ztk )∩P(ztk−1 ) v∈M

• si (ztk−1 , ztk ) ∈ I2Λ ,


  
(zt )
P(mtk = v|Zt0 :tn , ϑ) ln L ztk k−1 |ztk−1 , v(ztk−1 ) ; ϑ̃
X

(zt )
v∈M k  
= P (mtk ,j = v|Zt0 :tn , ϑ) ln bj (ztk ,j |ztk−1 ,j , v; ϑ̃) ,
X X

j∈P(ztk )∩P(ztk−1 ) v∈M

• si (ztk−1 , ztk ) ∈ I3Λ ,


  
(zt )
P(mtk = v|Zt0 :tn , ϑ) ln L ztk |ztk−1
X
k
, v; ϑ̃
(zt )
v∈M k
 
= P (mtk ,j = v|Zt0 :tn , ϑ) ln bj (ztk ,j |ztk−1 ,j , v; ϑ̃) .
X X

j∈P(ztk )∩P(ztk−1 ) v∈M

En regroupant ces trois résultats, on obtient :


n   
P(mtk = v|Zt0 :tn , ϑ) ln L ztk |ztk−1 , v; ϑ̃
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 1
n   
(zt )
+ P(mtk = v|Zt0 :tn , ϑ) ln L ztk k−1 |ztk−1 , v(ztk−1 ) ; ϑ̃
X X

k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 2
n   
(zt )
+ P(mtk = v|Zt0 :tn , ϑ) ln L ztk |ztk−1
X X
k
, v; ϑ̃
k=1 (zt )
v∈M k
(zt ,z )∈I Λ
k−1 tk 3
n  
= P (mtk ,j = v|Zt0 :tn , ϑ) ln bj (ztk ,j |ztk−1 ,j , v; ϑ̃) .
X X X

k=1 j∈P(ztk )∩P(ztk−1 ) v∈M


(zt ,z )∈I Λ
k−1 tk

184
F.3. Calcul de la fonction Q

˜ donnée par la proposition 3 devient :


Ainsi, l’expression de Q̃

˜ (ϑ̃, ϑ, Z) = C̃(ϑ, Z, ∆) + Q̂(ϑ̃, ϑ, Z)



n
+ P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) × o (1). (F.4)
X X X

k=1 (zt ) (zt )


∆→0
k−1 k
(zt ,z )∈I Λ u∈M v∈M
k−1 tk
v6=u

Démontrons que le dernier terme de cette égalité (F.4), i.e. la quantité :


n
R̃(∆, Z, ϑ) := P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) × f (∆),
X X X

k=1 (zt ) (zt )


k−1 v∈M k
(zt ,z )∈I Λ u∈M
k−1 tk

où f (∆) = o (1), est négligeable devant Q̂(ϑ̃, ϑ, Z) = Qa (ϑ̃, ϑ, Z) + Qb (ϑ̃, ϑ, Z)


∆→0
avec :

Qa (ϑ̃, ϑ, Z) :=
n
P(mtk−1 ,j = u, mtk ,j = v|Zt0 :tn , ϑ) ln(au,v (ztk−1 ,j ; ϑ̃))
X X X X

k=1 j∈P(ztk )∩P(ztk−1 ) u∈M v∈M


(zt ,z )∈I Λ
k−1 tk

et :
n  
Qb (ϑ̃, ϑ, Z) := p (mtk ,j = v|Zt0 :tn , ϑ) ln bj (ztk ,j |ztk−1 ,j , v; ϑ̃) .
X X X

k=1 j∈P(ztk )∩P(ztk−1 ) v∈M


(zt ,z )∈I Λ
k−1 tk

Tout d’abord, montrons que R̃(∆, Z, ϑ) est négligeable devant Qa (ϑ̃, ϑ, Z). Comme
les coefficients au,v (ztk−1 ,j ) ∈ [0, 1], Qa (ϑ̃, ϑ, Z) ≤ 0 p.s., en notant :
n
R̄(∆, Z, ϑ) = P(mtk−1 = u, mtk = v|Zt0 :tn , ϑ) |f (∆)| ,
X X X

k=1 (zt ) (zt )


k−1 v∈M k
(zt ,z )∈I Λ u∈M
k−1 tk

on a :
 
R̃(∆, Z, ϑ)
!
R̄(∆, Z, ϑ)
P >  ≤ P >
Qa (ϑ̃, ϑ, Z) −Qa (ϑ̃, ϑ, Z)
 
= P R̄(∆, Z, ϑ) + Qa (ϑ̃, ϑ, Z) > 0 .

Or comme les coefficients au,v (ztk−1 ,j ; ϑ̃) sont de la forme e−τ ∆ ou (1 − e−τ ∆ )pu,v
(proposition 9 du chapitre 5) alors on a Qa (ϑ̃, ϑ, Z) −−−→ −∞.
P
∆→0

185
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

De plus, f (∆) −−−→ 0, donc :


∆→0
 
R̃(∆, Z, ϑ)
P >  −−−→ 0.
Qa (ϑ̃, ϑ, Z) ∆→0

Montrons maintenant que R̃(∆, Z, ϑ) est négligeable devant Qb (ϑ̃, ϑ, Z). Comme
Qb (ϑ̃, ϑ, Z) n’est pas positif p.s., on procède différemment :
 
R̃(∆, Z, ϑ)  
P >  ≤ P R̄(∆, Z, ϑ) − |Qb (ϑ̃, ϑ, Z)| > 0 .
Qb (ϑ̃, ϑ, Z)
Or :
 
P R̄(∆, Z, ϑ) − |Qb (ϑ̃, ϑ, Z)| > 0
 
n \ n   o
= P R̄(∆, Z, ϑ) − |Qb (ϑ̃, ϑ, Z)| > 0, ln bj (ztk ,j |ztk−1 ,j , v; ϑ̃) < 0 
 \ \ 
k=1 j∈P(ztk )∩P(ztk−1 ) v∈M
 
n [ n   o
+ P
R̄(∆, Z, ϑ) − |Qb (ϑ̃, ϑ, Z)| > 0, ln bj (ztk ,j |ztk−1 ,j , v; ϑ̃) ≥ 0 
[ [

k=1 j∈P(ztk )∩P(ztk−1 ) v∈M
 
n [ n   o
ln bj (ztk ,j |ztk−1 ,j , v; ϑ̃) < 0 
[ [


P
k=1 j∈P(ztk )∩P(ztk−1 ) v∈M
 
+ P R̄(∆, Z, ϑ) − Qb (ϑ̃, ϑ, Z) > 0 .

Montrons que les coefficients bj (ztk ,j |ztk−1 ,j , v; ϑ̃) définis (cf proposition 10 du cha-
pitre 5) comme :
1 kztk ,j − ztk−1 ,j k2
 !
exp − si v = 1,


2πσi,1 ∆ 2σi,1 ∆



 2 2




2
    
cos(ηi )



ztk ,j − ztk−1 ,j − ρi  ∆

  

1 sin(ηi )

  
bi (ztk ,j |ztk−1 ,j , v; ϑ) =
 
exp 
−

si v = 2,
2πσi,2
2
∆ 2σi,2
2

 

  

  

  




1 kztk ,j − e−λi ∆ ztk−1 ,j − µi (1 − e−λi ∆ )k2

 !

exp si v = 3.




2πσi,3
2
v(λi ) 2σi,3
2
v(λi )

1  
où v(λi ) = 1 − e−2λi ∆ , convergent presque sûrement vers +∞ lorsque ∆ → 0.
2λi

186
F.3. Calcul de la fonction Q

Si v = 1, l’expression de bi (ztk ,j |ztk−1 ,j , 1; ϑ) a été obtenue dans la preuve de la


proposition 10 du chapitre 5 en utilisant le fait que (zt,i )t≥0 est solution de l’EDS

dXt = σi,1 dBt .

En intégrant cette EDS entre tk−1 et tk (avec ∆ = |tk − tk−1 |), on a :

ztk ,i − ztk−1 ,i = σi,1 B∆ .

Par la loi du logarithme itéré pour un mouvement brownien dans R2 , on a avec


probabilité 1 :

kztk ,j − ztk−1 ,j k
lim sup q = 1,
∆→0 2σi,1
2
∆ ln(ln(1/∆))

donc pour ∆ suffisamment petit, on a :

2 2
zt ,j − zt ,j ztk ,j − ztk−1 ,j
− k 2 k−1 =− q × ln(ln(1/∆))
2σi,1 ∆ 2σi,1
2
∆ ln(ln(1/∆))
≥ −2 ln(ln(1/∆)),

donc pour ∆ suffisamment petit, on a :

1 kztk ,j − ztk−1 ,j k2 1
!
exp − ≥ ,
2πσi,1
2
∆ 2σi,1
2
∆ 2πσi,1
2
∆ ln(1/∆)2

donc :

bi (ztk ,j |ztk−1 ,j , 1; ϑ) −−−→ +∞.


P
∆→0

On fait de même si v = 2 avec l’EDS


 
cos(ηi )
dXt = ρi  dt + σi,2 dBt ,
sin(ηi )

qui s’intègre en :  
cos(ηi )
ztk ,i − ztk−1 ,i = ρi  ∆ + σi,2 B∆ ,
sin(ηi )

187
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

donc pour ∆ suffisamment petit, on a :


  2   2
cos(ηi ) cos(ηi )
ztk ,j − ztk−1 ,j − ρi  ∆ ztk ,j − ztk−1 ,j − ρi  ∆
sin(ηi ) sin(ηi )
− =− × ln(ln(1/∆))
2σi,2
2

q
2σi,2
2
∆ ln(ln(1/∆))

≥ −2 ln(ln(1/∆)),

donc :

bi (ztk ,j |ztk−1 ,j , 2; ϑ) −−−→ +∞.


P
∆→0

Si v = 3, on a :

σi,3
ztk ,i − ztk−1 ,i e−λi ∆ − µi (1 − e−λi ∆ ) = √ e−λi ∆ Be2λi ∆ −1 .
2λi

Par la loi du logarithme itéré pour un mouvement brownien dans R2 , on a avec


probabilité 1 :
kBe2λi ∆ −1 k
lim sup q = 1,
∆→0 2(e2λi ∆ − 1) ln(ln((e2λi ∆ − 1)−1 ))

donc pour ∆ suffisamment petit, on a :

kztk ,j − e−λi ∆ ztk−1 ,j − µi (1 − e−λi ∆ )k2 ln(ln((e2λi ∆ − 1)−1 )))kBe2λi ∆ −1 k2


− = −
2σi,3
2
v(λi ) |2(e2λi ∆ − 1) ln(ln((e2λi ∆ − 1)−1 ))|
≥ −2 ln(ln((e2λi ∆ − 1)−1 )),

donc pour ∆ suffisamment petit, on a :

1 kztk ,j − e−λi ∆ ztk−1 ,j − µi (1 − e−λi ∆ )k2


!
bi (ztk ,j |ztk−1 ,j , 3; ϑ) = exp −
2πσi,3
2
v(λi ) 2σi,3
2
v(λi )
1

2πσi,3 v(λi ) ln((e2λi ∆ − 1)−1 ))2
2

1
=   
2
πσi,3 ln(2λi ∆)2 1 + o ln(2λ2 i ∆) 2λi ∆(1 + o (1))
∆→0 ∆→0

−−−→ +∞.
∆→0

188
F.3. Calcul de la fonction Q

Finalement, pour tout v ∈ M,

bi (ztk ,j |ztk−1 ,j , v; ϑ) −−−→ +∞.


P
∆→0

Donc :
 
n [ n   o
[
ln bj (ztk ,j |ztk−1 ,j , v; ϑ̃) < 0  −−−→ 0,
[
P 
∆→0
k=1 j∈P(ztk )∩P(ztk−1 ) v∈M

et :

Qb (ϑ̃, ϑ, Z) −−−→ +∞.


P
∆→0

De plus, f (∆) −−−→ 0, donc :


∆→0

 
P R̄(∆, Z, ϑ) − Qb (ϑ̃, ϑ, Z) > 0 −−−→ 0,
∆→0

donc :
 
R̃(∆, Z, ϑ)
P >  −−−→ 0.
Qb (ϑ̃, ϑ, Z) ∆→0

Par (F.4), on a donc :

˜ (ϑ̃, ϑ, Z) = C̃(ϑ, Z, ∆) + Q̂(ϑ̃, ϑ, Z) + R̃(∆, Z, ϑ),


où R̃(∆, Z, ϑ) est négligeable devant Q̂(ϑ̃, ϑ, Z).


Par la proposition 3, on a donc :

Q(ϑ̃, ϑ, Z) = C(ϑ, Z, ∆) + C̃(ϑ, Z, ∆) + Q̂(ϑ̃, ϑ, Z) + R̃(∆, Z, ϑ) + R(∆, Z, ϑ),

où R(∆, Z, ϑ) est négligeable devant Q̃(ϑ̃, ϑ, Z).


Par le même raisonnement que celui de la preuve de la proposition 2, on peut
montrer que R(∆, Z, ϑ) est négligeable devant Q̂(ϑ̃, ϑ, Z), donc :

Q(ϑ̃, ϑ, Z) = Ĉ(ϑ, Z, ∆) + Q̂(ϑ̃, ϑ, Z) + R̂(∆, Z, ϑ),

avec Ĉ(ϑ, Z, ∆) = C̃(ϑ, Z, ∆) + C(ϑ, Z, ∆), et R̂(∆, Z, ϑ) = R(∆, Z, ϑ) + R̃(∆, Z, ϑ),

189
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

qui est négligeable devant Q̂(ϑ̃, ϑ, Z), donc :

Q(ϑ̃, ϑ, Z) = Ĉ(ϑ, Z, ∆) + Q̂(ϑ̃, ϑ, Z)(1 + oP (1)).


∆→0

Prouvons maintenant que Q(ϑ̃, ϑ, Z) se réécrit de la façon suivante :

s jd M X
M
Q̂(ϑ̃, ϑ, Z) = P(mtk−1 ,j = u, mtk ,j = v|Zt0 :tn , ϑ) ln(au,v (ztk−1 ,j ; ϑ̃))
X X X

j=1 k=jb +1 u=1 v=1


s jd M   
+ P(mtk ,j = v|Zt0 :tn , ϑ) ln bi ztk ,j |ztk−1 ,j , v; ϑ̃
X X X
.
j=1 k=jb +1 v=1

Soit j ∈ J1, sK et k ∈ J1, nK, on a :

k ∈ Jjb + 1, jd K ⇐⇒ j ∈ P(ztk−1 ) ∩ P(ztk ).

Ainsi, les deux ensembles ci-dessous sont égaux :


n o
(k, j) ∈ J1, nK × J1, sK, (ztk−1 , ztk ) ∈ I Λ et k ∈ Jjb + 1, jd K

et
n o
(k, j) ∈ J1, nK × J1, sK, (ztk−1 , ztk ) ∈ I Λ et j ∈ P(ztk ) ∩ P(ztk−1 ) .

C’est pourquoi on peut remplacer dans l’expression donnée par la proposition 4 :

n s jd
par
X X X X

k=1 j∈P(ztk−1 )∩P(ztk ) j=1 k=jb +1


(zt ,z )∈I Λ (zt ,z )∈I
k−1 tk k−1 tk

et on obtient :
s jd M X
M
Q̂(ϑ̃, ϑ, Z) = P(mtk−1 ,j = u, mtk ,j = v|Zt0 :tn , ϑ) ln(au,v (ztk−1 ,j ; ϑ̃))
X X X

j=1 k=jb +1 u=1 v=1


(zt ,z )∈I Λ
k−1 tk

s jd M   
+ P(mtk ,j = v|Zt0 :tn , ϑ) ln bj ztk ,j |ztk−1 ,j , v; ϑ̃
X X X
.
j=1 k=jb +1 v=1
(zt ,z )∈I Λ
k−1 tk

190
F.3. Calcul de la fonction Q

Maintenant, on remarque que :

s jd M X
M
P(mtk−1 ,j = u, mtk ,j = v|Zt0 :tn , ϑ) ln(au,v (ztk−1 ,j ; ϑ̃))
X X X

j=1 k=jb +1 u=1 v=1


s jd M X
M
= P(mtk−1 ,j = u, mtk ,j = v|Zt0 :tn , ϑ) ln(au,v (ztk−1 ,j ; ϑ̃)) + R1 (∆, Z, ϑ),
X X X

j=1 k=jb +1 u=1 v=1


(zt ,z )∈I
k−1 tk

avec
s jd M X
M
R1 (∆, Z, ϑ) = P(mtk−1 ,j = u, mtk ,j = v|Zt0 :tn , ϑ) ln(au,v (ztk−1 ,j ; ϑ̃)).
X X X

j=1 k=jb +1 u=1 v=1


(zt ,z )∈I
/
k−1 tk

De même, on remarque que :

s jd M   
P(mtk ,j = v|Zt0 :tn , ϑ) ln bj ztk ,j |ztk−1 ,j , v; ϑ̃
X X X

j=1 k=jb +1 v=1


s jd M   
= P(mtk ,j = v|Zt0 :tn , ϑ) ln bj ztk ,j |ztk−1 ,j , v; ϑ̃ + R2 (∆, Z, ϑ),
X X X

j=1 k=jb +1 v=1


(zt ,z )∈I
k−1 tk

avec
s jd M   
R2 (∆, Z, ϑ) = P(mtk ,j = v|Zt0 :tn , ϑ) ln bj ztk ,j |ztk−1 ,j , v; ϑ̃
X X X
.
j=1 k=jb +1 v=1
(zt ,z )∈I
/
k−1 tk

Donc :

Q̂(ϑ̃, ϑ, Z) = Q̄(ϑ̃, ϑ, Z) + R1 (∆, Z, ϑ) + R2 (∆, Z, ϑ).

On peut montrer avec le même raisonnement que celui de la preuve de la proposi-


tion 2, que R1 (∆, Z, ϑ), R2 (∆, Z, ϑ) et R̂(∆, Z, ϑ) sont négligeables devant Q̄(ϑ̃, ϑ, Z),
donc :

Q(ϑ̃, ϑ, Z) = Ĉ(ϑ, Z, ∆) + Q̄(ϑ̃, ϑ, Z)(1 + oP (1)).


∆→0

191
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

F.4 Indépendance des mouvements des trajectoires


et des changements de régime dans l’exemple
de la partie 5.3 du chapitre 5
Montrons que dans l’exemple de la section 5.3 du chapitre 5, les trois condi-
tions (C1), (C2) et (C3) sont vérifiées.

Dans cet exemple, les intensités de mort δ et de naissance β sont bornées. De


plus, il existe n∗ ∈ N tel que :

τ (x) = τ × n(x) ≤ τ × n∗ ,

donc α est bornée donc (C1) est vérifiée.

Le paramètre d’intérêt

ϑ = (τ, pb , pr , pv , σ1,1
2 2
, ρ1 , η1 , σ1,2 2
, λ1 , µ1 , σ1,3 2
, . . . , σs,1 2
, ρs , ηs , σs,2 2
, λs , µs , σs,3 )

intervient par définition seulement dans les fonctions τ , kτ et L, donc (C2) est vé-
rifiée.

Il nous reste donc à montrer (C3).


Ainsi, montrons que pour tout (u, v) ∈ I M , pour tout z ∈ (Λ )s tel que pour tout
j ∈ J1, sK, zj = si uj = , on a :
s
Au,v (z; ϑ̃) ∼ C(z, u, v, ∆) auj ,vj (zj ; ϑ̃)
Y
∆→0 j=1
j∈P(u)∩P(v)

où C(z, u, v, ∆) est une constante qui ne dépend pas de ϑ̃ et où au,v (z; ϑ̃) est défini
dans l’équation (5.1) (section 5.2.1 du chapitre 5)
s
On commence par calculer auj ,vj (zj ; ϑ̃) :
Y

j=1
j∈P(u)∩P(v)

Par la proposition 9 du chapitre 5, auj ,vj (zj ; ϑ̃) ne dépend pas de zj et est équivalent
au coefficient (uj , vj ) de la matrice

192
F.4. Indépendance des mouvements et des changements de régime dans l’exemple

1 2 3
 
1 e −τ ∆
p1 (1 − e −τ ∆
) (1 − p1 )(1 − e −τ ∆
)
 
2
 p2 (1 − e
−τ ∆
) e−τ ∆ (1 − p2 )(1 − e−τ ∆ ) 

 
3 p3 (1 − e−τ ∆ ) (1 − p3 )(1 − e−τ ∆ ) e−τ ∆

donc :
s s
auj ,vj (zj ; ϑ̃) ∼ e −∆τ #{j∈P(z), ui =vi }
(1 − e )
−∆τ #{j∈P(z), uj 6=vj }
Y Y
puj ,vj
j=1
∆→0 j=1
j∈P(z) uj 6=vj

donc :
s
auj ,vj (zj ; ϑ̃)
Y

j=1
j∈P(z)
 s
(1 − e ) puj ,vj si # {j ∈ P(z), uj 6= vj } = q ≥ 1,
Y
−∆τ (#P(z)−q) −∆τ q
e




∼ j=1
uj 6=vj
∆→0 

e−∆τ #P(z) si ∀j ∈ P(z), uj = vj .

Ainsi :
 s
(∆τ ) puj ,vj si # {j ∈ P(z), uj 6= vj } = q ≥ 1,
Y
 q
s



auj ,vj (zj ; ϑ̃) ∼
Y
j=1
uj 6=vj
j=1
∆→0 

e−∆τ #P(z) si ∀j ∈ P(z), uj = vj .

j∈P(z) 

Maintenant, calculons Au,v (z; ϑ̃) pour (u, v) ∈ I M :

Soit (u, v) ∈ I M , alors |#P(u) − #P(v)| ≤ 1. On sépare donc les deux cas
suivants :
• Cas où #P(u) = #P(v) :
Comme (u, v) ∈ I M alors P(u) = P(v) = P(z). On va alors calculer :

Au,v (z; ϑ̃) = P(mtk = v|mtk−1 = u, ztk−1 = z; ϑ̃)

en séparant selon 2 cas :


G Premier cas : si # {i ∈ P(z), ui 6= vi } ≥ 1,
G Deuxième cas : si # {i ∈ P(z), ui 6= vi } = 0.

193
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

Traitons ces deux cas :

G Premier cas : Si on note # {i ∈ P(z), ui 6= vi } = q ≥ 1, alors on sait qu’il


y a eu au moins q mutations, donc au moins q sauts entre tk−1 et tk , et on a
donc :

Au,v (z; ϑ̃) = P(mtk = v|mtk−1 = u, ztk−1 = z; ϑ̃)


q sauts entre tk−1 et tk
( ) !
= P mtk = v, mtk−1 = u, ztk−1 = z; ϑ̃
qui sont des mutations
+ P(mtk = v, {plus de q + 1 sauts entre tk−1 et tk } |mtk−1 = u, ztk−1 = z; ϑ̃).

Or :

P(mtk = v, {plus de q + 1 sauts entre tk−1 et tk } |mtk−1 = u, ztk−1 = z; ϑ̃) = o (∆q ).


∆→0

Et :

q sauts entre tk−1 et tk


( ) !
P mtk = v, mtk−1 = u, ztk−1 = z; ϑ̃
qui sont des mutations
q sauts entre tk−1 et tk
( ) !
= P mtk = v, , mtk−1 = u, ztk−1 = z; ϑ̃
qui sont des mutations
q sauts entre tk−1 et tk
( ) !
×P mtk−1 = u, ztk−1 = z; ϑ̃ .
qui sont des mutations

Par la forme du noyau de mutation donnée en section 5.3.1 du chapitre 5,


on a :
q sauts entre tk−1 et tk
( ) !
P mtk = v, , mtk−1 = u, ztk−1 = z; ϑ̃
qui sont des mutations
1 s
=
Y
puj ,vj .
(#P(z))q j=1
uj 6=vj

Comme les q sauts qui ont lieu entre tk−1 et tk sont tous des mutations, le
nombre de particules présentes ne change pas (et est égal à #P(z)) entre tk−1
et tk . Ainsi, le nombre de mutations entre tk−1 et tk suit une loi exponentielle
de paramètre ∆τ #P(z), on a :

q sauts entre tk−1 et tk (τ ∆#P(z))q e−∆τ #P(z)


( ) !
P mtk−1 = u, ztk−1 = z; ϑ̃ = ,
qui sont des mutations q!

194
F.4. Indépendance des mouvements et des changements de régime dans l’exemple

donc finalement :
1 s
(τ ∆#P(z))q e−∆τ #P(z)
Au,v (z; ϑ̃) = + o (∆q )
Y
p uj ,vj
(#P(z))q j=1 q! ∆→0
uj 6=vj

s
(τ ∆)q e−∆τ #P(z)
= + o (∆q )
Y
puj ,vj
j=1 q! ∆→0
uj 6=vj

s
∼ C1 (z, u, v) puj ,vj (τ ∆)q .
Y
∆→0 j=1
uj 6=vj

G Deuxième cas : Si ∀i ∈ P(z), ui = vi , alors :

Au,v (z; ϑ̃) =P(mtk = v|mtk−1 = u, ztk−1 = z; ϑ̃)


=P(mtk = v|mtk−1 = u, ztk−1 = z, {pas de saut entre tk−1 et tk }; ϑ̃)
× P({pas de saut entre tk−1 et tk }|mtk−1 = u, ztk−1 = z; ϑ̃)
+ P(mtk = v, {plus de 2 sauts entre tk−1 et tk }|mtk−1 = u, ztk−1 = z; ϑ̃).

On a :

P({pas de saut entre tk−1 et tk }|mtk−1 = u, ztk−1 = z; ϑ̃)


Z ∆ !!
= E(z,u) exp − α((Ys(k−1) , u), ϑ̃)ds
0
Z ∆ !!
= E(z,u) exp − (τ + β + δ)((Ys(k−1) , u), ϑ̃)ds
0
Z ∆ ! Z ∆ !!
= E(z,u) exp − τ n((Ys(k−1) , u))ds exp − (β + δ)((Ys(k−1) , u))ds
0 0
Z ∆ !!
= E(z,u) exp (−∆τ n((z, u))) exp − (β + δ)((Ys(k−1) , u))ds
0
Z ∆ !!
= e−τ #P(z)∆ E(z,u) exp − (β + δ)((Ys(k−1) , u))ds
0

= C3 (z, u, v, ∆)e−τ #P(z)∆ ,

avec :
Z ∆ !!
C3 (z, u, v, ∆) = E(z,u) exp − (β + δ)((Ys(k−1) , u))ds
0

qui tend vers 1 quand ∆ → 0 par convergence dominée (car α est bornée).

195
Partie III, Annexe F – Forme de la fonction Q dans le cas de trajectoires indépendantes

De plus, comme u = v, on a :

P(mtk = v|mtk−1 = u, ztk−1 = z, {pas de saut entre tk−1 et tk }; ϑ̃) = 1.

Ainsi :

Au,v (z; ϑ̃) =C3 (z, u, v, ∆)e−τ #P(z)∆ + o (∆)


∆→0

∼ C3 (z, u, v, ∆)e −τ #P(z)∆


.
∆→0

Ainsi :
 s
C1 (z, u, v)(τ ∆) puj ,vj si # {i ∈ P(z), ui 6= vi } = q ≥ 1,
Y


 q

Au,v (z; ϑ̃) ∼ j=1
uj 6=vj
∆→0 

C3 (z, u, v, ∆)e−τ #P(z)∆ si ∀i ∈ P(z), ui = vi .

Comme C3 (z, u, v, ∆) −−−→ 1, on a donc bien dans ce cas :


∆→0

s
Au,v (z; ϑ̃) ∼ C4 (z, u, v, ∆) auj ,vj (zj ; ϑ̃).
Y
∆→0 j=1
j∈P(u)∩P(v)

• Cas où |#P(u) − #P(v)| = 1 :


On note i0 tel que {i0 } = {i ∈ J1, sK, (ui0 6= et vi0 = ) ou (ui0 = et vi0 6= )}.

Au,v (z; ϑ̃) = P(mtk = v|mtk−1 = u, ztk−1 = z; ϑ̃)


s
= P(mtk ,i0 = vi0 | (mtk ,i = vi ), mtk−1 = u, ztk−1 = z; ϑ̃)
\

i=1
i6=i0
s
(mtk ,i = vi )|mtk−1 = u, ztk−1 = z; ϑ̃)
\
× P(
i=1
i6=i0

= C5 (z, u, v)∆e−τ ((z,u);ϑ̃)∆ × Aũ,ṽ (z; ϑ̃)


∼ C5 (z, u, v)∆Aũ,ṽ (z; ϑ̃).
∆→0

où ũ et ṽ sont les vecteurs u et v avec leur coordonnée i0 égale à , ie :



 (u, v(u) ) si (vi0 6= et ui0 = ),
(ũ, ṽ) =
 (u(v) , v) si (ui0 =6 et vi0 = ).

196
F.4. Indépendance des mouvements et des changements de régime dans l’exemple

Par le cas précédent, il existe une constante C6 (z, ũ, ṽ, ∆) en ϑ̃ telle que :
s
Aũ,ṽ (z; ϑ̃) ∼ C6 (z, ũ, ṽ, ∆) aũj ,ṽj (zj ; ϑ̃).
Y
∆→0 j=1
j∈P(ũ)∩P(ṽ)

Donc :
s
Au,v (z; ϑ̃) = C4 (z, u, v)∆C6 (z, ũ, ṽ, ∆) aũj ,ṽj (zj ; ϑ̃)
Y

j=1
j∈P(ũ)∩P(ṽ)
s
= C7 (z, u, v, ∆) auj ,vj (zj ; ϑ̃).
Y

j=1
j∈P(u)∩P(v)

On a donc bien montré que pour tout (u, v) ∈ I M , pour tout z ∈ (Λ )s tel que
pour tout j ∈ J1, sK, zj = si uj = , on a :
s
Au,v (z; ϑ̃) ∼ C7 (z, u, v, ∆) auj ,vj (zj ; ϑ̃).
Y
∆→0 j=1
j∈P(u)∩P(v)

197
Annexe G

P REUVES DU CALCUL DE
L’ ARGUMENT DU MAXIMUM DE Q

Dans toute cette annexe, pour faciliter la rédaction, on notera, pour tout ∈ J1, sK :

ri := (σi,1
2 2
, ρi , ηi , σi,2 2
, λi , µi , σi,3 )

l’ensemble des paramètres qui se rapportent à la trajectoire i. On a ri ∈ R avec :

π π
 
R := R∗+ ∗
×R × − , × R∗+ × R+ × Λ × R∗+ .
2 2

G.1 Preuve de la proposition 11 du chapitre 5

Les paramètres (τ, pb , pr , pv ) ∈ T := R∗ ×]0, 1[3 interviennent dans Q seulement


par la matrice a, ainsi :

arg max Q((τ, pb ,pr , pv , r1 , . . . , rs ), ϑ, Z)


(τ,pb ,pr ,pv )∈T

= arg max Q1 ((τ, pb , pr , pv , r1 , . . . , rs ), ϑ, Z)


(τ,pb ,pr ,pv )∈T
s id M X
M
= arg max i
(u, v; ϑ) ln(au,v (ϑ̃)).
X X X
ξk−1
(τ,pb ,pr ,pv )∈T i=1 k=ib +1 u=1 v=1

199
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

Or en distinguant les différents cas pour u, v ∈ J1, 3K, on a :

M X
M
ln(au,v (τ, pb , pr , pv ))ξk−1
i
(u, v; ϑ) = ln(e−τ ∆ )ξk−1
i
(1, 1; ϑ)
X

u=1 v=1

+ ln(pb (1 − e−τ ∆ ))ξk−1


i
(1, 2; ϑ) + ln((1 − pb )(1 − e−τ ∆ ))ξk−1
i
(1, 3; ϑ)
+ ln(pr (1 − e−τ ∆ ))ξk−1
i
(2, 1; ϑ) + ln(e−τ ∆ )ξk−1
i
(2, 2; ϑ)
+ ln((1 − pr )(1 − e−τ ∆ ))ξk−1
i
(2, 3; ϑ) + ln(pv (1 − e−τ ∆ ))ξk−1
i
(3, 1; ϑ)
+ ln((1 − pv )(1 − e−τ ∆ ))ξk−1
i
(3, 2; ϑ) + ln(e−τ ∆ )ξk−1
i
(3, 3; ϑ).

Donc on cherche l’argument du maximum de la fonction :

f : (τ, pb , pr , pv ) ∈ T 7→ ln(e−τ ∆ )(C1,1 + C2,2 + C3,3 ) + ln(1 − e−τ ∆ )C


+ ln(pb )C1,2 + ln(1 − pb )C1,3 + ln(pr )C2,1
+ ln(1 − pr )C2,3 + ln(pv )C3,1 + ln(1 − pv )C3,2

où on note pour (j, `) ∈ J1, 3K2 :


s id
Cj,` = i
(j, `; ϑ) et C = C1,2 + C1,3 + C2,1 + C2,3 + C3,1 + C3,2 .
X X
ξk−1
i=1 k=ib +1

On calcule les dérivées de f par rapport aux variables τ, pb , pr et pv :

∂f ∆e−τ ∆
(τ, pb , pr , pv ) = −∆(C1,1 + C2,2 + C3,3 ) + C,
∂τ 1 − e−τ ∆
∂f 1 1
(τ, pb , pr , pv ) = C1,2 − C1,3 ,
∂pb pb 1 − pb
∂f 1 1
(τ, pb , pr , pv ) = C2,1 − C2,3 ,
∂pr pr 1 − pr
∂f 1 1
(τ, pb , pr , pv ) = C3,1 − C3,2 .
∂pv pv 1 − pv

En annulant ces dérivées, on obtient un seul point critique, que l’on note (τ , pb , pr , pv ) :

1
!
C C2,1
τ = ln 1 + , pr = ,
∆ C1,1 + C2,2 + C3,3 C2,1 + C2,3
C1,2 C3,1
pb = , pv = .
C1,2 + C1,3 C3,1 + C3,2

200
G.1. Preuve de la proposition 11 du chapitre 5

On vérifie maintenant que ce point critique est bien un maximum en calculant les
dérivées secondes et en les évaluant en le point critique (τ , pb , pr , pv ), on obtient :

∂ 2f (C1,2 + C1,3 )3
(τ , p , p
b r v, p ) = − ,
∂p2b C1,2 C1,3
∂ 2f (C2,1 + C2,3 )3
(τ , p , p
b r v, p ) = − ,
∂p2r C2,1 C2,3
∂ 2f (C3,1 + C3,2 )3
(τ , p b , p r , p v ) = − ,
∂p2v C3,1 C3,2
∂ 2f
(τ , pb , pr , pv ) = 0, ∀i ∈ {b, r, v},
∂τ ∂pi

et en se servant de :
3
3 X s
3 X
3 X id
Cj,` = i
(j, `; ϑ)
X X X
ξk−1
j=1 `=1 j=1 `=1 i=1 k=ib +1
3 X s
3 X id
= p(mtk−1 ,i = j, mtk ,i = `|Zi ; ϑ)
X X

j=1 `=1 i=1 k=ib +1


s
= (id − ib ),
X

i=1

on obtient que :

∂ 2f C1,1 + C2,2 + C3,3 + C


2
(τ , pb , pr , pv ) = −∆2 (C1,1 + C2,2 + C3,3 )
∂τ C
s
!
(id − ib ) (C1,2 + C2,2 + C3,3 )
X

= −∆ 2 i=1
=: a11 .
C

La matrice hessienne de f en le point critique (τ , pb , pr , pv ) est donc :

0 0 0
 
a11
(C1,2 + C1,3 )3
 
0 0 0
 
 − 
C1,2 C1,3
 
 
Hess(τ ,pb ,pr ,pv ) f = 
(C2,1 + C2,3 )3 .

0 0 0

 − 

 C2,1 C2,3 

(C3,1 + C3,2 )3 
 
0 0 0 −

C3,1 C3,2

201
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

Comme pour tout (j, `) ∈ J1, 3K2 , Cj,` > 0, cette matrice est définie négative et
le point critique (τ , pb , pr , pv ) est donc un maximum local. Comme f est C ∞ sur
l’ouvert T , cet unique point critique est donc un maximum global.

G.2 Preuve de la proposition 12 du chapitre 5


Les paramètres compris dans ri interviennent dans Q seulement par la fonction
b , ainsi :
i

arg max Q((τ, pb , pr , pv ,r1 , . . . , rs ), ϑ, Z)


ri ∈R8

= arg max Q2 ((τ, pb , pr , pv , r1 , . . . , rs ), ϑ, Z)


ri ∈R8
s jd M   
= arg max j
γk (v, ϑ) ln bj ztk ,j |ztk−1 ,j , v, ϑ̃
X X X

ri ∈R8 j=1 k=jb +1 v=1


id M   
= arg max γki (v, ϑ) ln bi ztk ,i |ztk−1 ,i , v, ri
X X
.
ri ∈R8 k=ib +1 v=1

Etant donné la forme de la fonction bi (proposition 10 du chapitre 5), on a pour tout


k ∈ Jib + 1, id K :

M      
γki (v, ϑ) ln bi ztk ,i |ztk−1 ,i , v, ri = γki (1, ϑ) ln bi ztk ,i |ztk−1 ,i , 1, ri
X

v=1
     
+ γki (2, ϑ) ln bi ztk ,i |ztk−1 ,i , 2, ri + γki (3, ϑ) ln bi ztk ,i |ztk−1 ,i , 3, ri

     
= γki (1, ϑ) ln bi ztk ,i |ztk−1 ,i , 1, (σi,1
2
) + γki (2, ϑ) ln bi ztk ,i |ztk−1 ,i , 2, (ρi , ηi , σi,2
2
)
  
+ γki (3, ϑ) ln bi ztk ,i |ztk−1 ,i , 3, (λi , µi (0), µi (1), σi,3
2
) .

Ainsi, pour rechercher arg max Q((τ, pb , pr , pv , r1 , . . . , rs ), ϑ, Z), on peut recher-


ri ∈R8
cher séparément
arg max Q((τ, pb , pr , pv , r1 , . . . , rs ), ϑ, Z),
2 ∈R∗
σi,1 +

puis
arg max Q((τ, pb , pr , pv , r1 , . . . , rs ), ϑ, Z),
] 2 2[ +
2 )∈R∗ × − π , π ×R∗
(ρi ,ηi ,σi,2

202
G.2. Preuve de la proposition 12 du chapitre 5

puis
arg max Q((τ, pb , pr , pv , r1 , . . . , rs ), ϑ, Z).
2 )∈R ×Λ×R∗
(λi ,(µi (0),µi (1)),σi,3 + +

On commence par arg max Q((τ, pb , pr , pv , r1 , . . . , rs ), ϑ, Z). Pour cela, on cherche


2 ∈R∗
σi,1 +
le maximum de la fonction :
id   
2
γki (1, ϑ) ln bi ztk ,i |ztk−1 ,i , 1, (σi,1
2
)
X
σi,1 7→ .
k=ib +1

On a par la forme de bi (.|., 1, .) donnée dans la proposition 10 du chapitre 5 :

id   
γki (1, ϑ) ln bi ztk ,i |ztk−1 ,i , 1, (σi,1
2
)
X

k=ib +1
id
1 kztk ,i − ztk−1 ,i k2
!!
= γki (1, ϑ) ln exp −
X

k=ib +1 2πσi,1
2
∆ 2σi,1
2

id id
kztk ,i − ztk−1 ,i k2
=− γki (1, ϑ) ln(2πσi,1
2
∆) − γki (1, ϑ)
X X
.
k=ib +1 k=ib +1 2σi,1
2

La dérivée de cette fonction est :


 
1 id
1 id
2
γki (1, ϑ) + γki (1, ϑ)kztk ,i − ztk−1 ,i k2  .
X X
σi,1 7→ 2 −
σi,1 k=ib +1 2∆σ 2
i,1 k=ib +1

Elle s’annule en :
id
γki (1, ϑ)kztk ,i − ztk−1 ,i k2
X

1 k=ib +1
i,1 =
2
σd ,
2∆ id
γki (1, ϑ)
X

k=ib +1

et est positive sur ]0, σdi,1 ] et négative sur [σi,1 , +∞[ donc la fonction présente un
2 d2

maximum global en σd i,1 .


2

Ensuite, pour trouver arg max Q((τ, pb , pr , pv , r1 , . . . , rs ), ϑ, Z), on


] 2 2[ +
2 )∈R∗ × − π , π ×R∗
(ρi ,ηi ,σi,2
cherche le maximum de la fonction :

203
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

id   
h: (ρi , ηi , σi,2
2
) γki (2, ϑ) ln bi ztk ,i |ztk−1 ,i , 2, (ρi , ηi , σi,2
2
)
X
7→ .
k=ib +1

On a par la forme de bi (.|., 2, .) donnée dans la proposition 10 du chapitre 5 :


id   
γki (2, ϑ) ln bi ztk ,i |ztk−1 ,i , 2, (ρi , ηi , σi,2
2
)
X
  2
k=ib +1 cos(ηi )
ztk ,i − ztk−1 ,i − ρi  ∆
id   id sin(ηi )
=− γki (2, ϑ) ln 2πσi,2
2
∆ γki (2, ϑ)
X X
− .
k=ib +1 k=ib +1 2σi,2
2

On calcule les dérivées par rapport aux variables ρi , ηi et σi,2


2
:
 
  2
∂h 1 id id
cos(ηi )
(ρi , ηi , σi,2
2
)= γki (2, ϑ) − γki (2, ϑ) ztk ,i − ztk−1 ,i − ρi  ∆ 
X X
− 2  ,
2
∂σi,2 σ sin(ηi )

i,2 k=ib +1 k=ib +1
 +
id
sin(ηi ) 
*
∂h ρi X
(ρi , ηi , σi,2 ) = − 2
2
γki (2, ϑ) ztk − ztk−1 ,  ,
∂ηi σi,2 k=ib +1 cos(ηi )
*  + 
∂h 1 X id
sin(ηi ) 
(ρi , ηi , σi,2 ) = 2
2
γki (2, ϑ)  ztk − ztk−1 ,  − ρi ∆ .
∂ρi σi,2 k=ib +1 cos(ηi )

On annule ces dérivées et on obtient le point critique (ρbi , ηbi , σd


i,2 ) avec :
2

 
id
(ztk ,i (1) − ztk−1 ,i (1))γki (2, ϑ) 
X

 
 k=ib +1
ηbi = arctan  i

 ,
d

(zt ,i (0) − zt ,i (0))γ (2, ϑ) 
i
 X 

k k−1 k
k=ib +1

* 
id
cos(ηbi )
+
, ztk ,i − ztk−1 ,i γki (2, ϑ)
X

1 k=ib +1 sin(ηbi )
ρbi = ,
∆ id
γki (2, ϑ)
X

k=ib +1

  2
id
cos(ηbi )
γki (2, ϑ) ∆
X
ztk ,i − ztk−1 ,i − ρbi 
1 k=ib +1 sin(ηbi )
i,2 =
2
σd .
2∆ id
γki (2, ϑ)
X

k=ib +1

204
G.2. Preuve de la proposition 12 du chapitre 5

Afin de connaître la nature du point critique (ρbi , ηbi , σdi,2 ), on calcule la matrice hes-
2

sienne de h au point (ρbi , ηbi , σdi,2 ). Pour cela, on calcule les dérivées secondes de h
2

i,2 ). On a :
qu’on évalue au point (ρbi , ηbi , σd2

∂ 2h 1 id
( ) = γki (2, ϑ),
X
2
ρ i , η i , σ
d −
2 2
) i,2
b b
∂(σi,2 (σi,2 ) k=ib +1
d2 2

∂ 2h ∆ρbi 2 Xid

2
(ρbi , ηbi , σi,2 ) = − d
d2
γki (2, ϑ),
∂ηi 2
σi,2 k=ib +1

∂ 2h 1 X id

2
(ρi , ηi , σi,2 ) = − d
b b d2
γki (2, ϑ).
∂ρi 2
σi,2 k=ib +1

On a aussi :

∂ 2h 1 ∂h
2
(ρbi , ηbi , σd
i,2 ) = − d
2
× (ρbi , ηbi , σd
i,2 ) = 0,
2
∂σi,2 ∂ηi σi,2 ∂ηi
2

∂ 2h 1 ∂h
2
(ρbi , ηbi , σd
i,2 ) = − d
2
× (ρbi , ηbi , σd
i,2 ) = 0,
2
∂σi,2 ∂ρi 2
σi,2 ∂ρ i

∂ 2h 1 ∂h
(ρbi , ηbi , σd
i,2 ) = −
2
× (ρbi , ηbi , σd
i,2 ) = 0.
2
∂ρi ∂ηi ρbi ∂ηi

La matrice hessienne de h au point (ρbi , ηbi , σd


i,2 ) est donc diagonale avec des coef-
2

ficients diagonaux strictement négatifs. Elle est donc définie négative et le point
critique (ρbi , ηbi , σd
i,2 ) est donc un maximum local. Comme h est C
2 ∞
sur l’ouvert
i h
R × − 2 , 2 × R+ , cet unique point critique est donc un maximum global.
∗ π π ∗

Enfin, pour trouver

arg max Q((τ, pb , pr , pv , r1 , . . . , rs ), ϑ, Z),


2 )∈R ×Λ×R∗
(λi ,µi (0),µi (1),σi,3 + +

on cherche le maximum de la fonction :


id   
(λi , µi (0), µi (1), σi,3
2
) 7→ γki (3, ϑ) ln bi ztk ,i |ztk−1 ,i , 3, (λi , µi (0), µi (1), σi,3
2
)
X
.
k=ib +1

205
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

On a par la forme de bi (.|., 3, .) donnée dans la proposition 10 du chapitre 5 :

id   
γki (3, ϑ) ln bi ztk ,i |ztk−1 ,i , 3, (λi , µi (0), µi (1), σi,3
2
)
X

k=ib +1
id
1 kztk ,i − ztk−1 ,i e−λi ∆ − µi (1 − e−λi ∆ )k2
!!
= γki (3, ϑ) ln exp
X

k=ib +1 2πσi,3
2
v(λi ) 2σi,3
2
v(λi )
id   id
kzt ,i − ztk−1 ,i e−λi ∆ − µi (1 − e−λi ∆ )k2
=− γki (3, ϑ) ln 2πσi,3
2
v(λi ) γki (3, ϑ) k
X X
− .
k=ib +1 k=ib +1 2σi,3
2
v(λi )

On fait le changement de variable :







ai = e−λi ∆
bi = σi,3 v(λi )


 2





µi (0) = µi (0)
µi (1) = µi (1)


et on obtient une fonction des variables ai , bi , µi (0), µi (1), que l’on notera f . On a :

id
f (ai , bi , µi (0), µi (1)) = − γki (3, ϑ) ln (2πbi )
X

k=ib +1
id
kztk ,i − ztk−1 ,i ai − µi (1 − ai )k2
γki (3, ϑ)
X
− .
k=ib +1 2bi

On calcule les dérivées par rapport aux variables ai , bi , µi (0), µi (1) et on obtient :

∂f id
(zt ,i (0) − ztk−1 ,i (0)ai − µi (0)(1 − ai ))(ai − 1)
(ai , bi , µi (0), µi (1)) = − γki (3, ϑ) k
X
,
∂µi (0) k=ib +1 bi
∂f id
(zt ,i (1) − ztk−1 ,i (1)ai − µi (1)(1 − ai ))(ai − 1)
(ai , bi , µi (0), µi (1)) = − γki (3, ϑ) k
X
,
∂µi (1) k=ib +1 bi
D E
∂f id ztk ,i − ztk−1 ,i ai − µi (1 − ai ), −ztk−1 ,i + µi
(ai , bi , µi (0), µi (1)) = − γki (3, ϑ)
X
,
∂ai k=ib +1 bi
∂f 1 X id
1 X id
(ai , bi , µi (0), µi (1)) = − γki (3, ϑ) + 2 γ i (3, ϑ)kztk ,i − ztk−1 ,i ai − µi (1 − ai )k2 .
∂bi bi k=ib +1 2bi k=ib +1 k
(G.1)

206
G.2. Preuve de la proposition 12 du chapitre 5

On cherche les points critiques de cette fonction. On a :

ai = 1

∂f

=0
 

∂µi (0)
 
ou

 

 
⇐⇒ id
 ∂f 
=0 γki (3, ϑ)(ztk ,i (p) − ztk−1 ,i (p)ai − µi (p)(1 − ai )) = 0, ∀p ∈ {0, 1}

 
 X
∂µi (1)

 


k=ib +1

(G.2)





ai = 1
ou







 id
γki (3, ϑ)(ztk ,i (p) − ztk−1 ,i (p)ai )
 X
⇐⇒

k=ib +1
µi (p)(1 − ai ) = , ∀p ∈ {0, 1}



id



γki (3, ϑ)

 X




k=ib +1

(G.3)

Étudions maintenant ces deux cas possibles l’un après l’autre.

Étude du cas ai = 1 : On notera (1, bi , µi (0), µi (1)) le point critique.

Si ai = 1, il reste à résoudre :
 D E
 id ztk ,i − ztk−1 ,i , −ztk−1 ,i + µi
γki (3, ϑ) =0

 X


bi


k=ib +1
 1 X id
1 X id
γki (3, ϑ) + 2 γ i (3, ϑ)kztk ,i − ztk−1 ,i k2 = 0.




2bi k=ib +1 k


 bi k=ib +1

D’où :
id
γki (3, ϑ)kztk ,i − ztk−1 ,i k2
X

k=ib +1
bi = id
. (G.4)
2 γki (3, ϑ)
X

k=ib +1

207
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

 
µi (0)
Le vecteur µi :=  est solution de l’équation :
µi (1)

id D E
γki (3, ϑ) ztk ,i − ztk−1 ,i , −ztk−1 ,i + µi = 0.
X

k=ib +1

Afin de connaître la nature du point critique (1, bi , µi (0), µi (1)), étudions la matrice
hessienne de la fonction f en ce point. Pour cela, on calcule les dérivées secondes
grâce aux dérivées premières (G.1) de cette fonction f et on les évalue au point
critique (1, bi , µi (0), µi (1)) :

2
∂ 2f id −ztk−1 ,i + µi
(1, (0), (1)) = γki (3, ϑ) =: a11 .
X
2
b i , µ i µ i −
∂ai k=ib +1 bi

Et :

∂ 2f 1 X id
1 X id
(1, bi , µi (0), µi (1)) = 2 γk (3, ϑ) − 3
i
γki (3, ϑ)kztk ,i − ztk−1 ,i k2 =: a22 .
∂b2i bi k=ib +1 bi k=ib +1

Ainsi en utilisant l’expression de bi donnée en (G.4), on a :


 
1 id
1 X id
= 2 γki (3, ϑ) − γki (3, ϑ)kztk ,i − ztk−1 ,i k2 
X
a22
bi k=ib +1 b i k=ib +1
 
1 id id
= 2 γki (3, ϑ) − 2 γki (3, ϑ)
X X

bi k=ib +1 k=ib +1

1 id
=− γki (3, ϑ).
X
2
bi k=ib +1

On a aussi :

∂ 2f
(1, bi , µi (0), µi (1)) = 0.
∂µi (0)2

De la même manière, on obtient que :

∂ 2f
(1, bi , µi (0), µi (1)) = 0.
∂µi (1)2

208
G.2. Preuve de la proposition 12 du chapitre 5

Puis :

∂ 2f 1 X id
(1, bi , µi (0), µi (1)) = 2 γki (3, ϑ)hztk ,i − ztk−1 ,i , −ztk−1 ,i + µi i =: a12 .
∂ai ∂bi bi k=ib +1

Et :

∂ 2f 1 X id
(1, bi , µi (0), µi (1)) = − γ i (3, ϑ)(ztk ,i (0) − ztk−1 ,i (0)) =: a13 .
∂ai ∂µi (0) bi k=ib +1 k

De la même manière on obtient :

∂ 2f 1 X id
(1, bi , µi (0), µi (1)) = − γ i (3, ϑ)(ztk ,i (1) − ztk−1 ,i (1)) =: a14 .
∂ai ∂µi (1) bi k=ib +1 k

Aussi, on a :

∂ 2f
(1, bi , µi (0), µi (1)) = 0.
∂bi ∂µi (0)

De la même manière on obtient :

∂ 2f
(1, bi , µi (0), µi (1)) = 0.
∂bi ∂µi (1)

Enfin, on a :

∂ 2f
(1, bi , µi (0), µi (1)) = 0.
∂µi (0)∂µi (1)

La matrice hessienne de f en le point critique (1, bi , µi (0), µi (1)) est donc :


 
 11
a a12 a13 a14 
a12 a22 0 0
 
Hess(1,bi ,µi (0),µi (1)) f =  .
a13 0 0 0
 
 
a14 0 0 0

Cette matrice admet une valeur propre nulle car son rang est inférieur à 3. Afin de
trouver le signe des trois valeurs propres restantes, Λ1 , Λ2 , Λ3 , on calcule le polynôme
caractéristique de Hess(1,bi ,µi (0),µi (1)) f , noté χ(X).

209
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

On a :
    
χ(X) = X X 3 + (−a11 − a22 ) X 2 + −a212 − a213 − a214 + a11 a22 X + a22 a213 + a214 .

Par les relations coefficients-racines, on a donc :



 Λ1 + Λ2 + Λ3 = a11 + a22
 Λ1 Λ2 Λ3 = −a22 (a213 + a214 ) .

Or par l’expression de b¯i donnée en (G.4),

2
id −ztk−1 ,i + µi 1 id
a11 = − γki (3, ϑ) < 0 et a22 = − γki (3, ϑ) < 0.
X X
2
k=ib +1 bi bi k=ib +1

Donc :

 Λ1 + Λ 2 + Λ 3 < 0
 Λ1 Λ2 Λ3 > 0.

Donc forcément deux valeurs propres sont négatives et une positive.

Ainsi, le point critique (1, bi , µi (0), µi (1)) est l’argument d’un point “col”, ce n’est
donc pas l’argument d’un extrêmum.

Etude du cas ai 6= 1 : On notera Cb = (abi , bbi , µ[


i (0), µi (1)) le point critique.
[

On a :

id D E
(3, − ztk−1 ,i ai − µi (1 − ai ); −ztk−1 ,i

i
X
γ ϑ) ztk ,i


k



k=ib +1



id

∂f b
 
  
(C) = 0 ⇐⇒  + γki (3, ϑ) ztk ,i (0) − ztk−1 ,i (0)ai − µi (0)(1 − ai ) µi (0)
X
∂ai 
 k=ib +1


 id  
+ γki (3, ϑ) ztk ,i (1) − ztk−1 ,i (1)ai − µi (1)(1 − ai ) µi (1) = 0

 X




k=ib +1

210
G.2. Preuve de la proposition 12 du chapitre 5

Les deux derniers termes sont nuls par (G.2) donc :



id
∂f b
  D E
(C) = 0 ⇐⇒  γki (3, ϑ) ztk ,i − ztk−1 ,i ai − µi (1 − ai ); ztk−1 ,i = 0 (G.5)
X
∂ai k=ib +1

id D E
(3, − ztk−1 ,i ai ; ztk−1 ,i

i
X
γ ϑ) ztk ,i


k



k=i +1


 b
id



−µi (0)(1 − ai ) γki (3, ϑ)ztk−1 ,i (0)
X
⇐⇒



 k=ib +1

 id
−µi (1)(1 − ai ) γki (3, ϑ)ztk−1 ,i (1) = 0.

 X




k=ib +1

Par (G.3), on a :

id

D E
i
(3, ;
 X



 γ k ϑ) ztk ,i − z a z
tk−1 ,i i tk−1 ,i



 k=ib +1

 id
γki (3, ϑ)(ztk ,i (0) − ztk−1 ,i (0)ai )

 X



 id
k=i +1

γki (3, ϑ)ztk−1 ,i (0)
X
− b



id

∂f b
 

k=ib +1
(C) = 0 ⇐⇒  γki (3, ϑ)
X
∂ai 
 k=ib +1


 id
γki (3, ϑ)(ztk ,i (0) − ztk−1 ,i (0)ai )

 X



 id
k=ib +1

γki (3, ϑ)ztk−1 ,i (1) = 0,
X






 id
k=ib +1
γki (3, ϑ)

 X



k=ib +1

ni
ce qui nous donne la première coordonnée du point critique abi = avec :
di
  
id id
di =  γki (3, ϑ)  γki (3, ϑ)kztk−1 ,i k2 
X X

k=ib +1 k=ib +1
 2  2
id id
γki (3, ϑ)ztk−1 ,i (0) −  γki (3, ϑ)ztk−1 ,i (1)
X X
−
k=ib +1 k=ib +1
  2
id id id
2
= γki (3, ϑ) γki (3, ϑ) γji (3, ϑ)ztj−1 ,i (G.6)
X X X
 ztk−1 ,i − ,
k=ib +1 k=ib +1 j=ib +1

211
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

et
  
id id D E
ni =  γki (3, ϑ)  γki (3, ϑ) ztk ,i ; ztk−1
X X
,i

k=ib +1 k=ib +1
  
id id
γki (3, ϑ)ztk ,i (0)  γki (3, ϑ)ztk−1 ,i (0)
X X
−
k=ib +1 k=ib +1
  
id id
γki (3, ϑ)ztk ,i (1)  γki (3, ϑ)ztk−1 ,i (1)
X X
−
k=ib +1 k=ib +1
  
id id D E
= γki (3, ϑ)  γki (3, ϑ) ztk−1 ,i , ztk ,i 
X X

k=ib +1 k=ib +1
id id
* +
γki (3, ϑ)ztk−1 ,i , γji (3, ϑ)ztj ,i (G.7)
X X
− .
k=ib +1 j=ib +1

Puis avec (G.3), on trouve µ[


i (0) et µi (1) en fonction de a
[ bi :

 id
γki (3, ϑ)(ztk ,i (0) − ztk−1 ,i (0)abi )

 X




k=ib +1
i (0) =

µ[


id



(1 − abi ) γki (3, ϑ)

 X




k=ib +1
id
γki (3, ϑ)(ztk ,i (1) − ztk−1 ,i (1)abi )

 X




k=ib +1

i (1) =




 µ[ id
.

(1 − abi ) γki (3, ϑ)

 X




k=ib +1

 
i (0)
µ[
Pour finir, on annule la dernière dérivée et on trouve bbi en fonction de abi et µ
ci =  :
i (1)
µ[

id
γki (3, ϑ)kztk ,i − ztk−1 ,i abi − µ
ci (1 − abi )k2

 X



∂f b
 

k=ib +1
(C) = 0 ⇐⇒  bbi = id
≥ 0.
∂bi
2 γki (3, ϑ)

 X




k=ib +1

(G.8)

Montrons que le point critique (abi , bbi , µ[


i (0), µi (1)) que nous venons de trouver
[
est un maximum local de la fonction f . Pour cela, on calcule les dérivées secondes

212
G.2. Preuve de la proposition 12 du chapitre 5

de cette fonction f et on les évalue au point critique C.


b On a :

2
∂ 2f b id −ztk−1 ,i + µ
ci
( = γki (3, ϑ) =: a11 ,
X
2
C) −
∂ai k=ib +1 bbi

et :

∂ 2f b 1 X id
1 X id
( C) = 2 γk
i
(3, ϑ) − 3 γki (3, ϑ)kztk ,i − ztk−1 ,i abi − µ
ci (1 − abi )k2 .
∂b2i bi k=ib +1
b bi k=ib +1
b

En utilisant l’expression de bbi donnée en (G.8), on a :


 
∂ 2f b 1 X id
1  X id

2
(C) = 2 γk
i
(3, ϑ) − 3 2 γki (3, ϑ) bbi
∂bi bi k=ib +1
b bi
b k=ib +1

1 id
=− γk (3, ϑ)
i
=: a22 .
X
2
bbi k=ib +1

On a aussi :

b = − (1 − ai )
id
∂ 2f b 2 X
(C) γki (3, ϑ) =: a33 .
∂µi (0)2 bbi k=ib +1

De la même manière, on obtient que :

b = − (1 − ai )
id
∂ 2f b 2 X
(C) γki (3, ϑ) = a33 .
∂µi (1)2 bi
b
k=ib +1

On a ensuite :

∂ 2f b 1 X id
(C)) = 2 γki (3, ϑ)hztk ,i − ztk−1 ,i abi − µ
ci (1 − abi ); −ztk−1 ,i + µ
ci i.
∂ai ∂bi bi k=ib +1
b

∂f
On retrouve alors grâce à l’expression (G.5), et au fait que s’annule en le point
∂ai
critique (abi , bbi , µ[
i (0), µi (1)), que :
[

∂ 2f b
(C) = 0.
∂ai ∂bi

213
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

et :
b = ai − 1
id
∂ 2f
(C) γki (3, ϑ)(−ztk−1 ,i (0) + µ[
i (0))
b X
∂ai ∂µi (0) bi k=ib +1
b

1 X id
− b γki (3, ϑ)(ztk ,i (0) − ztk−1 ,i (0)abi − µ[
i (0)(1 − a
bi ))(abi − 1).
bi k=ib +1

Le premier terme de cette expression est nul par (G.2), donc on a :

b = − (ai − 1)
id
∂ 2f
(C) γki (3, ϑ)(−ztk−1 ,i (0) + µ[
i (0)) =: a13 .
b X
∂ai ∂µi (0) bi
b
k=ib +1

De la même manière on obtient :

∂ 2f (abi − 1) Xid
(C) = −
b γki (3, ϑ)(−ztk−1 ,i (0) + µ[
i (1)) =: a14 .
∂ai ∂µi (1) bbi k=ib +1

Aussi, on a par (G.2) :

∂ 2f 1 X id
(C) = 2
b γki (3, ϑ)(ztk ,i (0) − ztk−1 ,i (0)ai − µi (0)(1 − ai ))(ai − 1) = 0,
∂bi ∂µi (0) bi k=ib +1
b

et de même :
∂ 2f
(C)
b = 0.
∂bi ∂µi (1)

Enfin :
∂ 2f
(C)
b = 0.
∂µi (0)∂µi (1)

La matrice hessienne de f en le point critique (abi , bbi , µ[


i (0), µi (1)) est donc :
[
 
a
 11
0 a13 a14 
 0 a22 0 0
 
Hess(abi ,bbi ,µ\ \ f = 
 .
i (0),µi (1))
a13 0 a 0

33 
 
a14 0 0 a33

Afin de montrer que le point critique (abi , bbi , µ[ i (0), µi (1)) est l’argument d’un
[
maximum local pour f , on va montrer que Hess(abi ,bbi ,µ\ \ f est définie négative,
i (0),µi (1))

c’est-à-dire que −Hess(abi ,bbi ,µ\ \ f est définie positive.


i (0),µi (1))

214
G.2. Preuve de la proposition 12 du chapitre 5

Pour cela, on utilise le critère de Sylvester, en montrant que ses mineurs principaux
sont strictement positifs. On doit donc montrer que :

(a) : −a11 > 0,

(b) : a11 a22 > 0,

(c) : -a22 (a11 a33 − a213 ) > 0,

(d) : a22 a33 (a11 a33 − a213 − a214 )>0.

Montrons que ces 4 conditions sont vérifiées. Tout d’abord, par la définition (5.4)
de γki (j, ϑ), ce dernier est toujours positif. Ainsi, on remarque que :

id
γki (3, ϑ)kztk ,i − ztk−1 ,i abi − µ
ci (1 − abi )k2
X

k=ib +1
bbi = id
> 0.
2 γki (3, ϑ)
X

k=ib +1

Ainsi, on montre que :


2
id −ztk−1 ,i + µ
ci
(a) est verifié : −a11 = γki (3, ϑ) > 0.
X

k=ib +1 bbi

1 id
(b) est verifié : −a22 = γki (3, ϑ) > 0 donc a11 a22 > 0.
X
2
bbi k=ib +1

Pour (d) on a :

a11 a33 − a213 − a214 = (−a11 )(−a33 ) − a213 − a214


2
 
−ztk−1 ,i + µ

  (1 − abi )
id ci 2 Xid
= γki (3, ϑ) γki (3, ϑ)
 X

k=ib +1 bb i bi
b
k=ib +1
 2
(abi − 1) Xid
− γki (3, ϑ)(−ztk−1 ,i (0) + µ[
i (0))

bi
b
k=ib +1
 2
(abi − 1) Xid
− γki (3, ϑ)(−ztk−1 ,i (1) + µ[
i (1))

bbi k=ib +1

215
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

id
On fabrique des coefficients à valeurs dans [0, 1] en factorisant par γki (3, ϑ) :
X

k=ib +1

 2
(abi − 1)2  Xid
a11 a33 − a213 − a214 = 2 γki (3, ϑ)
bi
b k=ib +1

id
γki (3, ϑ)
 2
−ztk−1 ,i (0) + µ[
i (0)
X
×
(3,
Pid i
k=ib +1 k=ib +1 kγ ϑ)
id
γki (3, ϑ)
 2
+ −ztk−1 ,i (1) + µ[
i (1)
X
(3,
Pid i
k=ib +1 k=ib +1 kγ ϑ)
 2
 
id
γki (3, ϑ)

−ztk−1 ,i (0) + µ[
i (0)
X
− 
(3,
Pid i
k=ib +1 k=ib +1 kγ ϑ)
 
 2

id
γki (3, ϑ)

,i (1) + µi (1)
X
− −ztk−1 [  .
k=ib +1 γk (3, ϑ)
P id i
k=ib +1

Par l’inégalité de Jensen appliquée à fonction carrée et aux coefficients


 
P
γki (3, ϑ) 
id
k=ib +1 kγ i
(3, ϑ)
k∈Jib +1,id K

dont la somme vaut 1, on obtient que :

id
γki (3, ϑ)
 2
−ztk−1 ,i (0) + µ[
i (0)
X
(3,
P id i
k=ib +1 k=ib +1 kγ ϑ)
 2
 
id
γki (3, ϑ)

−ztk−1 ,i (0) + µ[
i (0)
X
≥ 
k=ib +1 γk (3, ϑ)
P id i
k=ib +1

et
id
γki (3, ϑ)
 2
−ztk−1 ,i (1) + µ[
i (1)
X
(3,
Pid i
k=ib +1 k=ib +1 kγ ϑ)
 2
 
id
γki (3, ϑ)

−ztk−1 ,i (1) + µ[
i (1)
X
≥  .
(3,
Pid i
k=ib +1 k=ib +1 kγ ϑ)

Donc a11 a33 − a213 − a214 ≥ 0.

216
G.2. Preuve de la proposition 12 du chapitre 5

Cela implique que a11 a33 − a213 ≥ 0, et comme −a22 > 0, on a aussi montré (c).

Ainsi, −Hess(abi ,bbi ,µ\ \ f est définie positive, donc Hess(abi ,bbi ,µ
i (0),µi (1))
\ \ f est dé-
i (0),µi (1))

finie négative donc le point critique (abi , bbi , µ[


i (0), µi (1)) est un maximum local de f .
[
L’argument du maximum que l’on recherche doit vérifier bbi > 0 et abi > 0 afin de
pouvoir appliquer le changement de variable inverse pour retrouver les inconnues
initiales :

c=− 1
λi ln (abi ) ,

bi
i,3 =
2
σd  .
v λ c
i

Si abi ≤ 0, regardons ce qu’il se passe sur “le bord ai = 0”.

Si ai = 0 (ou plutôt ai → 0+ car 0 n’est pas atteint), l’expression de f devient :

id id
kztk ,i − µi k2
f (0, bi , µi (0), µi (1)) = − γki (3, ϑ) ln (2πbi ) γki (3, ϑ)
X X
− .
k=ib +1 k=ib +1 2bi

Étudions les extrema de cette fonction des variables bi , µi (0), et µi (1), que l’on
note ϕ :

id id
kztk ,i − µi k2
ϕ : (bi , µi (0), µi (1)) 7−→ − γki (3, ϑ) ln (2πbi ) − γki (3, ϑ)
X X
.
k=ib +1 k=ib +1 2bi

Calculons ses dérivées :



∂ϕ id
zt ,i (0) − µi (0)
(bi , µi (0), µi (1)) = γki (3, ϑ) k

 X

∂µi (0)

bi


k=ib +1



id
zt ,i (1) − µi (1)

∂ϕ


(bi , µi (0), µi (1)) = γki (3, ϑ) k
X

 ∂µi (1) bi

 k=ib +1
1 X 1 X

id id
∂ϕ


(bi , µi (0), µi (1)) = − γ (3, ϑ) + 2
i
γ i (3, ϑ)kztk ,i − µi k2



bi k=ib +1 k 2bi k=ib +1 k

∂bi

et on résout le système suivant d’inconnus bei , µ]


i (0), et µi (1) pour chercher le point
]
critique de ϕ.

217
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q


 id
γki (3, ϑ)ztk ,i (0)

 X




k=ib +1
i (0) =

µ]


id



γki (3, ϑ)

 X


∂ϕ e ] ]
 

(bi , µi (0), µi (1)) = 0 k=ib +1
 

 
∂µi (0) id

 

γki (3, ϑ)ztk ,i (1)

 
 X

 

 
∂ϕ e ] ]

 

k=ib +1
i (1) =
(bi , µi (0), µi (1)) = 0 ⇐⇒  µ] (G.9)
 ∂µi (1) id
γki (3, ϑ)

 
 X

 

∂ϕ e ] ]

 

(bi , µi (0), µi (1)) = 0 k=ib +1

 

 
  id
∂bi 
γki (3, ϑ)kztk ,i − µ

fi k2
 X




k=ib +1

=




 bei id

2 γki (3, ϑ)

 X




k=ib +1

Montrons que ce point critique (bei , µ] i (0), µi (1)) est l’argument d’un maximum local
]
de la fonction ϕ. Pour cela, on calcule les dérivées secondes de cette fonction ϕ et
on les évalue au point (bei , µ]
i (0), µi (1)) :
]

∂ 2ϕ e ] ] 1 X id
1 X id

2
(bi , µi (0), µi (1)) = 2 γk (3, ϑ) − 3
i
γki (3, ϑ)kztk ,i − µ
fi k2 .
∂bi bi k=ib +1
e bi k=ib +1
e

Ainsi en utilisant l’expression de bei donnée en (G.9), on a :


 
∂ 2ϕ e ] ] 1 X id
1  X id
(b i , µ i (0), µ i (1)) = 2 γk
i
(3, ϑ) − 3 2 γki (3, ϑ) bei
∂b2i bi k=ib +1
e bi
e k=ib +1

1 id
=− γk (3, ϑ)
i
=: ag
X
2 22 .
bei k=ib +1

On a aussi :

∂ 2ϕ e ] ] 1 X id
(b i , µ i (0), µ i (1)) = − γki (3, ϑ) =: ag
33 .
∂µi (0)2 bi k=ib +1
e

De la même manière, on obtient que :

∂ 2ϕ e ] ] 1 X id
(bi , µi (0), µi (1)) = − e γki (3, ϑ) = ag
33 .
∂µi (1)2
bi k=ib +1

218
G.2. Preuve de la proposition 12 du chapitre 5

Enfin, on a par l’expression de µ]


i (0)

La matrice hessienne de ϕ en le point critique (bei , µ]


i (0), µi (1)) est donc :
]
 
a
 22
0 0
Hess(be ,µ^ ^ ϕ =  0 a33 0  .
 
i i (0),µi (1))  
0 0 a33

Or comme ag
22 et a
g 33 sont strictement négatifs, les trois valeurs propres de Hess(be ,µ
^ ^
(0),µ (1))
ϕ
i i i

sont négatives donc ϕ admet un maximum local en (be , µ]


(0), µ]
(1)). Ainsi, (b
i i i i , µi (0), µi (1)) 7→
f (0, bi , µi (0), µi (1)) admet une borne supérieure locale en (be , µ]
i (0), µ]
i i(1)) car ce
point n’est pas atteint puisque ai = e−λi ∆ 6= 0.

Ainsi, pour conclure notre étude précédente, si abi > 0 alors f a un maximum
local, atteint en (abi , bbi , µ[
i (0), µi (1)) et si a
[ bi ≤ 0 alors f admet une borne supérieure
locale sur le bord ai = 0. Ce sup vaut f (0, bei , µ] i (0), µi (1)).
]
On remarque que l’expression des variables abi , bbi , µ[ i (0), µi (1) s’applique aussi avec
[
ai = 0 : en effet, si on remplace abi par 0 dans les variables (abi , bbi , µ[ i (0), µi (1)), on
[
trouve (0, bei , µ]
i (0), µi (1)).
]

Montrons maintenant que le point (amaxi , bmax


i , µmax
i (0), µmax
i (1)) est l’argument
du maximum global de la fonction f , où :
ni


 si ni > 0
amax
i =  di
 0 si ni ≤ 0

où ni et di sont définis en (G.7) et (G.6), et :

id
γki (3, ϑ)(ztk ,i − ztk−1 ,i amax )
X
i
k=ib +1
µmax
i = id
(1 − amax ) γki (3, ϑ)
X
i
k=ib +1

puis :

219
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

id
γki (3, ϑ)kztk ,i − ztk−1 ,i amax − µmax (1 − amax )k2
X
i i i
k=ib +1
bmax
i = id
.
2 γki (3, ϑ)
X

k=ib +1

On note K : R∗+ × R2 → R
1 X id
(a, µ) 7→ γ i (3, ϑ)kztk ,i − ztk−1 ,i a − µ(1 − a)k2 .
2 k=ib +1 k

On doit donc prouver que :

∀a > 0, ∀b ≥ 0, ∀µ ∈ R2 , f (a, b, µ(0), µ(1)) ≤ f (amax


i , bmax
i , µmax
i (0), µmax
i (1)).

Simplifions f (amax
i , bmax
i , µmax
i (0), µmax
i (1)) :

On remarque que :

K(amax , µmax )
bmax
i = i
id
i
, (G.10)
γki (3, ϑ)
X

k=ib +1

d’où :
id
f (amax , bmax , µmax (0), µmax (1)) =− γki (3, ϑ) ln (2πbmax )
X
i i i i i
k=ib +1
id
kztk ,i − ztk−1 ,i amax − µi (1 − amax )k2
γki (3, ϑ) i i
X

k=ib +1 2bmax
i
id
2 γki (3, ϑ)bmax
X
id i
k=ib +1
=− γki (3, ϑ) ln (2πbmax )−
X

k=ib +1
i
2bmax
i
id id
=− γki (3, ϑ) ln (2πbmax )− γki (3, ϑ).
X X
i
k=ib +1 k=ib +1

220
G.2. Preuve de la proposition 12 du chapitre 5

Il faut donc prouver que ∀a > 0, ∀b ≥ 0, ∀µ ∈ R2 :

f (a, b, µ(0), µ(1)) ≤ f (amax


i , bmax
i , µmax
i (0), µmax
i (1))
id id id
K(a, µ)
γki (3, ϑ) ln (2πb) − γki (3, ϑ) ln (2πbmax ) γki (3, ϑ)
X X X
⇐⇒ − ≤− i −
k=ib +1 b k=ib +1 k=ib +1
 
id id id
γki (3, ϑ) ln (2πbmax )− γki (3, ϑ) ln (2πb) + γki (3, ϑ)
X X X
⇐⇒ K(a, µ) ≥ b  i
k=ib +1 k=ib +1 k=ib +1
id
⇐⇒ K(a, µ) ≥ b (ln (bmax ) − ln (b) + 1) γki (3, ϑ).
X
i
k=ib +1

id
On étudie la fonction G : b 7→ b (ln (bmax ) − ln (b) + 1) γki (3, ϑ). Sa dérivée est :
X
i
k=ib +1

id
G0 (b) = (ln (bmax ) − ln (b)) γki (3, ϑ).
X
i
k=ib +1

Ainsi, on a la tableau de variation suivant :

b 0 bmax
i +∞
G0 (b) + 0 −

id
donc ∀b ≥ 0, G(b) ≤ G(bmax ) = bmax γki (3, ϑ).
X
i i
k=ib +1
Il reste donc à prouver que :
id
∀a > 0, ∀µ ∈ R , K(a, µ) ≥
2
G(bmax ) = bmax γki (3, ϑ).
X
i i
k=ib +1

Étudions la fonction k : R2 → R :
µ 7→ K(a, µ)

221
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

1 X id
k(µ) = γ i (3, ϑ)kztk ,i − ztk−1 ,i a − µ(1 − a)k2
2 k=ib +1 k
1 X id  E
2 D
= γ i (3, ϑ) ztk ,i − ztk−1 ,i a + (1 − a)2 kµk2 − 2 ztk ,i − ztk−1 ,i a, (1 − a)µ
2 k=ib +1 k
1 X id
2 1 X id
= γ i (3, ϑ) ztk ,i − ztk−1 ,i a + (1 − a)2 kµk2 γ i (3, ϑ)
2 k=ib +1 k 2 k=ib +1 k
id D E
− (1 − a) γki (3, ϑ) ztk ,i − ztk−1 ,i a, µ ,
X

k=ib +1

donc :
1 X id
2
k(µ) = γ i (3, ϑ) ztk ,i − ztk−1 ,i a
2 k=ib +1 k
1 X id id  
+ (1 − a)2 µ(0)2 γki (3, ϑ) − (1 − a)µ(0) γki (3, ϑ) ztk ,i (0) − ztk−1 ,i (0)a
X
2 k=ib +1 k=ib +1

21
id id  
+ (1 − a) µ(1)
2
γki (3, ϑ) − (1 − a)µ(1) γki (3, ϑ) ztk ,i (1) − ztk−1 ,i (1)a .
X X
2 k=ib +1 k=ib +1

• Traitons le cas a 6= 1 :
La fonction k est alors la somme d’un polynôme de degré 2 en µ(0) (avec un
coefficient strictement positif devant µ(0)2 ) et d’un polynôme de degré 2 en
µ(1) (avec un coefficient strictement positif devant µ(1)2 ), donc k atteint son
minimum en :
 
id   id  
γki (3, ϑ) ztk ,i (0) − ztk−1 ,i (0)a γki (3, ϑ) ztk ,i (1) − ztk−1 ,i (1)a 
X X

 
 k=ib +1 k=ib +1
µm =


 id
, id


(1 − a) γ i (3, ϑ) (1 − a) γki (3, ϑ)
 X X 
 
k
k=ib +1 k=ib +1

et :
id 2
 
γji (3, ϑ)
X
ztj ,i − ztj−1 ,i a
1 X id
j=ib +1
k(µ ) =
m
γki (3, ϑ) ztk ,i − ztk−1 ,i a − .
2 k=ib +1 id
γji (3, ϑ)
X

j=ib +1

222
G.2. Preuve de la proposition 12 du chapitre 5

Comme ∀µ ∈ R2 , K(a, µ) ≥ K(a, µm ), il suffit de montrer que

id
∀a > 0, K(a, µm ) ≥ G(bmax ) = bmax γki (3, ϑ),
X
i i
k=ib +1
id
avec bmax γki (3, ϑ) = K(amax , µmax ) par (G.10).
X
i i i
k=ib +1

Ainsi, montrons que :

∀a > 0, a 6= 1, K(a, µm ) ≥ K(amax


i , µmax
i ),

avec :

1 X id
K(amax , µmax ) = γki (3, ϑ)kztk ,i − ztk−1 ,i amax − µmax (1 − amax )k2
i i
2 k=ib +1 i i i

id 2
 
γji (3, ϑ) ztj−1 ,i amax
X
ztj ,i − i
1 X id
j=ib +1
= γki (3, ϑ) ztk ,i − ztk−1 ,i amax − .
2 k=ib +1 i id
γji (3, ϑ)
X

j=ib +1

Si on note :

H : R∗+ → R
id 2
 
γji (3, ϑ)
X
ztj ,i − ztj−1 ,i a
1 X id
j=ib +1
a 7→ γki (3, ϑ) ztk ,i − ztk−1 ,i a − ,
2 k=ib +1 id
γji (3, ϑ)
X

j=ib +1

cela revient à montrer que :

∀a > 0, a 6= 1, H(a) ≥ H(amax


i ). (G.11)

223
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

On a :
2
 
id
γji (3, ϑ)ztj−1 ,i
X
 
 i 
2
a  X d
2 j=ib +1

H(a) = γki (3, ϑ) ztk−1 ,i −
 
2 id
 
 
k=ib +1
γji (3, ϑ)
X 
 
j=ib +1
 
id
γji (3, ϑ)ztj ,i +
X

i
* i
 d d 
j=ib +1
D E
+ a − γk (3, ϑ) ztk−1 ,i , ztk ,i +
i
γk (3, ϑ)ztk−1 ,i ,
i
 X X 
 
i d

 k=ib +1 k=ib +1
γ (3, ϑ)
i
X 
 
j
j=ib +1
2
 
id
γji (3, ϑ)ztj ,i
X
 
1
 i 
d
j=ib +1
 X 
+ γki (3, ϑ) kztk ,i k2 − .
 
2 id

 
k=ib +1
γji (3, ϑ)
X 
 
j=ib +1

H est donc un polynôme de degré 2 avec un coefficient strictement positif


(grâce à l’inégalité de Jensen) devant a2 . Ainsi, H atteint son minimum en :

id
γji (3, ϑ)ztj ,i +
X
id id
*
j=ib +1
D E
γki (3, ϑ) ztk−1 ,i , ztk ,i − γki (3, ϑ)ztk−1 ,i ,
X X
id
k=ib +1 k=ib +1
γji (3, ϑ)
X

j=ib +1
am = 2 .
id
γji (3, ϑ)ztj−1 ,i
X
id
2 j=ib +1
γki (3, ϑ) ztk−1 ,i
X
− id
k=ib +1
γji (3, ϑ)
X

j=ib +1

On remarque que am = amax


i dans le cas où ni > 0 ⇔ amax
i > 0. Ainsi :

— Si am > 0, alors amax


i = am > 0 donc

H(a) ≥ H(am ) = H(amax


i ), ∀a > 0, a 6= 1.

— Si am ≤ 0 alors H(a) ≥ H(0), ∀a > 0, a 6= 1, car H est croissante sur

224
G.2. Preuve de la proposition 12 du chapitre 5

[am , +∞[ avec am ≤ 0, et dans ce cas amax


i = 0 donc

H(a) ≥ H(0) = H(amax


i ), ∀a > 0, a 6= 1.

On a donc bien montré que H(a) ≥ H(amax i ) lorsque amax


i > 0 et lorsque
ai = 0, on a donc prouvé (G.11), donc :
max

K(a, µ) ≥ K(amax
i , µmax
i ), ∀a > 0, a 6= 1, ∀µ ∈ R2 .

• Traitons maintenant le cas a = 1 :


Il nous reste à prouver que :

id
∀µ ∈ R2 , K(1, µ) ≥ G(bmax ) = bmax γki (3, ϑ) = K(amax , µmax ) = H(amax ).
X
i i i i i
k=ib +1

On a :
1 X id
K(1, µ) = γ i (3, ϑ)kztk ,i − ztk−1 ,i k2 .
2 k=ib +1 k

Montrons que :
1 X id
γ i (3, ϑ)kztk ,i − ztk−1 ,i k2 ≥ H(amax ).
2 k=ib +1 k i

On calcule H(1) :
2
 
id
γji (3, ϑ)ztj−1 ,i
X
 
1
 i 
d
 X 2 j=ib +1

H(1) = γki (3, ϑ) ztk−1 ,i −
 
2 id
 
 
k=ib +1
γji (3, ϑ)
X 
 
j=ib +1
 
id
γji (3, ϑ)ztj ,i +
X

id
* i
 d 
j=i +1
D E
+ − γk (3, ϑ) ztk−1 ,i , ztk ,i +
i
γki (3, ϑ)ztk−1 ,i , b i
 X X 
 
d

 k=ib +1 k=ib +1
γji (3, ϑ)
X 
 
j=ib +1
2
 
id
γji (3, ϑ)ztj ,i
X
 
1
 i 
d
j=ib +1
 X 
+ 
γki (3, ϑ) kztk ,i k2 − ,

2 id

 
k=ib +1
γji (3, ϑ)
X 
 
j=ib +1

225
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

donc :
2
 
id id
γki (3, ϑ)ztk−1 ,i − γji (3, ϑ)ztj ,i
X X
 
1
 i 
d
 X 2 k=ib +1 j=ib +1

H(1) = γki (3, ϑ) ztk ,i − ztk−1 ,i − ,
 
2 id

 
k=ib +1
γji (3, ϑ)
X 
 
j=ib +1

donc :
1 X id
2
H(1) ≤ γki (3, ϑ) ztk ,i − ztk−1 ,i .
2 k=ib +1

De plus, H(amax
i ) ≤ H(1) car si amax
i > 0, alors amax
i = am est l’argument du
minimum de H et si amax
i = 0 alors am ≤ 0 et donc H est croissante sur R+ .

1 X id
2
Donc H(amax ) ≤ H(1) ≤ γki (3, ϑ) ztk ,i − ztk−1 ,i , ie :
i
2 k=ib +1

1 X id
2
H(amax ) ≤ γ i (3, ϑ) ztk ,i − ztk−1 ,i = K(1, µ), ∀µ ∈ R2 .
i
2 k=ib +1 k

Ainsi, on a montré que :

∀a > 0, ∀µ ∈ R2 , K(a, µ) ≥ K(amax


i , µmax
i ).

Donc :

∀a > 0, ∀b ≥ 0, ∀µ ∈ R2 , f (a, b, µ(0), µ(1)) ≤ f (amax


i , bmax
i , µmax
i (0), µmax
i (1)).

Donc (amax
i , bmax
i , µmax
i (0), µmax
i (1)) est l’argument du maximum global de f (atteint
ou non).

Pour retrouver l’argument du maximum avec les inconnues initiales, on applique


le changement de variable inverse.

226
G.3. Preuve de la proposition 13 du chapitre 5

G.3 Preuve de la proposition 13 du chapitre 5

On procède comme dans la preuve de la proposition 12 : les paramètres σb2 , ρ, σr2 , λ, σv2
et (ηi , µi (0), µi (1)) pour tout i ∈ J1, sK interviennent dans Q par la fonction Q2 , donc
pour tout i ∈ J1, sK, on a :

arg max Q((τ, pb , pr , pv , σb2 , ρ, σr2 , λ, σv2 , (η1 , µ1 (0), µ1 (1)),


(σb2 ,ρ,σr2 ,λ,σv2 ,ηi ,µi (0),µi (1))

. . . , (ηp , µp (0), µp (1))), ϑ, Z)


= arg max Q2 ((τ, pb , pr , pv , σb2 , ρ, σr2 , λ, σv2 , (η1 , µ1 (0), µ1 (1)),
(σb2 ,ρ,σr2 ,λ,σv2 ,ηi ,µi (0),µi (1))

. . . , (ηp , µp (0), µp (1))), ϑ, Z).

Etant donné la forme de la fonction bj (proposition 10), on a pour tout j ∈ J1, sK et


pour tout k ∈ Jjb + 1, jd K :

Q2 ((τ,pb , pr , pv , σb2 , ρ, σr2 , λ, σv2 , (η1 , µ1 (0), µ1 (1)), . . . , (ηp , µp (0), µp (1))), ϑ, Z)
M   
= j
γk (v, ϑ) ln bj ztk ,j , ztk−1 ,j , v, σb2 , ρ, σr2 , λ, σv2 , ηj , µj (0), µj (1)
X

v=1
     
= γkj (1, ϑ) ln bj ztk ,j , ztk−1 ,j , 1, (σb2 ) + γkj (2, ϑ) ln bj ztk ,j , ztk−1 ,j , 2, (ρ, σr2 , ηj )
  
+ γkj (3, ϑ) ln bj ztk ,j , ztk−1 ,j , 3, (λ, σv2 , µj (0), µj (1)) .

Comme les variables sont séparées, on commence par calculer l’argument du maxi-
mum par rapport à la variable σb2 . Pour cela, on cherche le maximum de la fonction :

s jd   
σb2 γkj (1, ϑ) ln bj ztk ,j , ztk−1 ,j , 1, (σb2 )
X X
7→ .
j=1 k=jb +1

On a par la forme de bi (.|., 1, .) donnée dans la proposition 10 du chapitre 5 :

s jd   
γkj (1, ϑ) ln bj ztk ,j , ztk−1 ,j , 1, (σb2 )
X X

j=1 k=jb +1
s jd s jd
kztk ,j − ztk−1 ,j k2
=− γkj (1, ϑ) ln(2πσb2 ∆) − γkj (1, ϑ)
X X X X
.
j=1 k=jb +1 j=1 k=jb +1 2σb2 ∆

227
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

La dérivée de cette fonction s’annule en :


s id
γki (1, ϑ)kztk ,i − ztk−1 ,i k2
X X

1 i=1 k=ib +1
σb2 = .
2∆ s id
γki (1, ϑ)
X X

i=1 k=ib +1

Ensuite, pour trouver l’argument du maximum de Q selon les variables (ρ, ηi , σr2 ) ∈
R∗+ × [0, 2π[×R∗+ , on cherche pour tout i ∈ J1, sK le maximum de la fonction :

s jd   
(ρ, ηi , σr2 ) 7→ γkj (2, ϑ) ln bj ztk ,j , ztk−1 ,j , 2, (ρ, ηj , σr2 )
X X
.
j=1 k=jb +1

Comme précédemment, par la forme de bi (.|., 2, .) donnée dans la proposition 10 du


chapitre 5, on a :

s jd   
γkj (2, ϑ) ln bj ztk ,j , ztk−1 ,j , 2, (ρ, ηj , σr2 )
X X
  2
j=1 k=jb +1
cos(ηj )
ztk ,j − ztk−1 ,j − ρ ∆
s jd   s jd sin(ηj )
=− γkj (2, ϑ) ln 2πσr2 ∆ γkj (2, ϑ)
X X X X
− .
j=1 k=jb +1 j=1 k=jb +1 2σr2 ∆

On calcule puis on annule les dérivées par rapport aux variables ρ, ηi et σr2 et on
obtient :  
id
(ztk ,i (1) − ztk−1 ,i (1))γki (2, ϑ) 
X

 
 k=ib +1
ηi = arctan  i

 ,
d

(zt ,i (0) − zt ,i (0))γ i (2, ϑ) 
 X 

k k−1 k
k=ib +1
* 
s jd
cos(ηj )
+
, ztk ,j − ztk−1 ,j γkj (2, ϑ)
X X

1 j=1 k=jb +1 sin(ηj )
ρ= ,
∆ s jd
γkj (2, ϑ)
X X

j=1 k=jb +1
  2
s jd
cos(ηj )
γkj (2, ϑ) ∆
X X
ztk ,j − ztk−1 ,j − ρ
1 j=1 k=jb +1 sin(ηj )
σr2 = .
2∆ s jd
γkj (2, ϑ)
X X

j=1 k=jb +1

228
G.3. Preuve de la proposition 13 du chapitre 5

Pour trouver, pour tout i ∈ J1, sK, l’argument du maximum de Q selon les variables
(λ, (µi (0), µi (1)), σv2 ) ∈ R+ × Λ × R∗+ , on cherche le maximum de la fonction :
s jd   
f : (λ, µi (0), µi (1), σv2 ) 7→ γkj (3, ϑ) ln bj ztk ,j , ztk−1 ,j , 3, (λ, µj (0), µj (1), σv2 )
X X
.
j=1 k=jb +1

On a :
s jd   
γkj (3, ϑ) ln bj ztk ,j , ztk−1 ,j , 3, (λ, µj (0), µj (1), σv2 )
X X

j=1 k=jb +1
s jd   s jd
kzt ,j − ztk−1 ,j e−λ∆ − µj (1 − e−λ∆ )k2
=− γkj (3, ϑ) ln 2πσv2 v(λ) γkj (3, ϑ) k
X X X X
− .
j=1 k=jb +1 j=1 k=jb +1 2σv2 v(λ)

On fait le même changement de variable :







a = e−λ∆
b = σv2 v(λ)







µi (0) = µi (0)
µi (1) = µi (1)


et on trouve le point critique :

n
a=
d

avec :
 
id
γji (3, ϑ)ztj ,i +
X

id
s 
* i
d 
j=ib +1
D E
n= γk (3, ϑ) ztk−1 ,i , ztk ,i −
i
γk (3, ϑ)ztk−1 ,i ,
i
X  X X 
 ,
 i d

i=1 k=ib +1 k=ib +1
γ i (3, ϑ)
 X 

j
j=ib +1

et
2
 
id
γji (3, ϑ)ztj−1 ,i
X
 
s 
 i 
d
2 j=ib +1

d= γki (3, ϑ)
X  X
ztk−1 ,i − .

id

 
i=1 k=ib +1
γji (3, ϑ)
X 
 
j=ib +1

229
Partie III, Annexe G – Preuves du calcul de l’argument du maximum de Q

Puis, comme précédemment, avec (G.3), on trouve µi (0) et µi (1) en fonction de a.


On a :
id
γki (3, ϑ)(ztk ,i (0) − ztk−1 ,i (0)a)
X

k=ib +1
µi (0) = id
,
(1 − a) γki (3, ϑ)
X

k=ib +1

et :
id
γki (3, ϑ)(ztk ,i (1) − ztk−1 ,i (1)a)
X

k=ib +1
µi (1) = id
.
(1 − a) γki (3, ϑ)
X

k=ib +1

 
µi (0)
Pour finir, on résout la dernière équation du système en fonction de a et de µi = 
µi (1)
pour tout i ∈ J1, sK :

∂f

(a, b, µi (0), µi (1)) = 0
∂b 
s id
γki (3, ϑ)kztk ,i − ztk−1 ,i a − µi (1 − a)k2

 X X




i=1 k=ib +1

⇐⇒ b= s id
.

2 γki (3, ϑ)

 X X




i=1 k=ib +1

Remarque : On procède comme dans la preuve précédente pour montrer que


ce maximum est atteint si a > 0 et que sinon, on obtient une borne supérieure, en le
même point dans lequel on remplace a par 0. Puis, on utilise les mêmes techniques
de calcul que précédemment pour montrer que ce maximum local est en fait un
maximum global.

230
G.4. Preuve de la proposition 14 du chapitre 5

G.4 Preuve de la proposition 14 du chapitre 5


Dans le cas où σb = σr = σv = σ, on trouve de la même manière que dans la
preuve précédente les arguments du maximum pour les variables τ, pb , pr , pv , λ, ρ, ηi , µi ,
puis on cherche ensuite à exprimer le maximum de la fonction :

s
3 X jd   
f : σ 7→2
γkj (i, ϑ) ln bj ztk ,j , ztk−1 ,j , i, (σ 2 )
X X
.
i=1 j=1 k=jb +1

On a :
s jd s jd
kztk ,j − ztk−1 ,j k2
f (σ 2 ) = − γkj (1, ϑ) ln(2πσ 2 ∆) − γkj (1, ϑ)
X X X X

j=1 k=jb +1 j=1 k=jb +1 2σ 2 ∆


  2
cos(ηj )
ztk ,j − ztk−1 ,j − ρ ∆
s jd   s jd sin(ηj )
γkj (2, ϑ) ln 2πσ ∆ −
2
γkj (2, ϑ)
X X X X

j=1 k=jb +1 j=1 k=jb +1 2σ 2 ∆
s jd   jd
kztk ,j − ztk−1 ,j e−λ∆ − µj (1 − e−λ∆ )k2
γkj (3, ϑ) ln 2πσ 2 v(λ) − γkj (3, ϑ)
X X X
− .
j=1 k=jb +1 k=jb +1 2σ 2 v(λ)

La dérivée de cette fonction s’annule en :


σ2 = s jd
,
(γkj (1, ϑ) + γkj (2, ϑ) + γkj (3, ϑ))
X X

j=1 k=jb +1

où :

1 Xs id
nσ = γ i (1, ϑ)kztk ,i − ztk−1 ,i k2
X
2∆ i=1 k=ib +1 k
  2
1 Xs jd
cos(ηj )
+ γkj (2, ϑ) ztk ,j − ztk−1 ,j − ρ  ∆
X
2∆ j=1 k=jb +1 sin(ηj )
1 X s id
+ γ i (3, ϑ)kztk ,i − ztk−1 ,i a − µi (1 − a)k2 .
X
2v(λ) i=1 k=ib +1 k

Comme précédemment, on montre qu’il s’agit d’un maximum local puis global.

231
Annexe H

C OMPARAISON AVEC LA MÉTHODE DE


[MBP+ 15]

Dans son article [MBP+ 15], Monnier présente une méthode aussi basée sur les
chaînes de Markov à états cachés, qui a pour but, pour une trajectoire donnée de
déterminer quel morceau suit un mouvement brownien et quel morceau suit un mou-
vement brownien dirigé et de déterminer, pour chacun des mouvements présents
le long de la trajectoire ses différents paramètres (le coefficient de diffusion pour
un mouvement brownien, le coefficient de diffusion et le drift pour un mouvement
brownien dirigé) grâce à une méthode bayésienne basée sur l’algorithme Metropolis
MCMC.

Le force de cette méthode est qu’elle prend en argument un nombre entier Kmax ,
qui sera le nombre maximum de mouvements différents qu’on pourra retrouver sur la
trajectoire en question et étudie parmi toutes les combinaisons de K ≤ Kmax mouve-
ments possibles, laquelle est la plus probable pour décrire la trajectoire étudiée. Les
K mouvements étudiés sont choisis parmi plusieurs mouvements browniens (notés
D) et/ou plusieurs mouvements browniens dirigés (notés DV). Ainsi, par exemple,
pour Kmax = 2, la méthode teste 5 combinaisons possibles : {D}, {DV}, {D,D}, {D,
DV}, {DV, DV}.

En revanche, cette méthode ne convient pas pour étudier un ensemble de tra-


jectoires dans lequel toutes les trajectoires suivent toutes les mêmes types de mou-
vement avec les mêmes paramètres. En effet, lorsque l’on suppose que plusieurs
trajectoires suivent des mouvements similaires (browniens avec même coefficient de
diffusion, brownien dirigé avec le même coefficient de diffusion et la même norme
de drift), alors la méthode cherche à trouver un vecteur de drift commun. Or si les
drift des trajectoires, bien qu’ils aient la même norme, ne vont pas dans la même

233
Partie III, Annexe H – Comparaison avec la méthode de [MBP+ 15]

Simulation 1 : Simulation 2 :

Figure H.1 – Deux simulations de trajectoires suivant un mouvement brownien


de coefficient de diffusion σ = 0.8 sur les parties bleues et un mouvement brownien
dirigé de même coefficient de diffusion et de drift de norme ||v|| = 3.5 sur les parties
rouge.

direction (cas que l’on ne peut pas exclure pour l’étude de données réelles), alors
la méthode ne pourra pas trouver de vecteur de drift commun et considérera donc
qu’il s’agit d’un unique brownien non dirigé.

La figure H.1 présente deux simulations : de deux trajectoires pour la Simulation


1 (à gauche) et de trois trajectoires pour la Simulation 2 (à droite). Ces trajectoires
sont simulées avec le même coefficient de diffusion pour les parties browniennes et
pour les parties browniennes dirigées et la même norme de drift (mais pas le même
angle) pour les parties browniennes dirigées.

La figure H.2 regroupe les résultats de l’analyse des deux trajectoires de la Simu-
lation 1 de la figure H.1. En haut, on retrouve les résultats de la méthode Monnier
pour Kmax = 2. L’histogramme en bas à gauche de cette figure indique que parmi
toutes les combinaisons possibles d’au plus 2 mouvements, celle qui est la plus pro-
bable pour ces deux trajectoires est {D, DV} et les deux trajectoires sont ensuite
coloriées sachant que c’est cette combinaison qui est choisie (graphique du haut
avec en bleu les parties de trajectoires classées D et en rose les parties de trajectoire
classées DV). On voit que dans cet exemple la méthode Monnier fonctionne bien.

234
Méthode Monnier :

Ma méthode :

Évolution du maximum de l’algorithme EM Trajectoires coloriées avec les résultats


finaux de l’algorithme EM

Figure H.2 – Résultats de la méthode Monnier (en haut) et de ma méthode (en


bas) sur les trajectoires de la Simulation 1.
235
Partie III, Annexe H – Comparaison avec la méthode de [MBP+ 15]

En bas de la figure H.2, on trouve les résultats de ma méthode pour ces deux
mêmes trajectoires, adaptée pour le cas où seuls deux types de mouvements sont
possibles, un mouvement brownien de coefficient de diffusion σ et un mouvement
dirigé de coefficient de diffusion σ et de drift de norme ||v||. Dans ce cas la matrice
de transition a est de taille 2 × 2 et est donc de la forme

1 2
 
1  e−δ∆ 1 − e−δ∆ 
2 1 − e−δ∆ e−δ∆

avec le taux δ comme inconnue. Le graphique à gauche montre la convergence des


paramètres δ, σ et ||v|| renvoyés par l’algorithme EM en fonction du nombre d’ité-
rations. Les pointillés désignent les valeurs théoriques de ces différents paramètres,
utilisés pour simuler les trajectoires. On voit donc quelque soit les points de départ
choisis au hasard, l’algorithme EM converge bien. Ensuite, la figure de droite affiche
le résultat de l’algorithme de Viterbi, utilisé avec les paramètres finaux renvoyés par
l’algorithme EM. On voit que les deux trajectoires sont correctement classifiées.
La figure H.3 regroupe les résultats de l’analyse des trois trajectoires de la Simu-
lation 2 de la figure H.1. En haut, on retrouve les résultats de la méthode Monnier
pour Kmax = 2. On voit grâce à l’histogramme en bas à gauche que la méthode
Monnier a choisi que la combinaison de mouvements la plus probable pour ces trois
trajectoires était {D}, donc un seul brownien. Or, comme on le voit sur la figure H.1,
deux parties de ces trois trajectoires sont issues d’un mouvement brownien dirigé.
Ceci s’explique car la méthode de Monnier est faite pour trouver les coordonnées x
et y du vecteur drift du mouvement brownien dirigé (s’il considère qu’il y en a un).
Or ici, bien que les parties de trajectoires rouges aient la même norme de drift, leur
vecteur drift ne va pas dans la même direction. Donc l’algorithme ne peut pas leur
trouver de vecteur drift commun. C’est ce qui explique aussi pourquoi dans le jeu
de trajectoires de la Simulation 1, cela fonctionnait. En effet, un seul morceau de
trajectoire était rouge, il n’y avait donc qu’un seul vecteur drift “commun” à toutes
les trajectoires.
En bas de la figure H.3, on trouve les résultats de ma méthode pour ces trois
mêmes trajectoires. L’algorithme EM converge toujours bien, pour tous les points
de départ choisis aléatoirement. Et l’algorithme de Viterbi classifie les trajectoires
de manière parfaitement conforme à la simulation (figure H.1).

236
Méthode Monnier :

Ma méthode :

Évolution du maximum de l’algorithme EM Trajectoires coloriées avec les résultats


finaux de l’algorithme EM

Figure H.3 – Résultats de la méthode Monnier (en haut) et de ma méthode (en


bas) sur les trajectoires de la Simulation 2.

237
Partie III, Annexe H – Comparaison avec la méthode de [MBP+ 15]

Figure H.4 – Trois trajectoires traitées individuellement par la méthode de


[MBP+ 15] coloriées avec code couleur : bleu pour les morceaux de trajectoires brow-
niens, et les autres couleurs pour les mouvement superdiffusifs.

Malheureusement, pour l’étude d’un grand nombre de trajectoires issues de don-


nées réelles, il est difficile de s’imaginer qu’il soit pertinent de supposer que toutes
les particules considérées se déplacent avec le même vecteur de drift. Il faudrait donc
proposer une adaptation de cet algorithme si l’on souhaite que celui-ci reste efficace
pour étudier un pooling de trajectoires.

C’est ce même problème que l’on rencontre si on fait tourner la méthode Monnier
sur les deux premières trajectoires présentées en figure H.4 (qui sont les trajectoires
présentées dans l’article [MBP+ 15]). Si on étudie les deux premières trajectoires
ensembles, on obtient alors les résultats présentés dans la figure H.5 : la combinaison
la plus probable est de voir deux mouvements browniens (un représenté en rose et
l’autre en bleu).
En revanche, si on fait tourner ma méthode sur ces deux mêmes trajectoires, on
obtient les résultats affichés dans la figure H.6.

La figure H.7 affiche les résultats de ma méthode dans le cas où on considère que
3 mouvements sont possibles : un mouvement brownien de coefficient de diffusion
σ, un mouvement brownien dirigé de coefficient de diffusion σ et de drift de norme
||v|| et un processus d’Ornstein-Uhlenbeck de coefficient de diffusion σ et de force
de rappel λ.

238
Figure H.5 – Deux premières trajectoires de la figure H.4 traitées ensemble par
la méthode de [MBP+ 15] coloriées avec code couleur : bleu pour les morceaux qui
suivent un premier mouvement brownien, et rose pour les morceaux qui suivent un
deuxième mouvement brownien.

Figure H.6 – Deux trajectoires traitées par ma méthode selon le modèle “2 mouve-
ments : un brownien et un brownien dirigé”. À gauche : convergence de l’algorithme
EM et à droite : résultat de la classification des morceaux de trajectoires par l’al-
gorithme de Viterbi, coloriées avec le code couleur : bleu pour les morceaux de
trajectoires browniens, rouge pour les mouvements browniens dirigé

239
Partie III, Annexe H – Comparaison avec la méthode de [MBP+ 15]

Figure H.7 – Trois trajectoires traitées par ma méthode selon le modèle “trois
mouvements avec même σ”. En bas : convergence de l’algorithme EM pour plusieurs
points de départ choisis au hasard et en haut : résultat de la classification des mor-
ceaux de trajectoires par l’algorithme de Viterbi, coloriées avec le code couleur : bleu
pour les morceaux de trajectoires browniens, rouge pour les mouvements browniens
dirigés et vert pour ceux qui suivent un processus d’Ornstein-Ulhenbeck.

240
Conclusion

241
Conclusion

Dans ce chapitre conclusif, nous reviendrons sur les limites des différentes études
que nous avons menées au cours de cette thèse. Cela nous amènera ensuite à exhiber
plusieurs perspectives envisageables pour la suite.

1 Limites

1.1 Erreurs de pré-traitement


L’une des principales limitations de notre étude réside dans le fait que nous
ne prenons pas en compte les erreurs potentielles pouvant survenir lors du pré-
traitement des données réelles. En effet, notre analyse commence à partir de don-
nées déjà pré-traitées, que nous considérons comme étant véridiques et exemptes
d’erreurs. Cependant, dans un contexte de traitement de données réelles, il est pos-
sible que des erreurs se glissent durant cette phase initiale, telles que des détections
incorrectes, des absences de détection, ou des erreurs de suivi des particules. Ces er-
reurs peuvent significativement affecter la qualité des données sur lesquelles repose
notre modèle. Par exemple, une fausse détection pourrait entraîner une mauvaise
interprétation de la dynamique des particules, tandis qu’une erreur de suivi pourrait
brouiller les trajectoires observées.
Dans le cadre du modèle BDMM, de telles erreurs ne sont pas prises en compte,
et il pourrait être pertinent de considérer l’introduction d’un bruit artificiel dans le
système afin de modéliser et quantifier l’impact de ces imprécisions. Ce bruit pourrait
permettre de simuler les erreurs de pré-traitement et ainsi offrir une approche plus
robuste, capable de traiter des données légèrement erronées sans altérer la validité
des conclusions.

1.2 Limites computationnelles


L’algorithme EM, tel que présenté dans le chapitre 5 et appliqué dans le cha-
pitre 6, constitue un autre point de limitation de notre étude en raison de sa lourdeur
computationnelle. Cet algorithme, bien qu’efficace pour estimer les paramètres man-
quants dans des modèles statistiques, est gourmand en calcul et nécessite un temps
conséquent avant d’atteindre la convergence. Pour donner un ordre d’idée, dans le
cadre de notre étude sur les données réelles, présentée dans le chapitre 6, le processus
de convergence prend plusieurs heures.

242
2. Perspectives

Une autre limite concerne la facilité d’utilisation de l’algorithme de simulation du


processus BDMM. En effet, une amélioration de l’interface de cet algorithme pourrait
le rendre “clé en main” et facilement accessible à tout scientifique souhaitant étudier
un système de particules en mouvement, sans avoir besoin de compétences élaborées
en language Python. Cette généralisation pourrait permettre d’élargir la portée du
modèle et de l’utiliser comme un outil de modélisation et d’analyse plus universel,
capable de s’adapter à différents contextes biologiques.

2 Perspectives
2.1 Étude d’autres problèmes biologiques
Le modèle BDMM que nous avons développé présente un cadre très général et
flexible, ce qui le rend adaptable à un large éventail de phénomènes biologiques.
En particulier, avec l’apport de nouvelles données issues de divers domaines de
la biologie, il serait intéressant de l’appliquer à des problématiques différentes de
celles abordées dans cette étude. Par exemple, le modèle BDMM pourrait permettre
d’étudier la dynamique d’autres molécules impliquées dans l’exocytose, ou encore
de modéliser le traffic intracellulaire d’autres particules telles que les bactéries ou
les virus.
Au delà des applications biologiques, il serait aussi intéressant de tirer profit
du modèle BDMM dans d’autres domaines, comme en écologie pour l’étude de la
dynamique de plantes ou de populations animale.

2.2 Amélioration du suivi de particules


Le modèle BDMM pourrait également être utilisé pour améliorer les outils de
suivi des particules, notamment dans le domaine de la microscopie ou des expériences
de suivi de trajectoires à l’échelle moléculaire. Ces outils se basent souvent sur des
modèles de déplacement a priori pour interpréter les données et fournir des résultats
de suivi précis. Le BDMM pourrait jouer un rôle important en tant que modèle
a priori, en offrant une représentation plus réaliste et plus flexible des trajectoires
suivies par les particules.
En intégrant ce modèle dans les outils de suivi actuels, il serait possible de ré-
duire les erreurs d’estimation des trajectoires, en particulier dans les situations où

243
Conclusion

les particules changent fréquemment de régime de mouvement ou évoluent dans des


environnements complexes. Cela pourrait améliorer la précision des analyses et four-
nir des informations plus détaillées sur les dynamiques sous-jacentes des systèmes
biologiques étudiés.

2.3 Propriétés théoriques du modèle BDMM


Pour que les résultats théoriques obtenus avec le modèle BDMM soient plus
en accord avec les observations faites sur des données réelles, certaines propriétés
théoriques du modèle (propriété LAN et son corollaire démontrés au chapitre 3)
pourraient être adaptées dans le cas d’observations en temps discret plutôt que
continu.
Ensuite, en laissant le pas de discrétisation tendre vers zéro, on pourrait théo-
riquement retrouver les résultats obtenus dans un cadre de temps continu, offrant
ainsi une passerelle entre théorie et pratique.

2.4 Analyse des trajectoires


L’analyse des trajectoires, notamment la détection de changements de dyna-
mique au sein d’une même trajectoire de particule, constitue une autre direction de
recherche prometteuse. En complément de l’étude menée dans le chapitre 6, il existe
plusieurs axes à explorer pour approfondir cette étude.

2.4.1 Plusieurs coefficients de dérive par trajectoire

Une première amélioration serait d’envisager que chaque segment de trajectoire,


qui suit un mouvement de type 2 (brownien dirigé), puisse être orienté dans une
direction différente. En effet, dans l’étude actuelle, nous faisons l’hypothèse qu’un
seul coefficient de dérive s’applique à l’ensemble de la trajectoire, ce qui contraint
une particule qui effectue un mouvement dirigé dans la direction η, puis change de
régime, à reprendre sa trajectoire dirigée dans la même direction initiale η (si un
nouveau changement de régime s’opère). Une approche plus réaliste consisterait à
permettre plusieurs directions de dérive pour une même trajectoire, ce qui refléterait
mieux la variabilité des trajectoires observées dans les systèmes biologiques.
Une extension de l’étude présentée considérant un nombre N de directions de
dérive par trajectoire devrait pouvoir se réaliser en ajoutant de nouvelles inconnues

244
2. Perspectives

au système. En revanche, la complexité de l’estimation du nombre de direction de


dérive à considérer pour chacune des trajectoires pourrait poser des difficultés et
constituer l’objet d’une nouvelle étude appronfondie.

2.4.2 Normes de dérive variables

Une autre piste consisterait à adapter le modèle pour prendre en compte des
normes de dérive variables selon les trajectoires. En d’autres termes, chaque trajec-
toire pourrait avoir sa propre norme de dérive, ce qui ajouterait un degré de liberté
au modèle. Toutefois, cela soulève des questions d’identifiabilité, car il pourrait de-
venir difficile de distinguer un mouvement brownien avec un grand coefficient de
diffusion d’un mouvement brownien dirigé avec un coefficient de diffusion élevé mais
une petite norme de dérive.

2.4.3 Étude d’autres types de mouvement

Une extension naturelle de l’étude actuelle serait d’inclure d’autres types de mou-
vements que les trois analysés ici. Nous avons déjà exploré cette idée en remplaçant le
mouvement de type 3 (mouvement confiné) par un deuxième mouvement brownien.
Les résultats obtenus étaient également satisfaisants, bien que nous ayons finalement
choisi d’opter pour un processus d’Ornstein-Uhlenbeck, qui semble biologiquement
mieux représenter le comportement confiné des particules.
On pourrait aussi étudier des cas où les particules suivent des mouvements non
markoviens. Cela ne poserait pas de problème au niveau de la simulation, mais
soulèverait des questions théoriques complexes.

2.4.4 Prise en compte de plusieurs sauts dans l’intervalle de discrétisa-


tion

Actuellement, toute la Partie III de notre étude repose sur l’hypothèse que les ob-
servations sont discrètes et qu’un seul saut peut se produire entre deux observations.
Il serait possible de quantifier l’erreur induite par cette hypothèse en s’appuyant sur
des majorations connues de l’erreur en fonction du pas de discrétisation. On pourrait
imaginer de refaire cette étude dans le cas où plusieurs sauts peuvent avoir lieu entre
deux points d’observation, mais cela demanderait sûrement beaucoup d’investisse-
ment.

245
Conclusion

2.4.5 Validation expérimentale

Enfin, une validation expérimentale de notre méthode sur des données simulées
pourrait être envisagée. Il serait intéressant de comparer le nombre de points de
trajectoire dont le mouvement est correctement estimé par notre méthode par rap-
port à d’autres méthodes d’analyse de dynamique de trajectoires. Cette comparaison
pourrait ensuite être étendue aux données réelles, afin d’évaluer les performances de
notre approche dans un cadre expérimental concret.

3 Conclusion
Cette thèse s’inscrit dans un cadre d’interdisciplinarité, visant à apporter une
réponse mathématique à une problématique issue de la biologie. Pour atteindre cet
objectif, nous avons intégré et développé des outils issus de la statistique, pour
s’ajuster au mieux aux besoins de la biologie, en tenant compte des particularités
des systèmes observés.
Le modèle BDMM que nous avons introduit a permis de modéliser et analyser la
dynamique d’un système complexe de protéines. En particulier, il a permis de décrire
en détail les interactions spatio-temporelles entre les protéines. Ce modèle a apporté
un cadre théorique permettant d’anticiper des variations dans le comportement des
protéines en fonction de différents paramètres, renforçant ainsi notre compréhension
des dynamiques sous-jacentes.
Cette collaboration scientifique, mêlant la rigueur des mathématiques et l’expéri-
mentation en biologie, s’est avérée fructueuse. Elle a permis non seulement d’enrichir
la recherche biologique par des outils plus précis et prédictifs, mais aussi d’établir
un dialogue interdisciplinaire où chaque domaine a contribué à affiner les méthodes
de l’autre. Les outils développés au cours de cette thèse ouvrent des perspectives
intéressantes pour l’étude de systèmes microbiologiques complexes, offrant ainsi de
nouvelles voies d’exploration pour les futures recherches dans ce domaine.

246
B IBLIOGRAPHIE

[AABA10] Steven S. Andrews, Nathan J. Addy, Roger Brent, and Adam P.


Arkin. Detailed simulations of cell biology with smoldyn 2.1. PLOS
Computational Biology, 6(3) :1–10, 03 2010.

[AN12] Krishna B Athreya and Peter E Ney. Branching processes, volume


196. Springer Science & Business Media, 2012.

[ASP+ 19] Marloes Arts, Ihor Smal, Maarten W Paul, Claire Wyman, and Erik
Meijering. Particle mobility analysis using deep learning and the
moment scaling spectrum. Scientific reports, 9(1) :17160, 2019.

[BAD+ 21] Anaïs Badoual, Misa Arizono, Audrey Denizot, Mathieu Ducros,
Hugues Berry, U Valentin Nägerl, and Charles Kervrann. Simula-
tion of astrocytic calcium dynamics in lattice light sheet microscopy
images. In 2021 IEEE 18th International Symposium on Biomedical
Imaging (ISBI), pages 135–139. IEEE, 2021.

[BGM+ 14] Jérôme Boulanger, Charles Gueudry, Daniel Münch, Bertrand Cin-
quin, Perrine Paul-Gilloteaux, Sabine Bardin, Christophe Guérin,
Fabrice Senger, Laurent Blanchoin, and Jean Salamero. Fast high-
resolution 3d total internal reflection fluorescence microscopy by in-
cidence angle scanning and azimuthal averaging. Proceedings of the
National Academy of Sciences, 111(48) :17164–17169, 2014.

[BKB09] Jérôme Boulanger, Charles Kervrann, and Patrick Bouthemy. A


simulation and estimation framework for intracellular dynamics and
trafficking in video-microscopy and fluorescence imagery. Medical
image analysis, 13(1) :132–142, 2009.

[BKV18] Vincent Briane, Charles Kervrann, and Myriam Vimond. Statistical


analysis of particle trajectories in living cells. Phys Rev E., 97((6-
1) :062121), 2018.

247
BIBLIOGRAPHIE

[BL24] Lisa Balsollier and Frédéric Lavancier. Parametric estimation and


LAN property of the birth-death-move process with mutations.
arXiv :2404.19367, 2024.

[BLSK23] Lisa Balsollier, Frédéric Lavancier, Jean Salamero, and Charles Ker-
vrann. A generative model to simulate spatiotemporal dynamics of
biomolecules in cells. Biological Imaging, 3 :e22, 2023.

[BM15] Vincent Bansaye and Sylvie Méléard. Stochastic models for structu-
red populations, volume 16. Springer, 2015.

[BN13] Paul C Bressloff and Jay M Newby. Stochastic models of intracellular


transport. Reviews of Modern Physics, 85(1) :135, 2013.

[Bou23] Dominique Bourgeois. Single molecule imaging simulations with ad-


vanced fluorophore photophysics. Communications Biology, 6(1) :53,
2023.

[BVK19] Vincent Briane, Myriam Vimond, and Charles Kervrann. An over-


view of diffusion models for intracellular dynamics analysis. Briefings
in Bioinformatics, 2019. bbz052.

[CAV+ 10] Inhee Chung, Robert Akita, Richard Vandlen, Derek Toomre, Jo-
seph Schlessinger, and Ira Mellman. Spatial control of egf recep-
tor activation by reversible dimerization on living cells. Nature,
464(7289) :783–787, 2010.

[CSDC+ 14] Nicolas Chenouard, Ihor Smal, Fabrice De Chaumont, Martin


Mavska, Ivo F Sbalzarini, Yuanhao Gong, Janick Cardinale, Craig
Carthel, Stefano Coraluppi, Mark Winter, et al. Objective compa-
rison of particle tracking methods. Nature methods, 11(3) :281–289,
2014.

[FG07] Torben Fattler and Martin Grothaus. Strong feller properties for
distorted brownian motion with reflecting boundary condition and
an application to continuous n-particle systems with singular inter-
actions. Journal of Functional Analysis, 246(2) :217–241, 2007.

248
BIBLIOGRAPHIE

[GCK+ 18] Sanjana Gupta, Jacob Czech, Robert Kuczewski, Thomas M Bartol,
Terrence J Sejnowski, Robin EC Lee, and James R Faeder. Spa-
tial stochastic modeling with mcell and cellblender. arXiv preprint
arXiv :1810.00499, 2018.

[GFSM20] Ángel F. García-Fernández, Lennart Svensson, and Mark R. More-


lande. Multiple target tracking based on sets of trajectories. IEEE
Transactions on Aerospace and Electronic Systems, 56(3) :1685–
1707, 2020.

[GLGW13] Naama Gal, Diana Lechtman-Goldstein, and Daphne Weihs. Particle


tracking in living cells : a review of the mean square displacement
method and beyond. Rheologica Acta, 52 :425–443, 2013.

[HH17] Nathanaël Hozé and David Holcman. Statistical methods for large
ensembles of super-resolution stochastic single particle trajectories in
cell biology. Annual Review of Statistics and Its Application, 4 :189–
223, 2017.

[HL00] Reinhard Hopfner and Eva Löcherbach. Limit theorems for null
recurrent markov processes. Univ., Fachbereich Mathematik, 2000.

[Ibr13] Has’ Minskii Ibragimov. Statistical estimation : asymptotic theory,


volume 16. Springer Science & Business Media, 2013.

[JLM+ 08] Khuloud Jaqaman, Dinah Loerke, Marcel Mettlen, Hirotaka Ku-
wata, Sergio Grinstein, Sandra L Schmid, and Gaudenz Danuser.
Robust single-particle tracking in live-cell time-lapse sequences. Na-
ture methods, 5(8) :695, 2008.

[Ker22] Charles Kervrann. Biomolecule trafficking and network tomography-


based simulations. In Biomedical Image Synthesis and Simulation,
pages 543–569. Elsevier, 2022.

[Kle12] Fima C Klebaner. Introduction to stochastic calculus with applica-


tions. World Scientific Publishing Company, 2012.

249
BIBLIOGRAPHIE

[KM57] Samuel Karlin and James McGregor. The classification of birth and
death processes. Transactions of the American Mathematical Society,
86(2) :366–400, 1957.

[KSA+ 15] Charles Kervrann, Carlos Óscar Sánchez Sorzano, Scott T Acton,
Jean-Christophe Olivo-Marin, and Michael Unser. A guided tour
of selected image processing and analysis methods for fluorescence
and electron microscopy. IEEE Journal of Selected Topics in Signal
Processing, 10(1) :6–30, 2015.

[Kut04] Yury A Kutoyants. Statistical inference for ergodic diffusion pro-


cesses. Springer Science & Business Media, 2004.

[KWFA18] Nickolay Korabel, Thomas A. Waigh, Sergei Fedotov, and Viki J.


Allan. Non-markovian intracellular transport with sub-diffusion and
run-length dependent detachment rate. PLOS ONE, 13(11) :1–23,
11 2018.

[LCB+ 20] Matthieu Lagardère, Ingrid Chamma, Emmanuel Bouilhol, Macha


Nikolski, and Olivier Thoumine. Fluosim : simulator of single mole-
cule dynamics for fluorescence live-cell and super-resolution imaging
of membrane proteins. Scientific Reports, 10(1) :1–14, 2020.

[LDH09] Thibault Lagache, Emmanuel Dauty, and David Holcman. Quan-


titative analysis of virus and plasmid trafficking in cells. Physical
Review E, 79(1) :011921, 2009.

[LLG21] Frédéric Lavancier and Ronan Le Guével. Spatial birth-death-move


processes : basic properties and estimation of their intensity func-
tions. Journal of the Royal Statistical Society : Series B (Statistical
Methodology), 83(4) :798–825, 2021.

[LLGM22] Frédéric Lavancier, Ronan Le Guével, and Emilien Manent. Feller


and ergodic properties of jump-move processes with applications to
interacting particle systems. to appear in Journal of Applied Proba-
bility, arXiv :2204.02851, 2022.

250
BIBLIOGRAPHIE

[Löc02a] Eva Löcherbach. Lan and lamn for systems of interacting diffusions
with branching and immigration. Annales de l’Institut Henri Poin-
care (B) Probability and Statistics, 38(1) :59–90, 2002.

[Löc02b] Eva Löcherbach. Likelihood ratio processes for markovian particle


systems with killing and jumps. Statistical inference for stochastic
processes, 5(2) :153–177, 2002.

[LPZK20] Frédéric Lavancier, Thierry Pécot, Liu Zengzhen, and Charles Ker-
vrann. Testing independence between two random sets for the ana-
lysis of colocalization in bioimaging. Biometrics, 76(1) :36–46, 2020.

[LS13] Robert S Liptser and Albert N Shiryaev. Statistics of random pro-


cesses II : Applications, volume 6. Springer Science & Business Me-
dia, 2013.

[Lus92] Harald Luschgy. Local asymptotic mixed normality for semimartin-


gale experiments. Probability theory and related fields, 92(2) :151–
176, 1992.

[Man23] Émilien Manent. Propriétés de Feller, d’ergodicité et inférence


non-paramétrique du processus jump-move. PhD thesis, Université
Rennes 2 ; Université de Rennes, 2023.

[MBP+ 15] Nilah Monnier, Zachary Barry, Hye Yoon Park, Kuan-Chung Su, Za-
chary Katz, Brian P English, Arkajit Dey, Keyao Pan, Iain M Chee-
seman, Robert H Singer, et al. Inferring transient particle transport
dynamics in live cells. Nature methods, 12(9) :838–840, 2015.

[MGVGM+ 21] Gorka Muñoz-Gil, Giovanni Volpe, Miguel Angel Garcia-March,


Erez Aghion, Aykut Argun, Chang Beom Hong, Tom Bland, Stefano
Bo, J Alberto Conejero, Nicolás Firbas, et al. Objective comparison
of methods to decode anomalous diffusion. Nature communications,
12(1) :6253, 2021.

[MH17] Naoki Masuda and Petter Holme. Temporal network epidemiology.


Springer, 2017.

251
BIBLIOGRAPHIE

[MS94] Jesper Møller and Michael Sørensen. Statistical analysis of a spatial


birth-and-death process model with a view to modelling linear dune
fields. Scandinavian journal of statistics, 21(1) :1–19, 1994.

[Øks13] Bernt Øksendal. Stochastic differential equations : an introduction


with applications. Springer Science & Business Media, 2013.

[PBB+ 14] Thierry Pécot, Patrick Bouthemy, Jérôme Boulanger, Anatole Ches-
sel, Sabine Bardin, Jean Salamero, and Charles Kervrann. Back-
ground fluorescence estimation and vesicle segmentation in live cell
imaging with conditional random fields. IEEE Transactions on
Image Processing, 24(2) :667–680, 2014.

[PG19] Arne Pommerening and Pavel Grabarnik. Individual-based methods


in forest ecology and management. Springer, 2019.

[PKB+ 08] Thierry Pécot, Charles Kervrann, Sabine Bardin, Bruno Goud, and
Jean Salamero. Patch-based markov models for event detection in
fluorescence bioimaging. In International Conference on Medical
Image Computing and Computer-Assisted Intervention, pages 95–
103. Springer, 2008.

[PLUE13] Fredrik Persson, Martin Lindén, Cecilia Unoson, and Johan Elf. Ex-
tracting intracellular diffusive states and transition rates from single-
molecule tracking data. Nature methods, 10(3) :265–269, 2013.

[Pre75] Chris Preston. Spatial birth and death processes. Advances in ap-
plied probability, 7(3) :371–391, 1975.

[PZB+ 18] Thierry Pécot, Liu Zengzhen, Jérôme Boulanger, Jean Salamero, and
Charles Kervrann. A quantitative approach for analyzing the spatio-
temporal distribution of 3d intracellular events in fluorescence mi-
croscopy. eLife, 7 :e32311, 2018.

[QSE91] Hong Qian, Michael P Sheetz, and Elliot L Elson. Single particle
tracking. analysis of diffusion and flow in two-dimensional systems.
Biophysical journal, 60(4) :910–921, 1991.

252
BIBLIOGRAPHIE

[RDJ+ 17] Philippe Roudot, Liya Ding, Khuloud Jaqaman, Charles Kervrann,
and Gaudenz Danuser. Piecewise-stationary motion modeling and
iterative smoothing to track heterogeneous particle motions in
dense environments. IEEE Transactions on Image Processing,
26(11) :5395–5410, 2017.

[RS01] Eric Renshaw and Aila Särkkä. Gibbs point processes for studying
the development of spatial-temporal stochastic processes. Computa-
tional statistics & data analysis, 36(1) :85–105, 2001.

[Sad19] Yukio Sadahiro. Analysis of the appearance and disappearance of


point objects over time. International Journal of Geographical In-
formation Science, 33(2) :215–239, 2019.

[SFS+ 97] James Schaff, Charles C Fink, Boris Slepchenko, John H Carson, and
Leslie M Loew. A general computational framework for modeling
cellular structure and function. Biophysical journal, 73(3) :1135–
1146, 1997.

[SPB+ 19] Daniel Sage, Thanh-An Pham, Hazen Babcock, Tomas Lukes, Tho-
mas Pengo, Jerry Chao, Ramraj Velmurugan, Alex Herbert, Anurag
Agrawal, Silvia Colabrese, et al. Super-resolution fight club : assess-
ment of 2d and 3d single-molecule localization microscopy software.
Nature methods, 16(5) :387–395, 2019.

[SX08] Dominic Schuhmacher and Aihua Xia. A new metric between


distributions of point processes. Advances in applied probability,
40(3) :651–672, 2008.

[VHHK16] Varun Venkataramani, Frank Herrmannsdörfer, Mike Heilemann,


and Thomas Kuner. Suresim : simulating localization microscopy
experiments from ground truth models. Nature methods, 13(4) :319–
321, 2016.

[VVP14] Ba-Ngu Vo, Ba-Tuong Vo, and Dinh Phung. Labeled random finite
sets and the bayes multi-target tracking filter. IEEE Transactions
on Signal Processing, 62(24) :6554–6567, 2014.

253
Titre : Simulation, estimation paramétrique et classification des trajectoires d’un processus
birth-death-move avec mutations.

Mot clés : Processus birth-death-move, estimation paramétrique, propriété LAN, simulation et


synthèse d’images, dynamique intracellulaire et mouvement moléculaire, modèles de Markov
cachés, algorithme EM.

Résumé : Cette thèse se concentre sur un présenté le processus, des exemples d’appli-
processus statistique, dit "birth-death-move" cations en biologie et un outil pour le simu-
avec mutations (BDMM), qui permet de modé- ler, nous nous intéressons à la propriété de
liser la dynamique d’un système de particules normalité asymptotique locale du modèle pa-
qui se déplacent au fil du temps, tandis que ramétrique. Pour finir, nous présenterons une
de nouvelles particules peuvent apparaître et méthode de classification des trajectoires d’un
que certaines particules existantes peuvent processus BDMM en fonction de leur mou-
disparaître. Ce modèle prend en compte les vement, dans le cas particulier où ces der-
effets spatiaux et les interactions entre les nières sont indépendantes. Tout au long de
particules, ce qui le rend adapté pour com- cette thèse, les différentes études seront illus-
prendre la dynamique et la coordination des trées par leur application sur un jeu de don-
particules à l’intérieur des cellules. Il offre ainsi nées réelles présentant la dynamique des pro-
un cadre robuste pour étudier une gamme va- téines Langerin et Rab-11 au cours du phéno-
riée de phénomènes biologiques. Après avoir mène d’exocytose.

Title: Simulation, parametric estimation and trajectories’ classification of a birth-death-move


process with mutations.

Keywords: Birth-death-move process, parametric estimation, LAN property, simulation and


image synthesis, intracellular dynamics and molecular motion, Hidden Markov Models, EM
algorithm.

Abstract: This thesis focuses on a statisti- process, examples of applications in biology


cal process, known as "birth-death-move" with and a tool for simulating it, we turn to the prop-
mutations (BDMM), which models the dynam- erty of local asymptotic normality of the para-
ics of a system of particles that move over metric model. Finally, we present a method for
time, while new particles may appear and classifying the trajectories of a BDMM process
some existing particles may disappear. This according to their tracking motion, in the par-
model takes into account spatial effects and ticular case where the trajectories are inde-
interactions between particles, making it suit- pendent. Throughout this thesis, the various
able for understanding the dynamics and coor- studies will be illustrated by their application
dination of particles within cells. It thus offers to a real data set presenting the dynamics of
a robust framework for studying a wide range the Langerin and Rab-11 proteins during exo-
of biological phenomena. After presenting the cytosis.

Vous aimerez peut-être aussi