Chapitre 2
Concepts de base de l
1. Introduction
Récemment, certaines techniques issues de l’analyse non linéaire des
systèmes dynamiques, ont été introduites afin d’expliquer certains
phénomènes biologiques et physiologiques. En effet, l’analyse linéaire de ces
signaux ne permet d’extraire que quelques informations sur la dynamique
des processus biologiques. Ceci est lié à l’effet que les phénomènes
physiologiques traduisent l’évolution des processus non linéaires. Ces
techniques ont été appliquées avec succès dans le domaine de la biologie et
de la médecine.
Le présent chapitre traite les concepts fondamentaux de l’analyse non
linéaire des systèmes dynamiques. En réalité, la compréhension de ces
concepts est indispensable afin de mieux comprendre et interpréter les
résultats obtenus lorsque ces techniques sont appliquées à des signaux
physiologiques tels que le signal ECG, la variabilité du rythme cardiaque et la
variabilité de l’intervalle QT.
Ce chapitre contient certaines définitions telles que les définitions d’un
système dynamique, l’espace des phases, le comportement chaotiques et
d’autres définitions, qui apparaissent incontournables pour mieux
comprendre les résultats obtenus qui seront présentés dans les chapitres
suivants.
2. Systèmes dynamiques
Un système qui évolue dans le temps est qualifié comme étant un système
dynamique. Il peut être décrit par un ensemble des variables dont leurs
valeurs changent en fonction du temps [1]. Ces variables sont appelées
variables d’état. Autrement dit, les variables d’état sont des variables qui
peuvent décrire l’état d’un système dynamique à tout instant t .
Un système dynamique peut être décrit par une équation différentielle de la
forme suivante (Eq. 2.1) :
34
35
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
d ⃗x ⃗
= F ( ⃗x ( t ) ,α ) (2.1)
dt
On peut aussi le représenté par n équations différentielles de la forme :
{
d x1
=f 1 (x 1 , …. , x n ,t , α )
dt
.
. (2.2)
.
d xn
=f n (x 1 , … ., x n ,t , α )
dt
⃗x ( t ) représente le vecteur qui contient les variables d’état et α est un
vecteur contenant les paramètres du système.
Ces deux représentations sont utilisées pour décrire un système dynamique
continu. Dans le cas d’un système discret, on utilise une séquence des
valeurs discrètes pour représenter chaque variable d’état :
x→f (x)
(2.3)
x n+1=f (x n )
En effet, les paramètres sont des constants tandis que les variables d’état
changent en fonction du temps. Le choix des variables d’état est primordial.
Il dépond énormément du modèle du système dynamique. Une variable
d’état d’un modèle donné peut être considérée comme un paramètre dans
un autre modèle. Le choix se fait donc selon le modèle du système qu’on veut
construire.
Pour mieux assimiler ces notions, on prend ; comme premier exemple ; un
système constitué d’un ressort ; de raideur k ; attaché à une masse m . Le
système subit à une force de frottement visqueux ⃗
F f et à une force de
rappel ⃗
F r. Ce système est illustré sur la figure 2.1. Le système masse-ressort
peut être décrit par deux variables d’états : la position x ( t )de la masse m et
sa vitesse ẋ ( t ).
36
Chapitre 2 Concepts de base
Figure 2.1 système masse-ressort
Dans le cas des faibles amortissements, la position de la masse x (t) est
donnée par équation 2.4 :
x ( t )=x 0 e−ξt cos (ω 0 t ) (2.4)
Avec :
x0 : La position initiale
ξ :≤coefficient d ' ammortissement
ω : La pulsation
Sachant que la vitesse ẋ ( t )est la dérivée par rapport au temps de la position
x ( t ), dans le cas des faibles amortissements, on peut exprimer cette dernière
par l’équation1 1.5 :
ẋ ( t )=v (t)=−x 0 ω 0 e−ξt sin (ω 0 t) (2.5)
Avec : x 0 : La position initiale
ω 0 : La pulsation propre
ω : La pulsation
Pour le système masse-ressort x 0 , ξ et ω 0 sont considérés comme étant des
paramètres.
En effet, ce premier exemple représente un système dynamique continu.
La population d’une espèce donnée, représente un bon exemple pour un
système dynamique discret. Cette population peut être modelée par une
série de la forme [2] (Eq 1.6) :
x n+1=β x n (1−x n) (2.6)
Avec
'
xn : population dans l année actuelle
x n+1 : population dans l ' année prochaine
β :taux de croissance
1
37
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
Ce système, très simple, permet de modéliser le fait que si la population est
faible alors elle va augmenter, mais si la population est trop importante elle
va manquer de ressources alimentaires et par conséquence elle diminue.
3. Type des systèmes dynamiques
Système linéaire et système non linéaire
Un système dynamique est dit linéaire s’il subit au principe de la
superposition. Ce principe est illustré sur la figure 2.2. Supposons qu’une
excitation e 1 (t) à l’entrée du système donne une réponse s1 ( t ) à sa sortie, et
qu’une autre excitation e 2 (t) engendre une réponse s2 ( t ) . Le système est
considéré comme linéaire si l’excitation [a e ¿ ¿1 ( t )+ b e 2 ( t ) ]¿ produit la
réponse[a s ¿ ¿ 1 ( t ) +b s 2 ( t ) ]¿.
Figure 2.2. Principe de superposition
Par contre, un système qui ne subit pas à ce principe est désigné come étant
un système non linéaire. Lorsque le système est non linéaire, une faible
variation de l’entrée peut produire une forte variation de la sortie tandis
qu’une forte excitation à l’entrée engendre une faible variation de cette
dernière [3].
38
Chapitre 2 Concepts de base
Système déterministe et système stochastique
Un système peut être aussi classifié comme déterministe ou stochastique.
Le système est dit déterministe si son état actuel (à l’instant t n ¿ est
déterminé à partir de son état précédent (à l’instant t n−1 ¿ . Autrement dit,
dans le cas d’un système déterministe, lorsqu’on sait les valeurs des
variables d’état ainsi les interactions entre ces variables à l’instant t n , on
peut déterminer l’état du système à l’instant t n+1. Ceci implique que lorsqu’on
connait l’état initial (à l’instantt 0 ¿ , on peut déterminer l’état du système à
tout instantt .
Contrairement au système déterministe, un système stochastique
(aléatoire) est un système dont son état suivant ne peut pas être déterminé
à partir des états précédents.
4. Espace des phases
Définition
L’espace des phases est un espace mathématique. L’état du système est
représenté par un point unique dans cet espace. Autrement dit, l’état du
système à l’instant t est représenté par un vecteur qui contient les valeurs
des variables d’état à cet instant. Si D variables d’état sont utilisées pour
décrire le système alors ce dernièr est représenté dans un espace euclidien
D
R . Puisque l’état du système évolue au cours du temps, les états possibles
d’un système seront représentés par un ensemble des points dans cet
espace.
Dans l’exemple cité dans le paragraphe précédent, nous avons dit que le
système masse ressort peut être représenté par deux variables d’état : la
position de la masse et sa vitesse. Notre espace des phases serait donc un
espace euclidien R2(figure 2.3-b). Le premier axe de cet espace représente
les variations de la position de la masse tandis que le deuxième axe
représente l’évolution de sa vitesse.
Un autre exemple d’un système dynamique est le circuit de Chua (Fig 1.4).
On note par V 1,V 2 et I la tension aux bornes de la capacité C 1, la tension aux
bornes de la capacité C 2 et le courant traversant l’inductance L,
respectivement.
En utilisant la loi des nœuds, on obtient trois équations différentielles
décrivant ce circuit (Eq 1.7) :
39
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
{
d V 1 (V 1−V 2 )
C1 = −f ( V 1)
dt R
d V 2 −(V 1−V 2)
C2 = +I (2.7)
dt R
dI
L =−rI −V 2
dt
f (V 1) est une fonction qui représente le courant circulant dans la partie du
circuit située à droite de la capacitéC 1.
Selon [5] et [6], le modèle du circuit de Chua peut être simplifié en écrivant
l’équation 1.8 sous la forme suivante :
{
ẋ=α ( y −x ) −α f (x)
ẏ =( x− y + z ) (2.8)
ż=−( βy + γz )
Avec
{
d V1
ẋ=
dt
dV 2
ẏ= (2.9)
dt
dI
ż=
dt
La fonction 1 f ( x) peut s’écrire sous la forme [6] :
1 1
f ( x )=m1 x+ ( m0 −m1) (| x+1|−|x−1|) + ( s−m0 ) (|x +δ 0|−| x−δ 0|)
2 2
(2.10)
Cette fonction caractérise la partie non linéaire du circuit de Chua (diode de
Chua). α , β , γ , m 0 et m 1 représentent les paramètre du circuit classique de
Chua [4] tandis que δ 0 et s sont deux paramètres utilisés par Leonov et al.
[7] afin d’assurer la stabilité de l’équilibre du système au tour du zéro.
1
1
En effet la fonction f ( x )=m1 x+ ( m −m1) (| x+1|−|x−1|) .
2 0
Le terme
1
2
( s−m0) (|x+ δ 0|−|x−δ0|) a été ajouté par Leonov et al [7] afin d’assurer la stabilité de
l’équilibre du système au tour du zéro.
40
Chapitre 2 Concepts de base
La figure 2.5 montre l’espace de phases de l’oscillateur de Chua en prenant
comme condition initiale V 1 ( 0 )=0.1 ,V 2 ( 0 )=0.15 et I ( 0 )=0.05 en faisant
varier à chaque fois les paramètres du circuit α , β , γ .
Figure 2.3 représentation du système masse ressort
(a) La position en fonction du temps
(b) L’espace de phase du système masse ressort
Figure 2.4 Circuit de Chua [4]
41
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
Figure 2.5 espace de phases de l’oscillateur de Chua
α =−1.420 , β=−0.0536 , γ=−0.0397
α =−1.420 , β=−0.0236 , γ=−0.0397
α =−1.420 , β=−0.0236 , γ=−0.0297
α =−1.398 , β=−0.0136 , γ=−0.0297
Attracteur
Dans le cas du système masse ressort, lorsque la masse est écartée de sa
position d’équilibre à une distance initiale x 0, elle oscille autours de son point
d’équilibre. Après un certain temps, la masse s’arrête à cause de la force du
frottement. La figure 1.6 représente l’espace des phases du système masse
ressort pour quatre conditions initiales différentes. On constate que quelle
que soit la condition initiale, la trajectoire dans chacun des quatre cas évolue
toujours vers le point(0,0) . Ce point est appelé attracteur. L’appellation
attracteur 1 est liée à l’effet que toutes les trajectoires sont attirées vers ce
point après un certain temps. Dans cet exemple, l’attracteur est constitué
d’un seul point qui est souvent appelé point fixe. En réalité, l’attracteur peut
être un cycle limite, un tore ou bien une structure plus complexe. La
structure de l’attracteur change en fonction du système dynamique étudié.
1
Le mot attracteur est la traduction du mot anglais « attractor » qui vient du verbe ’’ attract’’
(attirer)
42
Chapitre 2 Concepts de base
En effet, un attracteur est un ensemble ou un sous espace de l’espace des
phases dont toutes les trajectoires convergent à long terme. L’attracteur est
donc un ensemble d’états vers lequel le système tend après un certain
temps.
Comportement chaotique
Dans l’utilisation familière, le terme chaos signifie le désordre.
Mathématiquement, le terme chaos est utilisé pour décrire un
comportement irrégulier régi par des règles déterministes et qui apparait
comme un comportement stochastique [8]. Conventionnellement, le terme
chaos est utilisé pour décrire l’impossibilité de prévoir le comportement
d’un système déterministe à cause de la sensibilité de ce système aux
conditions initiales. Autrement dit, un comportement chaotique est une
caractéristique des systèmes déterministes sensibles aux très petits
changements dans leurs états initiaux. Cette propriété a été primitivement
décrite par Poincaré Henri dans son ouvrage intitulé « Science et méthode »
[9] :
«…, il peut arriver que de petites différences dans les conditions initiales en
engendrent de très grandes dans les phénomènes finaux ; une petite erreur
sur les premières produirait une erreur énorme sur les derniers. La
prédiction devient impossible et nous avons le phénomène fortuit »
43
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
Figure 2.6 espace de phase d’un système masse ressort pour plusieurs conditions initiales.
La figure 2.7 montre l’évolution de la population pour deux conditions
initiales très proches1 ( x 0=0.8 et x 0=0.79 ).
Malgré que les deux conditions initiales soient très proches, le système avait
subi des évolutions complètement différentes. L'évolution du système
devient alors imprévisible car une petite erreur sur les conditions initiales
engendre un comportement complètement différent.
La petite incertitude sur les conditions initiales croit exponentiellement avec
le temps ce qui rend l’état du système imprévisible après une courte durée.
La sensibilité aux conditions initiales se traduit par l’effet que, dans l’espace
des phases, deux trajectoire qui se trouve voisins à l’instant t , se divergent
l’un de l’autre après un certain temps ∆ t et cette divergence augmente
exponentiellement au cours du temps(Fig 2.8).
Figure 2.7 L’évolution de la population pour deux conditions initiales très proches (
x 0=0.8 et x 0=0.79 ).
1
La valeur du paramètre β est égale à 4 ( β=4 ¿
44
Chapitre 2 Concepts de base
Figure 2.8 la sensibilité aux conditions initiales
En 1961, Le météorologiste américain Edward Lorenz a mis en évidence
cette notion de la sensibilité aux conditions initiales. Lorenz a essayé de
simuler l’évolution du temps en utilisant trois facteurs non linéaire : la
température, la pression de l’atmosphère et la vitesse du vent. Il s'est aperçu
qu’un changement infiniment petit dans les conditions météorologiques
initiales rendre impossible de pronostiquer le temps dans les jours suivants.
Une turbulence engendrée dans l'atmosphère par les battements d'ailes d'un
papillon peut considérablement modifier le temps qu'il ferait les jours
suivants [10]. Après les travaux de Lorenz, la théorie de chaos a connu un
véritable essor scientifique dû à l’effet qu’elle a permit d'expliquer certains
comportements de systèmes chimiques, biologiques et même économique.
En résumé, une dynamique chaotique reflète un comportement imprévisible
d’un système non linéaire gouverné entièrement par des équations
déterministes. L’imprévision du comportement est liée à l’effet que la
dynamique du système est fortement sensible aux conditions initiales.
Un système chaotique n’est pas seulement sensible aux conditions initiales
mais il est aussi sensible aux valeurs de ses paramètres. Ceci veut dire
qu’une infime variation de la valeur d’un ou des plusieurs paramètres,
produit un changement considérable du comportement du système.
Une telle sensibilité se voit clairement en faisant changer la valeur du
paramètre ω dans l’oscillateur de Van der Pol [11]. Cet oscillateur est décrit
par les équations suivantes (Eq 2.11)
{
dx
=y
dt
dy
=μ [ (1+ x2 ) y ]+ F cos ( ωt ) (2.11)
dt
dθ
=ω
dt
45
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
La figure 2.10 montre l’espace des phases de cet oscillateur pour deux séries
de paramètres qui se différent seulement par la valeur du paramètre ω .
La figure 2.9 montre clairement qu’une faible variation de la valeur ω a
donné deux trajectoires carrément différentes.
Dans la figure 2.9-b, la trajectoire aboutira inexorablement sur une surface
dont la dimension n’est pas entière. Par conséquent, l’attracteur prend une
forme complexe et étrangère. Ce type d’attracteur est appelé « attracteur
étrange ».
En effet, ce terme a été originellement introduit par David Ruelle et Floris
Takens [12] en 1971 bien que le premier attracteur étrange a été découvert
par Lorenz en 1963[10]. Le terme étrange a été introduit pour désigner la
dimension non entière de l’attracteur. Autrement dit, un attracteur étrange
est un type particulier des attracteurs chaotiques et qui possède certaines
propriétés dont la dimension non entière fait partir. Une autre propriété
d’un attracteur étrange est la non périodicité des trajectoires situées dans
ce type d’attracteur. Géométriquement, cette propriété se traduit par l’effet
qu’aucune intersection de la trajectoire n’aura lieu. Ceci est du à l’effet qu’un
même état n’est jamais répété deux fois. La troisième propriété d’un
attracteur étrange est lié à sa nature chaotique. Pour ce type d’attracteur,
deux trajectoires infiniment proches à un instant donné se divergent l’une
de l’autre exponentiellement au cours du temps. Cette divergence traduit la
sensibilité aux conditions initiales que nous avons discutée auparavant. Il se
voit aussi clairement que la trajectoire d’un attracteur étrange est complexe
et elle semble due à l'intervention du hasard malgré que le système soit régi
par des lois parfaitement déterministes.
46
Chapitre 2 Concepts de base
(a)
(b)
Figure 2.9 Espace des phases de l’oscillateur de Van Der Pol
(a) μ=0.2 , f =1 , ω=0.90
(b) μ=0.2 , f =1 , ω=0.94
5. Reconstruction de l’espace des phases
La reconstruction de l’espace des phases est un des outils clés pour l’analyse
des systèmes dynamiques. Cette reconstruction nécessite l’utilisation d’un
certain nombre des variables d’état. Malheureusement, la détermination de
plusieurs variables d’état n’est pas toujours possible. En plus, la dynamique
des processus physiologiques ; telle que la température du corps humain,
l’activité électrique du cœur et l’activité musculaire ; est souvent décrit par
une série temporelle unidimensionnelle. Ceci veut dire que, dans le domaine
47
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
de la biologie et de la médecine, on manipule souvent une séquence des
valeurs discrètes. La description mathématique de la dynamique des
systèmes physiologique n’est pas évidente. Heureusement, ce problème peut
être surmonté par un simple théorème mathématique qui porte le nom de
théorème du plongement différé1. Ce théorème a été introduit par Takens
[13]. Takens a montré que la reconstruction du l’espace des phases est
possible en utilisant une seule variable d’état. Son théorème mathématique,
assez simple et assez efficace, se repose sur la transformation d’une
séquence de n valeurs à un espace Euclidien de dimension2 n+1. Ceci est
possible en introduisant un retard τ dans la série temporelle. Le théorème
du plongement différé s’appuis donc sur l’effet qu’ à partir d’une série
temporelle de n valeurs, il est possible de créer un nombre fini de vecteurs
d’état à m coordonnées construits à partir des valeurs retardées d’un délaiτ .
Considérons la série temporelle de n valeurs suivantes : x (1) , x ( 2 ) ,..., x ¿ ). A
partir de cette série, les coordonnées retardées suivantes peuvent être
générées :
[ ]
x(1) x (1+ τ) . . . x (1+(m−1)τ )
x(2) x (2+ τ) . . . x (2+(m−1)τ )
. . . . . . (2.12)
. . . . . .
x(m) x (m+ τ) . . . x (n)
Les deux constantes τ et m sont appelés respectivement le délai et la
dimension de plongement.
Les m vecteurs générés seront utilisés pour reconstruire l’espace des phases
(l’attracteur). L’attracteur reconstruit préserve les mêmes propriétés
topologiques de l’attracteur original2.
Dans le cas d’un système masse ressort, la reconstruction de l’attracteur
peut être faite en utilisant seulement la position de la masse. Pour cela, on
peut construire les cordonnées différées en choisissant un τ =4 .
La figure 2.10-a montre la reconstruction de l’espace des phases du système
masse ressort en utilisant comme variables d’état la position de la masse et
sa vitesse. Dans la figure 2.10-b, la même reconstruction est faite en utilisant
le théorème de Takens. On constate nettement que l’attracteur original et
l’attracteur reconstruit sont topologiquement identiques et la contribution
de Takens se voit clairement. Dans le domaine de la biologie et de la
médecine, cette contribution a permet de construire l’attracteur de certains
processus physiologiques tel que l’activité cardiaque [14]. En utilisant le
1
Traduit de l’anglais « delay embedding theorem ». Une autre traduction de ce terme qu’on
peut la rencontrée est « le théorème des coordonnée décalées ».
2
La reconstruction de l’espace des phases ne garantit pas la conservation des géométries des
structures de l’espace de phase. A titre d’exemple un cercle peut devenir une ellipse dans
l’espace reconstruit.
48
Chapitre 2 Concepts de base
théorème du plongement différé, il est possible maintenant de percevoir ; à
partir du signal ECG ; un espace des phases dont son analyse permet de
quantifier la dynamique du cœur et d’extraire certains paramètres
cliniquement utiles. La figure 2.11 montre deux espaces des phases dont le
premier est reconstruit à partir d’un ECG normal (Fig 2.11-a) et le deuxième
est obtenu en utilisant un signal ECG représentant un rythme ectopique (Fig
2.11-b). D’après cette figure, l’espace de phase du cas normal et du cas
pathologique se différent. Cette caractéristique a motivé les chercheurs à
utiliser l’espace des phases afin de détecter les différents cas pathologiques
présents dans un signal ECG et par conséquent de les classifier [15]. Cette
propriété a été aussi exploitée par Hsiao et al [16] pour discriminer des
battements normaux et des battements représentant une contraction
prématurée ventriculaire (CPV). Cette classification se repose sur l’effet que
l’espace des phases d’un QRS normal et celui du QRS d’une CPV sont
différents. Une classification qui s’appuie sur la reconstruction de l’espace
des phases performe mieux que celle utilisant uniquement la variabilité du
rythme cardiaque [17]. En réalité, les méthodes classiques, de l’analyse du
signal ECG, se reposent sur des descripteurs extraits du domaine temporel,
fréquentiel ou spectro-temporel. Ces descripteurs fournissent des
informations précieuses mais incomplètes. Ces techniques ignorent la
nature non linéaire des signaux physiologiques [18]. Dû à cette nature, les
méthodes non linéaires expriment mieux la dynamique de ces signaux. Mais,
le plus que ces méthodes peuvent le ramener à l’analyse des processus
biologiques, est fortement lié à une reconstruction correcte de l’espace des
phases. Cette dernière est fortement liée au choix de la dimension de
plongement m et du délai τ . Évidemment, un choix adéquat de ces deux
paramètres doit se faire.
Plusieurs méthodes ont été développées dans le but de choisir la valeur
optimale de ces deux paramètres. Cératines de ces méthodes considèrent
que le choix d’un de ces deux paramètres se fait indépendamment l’un de
l’autre, telle que les méthodes basées sur l’autocorrélation [19],
l’information mutuelle [20-21] et le plus proche faux voisin[22]. A l’opposé
de ces méthodes, d’autres méthodes considèrent que ces deux paramètres
sont corrélés [23-24].
49
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
Figure 2.10 Reconstruction de l’espace des phases
(a)Avec les variables d’état , (b)Avec le théorème du plongement différé
Estimation du délai τ
Dans le théorème de plongement différé ; développé par Takens ; aucune
contrainte a été imposée sur le choix du délai τ . Autrement dit, le choix du
paramètre τ est arbitraire. Mais en réalité, les différentes valeurs de ce
paramètre mènent à des trajectoires différentes.
Pour les petites valeurs du paramètre τ , on aura pas un gain, en terme
d’information, entre les différentes coordonnées différées. Ceci signifie que ;
pour les petites valeurs de τ ; les valeurs de x (i) et x (i+ τ ) sont très proches
et ces deux cordonnées expriment le même état du système. En d’autre
terme, il y a une redondance d’information puisque les coordonnées
différées sont fortement corrélées.
Par contre pour les grandes valeurs du paramètre τ , les coordonnées sont
fortement décorrélées et la trajectoire ne traduit pas parfaitement la
dynamique du système. Ceci est dû à la sensibilité aux conditions initiales
que nous avons déjà discutée. Pour des grandes valeurs de τ , le signal est
décorréle de lui-même.
50
Chapitre 2 Concepts de base
Le choix de la valeur du délai τ doit assurer que les coordonnées
x (1 ) , x (1+ τ) . . . , x (1+( m−1) τ ) portent des nouvelles
informations et que ces coordonnées ne soient pas entièrement décorrélées.
Afin d’estimer la valeur optimale de τ , plusieurs méthodes ont été
développées.
La plus simple des méthodes dédiées pour l’estimation du retard τ consiste à
utiliser la fonction d’autocorrélation de la série temporelle[25]. En effet,
cette fonction mesure la ressemblance entre la série temporelle x (t) et sa
version décalée x (t+ k ). La fonction d’autocorrélation du signal x (t) peut
s’écrire donc :
t− k
∑ x (t +k )
t
g (k )= N
(2.13)
∑ x( t) 2
Si la série temporelle x (t) et sa version décalée x (t+ k ) sont parfaitement
corrélées, g ( k ) vaut 1. Lorsque x(t) reflète la dynamique s’un système
aléatoire ou chaotique, g ( k ) tends vers zéro quand le temps t augmente.
En utilisant cette technique, le retard est pris comme le premier passage par
zéro de la fonction d’autocorrélation du signal x (t). Dans certains d’autres
travaux, le retard τ est pris comme étant l’abscisse du premier passage de la
fonction d’autocorrélation par sa valeur 1/e [26].
Malheureusement, la fonction d’autocorrélation ne considère que les
relations linéaires entre la série temporelle x (t) et sa version décalée
x (t+ k ). Ceci la rend inadéquate dans la détermination du retard τ pour les
séries temporelles non linéaires. D’autres méthodes, telle que l’information
mutuelle, ont été développées [27].
La technique de l’information mutuelle est basée essentiellement sur la
théorie de l’information de Shannon [28]. L’information mutuelle moyenne
entre la série x (t) et sa version décalée x (t+ k ) peut être donnée par la
formule 2.14 :
P(x ( t ) , x ( t +k ) )
I ( k )= ∑ P ( x ( t ) , x ( t+k )) log 2 (
P ( x ( t )) P(x ( t+ k ))
) (2.14)
x ( t ) , x (t +k)
P ( x ( t ) ) , P( x ( t + k ) ) et P( x ( t ) , x ( t+ k ) ) représentent les probabilités
marginales et la probabilité conjointe, respectivement.
En effet, l’information mutuelle est une technique statistique qui essaye de
répondre à la question suivante : qu’elle est la quantité d’information de la
distribution de x (t+ k ) que la distribution de x (t) peut nous l’indiquer ?
Pour un système chaotique, l’information mutuelle moyenne décroit
rapidement. Ceci traduit l’indépendance entre x ( t ) et x (t+ k ). En effet, à
51
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
cause de la sensibilité aux conditions initiales, la prédiction de x (t+ k ) à
partir de x ( t )devient faible.
52
Chapitre 2 Concepts de base
Figure 2.11 espace des phases pour : (a) un signal ECG normal et (b) un signal ECG
contenant des battements ectopiques.
53
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
Le retard peut être alors estimé comme étant le premier minimum de I ( k ) .
Autrement dit, la fonction de l’information mutuelle serait calculée pour les
différentes valeurs de K jusqu’elle atteindra son premier minimum.
C’est cette technique qui est adopté dans qui va suivre pour déterminer le
temps de retard τ .
Estimation de la dimension m
Cette technique repose sur un principe géométrique. En effet, deux points
x (i)et x ( j) sont considérés comme étant des vrais voisins, s’ils sont proches
dans l’espacé des phases de la dimension M , et ils restent encore proches
dans l’espaces des phases de la dimension M +1. Par contre, si ces deux
points qui sont proches dans l’espace des phases de la dimension M ,
s’éloignent l’un de l’autre dans l’espace des phases de la dimension M +1, ils
sont considérés comme des vaux voisins .
Notons par D M et D M +1 les distances euclidiennes entre les deux points x (i)
et x ( j) dans les deux espaces de phases des dimensions M et M +1,
respectivement.
On considère les deux points comme des faux voisins si la relation donnée
par l’expression 2.15 est vérifiée :
D M +1
>Rs (2.15)
DM
R s représente est un seuil qu’on peut le déterminer à partir de la
distribution spatiale de la série temporelle décalée : x (t), x (t+ τ ), x ( t +2 τ ) ,…
etc.
En effet, la formule 2.15 implique que si la distance euclidienne entre les
deux points x (i) et x ( j) dans l’espace de dimension M +1 augmente plus est
R s fois (ou plus) , que celle entre ces deux même points dans l’espace de
dimension M , alors les deux points sont pris comme des faux voisins. En
réalité, lorsque la dimension M n’est pas la vraie dimension de l’attracteur,
les deux points sont proches à cause de leurs mauvaise projections sur cet
espace. Un passage à un espace de dimension plus élevée ( M +1) engendre
un éloignement de ces deux points. La dimension optimale m correspond à
une décroissance radicale du nombre de faux voisins . Autrement dit, les
vrais voisins dans l’espace M reste comme des varias voisins dans l’espace
M +¿1.
6. La dimension de corrélation
54
Chapitre 2 Concepts de base
La dimension de corrélation est un paramètre qui mesure la complexité d’un
système. Le terme complexité désigne l’irrégularité du système. Autrement
dit, plus le comportement du système est irrégulier plus le système est
complexe.
En effet, la dimension de corrélation estime le nombre des variables
indépendantes nécessaires pour décrire le comportement d’un système.
Pour les systèmes linéaires périodiques et les attracteurs quasi-périodiques,
la dimension de corrélation est une valeur entière. Par contre, un système
chaotique possède une dimension de corrélation non-entière.
L’estimation de la dimension de corrélation nécessite le calcul de l’intégrale
de corrélation. Cette intégrale estime la probabilité que les deux points x i et
x j , de l’espace des phases, soient des voisins. En effet, l’intégrale de
corrélation mesure la probabilité que les deux points x i et x j sont proches
l’un de l’autre à une distance inférieure ou égale une distance seuil r . Cette
intégrale est définie par la formule 2.16 :
1
C ( r , N )= ∑ Θ(r−|x i−x j|¿ )¿
N ( N −1) i ≠ j
(2.16)
N exprime la longueur de la série temporelle tandis que Θ représente la
fonction Heaviside et qui peut être exprimée par la formule 2.17.
Θ ( r −|x i−x j|) =
{
1 Si|x i−x j|<r
0 Si|x i−x j|>r
(2.17)
En réalité, l’intégrale de corrélation mesuré le rapport entre le nombre des
pairs ( x i , x j ¿ séparés avec des distances inférieures à r et le nombre total
des points constituants l’attracteur. Calculer l’intégrale de corrélation
revient à compter ; dans l’espace des phases ; le nombre des voisins d’un
point quelconque distants moins de r .
Grassberger P and Procaccia [29] ont démontré que pour des petites
valeurs de r , l’intégrale de corrélation est exponentiellement liée à r (Eq.
2.18)
C ( r , N ) rD 2
(2.18)
D 2 est appelée la dimension de corrélation. En introduisant le logarithme
dans l’équation 2.18, la dimension de corrélation peut s’écrire :
log C ( r , N )
D 2=
log ( r )
(2.19)
55
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
L’équation 2.19 indique que la dimension de corrélation n’est autre que la
pente de la droite donnant log C ( r , N ) en fonction de log ( r ) . Pour estimer
la dimension de corrélation, il suffit donc de tracer log C ( r , N ) en fonction
de log ( r ) et de chercher la pente de la partie linéaire du graphe .
7. Les entropies
L’entropie approximative
Le concept de l’entropie a été originellement utilisé dans le domaine de la
thermodynamique dans le but de quantifier le désordre dans un système
donné.
Ce concept a été adopté par Shannon [28] pour analyser les séries
temporelles. L’entropie quantifie la perte de l’information contenue dans
l’état initiale du système. Ceci implique qu’autant la série temporelle
contient des valeurs redondantes autant que la perte sera faible et par
conséquence l’entropie a une valeur faible. A l’opposé, la valeur de l’entropie
sera élevée lorsque la série temporelle contient des informations non
redondantes. Par conséquent, le concept de l’entropie est fortement lié à la
régularité et la prédictibilité d’une série temporelle. Pour un signal
périodique, il est facile de prévoir les états futurs d’un système à partir de la
connaissance de ces états précédents. Dans ce cas, l’entropie est nulle. Par
contre, pour un signal aléatoire il est difficile ou impossible de deviner l’état
futur allant de la connaissance des états précédents , et par conséquence
l’entropie atteint une valeur infinie. Malheureusement, une mesure correcte
et précise de l’entropie peut se faire seulement si on dispose d’une série
temporelle assez longue. Plus précisément, une mesure correcte de
l’entropie des signaux physiologiques est presque impossible car la plus part
de ces signaux sont construits à partir d’une faible quantité des données
expérimentales. Afin de surmonter cette limitation, Pincus [30] a introduit
un nouveau concept mathématique : l’entropie approximative.
En fait, l’entropie approximative quantifie le dégrée de régularité et de
complexité d’une série temporelle. Pour une temporelle régulière, l’entropie
approximative à une valeur faible tandis que pour un système complexe elle
prend une valeur plus élevée. Cette technique semble très utile pour décrire
la complexité des signaux physiologiques. Son importance peut se résume en
trois points fondamentaux [31] :
Elle peut être mesurée pour des courtes séries [Link]
56
Chapitre 2 Concepts de base
avantage permet de manipuler les signaux physiologiques attendu
qu’il est difficile d’avoir des enregistrements longs de ces derniers.
Elle est robuste à la présence des bruits. En effet, un bon choix de la
distance r et suffisant pour éliminer l’effet des bruits.
Elle peut être estimée à partir des signaux déterministes et
aléatoires.
L’entropie approximative de la série temporelle x= { x1 , x2 , x3 , … , x N } se
calcule en suivant la procédure suivante :
1. On forme m vecteurs X ( 1 ) , X (2 ) , … .. , X ( N−m−1) définis par :
X ( i )=[x ( i ) , x ( i+1 ) , … ., x (i+ m−1)] avec i=1 , N−m+1.
2. On mesure la distance entre les deux séquences X ( i) et X ( j)
donnée par : d ¿
3. Pour chaque séquence X ( i), on calcule N m (i) , le nombre des
séquences X ( j) (avec j=1: N −m+ 1) qui vérifie que d ¿
m
N (i)
4. On détermine par la suite l’intégrale de corrélation C mr ( i )= .
N−m−1
En effet, cette intégrale est définie comme étant le nombre des séquences
X ( j) similaires ; à une distance r ; à X (i) sur le nombre total des séquences.
m
5. on calcule C r ( i ) , pour chaque séquence X(i). Autrement dit, on
répète l’étape (4), pour i=1 :N-m+1.
N −m+1
1
6. On définie : ∅ =
m
r
N −m+ 1
∑ l n Cmr ( i )
i=1
7. On incrémente la valeur de m et on répète les étapes (1) à (6).
m+1
Autrement dit, on calcule C r ( i ) et ∅ mr +1
8. L’entropie approximative est définie par :
m m +1
ApEn ( m ,r , N )=∅r −∅ r (2.20)
N−m+1 N −m
1 1
ApEn ( m ,r , N )=
N−m+1
∑ log C mi ( r )−¿
N −m
∑ log C m+1
i (r ) ¿
i=1 i =1
(2.21)
Afin de mieux assimiler cette procédure, prenant l’exemple suivant1 [32]:
On considère une RR une série temporelle reflétant le rythme cardiaque
d’un patient donné tel que :
RR= { 85,80,89,85,80,89,85,80,89,85,80,89 , … .,85,80,89,85,80,89,85,80, 89 }
On prend fixant m=2 et r =3.
Etape 1 : on constitue les vecteurs X (i)
1
Dans cette référence, il y a des erreurs de calcul de l’intégrale de corrélation. Ces erreurs ont
été corrigées dans l’exemple cité dans notre thèse.
57
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
X ( 1 )=¿[85,80]
X ( 2 )=¿[80,89]
X (3 )=¿ [89,85] .¿ . ¿ . ¿ X ( 50 )=¿ [80,89 ]¿
X ( 4 )=¿[ 85,80]
¿
Etape 2 fixant i=1 et j=1:50
On mesure les distances d ¿ et on compte les nombre des séquences X ( j )
qui vérifient d ¿ :
j =¿1 d ¿
max ¿
j =¿2 d ¿
max ¿
j =¿3 d ¿
max ¿
j =¿4 d ¿
max ¿
Jusqu’à présente nous avons trouvé deux séquences qui vérifient que d ¿ . ces
deux séquences sont X (1) et X ( 4) . On continue à comparer X ( 1) avec le
reste des séquences X ( 5 ) , … .., X (50) . Le nombre total N 2 (1) des
séquences X ( j)qui vérifient que d ¿ est égal à 17.
2
N (1) 17
Etape 3 : on calcule l’intégrale de corrélation C 23 ( i=1 ) = =
N −m−1 50
Etape 4 : on reprend les étapes de 1 à 3, pour les autres valeurs de i ; (
c−à−d pour i=2: N −m+ 1) ; afin de calculer C 23 ( 2 ) , C23 ( 3 ) , … … ,C 23 ( 50 )
N −m+1
1
Etape 5 : on calcule ∅ =
N −m+ 1
m
r ∑ l n Cmr ( i )
i=1
N −m +1
1
∅ mr =
50
∑ ln (C23 ( 1 ) +C¿¿ 32 ( 2 ) +C23 ( 3 ) , … …+C 23 ( 50 ) )≈−0.0210445495652794 ¿
i=1
Étape 6 : on incrémente la valeur de m. (m=3). Autrement dit, on va
construire les séquences X(i) suivantes :
X ( 1 )=¿[85,80,89]
X ( 2 )=¿[80,89,85]
X (3 )=¿ [89,85,80] .¿ . ¿ . ¿ X ( 49 )=¿[85,80,89]¿
X ( 4 )=¿[85,80,89]
¿
3
On répète les étapes (2) à (5) dans le but de calculer ∅ r . Après calcul, on
3
trouve que ∅ r ≈−0.0214967719704817 .
58
Chapitre 2 Concepts de base
Etape 7 : on calcule l’entropie approximative :
2 3
ApEn ( m ,r , N )=∅r −∅ r ≈ 0.0004
On constate que la valeur de l’entropie approximative est très faible ce qui
traduit effectivement la régularité de la série temporelle étudiée. En effet,
2 3
pour avoir une valeur faible de l’entropie approximative, il faut que ∅ r et ∅ r
ont des valeurs très proches. Ceci est vrai si la probabilité d’avoir des
séquences de m points similaires à une distance r, reste presque la même
pour des séquences de m+1 points. En réalité cette propriété est vérifiée si
la série temporelle est régulière.
Une mesure correcte de l’entropie approximative nécessite un choix adéquat
des deux paramètres m et r. Dans l’analyse des signaux physiologiques, le
paramètre m est souvent fixé à 2 (m=2). Selon Pincus et al. [33], le
paramètre r peut prendre une des valeurs de l’intervalle [0.1 σ ,0.25 σ ] ou σ
représente la variance de la série temporelle. En réalité, le paramètre r est
souvent fixé à 0.25 σ [34]. D’autres auteurs [35] suggèrent de choisir r qui
maximise l’entropie approximative. En réalité, le choix de r dépond
énormément de l’application.
Entropie échantillonnée1
L’entropie échantillonnée a été proposée par Richman et Moorman [36] afin
de palier l’inconvénient major de l’entropie approximative. Cet
inconvénient est lié à l’autosimilarité. Le terme autosimilarité exprime l’effet
que la séquence X(i) sera comparée avec les restes des séquences incluant
X (i) elle-même. Si on reprend l’exemple précédent, on constate que la
première distance mesurée c’étaitd ¿. Cette distance est toujours nulle et
par conséquent elle est toujours inférieure à la tolérance r (quelque soit la
valeur de r). Cette propriété est toujours vraie pour toutes les distances d ¿.
En réalité, ceci permet d’éviter de calculer le logarithme népérien de zéro
m
puisque C r ( i ) est différent de zéro quelque soit i . En effet, l’autosimilarité
mène à une contradiction avec la notion de l’entropie qui mesure la perte de
l’information. Lors de la mesure de l’entropie échantillonnée, l’autosimilarité
n’est pas prise en considération en évitant de comparer les distances d ¿ .
L’entropie échantillonnée peut être mesurée en suivant la même procédure
utilisée pour déterminer l’entropie approximative à l’exception que
l’autosimilarité n’interviennent pas dans les calculs. Ainsi, on suit les mêmes
étapes de (1) à (5) en évitant de calculer les distances d ¿. Dans l’étape (6),
m
∅ r est calculé par l’expression suivante :
1
Traduction du terme anglais « Sample entropy »
59
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
N −m
1
∅ mr =
N −m
∑ C mr ( i ) (2.22)
i=1
Par la suite, on reprend les mêmes étapes mais en incrémentant le m afin de
m +1
calculer ∅ r . L’entropie échantillonnée peut être déterminée par :
m m+1
SampEn ( m, r , N )=ln (∅ r −∅ r ) (2.23)
SampEn ( m, r , N )=ln (∅ r )−ln (∅ ¿ ¿ r
m m+ 1
)¿ (2.24)
L’entropie floue1
L’entropie échantillonnée a réussi de résoudre le problème de
l’autosimilarité imposée par l’entropie approximative. Malheureusement, la
consistance des deux types d’entropies reste faible. Le terme consistance
exprime que l’entropie approximative et échantillonnée dépondent
énormément des certains paramètres notamment la tolérance r.
Autrement, le terme exprime l’effet qu’un faible changement dans les
paramètres m, N et r peut causer un changement énorme de la valeur de
l’entropie ce qui rend les entropies approximative et échantillonnée moins
robuste au choix des paramètres et à la présence de bruit. Plus
précisément, la faible consistance est due essentiellement à la discontinuité
de la fonction Heaviside Θ qui ne peut prendre que les deux valeurs binaires
0 et 1. Cette discontinuité cause un changement brut de la similarité.
Afin de surmonter cet inconvénient, Chen et al. [37] ont proposé de
remplacer la fonction Heaviside par une fonction exponentielle (ou
gaussienne)(Fig. 2.12). La nouvelle entropie porte le nom de l’entropie floue.
Cette appellation vient de la théorie de la logique floue introduite par Zadeh
L. [38].
1
Traduction du terme anglais « Fuzzy entropy »
60
Chapitre 2 Concepts de base
Figure 2.12 la fonction Heaviside
Chen et al. [39] ont remplacé la fonction Heaviside par une fonction
exponentielle définie par l’équation 2.25 :
n
−(d / r)
μ ( d ,r , n ) =e (2.25)
Dans [40], la fonction Heaviside a été remplacée par la fonction suivante :
1
μ ( d ,r )= d −0.5 (2.26)
[ ]
r
1+ e
En effet, la fonction Heaviside peut être remplacée par n’importe quelle
fonction f ( x) à condition que cette dernière satisfasse les deux conditions
suivantes :
Elle doit être une fonction continue afin d’éviter un changement brut
de la similarité.
Elle doit être convexe de tel sort que l’autosimilarité correspond au
maximum de cette fonction.
61
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
Entropie multi-échelles1
L’entropie multi-échelles a été proposée par Costa M. et al. [41]. Elle consiste
à mesurer l’entropie approximative ou échantillonnée en utilisant plusieurs
échelles. En effet, l’entropie approximative, échantillonnée ou floue sont
calculées en utilisant une seule échelle. Ceci est en contradiction avec la
nature des signaux physiologiques. En réalité, ces signaux ont des
propriétés spatio-temporelles qui changent d’une échelle à une autre. Ceci
permet d’avoir plus de détails sur la dynamique du signal [42].
La décomposition de la série temporelle x ( t )= { x 1 , x 2 , … … , x N } en
différentes échelles peut se faire en utilisant l’expression suivante :
jτ
1
y τj= ∑ x
τ i=( j−1 ) τ+1 i
(2.27)
N
Avec : 1< j<
τ
En faisant varier le délai τ , on obtient la décomposition de la série
temporelle en différentes échelles. La figure 2.13 illustre la procédure de la
décomposition de la série temporelle à l’échelle 2 et 3.
Après que la décomposition de la série temporelle est faite, l’entropie
approximative, échantillonnée ou floue serait calculée à chaque échelle.
L’ensemble des valeurs obtenues constitue les valeurs de l’entropie multi-
échelles. L’entropie à l’échelle 1 ( τ =1) est l’entropie de la série temporelle
originale elle-même.
8. Les exposants de Lyapunov
Les exposants de Lyapunov mesurent la vitesse de divergence entre deux
points qui se trouve initialement très proches l’un de l’autre [31].
Ils mesurent la vitesse avec lesquels deux points infiniment proches
s’éloignent lorsque le système évolue. En d’autre terme, les exposants de
Lyapunov quantifient la sensibilité du système aux conditions initiales. La
notion de la sensibilité aux conditions initiales a été discutée dans le
paragraphe 2.5. Elle est considérée comme étant une des propriétés du
système chaotique. En effet, lorsque le système est chaotique, deux
conditions initiales infiniment semblables mènent à des conditions finales
très différentes. Par conséquence, deux trajectoires très adjacentes se
1
Traduction du terme anglais « multisacle entropy ». L’entropie multi-échelles prote le nom
de l’entropie calculée dans les différentes échelles. Si par exemple l’entropie calculée est
l’entropie approximative l’entropie multi-échelles correspondante est « multiscale
approximate entropy ».
62
Chapitre 2 Concepts de base
divergent exponentiellement, ce qui conduit à deux états carrément
différents. Des faibles perturbations dans les conditions initiales changent
dramatiquement la dynamique du système.
Figure 2.13 décomposition à l’échelle 2 et 3 de la série temporelle x ( t ) [41]
Si on désigne par D(0) la distance entre deux trajectoires de l’espace de
phase à l’instant t=0 , alors cette distance à l’instant t peut être exprimée
par :
D ( t ) =D ( 0 ) . e λ .t
t
(2.28)
En faisant introduire le logarithme naturel de deux cotés de l’équation 2.29,
on peut définir l’exposant de Lyapunov à l’instant t par :
1 D (t)
λ t=lim log 2 (2.29)
t→∞ t D(0)
D’après l’équation 2.28, si λ t est positif , la distance D ( t ) augmente
exponentiellement , ce qui exprime que les deux trajectoires ont tendance à
rapidement s’éloigner. Donc, l’existence d’un exposant de Lyapunov positif
indique que le système est chaotique.
9. Analyse par « detrended fuluctuation » (DFA)
Cette technique mesure la corrélation à long et à short terme des séries
temporelles. Elle a été développée par Peng et al.[43] . La DFA permet de
mesurer l’autosimilarité dans une série temporelle.
La DFA peut être déterminée en utilisant les étapes suivantes :
63
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
Etape 1 : dans cette étape, on calcule le profile y (t) de la série temporelle
x ( t )= { x 1 , x 2 , … … , x N } comme suite :
k
y ( k )=∑ [ x i−x (t)¿]¿ (2.30)
i=1
Avec x (t) représente la moyenne de la série temporelle x ( t ).
Etape2 : Le profile y (t) est subdivisé en des segments (fenêtres) non
chevauchés de longueur n .
Etape 3 : Le profile local y n ( k ) dans chacun des segments est calculé par la
suite.
Etape 4 : La fonction f ( n ) est par la suite calculée en utilisant l’équation
3.31 :
√
N
1
f ( n )= ∑
N k=1
[ y ( k )− y n ( k )]
2
(2.31)
La fonction f ( n ) doit être calculée pour les différentes longueurs des
segments n . Finalement, on trace log ¿ en fonction de log ¿. A partir de ce
tracé, deux exposants peuvent être calculés. Le premier exposant ; noté α 1 ;
est déterminé à partir les valeurs de n inferieures à 16. Il traduit les
corrélations à court terme dans la série temporelle. Par contre, le deuxième
exposant α 2 , exprime les corrélations à long terme dans la série temporelle
Ce deuxième exposant est calculé à partir des segments de longueurs
supérieures à 16.
Les exposants α 1 et α 2 varient de 0.5 à 1.5. Pour un bruit blanc cette valeur
est égale 0.5. Pour un bruit de type Brownien, α vaut 1.5. La corrélation à
long et à court terme correspondent à une valeur de α entre 0.5 et 1. Plus
cette valeur est proche de 1 plus la corrélation est élevée.
La figure 2.14-a montre un signal traduisant la variabilité du rythme
cardiaque. Ce signal a été généré à partir du signal ECG 101 de la base des
signaux ECG MIT-BIH. La figure 2.14-b illustre sa DFA.
La valeur obtenu de α 1 indique qu’il existe une corrélation à court terme
dans le signal traduisant la variabilité du rythme cardiaque alors que la
valeur de montre l’absence de la corrélation à long terme.
64
Chapitre 2 Concepts de base
(a)
(b)
Figure 2.14 DFA de la variabilité du rythme cardiaque du signal 101
(a) Signal ECG,(b) Analyse par DFA
10. Conclusion
65
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
Dans ce deuxième chapitre, certaines notions de base ont été traitées. Les
concepts discutés sont considérés comme des concepts fondamentaux dans
l’analyse non linéaire des systèmes dynamiques. En effet, l’analyse non
linéaire des processus physiologique ; tel que le signal ECG ; a permet de
mieux comprendre ces processus car elle prend en considération la nature
non linéaire des phénomènes biologiques et physiologiques. La robustesse
de cette analyse est fortement liée à la bonne reconstruction de l’espace des
phases. Afin que cette reconstruction soit correcte, les deux paramètres m et
τ doivent être convenablement choisis. Une fois la reconstruction est faite,
certains paramètres peuvent être extraits de l’espace des phases. Ces
paramètres quantifient la complexité (corrélation de la dimension et les
entropies), la sensibilité aux conditions initiales (Les exposants de
Lyapunov) et la corrélation à long et à court terme (DFA) des ces signaux
physiologiques.
Malheureusement, l’extraction des ces paramètres n’est pas toujours
évidente à cause de la présence des bruits. Ces derniers peuvent influencer
énormément les valeurs de ces paramètre ce qui conduit à des fausses
interprétations.
Les effets des bruits sur les paramètres non linéaires constituent l’objectif
du chapitre suivant.
Références
66
Chapitre 2 Concepts de base
1. M. Shelhamer, Nonlinear dynamics in physiology: A state
space approach, World Scientific Publishing, 2007.
2. A. Tsonis, Chaos: From Theory to Applications,Plenum
Press,New York, 1992.
3. Amine Ali Naït, Advanced Biosignal Processing, Springer-
Verlag Berlin Heidelberg, 2009.
4. [Link]
5. Chua, L.O., Wu, C.W., Huang, A., Zhong, G, A Universal Circuit
for Studying and Generating Chaos- Part I: Routes to Chaos.
IEEE Transctions on Circuits and Systems, 40(1993).
6. E. Billota and P. Pantano,A Gallery of Chua attractors, World
scientific,2008.
7. G.A. Leonov, V.I. Vagaitsev, N.V. Kuznetsov,” Algorithm for
Localizing Chua Attractors Based on the Harmonic
Linearization Method”, Doklady Mathematics, 82 (2010)
663–666.
8. A. Dokoumetzidis, A. Iliadis,and Panos Macheras,Nonlinear
Dynamics and Chaos Theory: Concepts and Applications
Relevant to Pharmacodynamics, Pharmaceutical Research,
18 (2001) 415-426.
9. Henri Poincaré, Science et Méthode, Paris, 1908.
10. Edward Lorenz, The Butterfly Effect Predictability: Does the
Flap of a Butterfly’s Wings in Brazil Set off a Tornado in
Texas ?, American Association for the Advancement of
Science,1972
11. W. Szemplinska Stupnicka and J. Rudowski, Neimark
bifurcation :almost periocity and chaos in forced Van Der
Pol-Duffing system in the neighbourhoud of the principle
resonance, Physic letter A, 192(1994) 201-206.
12. Ruelle D. and Takens F.,On the nature of turbulence, Commun
Math Phys 20(1971) 167-192.
13. F. Takens,Detection strange attractors in turbulence,
Dynamical systems and turbulence, Warwick , (1981) 366–
381.
14. I. Nejadgholi, M. H. Moradi, F. Abdolali ,Using phase space
reconstruction for patient independent heartbeat
classification in comparison with some benchmark methods,
Computers in biology and medicine, 41(2011) 411-419.
15. A. Amann, R. Tratnig, K. UnterKofler, Detecting ventricular
fibrillation by time delay methods, IEEE transaction on
biomedical engineering, 54 (2007)174-177.
16. LC Hsiao, F Shin Chin., C. Pei Kuang, W. Chun Li, W. Jyh Da,
Phase space reconstruction of electrocardiogram for
heartbeat classification, IFMBE Proceeding , 25 (2009)
1234-1237.
17. Felice M. Robert, Richard J. Povinelli, Kristina M. Ropella, “
identification of ECG arrhythmia using phase space”
18. Elif Derya Übeyli, Detecting variabilities of ECG signals by
Lyapunov exponents, Neural computer and application, 18
(2009) 653-662.
19. M. Han, “Prediction Theory and Method of Chaotic Time
67
Analyse non linéaire des intervalles ECG en vue d’une reconnaissance
des signatures pathologiques
Series”, Water Power Press, 2007.
20. Fraser A. M., Information and entropy in strange attractors,
IEEE Trans. Inf. Theory, Vol. 35, pp. 245–262, 1989.
21. P. R. Khazaee, N. Mozayani and M. R. J. Motlagh, A Genetic-
based Input Variable Selection Algorithm Using Mutual
Information and Wavelet Network for Time Series
Prediction, IEEE Trans on Systems,Man and Cybernetics,
2133 – 2137, 2008.
22. Matthew B Kennel, Reggie Brown , Henry D. I. Abarbanel,
Determining embedding dimension for phase space
reconstruction using geometrical construction, Physical
Review A, 42 (1992) 3403-3411.
23. Yibin Li ,Yong Song , Caihong Li,” Selection of Parameters for
Phase Space Reconstruction of Chaotic Time Series”, IEEE
Fifth International Conference on Bio-Inspired Computing:
Theories and Applications ,in :IEEE (Ed.) ,30 – 33,2010
24. MA Hong-guang, HAN Chong-zhao, Selection of Embedding
Dimension and Delay Time in Phase Space Reconstruction ,
Front. Electr. Electron. Eng. China , 1(2006) 111–114.
25. A. Tsonis, J. Elsner, ’’the weather attractor over very short
time scales’’, Nature, Vol. 33,1988.
26. H.G. Schuster, Deterministic chaos, VCH, Weinheim, 1988.
27. A.H. Jiang ,H. Chang Huang, Z. H. Zhang, Jun Li, Z. Y. Zhang, H.
X. Hua,” Mutual information algorithms”, Mechanical systems
and signal processing, 24 (2010) 2947-2960.
28. A
29. Grassberger P and Procaccia I ,” Measuring the strangeness
of a strange attractors”, Physica D , 9 (1983)189–208.
30. Pincus S.M. , Approximate entropy as a measure of system
complexity”, Proc. Natl. Acad. Sci., 88,(1991) 2297–2301.
31. Metin Akay , ”Nonlinear biomedical signal processing:
Dynamic analysis and modeling ”, vol.2, IEEE press series on
biomedical engineering, New York, 2001
32. wikipedia
33. Pincus S.M., Gladstone I.M., Ehrenkranz R.A. , A regularity
statistic for medical data analysis . Journal Clinical
Monitoring ,(1991)335-345.
34. Remzi Seker, Sokol Saliu,Ahmet Birand, Kudaiberdieva G.,
Validity test for a set of nonlinear measure for short data
length with refrence to short term heart rate variability
signal, journal of system integration, 10(2000) 41-53.
35. P Castiglioni, M Di Rienzo, How the Threshold ”R” Influences
Approximate Entropy Analysis of Heart-Rate Variability,
Computers in Cardiology, 35(2008) 561-564.
36. Richman J.S., Moorman J.R.,” Physiological time series
analysis using approximate entropy and sample entropy”,
American journal of physiological and heart circulation,
Physiol. ,278 (2000) H2039-H2049, 2000.
37. Chen W.T., Wang Z.Z., Xie H., Yu W.,” Characterization of
68
Chapitre 2 Concepts de base
surface EMG signal based on fuzzy entropy” ,IEEE Trans.
Neural syst. [Link],15 (2007) 366-272.
38. Zadeh L., Fuzzy sets, Information and control, 8 (1965) 338-
353 .
39. Chen W.T., Zhuang J., Yu W., Wang Z., Measuring complexity
using FuzzyEn, ApEn and SampEn , Medical engineering &
physics, 31, (2009) 61-68.
40. Hong B.X., Gao Z.M, Liu H., ”Classification of ventricular
tachycardia and fibrillation using fuzzy similarity based
approximate entropy”, Expert system with application, 38
(2011) 3973-3981.
41. M. Costa, A. L. Goldberger, C. K. Peng, Multiscale entropy
analysis of complex physiological time series, Phys. Rev. Lett.,
89 (2002)068102-1-068102-4.
42. Xu Z., Xiang C., Barkhaus P.E., Ping Z., Multiscale entropy
analysis of different spontaneous motor unit discharge
patters, Journal of biomedical and health informatics,
17(2013) 470-476.
43. Peng C-K, Buldyrev SV, Havlin S, Simons M, Stanley HE,
Goldberger AL. On the mosaic organization of DNA
sequences. Phys Rev E ,49 (1994) 1685–9.
44.
34